Laikmetā, kad mākslīgā intelekta (MI) un ar to darbināmo rīku jomā ir vērojama ātra attīstība, ir svarīgi rast līdzsvaru starp MI pozitīvo aspektu izmantošanu un iespējām sevi pasargāt no riskiem. Safabricētas sarunas, nozagta balss un vizuālā identitāte – šie ir tikai daži riski, ar ko saskaramies jau šobrīd un turpināsim saskarties nākotnē, ja nebūsim pietiekami informēti par to, kā sevi pasargāt.
Pēc aģentūras “Womstar” vadītāja Toma Brieža teiktā, izmantot MI palīdzību ikdienā var visi – uzņēmumi, satura veidotāji, aģentūras, kā arī cilvēki, kuri vienkārši vēlas sev atvieglot ikdienu. MI nenoliedzami sniedz daudz un dažādas priekšrocības, tomēr jau šobrīd ievērojam, ka šo rīku izmanto arī krāpnieki.
MI radītie riski
Jau šobrīd medijos un sociālajos tīklos ir redzama informācija, ka ar MI un ar to darbināmo rīku palīdzību tiek zagti balss ieraksti, lai vēlāk no iegūtā materiāla safabricētu nenotikušas sarunas vai neesošus balss ierakstus. Kā spilgts piemērs, uz ko MI spējīgs, ir internetā atrodamais TV ziņu ieraksts, kurā tas “nozadzis” Kristīnes Garklāvas balsi. Šoreiz gan tas nav izmantots krāpnieciskiem nolūkiem, taču veidots, lai informētu sabiedrību par MI riskiem. Tomēr ne visi piemēri ir ar pozitīvu noskaņu, piemēram, Armando Platas, pasaulē zināmā balss aktiera, balss tika nozagta un izmantota, lai reklamētu iepirkšanās centru Kolumbijas galvaspilsētā Bogotā, stāstot par filmu ar saturu pieaugušajiem un reklamējot banku. Visos iepriekš minētajos gadījumos ar Armando Platu nekas netika saskaņots un viņš nesaņēma nekāda veida atlīdzību par viņa balss izmantošanu.
Pēc tam Armando Plata Latīņamerikā aizsāka cilvēktiesību aizstāvēšanas kustību “Right to one’s own voice” jeb “Tiesības uz savu balsi”, arī citur pasaulē daudz un dažādi mākslinieki apvieno spēkus, lai cīnītos pret balsu klonēšanu ar MI rīkiem.
Arī Eiropas Savienība (ES) nesnauž un patlaban strādā pie MI regulējuma. ES Parlaments skaidro, ka šī akta izveidošanas prioritāte ir nodrošināt, lai ES izmantotās mākslīgā intelekta sistēmas būtu drošas, pārredzamas, izsekojamas, nediskriminējošas un videi draudzīgas. Šim regulējumam ir dažādas riska pakāpes, kuras nosaka MI riska radīto līmeni un ietekmē pakalpojumu sniedzējiem un lietotājiem noteiktos pienākumus. Piemēram, nepieņemama riska pakāpē ir sistēmas, kas tiek uzskatītas par draudu cilvēkiem. Augsta riska pakāpē ir sistēmas, kas negatīvi ietekmē drošību vai pamattiesības.
Latvijas influenceri
Veicot aptauju Latvijas satura veidotāju vidū, tika noskaidrots, ka aptaujātie saskata risku tajā, cik ātri attīstās MI. Uz jautājumu, vai satura veidotāji paši izmanto MI rīkus, vienotas atbildes nebija, bet tie, kas ir izmantojuši, norādīja, ka saturs paliek bezpersoniskāks. Citi aptaujātie atbildēja: “Izmantoju MI, lai ģenerētu satura idejas, taču tas neattaisno cerības.” Jautāti par to, vai viņi savu saturu aizsargā, piemēram, ar ūdenszīmēm (watermarks), influenceri atbildēja vienbalsīgi – “NĒ”, daži no aptaujātajiem atzinās, ka par šādu iespēju nemaz nav iedomājušies vai ka neviens tāpat neizmantos viņu saturu/balsi/identitāti, jo pasaules mērogā viņu sekotāju skaits nav tik liels.
Kā pasargāt savu saturu
Pastāv iespējas sevi pasargāt no MI radītajiem riskiem, piemēram, no attēlu, video un audio nelikumīgas iegūšanas un izmantošanas. Mūsuprāt, ļoti svarīgi ir informēt savus sekotājus un pārējos cilvēkus par to, ka ne viss internetā atrodamais ir patiesība – balss, attēli un arī video var būt safabricēti. Aizsargāt savu balsi pret klonēšanu var būt sarežģīti, taču ir dažas lietas, ko satura veidotāji var darīt, lai samazinātu risku. Savos audio ierakstos iestrādāt audio ūdenszīmes, kuras MI rīkiem būtu grūti atdarināt. Noteikti izmantot uzticamas un drošas platformas, kur balss ieraksti tiek augšupielādēti. Tāpat arī uz foto un video materiāliem izvietot neredzamās ūdenszīmes un vienmēr atzīmēt sevis izveidotos darbus.
Pastāv iespējas sevi pasargāt no MI radītajiem riskiem, piemēram, no attēlu, video un audio nelikumīgas iegūšanas un izmantošanas. Mūsuprāt, ļoti svarīgi ir informēt savus sekotājus un pārējos cilvēkus par to, ka ne viss internetā atrodamais ir patiesība – balss, attēli un arī video var būt safabricēti. Aizsargāt savu balsi pret klonēšanu var būt sarežģīti, taču ir dažas lietas, ko satura veidotāji var darīt, lai samazinātu risku.
1. Savos audio ierakstos iestrādāt audio ūdenszīmes, kuras MI rīkiem būtu grūti atdarināt.
2. Noteikti izmantot uzticamas un drošas platformas, kur balss ieraksti tiek augšupielādēti.
3. Tāpat arī uz foto un video materiāliem izvietot neredzamās ūdenszīmes un vienmēr atzīmēt sevis izveidotos darbus.
Pastāv arī MI pozitīvā puse
Protams, MI ir arī medaļas otra puse. Tas spēj izanalizēt lielu datu apjomu īsā laikā, atklāt neīstus sekotājus un saskatīt īstos iesaistes datus, tas var palīdzēt atrast uzticamus un konkrētai nepieciešamībai atbilstošus digitālā satura veidotājus – tā var turpināt un turpināt, pakalpojumus pielāgojot nepieciešamībai. Tāpat satura veidotājs var izmantot dažādus rīkus, lai veidotu autentisku saturu. Izmantojot MI sniegtās priekšrocības, satura veidotājiem, zīmoliem un mārketinga aģentūrām ir iespēja analizēt jau esošo saturu un gūt idejas tam, kādu saturu labāk ģenerēt turpmāk, pamatojoties uz sniegtajiem datiem. Jau šobrīd MI spēj analizēt, kādā tonī, balsī un stilā tiek runāts. Izmantojot iegūtos datus, ir iespēja radīt saturu, kas uzrunās auditoriju, un palīdzēt saglabāt šo saturu svaigu un saistošu.
“MI tiešām var būtiski atvieglot satura veidotāju, zīmolu un mārketinga aģentūru ikdienu. Ir pieejami tik daudz un dažādi rīki, kurus var izmantot, lai veidotu autentisku saturu, atrastu tieši savam zīmolam atbilstošāko satura veidotāju vai apstrādāt lielus datu apjomus īsā laikā, taču jābūt informētiem par to, kā ne vien izmantot šos rīkus savā labā, bet arī pasargāt sevi no riskiem, apgalvo T. Briedis, izsakot cerību, ka arī Latvijas influenceri vairāk sāks domāt par to, kā aizsargāt sevi, jo katrs no viņiem ir unikāls.