Mākslīgā intelekta krimināllietas
Nesenākais kriminālprocess, kurā iesaistīts mākslīgais intelekts, notika pagājušajā nedēļā Merilendas vidusskolā, kur policija apgalvoja, ka direktors tika apvainots par rasismu, izmantojot viltotu viņa balss ierakstu.
Visi ir pakļauti riskam
Eksperti saka, ka šī tehnoloģija ir kļuvusi tik spēcīga, ka visiem – ne tikai politiķiem un slavenībām – būtu jāuztraucas par to.
“Katrs ir uzbrukuma mērķis, un ikviens var uzbrukt,” teica Hanijs Farids, Kalifornijas Universitātes profesors, kurš specializējas digitālajā kriminalistikā un dezinformācijā.
Ko zināt par AI jaunākajiem pielietojumiem:
AI ir kļuvis ļoti pieejams
Informācijas manipulēšana nav nekas jauns. Bet tas, cik viegli to var izdarīt, ir nesenais fenomens. Tāpat kā spēja ātri izplatīties sociālajos medijos.
Viltotais audio klips, kas imitēja direktora balsi, ir mākslīgā intelekta apakškopa, kas pazīstama kā generatīvais AI. Tas var radīt hiperreālistiskus jaunus attēlus, video un audio klipus. Pēdējos gados tas ir kļuvis lētāks un vieglāk lietojams, samazinot barjeru jebkuram ar interneta pieslēgumu.
“It īpaši pēdējā gadā jebkurš – un es tiešām domāju jebkurš – var doties uz tiešsaistes pakalpojumu,” teica Farids. “Un vai nu bez maksas, vai par dažiem dolāriem mēnesī, viņi var augšupielādēt 30 sekundes kāda balsi.”
Šīs sekundes var nākt no balss pasts, sociālo mediju ziņas vai slepenas ierakstīšanas. Mašīnmācīšanās algoritmi uztver, kā cilvēks izklausās. Un pēc tam no uzrakstītajiem vārdiem tiek ģenerēta klonētā runa.
Tehnoloģija kļūs tikai spēcīgāka un vieglāk lietojama, ieskaitot video manipulāciju, viņš teica.
Kas notika Merilendā?
Baltimoras apgabala iestādes teica, ka Pikesvilas vidusskolas sporta direktors Dazhons Dariens klonēja direktora Erika Eisverta balsi.
Viltotais ieraksts saturēja rasistiskus un antisemītiskus komentārus, teica policija. Skaņu fails parādījās e-pastā dažu skolotāju iesūtnēs pirms izplatīšanās sociālajos medijos.
Ieraksts parādījās pēc tam, kad Eisverts pauda bažas par Dariena darba sniegumu un iespējamu skolas līdzekļu nepareizu izmantošanu, teica policija.
Viltus audio dēļ Eisvertam bija jādodas atvaļinājumā, kamēr policija sargāja viņa māju. Skolu pārpludināja dusmīgi zvani, bet sociālajos medijos uzkrājās naida pilni ziņojumi.
Detectīvi lūdza ārējiem ekspertiem analizēt ierakstu. Viens teica, ka tas “satur AI ģenerēta satura pēdas ar cilvēka rediģēšanu pēc tam”, tiesas dokumentos teikts.
Otrs viedoklis no Farida atklāja, ka “vairāki ieraksti tika savienoti kopā”, saskaņā ar dokumentiem.
Farids sacīja Associated Press, ka joprojām ir jautājumi par to, kā tieši tika izveidots šis ieraksts, un viņš nav apstiprinājis, ka tas pilnībā tika ģenerēts ar AI.
Bet ņemot vērā AI pieaugošo spēju, Farids teica, ka Merilendas gadījums joprojām kalpo kā “kanāri putns ogļraktuvē” par nepieciešamību labāk regulēt šo tehnoloģiju.
Kāpēc audio ir tik satraucošs?
Daudzos gadījumos AI ģenerētajai dezinformācijai ir bijusi audio forma.
Tas ir daļēji tāpēc, ka tehnoloģija ir uzlabojusies tik ātri. Cilvēka ausis arī ne vienmēr spēj identificēt manipulācijas pazīmes, kamēr video un attēlu neatbilstības ir vieglāk pamanīt.
Daži cilvēki ir klonējuši balsis par it kā nolaupītiem bērniem pa tālruni, lai iegūtu izpirkuma naudu no vecākiem. Cits izlikies par uzņēmuma izpilddirektoru, kuram steidzami vajadzīgi līdzekļi.
Šogad Ņūhempšīras primārajās vēlēšanās AI ģenerētie robokoli imitēja prezidenta Džo Baidena balsi un mēģināja atturēt demokrātu vēlētājus no balsošanas. Eksperti brīdina par AI ģenerētas dezinformācijas pieaugumu šogad vēlēšanu laikā.
Bet satraucošas tendences iet tālāk par audio, piemēram, programmas, kas bez viņu piekrišanas rada viltotas kailfoto no apģērbtiem cilvēkiem, ieskaitot nepilngadīgos. Dziedātaja Teilore Svifta nesen tika mērķa.
Ko var darīt?
Lielākais AI balss ģenerējošo tehnoloģiju nodrošinotajs saka, ka viņi aizliedz to rīku kaitniecisku lietošanu. Bet pašregulēšanai ir dažas atšķirības.
Daži pircēji pieprasa balss parakstu vai lūdz lietotajiem pirms balsis var tikt klonētas izrunat unikalu teikumu kopumu.
Lielie tehnoloģiju uzņemumi, piem., Facebook vecmamma Meta un ChatGPT izstradatjs OpenAI, ļauj eksperimentet tikai ar mazu uzticamu lietotju grupu tehnoloijas riska dbru d. Farids sacja, ka ir jdarbba vairk. Piemram, visiem uzemumiem vadtjiem btu jpieprasa lietotjiem iesniegt tlrua numurus un kredtkartes, lai var atsekot failus tiem, kas nepareizi izmanto tehnoloiju.
Cita ideja ir prasīt ierakstiem un atteliem nesat digitalo ūdenszimi.
“Jūs modificat audio veidos, kas ir nepamanami cilvka dzirdes sistmai, bet tdiem veidiem, kas var tikt identificti ar programmatru lejup plsm,” sacja Farids.
Aleksandra Riva Givensa, Demokrtijas & Tehnoloijas centra vaditja sacja, ka visefektvk intervence ir tiesisks darbbas pret AI nozieguma lietoanu. Nepiecieams ar vairk patrtju izgltbas.
Cits uzsvars btu mudint atbildgu rcbu starp AI uzmumiem un socilajiem medijiem. Bet tas nav tik vienkrts k aizliegt Generatvo AI.
“Var bt sarežģti pievienot juridisko atbildbu jo tik daudzos gadumos var bt pozitvas vai apstiprinanas lietoanas tehnoloijai,” sacja Givensa, minot tulkoanas un grmatu lasanas programmas.
Vl viens izaicinjums ir atrast starptautisku vienoanos par tikumu un vadlnijm,” sacja Kristians Matmanss, Informcijas atgvanas & Datu zintnes grupas vaditjs Dienvidkalifornijas universitt.
“Cilvki izmanto AI atkarb no valsts kur vii atrodas,” sacja Matmanss. “Un tas nav tikai valdbas darbs – tas ir ar cilvku darbs. Tpc kultura ir svargi.”