Administrācija mudina tehnoloģiju nozari un finanšu iestādes apkarot ļaunprātīgu seksuālo attēlu tirgu
ASV prezidenta Džo Baidena administrācija mudina tehnoloģiju nozari un finanšu iestādes apkarot ar mākslīgo intelektu radītu ļaunprātīgu seksuālo attēlu tirgu, kas pieaug.
Jauni AI rīki ļauj viegli radīt seksuāli eksplicitus attēlus
Jaunie mākslīgā intelekta rīki ir padarījuši to viegli, lai pārveidotu kāda cilvēka līdzību seksuāli eksplicitos attēlos un dalītos ar tiem reālistiskajiem attēliem tērzēšanas istabās vai sociālajos medijos. Upuriem – vai nu slavenībām vai bērniem – ir maz iespēju to apturēt.
Baltais nams aicina uz brīvprātīgu sadarbību
Baltais nams ceturtdien izplatīja aicinājumu uz brīvprātīgu sadarbību no uzņēmumu puses, ņemot vērā federālo likumdošanas trūkumu. Iesaistoties konkrētos pasākumos, amatpersonas cer, ka privātais sektors varēs ierobežot šo nevēlamo AI attēlu radīšanu, izplatīšanu un monetizēšanu, ieskaitot eksplicitus bērnu attēlus.
AI radīto attēlu straujais pieaugums
“Kad mākslīgais intelekts parādījās skatuves priekšplānā, visi spekulēja, kur radīsies pirmie reālie kaitējumi. Un es domāju, ka mums ir atbilde,” sacīja Baidena galvenais zinātnes padomnieks Arati Prabhakar, Balta nama Zinātnes un tehnoloģiju politikas biroja direktore.
Viņa aprakstīja “fenomenālu nevēlamu attēlu pieaugumu”, ko veicina AI rīki un kas galvenokārt vērsts pret sievietēm un meitenēm, tādējādi apgriežot viņu dzīves kājām gaisā.
“Ja tu esi pusaudžu meitene, ja tu esi geju bērns, šie ir problēmas, ar kurām cilvēki saskaras tieši tagad,” viņa teica. “Mēs esam redzējuši paātrinājumu dēļ mākslīgā intelekta, kas notiek ļoti ātri. Un visstraujākais, kas var notikt, ir uzņēmumiem uzņemties atbildību.”
Aicinājums rīkoties
Dokuments, kas tika dalīts ar AP pirms tā ceturtdienas izplatīšanas, aicina uz rīcību ne tikai no AI izstrādātājiem, bet arī no maksājumu apstrādātājiem, finanšu iestādēm, mākoņdatošanas pakalpojumu sniedzējiem, meklētājprogrammām un vārtu sargiem – kas kontrolē, kas nonāk mobilo lietotņu veikalos.
Privātajam sektoram vajadzētu uzņemties iniciatīvu “traucēt seksuālu attēlu monetizēšanu”, ierobežojot maksājumu piekļuvi īpaši vietnēm, kas reklamē eksplicitus nepilngadīgo attēlus, sacīja administrācija.
Uzņēmumiem jāuzņemas atbildība
Prabhakar sacīja, ka daudzas maksājumu platformas un finanšu iestādes jau apgalvo, ka viņi neatbalstīs uzņēmumus, kas veicina ļaunprātīgu attēlu izplatīšanu.
“Bet dažreiz tas netiek ieviests; dažreiz viņiem nav šo pakalpojumu noteikumu,” viņa teica. “Un tā ir piemērs tam, kas varētu tikt darīts daudz stingrāk.”
Mākoņdatošanas pakalpojumu sniedzēji un mobilo lietotņu veikali arī varētu “ierobežot tīmekļa pakalpojumus un mobilo lietotņu izmantošanu, kas tiek tirgoti ar mērķi radīt vai mainīt seksuālus attēlus bez indivīdu piekrišanas,” teikts dokumentā.
Un neatkarīgi no tā, vai tas ir AI radīts vai īsts kails fotoattēls internetā, upuriem vajadzētu vieglāk spēt likt tiešsaistes platformām tos noņemt.
Piemērs – Taylor Swift
Visplašāk zināmā upure pornogrāfiskajiem deepfake attēliem ir Taylor Swift, kuras uzticamie fani atbildēja janvārī, kad sociālajos medijos sāka izplatīties ļaunprātīgi AI radīti attēli par dziedātaju. Microsoft solīja pastiprināt savus drošības pasākumus pēc tam, kad daži no Swift attēliem tika izsekoti līdz tā AI vizuālajam dizaina rīkam.
Skolu problēmas ar AI radītiem deepfake kailfotoattēliem
Arvien vairāk skolu ASV un citur saskaras ar AI radītiem deepfake kailfotoattēliem, kas attēlo viņu skolniekus. Dažos gadījumos tika konstatēts, ka līdzdalībnieki pusaudži radīja AI manipulētus attēlus un dalījās ar tiem ar klasesbiedriem.
Baidena administratīvajiem AI drošības pasākumiem nepieciešama likumdošana
Baidens arī teica, ka administratīvajiem AI drošības pasākumiem būs nepieciešams likumdošanas atbalsts. ASV senatoru divpartiju grupa tagad mudina Kongresu nākamo trīs gadu laikā iztērēt vismaz 32 miljardus dolāru mākslīgajam intelektam attīstīt un finansēt pasākumus tā drošai vadībai, lai gan lielā mērā ir atlikusi aicinājumus ieviest šos drošības pasākumus likumdošanai.
Uzņēmumi tiek mudināti uzņemties brīvpratiskas saistības
“Uzņēmumu mudināšana uzņemties brīvpratiskas saistības nemaina pamatvajadzību pēc Kongresa rīcības šeit,” sacīja Dženifera Klein, Balta nama Dzimumu politikas padomes direktore.
Ilgi pastāvošie likumi jau kriminalizē seksu bērnu attēlu veidošanu un turēšanu pat tad, ja tie ir viltoti. Federālie prokurori šomēnes izvirzīja apsūdzības pret Viskonsinas vīrieti, kuram tiek apgalvots, ka viņš izmantojis populāru AI attēlu ģeneratoru Stable Diffusion, lai radītu tūkstošiem AI radītu reālistisku attēlu ar nepilngadīgajiem seksuālajos aktos. Viena advokats pirms trešdienas saskaņošanas uzklausīšanas atteicās komentēt.
Tehnoloģiju rūku un pakalpojumu uzraudzības trūkums
Bet gandrīz nav nekādas uzraudzības pār tehnoloģiju rūkiem un pakalpojumiem, kas ļauj radīt šos attēlus. Daži no tiem ir uz komerciālajiem tūlīt-aiziet vietnēm, kas atklāj maz informacijas par to, kas tos vada vai tehnoloģiju, uz kuru tie balstas.
Stenfordas interneta observatorija decembrī teica, ka tika atrasti tūkstošiem aizdomas par bērnu seksuālo izmantošanu attiecinošiem attēliem milzīgajai AI datubazei LAION, tiešsaistes attēlu un parakstu indeksam, kas ticis izmantots vadošo AI attēlu veidotaju apmecibai piemeram Stable Diffusion.
Londonai baze Stability AI, kas pieder jaunakajam Stable Diffusion versijam, šonedel teica, ka “nav apstiprinajusi agrakas versijas izlaidumu”, ko it ka izmantojis Viskonsinas virens. Tadi atverta koda modeļi, jo to tehniskas sastavdalas tiek publiski izlaistas internete, ir gruti atpakal ievietot pudeliti.
Prabhakar sacija, ka ne tikai atverta koda AI tehnologija rada kaites.
“Tas ir plašaks problamas,” viņa teica. “Diemzel šis ir kategorija, ko daudzi cilveki šķietami izmanto attelu generatoriem. Un tas ir vieta, kur mes esam redzejusi tik lielu spradzienu. Bet es domaju, ka tas nav skaidri sadalams atverta koda un proprietares sistemas.”