Kalifornijas centieni veikt pasākumus, kas vērsti pret mākslīgā intelekta diskrimināciju un dziļviltus, paredzēti kā ceļš uz regulējumiem visā ASV.

Kalifornijas centieni veikt pasākumus, kas vērsti pret mākslīgā intelekta diskrimināciju un dziļviltus, paredzēti kā ceļš uz regulējumiem visā ASV.

Cīņa pret mākslīgā intelekta diskrimināciju un sabiedrības uzticības veidošana

Daži uzņēmumi, tostarp slimnīcas, jau izmanto mākslīgā intelekta modeļus, lai pieņemtu lēmumus par darba pieņemšanu, mājokļu piešķiršanu un medicīniskajām iespējām miljoniem amerikāņu bez lielas uzraudzības. Līdz pat 83% darba devēju izmanto mākslīgo intelektu, lai palīdzētu darba pieņemšanā, saskaņā ar ASV Vienlīdzīgas nodarbinātības iespēju komisiju. Kā šie algoritmi darbojas, lielākoties paliek noslēpums.

Viens no visambiciozākajiem mākslīgā intelekta pasākumiem Kalifornijā šogad atklātu šo modeļu darbību, izveidojot uzraudzības sistēmu, lai novērstu aizspriedumus un diskrimināciju. Tas prasītu uzņēmumiem, kas izmanto mākslīgā intelekta rīkus lēmumu pieņemšanai, informēt ietekmētās personas, kad tiek izmantots mākslīgais intelekts. Mākslīgā intelekta izstrādātājiem būtu regulāri jāveic iekšējie modeļu novērtējumi par aizspriedumiem. Un štata ģenerālprokurors būtu pilnvarots izmeklēt ziņojumus par diskriminējošiem modeļiem un uzlikt sodus 10 000 dolāru apmērā par pārkāpumu.

Mākslīgā intelekta uzņēmumiem arī drīz varētu būt jāsāk atklāt, kādus datus tie izmanto, lai apmācītu savus modeļus.

Darbu un līdzību aizsardzība

Iedvesmojoties no pagājušajā gadā notikušajiem Holivudas aktieru streikiem, Kalifornijas likumdevējs vēlas aizsargāt strādniekus no aizstāšanas ar viņu mākslīgajiem kloniem — galvenais strīda punkts līgumu sarunās.

Propozīcija, ko atbalsta Kalifornijas Darba federācija, ļautu izpildītājiem atkāpties no esošajiem līgumiem, ja neskaidra valoda varētu ļaut studijām brīvi izmantot mākslīgo intelektu, lai digitāli klonētu viņu balsis un līdzību. Tas arī prasītu, lai izpildītāji būtu pārstāvēti ar advokātu vai arodbiedrības pārstāvi, parakstot jaunus “balss un līdzības” līgumus.

Kalifornija varētu arī izveidot sodus par mirušo cilvēku digitālo klonēšanu bez viņu mantojuma piekrišanas, atsaucoties uz mediju uzņēmuma gadījumu, kas radīja viltotu, mākslīgi radītu stundas garu komēdijas speciālo izrādi, lai atveidotu mirušo komiķi Džordžu Karlina stilu un materiālu bez viņa mantojuma atļaujas.

Spēcīgu ģeneratīvo mākslīgā intelekta sistēmu regulēšana

Reālas riska situācijas rodas, kad ģeneratīvais mākslīgais intelekts rada jaunu saturu, piemēram, tekstu, audio un fotogrāfijas, atbildot uz norādēm. Tāpēc likumdevēji apsver prasību ieviest drošības pasākumus ap “ļoti lielajiem” mākslīgajiem intelekta sistēmam, kas var radīt instrukcijas katastrofu radīšanai — piemēram, ķimikāliju ieroču izgatavošanai vai palīdzēšanai kibernoziegumos — kas var izraisīt vismaz 500 miljonu dolāru zaudējumus. Tas prasītu šiem modeļiem iebūvētu “izslēgšanas slēdzi”, starp citiem pasākumiem.

Pasākumu atbalsta daži no pazīstamākajiem mākslīgajiem intelekta pētniekiem un tas arī radītu jaunu štata aģentūru, lai uzraudzītu izstrādātājus un nodrošinātu labas prakses piemērus, tostarp vēl jaudīgākiem modeļiem, kas vēl nepastāv. Štata ģenerālprokurors arī varētu uzsākt tiesvedību pārkāpumu gadījumos.

Deepfake aizliegums politikas vai pornogrāfijas jomā

Bipartiju koalīcija cenšas atvieglot tiesvedību pret cilvēkiem, kas izmanto mākslīgajiem intelektiem radītas rīkus bērnu seksuālas izmantošanas attēlu radīšanai. Pašreizējie likumi neļauj apgabalu prokuroriem vajāt cilvēkus, kas glabā vai izplata mākslīgi radītus bērnu seksuālas izmantošanas attēlus, ja materiāli neattēlo reālu personu, teica tiesiskuma puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses puses.

Demokratisks likumdevēju pulks arī atbalsta likumprojektu par viltus ziņojumiem vēlēšanu laikā, norūpējoties par AI radītiem robocalls, kas imitēja prezidenta Džo Baidena balsi pirms nesenajiem prezidenta priekšvēlēšanu veltiem Ņūhempširai. Priekšlikums aizliegtu “būtiski maldinošus” deepfake saistībā ar vēlēšanamu politiskajos bukletos, robocalls un TV reklamdevums 120 dienas pirms vēlēšanu dienas un 60 dienas tajos. Vēl viens priekšlikums prasītu socioloģisko mediju platformam marķet jebkuru vēlēšanamu saistitu ierakstu, kas radits ar maksliigo intelektu.