“Sadalīti” mākslīgā intelekta noteikumi var kavēt progresu un izpratni par to, kur atrodas drošības barjeras.

"Sadalīti" mākslīgā intelekta noteikumi var kavēt progresu un izpratni par to, kur atrodas drošības barjeras.

AI regulējuma izaicinājumi uzņēmējiem

Kamēr valdības regulējošās aģentūras Ziemeļamerikā, Eiropā un Āzijā risina tiesiskos, drošības, nacionālās drošības un ētiskos jautājumus, ko rada mākslīgā intelekta attīstība, uzņēmumu vadītāji saka, ka atšķirīgie noteikumi rada dažas īstermiņa sarežģītības.

Dažādi standarti rada izaicinājumus

“Galvenais stāsts ir tas, ka visi cenšas ieviest AI regulējumu, un, ja ir 100 standarti, tad nav neviena standarta,” saka Denny Tobey, AI un datu analīzes prakses vadītājs juridiskajā firmā DLA Piper.

Eiropas Savienība ir visvairāk progresējusi, izveidojot regulatīvos noteikumus, kas tika apstiprināti reģiona parlamentā un varētu tikt ieviesti jau 2025. gadā. 27 valstu bloks balstās uz riska pieeju, kas dažos ekstrēmos gadījumos varētu aizliegt tehnoloģiju un prasītu apstiprinājumu pirms tirgū nonākšanas dažām “augsta riska” AI sistēmām. Ķīna un Indija ir starp valstīm, kas apsver savas pieejas AI regulēšanai.

Uzņēmumi gatavojas izmantot esošos regulējuma ietvarus

Vadītāji saka, ka viņi plāno paļauties uz jau esošajiem ietvariem, kas izveidoti citām tehnoloģijām, kurus varētu pielietot arī jaunajiem AI regulējumiem. Uzņēmumā Juniper Networks viņi nodarbina cilvēkus, lai “būtiski sekotu līdzi atbilstības likumiem visā pasaulē,” saka Bob Friday, uzņēmuma galvenais AI vadītājs, kas pārdod tīkla un kiberdrošības produktus 175 valstīs.

Friday atzīst, ka AI rada jaunas sarežģītības. “Ja tu būvē lidmašīnu vai automašīnu, ir daudz regulējumu, lai nodrošinātu, ka šie transportlīdzekļi ir droši sabiedrībai,” saka Friday. Bet AI ir kognitīvās spriešanas prasmes. “Tas nav pilnībā determinēts,” viņš piebilst. “Šīm sistēmām nav konsekventas uzvedības.”

DLA Piper prognozē stingru AI regulējumu Eiropā

DLA Piper prognozē, ka Eiropa būs visstingrākā attiecībā uz AI, atspoguļojot reģiona pieeju citām tehnoloģijām. Tādēļ firma mudina klientus plānot vispārējus principus, kurus var plaši piemērot: saglabāt cilvēku procesa centrā, testēt AI gan pirms, gan pēc palaišanas un iespēju robežās sniegt skaidrus paskaidrojumus par tehnoloģiju.

“Mēs izstrādājam pamata pieejas daudziem mūsu klientiem, kuri ir daudznacionāli uzņēmumi, jo ir pārāk sarežģīti turēt vairākas kontroles sistēmas vienā uzņēmumā,” saka Tobey.

Intuit pieeja datu izmantošanai

“Ir daudz kopīgu aspektu, kad domāju par to, kā mēs pieejam datu izmantošanai kopumā,” saka Elise Houlik, privātuma vadītāja programmatūras nodrošinātajam TurboTax un CreditKarma. “Būt ļoti atklātam par to, ko tu dari, sniegt pareizo paziņojumu, nodrošinot pareizu caurskatāmību un sapratni par to, kur jāiesaista patērētāju izvēle. Šis veids ļoti labi pārnesas uz AI jomu.”

Intuit regulāri tiekas ar politikas veidotājiem, lai apspriestu AI jautājumus ar mērķi nodrošināt skaidru regulatīvo valodu un neierobežot inovācijas. Spriedze ap AI lielākoties ir saistīta ar patērētāju bažas par tehnoloģiju. Cilvēki vēlas zināt, kad viņi mijiedarbojas ar AI, vai viņi var izvēlēties vai atteikties no tehnoloģijas un skaidri saprast, kā tiek izmantoti viņu dati.

ASV štatū likumdošanas sesijas laikā ieviesti AI likumprojekti

ASV štatū likumdošanas sesijas laikā vismaz 40 štati, Puertoriko, Virdžīnas salas un Vašingtona ir ieviesuši AI likumprojektus ar dažādiem mērķiem – no vēlēšanu saturam līdz bērnu pornogrāfijai un citiem noziedzīgiem mērķiem, veselības aprūpes lēmumu izmantošanai un datu izmantošanas caurskatāmībai.

“Ja man katru štatu būtu jāuztver kā maza valsts, tas būtu kā 50 mazas valstis,” saka Friday, kurš piebilst, ka šķelto regulējumu dēļ var rasties papildu izmaksas uzņēmumiem to ieviešanai.

Regulatoriem jānoskaidro atbildība par pārkāpumiem

Regulatoriem arī jānoskaidro, kas būtu atbildīgs par jebkuriem pārkāpumiem. Jautājumi ir šādi: vai AI ražotājiem būtu jāsedz sodi vai jāveic izpildes darbības gadījumos, ja viņu radītais lielais valodas modelis pārkāptu regulējumu Ķīnā vai ASV? Vai tas būtu uzņēmums, kas izvietoja tehnoloģiju? Kā šis regulējums ietekmētu lielos uzņēmumus, kas radīja savus pašu AI modeļus un arī paļaujas uz tiem, ko radījuši tehnoloģiju giganti kā Microsoft vai Google?

Ir arī neskaidrība attiecībā uz riska pieeju, ko Eiropa izmanto. Eksperti saka, ka lai gan zema riska AI ir vieglak vienoties, grūtak būs noteikt to, kas tiek uzskatīts par augsta riska pret vidēja riska.

Kad Eiropa vērsa regulatīvos pasākumus pret sociālo mediju uzņēmumiem kā Meta, citi tehnoloģiju nodrošinātaji atradās krustugunīs. “Mums bija jāievēro visas Eiropas privātuma noteikumi,” saka Friday, lai gan tīkla uzņēmumi nebija šo regulatīvo pasākumu mērķis.

C3.ai dibinātaja viedoklis par regulatīvajiem sarunam

Tom Siebel, C3.ai dibinatajs un izpilddirektors nav sajūsmas pilns par jebkuru no ASV vai Eiropas tirgu regulatīvajiem sarunam. “Tas ko viņi piedavaja darit ir noziedzinat zinatni,” saka Siebel. “Es domaju ka tie nav labi apdomati un cilveki kas tos raksta nav pilnigi skaidri par to ko tie saka.”

Ar miljonu algoritmu skaitu kas tiek publiceti pasaule sodien vinam rup ka regulatoriem butu gruti sekot lidzi apjomam. Un Siebel netic ka vinji butu spejigi lasit algoritmus un noteikt vai tie ir drosi vai ne pat ja regulatoriem butu papildus laiks aplukot tehnologiju.

Siebel atzist ka valdibam ir jadara darbi saistiba ar AI bet aizstav likumdošanu nevis regulaciju. Un privata sektora ietvaros vinjs saka ka galvenais vaditajs beigas bus atbildigs par drosibu AI ko vinji rada vai izmanto.

“Vai es domaju ka mums vajag likt sliedes uz AI izmantosanu?” jauta Siebel. “Pilnigi noteikti.”