AI tehnoloģiju regulēšana
Mēs nevaram ielikt mākslīgo intelektu atpakaļ Pandoras lādē, bet pasaulē lielākās AI kompānijas brīvprātīgi strādā kopā ar valdībām, lai risinātu lielākās bažas par tehnoloģiju un mazinātu bailes, ka nekontrolēta AI attīstība varētu novest pie zinātniskās fantastikas scenārijiem, kur AI vēršas pret saviem radītājiem. Tomēr bez stingriem tiesiskiem noteikumiem, kas stiprina valdību AI saistības, sarunas nesniegs tālāk.
AI kompānijas un valdības apspriež drošības vadlīnijas
Šodien 16 ietekmīgas AI kompānijas, tostarp Anthropic, Microsoft un OpenAI, 10 valstis un ES tikās samitā Seulā, Dienvidkorejā, lai izstrādātu vadlīnijas atbildīgai AI attīstībai. Viena no vakardienas samita lielajiem rezultātiem bija AI kompāniju, kas piedalījās samitā, piekrišana tā sauktajai “nogalināšanas slēdzim”, politikai, kurā viņi pārtrauks savu visattīstītāko AI modeļu attīstību, ja tie tiks uzskatīti par pārsniegušiem noteiktus riska sliekšņus. Tomēr nav skaidrs, cik efektīva šī politika varētu būt, ņemot vērā, ka tajā trūkst jebkāda reāla tiesiska svara vai konkrētu riska sliekšņu definēšanas. Citas AI kompānijas, kas nepiedalījās vai ir konkurenti tiem, kas piekrita principam pievienoties nosacījumiem, nebūs saistītas ar šo solījumu.
AI drošības samits un kritika
“Ekstrēmos gadījumos organizācijas apņemas neattīstīt vai neizmantot modeli vai sistēmu vispār, ja nevar piemērot mazināšanas pasākumus, lai saglabātu riskus zem sliekšņiem,” teikts politikas dokumentā, ko parakstījušas AI kompānijas, tostarp Amazon, Google un Samsung. Samits bija turpinājums pagājušajam oktobrim Bletchley Park AI drošības samitam, kur piedalījās līdzīgs AI izstrādātāju sastāvs un tika kritizēts kā “vērtīgs, bet bez zobiem” par tā trūkumu rīcībaspējīgajos, tuvtermiņa saistībajos uzdevumos cilvēcei droši saglabāt no AI izplatības.
AI riski un iespējas
Pirmkārt zinātniskajā fantastikā un tagad reālajā dzīvē rakstnieki un pētnieki ilgstoši brīdinājuši par spēcīga mākslīgā intelekta riskiem desmitgadēm. Viens no visatzītākajiem atsaucēm ir “Terminatora scenārijs”, teorija, ka, ja to nekontrolē, AI var kļūt spēcīgāka par saviem cilvēka radītājiem un vērsties pret viņiem. Teorija ieguva savu nosaukumu no 1984. gada Arnolda Švarcenegera filmas, kur ciborgs ceļo atpakaļ laikā, lai nogalinātu sievieti, kuras nedzimušais dēls cīnīsies pret AI sistēmu, kas paredzēta kodolkara izraisīšanai.
Valstu un AI kompāniju darbības
“AI piedāvā milzīgas iespējas pārveidot mūsu ekonomiku un risināt mūsu lielākos izaicinājumus – bet es vienmēr esmu skaidri norādījusi, ka šo pilnu potenciālu var atbloķēt tikai tad, ja mums izdosies kontrolēt riskus, ko rada šī strauji attīstoša, sarežģīta tehnoloģija,” teica Lielbritānijas tehnoloģiju sekretāre Mišela Donelana.
Pašas AI kompānijas atzīst, ka viņu visattīstītākie piedāvājumi nonāk neizzinātos tehnoloģiskos un morālos ūdeņos. OpenAI izpilddirektors Sems Altmanis ir teicis, ka Mūsdienīgais Vispasaules Intelekts (AGI), ko viņš definē kā AI, kas pārsniedz cilvēka intelektu, ir “drīzumā nākošs” un nes līdzi riskus.
“AGI arī nes nopietnu risku nepareizai izmantošanai, katastrofiskiem negadījumiem un sabiedrisko traucējumu,” lasa OpenAI emuāra ziņojums. “Tā kā AGI priekšrocības ir tik lielas, mēs neuzskatam, ka ir iespējams vai vēlams sabiedrībai uz visiem laikiem apturēt tā attīstību; tā vietā sabiedrībai un AGI izstrādātajiem ir jāizdoma, kā to izdarīt pareizi.”
Globālie regulatīvie ietvari
Taču līdz šim centieni izveidot globālus regulatīvos ietvarus ap AI ir bijuši izkliedēti un lielākoties trūkst likumdošanas pilnvaru. ANO politikas ietvars, kurš aicina valstis aizsargat pret AI riskiem cilvēktiesībām, uzraudzīt personisko datu izmantošanu un mazinat AI riskus, tika vienprātīgi apstiprinats pagājušajā mēnesī, bet tas bija neobligats. Bletchley Deklaracija, pagajuša oktobra globala AI samita Lielbritanija centrmezgls, nesatur nekadas taustamas saistibas attieciba uz regulaciju.
Valstu un AI kompaju darbiba
Tikmēr pašas AI kompánijas ir sákušas veidot savas organizácijas, kas virza AI politiku. Vakar Amazon un Meta pievienojás Frontier Model Foundation, industrijas bezpeļņas organizácijai “veltítai frontier AI modeļu drošíbas veicinášanai”, péc tás májaslapas ziņojuma. Tie pievienojás dibinátájiem Anthropic, Google, Microsoft un OpenAI. Bezpeļņas organizácija vél nav izvirzíjusi nevienu stingru politikas priekšlikumu.
Atsevišķas valdíbas ir bijušas veiksmígákas: vadítáji slavéja prezidenta Baidena izpildríkojumu par AI drošíbas reguléšanu pagájušá oktobrí ká “pirmais reize kad valdíba ir priekšá” par tás iekļaušanu stingros tiesiskajos prasíbájos kas párkápj neskaidros apņemšanos citás lídzigás nodomos politikás. Baidens ir pieminéjis Aizsardzíbas ražošanas likumu lai uzliktu AI kompánijám dalíties drošíbas testa rezultátos ar valdíbu piemeram. ES un Ķína arí ir pieņémuši formálus politikus kas risina témus piemeram autortiesíbu likumu un lietotáju personígo datu ieguve.
Arvalstis arí ir veikušas darbíbu: Kolorado gubernators Džareds Polis vakar paziņoja par jaunu likumdošanu aizliedzot algoritmisko diskrimináciju AI un prasa izstrádátájiem dalíties iekšejo datu ar valsts regulatoriem lai nodrošinátu ka tie atbilst.
Nakamais solis globálajai AI regulácijai
Tas nav pédéjais iespejams brídís globálai AI regulácijai: Francija nákošgad agrak rikos vél vienu samitu turpinot Seulas un Bletchley Park sanákšanas. Lidz tam dalibnieki saka ka bus izstradajusi formálus definícijas kas ir riska etaloni kas prasa regulatívus pasákumus – liels solis uz priekšu salidzinajuma ar lidz sim salidzinosi biklo procesu.