Es esmu izlasījis vairāk nekā 100 mākslīgā intelekta pieprasījumus priekšlikumiem no lielām kompānijām. Šeit ir parādās sargrailu un pienākumu matrica.

Es esmu izlasījis vairāk nekā 100 mākslīgā intelekta pieprasījumus priekšlikumiem no lielām kompānijām. Šeit ir parādās sargrailu un pienākumu matrica.

Uzņēmumi pieņem ģeneratīvo mākslīgo intelektu

Uzņēmumi lielā mērā pieņem ģeneratīvo mākslīgo intelektu. Mēs uzlabojam darbu un pārveidojam biznesa procesus no pārdošanas veicināšanas līdz drošības operācijām. Un mēs gūstam milzīgas priekšrocības: produktivitātes palielināšana, kvalitātes uzlabošana un laika ietaupījumi līdz tirgus ieviešanai.

Ar šo progresu nāk arī vienlīdz liela nepieciešamība apsvērt riskus. Tie ietver programmatūras neaizsargātību, kibernoziegumus, nepareizu sistēmas piekļuvi un sensitīvu datu atklāšanu. Ir arī ētiski un juridiski apsvērumi, piemēram, autortiesību vai datu privātuma likumu pārkāpumi, aizspriedumi vai toksicitāte radītajos rezultātos, dezinformācijas un dziļi viltus izplatīšana, kā arī digitālās plaisas paplašināšana. Mēs redzam to sliktāko sabiedriskajā dzīvē tieši tagad, kad algoritmi tiek izmantoti, lai izplatītu nepatiesu informāciju, manipulētu ar sabiedrisko viedokli un grautu uzticību institūcijām. Tas viss uzsver drošības, pārredzamības un atbildības nozīmi, kā mēs radām un izmantojam AI sistēmas.

Ir labi darbi! ASV prezidents Baidens ar savu izpildrakstu par AI cenšas veicināt atbildīgu AI izmantošanu un risināt tādas problēmas kā aizspriedumi un diskriminācija. Nacionālais standartu un tehnoloģiju institūts (NIST) ir izstrādājis visaptverošu AI sistēmu uzticamības ietvaru. Eiropas Savienība ir ierosinājusi AI aktu, regulatīvu ietvaru, lai nodrošinātu ētisku un atbildīgu AI izmantošanu. Un Lielbritānijas AI drošības institūts strādā pie drošības standartu un labākās prakses izstrādes AI ieviešanai.

Atbildība par kopējo AI drošības pasākumu kopumu galu galā gulstas uz valdības pleciem, bet mēs vēl neesam tur nonākuši. Šodien mums ir rupja vadlīniju mozaīka, kas ir reģionāli nesaskaņota un nespēj panākt straujo AI inovāciju tempu. Tikmēr par tā drošu un atbildīgu izmantošanu būs atbildīgi mēs: AI piegādātāji un mūsu uzņēmumu klienti. Patiešām, mums ir nepieciešami drošības pasākumi.

Jauna pienākumu matrica

Uz priekšu domājoši uzņēmumi ir proaktīvi. Viņi izveido iekšējus vadības komitejas un uzraudzības grupas, lai definētu un īstenotu politiku saskaņā ar savām juridiskajām saistībām un ētiskajiem standartiem. Es esmu izlasījis vairāk nekā simts piedāvājumu pieprasījumus (RFP) no šiem uzņēmumiem, un tie ir labi. Tie ir informējuši mūsu ietvaru šeit Writer, lai izveidotu mūsu pašu uzticamības un drošības programmas.

Viens no veidiem, kā organizēt mūsu domas, ir matrica ar četrām pienākumu jomām: dati, modeļi, sistēmas un operācijas; un tos attieciniet uz trim atbildīgajiem subjektiem: piegādātājiem, uzņēmumiem un valdībām.

Drošības pasākumi “datu” kategorijā ietver datu integritāti, izcelsmi, privātumu, glabāšanu un juridisko un regulatīvo atbilstību. “Modeļos” tie ir pārredzamība, precizitāte, aizspriedumi, toksicitāte un nepareiza izmantošana. “Sistēmā” tie ir drošība, uzticamība, pielāgošana un konfigurēšana. Un “operācijas” jomā tie ir programmatūras izstrādes cikls, testēšana un validēšana, piekļuve un citas politikas (cilvēku un mašīnu) un ētika.

Katrā drošības pasākumu kategorijā es iesaku uzskaitīt savus galvenos pienākumus, artikulēt to, kas ir likts uz spēles, definēt to, kas ir “labs”, un izveidot mērījumu sistēmu. Katra joma atšķirsies starp piegādātajiem, uzņēmumiem un valdības iestādēm, bet galu galā tām visiem vajadzētu savstarpēji papildināt un atbalstīt viena otru.

Es esmu izvēlējies parauga jautājumu no mūsu klientu RFP un paskaidroju katru, lai parādītu, kā varētu darboties katrs AI drošības pasākums.

Dati → Privatums: Kuri dati ir sensitīvi? Kur tie atrodas? Kā tie var tikt atklāti? Kuras ir sekas to atklāšanai? Kura ir labakais veids to aizsardzibai?

RFP valoda: Vai jūs anonimizējat, šifrējat un kontrolējat piekļuvi sensitīviem datiem?

Modeļi → Aizspriedumi: Kur ir mūsu aizspriedumu jomas? Kuri AI sistēmas ietekmē mūsu lēmumus vai rezultatus? Kas notiek, ja mums tas neizdodas? Kads ir “labs” izskats? Kada ir musu kludas tolerance? Kaa mes sevi meram? Kaa mes testejam musu sistemas laika gaita?

RFP valoda: Aprakstiet mehānismus un metodoloģijas, ko jūs izmantojat aizspriedumu noteikšanai un novēršanai. Aprakstiet savu aizspriedumu/taisniguma testa metodi laika gaita.

Sistēma → Uzticamiba: Kada jabut musu AI sistemu uzticamibai? Kas notiek, ja mes nesasniedzam musu darbspējas SLA? Kaa mes meram darbnespeju un novertetjam musu sistemu uzticamibu laika gaita?

RFP valoda: Vai jūs dokumentejat, praktizejat un merat atbildes planus AI sistemu darbnespejas incidentiem, ieskaitot atbildes un darbnespejas merisanu?

Operacijas → Etika: Kada loma cilvekiem ir musu AI programmas? Vai mes esam izstradajusi ietvaru vai formulu musu lomam un pienakumiem?

RFP valoda: Vai organizacija definē politiku un proceduras, kas nosaka dazadas cilveku lomas un pienakumus mijiedarbojoties ar vai uzraudzot AI sistemu?

Kamēr mēs pārveidojam biznesu ar ģeneratīvo AI, ir būtiski atzīt un risinat riskus saistit ar ta ieviešanu. Kamēr valdibas iniciativas notiek, sodien atbildiba par drosu un atbildigu AI lietojumu gulstas uz musu pleciem. Proaktivi ieviešot AI drošibas pasakumus datiem, modelem, sistemam un operacijam, mes varam gūt labumus no AI, vienlaikus samazinot kaitējumu.

Meja Habiba ir Writer vaditaja un lidzdibinataja.