Nodrošinot, ka klientiem ir uzticība un ticība mākslīgā intelekta modeļiem, atbildība gulstas uz mākslīgā intelekta vadītājiem.

Nodrošinot, ka klientiem ir uzticība un ticība mākslīgā intelekta modeļiem, atbildība gulstas uz mākslīgā intelekta vadītājiem.

AI izmantošanas riski un regulējumi

Arnabs Čakrabortijs, augstākais vadītājs konsultāciju uzņēmumā, nesen atcerējās sarunu ar finanšu direktoru starptautiskā restorānu ķēdē. Vadītājs atzina, ka vadība joprojām pilnībā neapzinās visus veidus, kā mākslīgais intelekts tiek izmantots darbinieku vidū.

AI izpratnes trūkums un datu privātums

“Lai mēs varētu AI izmantot plašāk uzņēmumā, mums jārisina šie riski,” saka Čakrabortijs. Pēdējā laikā Čakrabortija sarunas ar izpilddirektoriem, valdes locekļiem un drošības vadītājiem koncentrējas uz AI risku izpratni un to, kā ievērot mainīgos regulējumus.

AI izpratnes trūkums minētajā restorānu uzņēmumā varētu izskaidrot, kāpēc pēdējo piecu gadu laikā 17 štati ir pieņēmuši 29 likumprojektus, kas regulē AI. No tiem 12 ir vērsti uz datu privātuma un atbildības nodrošināšanu. Šie likumi galvenokārt vērsti uz patērētāju aizsardzību no neautorizētas datu izmantošanas un nodrošina skaidru ieskatu par to, kā AI sistēmas vāc un izmanto viņu brīvprātīgi dalītos datus. Simtiem citu ir vērsti uz deepfake novēršanu, diskriminācijas novēršanu vai to, kā rīki var tikt izmantoti darba atlases procesos.

Finanšu produktu datu privātums

Miljoniem cilvēku izmanto finanšu produktus, kas sniedz tiešu piekļuvi ļoti sensitīviem datiem. “Tas ir spēcīgs pienākums,” saka Houlika. “Kad kāds pieņem lēmumu dot mums savus datus, mums tas jāuztver ļoti nopietni.”

Ar jaunajām AI spējām, tiek pieņemta daudzfunkcionāla pieeja produktu izstrādē, iekļaujot tehnologu, drošības speciālistu, atbilstības un juridisko aspektu perspektīvas.

“Jāatrod līdzsvars starp tehnoloģijas komerciālo vērtību un pareizu darbību,” saka Houlika.

AI regulējumu stingrums

“Manuprāt, likumdošanas joma kļūst arvien stingrāka,” saka Vijays Sankarans, industriālo produktu ražotāja tehnoloģiju direktors. “Mēs cenšamies būt ļoti proaktīvi šajā jomā.”

Uzņēmums ir ieviesis “nozīmīgas” kontroles ap datiem un riska aspektiem. Tas ievēro NIST standartus kiberdrošības risku pārvaldībai un praktizē DevSecOps, kas integrē drošības praksi katrā programmatūras izstrādes cikla posmā.

2022. gadā tika izveidots privātuma centrs, kas proaktīvi dalījās ar klientiem informāciju par datu izmantošanu un nodrošinājumu. Uzņēmums arī izveidoja AI padomi, kas noteica principus datu drošībai un skaidroja AI izmantošanu saprotamā veidā.

Katru gadu konsultants palīdz klientiem veikt aptuveni 50 000 AI projektus. Pirms jebkura projekta sākuma tiek veikta riska novērtēšana. Piemēram, viens klients var strādāt pie aizdevumu izsniegšanas AI sistēmas izstrādes, modeļiem, kas var radīt aizspriedumus pēc vecuma, rases vai dzimuma un tādējādi ietekmēt galīgos aizdevuma lēmumus.

Tas var palīdzēt klientam izvairīties no jauno likumu pārkāpumiem, kas regulē aizspriedumus AI – vismaz septiņos štatos tiek apsvērti priekšlikumi par šo jautājumu.

Datu privātuma saskaņotība

“Jums jābūt pielāgojamam,” saka Džeremijs Barness. “Pasaule tik ātri mainās ar AI. Ikviens, kurš saka, ka zina pilnīgu risinājumu, iespējams, neskatās pareizajos virzienos.”

Datu noplūdes uzsver uzņēmumu saskartos riskus, it īpaši tajos gadījumos, kad AI sniedz sliktiem aktieriem jaunus rīkus deepfake attēlu, audio un video radīšanai. Aptauja atklāja, ka trešdaļa darbinieku baidās būt atbildīgi par kiberdrošības pārkāpumu izraisīšanu.

“Jums jābūt pielāgojamam līmenim,” saka Ibrahims Gokčens. “Kā tad ātri pielāgot organizāciju – pareizo apmācību un darbinieku prasmju uzlabošanu – jo galu galā daudzas no šīm datu aizsardzības un privātuma lietām ir atkarīgas no individuāla darbinieka?”

Aon cieši seko datu aizsardzības likumiem dažādos tirgos. Kompānija rīkojas kā “ātrs sekotājs” tehnoloģijas jomā. “Tas dod mums iespēju saprast regulas un to ietekmi un pēc to pieņemšanas nodrošinot atbilstību tiem,” saka Gokčens.