Bijušais OpenAI valdes loceklis atklāj, kāpēc Sems Altmen tika atlaists spraigā intervijā – “mēs uzzinājām par ChatGPT no Twitter”

Bijušais OpenAI valdes loceklis atklāj, kāpēc Sems Altmen tika atlaists spraigā intervijā - "mēs uzzinājām par ChatGPT no Twitter"

Viens no galvenajiem līderiem aiz īslaicīgā, bet beigu beigās neveiksmīgā apvērsuma, lai gāztu Samu Altmanu, apsūdzēja OpenAI vadītāju atkārtotā negodīgā rīcībā spraigā intervijā, kas bija viņas pirmie plašie komentāri kopš novembra notikumiem.

Helen Toner, mākslīgā intelekta politikas eksperte no Džordžtaunas Universitātes, bija bezpeļņas organizācijas valdē, kas kontrolēja OpenAI no 2021. gada līdz viņa pagājušajā gadā atkāpās pēc savas lomas Altmana gāšanā. Pēc tam, kad darbinieki draudēja aiziet masveidā, viņš atgriezās, pastiprināts ar jaunu valdi, kurā palika tikai Quora izpilddirektors Adams D’Anželo no sākotnējiem četriem sazvērestniekiem.

Toner noliedza spekulācijas, ka viņa un viņas kolēģi valdē būtu nobijušies no tehnoloģiskiem sasniegumiem. Tā vietā viņa vainoja apvērsumu Altmana izteiktajā negodīgajā rīcībā, kas pakāpeniski grauza uzticību, jo galvenie lēmumi netika dalīti iepriekš.

“Gadiem ilgi Sams padarīja valdes darbu ļoti grūtu, slēpjot informāciju, nepareizi attēlojot notikumus uzņēmumā, dažos gadījumos pat klaji melojot valdei,” viņa teica The TED AI Show intervijā, kas tika publicēta otrdien.

Pat pats ChatGPT palaišanas fakts, kas izraisīja ģeneratīvā AI trakumu, kad tas tika izlaists 2022. gada novembrī, tika slēpts no valdes, saskaņā ar Toner. “Mēs uzzinājām par ChatGPT no Twitter,” viņa teica.

Toner apgalvoja, ka Altmanam vienmēr bija ērta attaisnojuma versija rokā, lai nomazinātu valdes bažas, tāpēc tik ilgi nebija veikti nekādi pasākumi.

“Sams vienmēr varēja izdomāt kaut kādu nevainīgi izklausīgu skaidrojumu tam, kāpēc tas nav liels darījums vai tas ir nepareizi interpretēts vai kas cits,” viņa turpināja. “Bet galarezultāts bija tāds, ka pēc gadiem ilgas šādas rīcības visi četri no mums, kas viņu atlaist, nonācām pie secinājuma, ka mēs vienkārši nevarējām ticēt tam, ko Sams mums stāstīja un tas ir pilnīgi nedarbojams stāvoklis valdei.”

OpenAI neatbildēja uz pieprasījumu komentēt šo situāciju.

Visbeidzot lietas nonāca līdz kulminācijai, Toner teica, pēc tam, kad viņa līdzautore publicēja papīru pagājušajā gadā oktobrī, kur Anthropic pieeju AI drošībai attēloja labvēlīgak nekā OpenAI, kas saniknoja Altmanu.

“Problēma bija tajā, ka pēc papīra publicēšanas Sams sāka melot citiem valdes locekļiem, lai censtos mani izspiest no valdes, tā bija vēl viena piemērs tam, kas ļoti bojāja mūsu spēju uzticēties viņam,” viņa turpināja, piebilstot, ka šī rīcība sakrita ar diskusijām, kur valde “jau diezgan nopietni apsprieda vai mums vajadzētu viņu atlaist.”

Atsevišķi ņemot vērā Toner izteiktos nicinošos komentārus par Altmanu varētu norakstīt kā rūgtumu no neveiksmīga apvērsuma līdera. Taču negodīguma modelis, ko viņa aprakstīja, nes sev līdzi līdzīgas kaitinošas apsūdzības no bijuša vecākā AI drošības pētnieka Jana Leike, kā arī Skarletes Johansones.

Mēģinājumi pašregulēties ir lemti neveiksmei

Holivudas aktrise teica, ka Altman piegriezies pie viņas ar lūgumu izmantot viņas balsi jaunajam galvenajam produktam – ChatGPT balss botam, ar kuru lietotāji var sarunaties, atgadinot fiktīvo tēlu Johansone atveidoja filmā Her. Kad viņa atteicās, viņa aizdomājas, ka viņš varbūt ir sajaucis daļu no viņas balsis pret viņas vēlmēm. Uzņēmums noliedz viņas apgalvojumus, bet tomēr piekrita pauzēt tās izmantošanu.

No otras puses Leike bija kopuzrauga vaditajs komandai atbildigai par drošibas barjeru izveidi kas nodrošina cilveku kontroli par hiperinteligento AI. Viņš aizgaja šomene sakot ka viņam ir kļuvis skaidrs ka vadiba nav nodoma novirzit vertigus resursus viņa komandai kà solits atstajot aiz sevis kodoligu kritiku par savu bijušo darba devèju. (Otrdien viņš pievienojas tai pašai OpenAI konkurentei Toner slavetaja oktobri Anthropic.)

Kad galvenie AI drošibas darbinieki bija izkliduši OpenAI pilniba likvidèja komandu apvienojot kontroli Altmana un viņa sabiedroto rokas. Vai tie kas atbild par finansialo rezultatu maksimizèšanu ir vislabak uzticeti ar drošibas barjeru ieviešanu kas var izradities komercials škèrslis vel ir jaredzams.

Lai gan daži darbinieki sakaubajas maz cilveku arpus Leike izvelèjas runat. Pateicoties Vox ziņojumam šomene atklajas ka klusuma pamatmotivacija bija neparasta neapvainošanas klauzula kas ja tiktu salauzta anulètu darbinieka ieguldijuma akcijas iespejams karstakajam startapam pasaulè.

Tas sekoja agrakam bijuša OpenAI drošibas pètnieka Daniela Kokotajlo paziņojumam ka vinš brivpratigi upurejis savu akciju dalu lai nebūtu saistits ar iziešanas ligumu. Altman velak apstiprinaja šo apgalvojumu patiesumu.

“Lai gan mes nekad neesam atsavinajusi neviena ieguldijuma akcijas mes to nedarisim ja cilveki nepiekritîs šķiršanas ligumam (vai nepiekritîs neapvainošanas ligumam). Ieguldijuma akcijas ir ieguldijuma akcijas punkts,” vinš publiceja šomene. “Tas ir uz manis un viens no retajiem reizem kad esmu patiesi kaunigs vadot OpenAI; es to nezinaju un man vajadzeja.”

Tonera komentari nesen sekoja vinai op-ed rakstam Economist, kur vinna un bijusais OpenAI direktors Taša Makoulija argumenteja ka neviens AI uzņemums nevar ticami regulèt sevi kà pieradijumi rada.

“Ja kads uzņemums butu veiksmigi regulèjis sevi droši un etiski attistot progresivus AI sistèmas tas butu bijis OpenAI,” vinji rakstija. “Balstoties uz mūsu pieredzi mes uzskatam ka pašregulacija nevar ticami pretoties peļnas stimulu spiedienam.”