OpenAI vadības pārmaiņas turpinās, jo vēl viens no Sam Altman vadītājiem seko Ilya Sutskever iziešanai pa durvīm dažu stundu laikā

OpenAI vadības pārmaiņas turpinās, jo vēl viens no Sam Altman vadītājiem seko Ilya Sutskever iziešanai pa durvīm dažu stundu laikā

Augstas klases aiziešanas OpenAI

Nesenās augstas klases aiziešanas OpenAI ir radījušas jautājumus par to, vai komanda, kas atbildīga par AI drošību, pakāpeniski tiek iztukšota.

Uzreiz pēc galvenā zinātnieka Iļjas Suckevera paziņojuma, ka viņš pēc gandrīz desmit gadiem atstāj uzņēmumu, viņa komandas biedrs un viens no svarīgākajiem AI cilvēkiem, Jans Leike, arī paziņoja par savu aiziešanu.

“Es atkāpos,” Leike ierakstīja otrdien.

Viņi seko Leopoldam Ašenbrenneram, kurš tika atlaists par informācijas noplūdi, kā arī Danielam Kokotajlo, kurš aizgāja aprīlī, un Viljamam Saundersam šī gada sākumā.

Patiesi nav nekā redzama. Tikai drošības pētnieku eksoduss vienā no spēcīgākajiem uzņēmumiem pasaulē. Kas gan varētu noiet greizi?

Vairāki OpenAI darbinieki pauda savu vilšanos, dzirdot šo ziņu.

“Bija gods strādāt ar Janu pēdējos divus un pusi gadus OpenAI. Neviens tik stipri necentās padarīt AGI drošu un noderīgu,” rakstīja OpenAI pētnieks Kerols Veinraits. “Uzņēmums būs nabagāks bez viņa.”

Augsta līmeņa sūtņi no Ķīnas un ASV šonedēļ tiekas Ženēvā, lai apspriestu, kas tagad jādara, kad cilvēce ir tuvu mākslīgās vispārējās inteliģences (AGI) izstrādei, kad AI var konkurēt ar cilvēkiem dažādos uzdevumos.

Superinteliģences saskaņošana

Bet zinātnieki jau ir pievērsuši uzmanību nākamajai evolūcijas stadijai – mākslīgajai superinteliģencei.

Suckever un Leike kopīgi vadīja komandu, kas jūlijā tika izveidota, lai atrisinātu ASI saskaņošanas pamatproblēmas, kas ir eifēmisms tam, lai nodrošinātu, ka cilvēki saglabā kontroli pār mašīnām, kas ir daudz inteliģentākas un spējīgākas nekā viņi.

OpenAI apsolīja atvēlēt 20% no saviem esošajiem skaitļošanas resursiem šim mērķim ar mērķi sasniegt superalignement nākamo četru gadu laikā.

Bet izmaksas, kas saistītas ar jaunākās paaudzes AI izstrādi, ir aizliegtas.

Šomēnes Altman teica, ka, lai gan viņš ir gatavs katru gadu iztērēt miljardus AGI meklējumos, viņam joprojām ir jānodrošina, ka OpenAI var pastāvīgi piesaistīt pietiekami daudz finansējuma, lai turpinātu darbu.

Šai naudai jānāk no bagātiem investoriem kā Satja Nadella, Microsoft izpilddirektors.

Četri izteikti drošības orientēti OpenAI locekļi – @ilyasut @janleike @DanPKoko William Saunders – aizgāja pēdējā nedēļas vai tamlīdzīgajā laikā. Tik daudz jautājumu. • Vai sabiedrībai vajadzētu uztraukties • Vai OpenAI valde pievērsīs uzmanību? Vai viņi kaut ko darīs, lai risinātu situāciju?

Tas nozīmē pastāvīgi sniegt rezultātus pirms saviem konkurentiem kā Google.

Tas ietver OpenAI jaunāko vadošo produktu, GPT-4o, par kuru uzņēmums apgalvo, ka tas var patiesi “domāt” – darbības vārds, kas ir pilns ar pretrunām GenAI aprindās – teksta, audio un video formātos reālajā laikā.

Sieviešu balss asistents, ko uzņēmums šonedēļ demonstrēja, ir tik dzīvotspējīgs, ka cilvēki saka, ka tas šķiet tieši no Spika Džonsa zinātniski fantastiskas filmas “Viņa”.

‘Ko Iļja redzēja?’

Dažus mēnešus pēc Superalignment komandas izveides Suckever kopā ar citiem neizpildu direktoriem valdē, kas kontrolē uzņēmumu, atbrīvoja Altmanu, apgalvojot, ka viņiem vairs nav uzticības savam izpilddirektoram.

Nadella ātri panāca viņa atgriešanos vidū bažas par to, ka uzņēmums var sadalīties, un dažas dienas vēlāk nožēlojošais Suckever atvainojās par savu lomu dumpī.

Toreiz Reuters ziņoja, ka tas varētu būt saistīts ar slepeno projektu ar mērķi izstrādāt AI ar augstāku spriešanas spēju.

Kopš tā laika Suckever ir bijis gandrīz neredzams. Spektakulārā apvērsuma daba kopā ar to, kā tas tika pēc tam noslaucīts zem paklāja, izraisīja plašu spekulāciju sociālajos medijos.

“Ko Iļja redzēja?” kļuva par bieži dzirdamu frāzi plašajai AI kopienai.

Patiešam – ko Iļja redzēja?

Kokotajlo nesen pastiprinaja šīs bažas ar piezīmi, ka viņš atkapos protesta žestu pēc uzticības zaudēšanas uzņēmumam.

Otrdienas paziņojumā Suckever šķita noraidošs, tomēr viņš neatstāja OpenAI drošības bažu dēļ, bet gan lai veltītu laiku citiem personiskiem intereses objektiem, ko viņš atklās vēlāk.

“Uzņēmuma attīstība ir bijusi ne mazums par brīnumainu un esmu pārliecinats, ka OpenAI izveidos AGI, kas ir gan drošs, gan noderīgs,” viņš rakstīja, atbalstot OpenAI trīs galvenos vadītajus – Sam Altmanu, Greg Brockmanu un Mira Murati – kā arī savu pēcteci Jakub Pachocki.