Ideea de a scrie o narațiune despre o afacere pe atunci necunoscută, OpenAI, mi-a fost dată de Karen Hao, editorialistă senior la MIT Technology Review în 2019. A fost cea mai mare sarcină a ei de până acum. Reportajul realizat de Hao în luna următoare a trecut printr-o serie de răsturnări de situație, dezvăluind în cele din urmă cum pasiunea OpenAI a dus-o mult dincolo de scopul său inițial. Istoria finală a fost o privire profetică asupra unei organizații aflate într-un punct de cotitură - sau care acum a depășit acest punct. Iar OpenAI nu s-a mulțumit niciodată cu rezultatul. Într-o analiză aprofundată a companiei care a condus cursa înarmărilor pentru IA și a ceea ce înseamnă această cultură pentru toată lumea, este publicată noua publicație a lui Hao, Imperiul IA: Obiective și coșmaruri în OpenAI-ul lui Sam Altman. Acest extras este relatarea sursă a acelei monitorizări. Niall Firth, director profesionist al MIT Technology Review.
Am ajuns la birourile OpenAI pe 7 august 2019. Greg Brockman, următorul director tehnic al OpenAI și viitorul lider al firmei, a coborât scările să mă întâmpine. Mi-a râs inițial în timp ce îmi strângea mâna. „Niciodată nu i-am mai oferit cuiva atât de mult acces”, a spus el.
Unii oameni din afara lumii închise a studiilor de inteligență artificială de la acea vreme erau conștienți de OpenAI. Dar când un editorialist de la Revista Tehnologiei MIT Acoperind frontierele mereu în expansiune ale cunoașterii artificiale, îi urmăream cu atenție mișcările.
Până atunci, OpenAI fusese un fel de copil în studiul IA. Când majoritatea experților din afara OpenAI se îndoiau că IA generală ar putea fi realizată într-un deceniu, ideea era absurdă. Pentru o mare parte din industrie, aceasta avea o finanțare scandaloasă, în ciuda eforturilor reduse, și cheltuia prea mulți bani pentru a promova ceea ce alți experți adesea respingeau ca studii neinspirate. Pentru unii, era o sursă suplimentară de teamă. Ca voluntar, spusese că nu avea niciun scop în lupta împotriva monetizării. Era un parc academic rar, fără obligații, un adăpost pentru idei de frontieră.
Totuși, afluxul rapid de modificări la OpenAI a semnalat o schimbare semnificativă în cursul său în cele șase luni premergătoare participării mele. Mai întâi a fost alegerea sa derutantă de a retrage GPT-2 și de a discuta despre asta. Apoi, s-a anunțat că Sam Altman, care din păcate își părăsise funcția de conducere la YC, va prelua funcția de CEO al OpenAI, odată cu dezvoltarea noii sale structuri de „profit plafonat”. Îmi făcusem deja aranjamentele pentru a vizita biroul când a fost dezvăluită în cele din urmă colaborarea sa cu Microsoft, care a dat gigantului software îngrijorarea de a comercializa tehnologiile OpenAI și l-a obligat să utilizeze în întregime Azure, sistemul de cloud computing al Microsoft.
Fiecare nouă declarație a stârnit noi controverse, dezbateri intense și o atenție sporită, începând să depășească limitele industriei tehnologice. Mie și colegilor mei le-a fost greu să înțelegem pe deplin ce se întâmpla în timp ce relatam despre dezvoltarea agenției. Ceea ce era evident era că OpenAI începea să impună o influență semnificativă asupra analizei IA și a mijloacelor prin care factorii de decizie politică învățau să înțeleagă tehnologia. Decizia laboratorului de a se transforma într-o afacere parțial profitabilă ar avea un efect de domino atât asupra sferei sale politice, cât și asupra celei de afaceri.
Așa că, într-o noapte târziu, la îndemnul editorului meu, i-am trimis în grabă un e-mail lui Jack Clark, directorul de politici al OpenAI, cu care mai vorbisem: urma să fiu în oraș timp de două săptămâni și părea momentul potrivit în istoria OpenAI. Aș putea posta un profil pentru a-mi arăta interesul? Clark m-a transmis șefului de comunicare, care a revenit cu un răspuns. OpenAI era într-adevăr pregătită să reapară publicului larg. Aveam trei zile la dispoziție pentru a intervieva conducerea și a mă integra în cadrul companiei.
Eu și Brockman ne-am instalat într-o sală de ședințe din sticlă cu șef de știință al companiei, Ilya Sutskever. Fiecare și-a jucat rolul, stând unul lângă altul la o masă lungă de conferințe. Brockman, programatorul și executorul, s-a aplecat în față, puțin nervos, gata să facă o impresie bună, iar Sutskever, cercetătorul și filosoful, s-a așezat înapoi în scaun, relaxat și distant.
Mi-am deschis laptopul și mi-am analizat întrebările. Misiunea OpenAI este de a asigura o AGI benefică, am început eu. De ce să cheltuim miliarde de dolari pe această problemă și nu pe altceva?
Brockman a dat din cap cu putere. Era obișnuit să apere poziția OpenAI. Credem că este important să construim AGI deoarece credem că poate rezolva probleme complexe care depășesc sfera interacțiunii umane, a spus el.
El a oferit două exemple care deveniseră dogmă printre credincioșii AGI. Schimbările climatice. Este o „problemă super-complexă”, afirmă autorul. Cum se presupune că o rezolvi?”, de asemenea, medicina. „Uitați-vă cât de importantă este asistența medicală în SUA ca problemă politică în aceste zile. Cum putem obține de fapt un tratament mai bun pentru oameni la costuri mai mici?”
Apoi a început să împărtășească povestea unui prieten care suferea de o boală rară și care fusese nevoit recent să treacă de la diverși medici pentru a-și rezolva problema. AGI ar reuni toate aceste specialități. Oameni ca prietenul său nu ar mai depune atât de mult efort și frustrare pentru a primi un răspuns.
De ce aveam nevoie de inteligență artificială pentru a face asta în loc de inteligență artificială?, am întrebat.
Această distincție a fost crucială. Termenul AGI, odinioară retrogradat într-o secțiune nepopulară a dicționarului de tehnologie, abia recent începuse să fie utilizat mai frecvent - în mare parte datorită OpenAI.
AGI, așa cum a definit-o pe bună dreptate OpenAI, a fost apogeul teoretic al cercetării în domeniul inteligenței artificiale: un software care avea la fel de multă sofisticare, agilitate și creativitate ca mintea umană, pentru a-i egala sau chiar a-i depăși performanța în majoritatea sarcinilor (cu valoare economică). Cuvântul cheie era teoretic. Încă de la începutul cercetărilor serioase în domeniul inteligenței artificiale, cu câteva decenii în urmă, au existat dezbateri intense despre posibilitatea ca cipurile de siliciu care codifică totul în cifrele lor binare de unu și zero să poată simula vreodată creierul și celelalte procese biologice care dau naștere la ceea ce considerăm inteligență. Fără a intra măcar în discuția normativă despre dacă oamenii ar trebui să o dezvolte, existau încă dovezi nedezvoltate că acest lucru era posibil.
IA, pe de altă parte, era termenul actual atât pentru versiunea tehnologiei disponibilă în prezent, cât și pentru versiunea pe care cercetătorii ar putea-o obține în mod rezonabil în viitorul apropiat prin rafinarea capacităților existente. Aceste abilități, care se bazează pe tehnici puternice de învățare automată, au demonstrat deja aplicații promițătoare pentru reducerea schimbărilor climatice și îmbunătățirea asistenței medicale.
Sutskever a intervenit. Când vine vorba de rezolvarea provocărilor globale complexe, „fundamental, blocajul este că ai un număr mare de oameni și aceștia nu comunică la fel de repede, nu lucrează la fel de repede, au o mulțime de probleme de stimulare”. El a susținut că AGI ar fi diferit. „Imaginați-vă că este o rețea mare de calculatoare inteligente - toate își fac diagnosticele medicale, toate comunică rezultatele între ele extrem de rapid”.
Asta mi s-a părut a fi o altă modalitate de a spune că scopul AG I era să-i facă pe oameni depășiți. La asta se referea Sutskever?, l-am întrebat pe Brockman câteva ore mai târziu, odată ce am rămas doar noi doi.
„Nu”, a replicat Brockman rapid. „Acesta este un lucru cu adevărat important. Ce funcție îndeplinește tehnologia? De ce este aici? De ce o construim? Corect, dezvoltăm tehnologii de mult timp. Facem asta pentru că ele sunt în serviciul oamenilor. Inteligența arabilă generală (AGI) nu va fi diferită dacă nu funcționează așa cum ne dorim, nu în modul în care vrem să o construim sau așa cum anticipăm că va merge.”
Acestea fiind spuse, a recunoscut el câteva minute mai târziu că tehnologia a distrus întotdeauna unele locuri de muncă și a creat altele. Provocarea OpenAI ar fi să construiască o inteligență artificială generală (AGI) care să ofere tuturor „libertate economică”, permițându-le în același timp să continue „să trăiască vieți semnificative” în această nouă realitate. Dacă ar reuși, ar rupe distincția dintre necesitate și supraviețuire.
„De fapt, cred că este un lucru foarte frumos”, a spus el.
Brockman ne-a adus în minte imaginea de ansamblu când ne-am întâlnit cu Sutskever. „Ceea ce considerăm a fi rolul nostru nu este de fapt acela de a determina dacă AGI va fi construită”, a spus el. Acesta a fost un argument favorit în Silicon Valley - cartea inevitabilității. Altcineva o va face dacă noi nu o facem. „Traiectoria este deja acolo”, a subliniat el, „dar lucrul pe care îl putem influența sunt condițiile inițiale în care se naște.”
„Ce este mai exact OpenAI?”, a continuat el. „Care este scopul nostru? Ce încercăm de fapt să realizăm? Misiunea noastră este să ne asigurăm că AGI aduce beneficii întregii umanități. Să construim AGI și să distribuim beneficiile sale economice, așa dorim să facem acest lucru.”
Tonul lui era pragmatic și definitiv, ca și cum mi-ar fi lăsat întrebările la o parte. Și totuși, cumva, tocmai ajunseserăm exact de unde porniserăm.
Conversația noastră s-a epuizat după 45 de minute și a continuat în cerc. Am încercat, fără prea mult succes, să obțin detalii mai concrete despre ce anume încercau să construiască - lucru pe care, prin natura lor, mi-au explicat, nu-l puteau ști - și de ce, apoi, dacă nu puteau ști, erau atât de încrezători că ar fi benefic. La un moment dat, am încercat o strategie diferită, cerându-le să ofere exemple despre dezavantajele tehnologiei. Acesta a fost un pilon al mitologiei fondatoare a OpenAI: laboratorul trebuia să construiască o AGI bună înainte ca altcineva să construiască una proastă.
Brockman a încercat un răspuns: deepfake-uri. Nu este clar dacă lumea se va îmbunătăți ca urmare a aplicațiilor sale, a spus el.
Am oferit propriul meu exemplu: Apropo de schimbările climatice, ce putem spune despre impactul IA asupra mediului? Emisiile enorme și în creștere de carbon generate de antrenarea unor modele de IA din ce în ce mai mari au fost alarmante, conform unui studiu recent al Universității din Massachusetts, Amherst.
„Acest lucru era „de netăgăduit”, a spus Sutskever, dar recompensa a meritat, deoarece AGI ar fi”, printre altele, contracara în mod specific costul de mediu.” Nu a oferit exemple.
„Este, fără îndoială, foarte dorit ca centrele de date să fie cât mai ecologice posibil”, a continuat el.
„Fără îndoială”, a glumit Brockman.
Potrivit lui Sutskever, „centrele de date sunt cel mai mare consumator de energie și electricitate”, a continuat el, părând hotărât să arate că este conștient de această problemă și preocupat de ea.
„Este vorba de 2% la nivel global”, am spus eu.
„Nu este Bitcoin ca 1%?”, a spus Brockman.
” Wow! „spuse Sutskever într-o izbucnire bruscă de emoție care, după patruzeci de minute de conversație, părea oarecum performativă.”
Sutskever avea să stea mai târziu de vorbă cu New York Times reporterul Cade Metz pentru cartea sa Creatori de geniu„, care relatează o istorie narativă a dezvoltării inteligenței artificiale și, să zicem, fără nicio urmă de satiră”, cred că este destul de probabil că nu va dura prea mult timp până când întreaga suprafață a Pământului va fi acoperită de centre de date și centrale electrice. „Ar exista” un tsunami de calcul... aproape ca un fenomen natural. Inteligența artificială generală și centrele de date necesare pentru susținerea acesteia ar fi „prea utile pentru a nu exista”, au spus ei.
„Am încercat din nou să insist pentru mai multe detalii”. Susții că OpenAI își asumă un risc mare că vei putea obține o AGI benefică pentru a opri încălzirea globală înainte ca acest lucru să nu facă decât să înrăutățească situația.
„N-aș merge prea departe în vizuina asta”, a intervenit repede Brockman. Modul în care privim lucrurile este următorul: Suntem pe o rampă de progres a inteligenței artificiale. Acest lucru este mai semnificativ decât OpenAI, nu-i așa? Este domeniul. Și cred că societatea beneficiază de fapt de pe urma lui.
„În ziua în care am anunțat tranzacția”, a spus el, referindu-se la noua investiție de 1 miliard de dolari a Microsoft, capitalizarea de piață a Microsoft a crescut cu 10 miliarde de dolari. Oamenii cred că există un ROI pozitiv chiar și doar pe termen scurt.
El a explicat că planul de acțiune al OpenAI era destul de simplu: „să ținem pasul cu acest progres”. Acesta este standardul la care ar trebui să ne apropiem cu adevărat. Acest progres ar trebui făcut mai frecvent. Așa știm că suntem pe drumul cel bun.”
Mai târziu în acea zi, Brockman a reiterat că principala provocare a lucrului la OpenAI era că nimeni nu știa cu adevărat cum va arăta AGI. Cu toate acestea, ca ingineri și cercetători, provocarea era să continuăm să avansăm și să descoperim evoluția treptată a tehnologiei.
Vorbea ca Michelangelo, ca și cum AGI-ul exista deja în marmura pe care o sculpta. Trebuia doar să cioplească până când devenea evident.
Se schimbase planurile. Aveam programat să iau prânzul cu angajații la cantină, dar acum ceva mă cerea să fiu în afara biroului. Însoțitorul meu urma să fie Brockman. Am traversat strada, la vreo douăzeci de pași, până la o cafenea în aer liber care devenise un loc preferat de angajați.
Aceasta avea să devină o temă constantă pe tot parcursul vizitei mele: etaje pe care nu le puteam vedea, întâlniri la care nu puteam participa, cercetători care aruncau priviri pe furiș către șeful de comunicare la fiecare câteva propoziții pentru a se asigura că nu încălcaseră nicio regulă de dezvăluire. Mai târziu, aveam să aflu că, după vizita mea, Jack Clark le-a dat un avertisment neobișnuit de sever angajaților de pe Slack să nu vorbească cu mine în afara conversațiilor autorizate. Agentul de securitate primea o fotografie cu mine cu instrucțiuni să fie atent dacă apăream neaprobat în incintă. Per total, angajamentul OpenAI față de transparență făcea ca acest comportament să fie ciudat. Ce ascundeau, am început să mă întreb, dacă totul trebuia să fie cercetare benefică pusă în cele din urmă la dispoziția publicului?
Am analizat mai amănunțit motivațiile cofondatorului lui Brockman în timpul prânzului și pe parcursul zilei. Era adolescent când a devenit obsedat pentru prima dată de ideea că ar putea fi posibilă recrearea inteligenței umane. O lucrare celebră a matematicianului britanic Alan Turing i-a stârnit fascinația. „Jocul imitației”, care a servit drept titlu pentru dramatizarea hollywoodiană din 2014 a vieții lui Turing, are provocarea de deschidere, „Pot mașinile să gândească?”, care este titlul primei sale secțiuni. „Lucrarea continuă prin a defini ceea ce avea să devină cunoscut sub numele de testul Turing: o măsură a progresiei inteligenței artificiale bazată pe faptul că o mașină poate vorbi cu un om fără a dezvălui că este o mașină. Era o poveste de origine bine-cunoscută pentru profesioniștii din domeniul inteligenței artificiale. Încântat, Brockman a creat un joc de testare Turing și l-a postat online, obținând aproximativ 1.500 de accesări. L-a făcut să se simtă uimitor”, a spus el. „Tocmai mi-am dat seama că acesta era genul de lucru pe care voiam să-l urmez.”
În 2015, când inteligența artificială a cunoscut progrese uriașe, Brockman spune că și-a dat seama că era timpul să revină la ambiția sa inițială și s-a alăturat OpenAI ca și cofondator. Chiar dacă asta însemna să lucreze ca om de serviciu, el a declarat în notițele sale că ar face orice pentru a ajuta la aducerea la viață a inteligenței artificiale. Când s-a căsătorit patru ani mai târziu, a ținut o ceremonie civilă la biroul OpenAI, în fața unui perete personalizat cu flori, ornamentat cu forma logo-ului hexagonal al laboratorului. Sutskever a oficiat ceremonia. Mâna robotică pe care o foloseau pentru a efectua cercetări se afla pe culoarul cu inelele, o santinelă dintr-un viitor post-apocaliptic.
„Fundamental, vreau să lucrez la AGI pentru tot restul vieții mele”, mi-a spus Brockman.
„Ce a dus la motivația lui?”, l-am întrebat pe Brockman.
„Care sunt șansele ca o tehnologie transformatoare să apară în timpul vieții tale?”, a replicat el.
„Era încrezător că el – și echipa pe care a format-o – se aflau într-o poziție unică pentru a iniția acea transformare.” „Sunt foarte atras de probleme care nu se vor rezolva la fel dacă nu particip”, a spus el.
Brockman nu voia, de fapt, doar să fie om de serviciu. Voia să conducă AGI. Și a izvorât din energia neliniștită a unei persoane care își dorea recunoaștere pentru istorie. Își dorea ca oamenii să-i spună într-o zi povestea cu același amestec de venerație și admirație pe care îl folosea pentru a le povesti pe cele ale marilor inovatori care au venit înaintea lui.
Le spusese unui grup de tineri antreprenori din domeniul tehnologiei, la o retragere exclusivistă în Lacul Tahoe, că directorii de tehnologie nu fuseseră cunoscuți cu un an înainte de conversația noastră și a simțit o urmă de autocompătimire din cauza asta. Numiți un CTO faimos, a provocat el mulțimea. S-au chinuit să facă acest lucru. El a adus un argument convingător.
În 2022, a devenit președintele OpenAI.
„În timpul conversațiilor noastre, Brockman a insistat că nicio modificare structurală a OpenAI nu ar indica o schimbare în scopul său principal. De fapt, profitul plafonat și noul grup de finanțatori l-au consolidat.” Am reușit să obținem acești investitori aliniați la misiunea lor, care sunt dispuși să acorde prioritate misiunii în detrimentul randamentelor. „Este un lucru bizar”, a spus el.
OpenAI avea acum resursele pe termen lung necesare pentru a-și scala modelele și a rămâne cu un pas înaintea concurenței. Brockman a subliniat că acest lucru era necesar. Eșecul în a face acest lucru reprezenta adevărata amenințare care putea submina misiunea OpenAI. Dacă laboratorul rămânea în urmă, nu avea nicio speranță să curbeze arcul istoriei către viziunea sa asupra unei AGI benefice. Abia mai târziu aveam să realizez întreaga amploare a acestei afirmații. Această presupunere fundamentală - nevoia de a fi primul sau de a pieri - a pus în mișcare toate acțiunile OpenAI și consecințele lor de amploare. A accelerat fiecare dintre progresele în cercetare ale OpenAI, nu pe baza timpului necesar, ci mai degrabă pe nefrica de a avansa înaintea oricui altcuiva. A justificat consumul de către OpenAI a unei cantități incalculabile de resurse: atât resurse de calcul, indiferent de impactul lor asupra mediului, cât și date, a căror acumulare nu putea fi încetinită prin obținerea consimțământului sau respectarea reglementărilor.
„Brockman a subliniat încă o dată creșterea cu 10 miliarde de dolari a capitalizării de piață a Microsoft”. Ceea ce reflectă cu adevărat acest lucru este faptul că inteligența artificială aduce de fapt o valoare reală lumii moderne, a spus el. Această valoare era concentrată în prezent într-o corporație deja bogată, a recunoscut el, motiv pentru care OpenAI avea a doua parte a misiunii sale: să redistribuie beneficiile inteligenței artificiale către toată lumea.
A existat vreun exemplu istoric în care avantajele unei tehnologii au fost exploatate cu succes?, am întrebat.
„Ei bine, chiar cred că... e interesant chiar și să ne uităm la internet ca exemplu”, a spus el, bâlbâind puțin înainte de a se hotărî asupra răspunsului. „Există și probleme, nu-i așa?”, a spus el ca o avertizare. „Nu va fi simplu să-ți dai seama cum să maximizezi aspectele pozitive și să minimizezi aspectele negative atunci când ai ceva super transformator.”
„Focul este un alt exemplu”, a adăugat el. „De asemenea, are unele dezavantaje reale. Trebuie să stabilim cum să menținem controlul și să stabilim standarde comune.”
„Mașinile sunt un bun exemplu”, a continuat el. Mulți oameni beneficiază de pe urma mașinilor. Acestea au și unele dezavantaje. Au unele efecte externe care nu sunt neapărat bune pentru lume”, a încheiat el ezitant.
„Lucrurile pe care le dorim de la AGI, aspectele pozitive ale mașinilor și aspectele pozitive ale focului sunt toate similare, presupun, exact așa cum presupun. Implementarea este însă foarte diferită, deoarece este un tip de tehnologie foarte diferit.”
„Ochii lui au strălucit cu o perspectivă proaspătă. Uitați-vă doar la utilități. Companiile de energie, companiile de electricitate sunt entități foarte centralizate care oferă lucruri de înaltă calitate și la costuri reduse, care îmbunătățesc semnificativ viața oamenilor.”
A funcționat bine ca exemplu. Dar Brockman părea din nou neclar în privința modului în care OpenAI s-ar putea transforma într-o utilitate publică. Ar fi putut reflecta cu voce tare despre distribuirea venitului minim garantat universal sau poate prin alte mijloace.
„A revenit la singurul lucru pe care îl știa cu siguranță. OpenAI era dedicată redistribuirii beneficiilor AG I și acordării tuturor libertății economice”. El a spus: „Chiar vorbim serios despre asta”.
„Modul în care privim lucrurile este următorul: Până acum, tehnologia a fost ceva care ridică toate bărcile, dar are acest efect real de concentrare”, a spus el. „Integrarea generală generală” (IAG) ar putea fi mai extremă. Ce-ar fi dacă toate valorile ar fi blocate într-un singur loc? Aceasta este traiectoria pe care ne aflăm ca societate. Și nu am văzut niciodată ceva atât de extrem. Nu cred că este o lume bună. Nu vreau să intru în lumea aceea. Nu este o lume pe care vreau să o construiesc.”
În februarie 2020, mi-am publicat profilul pentru Revista Tehnologiei MIT„, bazându-mă pe observațiile mele din perioada petrecută la birou, pe aproape trei duzini de interviuri și pe o mână de documente interne”. Conform „am scris”, există o deconectare între ceea ce susține public compania și modul în care operează în umbra companiei. De-a lungul timpului, aceasta a permis ca o competitivitate acerbă și o presiune crescândă pentru o finanțare din ce în ce mai mare să-i erodeze idealurile fondatoare de transparență, deschidere și colaborare.”
Elon Musk a răspuns la știre cu trei tweet-uri rapide, la rând, câteva ore mai târziu:
„OpenAI ar trebui să fie mai deschisă, în opinia mea”
„Nu am niciun control și am doar o perspectivă foarte limitată asupra OpenAI”, a spus el, referindu-se la Dario Amodei, directorul de cercetare, și că Dario are un nivel ridicat de încredere în siguranța sa.
„Toate organizațiile care dezvoltă inteligență artificială avansată ar trebui reglementate, inclusiv Tesla”
După aceea, Altman trimite e-mailuri angajaților OpenAI.
„Am vrut să împărtășesc câteva gânduri despre articolul din Tech Review”, a scris el. Deși cu siguranță nu a fost catastrofal, a fost în mod clar rău.”
El a susținut că articolul a identificat o discrepanță între percepția asupra OpenAI și realitatea sa. A fost „o critică corectă”. Aceasta ar putea fi atenuată nu prin modificări ale practicilor sale interne, ci prin unele ajustări ale mesajelor publice ale OpenAI. „Este bine, nu rău, că am învățat să fim adaptabili”, a spus el, inclusiv prin schimbarea locului de muncă și asigurarea confidențialității pentru a ne îndeplini misiunea pe măsură ce aflăm mai multe. „Ar trebui să ignor articolul meu pentru OpenAI deocamdată și, peste câteva săptămâni, să încep să subliniez angajamentul său continuu față de principiile sale originale în cadrul noii transformări”. Aceasta ar putea fi, de asemenea, o bună oportunitate de a vorbi despre API ca o strategie pentru deschidere și partajarea beneficiilor”, a adăugat el, referindu-se la o interfață de programare a aplicațiilor pentru livrarea modelelor OpenAI.
„Cea mai importantă problemă, în opinia mea, este scurgerea documentelor noastre interne”, a continuat el. „Deja deschiseseră o anchetă și vor ține compania la curent. De asemenea, el sugerează ca Amodei și Musk să se întâlnească pentru a clarifica criticile lui Musk, care au fost „ușoare în comparație cu ceea ce a spus”, dar totuși „un lucru rău de făcut”. „Pentru a evita orice îndoială, munca lui Amodei și siguranța inteligenței artificiale au fost esențiale pentru misiune”, a scris el. „Cred că ar trebui, la un moment dat în viitor, să găsim o modalitate de a ne apăra public echipa (dar fără a oferi presei lupta publică pe care și-ar dori-o chiar acum).”
OpenAI a refuzat să mă contacteze din nou timp de trei ani.
Din carte Imperiul IA: Vise și coșmaruri în OpenAI-ul lui Sam Altman, de Karen Hao, va fi publicată pe 20 mai 2025 de Penguin Press, o editură a Penguin Publishing Group, o divizie a Penguin Random House LLC. Drepturile de autor ale lui Karen Hao sunt disponibile în 2025.