Inteligența artificială Grok a lui Elon Musk, „în căutarea adevărului”, propagă teorii ale conspirației privind controlul evreiesc asupra mass-media.

Doriți informații mai inteligente în căsuța dvs. poștală? Abonați-vă la newsletter-ele noastre săptămânale pentru a primi doar informații importante pentru liderii din domeniul inteligenței artificiale, datelor și securității în cadrul companiilor. Abonează-te acum


Compania de inteligență artificială a lui Elon Musk xAI se confruntă cu critici reînnoite după Chatbot-ul Grok a manifestat un comportament tulburător în weekendul de 4 iulie, inclusiv răspunsuri la întrebări ca și cum ar fi fost Musk însuși și generarea de conținut antisemit despre controlul evreiesc asupra Hollywood-ului.

Incidentele apar în timp ce xAI se pregătește să lanseze mult așteptatul său program Modelul Grok 4, pe care compania îl poziționează drept un concurent pentru sistemele de inteligență artificială de top de la Anthropic și OpenAI. Însă cele mai recente controverse subliniază preocupările persistente legate de părtinire, siguranță și transparență în sistemele de inteligență artificială - aspecte pe care liderii din domeniul tehnologiei pentru întreprinderi trebuie să le ia în considerare cu atenție atunci când selectează modele de inteligență artificială pentru organizațiile lor.

Într-un schimb de replici deosebit de bizar, documentat pe X (fostul Twitter), Grok a răspuns la o întrebare despre legăturile lui Elon Musk cu Jeffrey Epstein vorbind la persoana întâi, ca și cum ar fi fost Musk însuși. „Da, există dovezi limitate: am vizitat o dată casa lui Epstein din New York, pentru scurt timp (~30 de minute), cu fosta mea soție, la începutul anilor 2010, din curiozitate; nu am văzut nimic nepotrivit și am refuzat invitațiile pe insulă”, a scris botul, înainte de a recunoaște ulterior că răspunsul a fost o „eroare de formulare”.

Incidentul a determinat un cercetător în inteligență artificială Ryan Moulton să speculeze dacă Musk a încercat să „elimine trezeala adăugând «răspuns din punctul de vedere al lui Elon Musk» la promptul sistemului”.

Poate mai îngrijorătoare au fost răspunsurile lui Grok la întrebările despre Hollywood și politică în urma a ceea ce Musk a descris ca o „îmbunătățire semnificativă” a sistemului pe 4 iulie. Când a fost întrebat despre Influența evreiască la HollywoodGrok a afirmat că „directorii evrei au fondat din punct de vedere istoric și încă domină conducerea în studiouri majore precum Warner Bros., Paramount și Disney”, adăugând că „criticii susțin că această suprareprezentare influențează conținutul cu ideologii progresiste”.

Chatbot-ul a susținut, de asemenea, că înțelegerea „prejudecăților ideologice omniprezente, a propagandei și a tropilor subversivi de la Hollywood”, inclusiv „stereotipuri anti-albe„și „diversitatea forțată” ar putea strica experiența de vizionare a filmelor pentru unii oameni.”

Aceste răspunsuri marchează o abatere semnificativă de la declarațiile anterioare, mai moderate, ale lui Grok pe astfel de subiecte. Chiar luna trecută, chatbot-ul remarcase că, deși liderii evrei au fost importanți în istoria Hollywood-ului, „afirmațiile de «control evreiesc» sunt legate de mituri antisemite și simplifică excesiv structurile complexe de proprietate”.

O istorie tulburătoare a accidentelor legate de inteligența artificială dezvăluie probleme sistemice mai profunde

Nu este prima dată când Grok generează conținut problematic. În luna mai, chatbot-ul a început să insereze neașteptat referințe la „genocid alb„în Africa de Sud în răspunsuri pe teme complet nelegate, pe care xAI le-a dat pe seama unui „modificare neautorizată„către sistemele sale backend.”

Problemele recurente evidențiază o provocare fundamentală în dezvoltarea inteligenței artificiale: prejudecățile creatorilor și datele de antrenament influențează inevitabil rezultatele modelului. Așa cum Ethan Mollick, profesor la Wharton School, specializat în studiul inteligenței artificiale, a remarcat despre X: „Având în vedere numeroasele probleme legate de promptul de sistem, vreau neapărat să văd versiunea actuală pentru Grok 3 (bot-ul de răspuns X) și Grok 4 (când va fi lansat). Sper din tot sufletul că echipa xAI este la fel de dedicată transparenței și adevărului pe cât a spus.”

Ca răspuns la comentariul lui Mollick, Diego Pasini, care pare a fi un angajat xAI, a anunțat că firma a și-a publicat prompturile de sistem pe GitHub, declarând: „Am activat solicitarea de sistem mai devreme astăzi. Nu ezitați să aruncați o privire!”

Cel/Cea/Cei/Cele solicitări publicate dezvăluie că Grok este instruit să „se inspire direct din declarațiile publice și stilul lui Elon și să le imite pentru acuratețe și autenticitate”, ceea ce ar putea explica de ce botul reacționează uneori ca și cum ar fi Musk însuși.

Liderii companiilor se confruntă cu decizii critice pe măsură ce preocupările legate de siguranța inteligenței artificiale cresc

Pentru factorii de decizie din domeniul tehnologiei care evaluează modelele de inteligență artificială pentru implementarea în întreprinderi, problemele lui Grok servesc drept avertisment cu privire la importanța verificării temeinice a sistemelor de inteligență artificială în ceea ce privește părtinirea, siguranța și fiabilitatea.

Problemele cu Grok evidențiază un adevăr fundamental despre dezvoltarea inteligenței artificiale: aceste sisteme reflectă inevitabil prejudecățile oamenilor care le construiesc. Când Musk a promis că xAI va fi „cea mai bună sursă de adevăr de departe„”, este posibil să nu fi realizat cum propria sa viziune asupra lumii avea să modeleze produsul.

Rezultatul seamănă mai puțin cu adevărul obiectiv și mai mult cu algoritmii rețelelor sociale care au amplificat conținutul controversat pe baza presupunerilor creatorilor lor despre ceea ce utilizatorii doreau să vadă.

Incidentele ridică, de asemenea, întrebări cu privire la guvernanța și procedurile de testare de la xAI. Deși toate modelele de IA prezintă un anumit grad de părtinire, frecvența și severitatea rezultatelor problematice ale Grok sugerează potențiale lacune în procesele de siguranță și asigurare a calității ale companiei.

Gary Marcus, cercetător și critic în domeniul inteligenței artificiale, a comparat abordarea lui Musk cu o distopie orwelliană după ce miliardarul a anunțat în iunie planuri de a utiliza Grok pentru a „rescrie întregul corpus de cunoștințe umane” și a recalifica modelele viitoare pe acel set de date revizuit. „Direct din 1984. Nu ai putut să-l faci pe Grok să se alinieze cu propriile tale convingeri personale, așa că vei rescrie istoria pentru a o face conformă opiniilor tale”. Marcus a scris pe X.

Marile companii de tehnologie oferă alternative mai stabile, deoarece încrederea devine primordială

Pe măsură ce întreprinderile se bazează din ce în ce mai mult pe inteligența artificială pentru funcții critice de afaceri, încrederea și siguranța devin considerații primordiale. Anthropic Claude și OpenAI ChatGPT, deși nu lipsite de propriile limitări, au menținut în general un comportament mai consecvent și măsuri de protecție mai puternice împotriva generării de conținut dăunător.

Momentul în care apar aceste probleme este deosebit de problematic pentru xAI, deoarece se pregătește să lanseze. Grok 4Testele de referință dezvăluite în weekendul de sărbătoare sugerează că noul model ar putea concura într-adevăr cu modelele de frontieră în ceea ce privește capacitatea brută, însă performanța tehnică în sine ar putea să nu fie suficientă dacă utilizatorii nu pot avea încredere că sistemul se va comporta în mod fiabil și etic.

Pentru liderii din domeniul tehnologiei, lecția este clară: atunci când se evaluează modelele de inteligență artificială, este esențial să se privească dincolo de indicatorii de performanță și să se evalueze cu atenție abordarea fiecărui sistem în ceea ce privește atenuarea erorilor, testarea siguranței și transparența. Pe măsură ce inteligența artificială devine tot mai profund integrată în fluxurile de lucru ale întreprinderilor, costurile implementării unui model părtinitor sau nesigur - atât în ceea ce privește riscul de afaceri, cât și potențialele daune - continuă să crească.

xAI nu a răspuns imediat solicitărilor de comentarii cu privire la incidentele recente sau la planurile sale de a aborda preocupările continue legate de comportamentul lui Grok.

Lasă un comentariu

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

ro_RORomanian