Se pare că Mark Zuckerberg a declarat într-o declarație la Universitatea Georgetown în 2019 că nu-i place ca Twitter să fie un „arbitru al adevărului”. Cu toate acestea, compania sa, Meta, a folosit o serie de tehnici pentru a modera materialele și a descoperi postări false pe Facebook, Instagram și Strands de-a lungul anilor. În aceste metode au fost angajați și verificatori de informații terți care verifică personal validitatea afirmațiilor făcute în unele postări, inclusiv filtre automate care pot detecta conținut ilegal și dăunător.
Zuckerberg a remarcat că, deși Meta a investit mult efort în crearea de „sisteme complexe pentru a calcula conținutul”, aceste dispozitive au făcut în mod constant greșeli, ceea ce a dus la „prea multă cenzură”. Ca răspuns, compania a anunțat că va înceta să mai utilizeze verificatori de informații terți în SUA și va trece la un program numit Community Notes, care se bazează pe oameni pentru a semnala informații false sau înșelătoare și a oferi o perspectivă asupra acestora.
Notele comunitare pot fi foarte puternice, dar sarcina dificilă de moderare a materialelor beneficiază de o combinație de diverse tehnici. Mi-am petrecut cea mai mare parte a carierei cercetând știrile false, înșelăciunea și publicitatea online, ca profesor de procesare a limbajului natural la MBZUAI. Însă, una dintre primele întrebări pe care mi le-am pus a fost: Va avea utilizarea Notelor Comunitare crowdsourcing în loc de verificatori individuali de informații efecte negative asupra utilizatorilor?
Abilități de gestionare a mulțimii și intelect
Pe Twitter, Community Notes a fost inițial cunoscut sub numele de Birdwatch. Clienții care participă la program adaugă context și claritate la ceea ce consideră a fi tweet-uri false sau înșelătoare, datorită unei funcții de crowdsourcing. Persoane cu perspective sociale diferite se adună și cred că un blog este înșelător până când rezultatele evaluării comunității sunt ținute secrete. Nota este apoi vizibilă publicului sub afirmația în cauză, oferind mai mult context pentru a ajuta utilizatorii să emită judecăți informate despre conținutul său, după ce se atinge pragul de consens.
Se pare că programul Community Notes funcționează destul de eficient. Cercetătorii de la Universitatea Illinois Urbana-Champaign și de la Universitatea Rochester au descoperit că software-ul Community Notes al X poate reduce răspândirea dezinformărilor, ceea ce, la rândul său, îi determină pe autori să își retragă postările. Facebook este, în esență, similar cu ceea ce se practică în prezent pe X.
Este uimitor să vezi o altă afacere majoră de social media implementând sourcing-ul pentru moderarea conținutului, după ani de cercetare și scriere pe această temă. Dacă va avea succes pentru Meta, ar putea fi o adevărată schimbare pentru cei peste 3 miliarde de oameni care utilizează produsele agenției în fiecare zi.
Acestea fiind spuse, moderarea conținutului este o problemă dificilă. Nu există o singură soluție magică care să funcționeze în toate circumstanțele. Dificultatea poate fi rezolvată doar prin utilizarea unei varietăți de instrumente, inclusiv algoritmi pentru sourcing, verificatori de informații despre persoane și crowdsourcing. Fiecare dintre acestea poate și ar trebui să funcționeze împreună și este cel mai potrivit pentru diverse tipuri de materiale.
LLM și phishing
Există exemple despre cum se pot aborda problemele conexe. Spamul pe internet a fost o problemă puțin mai mare cu mult timp în urmă decât este astăzi. Am eradicat în mare parte complet e-mailurile prin sursă. Acum, oamenii pot raporta e-mailuri suspecte folosind instrumente de monitorizare furnizate de furnizorii de e-mail. Cu cât un mesaj de e-mail special este mai răspândit, cu atât mai mulți oameni îl vor raporta, ceea ce face mai probabil să fie descoperit.
Modul în care modelele lingvistice largi (LLM) gestionează conținutul dăunător este o altă comparație utilă. Mulți LLM pur și simplu refuză să răspundă la cele mai periculoase întrebări, cum ar fi cele care implică arme sau crimă. Aceste metode pot include ocazional o declarație în rezultatul lor, cum ar fi atunci când li se cere să ofere sfaturi medicale, juridice sau financiare. Într-un nou studiu, eu și colegii mei de la MBZUAI am propus o piramidă a modurilor în care LLM-urile pot răspunde la diverse tipuri de întrebări potențial dăunătoare. Platformele de socializare pot beneficia în același mod de pe urma diverselor metode de moderare a materialelor.
Cadrele automate pot fi aplicate pentru a filtra cele mai periculoase date, împiedicând oamenii să le vizualizeze și să le partajeze. Deoarece le lipsesc detaliile necesare pentru moderarea majorității materialelor, aceste sisteme automate sunt rapide, dar pot gestiona doar anumite tipuri de conținut.
Metodele crowdsourcing, cum ar fi Notele Comunității, vă permit să identificați conținutul potențial dăunător bazându-vă pe informațiile oamenilor. Acestea se mișcă mai rapid decât metodele automate, dar mai lent decât verificatorii de informații experți.
Verificatorii de fapte profesioniști lucrează cel mai mult timp, dar evaluările lor sunt mai amănunțite decât cele ale Notelor Comunitare, care sunt limitate la 500 de figuri. Verificatorii de fapte beneficiază în mod normal de informațiile celorlalți. De obicei, sunt învățați să evalueze structura rezonabilă a argumentului, precum și să identifice strategiile retorice utilizate în campaniile de dezinformare. Cu toate acestea, munca verificatorilor de fapte profesioniști nu poate fi la fel de echilibrată ca a Notelor Comunitare. Aceste trei tehnici funcționează cel mai bine atunci când sunt combinate, motiv pentru care...
Cu toate acestea, s-a descoperit că Notele Comunității cresc acuratețea verificării faptelor, astfel încât aceasta să fie citită de mai mulți utilizatori. Într-un alt studiu, s-a descoperit că verificarea faptelor și documentele comunității se completează reciproc, deoarece se concentrează pe diverse tipuri de conturi, Notele Comunității concentrându-se pe postările din conturi mari cu postări cu „control social” ridicat. Cu toate acestea, atunci când doi verificatori de fapte și informații de grup intră în același conținut, evaluările lor sunt comparabile. O altă investigație a constatat că rezultatele verificatorilor de fapte specializați au ajutat la moderarea conținutului prin crowdsourcing.
O cale de ieșire
Limitarea conținutului este fundamental dificilă, deoarece se referă la modul în care determinăm adevărul, iar o mare parte din acesta rămâne un mister. Chiar și discuțiile medicale, dezvoltate de-a lungul anilor de diverse ramuri ale științei, se pot schimba în timp.
Acestea fiind spuse, programele nu se deleagă complet de la sarcina dificilă de a modera informațiile și nu devin excesiv dependente de o singură opțiune. Acestea trebuie să își testeze constant strategiile, să tragă lecții din greșelile lor și să își îmbunătățească metodele. Potrivit unora, distincția dintre oamenii care reușesc și cei care eșuează este că indivizii de succes au eșuat de mai multe ori decât au încercat alții până acum.
Universitatea de Inteligență Artificială Mohamed bin Zayed a produs aceste informații. Nu a fost echipa editorială a MIT Technology Review.