O nouă tehnică numită LightShed va îngreuna utilizarea instrumentelor de protecție existente de către artiști pentru a împiedica ingerarea lucrărilor lor pentru antrenamentul inteligenței artificiale. Este următorul pas într-un joc de-a șoarecele și pisica - în întreaga tehnologie, dreptși cultură — o dispută care se petrece de ani de zile între artiști și susținătorii inteligenței artificiale.
Modelele generative de inteligență artificială care creează imagini trebuie antrenate pe o gamă largă de materiale vizuale și seturi de date utilizate pentru acest antrenament. se presupune include artă protejată de drepturi de autor fără permisiune. Acest lucru i-a îngrijorat pe artiști, care sunt temători că modelele le vor învăța stilul, le vor imita lucrările și îi vor scoate din muncă.
Acești artiști au obținut niște apărări potențiale în 2023, când cercetătorii au creat instrumente precum Glazură şi Mătrăgună pentru a proteja operele de artă prin „otrăvirea” lor împotriva antrenamentului IA (Shawn Shan a fost chiar numit Revista Tehnologiei MITInovatorul anului anul trecut (pentru munca sa la acestea). LightShed, însă, susține că poate submina aceste instrumente și altele similare, facilitând din nou utilizarea graficii pentru antrenament.
Ca să fie clar, cercetătorii din spatele LightShed nu încearcă să fure lucrările artiștilor. Pur și simplu nu vor ca oamenii să aibă un fals sentiment de siguranță. „Nu veți fi siguri dacă firmele au metode de a elimina aceste otrăvuri, dar nu vă vor spune niciodată”, spune Hanna Foerster, doctorandă la Universitatea din Cambridge și autoarea principală a unei lucrări despre această lucrare. Și dacă au, ar putea fi prea târziu pentru a remedia problema.
Modelele AI funcționează, în parte, prin crearea implicită a unor granițe între ceea ce percep ca fiind diferite categorii de imagini. Glaze și Nightshade modifică suficienți pixeli pentru a depăși o anumită operă de artă fără a afecta calitatea imaginii, făcând modelul să o vadă ca pe ceva ce nu este. Aceste schimbări aproape imperceptibile se numesc perturbații și afectează capacitatea modelului AI de a înțelege opera de artă.
Glazura face ca modelele să înțeleagă greșit stilul (de exemplu, interpretarea unei picturi fotorealiste ca un desen animat). În schimb, Nightshade face ca modelul să vadă subiectul incorect (de exemplu, interpretarea unei pisici dintr-un desen ca un câine). Glazura este folosită pentru a apăra stilul individual al unui artist, în timp ce Nightshade este folosită pentru a ataca modelele AI care... crawling pe internet pentru artă.
Foerster a lucrat cu o echipă de cercetători de la Universitatea Tehnică din Darmstadt și de la Universitatea din Texas, San Antonio, pentru a dezvolta LightShed, un instrument care învață cum să vadă unde instrumente precum Glaze și Nightshade împrăștie acest tip de otravă digitală asupra artei, astfel încât să o poată curăța eficient. Grupul își va prezenta concluziile la... Usenix Simpozionul de securitate, o conferință globală de top în domeniul securității cibernetice, în august.
Cercetătorii au antrenat LightShed hrănindu-l cu opere de artă cu și fără programe Nightshade, Glaze și alte programe similare aplicate. Foerster descrie procesul ca o învățare a LightShed să reconstruiască „doar otrava din imaginile otrăvite”. Identificarea unei limite pentru cât de multă otravă va deruta efectiv o inteligență artificială face mai ușoară „spălarea” doar a otrăvii.
LightShed este incredibil de eficient în acest sens. În timp ce alți cercetători am găsit metode simple de a submina otrăvirea, LightShed pare a fi mai adaptabil. Poate chiar aplica ceea ce a învățat de la un instrument anti-IA - să zicem, Nightshade - la altele, cum ar fi Aburi sau MetaCloak fără să le vadă vreodată dinainte. Deși are unele probleme în a performa împotriva unor doze mici de otravă, acestea sunt mai puțin susceptibile de a distruge abilitățile modelelor AI de a înțelege arta subiacentă, ceea ce o face o situație în care toată lumea are de câștigat pentru AI - sau o situație în care artiștii care folosesc aceste instrumente sunt în pierdere.
Aproximativ 7,5 milioane de oameni, mulți dintre ei artiști cu fani mici și mijlocii și resurse mai puține, au descărcat Glaze pentru a-și proteja arta. Cei care utilizează instrumente precum Glaze îl văd ca pe o linie tehnică importantă de apărare, mai ales când starea reglementărilor privind instruirea inteligenței artificiale și drepturile de autor este încă incertă. Autorii LightShed își văd munca ca pe un avertisment că instrumente precum Glaze nu sunt soluții permanente. „S-ar putea să fie nevoie de încă câteva runde de încercări pentru a găsi idei mai bune de protecție”, spune Foerster.
Creatorii instrumentelor Glaze și Nightshade par să fie de acord cu această părere: site-ul web Nightshade a avertizat că instrumentul nu este pregătit pentru viitor înainte de începerea lucrărilor la LightShed. Iar Shan, care a condus cercetarea asupra ambelor instrumente, încă mai crede că mecanisme de apărare precum a sa au sens, chiar dacă există modalități de a le ocoli.
„Este un factor de descurajare”, spune Shan – o modalitate de a avertiza companiile de inteligență artificială că artiștii își iau în serios preocupările. Scopul, așa cum spune el, este de a pune cât mai multe obstacole posibil, astfel încât companiile de inteligență artificială să găsească mai ușor să lucreze pur și simplu cu artiștii. El consideră că „majoritatea artiștilor înțeleg cumva că aceasta este o soluție temporară”, dar că crearea acestor obstacole împotriva utilizării nedorite a operei lor este încă valoroasă.
Foerster speră să folosească ceea ce a învățat prin LightShed pentru a construi noi mijloace de apărare pentru artiști, inclusiv filigrane inteligente care persistă cumva cu opera de artă chiar și după ce aceasta a trecut printr-un model de inteligență artificială. Deși nu crede că acest lucru va proteja o lucrare împotriva inteligenței artificiale pentru totdeauna, ea consideră că ar putea ajuta la înclinarea balanței în favoarea artistului, încă o dată.