Scrisoare deschisă pentru o pauză în dezvoltarea AI. Cine semnează și de ce?
La inițiativa organizației non-profit Future of Life Institute din Pennsylvania, SUA, un grup de experți și personalități americane din domeniul tehnologiei, dar și un număr de persoane de diverse specializări în profesii creative și din domenii conexe au semnat zilele trecute o scrisoare deschisă, solicitând o pauză de cel puțin șase luni în dezvoltarea sistemelor AI. Cei peste 2500 de semnatari consideră că o astfel de pauză este necesară pentru a pune în aplicare un set de protocoale și sisteme de siguranță, care să facă aceste sisteme AI mai precise, mai transparente și mai de încredere. Ei semnalează ca fiind acute patru teme importante: posibilitatea unei uși deschise spre dezinformare de proporții, o potențială criză a locurilor de muncă, pericolul de a înlocui oamenii din topul speciilor inteligente și acela de a pierde complet controlul asupra civilizației umane.
Max Tegmark
Printre primii semnatari afișați pe listă se numără miliardarul tech Elon Musk, profesorul și scriitorul Yuval Noah Harari și co-fondatorul Apple, Steve Wozniak. Max Tegmark însă, profesor de fizică la MIT Center for Artificial Intelligence & Fundamental Interactions, autor al unor lucrări seminale despre pericolul reprezentat de dezvoltarea inteligențelor artificiale și președinte al Future of Life Institute, organizația inițiatoare a petiției, este listat ceva mai jos, sub aceste nume sonore. La fel și Victoria Krakovna de la DeepMind, cercetător științific și co-fondator al Future of Life Institute, alături de Tegmark, precum și Jaan Tallinn, co-fondator al Skype, al Centrului pentru Studiul Riscului Existențial din Marea Britanie… și al Future of Life Institute.
Elon Musk
Prezența în această listă a unui nume ca cel al lui Elon Musk nu este nici surprinzătoare, nici întâmplătoare, având în vedere, pe de o parte, problemele cu care se confruntă pe tema siguranței sistemelor bazate pe inteligență artificială încorporate în automobilele Tesla în urma unor accidente și acțiuni în justiție și, pe de alta, istoricul pe care îl are cu Open AI. Cel mai probabil, Elon Musk nu este deloc împăcat cu succesul prezent al Open AI și produsul său, ChatGPT, având în vedere felul în care a renunțat la participare în 2018. Compania pentru care Elon Musk cere acum, imperios și plin de griji etice, temporizarea avansului tehnologic, este fosta organizație non-profit pe care practic a forțat-o să devină companie comercială pentru a supraviețui, după ce i-a retras o parte importantă din finanțare. Putem spune fără a greși prea mult că plecarea lui a stat, de fapt, la originea a ceea ce este astăzi ChatGPT.
Emad Mostaque
Este însă o surpriză semnătura lui Emad Mostaque, CEO la Stability AI, al căror produs foarte popular în acest moment este Stable Diffusion, un model de inteligență artificială de tip text-to-image. O explicație ar putea fi faptul că, spre deosebire de concurenți ca DALL-E și Midjourney, Stable Diffusion este open-source, astfel încât iterații ale programului pot fi utilizate pe orice dispozitiv, chiar și casnic, echipat cu cel puțin 8 GB VRAM.
Yann LeCun
Mai multe nume care nu au semnat scrisoarea s-au regăsit pentru scurt timp pe listă. Unul dintre cei care a apărut pentru scurt timp în lista semnatarilor, apoi a dispărut, este Yann LeCun, Profesor la Universitatea din New York, cercetător șef în domeniul inteligenței artificiale la Meta și laureat al Premiului ACM Turing. El a scris o dezmințire pe Twitter, afirmând că nu a semnat scrisoarea și că nu este de acord cu premisa acesteia.
Sam Altman
CEO la OpenAI, Sam Altman a clarificat pentru jurnalista Deepa Seetharam de la The Wall Street Journal că el nu a fost de acord cu formularea scrisorii și că “noi (OpenAI, n.r.) am vorbit despre aceste probleme cel mai tare, cu cea mai mare intensitate, de cel mai mult timp.” Adevărul este că una dintre nemulțumirile pe care utilizatorii ChatGPT le-au formulat despre acesta este că își începe toate mesajele cu un text de dezmințire, în care afirmă că este un model de inteligență artificială, și că adaugă implicații etice la orice răspuns la întrebări cu potențial controversat sau refuză, pur și simplu, să răspundă la astfel de întrebări. Iar Open AI nu este singura firmă care își autocenzurează în prezent produsele pentru a evita orice controversă. Recent, compania americană Luka Inc, producător al chatbotului de tip companion Replika, a avut de înfruntat furia utilizatorilor, un dezastru mediatic și o scădere drastică a ratingurilor pe AppStore și Google Play când a încercat să elimine complet din aplicație componentele care generau interacțiuni erotice.
Pisica a ieșit din cutie
În prezent, opinia cercetătorilor în domeniul inteligenței artificiale este scindată în două curente de gândire diametral opuse; pe de o parte sunt cei care cred că avansul tehnologic va salva specia umană și, pe de alta, sunt din ce în ce mai vocali cei care cred că o va distruge. Tegmark, Tallinn, Krakovna și restul semnatarilor care nu au motivele lui Elon Musk de a întârzia progresul altor companii, își exprimă teama că omenirea se îndreaptă spre ceea ce Tegmark a numit în nenumărate rânduri “suicid” pentru că, dacă nu facem nimic pentru a opri procesul sau pentru a-l controla, ar trebui să ne așteptăm dintr-o clipă în alta la un moment în care tehnologia o va lua înaintea omului, și, din acel moment, nimeni nu o va mai putea controla.
Premisa nu este deloc greșită, pentru că într-adevăr, așa cum am scris într-un articol precedent, inteligența artificială chiar va aduce speciei umane provocări în sfera etică, provocări economice și de distribuire a puterii și a averii în lume, precum și implicații mai profunde, la nivel de specie și supraviețuirea acesteia.
Ce nu iau însă în considerare inițiatorii și semnatarii scrisorii este că omenirea se sinucide și dacă continuă, dar se sinucide și dacă se oprește.
SUA nu este singură pe lume și, așa cum Google, Microsoft, OpenAI, Stability, Midjourney au ajuns să dezvolte în paralel și oarecum cu discreție aceste sisteme performante de inteligență artificială, nimic nu împiedică alte nații să dezvolte sisteme similare. Degeaba se opresc acum companiile americane, pentru că asta doar ar da timp laboratoarelor de cercetare în domeniu din alte țări să recupereze sau să avanseze și mai mult, ceea ce este nu o posibilitate, ci o certitudine, având în vedere că diferențele de la o versiune la următoarea a AI-urilor cunoscute sunt deja uriașe în ceea ce privește calitatea răspunsurilor.
Soluția?
Ce ar trebui să ceară orice persoană care observă fenomenul și îi poate înțelege măcar la un nivel superficial implicațiile este dezvoltarea, în paralel, în mod susținut și transparent, de sisteme de prevenție și de mitigare (respingerea atacurilor cibernetice si prevenire a altor probleme). Desigur că există în acest moment sisteme complexe care combat atacurile cu care ne-am obișnuit: spam, viruși informatici, atacuri DDos, phishing și alte forme de fraudă online și nu numai. Nu suntem însă pregătiți să facem față unui torent de dezinformare mai serios decât cunoscutele fake news și viralele deep fake, dar care aveau, totuși, semne recognoscibile. Recent a circulat în social media un set de imagini cu Papa într-o haină albă, fotografii generate de AI, care nu puteau însă fi catalogate ca fiind false nici de ochi umani cu experiență în imagine prelucrată. Desigur că internetul s-a distrat apoi punându-l pe înaltul prelat în ipostaze diverse, inclusiv aceea de rockstar și rapper, dar problema rămâne, iar discuția este abia la început, pentru că fiecare măsură posibilă are implicații diverse și se poate dovedi că nu reprezintă neapărat o soluție.
Între timp, AI-urile avansează.
Notă pentru pasionații de productivitate asistată de AI
Acest articol a fost redactat în mod hibrid, folosind diversele funcții de dictare și editare pe care le oferă Google Workspace și Google Translate, și, de asemenea, unele pasaje care oferă context la începutul articolului au fost generate de ultima versiune de ChatGPT, apoi editate și corectate manual. Imaginea este generată de AI-ul Dream, al Wombo.
Am ales acest mod de a redacta articolul pentru a ilustra și modurile constructive în care pot fi folosite aceste tehnologii emergente, dar și pentru a testa “în producție” capabilitățile ChatGPT.
Concluzia mea este că timpul de lucru necesar a fost oarecum mai scurt, dar nu semnificativ, iar textele generate de ChatGPT au necesitat atât verificare atentă a a corectitudinii faptelor prezentate, cât și rescrierea complexă, pentru a păstra coerența stilistică, ritmul scriiturii și organizarea ideilor. Economia de timp nu s-a făcut la activitatea de documentare, nici la redactarea propriu-zisă, ci la traducerea declarațiilor, a titlurilor persoanelor prezentate, dar și la formularea inițială a contextului general. A fost în mod clar mai eficient să dictez ideile, apoi să aplic corecții minore textului transcris, decât să corectez și să reformulez paragrafele generate de ChatGPT.
Nu sunt mulțumită, la modul general, de felul în care ChatGPT se eschivează de la a formula fapte sau concepte și de a reda idei concrete. Pe scurt, se exprimă ca ex-președintele Ion Iliescu, și am avut revelația că acesta l-a definit corect, avant la lettre, spunand, odinioară: “pus astfel în lumină, ancorat în sinergia faptelor, recursul la universalitate nu eludează meandrele concretului“. Deci, domnule Iliescu, de fapt, despre ChatGPT era vorba.
Asta îmi dă speranță că mai e timp, poate încă nu suntem în pericol să ne cotropească AI-ul, dar în mod cert mă tem că un alt ION, AI-ul românesc, ar putea ajunge președinte.
Imaginea de copertă este generată de AI – Dream by Wombo.