Gând de rând

AI-ul Google: răspunsuri greșite sau periculoase

Google AI Overview sugerează să se pună lipici pe pizza
Google AI Overview sugerează să se pună lipici pe pizza

Angoasa actuală legată de inteligența artificială (AI) este aceea că deja periclitează multe ocupații și, prin urmare, amenință siguranța și chiar disponibilitatea locurilor de muncă. Nu este așadar de mirare că lumea se amuză când AI-ul greșește, pentru că asta înseamnă că momentul în care mașina va putea înlocui omul este încă îndepărtat.

Însă tindem să nu observăm că, așa imperfect cum este, AI-ul deja produce efecte, iar multe dintre acestea nu țin numai de economie.

Zilele trecute mulți dintre cei care folosesc motorul de căutare Google au observat o funcție nouă, care promite să ofere răspunsuri instantanee la întrebările utilizatorilor, generate cu inteligența artificială: AI Overview. Într-un spațiu plasat deasupra listei de rezultate, marcat cu un romb galben asemănător cu o steluță, inteligența artificială oferă întâi un răspuns generat în câteva paragrafe, apoi extrase din diverse site-uri, pentru cei care nu se mulțumesc cu răspunsul succint primit și vor detalii.

Un experiment riscant

Desigur, dedesubtul casetei dedicate se menționează că răspunsurile generate cu AI sunt experimentale, pentru a evita eventualele probleme în cazul în care AI-ul oferă informații greșite sau chiar periculoase. Și a fost o mișcare chibzuită din partea Google, pentru că AI-ul a făcut exact asta: zgândărit de utilizatori cu tot felul de întrebări puse mai în glumă, mai în serios, a generat și texte cu informații absurde, eronate.

Iar internetul nu a întârziat să facă și altora cunoscute diversele exemple de astfel de răspunsuri, astfel încât circulă deja peste tot capturile de ecran în care AI-ul sugerează să se pună lipici netoxic pe pizza ca să stea bine toppingurile și să se consume cel puțin o pietricică pe zi, pentru că are un conținut bogat în minerale, citând – culmea! – geologii de la UC Berkley.

Google AI Overview sugerează să se pună lipici pe pizza

Google AI Overview sugerează să se pună lipici… pe pizza

Google AI Overview oferă rețeta pentru consumul... de pietre

Google AI Overview oferă rețeta pentru consumul… de pietre

Cum este posibil ca AI-ul Google să dea răspunsuri greșite?

Pentru că și Internetul s-a întrebat asta, utilizatorii au identificat rapid și sursele erorilor. În primul caz din exemplul de mai sus, răspunsul cu lipiciul a fost dat astfel de către un redditor* sarcastic, ceea ce arată că una dintre sursele folosite de Google pentru a-și antrena AI-ul este rețeaua de socializare Reddit, cunoscută, printre altele, și pentru o calitate mai orientată spre aspecte practice a conversațiilor purtate de membrii ei. În al doilea, se pare că reputata universitate californiană este citată fictiv – în scop de amuzament, desigur –  într-un un articol publicat în The Onion, o publicație online de umor similară cu site-ul românesc de satiră Times New Roman.

În ambele cazuri așadar, AI-ul n-a prins nici ironia, nici gluma, și a luat de bune două texte scrise fără intenția de a informa, doar pentru că a considerat că sursele din care a preluat informațiile sunt de încredere.

Care sunt riscurile atunci când lăsăm discernământul în seama AI-ului?

În prezent este cunoscut în mediile profesionale IT faptul că atacurile asupra a tot ce alcătuiește sistemul informatic global – de la centre de date și site-uri la aparatură de uz casnic conectată la rețeaua internet domestică – sunt din ce în ce mai multe și mai complexe, fiind adesea rulate și gestionate automatizat. Este așadar evident că o sursă considerată de calitate pentru antrenarea AI-ului Google poate fi oricând preluată abuziv de persoane care în securitatea cibernetică se numesc “actori malefici” (“bad actors”) și poate fi populată discret cu texte rău intenționate, menite să dezinformeze și să producă efecte nedorite asupra utilizatorului obișnuit – omul de rând. O astfel de intruziune poate trece neobservată mult timp, și, în cazul în care AI-ul fără discernământ colectează datele eronate și le livrează drept bune celor care folosesc motorul de căutare, Google riscă să devină un instrument nesigur și de-a dreptul periculos, atât pentru sănătatea, siguranța și bunăstarea populației, cât și, în cazul în care informațiile greșite sunt intenționate astfel, pentru democrație și economie.

Care este riscul pentru democrație?

Avem deja exemplul Rețelei Minciunilor identificate de colegii de la Context.ro, caz în care vectorii dezinformării sunt website-uri, persoane și grupuri cu activitate cu o acoperire incomparabil mai mică decât cea a motorului de căutare folosit de majoritate. Nu este greu deci să ne imaginăm efectele pe care le poate avea într-un context electoral un răspuns fabulat de Google din surse fabricate în acest scop la întrebări legate de modul în care s-au desfășurat anumite evenimente sau despre oameni politici, declarațiile lor publice și acțiunile lor. Este evident că, dacă populația unui stat primește același răspuns greșit sau de-a dreptul mincinos la o întrebare de actualitate, populația în cauză poate fi ușor manipulată.

Iar o populație ușor de manipulat, care nu mai are nici resurse într-o economie care trece într-un ritm frenetic la automatizarea cu AI, este o populație vulnerabilă, cu un viitor incert. Din toate punctele de vedere.

*redditor – utilizator al rețelei Reddit (n.a.)

Surse foto: Peter Yang, Kris Kashtanova

Autor

Alina Voinea

Antreprenoare, activistă pentru drepturile persoanelor aflate în dificultate, mamă. Președinta Asociației SUPRA și inițiatoare a proiectului civic „CereUnManual”, prin care se asigură manuale școlare adaptate și accesibile pentru copiii cu cerințe educaționale speciale. Absolventă a Facultății de Jurnalism și Științele Comunicării la Universitatea București, master la Facultatea de Sociologie și Asistență Socială în cadrul aceleiași universități.

Publică un comentariu

Abonează-te
Anunță-mă când
guest
Comentarii: 0
Comentarii din cadrul articolului
Toate comentariile