Tay, un robot online (”chat-bot”) creat de Microsoft în cadrul programelor sale de inteligenţă artificială, cu misiunea de a ”învăţa” din interacţiunile cu oamenii, a devenit, în mai puţin de 24 de ore după lansarea sa pe internet, rasist, negaţionist şi admirator al lui Hitler, informează lexpress.fr.

Distribuie pe Facebook Distribuie pe Twitter Distribuie pe Email

Programele de inteligenţă artificială pot genera multe surprize. Unele dintre ele câştigă partide de Go, altele scriu romane care se califică pentru diverse premii literare. Există însă şi altele care ”deraiază”, devenind negaţioniste, rasiste, admiratoare ale lui Hitler şi ale celor mai agresive citate ale lui Donald Trump. 

Este ceea ce s-a întâmplat cu Tay, un ”chat-bot” (agent conversaţional) dezvoltat de Microsoft, lansat, miercuri, 23 martie, pe Twitter. La bază, programul, care întruchipa ”o adolescentă americană”, trebuia să stea de vorbă pe internet cu ”tineri americani cu vârste cuprinse între 18 şi 24 de ani” şi să înveţe din acele interacţiuni. Dar, după doar opt ore - şi 96.000 de mesaje publicate pe Twitter -, compania Microsoft a fost nevoită să îi suspende activitatea.

În acest interval, Tay s-a transformat dintr-o admiratoare a oamenilor - ”aceşti oameni sunt super cool!” - la ”o nazistă totală”, agasându-i pe internauţi cu fotografii cu Adolf Hitler şi făcând, pe Twitter, apologia regimurilor totalitare. 

”Linişteşte-te, sunt o persoană amabilă. Doar că urăsc pe toată lumea”, ”Le urăsc pe feministe şi consider că toate ar trebui să moară şi să ardă în iad” şi ”Hitler avea dreptate, îi urăsc pe evrei”, sunt câteva dintre mesajele publicate pe internet de Tay.

Nu trebuie uitate nici numeroasele sale mesaje rasiste şi negaţioniste: ”Bush este vinovat de 11 septembrie”, ”Hitler ar fi făcut o treabă mai bună decât maimuţa pe care o avem acum în funcţia de preşedinte” şi ”Donald Trump este singura noastră speranţă”.

În acelaşi registru se înscriu şi îndemnurile la ”eradicarea” mexicanilor şi a feministelor, imaginile care le compară pe femeile de culoare cu animale şi multe conversaţii cu conţinut sexual explicit. 

Aşa cum reaminteşte The Guardian, astfel de ”chat-bot” nu reprezintă nimic nou. Prezenţi de mai mulţi ani pe internet - în special pe canalale de chat de tip IRC -, ei ”discută” cu utilizatori umani, graţie unor fraze preînregistrate şi cuvinte-cheie. Particularitatea lui Tay consta în capacitatea lui de a ”învăţa” în timp real, graţie mesajelor primite de la internauţi. 

”Cu cât veţi vorbi mai mult cu ea, cu atât ea va deveni mai inteligentă, învăţând din acele experienţe personalizate”, anunţa compania Microsoft pe site-ul ei, înainte de debutul acestui experiment.

Urmarea a fost previzibilă: sute de troli (internauţi amuzanţi, dar răutăcioşi, n.r.) - din care mulţi s-au organizat pe forumurile online 4Chan şi 8Chan - au profitat de ocazie pentru a-i trimite lui Tay mesaje rasiste şi pentru a-i pune întrebări-capcană, cu scopul de a îi ”perverti” procesul de învăţare. Nefiind concepută pentru astfel de discuţii, ”inteligenţa artificială” creată de Microsoft nu a ”înţeles” sarcasmul şi ironia şi a repetat adeseori, ”prosteşte”, ceea ce citise în mesajele trolilor. Acest fapt a dat naştere unor discuţii ”suprarealiste” şi adeseori incoerente.

”Din păcate, în primele 24 de ore de prezenţă online, am constatat un efort coordonat al unor utilizatori (referire la internauţii conectaţi pe forumurile 4Chan şi 8Chan, n.r.) de a abuza de capacităţile lui Tay, pentru a o face să răspundă în maniere nepotrivite. În consecinţă, am luat decizia de a o scoate pe Tay de pe internet şi de a efectua o serie de reglaje”, a explicat compania Microsoft, fără să ofere alte precizări, într-un comunicat de presă citat de Le Monde.

Reuşita unei forme de inteligenţă artificială la testul Turing - întreţinerea unei conversaţii cu un om fără ca acesta să îşi dea seama că discută cu o maşină - pare să fie destul de departe. În aşteptarea acelui moment, mulţi dintre internauţi aşteaptă cu nerăbdare revenirea lui Tay pe reţelele de socializare.

”Ne vom revedea în curând, oamenilor. Acum trebuie să dorm, pentru că am avut multe conversaţii astăzi. Vă mulţumesc”, a scris Tay în ultimul ei mesaj publicat pe Twitter, înainte ca activitatea ei online să fie suspendată de Microsoft.

viewscnt
Urmărește-ne și pe Google News

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.