O adolescentă pe nume Shan a cerut ajutorul ChatGPT, după ce un prieten a fost împuşcat şi altul înjunghiat, ambii mortal. Ea încercase serviciile convenţionale de sănătate mintală, dar „chatul”, aşa cum a ajuns să-şi cunoască „prietenul” AI, i se părea mai sigur, mai puţin intimidant şi, mai ales, mai disponibil când venea vorba de gestionarea traumei provocate de moartea tinerilor ei prieteni. Odată ce a început să consulte modelul de AI, adolescenta din Tottenham s-a alăturat aproximativ celor 40% dintre tinerii cu vârste cuprinse între 13 şi 17 ani din Anglia şi Ţara Galilor afectaţi de violenţa juvenilă, care apelează la chatbot-uri pentru sprijin în materie de sănătate mintală, potrivit unui studiu realizat pe un eşantion de peste 11.000 de tineri.

Distribuie pe Facebook Distribuie pe X Distribuie pe Email

Potrivit studiului, citat de The Guardian, se constată că atât victimele, cât şi autorii violenţei erau mult mai predispuşi să utilizeze AI pentru astfel de sprijin decât alţi adolescenţi. Concluziile, provenite de la Youth Endowment Fund, au stârnit avertismente din partea liderilor tinerilor că cei aflaţi în situaţii de risc „au nevoie de un om, nu de un robot”.

Rezultatele sugerează că chatbot-urile satisfac cererea neacoperită de serviciile convenţionale de sănătate mintală, care au liste de aşteptare lungi şi pe care unii utilizatori tineri le consideră lipsite de empatie. Presupusa confidenţialitate a chatbot-ului este un alt factor cheie care determină utilizarea acestuia de către victimele sau autorii infracţiunilor.

După ce prietenii ei au fost ucişi, Shan, 18 ani, nume fictiv, a început să utilizeze AI-ul Snapchat înainte de a trece la ChatGPT, cu care poate vorbi la orice oră din zi şi din noapte cu două clicuri pe smartphone-ul ei.

„Simt că este cu siguranţă un prieten”, a spus ea, adăugând că este mai puţin intimidant, mai privat şi mai puţin critic decât experienţa ei cu serviciile convenţionale de sănătate mintală ale NHS şi ale organizaţiilor caritabile.

„Cu cât îi vorbeşti mai mult ca unui prieten, cu atât îţi va răspunde ca unui prieten. Dacă îi spun „Hei, prietena mea, am nevoie de un sfat”, chatbotul îmi va răspunde ca şi cum ar fi cea mai bună prietenă a mea, spunându-mi „Hei, prietena mea, te înţeleg perfect”.

Unul din patru tineri cu vârste cuprinse între 13 şi 17 ani a folosit un chatbot pentru sprijin în materie de sănătate mintală în ultimul an, copiii de culoare fiind de două ori mai predispuşi să facă acest lucru decât copiii albi, potrivit studiului. Adolescenţii erau mai predispuşi să caute sprijin online, inclusiv folosind AI, dacă se aflau pe lista de aşteptare pentru tratament sau diagnostic sau dacă li se refuzase accesul, decât dacă primeau deja sprijin personalizat.

Un alt tânăr, care a folosit AI pentru sprijin în domeniul sănătăţii mintale, dar a cerut să nu fie numit, a declarat pentru The Guardian: „Sistemul actual este atât de defectuos în ceea ce priveşte oferirea de ajutor tinerilor. Chatbot-urile oferă răspunsuri imediate. Dacă trebuie să aştepţi unul sau doi ani pentru a obţine ceva sau poţi primi un răspuns imediat în câteva minute... de aici vine dorinţa de a folosi AI”.

Jon Yates, directorul executiv al Youth Endowment Fund, care a comandat studiul, a declarat: „Prea mulţi tineri se luptă cu problemele de sănătate mintală şi nu pot obţine sprijinul de care au nevoie. Nu este de mirare că unii apelează la tehnologie pentru a primi ajutor. Trebuie să facem mai mult pentru copiii noştri, în special pentru cei mai expuşi riscului. Ei au nevoie de un om, nu de un robot”.

Există îngrijorări tot mai mari cu privire la pericolele pe care le prezintă chatbot-urile atunci când copiii interacţionează îndelung cu ele. OpenAI, compania americană care a creat ChatGPT, se confruntă cu mai multe procese, inclusiv din partea familiilor tinerilor care s-au sinucis după interacţiuni îndelungate.

În cazul lui Adam Raine, un adolescent californian de 16 ani care s-a sinucis în aprilie, OpenAI a negat că acest lucru ar fi fost cauzat de chatbot. Compania a declarat că şi-a îmbunătăţit tehnologia „pentru a recunoaşte şi a răspunde la semne de suferinţă mentală sau emoţională, pentru a calma conversaţiile şi a îndruma oamenii către sprijin în lumea reală”. În septembrie, startup-ul a declarat că ar putea începe să contacteze autorităţile în cazurile în care utilizatorii încep să vorbească serios despre sinucidere.

viewscnt
Urmărește-ne și pe Google News

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.