Chris Pelkey a murit în urmă cu trei ani într-un schimb de focuri în Arizona. Dar, cu ajutorul inteligenţei artificiale, el a revenit la începutul acestei luni în procesul pentru condamnarea ucigaşului său pentru a da el însuşi o declaraţie în calitate de victimă, relatează BBC.
Membrii familiei au declarat că au folosit tehnologia în plină expansiune pentru a face ca victima, Chirs Pelkey, să vorbească cu propriile cuvinte despre incidentul care i-a luat viaţa. În timp ce unii experţi susţin că utilizarea inteligenţei artificiale este doar un nou pas spre viitor, alţii spun că ar putea deveni înşelătoare utilizarea tehnologiei în cazurile juridice.
Sora victimei, Stacey Wales, a declarat pentru BBC că familia sa a folosit înregistrări vocale, videoclipuri şi fotografii ale lui Pelkey, care avea 37 de ani când a fost ucis, pentru a-l recrea într-un videoclip cu ajutorul inteligenţei artificiale. Stacey Wales a precizat că ea a scris cuvintele pe care versiunea AI le-a citit în instanţă, bazându-se pe cât de iertător ştia că este fratele ei.
10 iunie Perspectivele macroeconomice şi fiscale ale României
„Este păcat că m-am întâlnit în acea zi în acele circumstanţe cu Gabriel Horcasitas, omul care m-a împuşcat”, a spus versiunea AI a lui Chris Pelkey în instanţă. „În altă viaţă, probabil că am fi putut fi prieteni. Cred în iertare şi într-un Dumnezeu care iartă. Întotdeauna am crezut şi încă mai cred”, a spus versiunea AI lui Pelkey, care a compărut purtând o şapcă de baseball gri.
Tehnologia a fost utilizată la audierea care a avut loc înainte de pronunţarea sentinţei ucigaşului său - Horcasitas fusese deja găsit vinovat de un juriu - la aproape patru ani după ce acesta l-a împuşcat pe Pelkey la un semafor în Arizona.
Judecătorul din Arizona care a supravegheat cazul, Todd Lang, a părut să aprecieze utilizarea inteligenţei artificiale la audiere. El l-a condamnat pe Horcasitas la 10 ani şi jumătate de închisoare pentru omor prin imprudenţă. „Mi-a plăcut inteligenţa artificială, vă mulţumesc pentru asta. Oricât de supărat aţi fi, oricât de supărată, pe bună dreptate, este familia, am auzit iertarea”, a declarat judecătorul Lang. „Simt că a fost autentică”, a adăugat el.
Paul Grimm, un judecător federal pensionat şi profesor la Duke Law School, a declarat pentru BBC că nu este surprins să vadă inteligenţa artificială folosită în sentinţa lui Horcasitas. El observă că instanţele din Arizona au început deja să utilizeze inteligenţa artificială în alte moduri. De exemplu, atunci când Curtea Supremă a statului emite o hotărâre, aceasta dispune de un sistem de inteligenţă artificială care face aceste hotărâri să fie mai uşor de înţeles pentru oameni. Grimm spune că, deoarece a fost utilizată fără prezenţa unui juriu, doar pentru ca un judecător să decidă sentinţa, tehnologia este permisă. „Ne vom îndrepta spre AI de la caz la caz, dar tehnologia este irezistibilă”, a spus el.
Însă unii experţi, precum Derek Leben, profesor de etică în afaceri la Universitatea Carnegie Mellon, sunt îngrijoraţi de utilizarea inteligenţei artificiale şi de precedentul pe care îl creează acest caz. Deşi Leben nu pune la îndoială intenţia sau acţiunile acestei familii, el se teme că nu toate utilizările AI vor fi în concordanţă cu dorinţele victimei. „Dacă şi alte persoane vor face acest lucru în viitor, oare vom obţine întotdeauna cu fidelitate ceea ce persoana, victima în acest caz, ar fi dorit?” s-a întrebat Leben.

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.