ONU îndeamnă miercuri la impunerea unui moratoriu anumitor sisteme ale inteligenţei artificiale (IA) - precum cele de recunoaştere facială -, până la implementarea unor garanţii în vederea apărării drepturilor omului, relatează AFP.

Distribuie pe Facebook Distribuie pe Twitter Distribuie pe Email

”Tehnologiile inteligenţei artificiale pot avea efecte negative, chiar catastrofale, dacă sunt folosite fără să se ţină în mod suficient cont de modul în care afectează drepturile omului”, avertizează Înaltul Comisar ONU pentru Drepturile Omului Michelle Bachelet.

Ea îndeamnă la o evaluare a riscurilor pe care le reprerzintă diverse sisteme care au la bază inteligenţa artificială, în vederea respectării dreptului la viaţă privată sau la libertăţile circulaţiei şi de exprimare, iar apoi, la o interzicere sau la o reglementare puternică a acelor sisteme care reprezintă cel mai mare pericol.

Însă, până la efectuarea acestor evaluări, ”statele este necesar să impună un moratoriu tehnologiilor care ar putea să prezinte un risc mare”, a subliniat fosta preşedintă a Chile, la prezentarea unui nou raport al serviciilor sale cu privire la acest subiect.

Ea a citat exemplul tehnologiilor care permit luarea unor decizii automate sau al celor care stabilesc profiluri.

”SĂ DAUNE VIEŢII UNUI OM”

”Sistemele IA sunt folosite pentru a stabili cine poate beneficia de servicii publice, decid cine are o şansă să fie recrutat la un loc de muncă şi, bineînţeles, au o influenţă asupra informaţiei pe care oamenii o văd şi o pot partaja online”, a subliniat ea.

Acest raport, care a fost solicitat de către Consiliul Drepturilor Omului - cea mai înaltă instanţă ONU în acest domeniu -, analizează modul în care aceste tehnologii au fost implementate, adesea fără ca modul în care funcţionează sau impactul pe care-l au să fie evaluat în mod corect.

Defecţiuni ale IA au împiedicat oameni să primească ajutoare sociale, să găsească un loc de muncă sau au condus la arestarea unor persoane nevinovate, pe baza unor sisteme de recunoaştere facială prost antrenate şi incapabile să recunoască în mod corect persoane cu trăsături africane, de exemplu.

”Riscul discriminării legat de decizii bazate pe inteligenţa artificială - decizii care pot schimba, stigmatiza sau dăuna vieţii unui om - nu este decât prea real”, a subliniat Bachelet.

În raport se subliniază că aceste inteligenţe artificiale sunt antrenate cu ajutorul unor baze de date enorme, a căror constituire are loc adesea în mod opac.

Aceste baze de date pot să fie prost întocmite ele însele, să fie depăşite şi să contribuie, astfel, la încălcări ale drepturilor omului.

RAPORT MINORITAR

În raport se ridică mai ales problema unei folosiri tot mai frecvente a sistemelor care au la bază IA de către forţe de ordine, inclusiv a unor metode predictive.

Atunci când IA foloseşte baze de date părtinitoare, acest lucru se reflectă în predicţii şi are tendinţa să afecteze zone identificate în mod greşit drept zone cu un risc mare.

Recunoaşterea facială în timp real şi la distanţă este, de asemenea, tot mai utilizată în întreaga lume, un lucru care poate să conducă la o localizare permanentă a oamenilor.

”Nu ne putem permite să continuăm să încercăm să prindem trenul din mers în privinţa IA, să-i permitem să fie folosită fără control sau aproape fără control şi să reparăm consecinţele asupra drepturilor omului post-factum”, subliniază Înaltul Comisar ONU, care recunoaşte, însă, că ”puterea IA de a le servi oamenilor este de netăgăduit”.

”Însă lucrurile stau la fel în privinţa abilităţii IA de a alimenta încălcări ale drepturilor omului la o scară uriaşă şi în mod aproape invizibil”, avertizează ea.

”Este necesar să acţionăm pentru a implementa garanţii bazate pe drepturile omului împotriva IA, pentru binele întregii lumi”, subliniază Michelle Bachelet.

viewscnt

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.