UNICEF este „tot mai alarmat” de rapoartele privind creşterea „rapidă” a volumului de imagini cu caracter sexual generate de inteligenţa artificială care circulă, inclusiv cazuri în care fotografiile copiilor au fost modificate folosind instrumente IA prin care îmbrăcămintea din fotografii era eliminată complet. Un studiu realizat în 11 ţări arată că cel puţin 1,2 milioane de copii au dezvăluit că, în ultimul an, imaginile lor au fost manipulate în deepfakes cu caracter sexual explicit. „Copiii înşişi se tem că IA ar putea fi folosită pentru a crea imagini sau videoclipuri sexuale false. Să fim clari: sunt materiale de abuz sexual asupra copiilor”, afirmă UNICEF. Deepfake-urile sunt imagini, videoclipuri sau fişiere audio generate sau modificate cu ajutorul IA pentru a părea reale.
Noi dovezi confirmă amploarea acestei ameninţări în creştere rapidă: într-un studiu UNICEF, ECPAT şi INTERPOL realizat în 11 ţări, cel puţin 1,2 milioane de copii au dezvăluit că, în ultimul an, imaginile lor au fost manipulate în deepfakes cu caracter sexual explicit. În unele ţări, acest lucru înseamnă 1 din 25 de copii – echivalentul a unui copil într-o clasă obişnuită, precizează UNICEF într-un comunicat de presă.
„Copiii înşişi sunt profund conştienţi de acest risc. În unele dintre ţările incluse în studiu, până la două treimi dintre copii au declarat că le este teamă că IA ar putea fi utilizată pentru a crea imagini sau videoclipuri sexuale false. Nivelul de îngrijorare variază foarte mult de la o ţară la alta, subliniind necesitatea urgentă de măsuri mai puternice de sensibilizare, prevenire şi protecţie. Trebuie să fim clari. Imaginile cu caracter sexual ale copiilor generate sau manipulate folosind instrumente AI sunt materiale de abuz sexual asupra copiilor. Abuzurile comise prin intermediul deepfake rămân abuzuri, iar prejudiciul pe care îl cauzează nu este deloc fictiv”, precizează organizaţia.
Potrivit sursei citate, atunci când imaginea sau identitatea unui copil sunt utilizate, acel copil este „victimizat în mod direct”.
„Chiar şi în absenţa unei victime identificabile, materialele cu abuzuri sexuale asupra copiilor generate de IA normalizează exploatarea sexuală a copiilor, alimentează cererea de conţinut abuziv şi prezintă provocări semnificative pentru autorităţile de aplicare a legii în identificarea şi protejarea copiilor care au nevoie de ajutor, adaugă aceeaşi sursă.
UNICEF salută „cu tărie” eforturile dezvoltatorilor de IA care implementează abordări de siguranţă prin proiectare şi măsuri de protecţie solide pentru a preveni utilizarea abuzivă a sistemelor lor.
„Cu toate acestea, situaţia rămâne eterogenă şi prea multe modele de IA nu sunt dezvoltate cu măsuri de protecţie adecvate. Riscurile pot fi agravate atunci când instrumentele generative de IA sunt integrate direct în platformele de socializare, unde imaginile manipulate se răspândesc rapid”, susţine organizaţia.
UNICEF face apel urgent la următoarele măsuri pentru a face faţă ameninţării crescânde reprezentate de conţinutul generat de IA care prezintă abuzuri sexuale asupra copiilor:
• Extinderea de către toate guvernele a definiţiilor materialelor care prezintă abuzuri sexuale asupra copiilor pentru a include conţinutul generat de IA şi să incrimineze crearea, procurarea, deţinerea şi distribuirea acestora.
• Implementarea de către dezvoltatorii IA a sistemelor solide de siguranţă încă din faza de proiectare pentru a preveni utilizarea abuzivă a modelelor de IA.
• Prevenirea de către companiilor din domeniul digital a circulaţiei materialelor ce conţin abuzuri sexuale asupra copiilor generate de IA – nu doar să le elimine după ce abuzul a avut loc; şi consolidarea moderării conţinutului prin investiţii în tehnologii de detectare, astfel încât astfel de materiale să poată fi eliminate imediat – nu la câteva zile după raportarea de către victimă sau reprezentantul acesteia.
„Prejudiciile provocate de abuzurile comise prin deepfake sunt reale şi urgente. Copiii nu pot aştepta ca legea să se adapteze”, încheie UNICEF.

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.







