Eric Schmidt, fostul director general al Google, a lansat un avertisment dur privind riscurile inteligenţei artificiale, afirmând că modelele AI pot fi piratate şi transformate în instrumente periculoase, transmite CNBC.

Distribuie pe Facebook Distribuie pe X Distribuie pe Email

În cadrul conferinţei Sifted Summit, Schmidt a spus că există ”dovezi că modelele, fie ele deschise sau închise, pot fi hackuite pentru a-şi pierde limitele de siguranţă”, iar în procesul de antrenare ”pot învăţa inclusiv cum să ucidă pe cineva”.

El a subliniat că marile companii impun bariere stricte pentru a împiedica asemenea comportamente, însă sistemele pot fi totuşi ”inversate” sau manipulate prin atacuri de tip prompt injection ori jailbreaking. Acestea pot forţa AI-ul să ignore regulile de siguranţă şi să genereze conţinut periculos.

Deşi a recunoscut pericolele proliferării necontrolate a inteligenţei artificiale, Schmidt a declarat că AI-ul este ”subestimat, nu supraevaluat”, comparându-l cu ”sosirea unei inteligenţe extraterestre” care va depăşi capacităţile umane. Fostul CEO crede că, în următorii 5–10 ani, impactul economic şi transformator al AI-ului va fi ”uriaş şi imposibil de ignorat”.

 

viewscnt
Urmărește-ne și pe Google News

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.