Compania chineză DeepSeek a prezentat modelul experimental DeepSeek-V3.2-Exp, o versiune îmbunătăţită a actualului V3.1-Terminus, care promite să reducă la jumătate costurile de rulare şi să crească viteza de procesare, fără pierderi majore de performanţă. Lansarea marchează un nou pas în misiunea firmei de a face inteligenţa artificială mai accesibilă şi mai eficientă, relatează CNBC.
Noutatea majoră este introducerea DeepSeek Sparse Attention (DSA), o tehnică care permite modelului să gestioneze mai bine documente şi conversaţii lungi, filtrând datele considerate nerelevante. Abordarea sporeşte eficienţa şi reduce resursele necesare, însă ridică întrebări legate de fiabilitatea şi siguranţa rezultatelor, întrucât informaţii importante ar putea fi excluse.
Deşi conceptul de ”sparse attention” este discutat în industrie încă din 2015, DeepSeek mizează pe implementarea sa practică şi pe compatibilitatea cu cipurile chinezeşti Ascend şi Cambricon, ceea ce permite rularea locală fără infrastructură suplimentară. În plus, compania a făcut publice codul şi instrumentele modelului, încurajând comunitatea să contribuie la dezvoltare.
Analiştii consideră că abordarea DeepSeek ar putea democratiza accesul la AI performant, deschizând calea pentru aplicaţii inovatoare în companii mai mici sau în cercetare.
Totuşi, unii critici atrag atenţia că tehnologia, fiind open source şi nebrevetabilă, nu oferă un avantaj competitiv solid şi ar putea ridica probleme de siguranţă şi incluziune.
DeepSeek descrie noul model drept o etapă intermediară către o arhitectură de generaţie următoare, într-un context global în care competiţia dintre SUA şi China pentru supremaţia în AI devine tot mai acerbă.

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.