Microsoft a prezentat miercuri două cipuri noi la conferinţa sa Ignite din Seattle, între care primul său cip de inteligenţă artificială, Maia 100, ar putea concura cu unităţile foarte căutate ale Nvidia pentru procesare grafică, care sunt foarte căutate, transmite CNBC.

Distribuie pe Facebook Distribuie pe Twitter Distribuie pe Email

Al doilea, un cip Cobalt 100 Arm, este destinat sarcinilor generale de calcul şi ar putea concura cu procesoarele Intel.

Companiile tehnologice bogate în numerar au început să ofere clienţilor mai multe opţiuni pentru infrastructura cloud pe care o pot folosi pentru a rula aplicaţii.

Alibaba, Amazon şi Google au făcut asta de ani de zile.

Microsoft, cu un numerar de aproximativ 144 de miliarde de dolari la sfârşitul lunii octombrie, avea o cotă de piaţă de cloud de 21,5% în 2022, fiind doar în urma Amazon, conform unei estimări.

Instanţele de maşini virtuale care rulează pe cipurile Cobalt vor deveni disponibile comercial prin cloud-ul Microsoft Azure în 2024, a declarat Rani Borkar, vicepreşedinte corporativ, pentru CNBC, într-un interviu. Ea nu a oferit un calendar pentru lansarea Maia 100.

Google şi-a anunţat unitatea originală de procesare a tensorului pentru AI în 2016.

Amazon Web Services şi-au prezentat cipul său bazat pe Graviton Arm şi procesorul Inferentia AI în 2018 şi a anunţat Trainium, pentru modele de antrenament, în 2020.

Cipurile speciale AI de la furnizorii de cloud ar putea ajuta la satisfacerea cererii atunci când există o lipsă de GPU. Dar Microsoft şi colegii săi din cloud computing nu intenţionează să lase companiile să cumpere servere care conţin cipurile lor, spre deosebire de Nvidia sau AMD.

Compania şi-a construit cipul pentru calculul AI pe baza feedback-ului clienţilor, a explicat Borkar.

Microsoft testează modul în care Maia 100 face faţă nevoilor chatbot-ului AI al motorului său de căutare Bing, asistentului de codare GitHub Copilot şi GPT-3.5-Turbo, un model de limbaj mare al OpenAI, care este susţinută de Microsoft, a spus Borkar.

OpenAI şi-a alimentat modelele lingvistice cu cantităţi mari de informaţii de pe internet şi acestea pot genera mesaje de e-mail, rezuma documente şi pot răspunde la întrebări cu câteva cuvinte de instruire umană.

Modelul GPT-3.5-Turbo funcţionează în asistentul ChatGPT al OpenAI, care a devenit popular la scurt timp după ce a fost disponibil anul trecut.

Apoi companiile au trecut rapid la adăugarea de capabilităţi similare de chat la software-ul lor, crescând cererea de GPU.

”Am lucrat în toate domeniile şi [cu] toţi furnizorii noştri diferiţi pentru a ne ajuta să ne îmbunătăţim poziţia de aprovizionare şi să sprijinim pe mulţi dintre clienţii noştri şi cererea pe care ne-au pus-o în faţa”, a declarat Colette Kress, şefa financiară Nvidia, la o conferinţă Evercore la New York în septembrie.

OpenAI a antrenat anterior modele pe GPU-uri Nvidia în Azure.

Pe lângă proiectarea cipului Maia, Microsoft a conceput hardware personalizat răcit cu lichid numit Sidekicks, care se potriveşte în rafturi chiar lângă rafturile care conţin servere Maia.

Compania poate instala rafturile de servere şi rafturile Sidekick fără a fi nevoie de modernizare, a spus un purtător de cuvânt.

 

viewscnt
Urmărește-ne și pe Google News

Articolul de mai sus este destinat exclusiv informării dumneavoastră personale. Dacă reprezentaţi o instituţie media sau o companie şi doriţi un acord pentru republicarea articolelor noastre, va rugăm să ne trimiteţi un mail pe adresa abonamente@news.ro.