Microsoft lansează Maia 200, un cip revoluționar pentru AI
Maia 200 promite performanțe superioare în inferența AI
Microsoft a lansat cipul Maia 200, oferind performanțe superioare pentru inferența AI. Cipul promite eficiență crescută și costuri reduse pentru companiile AI.
Puncte Cheie
- Microsoft a lansat cipul Maia 200, succesorul Maia 100.
- Cipul are peste 100 de miliarde de tranzistori și oferă peste 10 petaflops în precizie de 4 biți.
- Inferența AI devine tot mai importantă pentru costurile operaționale ale companiilor.
- Maia 200 poate rula cele mai mari modele AI actuale cu eficiență sporită.
- Cipul Maia 200 oferă performanțe superioare față de Amazon Trainium și Google TPU.
Microsoft și Maia 200: Un pas înainte în AI
Microsoft a anunțat lansarea celui mai recent cip al său, Maia 200, pe care compania îl descrie ca fiind un adevărat „cal de bătaie” din silicon, conceput pentru a scala inferența AI. Acest cip urmează modelului Maia 100 lansat în 2023 și este echipat pentru a rula modele AI puternice la viteze mai mari și cu o eficiență crescută. Microsoft a subliniat că Maia 200 vine cu peste 100 de miliarde de tranzistori și oferă peste 10 petaflops în precizie de 4 biți și aproximativ 5 petaflops de performanță la 8 biți, o creștere semnificativă față de predecesorul său.
Importanța inferenței în AI și rolul Maia 200
Inferența se referă la procesul de calcul al rulării unui model, spre deosebire de calculul necesar pentru a-l antrena. Pe măsură ce companiile de AI se maturizează, costurile de inferență au devenit o parte tot mai importantă a costurilor lor operaționale totale, ceea ce a dus la un interes reînnoit în modalitățile de optimizare a acestui proces. Microsoft speră ca Maia 200 să facă parte din această optimizare, ajutând afacerile AI să funcționeze cu mai puține întreruperi și un consum mai redus de energie. «În termeni practici, un nod Maia 200 poate rula fără efort cele mai mari modele de astăzi, cu suficient spațiu pentru modele și mai mari în viitor», a declarat compania.
Concurența în domeniul cipurilor AI
Noul cip al Microsoft face parte și dintr-o tendință în creștere a giganților tehnologici de a se orienta către cipuri auto-proiectate, ca o modalitate de a-și reduce dependența de Nvidia, ale cărei GPU-uri de ultimă generație au devenit tot mai esențiale pentru succesul companiilor de AI. Google, de exemplu, are TPU-urile sale, unități de procesare tensorială — care nu sunt vândute ca cipuri, ci ca putere de calcul accesibilă prin intermediul cloud-ului său. Apoi, există Amazon Trainium, cipul accelerator AI al gigantului de comerț electronic, care tocmai și-a lansat cea mai recentă versiune, Trainium3, în decembrie. În fiecare caz, TPU-urile pot fi folosite pentru a descărca o parte din calculul care altfel ar fi atribuit GPU-urilor Nvidia, reducând costul total al hardware-ului.
Performanțele Maia 200 și impactul său
Cu Maia, Microsoft se poziționează să concureze cu aceste alternative. În comunicatul său de presă de luni, compania a menționat că Maia oferă de 3 ori performanța FP4 a cipurilor Amazon Trainium de generația a treia și performanța FP8 peste TPU-ul de generația a șaptea de la Google. Microsoft afirmă că Maia este deja folosit pentru a alimenta modelele AI ale echipei sale Superintelligence. De asemenea, a sprijinit operațiunile Copilot, chatbot-ul său. Începând de luni, compania a invitat o varietate de părți — inclusiv dezvoltatori, academicieni și laboratoare AI de frontieră — să utilizeze kitul său de dezvoltare software Maia 200 în sarcinile lor de lucru.
Abonează-te la StiriX
Primește cele mai noi știri tech direct pe email.
