Microsoft lanceert eigen AI-chip en verkleint afhankelijkheid van Nvidia
In dit artikel:
Microsoft onthult de Maia 200, zijn tweede generatie eigen AI-accelerator, die niet alleen intern wordt gebruikt maar inmiddels ook de inferentie van GPT-5.2 verzorgt. De chip is door TSMC gefabriceerd op een 3nm-proces, bevat ongeveer 140 miljard transistoren en is specifiek ontworpen voor snelle, efficiënte inferentie — vooral gericht op veel gelijktijdige, korte gebruikersvragen zoals bij Copilot en chatdiensten.
Belangrijke specificaties: meer dan 10 petaflops bij fp4 en ruim 5 petaflops bij fp8 rekenkracht; 216 GB HBM3e-geheugen met circa 7 TB/s bandbreedte en 272 MB SRAM. Die relatief grote hoeveelheid SRAM is gekozen om latency te verlagen en de doorvoer te verhogen bij massale, parallelle queries — een ontwerpfilosofie die overeenkomt met eerdere benaderingen van bedrijven als Cerebras en Groq, maar nu op schaal inzetbaar in datacenters.
Microsoft bouwt ook het omliggende systeem nieuw: een tweelaags ethernet-netwerk met een aangepaste transportlaag. Binnen een rack zijn vier Maia-accelerators direct verbonden zonder tussenliggende switches; clustergrootte kan opschalen tot 6.144 accelerators met een onderlinge bandbreedte van 2,8 TB/s. De eerste systemen staan al in een datacenter in Iowa; Arizona volgt en daarna andere regio’s. Vooralsnog zijn de chips primair voor eigen workloads; beschikbaarheid voor Azure-klanten is nog onduidelijk.
Tegelijk met de hardware komt een preview van een SDK met PyTorch-integratie, een Triton-compiler en een low-level programmeertaal voor directe controle. Daarmee probeert Microsoft de afhankelijkheid van Nvidia’s dominante softwarestack te verminderen door ontwikkelaars een alternatief te bieden dat aansluit bij bestaande AI-frameworks. Microsoft claimt dat de Maia 200 ongeveer 30% beter presteert per dollar dan de huidige hardware die het bedrijf gebruikt.
De lancering past in een bredere trend waarbij hyperscalers (Google TPU, AWS Trainium, experimenten bij Meta) eigen chips ontwikkelen om kosten, beschikbaarheid en strategische controle te verbeteren. Voor Microsoft betekent Maia 200 minder afhankelijkheid van derden en meer afstemming tussen hardware, modellen en diensten — met GPT-5.2 en synthetische data-workloads als directe eerste toepassingen.