Microsoft oficjalnie zapowiedział swój najnowszy akcelerator sztucznej inteligencji Maia 200, zaprojektowany z myślą o znacznej poprawie wydajności i efektywności kosztowej przy obsłudze modeli AI w środowiskach chmurowych. Urządzenie to jest kolejnym krokiem firmy w kierunku własnego sprzętu do przetwarzania modeli AI, szczególnie podczas ich rzeczywistego działania (ang. inference).
Co to jest Maia 200 i do czego służy?
Maia 200 to wyspecjalizowany układ scalony (SoC) opracowany z myślą o wykonywaniu AI w czasie rzeczywistym — czyli generowaniu odpowiedzi, analizie danych i wykonywaniu zadań przez gotowe już modele — bez konieczności ręcznego skalowania infrastruktury GPU. Chip ten został zbudowany w technologii 3 nm w fabrykach TSMC, co pozwala osiągnąć wysoką gęstość tranzystorów i niskie zużycie energii w stosunku do mocy obliczeniowej.
Maia 200 jest zoptymalizowana pod precyzje FP4 i FP8, powszechnie wykorzystywane w obliczeniach AI, dzięki czemu może realizować intensywne zadania inferencyjne szybciej i bardziej energooszczędnie niż typowe rozwiązania ogólnego przeznaczenia.
Kluczowe parametry techniczne Maia 200
Nowy akcelerator wyróżnia się następującymi cechami:
- 🔹 Ponad 140 mld tranzystorów – niezwykle wysoka liczba tranzystorów zwiększa możliwości obliczeniowe układu.
- 🔹 216 GB pamięci HBM3e z przepustowością ok. 7 TB/s — to ogromna przepustowość pamięci, która pomaga utrzymać wysokie tempo dostarczania danych do rdzeni obliczeniowych.
- 🔹 272 MB pamięci SRAM na chipie — znacząco poprawia dostęp do danych i redukuje opóźnienia związane z ruchem pamięci zewnętrznej.
- 🔹 Ponad 10 petaFLOPS mocy obliczeniowej w FP4 i ponad 5 petaFLOPS w FP8 — daje to solidne możliwości do obsługi dużych modeli AI.
- 🔹 750 W TDP — układ w praktyce działa w środowisku serwerowym z chłodzeniem cieczą lub wysokowydajnym chłodzeniem rackowym.
Dzięki takiej konfiguracji Maia 200 ma przewagę nad obecną generacją sprzętu oraz konkurencyjnymi rozwiązaniami, w tym własnymi akceleratorami innych gigantów chmury.
Wydajność i efektywność kosztowa
Microsoft podkreśla, że Maia 200 oferuje znacznie lepszą wydajność na dolara niż wcześniejsza generacja hardware’u wykorzystywanego w jego centrach danych — około 30 % poprawy w stosunku do poprzednich rozwiązań.