Meta wprowadza cztery dodatkowe procesory AI, zaostrzając konkurencję z Nvidia i AMD
Meta prezentuje nowe procesory AI
Meta (META) wprowadziła cztery zaawansowane chipy AI w ramach rodziny Meta Training and Inference Accelerator (MTIA). Ten krok jest częścią strategii Meta, polegającej na wykorzystywaniu zarówno komercyjnych GPU od Nvidia i AMD, jak i własnego sprzętu, mając na celu spełnienie wymagań AI przy jednoczesnym zmniejszeniu zależności od jednego dostawcy.
Przegląd chipów MTIA
- MTIA 300
- MTIA 400
- MTIA 450
- MTIA 500
Każdy chip jest stworzony do obsługi konkretnych aspektów operacji AI Meta — od systemów rankingowych i rekomendacyjnych po zaawansowane zadania inferencyjne.
MTIA 400: GenAI i skalowalność
MTIA 400 zaprojektowano do generatywnej AI oraz obciążeń rankingowych/rekomendacyjnych. Meta podkreśla, że do 72 takich chipów może zostać zintegrowanych w jednym racku serwerowym, na wzór podejścia wykorzystanego w rackach Nvidia NVL72 oraz AMD Helios.
Meta zaznacza, że MTIA 400 jest jej pierwszym procesorem, który zapewnia jednocześnie efektywność kosztową i wydajność porównywalną z najlepszymi komercyjnymi produktami, choć nie podaje, o które produkty konkretnie chodzi. Najważniejszymi rywalami w tym segmencie są Nvidia i AMD.
Ostatnie partnerstwa
Meta niedawno zawarła długoterminowe umowy zarówno z Nvidia, jak i AMD w zakresie dostaw chipów, gwarantując dostęp do kilku kolejnych generacji ich technologii.

Dyrektor generalny Nvidia, Jensen Huang, prezentuje Rubin GPU podczas przemówienia na CES 2026 w Las Vegas. (REUTERS/Steve Marcus)
Postępy z MTIA 450 i MTIA 500
MTIA 450 oferuje ulepszoną pamięć o wysokiej przepustowości w porównaniu do poprzednika, natomiast MTIA 500 jeszcze bardziej zwiększa pojemność i szybkość pamięci.
Plany wdrożenia
Meta już rozpoczęła korzystanie z części tych chipów i zamierza wprowadzić pozostałe modele w 2026 i 2027 roku. Wszystkie procesory korzystają ze wspólnej infrastruktury, umożliwiając łatwe aktualizacje w razie potrzeby.
Trendy w branży
Meta nie jest jedyną firmą rozwijającą własne chipy AI. Google i Amazon od dawna używają własnych procesorów do treningu i inferencji AI, a Microsoft niedawno wypuścił własny chip Maia 200.
Google i Amazon udostępniają również swoje chipy firmie Anthropic do uruchamiania modeli AI. Według The Information, Google i Meta podpisali wielomiliardową umowę na wykorzystanie procesorów Google przez Meta.
Wpływ na Nvidia i AMD
Przejście w kierunku customowych chipów stwarza wyzwania dla Nvidia i AMD. Dyrektor finansowa Nvidia, Colette Kress, niedawno powiedziała, że ponad połowa przychodów firmy z centrów danych pochodzi od klientów typu hyperscale.
Mimo to Nvidia nadal odnotowuje wzrost przychodów od innych klientów.
Hyperscale'rs inwestują dalej w AI
Najwięksi dostawcy chmury nie wykazują oznak ograniczenia inwestycji w infrastrukturę AI ani chipy dostarczane przez podmioty zewnętrzne. W samym 2026 roku Amazon, Google, Meta i Microsoft mają przeznaczyć łącznie 650 miliardów dolarów na wydatki kapitałowe, z dużą częścią skierowaną w rozwój AI.
Subskrybuj newsletter Yahoo Finance Week in Tech, aby być na bieżąco.
Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.
Może Ci się również spodobać
Eksperci prawni twierdzą, że umowa Justina Suna komplikuje stanowisko SEC wobec kryptowalut
