Bitget App
Trade smarter
Kup kryptoRynkiHandelFuturesEarnCentrumWięcej
Meta wprowadza cztery dodatkowe procesory AI, zaostrzając konkurencję z Nvidia i AMD

Meta wprowadza cztery dodatkowe procesory AI, zaostrzając konkurencję z Nvidia i AMD

101 finance101 finance2026/03/11 14:13
Pokaż oryginał
Przez:101 finance

Meta prezentuje nowe procesory AI

Meta (META) wprowadziła cztery zaawansowane chipy AI w ramach rodziny Meta Training and Inference Accelerator (MTIA). Ten krok jest częścią strategii Meta, polegającej na wykorzystywaniu zarówno komercyjnych GPU od Nvidia i AMD, jak i własnego sprzętu, mając na celu spełnienie wymagań AI przy jednoczesnym zmniejszeniu zależności od jednego dostawcy.

Przegląd chipów MTIA

  • MTIA 300
  • MTIA 400
  • MTIA 450
  • MTIA 500

Każdy chip jest stworzony do obsługi konkretnych aspektów operacji AI Meta — od systemów rankingowych i rekomendacyjnych po zaawansowane zadania inferencyjne.

MTIA 400: GenAI i skalowalność

MTIA 400 zaprojektowano do generatywnej AI oraz obciążeń rankingowych/rekomendacyjnych. Meta podkreśla, że do 72 takich chipów może zostać zintegrowanych w jednym racku serwerowym, na wzór podejścia wykorzystanego w rackach Nvidia NVL72 oraz AMD Helios.

Meta zaznacza, że MTIA 400 jest jej pierwszym procesorem, który zapewnia jednocześnie efektywność kosztową i wydajność porównywalną z najlepszymi komercyjnymi produktami, choć nie podaje, o które produkty konkretnie chodzi. Najważniejszymi rywalami w tym segmencie są Nvidia i AMD.

Ostatnie partnerstwa

Meta niedawno zawarła długoterminowe umowy zarówno z Nvidia, jak i AMD w zakresie dostaw chipów, gwarantując dostęp do kilku kolejnych generacji ich technologii.

Nvidia CEO Jensen Huang holding a Rubin GPU at CES 2026

Dyrektor generalny Nvidia, Jensen Huang, prezentuje Rubin GPU podczas przemówienia na CES 2026 w Las Vegas. (REUTERS/Steve Marcus)

Postępy z MTIA 450 i MTIA 500

MTIA 450 oferuje ulepszoną pamięć o wysokiej przepustowości w porównaniu do poprzednika, natomiast MTIA 500 jeszcze bardziej zwiększa pojemność i szybkość pamięci.

Plany wdrożenia

Meta już rozpoczęła korzystanie z części tych chipów i zamierza wprowadzić pozostałe modele w 2026 i 2027 roku. Wszystkie procesory korzystają ze wspólnej infrastruktury, umożliwiając łatwe aktualizacje w razie potrzeby.

Trendy w branży

Meta nie jest jedyną firmą rozwijającą własne chipy AI. Google i Amazon od dawna używają własnych procesorów do treningu i inferencji AI, a Microsoft niedawno wypuścił własny chip Maia 200.

Google i Amazon udostępniają również swoje chipy firmie Anthropic do uruchamiania modeli AI. Według The Information, Google i Meta podpisali wielomiliardową umowę na wykorzystanie procesorów Google przez Meta.

Wpływ na Nvidia i AMD

Przejście w kierunku customowych chipów stwarza wyzwania dla Nvidia i AMD. Dyrektor finansowa Nvidia, Colette Kress, niedawno powiedziała, że ponad połowa przychodów firmy z centrów danych pochodzi od klientów typu hyperscale.

Mimo to Nvidia nadal odnotowuje wzrost przychodów od innych klientów.

Hyperscale'rs inwestują dalej w AI

Najwięksi dostawcy chmury nie wykazują oznak ograniczenia inwestycji w infrastrukturę AI ani chipy dostarczane przez podmioty zewnętrzne. W samym 2026 roku Amazon, Google, Meta i Microsoft mają przeznaczyć łącznie 650 miliardów dolarów na wydatki kapitałowe, z dużą częścią skierowaną w rozwój AI.


Yahoo Finance Week in Tech newsletter

Subskrybuj newsletter Yahoo Finance Week in Tech, aby być na bieżąco.

0
0

Zastrzeżenie: Treść tego artykułu odzwierciedla wyłącznie opinię autora i nie reprezentuje platformy w żadnym charakterze. Niniejszy artykuł nie ma służyć jako punkt odniesienia przy podejmowaniu decyzji inwestycyjnych.

PoolX: Stakuj, aby zarabiać
Nawet ponad 10% APR. Zarabiaj więcej, stakując więcej.
Stakuj teraz!