Eksklusibo-Hindi nasisiyahan ang OpenAI sa ilang Nvidia chips at naghahanap ng alternatibo, ayon sa mga source
Nina Max A. Cherney, Krystal Hu at Deepa Seetharaman
SAN FRANCISCO, Peb 2 (Reuters) - Hindi lubos na nasisiyahan ang OpenAI sa ilan sa pinakabagong chips ng Nvidia para sa artificial intelligence, at naghahanap ito ng mga alternatibo mula pa noong nakaraang taon, ayon sa walong source na pamilyar sa usapin, na maaaring magpalala sa ugnayan ng dalawang pinakaprominenteng manlalaro sa AI boom.
Ang pagbabago ng estratehiya ng gumawa ng ChatGPT, na dito unang iniulat ang mga detalye, ay dahil sa pagtaas ng pagbibigay pansin sa mga chips na ginagamit sa pagsasagawa ng partikular na bahagi ng AI inference, ang proseso kung saan ang isang AI model tulad ng nagpapatakbo sa ChatGPT app ay sumasagot sa mga tanong at kahilingan ng customer. Nanatiling dominante ang Nvidia sa mga chips para sa pagsasanay ng malalaking AI models, habang ang inference ay naging bagong larangan ng kompetisyon.
Ang desisyon ng OpenAI at iba pa na maghanap ng mga alternatibo sa inference chip market ay isang malaking pagsubok sa dominasyon ng Nvidia sa AI at nangyayari habang ang dalawang kompanya ay nasa pag-uusap ukol sa pamumuhunan.
Noong Setyembre, sinabi ng Nvidia na balak nitong mag-invest ng hanggang $100 bilyon sa OpenAI bilang bahagi ng kasunduan na magbibigay sa chipmaker ng stake sa startup at magbibigay naman sa OpenAI ng cash na kailangan nito upang bumili ng advanced chips.
Inaasahan sanang matatapos agad ang kasunduan, ayon sa Reuters. Sa halip, tumagal ng ilang buwan ang negosasyon. Sa panahong iyon, nakipagkasundo ang OpenAI sa AMD at iba pa para sa GPUs na layong tapatan ang Nvidia. Ngunit ang pagbabago ng product roadmap nito ay nagbago rin sa uri ng computational resources na kailangan nito at nagpabagal sa usapan sa Nvidia, ayon sa isang source.
Noong Sabado, binasura ni Nvidia CEO Jensen Huang ang ulat ng tensiyon sa OpenAI, sinabing “kalokohan” ang ideya at plano ng Nvidia na mag-invest nang malaki sa OpenAI.
"Patuloy na pumipili ang mga customer ng NVIDIA para sa inference dahil nagbibigay kami ng pinakamainam na performance at total cost of ownership sa malakihang saklaw," sabi ng Nvidia sa isang pahayag.
Sinabi naman ng tagapagsalita ng OpenAI sa hiwalay na pahayag na umaasa ang kumpanya sa Nvidia upang paandarin ang karamihan ng inference fleet nito at na ang Nvidia ang may pinakamainam na performance per dollar para sa inference.
Pitong source ang nagsabing hindi nasisiyahan ang OpenAI sa bilis ng hardware ng Nvidia sa pagbibigay ng sagot sa mga user ng ChatGPT para sa partikular na uri ng problema gaya ng software development at AI na nakikipag-ugnayan sa ibang software. Kailangan nito ng bagong hardware na sa kalaunan ay magbibigay ng halos 10% ng inference computing needs ng OpenAI sa hinaharap, ayon sa isang source ng Reuters.
Napag-usapan ng gumawa ng ChatGPT ang pakikipagtulungan sa mga startup gaya ng Cerebras at Groq upang magbigay ng chips para sa mas mabilis na inference, ayon sa dalawang source. Ngunit nakipagkasundo ang Nvidia ng $20-bilyong licensing deal sa Groq na nagpatigil sa usapan ng OpenAI, ayon sa isang source ng Reuters.
Disclaimer: Ang nilalaman ng artikulong ito ay sumasalamin lamang sa opinyon ng author at hindi kumakatawan sa platform sa anumang kapasidad. Ang artikulong ito ay hindi nilayon na magsilbi bilang isang sanggunian para sa paggawa ng mga desisyon sa investment.
Baka magustuhan mo rin
Ang lalamunan ng Nvidia


Bigong Botohan ng Azitra: Isang Taktikal na Hakbang sa Presyo ng Nabaon sa Utang at Panganib ng Pagka-dilute
