Ilya Sutskever, współzałożyciel i główny naukowiec OpenAI, przemawia na Uniwersytecie w Tel Awiwie, 5 czerwca 2023 roku. | Źródło zdjęcia: JACK GUEZ/AFP / Getty Images Znajdujemy się w wyjątkowym momencie dla firm AI, które budują własny model bazowy.
Po pierwsze, mamy całe pokolenie weteranów branży, którzy zdobyli sławę w wielkich firmach technologicznych, a teraz działają na własną rękę. Są też legendarni naukowcy z ogromnym doświadczeniem, ale niejasnymi aspiracjami komercyjnymi. Istnieje wyraźna szansa, że przynajmniej część tych nowych laboratoriów stanie się gigantami na miarę OpenAI, ale jest też przestrzeń, by zajmowali się interesującymi badaniami, nie martwiąc się zbytnio o komercjalizację.
Jaki jest efekt końcowy? Coraz trudniej stwierdzić, kto tak naprawdę próbuje zarabiać pieniądze.
Aby uprościć sprawę, proponuję coś w rodzaju skali przesuwnej dla każdej firmy tworzącej model bazowy. To pięciopoziomowa skala, na której nie liczy się, czy faktycznie zarabiasz pieniądze – tylko czy próbujesz to robić. Chodzi tutaj o mierzenie ambicji, a nie sukcesu.
Pomyśl o tym w następujący sposób:
Największe marki są na poziomie 5: OpenAI, Anthropic, Gemini i tak dalej. Skala staje się ciekawsza w przypadku nowej generacji laboratoriów, które właśnie powstają, mają wielkie marzenia, ale ich ambicje są trudniejsze do odczytania.
Co istotne, osoby zaangażowane w te laboratoria generalnie mogą wybrać taki poziom, jaki chcą. W AI jest teraz tak dużo pieniędzy, że nikt nie będzie ich przesłuchiwał w sprawie biznesplanu. Nawet jeśli laboratorium to tylko projekt badawczy, inwestorzy i tak cieszą się, że mogą w nim uczestniczyć. Jeśli nie zależy ci szczególnie na zostaniu miliarderem, możesz prowadzić szczęśliwsze życie na poziomie 2 niż na poziomie 5.
Problemy pojawiają się, ponieważ nie zawsze wiadomo, na jakim poziomie znajduje się dane laboratorium AI — i wiele obecnych dramatów w branży AI wynika z tego zamieszania. Spora część niepokoju wokół przekształcenia OpenAI z organizacji non-profit wynikała z faktu, że laboratorium przez lata było na poziomie 1, by niemal z dnia na dzień przeskoczyć na poziom 5. Z drugiej strony, można argumentować, że wczesne badania AI w Meta były wyraźnie na poziomie 2, podczas gdy firma tak naprawdę chciała być na poziomie 4.
Mając to na uwadze, oto szybki przegląd czterech największych współczesnych laboratoriów AI i tego, jak wypadają one na tej skali.
Humans& było największą wiadomością AI tego tygodnia i częściowo inspiracją do stworzenia całej tej skali. Założyciele przedstawiają przekonującą wizję nowej generacji modeli AI, w której prawa skalowania ustępują miejsca naciskowi na narzędzia komunikacyjne i koordynacyjne.
Mimo entuzjastycznych publikacji Humans& nie zdradziło, jak to wszystko ma się przełożyć na rzeczywiste produkty przynoszące dochód. Wydaje się, że chcą budować produkty; zespół po prostu nie chce zobowiązywać się do niczego konkretnego. Najwięcej, co powiedzieli, to że będą tworzyć jakieś narzędzie AI do pracy, które zastąpi takie produkty, jak Slack, Jira i Google Docs, a także zdefiniuje na nowo, jak te narzędzia funkcjonują na fundamentalnym poziomie. Oprogramowanie do pracy dla świata po oprogramowaniu!
Moją pracą jest wiedzieć, co to wszystko oznacza, a mimo to wciąż jestem dość zdezorientowany ostatnią częścią. Ale jest to wystarczająco konkretne, by umieścić ich na poziomie 3.
To bardzo trudne do oceny! Zazwyczaj, jeśli były CTO i lider projektu ChatGPT zbiera rundę seedową na 2 miliardy dolarów, trzeba założyć, że jest dość konkretny plan działania. Mira Murati nie wydaje mi się osobą, która wchodzi w coś bez planu, więc wchodząc w 2026 rok, uznałbym TML za poziom 4.
Ale potem wydarzyły się ostatnie dwa tygodnie. Odejście CTO i współzałożyciela Barreta Zopha przyciągnęło najwięcej uwagi, częściowo ze względu na specjalne okoliczności tej sytuacji. Ale co najmniej pięciu innych pracowników odeszło razem z Zophem, wielu z nich powołując się na obawy dotyczące kierunku firmy. Po zaledwie roku niemal połowa kadry zarządzającej zespołu założycielskiego TML już tam nie pracuje. Można to odczytać tak, że myśleli, iż mają solidny plan, by stać się światowej klasy laboratorium AI, tylko po to, by odkryć, że plan nie był tak solidny, jak sądzili. Albo, patrząc przez pryzmat tej skali, chcieli laboratorium na poziomie 4, ale zorientowali się, że są na poziomie 2 lub 3.
Wciąż nie ma dość dowodów, by uzasadnić obniżenie poziomu, ale robi się blisko.
Fei-Fei Li to jedno z najbardziej cenionych nazwisk w badaniach nad AI, znana przede wszystkim z ustanowienia wyzwania ImageNet, które zapoczątkowało współczesne techniki deep learningu. Obecnie posiada stanowisko profesora fundowanego przez Sequoia na Stanfordzie, gdzie współkieruje dwoma różnymi laboratoriami AI. Nie będę zanudzać wyliczaniem wszystkich wyróżnień i członkostw w akademiach, ale wystarczy powiedzieć, że gdyby chciała, mogłaby resztę życia spędzić na odbieraniu nagród i słuchaniu pochwał. Jej książka też jest całkiem dobra!
Więc w 2024 roku, gdy Li ogłosiła, że zebrała 230 milionów dolarów na firmę spatial AI o nazwie World Labs, można było zakładać, że działają na poziomie 2 lub niższym.
Ale to było ponad rok temu, co w świecie AI jest bardzo długim okresem. Od tego czasu World Labs wypuściło zarówno pełnoprawny model generowania światów, jak i skomercjalizowany produkt zbudowany na jego bazie. W tym samym okresie pojawiły się realne oznaki popytu na modelowanie światów zarówno w branży gier wideo, jak i efektów specjalnych — i żadne z głównych laboratoriów nie stworzyło niczego, co mogłoby konkurować. Efekt wygląda bardzo podobnie do firmy na poziomie 4, być może wkrótce awansującej na poziom 5.
Założone przez byłego głównego naukowca OpenAI Ilyę Sutskevera, Safe Superintelligence (lub SSI) wydaje się klasycznym przykładem startupu na poziomie 1. Sutskever zrobił wiele, by utrzymać SSI z dala od presji komercyjnych, do tego stopnia, że odrzucił próbę przejęcia przez Meta. Nie ma cykli produktowych, a poza wciąż powstającym superinteligentnym modelem bazowym, nie wydaje się, by istniał jakikolwiek produkt. Z takim podejściem zebrał 3 miliardy dolarów! Sutskever zawsze bardziej interesował się nauką o AI niż biznesem i wszystko wskazuje na to, że to naprawdę naukowy projekt z założenia.
To powiedziawszy, świat AI zmienia się szybko — i byłoby nierozsądne całkowicie skreślać SSI z komercyjnego rynku. W ostatnim wystąpieniu u Dwarkesha Sutskever podał dwa powody, dla których SSI mogłoby zmienić kierunek: „jeśli horyzonty czasowe okażą się długie, co jest możliwe”, lub dlatego, że „jest ogromna wartość w tym, by najlepsza i najpotężniejsza AI wpływała na świat”. Innymi słowy, jeśli badania pójdą bardzo dobrze lub bardzo źle, możemy zobaczyć, jak SSI szybko wskakuje o kilka poziomów wyżej.