Кратко

  • Генеральный директор Eliza Lab Шоу Уолтерс утверждает, что современные системы искусственного интеллекта уже соответствуют его определению AGI.
  • Он предупреждает, что автономные агенты несут серьезные угрозы безопасности, включая инъекции подсказок и компрометацию кошельков.
  • Уолтерс считает, что полностью децентрализованный искусственный интеллект еще не существует, и что выполнение на локальном уровне ближе всего к этому.

Возможно, искусственный общий интеллект уже появился.

Об этом заявил основатель Eliza Labs Шоу Уолтерс в разговоре с

Decrypt
на прошлой неделе во время ETHDenver. По словам Уолтерса, нынешние ведущие модели уже соответствуют его определению искусственного общего интеллекта, более известного как AGI.

«Я считаю, что мы находимся в той точке, когда у нас уже есть AGI», — сказал он. — «Я полностью убежден, что это и есть общий интеллект. Он совсем не похож на нас. Он учится совершенно иначе, но, тем не менее, он разумен и очень универсален».

Впервые основанная в 2024 году как ai16z, компания Уолтерса Eliza Labs создала открытый ElizaOS — одну из первых платформ для создания автономных AI-агентов для блокчейнов.

Впервые термин был введен в 1997 году и впоследствии популярен среди исследователей, включая основателя SingularityNET Бена Герцеля. Искусственный общий интеллект — это теоретическая форма искусственного интеллекта, способная соответствовать или превосходить человеческие когнитивные способности в широком спектре задач. 

В то время как известные разработчики AI, включая генерального директора OpenAI Сэма Олтмана и генерального директора Anthropic Дарио Амодеи, предупреждают, что AGI может появиться в течение следующего десятилетия, Уолтерс отвергает идею о том, что искусственный интеллект станет единой доминирующей системой.

«Я просто не вижу это как бога искусственного интеллекта», — сказал он. — «Такого никогда не будет, потому что жизнь любит разнообразие».

Уолтерс рассказал, что начал работать над AI-агентами еще в эпоху GPT-3, когда структурированные ответы были ненадежными.

«Казалось, что большая часть моей работы — это как надеть учебные колеса на младенца», — сказал он. — «Просто держать его в рамках, добиваться от него ответа в нужной структуре, чтобы я мог понять, какое действие требуется. Это была огромная проблема».

Прогресс был достигнут с запуском GPT-4 в 2023 году, что, по словам Уолтерса, позволило получать более надежные ответы.

«Он невероятно хорошо давал мне структурированные ответы, и теперь я действительно мог вызывать действия», — сказал он. — «Именно тогда мы перешли от почти неработающей системы к созданию агента, который что-то делает, но его возможности все еще были очень ограничены».

AI-агенты эволюционировали от экспериментальных чат-ботов до постоянных систем, внедренных в крипто- и потребительские платформы. 

В феврале OpenClaw получил около 147 000 звезд на GitHub и стал основой для таких проектов, как AI «социальная медиа» платформа Moltbook, в то время как Coinbase запустила «Agentic Wallets» на Base, а Fetch.ai заявила, что их агенты могут совершать покупки с использованием инфраструктуры Visa.

Однако, когда агенты получили root-доступ и контроль над кошельками, по словам Уолтерса, первоначальный энтузиазм сменился серьезными опасениями по поводу безопасности.

Пока разработчики на ETHDenver подчеркивали преимущества AI-агентов в криптоиндустрии, Уолтерс предупредил, что по мере того, как искусственный интеллект приближается к AGI, он ведет себя все меньше как предсказуемая машина и все больше как человек, склонный к ошибкам, что делает невозможным создание полностью надежных средств защиты.

«В конечном итоге вы имеете дело с чем-то, что больше похоже на человека, чем на калькулятор», — сказал он. — «Иногда он будет делать глупости, и невозможно построить супербезопасную систему, которая всегда сможет предотвратить это».