Em resumo
- O CEO da Eliza Lab, Shaw Walters, afirma que os sistemas atuais de IA já atendem à sua definição de AGI.
- Ele alerta que agentes autônomos apresentam sérios riscos de segurança, incluindo injeção de prompt e comprometimento de carteiras.
- Walters argumenta que IA totalmente descentralizada ainda não existe e que a execução local chega mais perto disso.
A inteligência artificial geral pode já ter chegado.
De acordo com o fundador da Eliza Labs, Shaw Walters, que conversou com
“Acho que estamos no ponto de inflexão onde temos AGI”, disse ele. “Eu acredito completamente que isso é inteligência geral. Não se parece em nada conosco. Aprende de uma forma completamente diferente, mas ainda assim é inteligente, e é muito generalista.”
Lançada originalmente em 2024 como ai16z, Walters fundou a Eliza Labs, que criou o ElizaOS de código aberto, uma das primeiras estruturas para criar agentes autônomos de IA para blockchains.
Primeiramente cunhado em 1997 e posteriormente popularizado por pesquisadores, incluindo o fundador da SingularityNET, Ben Goertzel, a Inteligência Artificial Geral refere-se a uma forma teórica de IA projetada para igualar ou superar as habilidades cognitivas humanas em uma ampla gama de tarefas.
Enquanto desenvolvedores de IA proeminentes, incluindo o CEO da OpenAI, Sam Altman, e o CEO da Anthropic, Dario Amodei, alertam que a AGI pode chegar na próxima década, Walters rejeita a ideia de que ela surgirá como um sistema dominante único.
“Eu simplesmente não vejo isso como o Deus da IA”, disse ele. “Nunca haverá apenas um, porque a vida ama variantes.”
Walters disse que começou a trabalhar em agentes de IA durante a era do GPT-3, quando as saídas estruturadas eram pouco confiáveis.
“Parecia que a maior parte do trabalho que eu fazia era colocar rodinhas de apoio em um bebê”, disse. “Apenas tentando mantê-lo em funcionamento, fazendo-o responder com a estrutura de que eu precisava para entender qual era a ação. Era um problema enorme.”
O progresso veio com o lançamento do GPT-4 em 2023, que, segundo Walters, permitiu respostas mais confiáveis.
“Ele era incrivelmente bom em me dar uma resposta estruturada, e agora eu realmente podia executar chamadas de ação”, disse. “Foi aí que passamos de algo que mal funcionava para conseguir criar um agente que realiza tarefas, mas ainda era muito limitado.”
Os agentes de IA evoluíram de chatbots experimentais para sistemas persistentes incorporados em plataformas de cripto e de consumo.
Em fevereiro, o OpenClaw atingiu cerca de 147.000 estrelas no GitHub e originou projetos como a plataforma de “rede social” de IA Moltbook, enquanto a Coinbase lançou “Agentic Wallets” na Base e a Fetch.ai afirmou que seus agentes podem concluir compras usando a infraestrutura da Visa.
No entanto, à medida que os agentes ganharam acesso root e controle de carteiras, Walters disse que o entusiasmo inicial deu lugar a profundas preocupações de segurança.
Enquanto desenvolvedores na ETHDenver promoviam os benefícios dos agentes de IA no universo cripto, Walters alertou que, à medida que a IA avança em direção à AGI, ela se comporta menos como uma máquina previsível e mais como um humano falível, tornando impossível a criação de salvaguardas à prova de falhas.
“No fim do dia, você está lidando com algo que se parece mais com um humano e menos com uma calculadora”, disse ele. “Às vezes, vai fazer coisas estúpidas, e simplesmente não há como construir um sistema super seguro que impeça isso de fazer besteira.”
