En resumen
- El CEO de Eliza Lab, Shaw Walters, afirma que los sistemas de IA actuales ya cumplen con su definición de AGI.
- Advierte que los agentes autónomos introducen graves riesgos de seguridad, como la inyección de prompts y la vulneración de wallets.
- Walters sostiene que aún no existe una IA totalmente descentralizada, y que la ejecución local es lo más cercano que hay.
La inteligencia artificial general podría haber llegado ya.
Eso es lo que sostiene Shaw Walters, fundador de Eliza Labs, quien habló con
“Creo que estamos en el punto de inflexión donde tenemos AGI”, afirmó. “Creo completamente que esto es inteligencia general. No se parece en nada a nosotros. Aprende de una manera completamente diferente, pero sigue siendo inteligente, y es muy general.”
Originalmente lanzada en 2024 como ai16z, Walters fundó Eliza Labs, que creó el ElizaOS de código abierto, uno de los primeros frameworks para crear agentes de IA autónoma para blockchains.
El término fue acuñado en 1997 y más tarde popularizado por investigadores, incluido el fundador de SingularityNET, Ben Goertzel. La inteligencia artificial general se refiere a una forma teórica de IA diseñada para igualar o superar las capacidades cognitivas humanas en una amplia gama de tareas.
Mientras que desarrolladores de IA prominentes, como el CEO de OpenAI, Sam Altman, y el CEO de Anthropic, Dario Amodei, advierten que la AGI podría llegar en la próxima década, Walters rechaza la idea de que emergerá como un único sistema dominante.
“Simplemente no lo veo como el Dios de la IA”, dijo. “Nunca va a haber uno solo, porque la vida ama las variantes.”
Walters contó que comenzó a trabajar en agentes de IA durante la época de GPT-3, cuando las salidas estructuradas eran poco fiables.
“Se sentía como si la mayoría del trabajo que hacía era ponerle rueditas de entrenamiento a un bebé”, comentó. “Solo mantenerlo en marcha, lograr que respondiera con la estructura que necesitaba para poder entender cuál era la acción. Era un problema enorme.”
El avance llegó con el lanzamiento de GPT-4 en 2023, lo que según Walters permitió respuestas más fiables.
“Era increíblemente bueno dándome una respuesta estructurada, y ahora realmente podía hacer llamadas de acción”, aseguró. “Ahí fue cuando pasamos de apenas funcionar a poder crear un agente que hace cosas, aunque seguía siendo muy limitado.”
Los agentes de IA han pasado de ser chatbots experimentales a sistemas persistentes integrados en plataformas cripto y de consumo.
En febrero, OpenClaw alcanzó alrededor de 147.000 estrellas en GitHub y dio origen a proyectos como la plataforma de “redes sociales” con IA Moltbook, mientras que Coinbase lanzó “Agentic Wallets” en Base y Fetch.ai afirmó que sus agentes pueden completar compras utilizando la infraestructura de Visa.
Sin embargo, a medida que los agentes obtuvieron acceso raíz y control sobre wallets, Walters dijo que la emoción inicial dio paso a profundas preocupaciones de seguridad.
Mientras desarrolladores en ETHDenver promovían los beneficios de los agentes de IA en cripto, Walters advirtió que, a medida que la IA avanza hacia la AGI, se comporta menos como una máquina predecible y más como un humano falible, haciendo imposible crear salvaguardas a prueba de errores.
“Al final del día, estás lidiando con algo que se parece más a un humano y menos a una calculadora”, dijo. “A veces va a hacer cosas tontas, y simplemente no hay forma de construir un sistema súper seguro que los mantenga alejados de cometer alguna estupidez.”

