En resumen

  • Harari dijo que la inteligencia artificial debe entenderse como agentes activos y autónomos en lugar de una herramienta pasiva.
  • Advirtió que los sistemas basados principalmente en palabras, incluyendo la religión, la ley y las finanzas, enfrentan una mayor exposición a la inteligencia artificial.
  • Harari instó a los líderes a decidir si tratar a los sistemas de IA como personas jurídicas antes de que esas decisiones se tomen por ellos.

El historiador y autor Yuval Noah Harari advirtió el martes en el Foro Económico Mundial que la humanidad está en riesgo de perder el control sobre el lenguaje, al que llamó su “superpoder” definitorio, ya que la inteligencia artificial opera cada vez más a través de agentes autónomos en vez de herramientas pasivas.

El autor de “Sapiens”, Harari, se ha convertido en una voz frecuente en los debates globales sobre las implicancias sociales de la inteligencia artificial. Argumentó que los códigos legales, los mercados financieros y la religión organizada dependen casi totalmente del lenguaje, lo que los deja especialmente expuestos a las máquinas que pueden generar y manipular texto a gran escala.

“Los humanos dominamos el mundo no porque seamos físicamente los más fuertes, sino porque descubrimos cómo usar las palabras para lograr que miles, millones y miles de millones de desconocidos cooperen”, dijo. “Ese fue nuestro superpoder.”

Harari señaló religiones basadas en textos sagrados, incluyendo el judaísmo, el cristianismo y el islam, argumentando que la habilidad de la IA para leer, retener y sintetizar grandes corpus de escritura podría hacer que las máquinas sean los intérpretes más autoritarios de las escrituras.

“Si las leyes están hechas de palabras, entonces la IA se apoderará del sistema legal”, dijo. “Si los libros son solo combinaciones de palabras, la IA se apoderará de los libros. Si la religión está construida de palabras, la IA se apoderará de la religión.”

En Davos, Harari también comparó la expansión de los sistemas de IA con una nueva forma de inmigración, y dijo que el debate sobre la tecnología pronto se enfocará en si los gobiernos deben conceder personalidad jurídica a los sistemas de IA. Varios estados, incluyendo Utah, Idaho y Dakota del Norte, ya han aprobado leyes que establecen expresamente que la IA no puede considerarse una persona según la ley.

Harari cerró sus comentarios advirtiendo a los líderes globales que actúen rápido en materia de leyes sobre inteligencia artificial y no asuman que la tecnología seguirá siendo un sirviente neutral. Comparó el impulso actual de adoptar la tecnología con casos históricos en los que mercenarios terminaron tomando el poder.

“Dentro de diez años, será demasiado tarde para que decidan si las IAs deben funcionar como personas en los mercados financieros, en los tribunales, en las iglesias”, dijo. “Alguien más ya lo habrá decidido por ustedes. Si quieren influir en el rumbo de la humanidad, tienen que tomar una decisión ahora.”

Los comentarios de Harari pueden impactar a quienes temen la creciente expansión de la IA, pero no todos estuvieron de acuerdo con su enfoque. La profesora Emily M. Bender, lingüista de la Universidad de Washington, dijo que plantear los riesgos como lo hizo Harari solo desvía la atención de los actores humanos e instituciones responsables de construir y desplegar sistemas de IA.

“Me parece que en realidad es un intento de oscurecer las acciones de las personas y las empresas que construyen estos sistemas”, dijo Bender a

Decrypt
en una entrevista
.
“Y también una exigencia de que todos nosotros simplemente renunciemos a nuestros propios derechos humanos en muchos ámbitos, incluyendo el derecho a nuestras lenguas, al capricho de estas empresas bajo la apariencia de estos supuestos sistemas de inteligencia artificial.”

Bender rechazó la idea de que “inteligencia artificial” describa una categoría clara o neutral de tecnología.

“El término inteligencia artificial no se refiere a un conjunto coherente de tecnologías”, dijo. “Es, en efecto, y siempre lo ha sido, un término de marketing”, agregando que los sistemas diseñados para imitar profesionales como médicos, abogados o clérigos carecen de casos de uso legítimos.

“¿Cuál es el propósito de algo que puede sonar como un médico, un abogado, un clérigo, etc.?” dijo Bender. “El propósito ahí es el fraude. Punto.”

Mientras Harari señalaba el uso creciente de agentes de IA para gestionar cuentas bancarias e interacciones empresariales, Bender dijo que el riesgo está en cuán fácilmente la gente confía en resultados generados por máquinas que parecen autoritativos, pero carecen de responsabilidad humana.

“Si tienes un sistema al que podés consultar con una pregunta y recibís algo que parece una respuesta—que está despojada de su contexto y de cualquier responsabilidad por la respuesta, pero presentada como si proviniera de algún oráculo que todo lo sabe—entonces se puede ver por qué la gente querría que eso exista”, dijo Bender. “Creo que hay mucho riesgo de que la gente comience a orientarse hacia eso y utilice esa salida para moldear sus propias ideas, creencias y acciones.”