En resumen

  • Harari afirmó que la IA debe entenderse como agentes autónomos activos en vez de una herramienta pasiva.
  • Advirtió que los sistemas basados principalmente en palabras, como la religión, la ley y las finanzas, enfrentan una mayor exposición a la IA.
  • Harari instó a los líderes a decidir si tratar a los sistemas de IA como personas legales antes de que esas decisiones sean tomadas por otros.

El historiador y autor Yuval Noah Harari advirtió en el Foro Económico Mundial el martes que la humanidad corre el riesgo de perder el control sobre el lenguaje, al que llamó su “superpoder” definitorio, ya que la inteligencia artificial opera cada vez más mediante agentes autónomos en lugar de herramientas pasivas.

El autor de “Sapiens”, Harari, se ha convertido en una voz frecuente en los debates globales sobre las implicaciones sociales de la inteligencia artificial. Sostuvo que los códigos legales, los mercados financieros y la religión organizada dependen casi enteramente del lenguaje, lo que los deja especialmente expuestos a las máquinas que pueden generar y manipular texto a gran escala.

“Los humanos conquistaron el mundo no porque seamos los más fuertes físicamente, sino porque descubrimos cómo usar las palabras para lograr que miles, millones y miles de millones de desconocidos cooperen”, dijo. “Ese fue nuestro superpoder.”

Harari señaló religiones basadas en textos sagrados, como el judaísmo, el cristianismo y el islam, argumentando que la capacidad de la IA para leer, retener y sintetizar grandes cuerpos de escritos podría convertir a las máquinas en los intérpretes más autorizados de las escrituras.

“Si las leyes están hechas de palabras, entonces la IA se apoderará del sistema legal”, dijo. “Si los libros son solo combinaciones de palabras, entonces la IA se apoderará de los libros. Si la religión está construida de palabras, entonces la IA se apoderará de la religión.”

En Davos, Harari también comparó la expansión de los sistemas de IA con una nueva forma de inmigración, y dijo que el debate sobre esta tecnología pronto se centrará en si los gobiernos deberían otorgar personalidad jurídica a los sistemas de IA. Varios estados, incluidos Utah, Idaho y Dakota del Norte, ya han aprobado leyes que establecen explícitamente que la IA no puede ser considerada una persona según la ley.

Harari concluyó sus comentarios advirtiendo a los líderes globales que actúen rápidamente en materia de leyes sobre la IA y que no asuman que la tecnología seguirá siendo un sirviente neutral. Comparó la actual presión por adoptar la tecnología con casos históricos en los que mercenarios luego tomaron el poder.

“Dentro de diez años, será demasiado tarde para decidir si las IAs deberían funcionar como personas en los mercados financieros, en los tribunales, en las iglesias”, dijo. “Alguien más ya habrá tomado esa decisión por ti. Si quieres influir en el rumbo de la humanidad, tienes que tomar una decisión ahora.”

Los comentarios de Harari pueden resultar alarmantes para quienes temen la expansión de la IA, pero no todos estuvieron de acuerdo con su enfoque. La profesora Emily M. Bender, lingüista de la Universidad de Washington, afirmó que posicionar los riesgos como lo hace Harari solo desvía la atención de los actores humanos e instituciones responsables de construir y desplegar los sistemas de IA.

“Me parece que realmente es un intento de ofuscar las acciones de las personas y corporaciones que construyen estos sistemas”, dijo Bender a

Decrypt
en una entrevista
.
“Y también una exigencia de que todos simplemente renunciemos a nuestros propios derechos humanos en muchos ámbitos, incluido el derecho a nuestros idiomas, a los caprichos de estas empresas bajo la apariencia de estos llamados sistemas de inteligencia artificial.”

Bender rechazó la idea de que “inteligencia artificial” describa una categoría clara o neutral de tecnología.

“El término inteligencia artificial no se refiere a un conjunto coherente de tecnologías”, dijo. “Es, en efecto, y siempre ha sido, un término de marketing”, agregando que los sistemas diseñados para imitar profesionales como médicos, abogados o clérigos carecen de casos de uso legítimos.

“¿Cuál es el propósito de algo que puede sonar como un médico, un abogado, un clérigo, etc.?” dijo Bender. “El propósito allí es el fraude. Punto.”

Mientras Harari señalaba el uso creciente de agentes de IA para gestionar cuentas bancarias e interacciones empresariales, Bender dijo que el riesgo radica en la facilidad con la que las personas confían en salidas generadas por máquinas que parecen autoritativas, pero carecen de responsabilidad humana.

“Si tienes un sistema al que puedes hacerle una pregunta y recibes algo que parece una respuesta—pero que está desprovista de contexto y de toda responsabilidad por la respuesta, aunque se presenta como si viniera de un oráculo omnisciente—puedes ver por qué la gente querría que eso existiera”, dijo Bender. “Creo que hay mucho riesgo de que las personas comiencen a orientarse hacia ello y usen esa salida para moldear sus propias ideas, creencias y acciones.”