Em resumo
- Harari afirmou que a IA deve ser entendida como agentes autônomos ativos, em vez de uma ferramenta passiva.
- Ele alertou que sistemas baseados principalmente em palavras, incluindo religião, lei e finanças, enfrentam maior exposição à IA.
- Harari exortou os líderes a decidirem se devem tratar sistemas de IA como pessoas jurídicas antes que essas escolhas sejam feitas por eles.
O historiador e autor Yuval Noah Harari alertou no Fórum Econômico Mundial na terça-feira que a humanidade está em risco de perder o controle sobre a linguagem, que ele chamou de seu “superpoder” definidor, à medida que a inteligência artificial opera cada vez mais por meio de agentes autônomos em vez de ferramentas passivas.
O autor de “Sapiens”, Harari tornou-se uma voz frequente nos debates globais sobre as implicações sociais da inteligência artificial. Ele argumentou que códigos legais, mercados financeiros e religiões organizadas dependem quase inteiramente da linguagem, deixando-os especialmente expostos a máquinas que podem gerar e manipular texto em grande escala.
“Os humanos dominaram o mundo não porque somos fisicamente mais fortes, mas porque descobrimos como usar palavras para fazer milhares, milhões e bilhões de desconhecidos cooperarem”, ele disse. “Esse era nosso superpoder.”
Harari apontou para religiões fundamentadas em textos sagrados, incluindo o Judaísmo, o Cristianismo e o Islã, argumentando que a capacidade da IA de ler, reter e sintetizar vastos volumes de escritos pode tornar as máquinas os intérpretes mais autoritários das escrituras.
“Se as leis são feitas de palavras, então a IA assumirá o sistema jurídico”, disse ele. “Se os livros são apenas combinações de palavras, então a IA assumirá os livros. Se a religião é construída a partir de palavras, então a IA assumirá a religião.”
Em Davos, Harari também comparou a disseminação de sistemas de IA a uma nova forma de imigração, e disse que o debate em torno da tecnologia em breve se concentrará em saber se os governos devem conceder personalidade jurídica aos sistemas de IA. Vários estados, incluindo Utah, Idaho e Dakota do Norte, já aprovaram leis declarando explicitamente que a IA não pode ser considerada uma pessoa perante a lei.
Harari encerrou suas observações alertando líderes globais para agirem rapidamente em relação às leis sobre IA e não assumirem que a tecnologia permanecerá um servo neutro. Ele comparou o impulso atual para adotar a tecnologia a casos históricos em que mercenários posteriormente tomaram o poder.
“Daqui a dez anos, será tarde demais para você decidir se as IAs devem funcionar como pessoas nos mercados financeiros, nos tribunais, nas igrejas”, disse ele. “Alguém já terá decidido isso por você. Se você quer influenciar para onde a humanidade está indo, precisa tomar uma decisão agora.”
Os comentários de Harari podem impactar fortemente aqueles que temem o avanço da IA, mas nem todos concordaram com sua abordagem. A professora Emily M. Bender, linguista da Universidade de Washington, disse que posicionar os riscos como Harari fez apenas desvia a atenção dos atores humanos e instituições responsáveis por construir e implantar sistemas de IA.
“Para mim, parece realmente uma tentativa de ofuscar as ações das pessoas e corporações que constroem esses sistemas”, disse Bender ao
Bender rejeitou a ideia de que “inteligência artificial” descreve uma categoria clara ou neutra de tecnologia.
“O termo inteligência artificial não se refere a um conjunto coerente de tecnologias”, disse ela. “É, efetivamente, e sempre foi, um termo de marketing”, acrescentando que sistemas projetados para imitar profissionais como médicos, advogados ou clérigos carecem de casos de uso legítimos.
“Qual é o propósito de algo que pode soar como um médico, um advogado, um religioso, e assim por diante?” disse Bender. “O propósito aí é fraude. Ponto final.”
Enquanto Harari apontou o uso crescente de agentes de IA para gerenciar contas bancárias e interações comerciais, Bender disse que o risco está em como as pessoas rapidamente confiam em respostas geradas por máquinas que parecem autoritativas—mas carecem de responsabilidade humana.
“Se você tem um sistema onde pode fazer uma pergunta e receber algo de volta que parece uma resposta—desprovido de contexto e de qualquer responsabilidade pela resposta, mas posicionado como se viesse de algum oráculo onisciente—você pode ver como as pessoas gostariam que isso existisse”, disse Bender. “Acho que há muito risco de as pessoas começarem a se orientar para isso e usar essas respostas para moldar suas próprias ideias, crenças e ações.”


