Depois de entrar em conflito com o Ministério da Defesa, a parceria entre Anthropic e Palantir também está para ser desfeita.
Uma ordem do Pentágono não apenas fez com que a Anthropic, unicórnio de IA, perdesse um grande contrato militar, mas também desencadeou um efeito dominó, obrigando o gigante de dados “de confiança” do governo americano, Palantir, a considerar romper totalmente com a empresa.
Segundo a reportagem mais recente do The Information, por mais de um ano, a Anthropic vem fornecendo serviços ao governo dos EUA através da Palantir. Os clientes da Palantir utilizam os modelos da Anthropic para identificar padrões em vastos conjuntos de dados confidenciais, auxiliando na tomada de decisões. Contudo, com o Departamento de Defesa classificando a Anthropic como “risco de cadeia de suprimentos”, essa relação de cooperação está em risco.
Como um dos contratantes favoritos do governo, a Palantir teve cerca de 42% de seus quase US$ 4,5 bilhões em receita no ano passado provenientes de contratos governamentais americanos. Caso a Palantir deixe de usar a Anthropic em seu trabalho federal, isso cortaria uma fonte de renda desta startup de IA. Embora essa parte das vendas tenha pouca contribuição para a receita prevista de até US$ 18 bilhões da Anthropic este ano, perder a Palantir como importante parceira seria um golpe para a expansão da Anthropic no mercado de grandes clientes.
Palantir pode ter de modificar software, CEO critica Anthropic indiretamente
Segundo informações da mídia citando fontes internas, a Palantir oferece softwares personalizados e aplicativos de IA para seus clientes, sendo que alguns deles foram concebidos para funcionar com o modelo Claude, da Anthropic. Se decidir abandonar o Claude, a Palantir terá de modificar seus serviços, o que pode levar algumas semanas. Porém, a Palantir poderá recorrer a outros fornecedores de modelos de IA e gerar receitas similares através desses contratos.
Alex Karp, CEO da Palantir, pareceu criticar a Anthropic de forma indireta durante uma cúpula de tecnologia de defesa realizada em Washington, na última terça-feira. Ele repreendeu o Vale do Silício por se opor às forças armadas americanas, alertando que empresas de IA correm o risco de irritar liberais e conservadores.
“Se o Vale do Silício acha que vamos tirar todos os empregos de colarinho branco... e que ainda vão prejudicar os militares, se você não acha que isso vai levar à nacionalização da nossa tecnologia, você é um idiota,” disse Karp. “É para aí que esse caminho está levando.”
Anthropic planeja ação legal e tenta tranquilizar clientes
Na última sexta-feira, depois de um impasse com a Anthropic sobre as restrições ao uso militar de sua IA, o secretário de Defesa Pete Hegseth afirmou ter instruído o governo a declarar a Anthropic como “risco de cadeia de suprimentos”.
O Pentágono exigiu que a Anthropic licenciasse o Claude para “todos os usos legais”, mas a companhia recusou, por temores de “vigilância massiva” e “armas totalmente autônomas”.
O presidente americano Donald Trump postou na Truth Social na última sexta-feira que departamentos como o de Defesa terão “um período de eliminação gradual de seis meses” para o uso de produtos da Anthropic.
O CEO da Anthropic, Dario Amodei, argumentou que essa classificação “deveria se limitar ao uso do Claude como parte de contratos do Departamento da Guerra (termo preferido do governo Trump para o Departamento de Defesa)”. Especialistas jurídicos afirmam que a Anthropic pode totalmente contestar essa decisão, em parte porque geralmente a legislação se aplica a empresas não americanas.
De acordo com informações da mídia citando fontes internas, a Anthropic afirmou na última sexta-feira que tomará medidas legais contra a classificação de risco da cadeia de suprimentos. Como essa decisão ainda não entrou em vigor formalmente, a Anthropic ainda não iniciou qualquer ação judicial.
A Anthropic está tentando tranquilizar clientes e parceiros comerciais, dizendo que a medida do Departamento de Defesa (caso implementada) apenas restringirá o uso de sua tecnologia por contratantes do governo em trabalhos militares nos EUA, e não por toda empresa que colabore com o governo federal.
Contratantes federais aguardam orientação do governo
Segundo fontes conhecedoras dos produtos da Palantir citadas pela mídia, atualmente a Palantir permite que os clientes escolham entre diferentes fornecedores de modelos de IA, incluindo Anthropic, OpenAI e Google, para analisar os dados coletados em sua plataforma. O Pentágono está usando modelos da Anthropic hospedados na Amazon Web Services (AWS), integrados ao software da Palantir.
Informantes familiarizados com o uso desses produtos pelo Pentágono revelaram que, além do modelo da Anthropic, o Pentágono já está usando modelos de OpenAI, Google e outros fornecedores através do software da Palantir.
Funcionários de empresas de tecnologia que mantêm negócios com o governo dizem que, até esta semana, contratantes federais aguardam orientação oficial sobre como e se devem cortar vínculos com a Anthropic para manter seus contratos federais.
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
Empresas de stablecoin fazem grandes apostas em transações de agentes de IA que ainda são raras

Em gráficos: O impacto da crise do Irã no comércio internacional


Black Swan Capitalist emite um alerta crítico para os detentores de XRP
