2.3 C
Kóka
sábado, 7 março, 2026 10:43: am
spot_img
Inicio América do Norte Pentágono declara startup Anthropic como risco de segurança nacional

Pentágono declara startup Anthropic como risco de segurança nacional

Designação inédita para empresa americana exige que fornecedores de defesa interrompam uso da inteligência artificial Claude

0

Washington, Distrito de Colúmbia, Estados Unidos. 7 de março de 2026. Associated Press (AP) – A startup americana de inteligência artificial Anthropic anunciou que foi oficialmente designada pelo Departamento de Defesa dos Estados Unidos como um “risco de cadeia de suprimentos para a segurança nacional da América”. De acordo com a imprensa local, esta é a primeira vez que tal classificação é aplicada a uma empresa sediada em solo americano, visto que, historicamente, o termo tem sido reservado para adversários estrangeiros.

O CEO da Anthropic, Dario Amodei, declarou em um comunicado emitido na quinta-feira que a empresa foi notificada por meio de uma carta enviada pelo Pentágono na quarta-feira. Amodei afirmou que a companhia não acredita que a ação tenha base legal sólida e que não resta outra alternativa senão contestar a decisão nos tribunais.

“Não acreditamos que esta ação seja legalmente fundamentada e não vemos outra escolha a não ser contestá-la judicialmente para proteger nossa integridade e tecnologia.”

A designação impõe restrições severas, exigindo que todos os vendedores e contratados da área de defesa certifiquem que não utilizam os produtos da Anthropic em suas operações. O impasse ocorre após a empresa insistir que o Pentágono não deveria utilizar seu modelo de inteligência artificial, o Claude, para o desenvolvimento de armas totalmente autônomas ou para a vigilância em massa de cidadãos americanos.

Por outro lado, a administração de Donald Trump vinha exigindo que a tecnologia fosse disponibilizada para todos os fins considerados lícitos pelo governo. Relatos da mídia indicam que o modelo Claude foi utilizado em operações militares recentes conduzidas pelos Estados Unidos contra a Venezuela e o Irã, o que teria acirrado as tensões entre os desenvolvedores da IA e as autoridades de defesa.

A medida é vista como um divisor de águas na relação entre as gigantes da tecnologia do Vale do Silício e o setor militar, sinalizando um controle governamental mais rígido sobre o uso de algoritmos avançados em conflitos.

Especialistas jurídicos preveem que o caso poderá chegar à Suprema Corte, uma vez que redefine os limites da autoridade do Departamento de Defesa sobre empresas de tecnologia domésticas. Enquanto o processo judicial não avança, o setor de defesa corre para substituir sistemas que dependiam da arquitetura da Anthropic para evitar sanções contratuais.

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here

Este site utiliza o Akismet para reduzir spam. Saiba como seus dados em comentários são processados.