Société, Culture

Aux États-Unis, bras de fer inédit sur les limites éthiques de la technologie

(SénéPlus) – Le bras de fer entre le Pentagone et la Silicon Valley vient de franchir un nouveau cap d’une intensité rare. Dans une enquête signée par les journalistes Hadas Gold et Haley Britzky, publiée le 24 février 2026 sur CNNon apprend que le secrétaire à la Défense américaine, Pete Hegseth, a lancé un ultimatum spectaculaire à l’entreprise d’intelligence artificielle Anthropic : lever les garde-fous éthiques de son modèle d’IA, sous peine de représailles d’État.

L’enjeu porte sur « Claude », le modèle phare d’intelligence artificielle développé par Anthropic, avec lequel le Pentagone a signé un contrat de 200 millions de dollars. L’armée américaine exige que l’entreprise lève toutes ses restrictions d’usage afin que le modèle puisse être utilisé pour « tout usage légal », rapporte CNN en s’appuyant sur des sources proches du dossier.​

Lors d’une réunion organisée mardi 24 février entre Pete Hegseth et Dario Amodei, le PDG d’Anthropic, le ton est resté « cordial », mais le fond de la discussion s’est révélé brutal. Un responsable du Pentagone a confié à la chaîne américaine que l’entreprise avait jusqu’à ce vendredi à 17h01 pour « s’aligner ou non ».

Le refus d’obtempérer exposerait Anthropic à des sanctions sans précédent. Le département de la Défense menace non seulement de résilier le contrat, mais aussi d’invoquer le Loi sur la production de défense (DPA), une loi datant de la guerre froide, récemment utilisée durant la pandémie, pour contraindre l’entreprise à fournir sa technologie à l’armée, qu’elle le veuille ou non. Pire encore, Pete Hegseth envisage de classer Anthropic comme un « risque pour la chaîne d’approvisionnement » (risque de la chaîne d’approvisionnement), un label infamant habituellement réservé aux entreprises liées à des adversaires étrangers comme la Russie ou la Chine.

Les lignes rouges d’Anthropic : armes autonomes et surveillance de masse

Si Anthropic refuse de plier, c’est en raison de deux lignes rouges fondamentales que l’entreprise refuse de franchiser : l’utilisation de son IA pour contrôler des systèmes d’armement et son déploiement à des fins de surveillance intérieure massive des citoyens américains. Selon une source citée par CNNla startup estime que l’IA n’est pas encore suffisamment fiable pour le fonctionnement des armes, et s’inquiète du vide juridique entourant la surveillance de masse par l’intelligence artificielle.

Du côté du Pentagone, on balaye ces inquiétudes. Le responsable intégré par CNN assure que le litige n’a « rien à voir avec la surveillance de masse ou l’utilisation d’armes autonomes », et que le ministère « a toujours respecté la loi ». Sa ligne de défense est claire : « La légalité relève de la responsabilité du Pentagone en tant qu’utilisateur final. »​

La menace du Pentagone soulève d’importantes questions juridiques et logiques. Katie Sweeten, avocate et ancienne agente de liaison entre le ministère de la Justice et le Pentagone, souligne le paradoxe de la démarche auprès de CNN : « Je suppose que nous ne voulons pas utiliser une technologie qui représente un risque pour la chaîne d’approvisionnement, n’est-ce pas ? Donc je ne vois pas comment concilier cela. Il semble que l’argument du risque pour la chaîne d’approvisionnement ne soit pas légitime, mais plutôt punitif parce qu’ils refusent de se soumettre. »​

Cette qualification de « risque » serait dévastatrice pour Anthropic, car elle interdirait à toute entreprise sous contrat avec la Défense américaine d’utiliser ses produits dans le cadre de ses activités militaires. Un coup dur pour cette entreprise créée par d’anciens employés d’OpenAI, qui s’est toujours positionnée comme la championne de la sécurité en matière d’intelligence artificielle.​

Si Anthropic maintient sa position, la crise pourrait profiter à ses concurrents. Le Pentagone a d’ailleurs confirmé que l’entreprise xAI, fondée par Elon Musk, était quant à elle « prête à opérer dans un environnement classifié ».

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button