Jean-Paul Mari présente :
Le site d'un amoureuxdu grand-reportage

Anthropic: la guerre de l’intelligence artificielle est déclarée

publié le 16/03/2026 par Pierre Feydel

En interdisant l’usage militaire de son application « Claude », Anthropic se met avec Trump à dos et lance la première grande guerre politique de l’IA. Jusqu’où ira le bras de fer ?

Claude, la machine de guerre rêvée du Pentagone

Il s’appelle Claude. Une créature engendrée par l’intelligence artificielle. Il peut analyser des renseignements en temps réel, détecter les anomalies et traiter des masses de données pour planifier des opérations. Le Pentagone l’a adopté l’année dernière et intégré au logiciel Maven de la firme Palantir. Il transforme la guerre, accélère les adaptations tactiques, les décisions stratégiques. Avec l’intelligence artificielle, l’offensive américaine en Iran bouleverse l’art de la guerre. L’IA devient stratégie, initie les opérations. La machine à analyser, réfléchir, proposer à la place de l’homme.

C’est cette technologie qui a planifié l’enlèvement de Maduro et de sa femme au Venezuela. Elle réalise à une vitesse record le travail des états-majors. C’est la société Anthropicqui a donné naissance à Claude. Cette entreprise est l’une des plus prometteuses dans le domaine de l’IA. Fondée en 2021, cette start-up vise une valorisation à 380 milliards de dollars (l’quivalent du PIB du Danemark). Le taux de croissance de son chiffre d’affaires a été multiplié par 14 en trois ans. Claude est son principal atout.

Dario Amodei, un patron en croisade éthique

Mais voilà, les développeurs d’Anthropic – qui veut dire « Fait par un être humain  » – ont des principes. Cette utilisation de leur bébé ne leur a pas du tout plu. Pas question que leur créature serve dans un conflit armé. Dario Amodei, son dirigeant, ne cache pas son opposition au président Trump. Il a financé la candidature de Kamala Harris à la présidentielle de 2024. Il a toujours fait preuve d’une grande prudence sur l’utilisation de l’IA. Et s’il a quitté, avec sa sœur Daniela, OpenAI, le grand du secteur dont il dirigeait la recherche, pour fonder sa propre entreprise, c’est parce qu’il ressentait des divergences profondes quant au développement de l’intelligence artificielle.

Un grand sens des responsabilités devait, selon lui, présider à la création d’outils de réflexion à usage général, presque aussi performants que le cerveau humain. Sam Altman, président d’OpenAI et proche de Donald Trump, n’a pas ces scrupules. La Maison-Blanche et le secrétariat à la Guerre n’ont pas du tout apprécié qu’Anthropic estime que l’IA générative ne puisse pas se transformer en machine de guerre ou en outil de contrôle des populations sans supervision humaine.

Une IA bannie de l’armée américaine

Anthropic a édicté des restrictions d’utilisation par l’armée américaine de son chatbot Claude, donc du logiciel qui permet de dialoguer en langage naturel avec l’utilisateur. Elle ne veut pas qu’il puisse être utilisé pour des usages tels que la surveillance de masse des Américains ou l’emploi d’armes autonomes. La société avait signé avec le Pentagone un contrat de 200 millions de dollars qu’elle préférait donc abandonner. La sanction est vite tombée.

L’administration fédérale a désigné l’entreprise comme « un risque pour la chaîne d’approvisionnement » du département de la Défense. Un bannissement économique qui ne s’étend pas nécessairement à toute l’administration fédérale. Mais l’armée américaine n’a plus le droit d’utiliser Claude. Anthropic considère cette décision comme « sans précédent et illégale ». Et le 9 mars, elle a assigné le gouvernement en justice. Cette mesure brutale et méprisante, typique des méthodes trumpistes, a retenti comme un coup de tonnerre dans le monde de la tech.

OpenAI, Microsoft et la technologie sous pression

Sam Altman, le patron d’OpenAI, le principal concurrent de la victime, et dont le modèle GPT est désormais privilégié par l’armée américaine, avait même demandé qu’une telle sanction ne soit pas imposée à Anthropic. Il a d’ailleurs lui-même des difficultés dans sa propre entreprise. Il y est considéré pour sa complaisance vis-à-vis de l’administration et pour avoir confié ses technologies au Pentagone, à peine Anthropic puni. La directrice générale de la branche robotique de la société de ChatGPT, Caitlin Kalinowski, a démissionnée à cause du contrat avec la Défense.

Il faut aussi noter que le lobby des champions de la tech, l’Information Technology Industry Council, avait défendu Anthropic. Enfin, Microsoft a décidé de soutenir la société de Dario Amodei dans son action en justice contre l’État fédéral. Dans un mémoire d’amicus curiae (littéralement « ami de la cour » ou « intervenant désintéressé »), la firme a demandé au tribunal de bloquer la décision selon laquelle la start-up présenterait un risque pour la chaîne d’approvisionnement.

La bataillemorale du privé contre le pouvoir républicain

En clair, la high-tech américaine est en ébullition. L’éthique, qui est dans ces domaines aussi un argument commercial, s’oppose aux intérêts économiques gigantesques que représente le développement sans frein de l’IA. L’application Claude continue de séduire un public de plus en plus nombreux. L’enjeu est la course à la « superintelligence » qui veut que l’IA superpuissante dépasse l’intelligence humaine. Les résistances se multiplient parmi les meilleurs des chercheurs et des innovateurs du secteur.

Mira Murati, directrice technique d’OpenAI, a elle aussi quitté Sam Altman. Son départ a été suivi de celui du directeur de la recherche et d’un vice-président. Les raisons officielles seraient une réorganisation de la gouvernance de l’entreprise. Pour la première fois, l’affaire Anthropic montre l’opposition affirmée d’une entreprise privée au pouvoir républicain pour des raisons morales. La façon dont cette confrontation se conclura sera déterminante pour savoir si cette technologie, comme le dit Dario Amodei, « peut nuire aux valeurs démocratiques plutôt que les défendre ».


Tous droits réservés "grands-reporters.com"