Anthropic’s Lawsuit Should Absolutely Destroy the Pentagon in Court

https://www.profitableratecpm.com/f4ffsdxe?key=39b1ebce72f3758345b2155c98e6709c

Politique


/
11 mars 2026

Mais ne vous y trompez pas : l’entreprise ne fait pas partie des gentils.

Anthropic’s Lawsuit Should Absolutely Destroy the Pentagon in Court

Le PDG d’Anthropic, Dario Amodei, le directeur des produits Mike Krieger et la responsable de la communication Sasha de Marigny donnent une conférence de presse le 22 mai 2025.

(Julie Jammot / AFP via Getty Images)

Anthropic, créateur du modèle d’IA « Claude », a poursuivi le ministère de la Défense dans le cadre de deux poursuites distinctes, dont une alléguant que le gouvernement violait les droits du premier amendement. Le conflit a éclaté la semaine dernière lorsque l’administration Trump a qualifié l’entreprise de « risque pour la chaîne d’approvisionnement » et a interdit aux agences gouvernementales, ou à toute entité travaillant avec l’armée américaine, d’utiliser le système Claude. L’administration Trump considère désormais Claude comme un risque pour la sécurité nationale. (Le deuxième procès conteste cette désignation qui, jusqu’à présent, n’a jamais été utilisée contre une entreprise américaine.)

La mise sur liste noire fait suite à des mois de combats entre Anthropic et le gouvernement. Anthropic veut maintenir des « garde-fous » sur Claude qui empêchent que le système soit utilisé pour alimenter des armes autonomes – essentiellement, des machines à tuer capables de mener des opérations militaires sans implication humaine – et pour s’engager dans une surveillance généralisée des Américains. L’administration Trump souhaite que l’entreprise assouplisse ces garanties. De toute évidence, le secrétaire aux crimes de guerre, Pete Hegseth, veut les robots tueurs maintenant, et il n’aime pas qu’Anthropic se mette en travers de son chemin.

Le gouvernement a menacé à plusieurs reprises Anthropic de conséquences s’il ne supprimait pas ses restrictions de sécurité. Il semblerait que la désignation de risque pour la chaîne d’approvisionnement et la liste noire associée soient ces conséquences.

Tout cela devrait faire du procès Anthropic un coup sûr, du moins pour la partie du Premier Amendement, en supposant qu’il y ait encore des juges et des juges disposés à tenir l’administration Trump responsable devant la Constitution, même dans le domaine de la sécurité nationale. La plainte d’Anthropic constitue un argument assez clair en faveur d’une violation du premier amendement (je connais moins bien l’autre affirmation, même si mon hypothèse, basée sur des antécédents antérieurs, est que l’administration Trump viole effectivement toutes les lois qu’elle est accusée d’avoir violée).

Les faits simples sont les suivants : le gouvernement voulait qu’Anthropic fasse faire quelque chose à son IA. Anthropic ne voulait pas que son IA le fasse, à cause de ses croyances, et ces croyances sont protégées par le Premier Amendement. Le gouvernement a puni Anthropic avec une désignation défavorable à la sécurité nationale, parce que l’entreprise ne voulait pas faire ce que le gouvernement voulait. C’est une violation de la liberté d’expression.

Cela aurait été une chose si le gouvernement avait simplement décidé de recourir à un autre fournisseur d’IA ou, Dieu nous en préserve, s’il avait cessé d’utiliser l’IA à des fins militaires. Cela ne violerait pas le premier amendement ; ce serait simplement que le gouvernement choisisse d’utiliser un service différent. Mais le gouvernement ne s’est pas contenté de confier ses affaires ailleurs : il a décidé de punir Anthropique en le déclarant une menace à la sécurité nationale.

Numéro actuel

Couverture du numéro d'avril 2026

Comme cela arrive si souvent, l’incapacité chronique de Donald Trump à se taire même lorsqu’il viole la Constitution devrait aider Anthropic à plaider en sa faveur. Sur les réseaux sociaux, il a qualifié Anthropic de « hors de contrôle » et de « GAUCHE RADICALE, ENTREPRISE RÉVEILLÉE » de « boulots de cinglés de gauche ». Il ne dit pas que l’entreprise n’est plus en mesure de fournir un service utile au gouvernement ; il dit que le gouvernement met l’entreprise sur une liste noire en raison de ses opinions politiques.

Hegseth a doublé ces commentaires. Selon la plainte, lorsque Hegseth a émis l’ordre de mettre sur liste noire, il « a dénoncé ce qu’il a qualifié d’« idéologie de la Silicon Valley », d’« altruisme défectueux », de « signalement de la vertu des entreprises » et de « classe de maître en arrogance ». Et il a critiqué Anthropic pour ne pas être « plus patriotique ».

Tout cela viole le premier amendement. Le DOD peut faire appel à n’importe quel fournisseur de services de son choix, mais il ne peut pas donner à une entreprise une désignation juridique défavorable par manque de « patriotisme ». Punir les gens qui n’agitent pas suffisamment le drapeau est l’une des choses pour lesquelles le premier amendement a été conçu.

Il existe une jurisprudence récente, émanant en outre de la Cour suprême contrôlée par Trump, qui devrait également aider la cause d’Anthropic. Dans National Rifle Association c.Vullola NRA a fait valoir avec succès que la surintendante du Département des services financiers de l’État de New York, Maria Vullo, avait fait pression sur les banques et les compagnies d’assurance pour qu’elles cessent de faire affaire avec la NRA et d’autres groupes pro-armes à la suite de la fusillade de Sandy Hook. La Cour suprême a statué que cela violait les droits du premier amendement de la NRA, affirmant essentiellement que l’État de New York utilisait son pouvoir pour retirer des affaires à la NRA parce que New York n’aimait pas ce que représente la NRA.

Soit dit en passant, cette décision était de 9-0. L’opinion unanime a été rédigée par la juge Sonia Sotomayor, qui n’est pas exactement du côté ammosexuel du spectre. Mais : Essayer d’écraser une entreprise parce que le gouvernement n’aime pas ce que fait l’entreprise est une violation classique du Premier Amendement. Je suppose que les juges qui traitent Trump comme Dieu sur les questions de sécurité nationale (le juge en chef John Roberts et les juges Clarence Thomas, Sam Alito et le présumé violeur Brett Kavanaugh) trouveront un moyen de revenir sur leurs points de vue. Vullo et décidez que le premier amendement n’a pas d’importance lorsque Trump veut que votre entreprise automatise le meurtre de personnes, mais cela n’apporte quand même que quatre voix à l’administration Trump.

Anthropique devrait gagner, mais voici le problème : ce n’est pas exactement l’un des bons. Oui, la génération actuelle de criminels de guerre qui dirigent le gouvernement veut des choses horribles, mais Anthropic veut surtout les fournir. Ce n’est pas, après tout, comme s’il n’avait pas recherché les 200 000 milliards de dollars de contrats que le gouvernement tente maintenant de lui retirer. Et les dirigeants de l’entreprise se sont mis en quatre pour dire à quel point ils sont « patriotiques » et à quel point ils croient à l’utilisation de l’IA pour la sécurité nationale. Ils disent essentiellement qu’ils laisseront Claude faire autre chose que d’appuyer sur la gâchette :

Anthropic a donc travaillé de manière proactive pour déployer nos modèles auprès du ministère de la Guerre et de la communauté du renseignement. Nous avons été la première entreprise d’IA de pointe à déployer nos modèles dans les réseaux classifiés du gouvernement américain, la première à les déployer dans les laboratoires nationaux et la première à fournir des modèles personnalisés aux clients de la sécurité nationale. Claude est largement déployé au sein du ministère de la Guerre et d’autres agences de sécurité nationale pour des applications critiques, telles que l’analyse du renseignement, la modélisation et la simulation, la planification opérationnelle, les cyber-opérations, etc.

L’entreprise souhaite aider l’administration Trump à faire presque toutes les mauvaises choses qu’elle souhaite faire. Et il est heureux de jouer le jeu dans des domaines à la fois grands et très petits (voir ses références répétées et insinuantes au « Département de la Guerre »).

Voici ma lecture : j’ai l’impression qu’Anthropic essaie simplement de conserver un déni plausible lorsque, inévitablement, son système est utilisé de la manière la plus large possible. évidemment manière flagrante. Pensez-y de cette façon : lorsque Claude tue la « mauvaise » personne (ou, plus probablement, un village plein de monde), le procès ne s’adressera pas uniquement au gouvernement américain ; il s’agira également d’un procès destructeur d’entreprise intenté contre Anthropic. Et je parierai tout le financement en capital-risque de Claude que le gouvernement tentera de rejeter la responsabilité de tout incident violent sur Anthropic et non sur les gars ivres qui dirigent le ministère de la Défense. Toute leur rhétorique et leurs protocoles de sécurité sur ce pour quoi Claude ne devrait pas être utilisé me semblent plus qu’autre chose comme un bouclier de responsabilité en matière d’alerte précoce.

Anthropic me semble être les gars qui ont divisé l’atome et ont ensuite dit : “Mais nous allons utiliser cela uniquement à des fins scientifiques, pas pour fabriquer… des bombes qui pourraient détruire toute la civilisation humaine, n’est-ce pas ? N’est-ce pas, Robbie Oppenheimer ?” Bien sûr, vous pouvez vouloir que votre technologie « ne soit utilisée que pour de bon », mais… ce n’est pas ainsi que la technologie fonctionne. Et ce n’est certainement pas ainsi que fonctionne la machine de guerre américaine.

La meilleure chose qui pourrait arriver serait d’empêcher le DOD d’utiliser une IA létale autonome et de surveiller le public américain. par un acte du Congrèset non par la défense des droits du premier amendement d’Anthropic. Cette situation nécessite une législation, et non une décision de la Cour suprême à 5 voix contre 4 sur la question de savoir si le gouvernement peut mettre sur liste noire les entreprises qui ne répondent pas à ses attentes.

L’administration Trump ne devrait pas être en mesure de répertorier une entreprise comme une menace à la sécurité nationale, car elle ne fabriquera pas de terminateurs. Mais même si Anthropic (pour l’instant) ne souhaite pas que sa technologie soit utilisée de cette façon, la prochaine entreprise n’y verra pas de problème. OpenAI, créateur de ChatGPT, tente déjà de combler le vide laissé par Claude.

Finalement, on nous dira que nous avons simplement devoir fabriquer des robots tueurs autonomes parce que les Chinois, les Russes ou les Klingons le font déjà et nous ne pouvons pas prendre du retard.

Comme d’habitude, Terminateur 2 prédit tout cela.

John Connor : “Nous n’y arriverons pas, n’est-ce pas ? Les gens, je veux dire.”

Terminator : « C’est dans votre nature de vous détruire. »

Même avant le 28 février, les raisons de l’implosion de la cote de popularité de Donald Trump étaient on ne peut plus claires : une corruption effrénée et un enrichissement personnel à hauteur de milliards de dollars pendant une crise d’accessibilité financière, une politique étrangère guidée uniquement par son propre sens moral abandonné et le déploiement d’une campagne meurtrière d’occupation, de détention et de déportation dans les rues américaines.

Aujourd’hui, une guerre d’agression non déclarée, non autorisée, impopulaire et inconstitutionnelle contre l’Iran s’est répandue comme une traînée de poudre dans la région et en Europe. Une nouvelle « guerre éternelle » – avec une probabilité toujours croissante de troupes américaines sur le terrain – pourrait très bien être à nos portes.

Comme nous l’avons vu à maintes reprises, cette administration utilise des mensonges, des erreurs d’orientation et tente d’inonder la zone pour justifier ses abus de pouvoir dans le pays et à l’étranger. Tout comme Trump, Marco Rubio et Pete Hegseth proposent des justifications erratiques et contradictoires pour justifier les attaques contre l’Iran, l’administration répand également le mensonge selon lequel les prochaines élections de mi-mandat sont menacées par les non-citoyens inscrits sur les listes électorales. Lorsque ces mensonges ne sont pas contrôlés, ils deviennent la base d’un nouvel empiétement autoritaire et d’une nouvelle guerre.

En ces temps sombres, le journalisme indépendant est le seul à pouvoir découvrir les mensonges qui menacent notre république – et les civils du monde entier – et mettre en lumière la vérité.

La nationL’équipe expérimentée de rédacteurs, d’éditeurs et de vérificateurs de faits de comprend l’ampleur de ce à quoi nous sommes confrontés et l’urgence avec laquelle nous devons agir. C’est pourquoi nous publions des reportages et des analyses critiques sur la guerre contre l’Iran, la violence de l’ICE dans le pays, les nouvelles formes de suppression des électeurs qui émergent dans les tribunaux, et bien plus encore.

Mais ce journalisme n’est possible qu’avec votre soutien.

Ce mois de mars, La nation doit collecter 50 000 $ pour garantir que nous disposons des ressources nécessaires pour produire des rapports et des analyses qui remettent les pendules à l’heure et donnent aux personnes de conscience les moyens de s’organiser. Ferez-vous un don aujourd’hui ?

Elie Mystal



Elie Mystal est La nationcorrespondant de justice et chroniqueur. Il est également Alfred Knobler Fellow au Type Media Center. Il est l’auteur de deux livres : le New York Times best-seller Permettez-moi de répliquer : un guide de la Constitution destiné aux hommes noirs et Mauvaises lois : dix lois populaires qui ruinent l’Amériquetous deux publiés par The New Press. Vous pouvez vous abonner à son Nation newsletter « Elie c. US » ici.

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button