Anthropic a remporté une victoire judiciaire précoce majeure après qu'un juge fédéral de San Francisco a accordé à la startup d'IA sa demande d'injonction préliminaire, bloquant temporairement l'administration Trump d'appliquer des actions qui ont mis l'entreprise sur liste noire et restreint les agences fédérales d'utiliser ses modèles Claude.
La juge de district américaine Rita Lin a constaté qu'Anthropic avait démontré une probabilité de succès sur les aspects essentiels de son dossier, écrivant que les actions du gouvernement semblaient plus punitives que motivées par la sécurité. Reuters a rapporté que Lin a déclaré que punir Anthropic pour avoir attiré l'attention du public sur la position contractuelle du gouvernement semblait être une représailles illégales au titre du Premier Amendement.
L'ordonnance interdit à l'administration, pour le moment, de mettre en œuvre ou d'appliquer la directive du président Donald Trump contre Anthropic et de faire avancer l'effort du Pentagone visant à traiter l'entreprise comme un risque pour la chaîne d'approvisionnement de la sécurité nationale. Reuters a rapporté que la décision est suspendue pendant sept jours pour donner au gouvernement le temps de faire appel.
Le différend a commencé après qu'Anthropic a refusé de supprimer entièrement les restrictions de sécurité de Claude lors des négociations avec le Pentagone. L'entreprise a déclaré qu'elle n'accepterait pas d'utilisations liées à des armes entièrement autonomes sans supervision humaine ou à une surveillance de masse des Américains, tout en restant ouverte à un travail gouvernemental plus large.
Trump a ensuite décidé fin février d'ordonner aux agences fédérales de cesser d'utiliser la technologie d'Anthropic, tandis que le secrétaire à la Défense Pete Hegseth a séparément qualifié l'entreprise de risque pour la chaîne d'approvisionnement, une désignation qui pourrait forcer les sous-traitants de la défense à éviter Claude dans le travail militaire. Anthropic a fait valoir que c'était la première fois qu'une telle étiquette était publiquement utilisée contre une entreprise américaine de cette manière.
Les enjeux sont élevés car Anthropic est devenu un fournisseur d'IA important pour le gouvernement américain. L'entreprise avait un contrat de 200 millions de dollars avec le Pentagone et avait déjà déployé des modèles sur les réseaux classifiés du département de la Défense avant que la relation ne se détériore en raison des conditions d'utilisation.
L'administration Trump s'est appuyée sur des autorités juridiques distinctes pour la liste noire du Pentagone et pour des restrictions plus larges en matière de marchés publics fédéraux, forçant Anthropic à les contester devant différents tribunaux. Une affaire distincte liée aux marchés publics civils est toujours en cours à Washington.
Source : https://cryptobriefing.com/pentagon-blacklist-block-anthropic/




