Anthropic poursuit le gouvernement américain après avoir été qualifié de « risque pour la chaîne d’approvisionnement » dans le cadre d’un différend sur l’IA

Share on facebook
Share on twitter
Share on linkedin
Share on email

La société d’intelligence artificielle Anthropic a intenté une action en justice sans précédent contre le gouvernement des États-Unis après avoir été officiellement qualifiée de « risque pour la chaîne d’approvisionnement », aggravant un âpre différend sur l’utilisation militaire de la technologie avancée de l’IA.

L’action en justice, déposée devant un tribunal fédéral de Californie, conteste une directive émise par l’administration de Donald Trump qui interdisait aux agences gouvernementales américaines d’utiliser les systèmes d’IA d’Anthropic. La société affirme qu’il s’agit de représailles politiquement motivées après avoir refusé de supprimer les restrictions sur la manière dont sa technologie pourrait être déployée par l’armée américaine.

Le procès d’Anthropic affirme que la décision était « sans précédent et illégale » et violait les protections constitutionnelles autour de la liberté d’expression et d’une procédure régulière.

“La Constitution ne permet pas au gouvernement d’exercer son énorme pouvoir pour punir une entreprise pour son discours protégé”, a déclaré la société dans sa plainte. “Aucune loi fédérale n’autorise les mesures prises ici.”

Le conflit découle d’un désaccord entre le directeur général d’Anthropic, Dario Amodei, et des responsables américains de la défense, dont Pete Hegseth, sur la manière dont les outils d’intelligence artificielle de l’entreprise pourraient être utilisés par le Pentagone.

Anthropic maintient depuis longtemps des limites contractuelles strictes sur le déploiement de sa technologie, notamment l’interdiction d’utiliser ses modèles d’IA pour une « guerre autonome mortelle » et pour la surveillance intérieure de masse des citoyens américains.

Selon le procès, les responsables de la défense ont exigé que l’entreprise supprime ces restrictions de ses contrats gouvernementaux. Anthropic a refusé, arguant que de telles garanties étaient essentielles pour garantir une utilisation responsable de puissants systèmes d’IA.

La société a déclaré que les négociations avec le ministère de la Défense progressaient initialement et que les deux parties travaillaient à un texte révisé qui permettrait une coopération continue tout en préservant les limites éthiques.

Cependant, ces négociations auraient échoué après l’intervention de la Maison Blanche.

Suite à l’échec des négociations, le Pentagone a désigné Anthropic comme un « risque de chaîne d’approvisionnement » – une classification normalement appliquée aux entreprises considérées comme des partenaires peu sûrs ou peu fiables pour les systèmes gouvernementaux.

Cette désignation empêche effectivement les agences gouvernementales et les entrepreneurs américains d’utiliser les outils logiciels d’Anthropic.

Cette décision s’est accompagnée de critiques publiques de la part de l’administration Trump, les responsables de la Maison Blanche accusant l’entreprise de tenter de dicter la politique militaire.

Liz Huston, porte-parole de la Maison Blanche, a déclaré aux journalistes qu’Anthropic était « une entreprise de gauche radicale et réveillée » cherchant à imposer ses propres conditions aux opérations de défense nationale.

“Sous l’administration Trump, nos militaires obéiront à la Constitution des États-Unis – et non aux conditions de service des sociétés d’IA”, a déclaré Huston.

Anthropic conteste cette qualification et fait valoir que ses restrictions étaient des dispositions contractuelles standard conçues pour empêcher une utilisation abusive des systèmes d’IA.

La contestation judiciaire cite une large liste d’accusés, parmi lesquels des membres du bureau exécutif du président Trump et de hauts responsables du gouvernement tels que Marco Rubio et Howard Lutnick.

La poursuite vise également 16 agences fédérales, dont les ministères de la Défense, de la Sécurité intérieure et de l’Énergie.

Anthropic affirme que la directive interdisant sa technologie a causé d’importants dommages à sa réputation et à son commerce.

La société a déclaré que les contrats commerciaux actuels et potentiels étaient désormais menacés, mettant potentiellement en péril « des centaines de millions de dollars à court terme ».

Il a également fait valoir que la décision avait créé un effet dissuasif plus large dans le secteur technologique en décourageant les entreprises de parler publiquement des risques associés à l’IA avancée.

L’affaire a déjà reçu le soutien de l’ensemble de l’industrie technologique.

Près de 40 salariés d’entreprises concurrentes dont Google et OpenAI a déposé un mémoire juridique commun soutenant la position d’Anthropic, bien que les entreprises soient concurrentes dans le secteur en expansion rapide de l’IA.

Les signataires ont averti que le déploiement de systèmes d’IA avancés sans garanties pourrait créer de graves risques, en particulier s’ils sont utilisés à des fins de surveillance de masse ou d’armes autonomes.

« En tant que groupe, nous sommes divers dans nos politiques et nos philosophies », ont écrit les ingénieurs dans leur mémoire. “Mais nous sommes unis dans la conviction que les systèmes d’IA d’aujourd’hui présentent des risques lorsqu’ils sont déployés pour permettre une surveillance de masse nationale ou le fonctionnement de systèmes d’armes létales autonomes sans surveillance humaine.”

Le système d’IA phare d’Anthropic, Claude, est devenu largement utilisé par les entreprises technologiques et les développeurs pour les tâches de codage, de recherche et de logiciels d’entreprise.

Des entreprises telles que Microsoft, Amazon et Meta ont confirmé qu’elles continueraient à utiliser cette technologie dans des applications commerciales, mais pas dans des projets impliquant les agences de défense américaines.

Anthropic ne demande pas de dommages-intérêts financiers dans cette affaire. Au lieu de cela, il demande au tribunal de déclarer la directive du gouvernement inconstitutionnelle et de supprimer immédiatement la désignation de « risque lié à la chaîne d’approvisionnement ».

Les experts juridiques estiment que ce différend pourrait devenir une affaire historique dans la définition de la manière dont les gouvernements interagissent avec les développeurs d’IA.

Carl Tobias, professeur de droit à l’Université de Richmond, a déclaré que l’affaire pourrait finalement être portée devant la Cour suprême des États-Unis.

“Anthropic pourrait très bien gagner devant un tribunal fédéral”, a déclaré Tobias. “Mais cette administration n’hésite pas à faire appel. Elle ira probablement devant la Cour suprême.”

Le résultat pourrait avoir des implications majeures pour le secteur en croissance rapide de l’IA, d’autant plus que les gouvernements du monde entier s’appuient de plus en plus sur des entreprises technologiques privées pour fournir des systèmes d’intelligence artificielle essentiels aux opérations de défense, de renseignement et de sécurité nationale.

Pour l’instant, ce procès marque un moment rare au cours duquel une grande entreprise technologique conteste ouvertement l’autorité du gouvernement sur le futur déploiement de l’intelligence artificielle.


Jamie Jeune

Jamie Jeune

Jamie est journaliste principal chez Business Matters, apportant plus d’une décennie d’expérience dans le reporting commercial des PME britanniques. Jamie est titulaire d’un diplôme en administration des affaires et participe régulièrement à des conférences et des ateliers de l’industrie. Lorsqu’il ne rend pas compte des derniers développements commerciaux, Jamie se passionne pour encadrer les journalistes et les entrepreneurs de la relève afin d’inspirer la prochaine génération de chefs d’entreprise.


À suivre