
Anthropic vient de se battre avec son plus gros client potentiel.
La société d’IA derrière Claude a déposé une plainte lundi devant le tribunal de district américain du district nord de Californie, désignant les départements du Trésor, du Commerce, de l’État, de la Santé et des Services sociaux, des Anciens Combattants, de l’Administration des services généraux et plusieurs autres agences fédérales comme défendeurs.
Anthropic affirme que le gouvernement américain a effectivement mis ses systèmes d’IA sur la liste noire des marchés publics fédéraux et l’a fait sans suivre aucune des procédures légales requises pour interdire un fournisseur.
Il indique qu’il y a eu un manque de détermination formelle, d’examen inter-agences, de preuves documentées et aucune évaluation d’alternatives moins restrictives comme l’approbation conditionnelle ou les audits de sécurité.
Selon la plainte, les responsables ont justifié les restrictions en interne pour des raisons de sécurité nationale et de chaîne d’approvisionnement, puis ont laissé la directive se propager de manière informelle via des canaux d’approvisionnement centralisés jusqu’à ce qu’Anthropic soit exclu des contrats fédéraux à tous les niveaux.
En raison du timing, il s’agit là de bien plus qu’un simple différend en matière de marchés publics.
Le gouvernement américain est au milieu de la plus grande campagne d’adoption de l’IA de l’histoire fédérale, utilisant ChatGPT d’OpenAI comme outil de choix. Les agences déploient l’IA générative pour la cybersécurité, l’analyse du renseignement, l’automatisation administrative et la prise de décision interne. Les contrats sont importants, pluriannuels et de plus en plus essentiels au fonctionnement du gouvernement.
Être exclu de ce marché n’est pas un revers commercial mineur, mais un problème de concurrence existentiel pour toute entreprise d’IA qui souhaite être prise au sérieux au niveau institutionnel.
Anthropic demande au tribunal de déclarer les restrictions illégales et d’empêcher les agences de les appliquer. S’il l’emporte, la décision rouvrirait les marchés publics fédéraux et créerait potentiellement un précédent quant à la mesure dans laquelle les agences peuvent aller lorsqu’elles restreignent les fournisseurs d’IA pour des raisons de sécurité nationale sans suivre leurs propres règles.
Le gouvernement n’a pas répondu publiquement à cette plainte, mais un rapport d’Axios publié mardi a indiqué que la Maison Blanche préparait un décret ordonnant officiellement au gouvernement fédéral de retirer l’IA d’Anthropic de ses opérations, citant des sources proches du dossier.