Voici la suite du modèle d’IA le plus puissant d’Anthropic divulgué via un cache de données non sécurisé

Voici la suite du modele dIA le plus puissant dAnthropic

Anthropic teste le modèle d’IA le plus puissant jamais construit, et le monde n’était pas censé le savoir encore.

Une fuite de données rapportée par Fortune jeudi a révélé que le laboratoire d’IA derrière Claude a formé un nouveau modèle appelé « Mythos », qu’il décrit en interne comme « de loin le modèle d’IA le plus puissant que nous ayons jamais développé ».

Le modèle a été découvert dans un projet d’article de blog laissé dans un cache de données non sécurisé et consultable publiquement, aux côtés de près de 3 000 autres actifs non publiés, selon les chercheurs en cybersécurité qui ont examiné le matériel.

Anthropic a confirmé l’existence du modèle après l’enquête de Fortune, le qualifiant de « changement radical » dans les performances de l’IA et de « le plus performant que nous ayons construit à ce jour ». La société a déclaré qu’elle était testée par des « clients à accès anticipé » et a reconnu qu’une « erreur humaine » dans son système de gestion de contenu était à l’origine de la fuite.

Le projet d’article de blog présentait un nouveau niveau de modèle appelé « Capybara », décrit comme plus grand et plus performant que les modèles Opus existants d’Anthropic, qui étaient auparavant les plus puissants.

« Par rapport à notre meilleur modèle précédent, Claude Opus 4.6, Capybara obtient des scores considérablement plus élevés aux tests de codage logiciel, de raisonnement académique et de cybersécurité, entre autres », indique le projet.

C’est la dimension de la cybersécurité qui compte le plus pour l’industrie de la cryptographie. Le projet d’article de blog indique que le modèle « pose des risques de cybersécurité sans précédent », un cadre qui a des implications directes pour la sécurité de la blockchain, l’audit des contrats intelligents et l’escalade de la course aux armements entre les attaquants et les défenseurs de la DeFi.

Rien que cette semaine, Ripple a annoncé une refonte de la sécurité du XRP Ledger basée sur l’IA après qu’une équipe rouge assistée par l’IA ait découvert plus de 10 vulnérabilités dans sa base de code vieille de 13 ans. Ethereum a lancé un hub dédié à la sécurité post-quantique, soutenu par huit années de recherche.

Et le stablecoin Resolv a perdu son ancrage après qu’un attaquant a exploité un contrat de frappe sans contrôle Oracle ni contrôle d’accès à clé unique, le genre de défaillance de l’infrastructure que des outils d’IA plus performants pourraient potentiellement identifier avant un attaquant, ou exploiter plus rapidement que les défenseurs ne peuvent réagir.

Pour le marché des jetons IA, la fuite soulève une question différente. Le réseau décentralisé de Bittensor a récemment publié le Covenant-72B, un modèle qui concurrence le Llama 2 70B de Meta, déclenchant un rallye de 90 % du TAO et propulsant les jetons de sous-réseau à une capitalisation boursière combinée de 1,47 milliard de dollars.

Un « changement radical » par rapport à un laboratoire centralisé comme Anthropic réinitialise la référence à laquelle les projets d’IA décentralisés doivent correspondre. La distance concurrentielle entre ce qu’un laboratoire d’entreprise bien financé peut construire et ce qu’un réseau sans autorisation peut produire s’est encore élargie.

Anthropic a déclaré que la sortie du modèle était « délibérée » compte tenu de ses capacités. Le projet de blog indiquait que le modèle était coûteux à exploiter et n’était pas encore prêt pour une disponibilité générale. La société a supprimé l’accès public au cache de données après que Fortune l’a contactée.

La fuite elle-même est son propre récit édifiant. Une entreprise construisant ce qu’elle décrit comme un modèle d’IA doté de capacités de cybersécurité sans précédent a laissé l’annonce de ce modèle dans un magasin de données non sécurisé et consultable publiquement en raison d’une erreur humaine. L’ironie n’a pas besoin d’être développée.

Laisser un commentaire