
Le directeur général d’OpenAI, Sam Altman, a déclaré que les décideurs politiques américains doivent agir maintenant pour se préparer à l’intelligence artificielle avancée, avertissant que la technologie passe de la théorie à l’utilisation économique quotidienne.
Dans une interview avec Axios, Altman a déclaré que les systèmes d’IA gèrent déjà des tâches de codage et de recherche qui nécessitaient autrefois des équipes de programmeurs. Les nouveaux modèles iront plus loin, a-t-il déclaré, en aidant les scientifiques à faire des découvertes majeures et en permettant aux individus de faire le travail de groupes entiers.
Ce changement est déjà visible dans le domaine de la cybersécurité, où certains leaders du secteur affirment que l’intelligence artificielle fait pencher la balance en faveur des attaquants.
Charles Guillemet, directeur de la technologie chez le fabricant de portefeuilles matériels Ledger, par exemple, a déclaré à CoinDesk que les outils d’IA réduisaient les coûts et les compétences nécessaires pour trouver et exploiter les failles logicielles. Des tâches qui prenaient autrefois des mois, comme la rétro-ingénierie du code ou la liaison de plusieurs vulnérabilités, peuvent désormais être réalisées en quelques secondes avec les bonnes invites.
L’année dernière, l’industrie de la cryptographie a vu plus de 1,4 milliard de dollars d’actifs volés ou perdus lors d’attaques. Ce chiffre pourrait continuer à croître, suggère Guillemet. De plus, les développeurs s’appuient de plus en plus sur le code généré par l’IA, ce qui peut potentiellement introduire de nouvelles failles à grande échelle.
La réponse, a-t-il déclaré, nécessitera des défenses plus solides telles que du code mathématiquement vérifié, des dispositifs matériels qui maintiennent les clés privées hors ligne et une reconnaissance plus large du fait que les systèmes peuvent échouer.
L’IA en cyber, biosécurité
Alors qu’Altman a souligné que l’IA pourrait accélérer la découverte de médicaments ou la science des matériaux, il a également signalé qu’elle pourrait également permettre des cyberattaques plus puissantes et abaisser les obstacles à la recherche biologique nuisible. De telles menaces pourraient apparaître d’ici un an, ce qui rend urgente la coordination entre le gouvernement, les entreprises technologiques et les groupes de sécurité.
« Nous ne sommes pas si loin d’un monde où il existe des modèles open source incroyablement performants et très bons en biologie », a-t-il déclaré. « La nécessité pour la société de faire preuve de résilience face aux groupes terroristes qui utilisent ces modèles pour tenter de créer de nouveaux agents pathogènes n’est plus une question théorique. »
Un autre exemple qu’il a suggéré est une « cyberattaque qui bouleverserait le monde » qui pourrait survenir dès cette année. Pour éviter cela, dit-il, il faudrait « une quantité de travail énorme ».
Il a présenté les idées politiques d’OpenAI comme point de départ, dans le but de promouvoir le débat sur la manière de gérer des systèmes qui apprennent rapidement et agissent dans de nombreux domaines. Selon lui, il est important d’utiliser l’IA pour se défendre contre ces attaques potentielles.
Concernant la nationalisation potentielle d’OpenAI, Altman a déclaré que les arguments contre cette société reposent sur la nécessité pour les États-Unis de parvenir à une « superintelligence » avant leurs rivaux.
« Le principal argument contre la nationalisation serait que nous avons besoin que les États-Unis réussissent à construire une superintelligence d’une manière qui soit alignée sur les valeurs démocratiques des États-Unis avant que quelqu’un d’autre ne le fasse », a-t-il déclaré. « Cela ne fonctionnerait probablement pas en tant que projet gouvernemental, je pense que c’est une triste chose. »
Altman a néanmoins déclaré qu’il pensait que les entreprises impliquées dans l’IA devaient travailler en étroite collaboration avec le gouvernement américain.
Compte tenu de son rôle chez OpenAI, Altman a également un intérêt financier dans l’évolution du secteur. Cette position pourrait façonner la manière dont il envisage à la fois l’urgence de la réglementation et le rôle des entreprises privées comme OpenAI dans la gestion des risques émergents, ce qui pourrait influencer la position concurrentielle de l’entreprise.
L’IA comme utilitaire
L’énergie est un domaine dans lequel il constate des progrès rapides, car une plus grande capacité de puissance de traitement pourrait réduire les coûts à mesure que la demande d’IA augmente.
Altman a également souligné les premiers signes de changements de main-d’œuvre. Un programmeur en 2026, dit-il, travaille déjà différemment d’un an plus tôt.
L’IA deviendra une sorte d’utilité, comme l’électricité, intégrée dans tous les appareils, tandis que le coût de l’intelligence de base diminuera et que les systèmes de pointe resteront chers.
« Vous disposerez de ce super assistant personnel fonctionnant dans le cloud », a déclaré Altman. « Si vous l’utilisez beaucoup ou à des niveaux d’intelligence élevés, votre facture sera plus élevée pendant un mois et si vous l’utilisez moins, votre facture sera inférieure. »
Il est « extrêmement important que les personnes qui développent l’IA soient des personnes de grande intégrité et dignes de confiance ».