Pourquoi la prochaine bataille de sécurité de Crypto sera contre des humains synthétiques

L’IA générative a changé l’économie de la tromperie. Ce qui nécessitait auparavant des outils professionnels et des heures d’édition peut désormais être réalisé en quelques clics. Un faux visage réaliste, une voix clonée ou même une identité vidéo complète peuvent être générés en quelques minutes et utilisés pour passer des systèmes de vérification qui semblaient autrefois infaillibles.
Au cours de l’année écoulée, j’ai constaté que la fraude basée sur les deepfakes s’accélère à un rythme auquel la plupart des organisations ne sont pas préparées. Le contenu deepfake sur les plateformes numériques a augmenté de 550 % entre 2019 et 2024 et est désormais considéré comme l’un des principaux risques mondiaux de l’écosystème numérique actuel. Il ne s’agit pas seulement d’un changement technologique : c’est un défi structurel dans la façon dont nous vérifions l’identité, authentifions l’intention et maintenons la confiance dans la finance numérique.
L’adoption dépasse la sécurité
L’adoption de la cryptographie aux États-Unis continue de croître, alimentée par une clarté réglementaire croissante, de solides performances du marché et une participation institutionnelle accrue. L’approbation des ETF Bitcoin au comptant et des cadres de conformité plus clairs ont contribué à légitimer les actifs numériques pour les investisseurs particuliers et professionnels. En conséquence, de plus en plus d’Américains considèrent la cryptographie comme une classe d’investissement dominante – mais le rythme de son adoption dépasse toujours la compréhension du public en matière de risque et de sécurité.
De nombreux utilisateurs s’appuient encore sur des méthodes de vérification obsolètes, conçues pour une époque où la fraude signifiait un mot de passe volé et non une personne synthétique. À mesure que les outils de génération d’IA deviennent plus rapides et moins chers, la barrière à l’entrée de la fraude est tombée à presque zéro, tandis que de nombreuses défenses n’ont pas évolué à la même vitesse.
Les deepfakes sont utilisés dans tout, depuis les faux flux en direct d’influenceurs qui incitent les utilisateurs à envoyer des jetons à des escrocs jusqu’aux identifiants vidéo générés par l’IA qui contournent les contrôles de vérification. Nous constatons une augmentation des attaques multimodales, dans lesquelles les fraudeurs combinent des vidéos falsifiées, des voix synthétiques et des documents fabriqués pour créer de fausses identités entières qui résistent à un examen minutieux.
Comme l’a noté le journaliste et podcasteur Dwarkesh Patel dans son livre « The Scaling Era : An Oral History of AI, 2019-2025 », c’est désormais l’ère de la fraude à grande échelle. Le défi n’est pas seulement la sophistication, mais aussi l’échelle. Alors que n’importe qui peut créer un faux réaliste avec un logiciel grand public, l’ancien modèle consistant à « repérer le faux » ne fonctionne plus.
Pourquoi les défenses actuelles échouent
La plupart des systèmes de vérification et d’authentification dépendent encore d’indices superficiels : clignements des yeux, mouvements de la tête et modèles d’éclairage. Mais les modèles génératifs modernes reproduisent ces micro-expressions avec une fidélité presque parfaite – et les tentatives de vérification peuvent désormais être automatisées avec des agents, ce qui rend les attaques plus rapides, plus intelligentes et plus difficiles à détecter.
En d’autres termes, le réalisme visuel ne peut plus être la référence en matière de vérité. La prochaine phase de protection doit aller au-delà de ce qui est visible et se concentrer sur les signaux comportementaux et contextuels qui ne peuvent être imités. Les modèles d’appareils, les rythmes de frappe et la micro-latence des réponses deviennent les nouvelles empreintes digitales de l’authenticité. À terme, cela s’étendra à une certaine forme d’autorisation physique – des identifications numériques aux identifiants implantés, en passant par des méthodes biométriques comme la reconnaissance de l’iris ou de la paume.
Il y aura des défis, d’autant plus que nous serons plus à l’aise d’autoriser des systèmes autonomes à agir en notre nom. Ces nouveaux signaux peuvent-ils être imités ? Techniquement, oui – et c’est ce qui en fait une course aux armements continue. À mesure que les défenseurs développent de nouveaux niveaux de sécurité comportementale, les attaquants apprendront inévitablement à les reproduire, forçant ainsi une évolution constante des deux côtés.
En tant que chercheurs en IA, nous devons supposer que ce que nous voyons et entendons peut être fabriqué. Notre tâche est de trouver les traces que la fabrication ne peut cacher.
La prochaine évolution : l’infrastructure de confiance
L’année prochaine marquera un tournant en matière de réglementation, car la confiance dans le secteur de la cryptographie reste fragile. Alors que la loi GENIUS est devenue loi et que d’autres cadres comme la loi CLARITY sont toujours en discussion, le véritable travail consiste à combler les lacunes que la réglementation n’a pas encore comblées – de l’application transfrontalière à la définition de ce à quoi ressemble une protection significative des consommateurs dans les systèmes décentralisés. Les décideurs politiques commencent à établir des règles sur les actifs numériques qui donnent la priorité à la responsabilité et à la sécurité, et à mesure que de nouveaux cadres prennent forme, le secteur progresse progressivement vers un écosystème plus transparent et plus résilient.
Mais la réglementation à elle seule ne résoudra pas le déficit de confiance. Les plates-formes cryptographiques doivent adopter des architectures de vérification proactives et multicouches qui ne s’arrêtent pas à l’intégration, mais valident en permanence l’identité, l’intention et l’intégrité des transactions tout au long du parcours utilisateur.
La confiance ne dépendra plus de ce qui semble réel mais de ce qui peut être prouvé. Il s’agit d’un changement fondamental qui redéfinit l’infrastructure de la finance.
Une responsabilité partagée
La confiance ne peut pas être modernisée ; cela doit être intégré. Étant donné que la plupart des fraudes se produisent après l’intégration, la phase suivante dépend du dépassement des contrôles d’identité statiques vers une prévention continue et multicouche. Relier les signaux comportementaux, l’intelligence multiplateforme et la détection des anomalies en temps réel sera essentiel pour restaurer la confiance des utilisateurs.
L’avenir de la crypto ne sera pas défini par le nombre de personnes qui l’utilisent, mais par le nombre de personnes qui se sentent en sécurité en le faisant. La croissance dépend désormais de la confiance, de la responsabilité et de la protection dans une économie numérique où la frontière entre réel et synthétique ne cesse de s’estomper.
À un moment donné, nos identités numériques et physiques auront besoin d’une convergence encore plus poussée pour nous protéger de l’imitation.
Share this content:




Laisser un commentaire