Les agents d’IA ont besoin d’identité et les preuves sans connaissance sont la solution

Nous vivons une époque intéressante pour l’IA et la confiance. Un nombre croissant de sociétés d’investissement utilisent des agents d’IA pour examiner les notes de recherche et les documents déposés par les entreprises. Les humains sont invités à fournir des données biométriques de plus en plus invasives, comme des scans de visage, des échantillons de voix et des modèles de comportement, juste pour prouver qu’ils ne sont pas des robots. Une fois dans la nature, ces données peuvent être utilisées par des robots pilotés par l’IA pour usurper de manière convaincante de vraies personnes, mettant ainsi en échec les systèmes mêmes conçus pour les empêcher d’entrer. Cela nous laisse dans une étrange nouvelle course aux armements : plus la vérification est invasive, plus le risque est grand en cas de fuite inévitable. Alors, comment vérifier à qui (ou à quoi) nous avons réellement affaire ?
Il est inadmissible d’exiger la transparence des humains tout en acceptant l’opacité des machines. Les robots et les humains en ligne ont besoin de meilleurs moyens de vérifier leur identité. Nous ne pouvons pas résoudre ce problème en collectant simplement davantage de données biométriques, ni en créant des registres centralisés qui représentent d’énormes pots de miel pour les cybercriminels. Les preuves sans connaissance offrent une voie à suivre où les humains et l’IA peuvent prouver leurs références sans s’exposer à l’exploitation.
Le déficit de confiance bloque les progrès
L’absence d’identité vérifiable de l’IA crée des risques de marché immédiats. Lorsque les agents d’IA peuvent se faire passer pour des humains, manipuler les marchés ou exécuter des transactions non autorisées, les entreprises hésitent à juste titre à déployer des systèmes autonomes à grande échelle. Il se trouve que les LLM qui ont été « affinés » sur un ensemble de données plus petit pour améliorer les performances sont 22 fois plus susceptibles de produire des résultats nuisibles que les modèles de base, le taux de réussite du contournement des garde-fous de sécurité et d’éthique du système – un processus connu sous le nom de « jailbreak » – triplant par rapport aux systèmes prêts à la production. Sans vérification d’identité fiable, chaque interaction de l’IA se rapproche d’une faille de sécurité potentielle.
Le problème n’est pas aussi évident que d’empêcher des acteurs malveillants de déployer des agents malveillants, car ce n’est pas comme si nous étions confrontés à une seule interface d’IA. L’avenir verra de plus en plus d’agents d’IA autonomes dotés de plus grandes capacités. Dans une telle mer d’agents, comment savoir à quoi nous avons affaire ? Même les systèmes d’IA légitimes ont besoin d’informations d’identification vérifiables pour participer à l’économie émergente d’agent à agent. Lorsqu’un robot de trading IA exécute une transaction avec un autre robot, les deux parties doivent avoir l’assurance de l’identité, de l’autorisation et de la structure de responsabilité de l’autre.
Le côté humain de cette équation est également brisé. Les systèmes traditionnels de vérification d’identité exposent les utilisateurs à des violations massives de données, permettent trop facilement une surveillance autoritaire et génèrent des milliards de revenus pour les grandes entreprises en vendant des informations personnelles sans indemniser les individus qui les génèrent. Les gens sont, à juste titre, réticents à partager davantage de données personnelles, mais les exigences réglementaires exigent des procédures de vérification toujours plus invasives.
Connaissance zéro : le pont entre confidentialité et responsabilité
Les preuves sans connaissance (ZKP) offrent une solution à ce problème apparemment insoluble. Plutôt que de révéler des informations sensibles, les ZKP permettent à des entités, qu’elles soient humaines ou artificielles, de prouver des affirmations spécifiques sans exposer les données sous-jacentes. Un utilisateur peut prouver qu’il a plus de 21 ans sans révéler sa date de naissance. Un agent d’IA peut prouver qu’il a été formé sur des ensembles de données éthiques sans exposer d’algorithmes propriétaires. Une institution financière peut vérifier qu’un client répond aux exigences réglementaires sans stocker d’informations personnelles susceptibles d’être divulguées.
Pour les agents d’IA, les ZKP peuvent permettre d’atteindre les niveaux de confiance profonds nécessaires, car nous devons vérifier non seulement l’architecture technique, mais aussi les modèles comportementaux, la responsabilité juridique et la réputation sociale. Avec les ZKP, ces réclamations peuvent être stockées dans un graphique de confiance vérifiable en chaîne.
Considérez-le comme une couche d’identité composable qui fonctionne sur plusieurs plates-formes et juridictions. De cette façon, lorsqu’un agent d’IA présente ses informations d’identification, il peut prouver que ses données de formation répondent aux normes éthiques, que ses résultats ont été audités et que ses actions sont liées à des entités humaines responsables, le tout sans exposer d’informations exclusives.
Les ZKP pourraient complètement changer la donne, nous permettant de prouver qui nous sommes sans transmettre de données sensibles, mais leur adoption reste lente. Les ZKP restent une niche technique, peu familière aux utilisateurs et enchevêtrée dans des zones grises réglementaires. Pour couronner le tout, les entreprises qui profitent de la collecte de données sont peu incitées à adopter cette technologie. Cependant, cela n’empêche pas les sociétés d’identité plus agiles de les exploiter, et à mesure que des normes réglementaires émergent et que la sensibilisation s’améliore, les ZKP pourraient devenir l’épine dorsale d’une nouvelle ère d’IA et d’identité numérique fiables, offrant aux individus et aux organisations un moyen d’interagir en toute sécurité et de manière transparente au-delà des plateformes et des frontières.
Implications sur le marché : débloquer l’économie des agents
L’IA générative pourrait ajouter des milliards de dollars chaque année à l’économie mondiale, mais une grande partie de cette valeur reste bloquée derrière les barrières de vérification d’identité. Il y a plusieurs raisons à cela. La première est que les investisseurs institutionnels ont besoin d’une solide conformité KYC/AML avant de déployer des capitaux dans des stratégies basées sur l’IA. Une autre raison est que les entreprises exigent des identités d’agent vérifiables avant d’autoriser les systèmes autonomes à accéder aux infrastructures critiques. Et les régulateurs exigent des mécanismes de responsabilisation avant d’approuver le déploiement de l’IA dans des domaines sensibles.
Les systèmes d’identité basés sur ZKP répondent à toutes ces exigences tout en préservant la confidentialité et l’autonomie qui rendent les systèmes décentralisés précieux. En permettant une divulgation sélective, ils satisfont aux exigences réglementaires sans créer de pots de miel de données personnelles. En fournissant une vérification cryptographique, ils permettent des interactions sans confiance entre agents autonomes. Et en maintenant le contrôle des utilisateurs, ils s’alignent sur les réglementations émergentes en matière de protection des données telles que le RGPD et les lois californiennes sur la confidentialité.
La technologie pourrait également aider à résoudre la crise croissante des deepfakes. Lorsque chaque élément de contenu peut être lié cryptographiquement à un créateur vérifié sans révéler son identité, nous pouvons lutter contre la désinformation et protéger la vie privée. Cela est particulièrement crucial à l’heure où le contenu généré par l’IA devient impossible à distinguer du matériel créé par l’homme.
Le chemin ZK
Certains diront que tout système identitaire représente un pas vers l’autoritarisme – mais aucune société ne peut fonctionner sans un moyen d’identifier ses citoyens. La vérification de l’identité se fait déjà à grande échelle, mais de façon médiocre. Chaque fois que nous téléchargeons des documents pour KYC, soumettons à la reconnaissance faciale ou partageons des données personnelles pour vérifier l’âge, nous participons à des systèmes d’identité invasifs, peu sûrs et inefficaces.
Les preuves sans connaissance offrent une voie à suivre qui respecte la vie privée des individus tout en permettant la confiance nécessaire aux interactions économiques complexes. Ils nous permettent de créer des systèmes dans lesquels les utilisateurs contrôlent leurs données, la vérification ne nécessite pas de surveillance et les humains et les agents d’IA peuvent interagir en toute sécurité sans sacrifier l’autonomie.
Share this content:




Laisser un commentaire