Le cas de l’IA appartenant à l’utilisateur

Le cas de lIA appartenant a lutilisateur

Qui contrôle vraiment votre assistant d’IA? C’est une question que la plupart des gens n’ont pas encore posé. Aujourd’hui, des millions s’appuient sur des assistants numériques, des appareils contrôlés par voix aux robots intelligents intégrés dans des outils comme Google Workspace ou ChatGpt. Ces systèmes nous aident à écrire, à organiser, à rechercher et même à réfléchir. Cependant, la grande majorité d’entre eux sont loués. Nous ne possédons pas l’intelligence dont nous dépendons. Cela signifie que quelqu’un d’autre peut le contrôler.

Si votre assistant numérique disparaît demain, pouvez-vous faire quelque chose à ce sujet? Que se passe-t-il si l’entreprise derrière elle modifie les termes, restreint la fonctionnalité ou monétise vos données d’une manière à laquelle vous ne vous attendiez pas? Ce ne sont pas des préoccupations théoriques. Ils se produisent déjà, et ils indiquent un avenir que nous devrions activement façonner.

David Minarsch est conférencier au consensus 2025 à Toronto du 14 au 16 mai.

À mesure que ces agents sont ancrés dans tout, de nos finances à nos flux de travail et à nos maisons, les enjeux autour de la propriété deviennent beaucoup plus élevés. La location est probablement très bien pour les tâches à faible enjeux, comme un modèle de langue qui vous aide à rédiger des e-mails. Cependant, lorsque votre IA agit pour vous, prend des décisions avec votre argent ou gère des parties critiques de votre vie, la propriété n’est pas facultative. C’est essentiel.

Ce que le modèle commercial AI d’aujourd’hui implique pour les utilisateurs

L’IA, comme nous le savons, elle est construite sur une économie locative. Vous payez pour l’accès, les abonnements mensuels ou les API à payer, et en échange, vous obtenez «l’illusion» de contrôle. Cependant, dans les coulisses, les fournisseurs de plateformes détiennent toute la puissance. Ils choisissent le modèle d’IA à servir, ce que votre IA peut faire, comment il réagit et si vous pouvez continuer à l’utiliser.

Prenons un exemple commun: une équipe commerciale utilisant un assistant alimenté par AI pour automatiser les tâches ou générer des informations. Cet assistant pourrait vivre à l’intérieur d’un outil SaaS centralisé. Il pourrait être alimenté par un modèle fermé hébergé sur le serveur de quelqu’un d’autre – et exécuté sur ses GPU. Il pourrait même être formé sur les propres données de votre entreprise – les données que vous ne possédez plus entièrement une fois téléchargées.

Maintenant, imaginez que le fournisseur commence à hiérarchiser la monétisation, comme Google Search le fait avec ses résultats axés sur la publicité. Tout comme les résultats de la recherche sont fortement influencés par les stages payants et les intérêts commerciaux, il en va de même pour les modèles de langue importants (LLM). L’assistant sur lequel vous vous êtes appuyé sur les changements, les réponses fausses au profit du modèle commercial du fournisseur, et vous ne pouvez rien faire. Vous n’avez jamais eu de véritable contrôle pour commencer.

Ce n’est pas seulement un risque commercial; C’est aussi personnel. En Italie, Chatgpt a été temporairement interdit en 2023 en raison de problèmes de confidentialité. Cela a laissé des milliers de personnes sans accès pendant la nuit. Dans un monde où les gens construisent des flux de travail de plus en plus personnels autour de l’IA, cette faiblesse est inacceptable.

Sur la question de la vie privée, lorsque vous louez une IA, vous téléchargez souvent des données sensibles, parfois sans le savoir. Ces données peuvent être enregistrées, utilisées pour le recyclage, voire monétisées. L’IA centralisée est opaque par la conception, et avec les tensions géopolitiques qui augmentent et les réglementations changent rapidement, en fonction entièrement de l’infrastructure de quelqu’un d’autre est une responsabilité croissante.

Ce que cela signifie de vraiment posséder votre agent

Contrairement aux modèles d’IA passifs, les agents sont des systèmes dynamiques qui peuvent prendre des mesures indépendantes. La propriété signifie contrôler la logique principale d’un agent, les paramètres de prise de décision et le traitement des données. Imaginez un agent qui peut gérer de manière autonome les ressources, suivre les dépenses, fixer des budgets et prendre des décisions financières en votre nom.

Cela nous amène naturellement à explorer des infrastructures avancées comme Web3 et Neobanking Systems, qui offrent des moyens programmables de gérer les actifs numériques. Un agent possédé peut fonctionner indépendamment dans des limites claires et définies par l’utilisateur, transformant l’IA d’un outil réactif à un système proactif et personnalisé qui fonctionne vraiment pour vous.

Avec une véritable propriété, vous savez exactement quel modèle vous utilisez et pouvez modifier le modèle sous-jacent si nécessaire. Vous pouvez mettre à niveau ou personnaliser votre agent sans attendre un fournisseur. Vous pouvez le mettre en pause, le dupliquer ou le transférer dans un autre appareil. Et, plus important encore, vous pouvez l’utiliser sans divulguer de données ou compter sur un seul portier centralisé.

Chez Olas, nous avons construit vers cet avenir avec Pearl, une boutique d’applications d’agent AI réalisée comme une application de bureau qui permet aux utilisateurs d’exécuter des agents d’IA autonomes en un seul clic tout en conservant la propriété complète. Aujourd’hui, Pearl contient un certain nombre de cas d’utilisation ciblant principalement les utilisateurs de Web3 pour abstraction de la complexité des interactions cryptographiques, avec un accent croissant sur les cas d’utilisation de Web2. Les agents des perles détiennent leurs propres portefeuilles, fonctionnent à l’aide de modèles d’IA open source et agissent indépendamment au nom de l’utilisateur.

Lorsque vous lancez Pearl, c’est comme entrer dans une boutique d’applications pour les agents. Vous pouvez en choisir un pour gérer votre portefeuille Defi. Vous pouvez en exécuter un autre qui gère la recherche ou la génération de contenu. Ces agents n’ont pas besoin d’une incitation constante; Ils sont autonomes et les vôtres. Passez du paiement de l’agent que vous louez à gagner de l’agent que vous possédez.

Nous avons conçu Pearl pour les utilisateurs crypto-natifs qui comprennent déjà l’importance de posséder leurs clés. Cependant, l’idée de prendre l’auto-cuir non seulement de vos fonds, mais aussi de vos échelles d’IA bien au-delà de Defi. Imaginez un agent qui contrôle votre domicile, complète vos interactions sociales ou coordonne plusieurs outils au travail. Si ces agents sont loués, vous ne les contrôlez pas complètement. Si vous ne les contrôlez pas complètement, vous externalisez de plus en plus les parties fondamentales de votre vie.

Ce mouvement ne concerne pas seulement les outils; Il s’agit d’agence. Si nous ne parvenons pas à passer à une IA ouverte et à la propriété des utilisateurs, nous risquons de recentraliser le pouvoir entre les mains de quelques joueurs dominants. Mais si nous réussissons, nous débloquons un nouveau type de liberté, où l’intelligence n’est pas louée mais vraiment la vôtre, chaque humain complété par une «armée» d’agents logiciels.

Ce n’est pas seulement l’idéalisme. C’est une bonne sécurité. L’IA open source est vérifiable et évaluée par les pairs. Les modèles fermés sont des boîtes noires. Si un robot humanoïde vit un jour chez vous, voulez-vous que le code l’exécute soit propriétaire et contrôlé par un fournisseur de cloud étranger? Ou voulez-vous pouvoir savoir exactement ce qu’il fait?

Nous avons le choix: nous pouvons continuer à louer, à faire confiance et à espérer que rien ne se brise, ou nous pouvons s’approprier nos outils, données, décisions et futurs.

L’IA appartenant à l’utilisateur n’est pas la meilleure option. C’est le seul qui respecte l’intelligence de la personne qui l’utilise.

Lire la suite: le marché du mech d’Olas permet aux agents d’IA de se embaucher pour de l’aide

Laisser un commentaire