Site icon Tendances Consulting

Evgeny Ponomarev sur le chemin parcouru par Fluence, de la vision Web3 au calcul prêt pour l’entreprise

Evgeny Ponomarev sur le chemin parcouru par Fluence, de la vision Web3 au calcul prêt pour l'entreprise

Le coût croissant et l’opacité des cloud centralisés ont rendu l’accès au calcul évolutif plus difficile. Fluence Network comble cette lacune en mettant à disposition une infrastructure de niveau entreprise via un marché décentralisé avec une tarification transparente et une fiabilité vérifiable.

Le co-fondateur Evgeny Ponomarev explique comment l’entreprise a évolué de ses racines Web3 vers une plate-forme de calcul mondiale prête pour l’entreprise et comment le réseau de Fluence fournit une infrastructure compatible GPU avec une tarification transparente et une gouvernance décentralisée, créant ainsi une base neutre et sans autorisation pour un calcul évolutif et fiable.


Quel problème Fluence avait-il initialement prévu de résoudre ?

Les développeurs étaient confrontés à deux problèmes fondamentaux : des factures cloud imprévisibles et une dépendance excessive à l’égard de fournisseurs centralisés. Fluence a été conçu pour offrir aux équipes un calcul prévisible et transparent où les prix sont clairs, l’accès est ouvert et aucun fournisseur unique ne contrôle l’approvisionnement. Nous avons commencé avec les serveurs virtuels CPU, puis nous avons étendu le calcul au GPU pour aider les créateurs d’IA à accéder à une capacité de niveau entreprise à un coût jusqu’à 85 % inférieur à celui des hyperscalers.

Vous appelez Fluence « calcul décentralisé de niveau entreprise ». Qu’est-ce qui lui donne cette qualité ?

Le niveau entreprise signifie fiabilité, cohérence et responsabilité. Fluence connecte les entreprises avec des fournisseurs d’infrastructures professionnels exploitant des centres de données certifiés Tier 3 et Tier 4 dans plusieurs régions. Ces fournisseurs répondent à des normes strictes en matière de matériel, de connectivité, de disponibilité et de sécurité, notamment la conformité au RGPD, à la norme ISO 27001 et au SOC 2.

Le résultat est un réseau décentralisé de centres de données audités où les utilisateurs déploient des charges de travail en quelques secondes avec un contrôle administratif total. Il offre la même fiabilité que les entreprises attendent des fournisseurs de cloud de premier plan.

Comment le marché garantit-il la qualité parmi de nombreux fournisseurs ?

Sur Fluence, les fournisseurs de calcul engagent leur capacité sur le marché et prouvent leur disponibilité continue via une preuve de capacité en chaîne. La capacité louée est payée en USDC, tandis que la capacité inutilisée mais prête rapporte du FLT. Nous travaillons en partenariat avec des opérateurs professionnels comme PikNik et Kabat pour garantir la fiabilité, et des milliers de nœuds blockchain fonctionnent déjà sur l’infrastructure Fluence.

Que signifient les « VM sans cloud » pour les utilisateurs ?

Il offre toute la flexibilité de l’infrastructure cloud traditionnelle tout en supprimant le verrouillage du fournisseur et le contrôle centralisé. Vous pouvez faire tourner des machines virtuelles auprès de plusieurs fournisseurs indépendants tout en bénéficiant d’une coordination unifiée pour le placement, la surveillance et la visibilité des coûts. Les conteneurs GPU, les machines virtuelles et le bare metal sont opérationnels, de sorte que les charges de travail d’IA peuvent correspondre à chaque fois au bon profil matériel.

Comment gérez-vous la transparence des coûts et les frais de sortie ?

La prévisibilité est primordiale. Fluence répertorie tous les coûts à l’avance et élimine les frais de sortie qui surprennent généralement les utilisateurs. Notre modèle décentralisé permet aux équipes d’estimer les dépenses en toute confiance. Sur l’ensemble de notre réseau, les clients ont déjà économisé plus de 3,8 millions de dollars en coûts cloud par rapport à leurs équivalents hyperscalers.

Quel rôle joue le token FLT ?

FLT alimente le moteur économique de Fluence. Il sécurise le réseau, coordonne l’activité entre les fournisseurs et les utilisateurs et redonne de la valeur aux participants. Les fournisseurs misent sur FLT pour engager de la capacité, obtenant un rendement lorsque leur matériel reste en ligne et prêt, et reçoivent des USDC pour les locations actives.

FLT régit également le Fluence DAO, où les détenteurs façonnent les décisions sur les mises à niveau, l’utilisation de la trésorerie et l’orientation du réseau à long terme. Au-delà de la gouvernance, FLT bénéficie de revenus réels de protocole, de rachats qui réduisent l’offre de jetons au fil du temps et de nouveaux services financiers tels que le jalonnement pFLT et le rendement lié aux RWA. À mesure que le réseau évolue, FLT devient à la fois la couche de coordination et le réservoir d’activités économiques pour l’utilisation réelle du calcul.

Vous avez récemment dévoilé une feuille de route pour les actifs du monde réel. Quelle est la vision là-bas ?

Fluence considère la puissance de calcul comme une ressource productive en chaîne. En tokenisant et en vérifiant les charges de travail réelles, les fournisseurs peuvent obtenir des retours mesurables sur leurs contributions matérielles. La feuille de route RWA vise à débloquer des liquidités et des outils financiers autour de ce modèle.

Nous développons un stablecoin garanti par FLT afin que les fournisseurs puissent financer leurs opérations sans vendre leurs jetons, introduisons des marchés de prêt pour les FLT non acquis et explorons la tokenisation des revenus matériels. Cela accroît la liquidité et augmente la capacité tout en maintenant des coûts compétitifs.

Quelles sont les premières étapes de ce plan RWA ?

Les premiers pilotes incluent un stablecoin soutenu par pFLT qui peut également être utilisé pour calculer les paiements. La phase suivante introduit des mécanismes de prêt et de mise en jeu qui lient directement l’efficacité du capital à la performance vérifiée. Il s’agit d’aligner les incitations économiques sur la fourniture de calculs dans le monde réel.

Comment Fluence se positionne-t-elle pour le boom actuel de l’IA ?

Nous nous attaquons au goulot d’étranglement de l’accès. Fluence permet le provisionnement instantané de GPU pour l’inférence, le réglage fin et la diffusion de modèles tout en gardant les coûts prévisibles. Nous explorons également le calcul GPU confidentiel via des TEE et une mémoire cryptée pour prendre en charge l’inférence sensible à la confidentialité. Les constructeurs d’IA veulent de la vitesse et de la souveraineté. C’est là que s’inscrit notre réseau.

Quel est votre point de vue sur le risque de centralisation après les récentes pannes du cloud ?

Les pannes de cloud sont encore traitées comme des incidents rares alors qu’elles constituent des risques structurels. Chaque échec majeur révèle la fragilité de la concentration de l’orchestration entre une poignée de fournisseurs. L’architecture DePIN est conçue pour tolérer ces pannes dès sa conception, garantissant qu’aucun opérateur ne peut à lui seul faire tomber le système. Dans Fluence, la résilience est intégrée au réseau lui-même, permettant aux charges de travail de continuer à s’exécuter même en cas de panne de certaines parties de l’infrastructure.

Où Fluence se développera-t-elle ensuite ?

Nous augmentons l’offre dans les régions où la demande en IA et Web3 est forte, en intégrant des réseaux de stockage décentralisés tels que Filecoin et Arweave pour les pipelines d’IA modulaires et en déployant des modèles de GPU spécialisés à l’échelle mondiale. L’objectif est une pile de données de calcul neutre que les utilisateurs peuvent déployer de bout en bout sous un seul protocole ouvert.

À quelles étapes les utilisateurs peuvent-ils s’attendre ?

Des fournisseurs de GPU plus vérifiés, des mises à niveau du temps d’exécution des conteneurs, des pilotes de calcul préservant la confidentialité, des pools de jalonnement étendus et des intégrations transparentes de la pile de données. Chaque étape nous rapproche d’un accès simple et d’une tarification initiale prévisible pour le calcul haute performance.

En savoir plus interviews ici.

Share this content:

Quitter la version mobile