OpenAI arrête Sora après une brève exécution
OpenAI a annoncé la fermeture de Sora, une application sociale de type TikTok utilisée pour créer et partager des vidéos générées par l’IA. Le service a été lancé seulement environ six mois plus tôt et est rapidement devenu connu, parallèlement à une inquiétude croissante concernant une utilisation abusive potentielle, y compris les risques liés aux deepfakes.
L’arrêt est décrit comme brutal : OpenAI a déclaré qu’il « dirait au revoir » à l’application et a indiqué qu’il partagerait plus d’informations sur la manière dont les créations existantes des utilisateurs pourraient être préservées. Dans les articles fournis, OpenAI n’a pas donné d’explication détaillée de la décision.
D’un point de vue commercial, cette décision signale une redéfinition des priorités. Un autre élément de l’ensemble encadre le changement dans le cadre d’OpenAI réduisant son orientation et son allocation de ressources, ce qui s’aligne sur une tendance plus large de l’IA générative où les entreprises réduisent les expériences destinées aux consommateurs lorsque les coûts, les problèmes de sécurité ou la traction ne justifient pas la poursuite des investissements.
Pourquoi c’est important au-delà d’une seule application :
- Problèmes de deepfake et d’authenticité du contenu : Le lancement de Sora a attiré l’attention sur la rapidité avec laquelle les outils de médias synthétiques peuvent se propager et sur la difficulté pour les plateformes de modérer les contenus nuisibles ou trompeurs à grande échelle.
- Dynamique du marché concurrentiel de l’IA : Cet arrêt reflète le rythme rapide du marché grand public de l’IA : des services peuvent être lancés, devenir viraux, puis disparaître en quelques mois.
- Impact utilisateur : Les personnes qui ont utilisé Sora pour la création vidéo peuvent avoir besoin de nouveaux outils, et le sort de tout contenu généré précédemment affectera la capacité des créateurs à continuer à utiliser ce qu’ils ont créé.
Dans l’ensemble, l’arrêt de Sora est un exemple concret de la façon dont les produits d’IA sont soumis à des tests de résistance en termes de sécurité, de praticité et de durabilité, et pas seulement de nouveauté technique.