Runway, l'une des nombreuses startups d'IA développant une technologie de génération de vidéos, a annoncé aujourd'hui une API permettant aux développeurs et aux organisations d'intégrer les modèles d'IA génératifs de l'entreprise dans des plateformes, des applications et des services tiers.
Actuellement en accès limité (il y a une liste d'attente), l'API Runway ne propose qu'un seul modèle au choix – Gen-3 Alpha Turbo, une version plus rapide mais moins performante du produit phare de Runway, Gen-3 Alpha – et deux plans, Build (qui s'adresse aux particuliers et aux équipes) et Enterprise. Le prix de base est d'un centime par crédit (une seconde de vidéo coûte cinq crédits), et Runway affirme que des « partenaires stratégiques de confiance », dont le groupe marketing Omnicom, utilisent déjà l'API.
L'API Runway est également assortie d'exigences de divulgation inhabituelles. Toutes les interfaces utilisant l'API doivent « afficher de manière visible » une bannière « Powered by Runway » renvoyant au site Web de Runway, écrit la société dans un article de blog, pour «[help] les utilisateurs comprennent la technologie derrière [applications] tout en respectant nos conditions d’utilisation. »
Runway, qui est soutenu par des investisseurs tels que Salesforce, Google et Nvidia et dont la dernière valorisation était de 1,5 milliard de dollars, fait face à une forte concurrence dans le domaine de la génération vidéo, notamment de la part d'OpenAI, de Google et d'Adobe. OpenAI devrait lancer son modèle de génération vidéo, Sora, sous une forme ou une autre cet automne, tandis que des startups comme Luma Labs continuent de peaufiner leurs technologies.
Par exemple, dans ce qui semble peu probable être une coïncidence, Luma a lancé aujourd'hui son API de génération de vidéos, qui n'a pas de liste d'attente et offre des fonctionnalités au-delà de celles de Runway, notamment la possibilité de « contrôler » la caméra virtuelle dans les scènes générées par l'IA.
Avec le lancement préliminaire de l'API Runway, Runway devient l'un des premiers fournisseurs d'IA à proposer un modèle de génération de vidéos via une API. Mais si l'API peut aider l'entreprise sur la voie de la rentabilité (ou du moins à récupérer les coûts élevés de formation et d'exécution des modèles), elle ne résoudra pas les questions juridiques persistantes autour de ces modèles et de la technologie d'IA générative en général.
Les modèles de génération de vidéos de Runway, comme tous les modèles de génération de vidéos, ont été entraînés sur un grand nombre d'exemples de vidéos pour « apprendre » les modèles de ces vidéos afin de générer de nouvelles séquences. D'où viennent les données d'entraînement ? Runway refuse de le dire, comme de nombreux fournisseurs de nos jours, en partie par peur de sacrifier son avantage concurrentiel.
Mais les détails de l'entraînement sont également une source potentielle de poursuites judiciaires liées à la propriété intellectuelle si Runway s'est entraîné sur des données protégées par le droit d'auteur sans autorisation. Il existe des preuves que c'est effectivement le cas : un rapport de 404 Media en juillet a révélé une feuille de calcul Runway contenant des données d'entraînement qui incluait des liens vers des chaînes YouTube appartenant à Netflix, Disney, Rockstar Games et à des créateurs comme Linus Tech Tips et MKBHD.
On ne sait pas si Runway a finalement utilisé des vidéos de la feuille de calcul pour entraîner ses modèles vidéo. Dans une interview accordée à TechCrunch en juin, le cofondateur de Runway, Anastasis Germanidis, s'est contenté de dire que l'entreprise utilise des « ensembles de données internes organisés » pour l'entraînement des modèles. Mais si c'était le cas, ce ne serait pas le seul fournisseur d'IA à jouer avec les lois sur le droit d'auteur.
Plus tôt cette année, Mira Murati, directrice technique d'OpenAI, n'a pas nié catégoriquement que Sora avait été formé sur du contenu YouTube. Et Nvidia aurait utilisé des vidéos YouTube pour former un modèle interne de génération de vidéos appelé Cosmos.
De nombreux fournisseurs d’IA générative estiment que la doctrine connue sous le nom d’usage équitable offre une couverture juridique, et ils le font valoir devant les tribunaux et dans des déclarations publiques. D’autres sont moins enclins à prendre des risques et/ou considèrent une approche plus « éthique » de la formation des modèles comme un argument de vente pour leurs services. Pour développer ses modèles Firefly générateurs de vidéos, Adobe offrirait par exemple aux artistes des paiements en échange de clips.
Dans ses conditions de service, Luma indique qu'elle s'engage à défendre et à indemniser les clients commerciaux de l'API pour les dommages découlant des réclamations pour violation de propriété intellectuelle. D'autres fournisseurs, dont OpenAI, proposent des politiques d'indemnisation similaires. Runway ne le fait pas, bien qu'il ait déclaré en décembre dernier qu'il s'associerait à la bibliothèque multimédia Getty pour développer des versions plus « commercialement sûres » de ses produits.
Quelle que soit l'issue des procès relatifs à la légalité de la formation sur le contenu protégé par le droit d'auteur, une chose devient claire : les outils vidéo d'IA générative menacent de bouleverser l'industrie du cinéma et de la télévision telle que nous la connaissons.
Une étude de 2024 commandée par l’Animation Guild, un syndicat représentant les animateurs et dessinateurs de Hollywood, a révélé que 75 % des sociétés de production cinématographique ayant adopté l’IA ont réduit, consolidé ou supprimé des emplois après avoir intégré cette technologie. L’étude estime également que d’ici 2026, plus de 100 000 emplois dans le secteur du divertissement aux États-Unis seront perturbés par l’IA générative.
Mise à jour le 16/09 à 11h18 (heure du Pacifique) : ajout d'informations sur le lancement de l'API de Luma.