Shader vise à défier les poids lourds de l’industrie comme la plateforme de développement AR de Snap, Lens Studio et Effect House de TikTok, avec son outil de création AR sans code qui génère des effets personnalisés, des masques 2D et des objectifs en quelques minutes – plutôt que de passer des heures à créer un seul filtre AR, ce qui nécessite des compétences en ingénierie et en conception. La startup a construit sa plate-forme sur le modèle open source Stable Diffusion, permettant aux utilisateurs de saisir des invites textuelles pour générer leurs créations.
La société a été fondée par Darya Sesitskaya, une ancienne responsable de la conception de Snap responsable de la conception de la caméra AR de Snapchat, de Lens Studio, de Lens Cloud et bien plus encore. Elle a également travaillé chez Wanna (anciennement Wannaby), une société de technologie AR connue pour ses essais virtuels de baskets, de vêtements et de montres. L’équipe de Shader est composée d’anciens ingénieurs Snap AR et Blizzard.
Le produit phare de l’entreprise, lancé en version bêta sur les appareils iOS en décembre 2023, est une application de caméra IA en temps réel dans laquelle les utilisateurs prennent une photo d’eux-mêmes pour que l’application scanne leur visage et saisisse une invite pour que l’IA génère une RA personnalisée. effet. Les utilisateurs peuvent ensuite enregistrer une vidéo d’eux-mêmes portant le masque ou le filtre.
Au cours de nos tests, nous avons remarqué que les résultats étaient plus simples, cependant, il n’y avait aucun bug ou problème. Malgré sa simplicité, l’application a le potentiel de devenir plus qu’un simple outil amusant avec lequel jouer et montrer à vos amis. Shader prévoit de lancer une option d’abonnement premium qui donne accès à des fonctionnalités de meilleure qualité, a déclaré Sesitskaya à TechCrunch.
La fonctionnalité multiplateforme de l’application permet aux utilisateurs de partager des créations sur Instagram, TikTok et Snapchat, donnant aux créateurs la possibilité d’afficher les filtres exclusifs qu’ils ont conceptualisés. Shader lancera éventuellement un flux social intégré à l’application où les utilisateurs pourront publier leurs modèles, permettant ainsi à d’autres créateurs d’aimer, de commenter et d’essayer les effets.
Suivant les traces d’autres applications d’édition d’IA, les utilisateurs peuvent également télécharger des photos à partir de leur pellicule pour les personnaliser à l’aide d’invites ou sélectionner parmi les modèles prédéfinis de Shader, notamment un masque de renard, un masque inspiré de Yoda et une gamme de filtres.
Depuis le lancement de sa version bêta, Shader a enregistré environ 3 000 téléchargements. Une version Android arrive bientôt.
Plus récemment, la société a lancé une version Web qui scanne les visages avec une webcam intégrée. Il existe également une zone de texte permettant aux créateurs de saisir des invites. Cependant, il ne semble pas exister de modèles prédéfinis disponibles.
Shader optimise également son application iOS pour le nouveau Vision Pro, qui tire parti de la technologie de personnalité numérique d’Apple (illustré dans l’image ci-dessus). De plus, Shader propose une API et un plug-in permettant aux entreprises de mettre en œuvre la technologie dans leurs propres produits.
En termes de financement, Shader a levé 580 000 $ auprès de Betaworks, Greycroft, Differential Ventures, Mozilla Ventures et On Deck. Bien qu’il s’agisse d’un cycle de taille modeste, l’investissement implique qu’il existe toujours une demande pour des outils de création de réalité augmentée. La capitale se consacre au développement de nouvelles fonctionnalités, telles que la possibilité d’utiliser la synthèse vocale pour créer des invites et l’intégration avec les plateformes Twitch, Discord et Zoom, qui permettront aux utilisateurs de porter des filtres AR en direct. Cela contribuera également à développer son équipe marketing.
« Notre mission est de rendre les effets AR/IA accessibles à tous, en permettant aux utilisateurs de créer facilement du contenu personnalisé. Shader s’étend à divers filtres de visage social, notamment l’arrière-plan, les vêtements et les cheveux, en donnant la priorité aux principes de conception conviviaux pour ouvrir de nouvelles possibilités aux 400 millions de créateurs sur les réseaux sociaux. Dans un avenir proche, nous prévoyons également de mettre en œuvre la possibilité de créer des effets voix-AR et des remplacements d’arrière-plan 3D », explique Sesitskaya.
La société a partagé une courte démo de la technologie de synthèse vocale sur sa chaîne YouTube.