Aleksandra Pedraszewska AI Safety ElevenLabs, Sarah Myers West, directrice exécutive de l'AI Now Institute, et Jingna Zhang, fondatrice et PDG, Cara à TechCrunch Disrupt 2024 le mercredi 30 octobre 2024. (Photo de Katelyn Tucker/Slava Blazer Photography)

« Déplacez-vous prudemment et faites les choses en équipe rouge » n'est malheureusement pas aussi accrocheur que « avancez vite et cassez les choses ». Mais trois défenseurs de la sécurité de l’IA ont clairement fait comprendre aux fondateurs de startups qu’aller trop vite peut entraîner des problèmes éthiques à long terme.

« Nous sommes à un point d'inflexion où des tonnes de ressources sont déplacées vers cet espace », a déclaré Sarah Myers West, co-directrice exécutive de l'AI Now Institute, sur scène à TechCrunch Disrupt 2024. « Je suis vraiment inquiète qu'en ce moment il y a une telle hâte de commercialiser des produits dans le monde entier, sans penser à cette question héritée de savoir quel est le monde dans lequel nous voulons vraiment vivre et de quelle manière la technologie produite agit au service de ce monde. ou lui nuire activement.

La conversation intervient à un moment où la question de la sécurité de l’IA semble plus urgente que jamais. En octobre, la famille d'un enfant décédé par suicide a poursuivi la société de chatbot Character.AI pour son rôle présumé dans la mort de l'enfant.

« Cette histoire démontre vraiment les enjeux profonds du déploiement très rapide que nous avons vu des technologies basées sur l'IA », a déclaré Myers West. « Certains d’entre eux sont des problèmes de longue date, presque insolubles, liés à la modération des contenus et aux abus en ligne.

Mais au-delà de ces questions de vie ou de mort, les enjeux de l’IA restent importants, de la désinformation à la violation des droits d’auteur.

«Nous construisons quelque chose qui a beaucoup de pouvoir et la capacité d'avoir un impact réel, réel sur la vie des gens», a déclaré Jingna Zhang, fondatrice de la plateforme sociale d'artistes Cara. « Lorsque vous parlez de quelque chose comme Character.AI, qui engage vraiment quelqu'un sur le plan émotionnel, il est logique que je pense qu'il devrait y avoir des garde-fous autour de la façon dont le produit est construit. »

La plateforme Cara de Zhang a décollé après que Meta ait clairement indiqué qu'elle pouvait utiliser les publications publiques de n'importe quel utilisateur pour entraîner son IA. Pour des artistes comme Zhang elle-même, cette politique est une gifle. Les artistes doivent publier leur travail en ligne pour se constituer une clientèle et sécuriser des clients potentiels, mais ce faisant, leur travail pourrait être utilisé pour façonner les modèles d’IA qui pourraient un jour les mettre au chômage.

« Le droit d'auteur est ce qui nous protège et nous permet de gagner notre vie », a déclaré Zhang. Si des œuvres d'art sont disponibles en ligne, cela ne veut pas dire qu'elles sont gratuites en soi : les publications d'information numériques, par exemple, doivent obtenir une licence pour les images des photographes afin de pouvoir les utiliser. « Lorsque l'IA générative a commencé à devenir de plus en plus courante, nous avons constaté qu'elle ne fonctionne pas avec ce à quoi nous sommes habituellement habitués, et qui est établi dans la loi. Et s’ils voulaient utiliser notre travail, ils devraient en obtenir une licence.

Aleksandra Pedraszewska, sécurité de l'IA, ElevenLabs ; Sarah Myers West, directrice exécutive, AI Now Institute ; et Jingna Zhang, fondatrice et PDG de Cara à TechCrunch Disrupt 2024 le mercredi 30 octobre 2024.Crédits images :Katelyn Tucker/Slava Blazer Photographie

Les artistes pourraient également être touchés par des produits comme ElevenLabs, une société de clonage de voix IA qui vaut plus d'un milliard de dollars. En tant que responsable de la sécurité chez ElevenLabs, il appartient à Aleksandra Pedraszewska de veiller à ce que la technologie sophistiquée de l'entreprise ne soit pas récupérée, entre autres, pour des deepfakes non consensuels.

«Je pense que les modèles d'équipe rouge, la compréhension des comportements indésirables et des conséquences involontaires de tout nouveau lancement effectué par une entreprise d'IA générative deviennent à nouveau [a top priority]», a-t-elle déclaré. « ElevenLabs compte aujourd’hui 33 millions d’utilisateurs. Il s’agit d’une communauté massive qui est impactée par tout changement que nous apportons à notre produit.

Pedraszewska a déclaré que l'une des façons dont les personnes occupant son poste peuvent être plus proactives en matière de sécurité des plateformes est d'avoir une relation plus étroite avec la communauté des utilisateurs.

« Nous ne pouvons pas simplement opérer entre deux extrêmes, l’un étant entièrement anti-IA et anti-GenAI, puis l’autre, essayant effectivement de persuader une réglementation zéro de l’espace. Je pense que nous devons nous trouver à mi-chemin en matière de réglementation », a-t-elle déclaré.

TechCrunch propose une newsletter axée sur l'IA ! Inscrivez-vous ici pour le recevoir dans votre boîte de réception tous les mercredis.

A lire également