OpenAI forme une nouvelle équipe pour étudier la sécurité des enfants

Sous le contrôle des militants – et des parents – OpenAI a formé une nouvelle équipe pour étudier les moyens d’empêcher que ses outils d’IA ne soient utilisés à mauvais escient ou abusés par les enfants.

Dans une nouvelle offre d’emploi sur sa page carrière, OpenAI révèle l’existence d’une équipe de sécurité des enfants, qui, selon l’entreprise, travaille avec des groupes politiques, juridiques et d’enquête de plateforme au sein d’OpenAI ainsi qu’avec des partenaires externes pour gérer « les processus, les incidents et les examens ». » concernant les utilisateurs mineurs.

L’équipe cherche actuellement à embaucher un spécialiste de la sécurité des enfants, qui sera chargé d’appliquer les politiques d’OpenAI dans le contexte du contenu généré par l’IA et de travailler sur les processus d’examen liés au contenu « sensible » (vraisemblablement lié aux enfants).

Les fournisseurs de technologies d’une certaine taille consacrent une grande quantité de ressources au respect de lois telles que la règle américaine de protection de la vie privée en ligne des enfants, qui impose de contrôler ce à quoi les enfants peuvent – et ne peuvent pas – accéder sur le Web, ainsi que les types de données des sociétés. peut collecter sur eux. Ainsi, le fait qu’OpenAI ait embauché des experts en sécurité des enfants n’est pas une surprise totale, surtout si l’entreprise s’attend un jour à une base importante d’utilisateurs mineurs. (Les conditions d’utilisation actuelles d’OpenAI nécessitent le consentement parental pour les enfants âgés de 13 à 18 ans et interdisent l’utilisation pour les enfants de moins de 13 ans.)

Mais la formation de la nouvelle équipe, qui intervient plusieurs semaines après qu’OpenAI a annoncé un partenariat avec Common Sense Media pour collaborer sur des directives d’IA adaptées aux enfants et a décroché son premier client dans le domaine de l’éducation, suggère également une méfiance de la part d’OpenAI à l’égard des politiques relatives à utilisation de l’IA par les mineurs – et presse négative.

Les enfants et les adolescents se tournent de plus en plus vers les outils GenAI pour les aider non seulement dans leurs devoirs scolaires mais aussi dans leurs problèmes personnels. Selon un sondage du Center for Democracy and Technology, 29 % des enfants déclarent avoir utilisé ChatGPT pour gérer des problèmes d’anxiété ou de santé mentale, 22 % pour des problèmes avec des amis et 16 % pour des conflits familiaux.

Certains y voient un risque croissant.

L’été dernier, les écoles et les collèges se sont empressés d’interdire ChatGPT en raison de craintes de plagiat et de désinformation. Depuis, certains sont revenus sur leurs interdictions. Mais tous ne sont pas convaincus du potentiel positif de GenAI, citant des enquêtes comme celle du UK Safer Internet Centre, qui a révélé que plus de la moitié des enfants (53 %) déclarent avoir vu des personnes de leur âge utiliser GenAI de manière négative – par exemple en créant de fausses informations crédibles. informations ou images utilisées pour contrarier quelqu’un.

En septembre, OpenAI a publié une documentation pour ChatGPT dans les salles de classe avec des invites et une FAQ pour offrir aux enseignants des conseils sur l’utilisation de GenAI comme outil pédagogique. Dans l’un des articles de support, OpenAI a reconnu que ses outils, en particulier ChatGPT, « peuvent produire des résultats qui ne sont pas appropriés à tous les publics ou à tous les âges » et a conseillé de « faire preuve de prudence » lors de l’exposition aux enfants, même à ceux qui répondent aux exigences d’âge.

Les appels à des lignes directrices sur l’utilisation de GenAI par les enfants se multiplient.

L’année dernière, l’Organisation des Nations Unies pour l’éducation, la science et la culture (UNESCO) a poussé les gouvernements à réglementer l’utilisation de GenAI dans l’éducation, notamment en mettant en œuvre des limites d’âge pour les utilisateurs et des garde-fous en matière de protection des données et de confidentialité des utilisateurs. « L’IA générative peut être une formidable opportunité pour le développement humain, mais elle peut aussi causer des dommages et des préjugés », a déclaré Audrey Azoulay, directrice générale de l’UNESCO, dans un communiqué de presse. « Il ne peut pas être intégré à l’éducation sans l’engagement du public et sans les garanties et réglementations nécessaires de la part des gouvernements. »

A lire également