c’est vrai là La protection des données a fait des progrès aux États-Unis grâce à l’adoption de plusieurs lois, telles que le California Consumer Privacy Act (CCPA), et de documents non contraignants, tels que le Blueprint for an AI Bill of Rights. Pourtant, il n’existe actuellement aucune réglementation standard qui dicte comment les entreprises technologiques doivent atténuer les biais et la discrimination liés à l’IA.
En conséquence, de nombreuses entreprises prennent du retard dans la création d’outils éthiques axés sur la confidentialité. Près de 80 % des data scientists aux États-Unis sont des hommes et 66 % sont blancs, ce qui montre un manque inhérent de diversité et de représentation démographique dans le développement d’outils de prise de décision automatisés, conduisant souvent à des résultats de données biaisés.
Des améliorations significatives des processus d’examen de la conception sont nécessaires pour garantir que les entreprises technologiques tiennent compte de toutes les personnes lors de la création et de la modification de leurs produits. Sinon, les organisations risquent de perdre des clients au profit de la concurrence, de ternir leur réputation et de s’exposer à de graves poursuites judiciaires. Selon IBM, environ 85 % des professionnels de l’informatique pensent que les consommateurs sélectionnent des entreprises transparentes sur la manière dont leurs algorithmes d’IA sont créés, gérés et utilisés. Nous pouvons nous attendre à ce que ce nombre augmente à mesure que de plus en plus d’utilisateurs continuent de prendre position contre les technologies nuisibles et biaisées.
Alors, que doivent garder à l’esprit les entreprises lors de l’analyse de leurs prototypes ? Voici quatre questions que les équipes de développement doivent se poser :
Avons-nous exclu tout type de biais dans notre prototype ?
La technologie a la capacité de révolutionner la société telle que nous la connaissons, mais elle finira par échouer si elle ne profite pas à tout le monde de la même manière.
Pour créer une technologie efficace et sans biais, les équipes d’IA doivent développer une liste de questions à poser pendant le processus d’examen qui peut les aider à identifier les problèmes potentiels dans leurs modèles.
Il existe de nombreuses méthodologies que les équipes d’IA peuvent utiliser pour évaluer leurs modèles, mais avant cela, il est essentiel d’évaluer l’objectif final et s’il existe des groupes qui pourraient être affectés de manière disproportionnée par les résultats de l’utilisation de l’IA.
Par exemple, les équipes d’IA doivent tenir compte du fait que l’utilisation des technologies de reconnaissance faciale peut discriminer par inadvertance les personnes de couleur, ce qui se produit beaucoup trop souvent dans les algorithmes d’IA. Des recherches menées par l’American Civil Liberties Union en 2018 ont montré que la reconnaissance faciale d’Amazon correspondait de manière inexacte à 28 membres du Congrès américain avec des mugshots. Un stupéfiant 40% des correspondances incorrectes étaient des personnes de couleur, bien qu’elles ne représentent que 20% du Congrès.
En posant des questions difficiles, les équipes d’IA peuvent trouver de nouvelles façons d’améliorer leurs modèles et s’efforcer d’empêcher ces scénarios de se produire. Par exemple, un examen approfondi peut les aider à déterminer s’ils ont besoin d’examiner plus de données ou s’ils auront besoin d’un tiers, tel qu’un expert en confidentialité, pour examiner leur produit.
Plot4AI est une excellente ressource pour ceux qui cherchent à démarrer.