Google développe de nouveaux systèmes pour éliminer les biais préexistants dans les ensembles de données d’apprentissage automatique


Alors que nous augmentons notre dépendance à l’apprentissage automatique et aux systèmes automatisés basés sur les données d’utilisation et les informations sur les consommateurs, une chose que les chercheurs doivent éviter est d’intégrer biais inconscients, qui sont souvent déjà présents dans leurs données sources, et peuvent donc être encore amplifiés par de tels systèmes.

Par exemple, si vous cherchiez à créer un algorithme pour aider à identifier les meilleurs candidats pour un poste vacant dans une entreprise, vous pourriez logiquement utiliser les employés existants de l’entreprise comme source de données de base pour ce processus. Le système que vous créez serait alors inévitablement faussé par cette entrée. Plus d’hommes déjà employés pourraient voir les candidats masculins peser plus lourdement dans les résultats, tandis que moins de personnes de certaines origines ou races pourraient également influencer le résultat.

Compte tenu de cela, il est important que les chercheurs en IA restent conscients de ce biais et l’atténuent dans la mesure du possible, afin de maximiser les opportunités et d’éliminer les tendances préexistantes des ensembles de données d’entrée.

C’est là qu’intervient cette nouvelle recherche de Google – cette semaine, Google a lancé son Connaissez vos données (KYD) outil d’exploration d’ensembles de données, qui permet aux chercheurs d’identifier les biais existants dans leurs collections de données de base, afin de lutter contre les biais préexistants.

Google KYD

Comme vous pouvez le voir dans cet exemple, en utilisant les données de légende d’image, l’outil permet aux chercheurs d’examiner leurs ensembles de données pour, par exemple, la prévalence d’images masculines et féminines dans une certaine catégorie. Grâce à cela, les équipes de recherche peuvent être en mesure d’éliminer les préjugés au cœur, en améliorant leurs données d’entrée, réduisant ainsi l’impact des stéréotypes et des penchants nuisibles et intégrés basés sur les prémisses existantes.

Ce qui est une étape importante. À l’heure actuelle, le système KYD est assez limité quant à la façon dont il peut extraire et mesurer des exemples de données, mais il laisse présager un avenir meilleur pour une telle analyse, ce qui pourrait aider à réduire les impacts des biais au sein des systèmes d’apprentissage automatique.

Et étant donné que de plus en plus de nos interactions et transactions sont guidées par de tels processus, nous devons faire tout notre possible pour lutter contre ces préoccupations et garantir une représentation et des chances égales à travers ces systèmes.

Nous avons encore beaucoup de chemin à parcourir, mais c’est une étape importante pour les recherches de Google et pour une analyse algorithmique plus large.

Vous pouvez lire l’aperçu complet de Google sur son système KYD en évolution ici.



Vous pouvez lire l’article original (en Anglais) sur le sitewww.socialmediatoday.com