(FRA) Tester les algorithmes pour biais avant application pour éviter la discrimination
Date of article: 08/12/2022
Daily News of: 13/12/2022
Country: EUROPE
Author: European Union Agency for Fundamental Rights
Article language: fr
L’intelligence artificielle est partout et concerne tout le monde. Un nouveau rapport de l’Agence des droits fondamentaux de l’UE (FRA) examine l’utilisation de l’intelligence artificielle dans la police prédictive et la détection des discours offensants. Le rapport démontre comment les préjugés dans les algorithmes apparaissent et comment ils peuvent affecter la vie de la population. C’est la première fois que la FRA fournit des éléments concrets sur la manière dont les biais se forment. L'Agence invite les décideurs politiques à veiller à ce que l'Intelligence Artificielle (IA) soit testée pour détecter les préjugés qui pourraient conduire à la discrimination.
« Des algorithmes bien conçus et testés peuvent apporter de nombreuses améliorations. Mais sans vérifications appropriées, les développeurs et les utilisateurs ont de grandes chances d’avoir une incidence négative sur la vie des citoyens, déclare le directeur de la FRA, Michael O’Flaherty. Il n’existe pas de solution rapide. Nous avons besoin d’un système pour évaluer et atténuer les biais avant et pendant l’utilisation d’algorithmes afin de protéger les personnes contre la discrimination. »
Pour son nouveau rapport intitulé « Bias in algorithms – Artificial intelligence and discrimination » (« Les biais dans les algorithmes - intelligence artificielle et discriminations »), la FRA a élaboré deux études de cas pour rechercher de potentiels biais dans les algorithmes :
- La police prédictive montre comment les biais peuvent s’amplifier au fil du temps, ce qui peut conduire à des mesures de police discriminatoires. Si la police ne se rend que dans une seule zone en se basant sur des prédictions influencées par des casiers judiciaires biaisés, elle détectera des infractions essentiellement dans cette zone. Ce processus crée ce qu’on appelle une boucle de rétroaction. Dans ce cas, les algorithmes influencent les algorithmes, en renforçant ou en créant des pratiques discriminatoires susceptibles de cibler de manière disproportionnée des minorités ethniques.
- La détection des discours offensants analyse les biais ethniques et de genre dans les systèmes de détection des discours offensants. Elle montre que les outils utilisés pour détecter les discours de haine en ligne peuvent conduire à des résultats biaisés. Les algorithmes peuvent même signaler comme étant des propos offensants des expressions inoffensives telles que « Je suis musulman » ou « Je suis juif ». Il existe également des biais de genre dans des langues genrées comme l’allemand ou l’italien, qui peuvent conduire à une inégalité d’accès à des services en ligne pour des motifs potentiellement discriminatoires.
Ces résultats nécessitent une évaluation complète des algorithmes. La FRA invite donc les institutions et les pays de l’UE à :
- Rechercher les biais - les algorithmes peuvent être biaisés ou bien développer des biais au fil du temps, ce qui