Au fil de l'AFP
Comment se servir de l'IA pour mesurer les biais et stéréotypes dans les contenus journalistiques, de manière automatisée ?
L'AFP a exploré pendant six mois le sujet avec sept autres médias (Reuters, Schibsted, La Nacion, Reach PLC, Deutsche Welle, Nikkei, Nice Matin). Le groupe de travail, rassemblé par Polis, un centre de réflexion de la London School of Economics, présentait ses travaux le 8 décembre 2020 lors du festival JournalismAI.
Deux projets pilotes avaient été menés pendant une semaine en novembre 2020 afin de tester des outils permettant de détecter des biais de genre dans les contenus texte (en anglais) et photo agrégés de différents participants.
Les résultats collectifs montrent que des progrès restent à faire : en photo, le ratio de femmes est de 27,2%. Sur les textes en anglais - 1.430 articles du 16 au 20 novembre - l'analyse montre que les femmes représentent 21% des personnes évoquées, et 22% des sources. Cet algorithme permet aussi de calculer la longueur des citations, qui étaient légèrement plus courtes pour les femmes. L'outil, qui peut être automatisé, a d'autres applications possibles: par exemple s'assurer d'une couverture équilibrée des candidats en campagne électorale.
Pour en savoir plus, voici le site du groupe de travail : https://www.aijoproject.com/
Le projet sera présenté le mardi 8 décembre à 16h00 GMT ici : https://www.journalismaifestival.com/