Articles

Modérer grâce à l’IA : bloquer la haine sans léser nos libertés ?

Publié le 16/01/2025

Alors qu’on s’inquiète du risque de fake news amplifiées par l’IA, des voix pessimistes annoncent la mort de la modération, emportée par un torrent d’injures, de fausses informations, et de vidéos truquées.

L’IA, une opportunité pour lutter contre la haine en ligne

Pourtant, l’IA peut être perçue comme une opportunité dans la lutte contre la haine en ligne, où elle est capable d’une efficacité inégalée. Aujourd’hui, les systèmes de modération reposent sur des signalements par les utilisateurs et des vérifications manuelles par des équipes souvent sous-dimensionnées. Il n’est pas rare qu’un post haineux circule pendant des heures, voire des jours, avant d’être supprimé, laissant le temps à des milliers de personnes de le voir, de le partager et de l’imiter.

Les algorithmes d’IA, des outils de modération réactifs

Les algorithmes d’intelligence artificielle, en combinant puissance de calcul et rapidité d’analyse, offrent une réactivité sans précédent comparée aux méthodes traditionnelles de modération humaine. Les grandes plateformes de médias sociaux et autres services en ligne utilisent déjà des algorithmes sophistiqués pour identifier et modérer les contenus haineux, souvent en temps réel.

Riot Games et Google : des exemples précoces et marquants

Riot Games, la société à l’origine du célèbre jeu vidéo League of Legends, est un exemple précoce et marquant de l’utilisation de l’IA pour modérer les comportements en ligne. Riot Games avait développé un système appelé Tribunal, où les joueurs pouvaient examiner les cas signalés de comportements inappropriés, tels que menaces, racisme, sexisme ou homophobie.

Les votes des joueurs, plus de 100 millions au total, ont permis d’entraîner une IA capable de détecter les comportements toxiques. Les résultats ont été probants, avec une réduction de 40 % des abus verbaux depuis le lancement du programme.

Un autre exemple frappant de l’efficacité potentielle de l’IA est celui de Google, qui utilise des algorithmes d’apprentissage profond pour modérer les commentaires sur YouTube. En 2020, la plateforme a annoncé que ses systèmes d’IA étaient capables de détecter 95 % des contenus violant ses règles avant même qu’ils ne soient signalés par les utilisateurs. De plus, les systèmes d’IA ont permis de retirer plus de 50 % des commentaires haineux dans les 24 heures suivant leur publication. Google a malgré tout été obligé d’arbitrer, avec l’aide d’un personnel humain, le double de plaintes concernant les contenus retirés.

Cependant, les algorithmes peuvent parfois mal interpréter le contexte, ce qui peut conduire à des faux positifs (contenus innocents marqués comme haineux) et des faux négatifs (contenus haineux non détectés). La subtilité du langage et l’utilisation de termes détournés compliquent la tâche des systèmes d’IA. Par ailleurs, l’efficacité des algorithmes varie selon les langues et les cultures, rendant la détection uniforme des discours de haine encore plus complexe.

Les limites et les enjeux éthiques de la modération automatisée

Un équilibre délicat doit être trouvé entre la censure des contenus haineux et la protection de la liberté d’expression. Des incidents comme la censure du tableau de Gustave Courbet « L’Origine du Monde » par Facebook, jugé pornographique par erreur, illustrent les risques de la modération automatisée.

Pour maximiser l’efficacité des modèles d’IA, il est nécessaire d’utiliser des ensembles de données plus vastes et diversifiés et de développer des techniques de contextualisation avancées. L’intégration étroite des modérateurs humains dans le processus de révision des contenus signalés par l’IA est également essentielle, créant ainsi des systèmes hybrides qui combinent les forces de l’IA et de l’expertise humaine. Facebook a annoncé en 2021 l’utilisation de systèmes d’IA pour filtrer les contenus problématiques, tout en maintenant des équipes de modérateurs humains pour les décisions les plus complexes.

La transparence et la régulation, des conditions indispensables

Des audits réguliers des algorithmes de modération sont nécessaires pour identifier et corriger les biais potentiels. Il est aussi important de fournir plus de transparence sur la manière dont les algorithmes prennent des décisions de censure et de permettre aux utilisateurs de contester ces décisions. Aux États-Unis, des groupes de défense des droits civiques ont demandé plus de transparence et de responsabilité dans l’utilisation de l’IA pour la modération des contenus, soulignant les risques de discrimination ou d’injustice.

En France, la lutte contre la haine en ligne a pris une dimension légale avec la loi Avia, qui oblige les plateformes à retirer les contenus haineux dans un délai de 24 heures après leur signalement. Cette législation, bien qu’ambitieuse, a soulevé des questions sur la capacité des plateformes à répondre efficacement et sur les risques pour la liberté d’expression. L’IA pourrait offrir une solution en permettant une détection plus rapide et plus précise des contenus problématiques, mais elle doit être utilisée avec discernement et encadrée par des régulations claires. L’IA, si elle est utilisée de manière responsable et éthique, pourrait bien être la clé pour assainir les environnements numériques. Elle offre une capacité de réaction rapide et une précision d’analyse sans précédent, surpassant de loin les méthodes traditionnelles de modération humaine. En fin de compte, l’IA peut jouer un rôle central dans la création d’un Internet plus apaisé. Les exemples de Riot Games, Google et les initiatives légales en France montrent que l’IA peut apporter des solutions efficaces, mais elles doivent être appliquées de manière sensée pour protéger à la fois la sécurité des utilisateurs et leurs droits fondamentaux.

Extrait du livre Manuel de Survie à l’IA d’Edouard Fillias et Alexandre Villeneuve, aux Editions Ellipses.

Articles en rapport
Evénement
Colloque IA au Sénat, la Souveraineté numérique en ligne de mire
Colloque IA au Sénat, la Souveraineté numérique en ligne de mire
Lire l'article
eBooks
eBook | Le guide ultime des requêtes ChatGPT pour les professionnels du Marketing et de la Communication
eBook | Le guide ultime des requêtes ChatGPT pour les professionnels du Marketing et de la Communication
Lire l'article
Tribunes
Avec ChatGPT-4o, OpenAI marque la fin de la course à la taille des LLM
Avec ChatGPT-4o, OpenAI marque la fin de la course à la taille des LLM
Lire l'article