Pour en savoir plus, visitez cette page du site de l’UNESCO.
L’UNESCO met en garde : l’IA générative pourrait déformer l’histoire de la Shoah et amplifier l’antisémitisme si des règles éthiques ne sont pas rapidement mises en place.
Un rapport publié en juin 2024 par l’UNESCO, en partenariat avec le Congrès juif mondial, alerte sur un phénomène inquiétant : les outils d’IA générative comme ChatGPT ou Google Bard risquent de produire, volontairement ou non, des contenus faux ou déformés sur l’Holocauste. Ces fausses informations pourraient nourrir l’antisémitisme, notamment auprès des jeunes qui utilisent massivement ces technologies dans leur vie quotidienne.
Les systèmes d’IA générative s’entraînent avec d’énormes quantités de données issues d’internet. Le problème ? Ces données peuvent inclure des informations fausses ou biaisées. Résultat, l’IA peut non seulement refléter ces préjugés, mais aussi les amplifier. L’Holocauste, qui est souvent la cible de récits négationnistes ou révisionnistes, est particulièrement vulnérable.
Selon le rapport, certains outils d’IA se nourrissent même de données provenant de sites négationnistes, ce qui les rend capables de produire des témoignages ou des documents totalement inventés. Par exemple, des images ou enregistrements audio générés par l’IA peuvent sembler authentiques mais véhiculer des informations fausses, ce qui les rend particulièrement dangereux pour les jeunes utilisateurs sur les réseaux sociaux.
Un cas marquant est celui de l’application Historical Figures, qui permettait aux utilisateurs de « discuter » avec des figures historiques comme Adolf Hitler ou Joseph Goebbels. L’application présentait ces individus sous un jour déformé, allant jusqu’à prétendre que Goebbels avait tenté d’empêcher les violences envers les Juifs – une déclaration totalement fausse.
En l’absence de données fiables, les systèmes d’IA générative peuvent « halluciner », c’est-à-dire inventer des faits ou des événements fictifs. Le rapport cite des exemples troublants où ChatGPT et Google Bard ont produit des récits détaillés mais entièrement inventés sur l’Holocauste. Par exemple, ChatGPT a créé de toutes pièces l’idée de « campagnes d’Holocauste par noyade », tandis que Bard a fabriqué de fausses citations de témoins.
Ce phénomène va au-delà de simples erreurs : l’IA peut simplifier des événements complexes ou prioriser certaines sources au détriment d’autres. Par exemple, 60 à 80 % des images liées à l’Holocauste dans les recherches en ligne proviennent uniquement du site d’Auschwitz-Birkenau, ce qui réduit la diversité des perspectives et des récits disponibles.
Alors que 80 % des jeunes âgés de 10 à 24 ans utilisent l’IA plusieurs fois par jour, il est urgent de mettre en place des garde-fous éthiques pour éviter que l’IA ne devienne un outil de désinformation. L’UNESCO appelle à une régulation rapide et à une vigilance accrue pour protéger la mémoire historique et prévenir la propagation de discours haineux.
Les risques liés à l’IA générative concernent tout le monde, et en particulier les nouvelles générations. Ce rapport invite à réfléchir sur notre responsabilité collective face à ces technologies, afin qu’elles soient utilisées pour éduquer, et non pour diviser.
Pour en savoir plus, visitez cette page du site de l’UNESCO.