Comment un programme d’IA pourrait garantir la fiabilité des citations Wikipedia : une étude révèle tout!
L'intelligence artificielle serait-elle capable de faire le ménage dans l'encyclopédie numérique du net, alimentée par des rédacteurs du monde entier ? Est-ce seulement une possibilité envisageable ?
Tl;dr
Une IA pour améliorer la fiabilité de Wikipedia
Il est bien connu qu’il faut se méfier de tout ce qui est écrit sur une page Wikipedia. Pour cette raison, il est essentiel de se référer aux sources originales citées en notes de bas de page. Cependant, même les sources primaires peuvent parfois nous induire en erreur. Pour remédier à cela, des chercheurs ont développé une Intelligence Artificielle (IA) centrée sur l’amélioration de la fiabilité des références de Wikipedia. Cette IA, nommée SIDE, est formée pour identifier les citations douteuses sur le site.
Le fonctionnement de SIDE
SIDE vérifie si une source primaire est exacte et suggère de nouvelles références. Toutefois, l’IA fonctionne sous l’hypothèse qu’une affirmation de Wikipedia est vraie. Ainsi, bien qu’elle puisse vérifier la validité d’une source, elle ne peut pas réellement vérifier les affirmations faites dans une entrée.
Les résultats du test de SIDE
Une étude a révélé que les personnes préféraient les citations suggérées par l’IA à l’original 70% du temps. Les chercheurs ont constaté que dans près de 50% des cas, SIDE présentait une source déjà utilisée par Wikipedia comme référence principale. Et 21% du temps, SIDE avait une longueur d’avance en proposant une recommandation déjà jugée appropriée par les annotateurs humains de l’étude.
Cependant, malgré les avantages potentiels de l’IA pour la vérification des faits, il existe des limites. Par exemple, SIDE ne considère que les références correspondant aux pages web, alors que Wikipedia cite aussi des livres, des articles scientifiques et d’autres médias.
L’avis de la rédaction
Malgré les obstacles, l’avènement de SIDE est une avancée notable dans la lutte contre la désinformation. Cette IA pourrait servir de modèle pour développer des outils capables de faire face aux acteurs malveillants qui inondent les plateformes de fausses informations. Cependant, il est essentiel de continuer à travailler sur l’IA pour améliorer sa capacité à vérifier les sources et les affirmations.