Non classé

Le programme pilote associe les évaluations générées par l’IA aux appréciations de la communauté humaine sur la plateforme X.

Publié

on

X (anciennement Twitter) a introduit en 2021 un programme appelé « Community Notes » pour lutter contre la désinformation.

Ce programme permet aux utilisateurs de contribuer des notes contextuelles sur des publications potentiellement trompeuses.

Ces notes sont ensuite évaluées par la communauté, et seules les contributions jugées utiles sont affichées.

À ce jour, ce système reposait exclusivement sur des contributions humaines, mais X teste un nouveau modèle hybride intégrant l’IA, notamment des modèles de langage, pour générer des notes aux côtés des rédacteurs humains.

Cette approche vise à accroître la vitesse et l’échelle de la génération de notes, ce qui est crucial face à l’ampleur de la désinformation.

Bien que cette innovation promettent d’améliorer le processus de vérification, elle soulève également des préoccupations.

Les chercheurs mettent en garde contre le risque de notes générées par l’IA qui pourraient être erronées ou biaisées, ainsi que le risque que les rédacteurs humains soient moins impliqués en raison de l’abondance de contenu automatisé.

À l’avenir, le modèle pourrait évoluer pour inclure davantage d’assistance de l’IA pour les écrivains et les évaluateurs afin d’assurer une vérification plus efficace, tout en conservant la touche humaine essentielle.

L’objectif ultime de cette initiative est de renforcer la capacité des utilisateurs à penser de manière critique face à la désinformation.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile