Non classé
Le programme pilote associe les évaluations générées par l’IA aux appréciations de la communauté humaine sur la plateforme X.
Ce programme permet aux utilisateurs de contribuer des notes contextuelles sur des publications potentiellement trompeuses.
Ces notes sont ensuite évaluées par la communauté, et seules les contributions jugées utiles sont affichées.
À ce jour, ce système reposait exclusivement sur des contributions humaines, mais X teste un nouveau modèle hybride intégrant l’IA, notamment des modèles de langage, pour générer des notes aux côtés des rédacteurs humains.
Cette approche vise à accroître la vitesse et l’échelle de la génération de notes, ce qui est crucial face à l’ampleur de la désinformation.
Bien que cette innovation promettent d’améliorer le processus de vérification, elle soulève également des préoccupations.
Les chercheurs mettent en garde contre le risque de notes générées par l’IA qui pourraient être erronées ou biaisées, ainsi que le risque que les rédacteurs humains soient moins impliqués en raison de l’abondance de contenu automatisé.
À l’avenir, le modèle pourrait évoluer pour inclure davantage d’assistance de l’IA pour les écrivains et les évaluateurs afin d’assurer une vérification plus efficace, tout en conservant la touche humaine essentielle.
L’objectif ultime de cette initiative est de renforcer la capacité des utilisateurs à penser de manière critique face à la désinformation.