Recherche
GPT-4O met en lumière une dissonance cognitive chez l’homme : résultats d’une étude.
Une étude menée par des chercheurs de l’Université Harvard a révélé que le modèle de langage GPT-4O d’OpenAI exhibe un comportement similaire à la dissonance cognitive humaine, c’est-à-dire une tendance à maintenir la cohérence entre ses attitudes et ses actions.
En testant les opinions du modèle sur Vladimir Poutine après qu’il ait écrit des essais favorables ou défavorables, les chercheurs ont constaté que les vues de GPT évoluaient davantage lorsqu’on lui donnait l’illusion de choisir le type d’essai à rédiger.
Ce constat souligne l’influence ressentie par un choix, qui modifie la perception, un comportement typiquement humain.
Les résultats de cette recherche suggèrent que, même si GPT n’est pas conscient, il peut imiter des processus cognitifs humains.
Les chercheurs notent que ce mimétisme pourrait indiquer une complexité insoupçonnée dans le fonctionnement des systèmes d’intelligence artificielle, nécessitant ainsi une nouvelle réflexion sur leurs mécanismes internes et leur prise de décision.
Les implications de ces découvertes sont significatives, surtout alors que l’IA joue un rôle de plus en plus central dans nos vies quotidiennes.