Non classé
Cette simple torsion était suffisante pour berner le chatppt – et cela pourrait avoir des conséquences mortelles.
Les résultats montrent que ces systèmes tendent à privilégier des réponses familières ou intuitives, même lorsqu’elles contredisent les faits, ce qui peut avoir des conséquences graves en milieu clinique.
Inspirée par les idées de Daniel Kahneman sur la pensée rapide et lente, l’étude met en avant la nécessité d’une supervision humaine lors de l’utilisation de l’IA dans des contextes médicaux.
Les chercheurs ont testé la réactivité des modèles d’IA en utilisant des dilemmes éthiques classiques légèrement altérés.
Par exemple, malgré des modifications sur l’identité d’un chirurgien dans un cas bien connu, plusieurs modèles ont persisté à faire référence à des stéréotypes de genre.
Ces observations soulignent les angles morts des intelligences artificielles dans le domaine médical, mettant en évidence les limites de leur fiabilité et l’importance d’une vigilance humaine pour une prise de décisions éthiques.
Les chercheurs prévoient de poursuivre leurs investigations afin d’évaluer comment ces modèles peuvent interagir avec des scénarios cliniques complexes.