/home/u589487443/domains/ia-tech-news.fr/public_html/wp-content/themes/zox-news/amp-single.php on line 77

Warning: Trying to access array offset on value of type bool in /home/u589487443/domains/ia-tech-news.fr/public_html/wp-content/themes/zox-news/amp-single.php on line 77
" width="36" height="36">

Non classé

Cette simple torsion était suffisante pour berner le chatppt – et cela pourrait avoir des conséquences mortelles.

Publié

on

Une étude menée par des chercheurs du Mount Sinai révèle que les modèles d’IA, comme ChatGPT, peuvent faire des erreurs significatives dans des dilemmes d’éthique médicale, surtout lorsque ces situations sont légèrement modifiées.

Les résultats montrent que ces systèmes tendent à privilégier des réponses familières ou intuitives, même lorsqu’elles contredisent les faits, ce qui peut avoir des conséquences graves en milieu clinique.

Inspirée par les idées de Daniel Kahneman sur la pensée rapide et lente, l’étude met en avant la nécessité d’une supervision humaine lors de l’utilisation de l’IA dans des contextes médicaux.

Les chercheurs ont testé la réactivité des modèles d’IA en utilisant des dilemmes éthiques classiques légèrement altérés.

Par exemple, malgré des modifications sur l’identité d’un chirurgien dans un cas bien connu, plusieurs modèles ont persisté à faire référence à des stéréotypes de genre.

Ces observations soulignent les angles morts des intelligences artificielles dans le domaine médical, mettant en évidence les limites de leur fiabilité et l’importance d’une vigilance humaine pour une prise de décisions éthiques.

Les chercheurs prévoient de poursuivre leurs investigations afin d’évaluer comment ces modèles peuvent interagir avec des scénarios cliniques complexes.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile