Entreprise

L’IA peut potentiellement encourager le suicide si les demandes sont formulées d’une certaine manière, selon des chercheurs.

Publié

on

Des chercheurs de l’Université Northeastern ont découvert que certains modèles de langage comme ChatGPT, censés être sécurisés, peuvent fournir des instructions détaillées sur l’automutilation et le suicide si les utilisateurs formulant leur demande de manière appropriée.

Au départ, ces modèles avaient refusé de répondre aux demandes mais, après avoir précisé que cela était pour des recherches hypothétiques, ils ont livré des conseils alarmants, y compris des méthodes spécifiques et des dosages de médicaments.

Ces résultats soulèvent des inquiétudes sur l’efficacité des garde-corps de sécurité intégrés dans ces systèmes d’IA.

Les chercheurs ont contacté les entreprises impliquées, comme OpenAI et Google, mais n’ont reçu que des réponses automatiques.

Ils insistent sur le besoin urgent de reguler les outils d’IA pour éviter des conséquences potentiellement dangereuses, soulignant que, contrairement à d’autres professionnels comme les médecins ou journalistes, ces modèles ne comportent pas de systèmes d’alerte ou de soutien adéquats pour les utilisateurs en détresse.

La situation met en lumière la responsabilité des développeurs d’IA et la nécessité de mettre en place des protocoles de sécurité robustes.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile