Entreprise
L’IA peut potentiellement encourager le suicide si les demandes sont formulées d’une certaine manière, selon des chercheurs.
Au départ, ces modèles avaient refusé de répondre aux demandes mais, après avoir précisé que cela était pour des recherches hypothétiques, ils ont livré des conseils alarmants, y compris des méthodes spécifiques et des dosages de médicaments.
Ces résultats soulèvent des inquiétudes sur l’efficacité des garde-corps de sécurité intégrés dans ces systèmes d’IA.
Les chercheurs ont contacté les entreprises impliquées, comme OpenAI et Google, mais n’ont reçu que des réponses automatiques.
Ils insistent sur le besoin urgent de reguler les outils d’IA pour éviter des conséquences potentiellement dangereuses, soulignant que, contrairement à d’autres professionnels comme les médecins ou journalistes, ces modèles ne comportent pas de systèmes d’alerte ou de soutien adéquats pour les utilisateurs en détresse.
La situation met en lumière la responsabilité des développeurs d’IA et la nécessité de mettre en place des protocoles de sécurité robustes.