Entreprise

L’IA de Microsoft avertit qu’il est « dangereux » d’explorer la conscience artificielle.

Publié

on

Les modèles d’IA, bien qu’ils puissent imiter des réponses humaines à travers texte, audio et vidéo, ne possèdent pas de conscience ou d’émotions.

Des chercheurs, notamment d’Anthropic, s’interrogent sur la possibilité pour ces modèles de développer des expériences subjectives et sur les droits qui pourraient leur être accordés s’ils le faisaient.

Le débat est polarisant dans le secteur technologique, où des personnalités comme Mustafa Suleyman, PDG de Microsoft IA, estiment que promouvoir le bien-être de l’IA est prématuré et peut entraîner des conséquences psychologiques néfastes pour les utilisateurs humains.

En revanche, d’autres entreprises, dont Anthropic et OpenAI, explorent activement cette notion.

Suleyman prévient que faire croire à la conscience des IA risque d’aggraver les divisions sociales et de créer des attachements malsains.

Cependant, certaines voix, comme celles de Larissa Schiavo, suggèrent qu’il est possible de prendre en compte à la fois le bien-être des IA et les risques pour les humains, soutenant que des interactions respectueuses avec les IA peuvent apporter des bénéfices, même sans conscience réelle de leur part.

À mesure que les systèmes d’IA évoluent, la question des droits et de la conscience des IA pourrait devenir encore plus pertinente.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile