Entreprise
L’IA de Microsoft avertit qu’il est « dangereux » d’explorer la conscience artificielle.
Des chercheurs, notamment d’Anthropic, s’interrogent sur la possibilité pour ces modèles de développer des expériences subjectives et sur les droits qui pourraient leur être accordés s’ils le faisaient.
Le débat est polarisant dans le secteur technologique, où des personnalités comme Mustafa Suleyman, PDG de Microsoft IA, estiment que promouvoir le bien-être de l’IA est prématuré et peut entraîner des conséquences psychologiques néfastes pour les utilisateurs humains.
En revanche, d’autres entreprises, dont Anthropic et OpenAI, explorent activement cette notion.
Suleyman prévient que faire croire à la conscience des IA risque d’aggraver les divisions sociales et de créer des attachements malsains.
Cependant, certaines voix, comme celles de Larissa Schiavo, suggèrent qu’il est possible de prendre en compte à la fois le bien-être des IA et les risques pour les humains, soutenant que des interactions respectueuses avec les IA peuvent apporter des bénéfices, même sans conscience réelle de leur part.
À mesure que les systèmes d’IA évoluent, la question des droits et de la conscience des IA pourrait devenir encore plus pertinente.