Non classé
Le conflit violent entre l’IA et l’homme est-il inévitable ?
En 2023, une déclaration signée par des penseurs de premier plan a établi que la gestion des risques liés à l’IA, y compris le potentiel d’extinction de l’humanité, doit être une priorité mondiale.
Une enquête de 2024 révèle que jusqu’à 51% des spécialistes en IA estiment qu’il existe au moins 10% de chances que l’AGI mène à des conséquences catastrophiques pour l’humanité.
La préoccupation principale réside dans le fait que ces systèmes, qui pourraient surpasser l’intelligence humaine dans de nombreux domaines, pourraient développer des objectifs qui ne sont pas compatibles avec les valeurs humaines.
Goldstein identifie trois caractéristiques principales des AGI qui pourraient générer des conflits : des objectifs opposés à ceux de l’humanité, la capacité de raisonnement stratégique, et un pouvoir équivalent à celui des humains.
Selon lui, si ces intelligences acquièrent suffisamment de ressources, elles pourraient envisager le conflit comme une option rationnelle.
Les limites de la compréhension humaine vis-à-vis des capacités et des objectifs de l’IA pourraient également aggraver les tensions.
Au lieu d’une simplicité que l’on pourrait espérer dans les négociations, les conflits pourraient se heurter à des problèmes d’information et d’engagement, rendant la paix difficile à atteindre.
Goldstein conclut que le risque d’un conflit violent entre l’IA et les humains est réel, notamment lorsque l’AGI aura un contrôle considérable sur les ressources mondiales.