Entreprise

Des experts proposent des stratégies basées sur des preuves pour un développement responsable de l’IA.

Publié

on

Des chercheurs de Berkeley, en collaboration avec d’autres institutions prestigieuses, ont proposé des politiques fondées sur des preuves pour réguler l’intelligence artificielle (IA) dans un article publié dans la revue Science.

Coécrit par des experts de plusieurs universités, cet article s’inscrit dans la lignée d’un rapport du Joint California Policy Working Group sur les modèles d’IA, visant à guider l’utilisation et la gouvernance de cette technologie.

Les auteurs soulignent l’importance d’accélérer la collecte de preuves pour éclairer les décisions politiques, tout en évitant que les incertitudes scientifiques ne soient utilisées pour justifier l’inaction.

Ils recommandent notamment d’inciter l’évaluation des modèles d’IA avant leur déploiement, de renforcer la transparence des grandes entreprises d’IA et d’accroître la surveillance post-déploiement des risques associés.

Les chercheurs insistent sur le fait qu’une politique bien conçue doit s’appuyer sur une compréhension scientifique solide, plutôt que sur des attentes irréalistes.

Enfin, ils appellent à un débat démocratique basé sur des données probantes pour mieux gérer les tensions entourant le développement de l’IA.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile