Entreprise
Les grands noms de la technologie signalent que le temps pour encadrer l’IA s’épuise, appel à l’action.
Reconnaissant ces dangers, des chercheurs de Google Deepmind, OpenAI, Meta et d’autres organisations ont uni leurs efforts pour encourager une surveillance accrue des processus de raisonnement de l’IA.
Dans un article commun, des figures de proue comme Geoffrey Hinton et Ilya Sutskever décrivent l’importance de surveiller les « chaînes de pensée » (COTS), qui permettent aux systèmes d’IA de résoudre des problèmes complexes en les divisant en étapes plus simples.
La surveillance des COTS est considérée comme essentielle pour comprendre les décisions des systèmes d’IA, surtout alors que leur complexité augmente.
Les chercheurs sont préoccupés par l’efficacité limitée des méthodes de surveillance actuelles, qui peuvent ne pas détecter les comportements inappropriés de l’IA.
Ils soulignent que l’amélioration de cette surveillance pourrait stabiliser les agents intelligents face à leur évolution rapide.
Ce consensus parmi des entreprises technologiques concurrentes souligne l’urgence de garantir la sécurité des systèmes d’IA intégrés dans notre société.