Cybersécurité

Des recherches révèlent que les modèles de langage avancés peuvent mener des attaques de ransomware de manière autonome.

Publié

on

Une recherche de la NYU Tandon School of Engineering souligne que les criminels peuvent désormais exploiter l’intelligence artificielle, notamment des modèles de langage, pour automatiser les attaques de ransomware. Ce processus, désigné par les chercheurs comme « Ransomware 3.

0 », inclut différentes phases, de l’intrusion dans les systèmes et le vol de données à la rédaction de messages d’extorsion.

Ce système, initialement perçu par des experts en cybersécurité comme un ransomware malveillant, était en fait un prototype développé à des fins de recherche.

Sa sophistication a mis en évidence les défis que ces nouvelles techniques représentent pour la sécurité.

Les chercheurs notent que, grâce à l’IA, ces attaques deviennent non seulement plus accessibles, mais aussi plus difficiles à détecter par les systèmes de sécurité traditionnels, qui reposent sur des signatures d’attaques connues.

Les tests montrent que ces modèles peuvent identifier une majorité de fichiers sensibles sur divers systèmes d’exploitation, augmentant ainsi la vulnérabilité des utilisateurs.

Il est donc crucial de développer des contre-mesures adaptées, telles que la surveillance accrue des accès aux fichiers sensibles et des comportements d’attaque générés par l’IA, afin de renforcer la cybersécurité face à cette menace croissante.

Leave a Reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Populaires

Quitter la version mobile