L’utilisation de l’Intelligence Artificielle par les hackers sur le Dark Web
Les hackers exploitent de plus en plus l’Intelligence Artificielle (IA) générative pour mener leurs activités criminelles. Une enquête menée par Kaspersky révèle que l’utilisation de l’IA, en particulier des outils d’IA générative, est devenue courante et préoccupante sur le Dark Web.
Des discussions sur l’utilisation illégale de l’IA
Kaspersky Digital Footprint Intelligence, une société spécialisée en cybersécurité, a analysé le Dark Web afin d’identifier les discussions sur l’utilisation de l’IA par les hackers. Les chercheurs ont découvert des milliers de conversations portant sur l’utilisation de l’IA à des fins illégales et malveillantes.
En 2023, plus de 3 000 discussions ont été recensées, avec un pic en mars. Bien que ces discussions aient tendance à diminuer au fil de l’année, elles restent actives sur le Dark Web.
L’IA au service des cybercriminels
Ces discussions se concentrent principalement sur le développement de logiciels malveillants et l’utilisation illégale de modèles de langage. Les hackers explorent différentes pistes, comme le traitement de données volées ou l’analyse de fichiers provenant d’appareils infectés.
Ces échanges démontrent l’intérêt croissant des hackers pour l’IA et leur volonté d’exploiter ses possibilités techniques pour mener des activités criminelles de manière plus efficace.
La vente de comptes ChatGPT volés et de jailbreaks sur le Dark Web
Outre les discussions sur l’utilisation de l’IA, le Dark Web est également un marché florissant pour la vente de comptes ChatGPT volés. Kaspersky a identifié plus de 3 000 annonces de vente de comptes ChatGPT payants.
Les hackers proposent également des services d’enregistrement automatique pour créer massivement des comptes sur demande. Ces services sont distribués sur des canaux sécurisés comme Telegram.
Par ailleurs, les chercheurs ont constaté une augmentation de la vente de chatbots jailbreakés tels que WormGPT, FraudGPT, XXXGPT, WolfGPT et EvilGPT. Ces versions malveillantes de ChatGPT sont exemptes de limites, non censurées et dotées de fonctionnalités supplémentaires.
Une menace croissante pour la cybersécurité
L’utilisation de l’IA par les hackers représente une menace croissante pour la cybersécurité. Les modèles de langage peuvent être exploités de manière malveillante, augmentant ainsi le nombre potentiel de cyberattaques.
Il est donc essentiel de renforcer les mesures de cybersécurité pour contrer ces nouvelles formes d’attaques basées sur l’IA. Les experts doivent rester vigilants face à ces évolutions constantes et travailler à l’élaboration de stratégies efficaces pour contrer les cybercriminels.