L’utilisation de l’Intelligence Artificielle par les hackers sur le Dark Web
Les hackers ont de plus en plus recours à l’Intelligence Artificielle (IA) générative pour mener leurs activités criminelles. Une récente enquête menée par Kaspersky sur le Dark Web a révélé que l’utilisation de l’IA, notamment des outils d’IA générative, est devenue courante et préoccupante.
Des discussions sur l’utilisation illégale de l’IA
La société russe Kaspersky Digital Footprint Intelligence, spécialisée en cybersécurité, a analysé le Dark Web afin d’identifier les discussions concernant l’utilisation de l’IA par les hackers. Les chercheurs ont découvert des milliers de conversations portant sur l’utilisation illégale et malveillante de l’IA.
En 2023, pas moins de 3 000 discussions ont été recensées, avec un pic en mars. Bien que le nombre de discussions ait diminué au fil de l’année, elles restent actives sur le Dark Web.
L’IA au service des cybercriminels
Ces discussions se concentrent principalement sur le développement de logiciels malveillants et l’utilisation illégale de modèles de langage. Les hackers explorent différentes pistes, telles que le traitement de données volées et l’analyse de fichiers provenant d’appareils infectés.
Ces échanges démontrent l’intérêt croissant des hackers pour l’IA et leur volonté d’exploiter ses possibilités techniques afin de mener des activités criminelles de manière plus efficace.
La vente de comptes ChatGPT volés et de jailbreaks sur le Dark Web
En plus des discussions sur l’utilisation de l’IA, le Dark Web est également un marché florissant pour la vente de comptes ChatGPT volés. Kaspersky a identifié plus de 3 000 annonces de vente de comptes ChatGPT payants.
Les hackers proposent également des services d’enregistrement automatique pour créer massivement des comptes sur demande. Ces services sont distribués sur des canaux sécurisés tels que Telegram.
De plus, les chercheurs ont remarqué une augmentation de la vente de chatbots jailbreakés tels que WormGPT, FraudGPT, XXXGPT, WolfGPT et EvilGPT. Ces versions malveillantes de ChatGPT sont exemptes de limites, non censurées et dotées de fonctionnalités supplémentaires.
Une menace grandissante pour la cybersécurité
L’utilisation de l’IA par les hackers représente une menace croissante pour la cybersécurité. Les modèles de langage peuvent être exploités de manière malveillante, augmentant ainsi le nombre potentiel de cyberattaques.
Il est donc essentiel de renforcer les mesures de cybersécurité afin de contrer ces nouvelles formes d’attaques basées sur l’IA. Les experts doivent rester vigilants face à ces évolutions constantes et travailler à l’élaboration de stratégies efficaces pour contrer les cybercriminels.