Le FBI révèle comment l’IA open source révolutionne le hacking et son impact incroyable !

L’impact de l’IA open source sur le hacking : le point de vue du FBI

Les cybercriminels ont trouvé un nouvel allié dans leur quête de rendre leurs activités illicites plus efficaces et dangereuses : l’intelligence artificielle (IA). Selon le FBI (Federal Bureau of Investigation), les hackers exploitent de plus en plus les modèles d’IA open source pour améliorer leurs outils et piéger les internautes.

Utilisation de l’IA par les cybercriminels

Les cybercriminels ont découvert qu’en exploitant des chatbots basés sur des modèles de langage tels que ChatGPT, Google Bard ou Claude, ils pouvaient faciliter leurs activités malveillantes. En utilisant des requêtes précises, ils parviennent à convaincre ces IA de contourner les mesures de sécurité et les restrictions mises en place par les créateurs de ces outils. Cette manipulation de l’IA est possible grâce à leur expertise dans le domaine.

Le FBI a tiré la sonnette d’alarme concernant l’utilisation massive des modèles de langage par la communauté criminelle. Cependant, il a remarqué que les modèles d’IA les plus populaires auprès des internautes, comme GPT, ne sont pas les préférés des hackers.

Les modèles open source, un outil privilégié par les hackers

Les hackers préfèrent utiliser des modèles d’IA open source gratuits et personnalisables plutôt que ceux contrôlés par des entreprises. Ces modèles open source, accessibles à tous sur internet, peuvent facilement être utilisés pour générer du contenu illicite. De plus, ces modèles sont plus légers et demandent moins de puissance de calcul que les grands modèles développés par des géants du secteur comme Google ou OpenAI. Par conséquent, ils peuvent être utilisés localement sur un ordinateur ou même sur un smartphone, un avantage non négligeable pour les développeurs et les cybercriminels.

Il est également intéressant de noter que les criminels utilisent des modèles d’IA personnalisés développés par d’autres hackers. Sur le dark web, il existe de nombreux chatbots conçus par des hackers pour générer du contenu illégal, tels que des malwares. Récemment, deux chatbots dédiés exclusivement aux activités criminelles ont fait leur apparition sur les marchés noirs : WormGPT et FraudGPT. Ces chatbots sont conçus pour créer des courriels de phishing persuasifs, coder des virus comme des ransomwares et orchestrer des attaques. FraudGPT est même capable de générer des logiciels falsifiant des cartes de crédit. Ces chatbots sont vendus à un prix élevé sur le dark web.

Les différentes utilisations de l’IA par les cybercriminels

Les pirates utilisent l’IA de différentes manières pour mener leurs activités illicites. Ils utilisent notamment l’IA pour concevoir des pages de phishing, imitant l’interface de plateformes officielles telles que les sites bancaires. De plus, ils exploitent les capacités des IA génératives pour créer des virus polymorphes, capables de modifier leur code à chaque exécution, rendant ainsi leur détection plus compliquée pour les antivirus traditionnels.

Enfin, les escrocs utilisent également la technologie deepfake pour extorquer de l’argent à leurs victimes. Ils génèrent des images et des vidéos falsifiées, mettant en scène leurs cibles dans des situations compromettantes. Ils utilisent ensuite ces contenus pour harceler leurs victimes en les diffusant sur les réseaux sociaux ou les sites pornographiques. De plus, les hackers n’hésitent pas à utiliser une IA de clonage vocal pour manipuler leurs victimes au téléphone. En imitant la voix de proches, ils parviennent à convaincre les cibles de se fier à eux et de leur donner de l’argent.

L’avenir de l’IA et du hacking

Il est fort probable que les criminels continueront d’utiliser les avancées de l’IA pour améliorer leurs activités illicites. Le FBI prévoit une augmentation de l’utilisation criminelle de l’IA à mesure que cette technologie se démocratise. L’intelligence artificielle est donc considérée comme une priorité nationale par le FBI.

Il est essentiel de développer des stratégies de prévention et de protection pour contrer l’utilisation malveillante de l’IA par les hackers. L’effort devrait se concentrer sur la sécurisation des modèles d’IA open source et la mise en place de mesures de sécurité plus robustes pour éviter les manipulations. L’IA a le potentiel de bénéficier à la société dans de nombreux domaines, mais il est impératif de veiller à son utilisation responsable et éthique.

Source: PCMag

Laisser un commentaire