Cybercriminalité et Intelligence Artificielle : Les terrifiantes menaces du futur !

Les cybercriminels et l’utilisation croissante de l’intelligence artificielle

Les cybercriminels exploitent de plus en plus l’intelligence artificielle (IA) pour rendre leurs attaques plus efficaces et crédibles. L’utilisation de l’IA générative, popularisée par le robot conversationnel ChatGPT, se répand dans le monde de la cybercriminalité. Les différentes formes d’attaques, telles que le phishing, les rançongiciels, les escroqueries et les arnaques au président, bénéficient des avancées technologiques offertes par l’IA.

Une démocratisation de l’IA chez les cybercriminels

Le directeur de l’expertise en cybersécurité de Cybermalveillance.gouv.fr, Jean-Jacques Latour, souligne que l’IA se démocratise chez les cybercriminels, les rendant ainsi plus performants et crédibles. Les méthodes utilisées par ces criminels ne changent pas, mais leur volume et leur force de persuasion augmentent considérablement.

Des attaques sophistiquées

Le phishing, par exemple, devient de plus en plus sophistiqué et évite les erreurs grossières de syntaxe ou d’orthographe. Les escrocs s’adaptent au langage des victimes potentielles et utilisent des contextes appropriés pour les convaincre de cliquer sur des liens ou des sites douteux.

L’utilisation détournée de l’IA générative

L’IA générative peut être détournée pour créer des logiciels malveillants personnalisés exploitant des vulnérabilités connues des programmes informatiques. Des programmes tels que ThreatGPT, WormGPT et FraudGPT se développent sur le Darknet et gagnent en popularité auprès des acteurs malveillants.

L’IA pour exploiter une masse de données

Les hackers utilisent également l’IA pour trier et exploiter une masse de données après avoir infiltré un système informatique. Cela leur permet de maximiser leurs profits en ciblant les informations les plus pertinentes.

L’IA dans l’arnaque au président

L’IA est également utilisée dans le cadre de l’arnaque au président, où les hackers collectent des informations sur les dirigeants d’entreprises pour autoriser des virements frauduleux. Grâce aux générateurs d’audio « deepfake », ils peuvent imiter parfaitement la voix des dirigeants pour donner des ordres de virement.

Les rançongiciels et le vishing

Les entreprises et les hôpitaux sont également confrontés aux rançongiciels qui utilisent déjà l’IA pour modifier leur code et échapper à la détection des outils de sécurité. De plus, la technique du vishing, où un faux banquier demande un transfert d’argent, pourrait également être améliorée grâce à l’IA.

Les cas d’utilisation de l’IA par les criminels

La police britannique a déjà signalé des cas où des contenus synthétiques générés par l’IA ont été utilisés pour tromper, harceler ou extorquer des victimes. Bien que les premiers cas en France n’aient pas été officiellement recensés, des doutes subsistent quant à l’utilisation de l’IA par les criminels.

La règle du « zero trust » pour contrer les attaques

Face à ces nouvelles menaces, il est primordial d’appliquer la règle du « zero trust », c’est-à-dire de ne faire confiance à aucun élément a priori en matière de cybersécurité et d’IA. Les hackers les plus actifs sont généralement des réseaux bien organisés d’Europe de l’Est, mais il ne faut pas négliger les pirates étatiques de pays en marge.

Conclusion

En conclusion, la cybercriminalité exploitant l’IA représente une menace croissante. Les cybercriminels utilisent de plus en plus l’IA pour améliorer leurs techniques et mener des attaques plus crédibles. Il est essentiel de rester vigilant et de mettre en place des mesures de protection appropriées pour contrer ces menaces.

Laisser un commentaire