Un rapport explore les utilisations malveillantes actuelles de l’IA pour mieux appréhender le futur de la cybercriminalité

La croissance exponentielle des technologies de communication a entraîné l’augmentation des cas de cybercriminalité. Dans le document de recherche « Malicious Uses and Abuses of Artificial Intelligence », Trend Micro, fournisseur de services de sécurité, l’Institut interrégional de recherche des Nations Unies sur la criminalité et la justice (UNICRI) et Europol présentent l’état en 2020 des utilisations malveillantes et abusives des technologies d’IA et de ML, mais aussi des scénarios futurs plausibles dans lesquels les cybercriminels pourraient abuser de ces technologies à des fins malveillantes.

L’IA peut apporter d’énormes avantages à la société et aider à résoudre certains des plus grands défis auxquels nous sommes actuellement confrontés, mais elle accroit également les risques de cybercriminalité.

Le rapport fournit aux forces de l’ordre, aux décideurs et à d’autres organisations des informations sur les attaques existantes et potentielles tirant parti de l’IA et des recommandations sur la manière d’atténuer ces risques.

Edvardas Šileris, chef du Centre de lutte contre la cybercriminalité d’Europol, a déclaré :

« L’IA promet au monde plus d’efficacité, d’automatisation et d’autonomie. À une époque où le public s’inquiète de plus en plus de l’utilisation abusive possible de l’IA, nous devons être transparents sur les menaces, mais aussi examiner les avantages potentiels de la technologie de l’IA. Ce rapport nous aidera non seulement à anticiper les utilisations malveillantes et abusives possibles de l’IA, mais aussi à prévenir et à atténuer ces menaces de manière proactive. C’est ainsi que nous pouvons libérer le potentiel de l’IA et bénéficier de l’utilisation positive des systèmes d’IA ».

Le document avertit que des systèmes d’IA sont développés pour améliorer l’efficacité des logiciels malveillants et perturber les systèmes anti-malware et de reconnaissance faciale.

Martin Roesler, responsable de la recherche prospective sur les menaces chez Trend Micro, déclare:

« Les cybercriminels ont toujours été les premiers à adopter les dernières technologies et l’IA n’est pas différente. Comme le révèle ce rapport, il est déjà utilisé pour deviner les mots de passe, casser le CAPTCHA et cloner la voix, et de nombreuses autres innovations malveillantes sont en cours ».

L’utilisation de l’IA pour la cybercriminalité

La première partie du rapport présente différentes méthodes basées sur l’IA déjà employées par les cybercriminels.

Les logiciels malveillants

Les techniques de cyberattaque soutenues ou améliorées par l’IA qui ont été étudiées démontrent que les criminels prennent déjà des mesures pour élargir l’utilisation de l’IA. Cependant, les développeurs de logiciels malveillants peuvent utiliser l’IA de manière plus obscure sans être détectés par les chercheurs et les analystes.

Par exemple, en 2015, une étude a prouvé qu’un système pouvait créer des messages électroniques afin de contourner les filtres anti-spam. Cette approche utilise une grammaire générative capable de créer un grand ensemble d’e-mails de phishing avec un haut degré de qualité sémantique pour brouiller les entrées des filtres, le système peut ainsi s’adapter aux filtres et identifier les contenus qui ne sont plus détectés.

En 2017, lors de la conférence Black Hat USA, une conférence sur la sécurité de l’information, des chercheurs ont montré comment utiliser des techniques de ML pour analyser des années de données liées aux attaques BEC (Business Email Compromise), une forme de cybercriminalité utilisant la fraude par courriel pour escroquer les organisations afin d’identifier les cibles potentielles des attaques.

Ce système exploite à la fois les fuites de données et les informations de médias sociaux librement accessibles et peut prédire avec précision si une attaque sera réussie.

Piratage des mots de passe pris en charge par l’IA

Les cybercriminels utilisent le ML pour améliorer les algorithmes permettant de deviner les mots de passe des utilisateurs. Des approches telles que HashCat et John the Ripper, comparent différentes variantes du hachage de mots de passe fréquemment utilisés afin d’identifier avec succès le mot de passe correspondant au hachage.

En s’appuyant sur les réseaux neuronaux et les réseaux antagonistes génératifs, les cybercriminels sont en mesure d’analyser de vastes ensembles de données de mots de passe et de générer des variations de mot de passe adaptées à la distribution statistique, plus précises et ciblées.

Les auteurs du rapport ont ainsi découvert, dans un article répertoriant une collection d’outils de piratage open-source, un logiciel basé sur l’IA qui peut analyser un grand ensemble de mots de passe récupérés à partir de fuites de données. Ce logiciel améliore sa capacité à deviner les mots de passe en entraînant un GAN à apprendre comment les gens ont tendance à modifier et à mettre à jour les mots de passe, en ajoutant une lettre ou un chiffre le plus souvent.

Ils ont également trouvé, sur un message de forum clandestin en février 2020, un référentiel GitHub doté d’un outil d’analyse de mot de passe capable d’analyser 1,4 milliard d’informations d’identification et de générer des règles de variation de mot de passe.

Casser les CAPTCHA avec l’IA

L’application du ML pour briser les systèmes de sécurité CAPTCHA est fréquemment évoquée sur les forums criminels. Les images CAPTCHA sont couramment utilisées sur les sites Web pour contrecarrer les criminels lorsqu’ils tentent notamment d’automatiser des attaques (certaines tentatives impliquent la création de nouveaux comptes).

Selon le rapport, un logiciel qui implémente des réseaux neuronaux pour résoudre les CAPTCHA est testé sur des forums criminels.

Ingénierie sociale et IA

Aujourd’hui reconnue comme l’une des plus grandes menaces pour la sécurité des entreprises, l’ingénierie sociale permet aux cybercriminels d’obtenir un accès légitime et autorisé à des informations confidentielles.

Le rapport évoque des discussions s’intéressant aux outils basés sur l’IA pour améliorer les tâches d’ingénierie sociale trouvées sur différents forums underground.

Selon un rapport d’Europol, l’outil de reconnaissance nommé « Eagle Eyes » est prétendu, sur le forum français Freedom Zone, capable de trouver tous les comptes de médias sociaux associés à un profil spécifique. Il utilise des algorithmes de reconnaissance faciale pour faire correspondre les profils d’un utilisateur utilisant différents noms.

Un autre outil identifié par Europol permet d’effectuer un clonage vocal en temps réel : un enregistrement vocal de seulement cinq secondes d’une cible permet à un acteur malveillant de cloner cette voix. Une société d’énergie basée au Royaume-Uni a été ainsi dupée par l’un d’eux et a transféré près de 200 000 livres sterling sur un compte bancaire hongrois. Le cybercriminel avait utilisé la technologie audio deepfake pour usurper l’identité du PDG de l’entreprise afin d’autoriser les paiements.

Deepfakes et IA

Les deepfakes impliquent l’utilisation de techniques d’IA pour créer ou manipuler du contenu audio et visuel afin que ceux-ci semblent authentiques. Combinaison de « deep learning » et de « fake media », les deepfakes sont notamment utilisées pour les campagnes de désinformation car difficiles à différencier immédiatement des contenus légitimes, même avec l’utilisation de solutions technologiques. En raison de la large utilisation d’Internet et des médias sociaux, les deepfakes peuvent atteindre des millions de personnes dans différentes parties du monde très rapidement.

Dans le cas des fausses vidéos, l’IA permet de remplacer dans une séquence le visage d’une personne par un autre en utilisant de nombreuses photos. Nombreuses sont les personnes qui se font berner.

En mai dernier, une deepfake a été diffusée sur YouTube utilisant le visage d’Elon Musk, pour escroquer des personnes qui ont ainsi envoyé des crypto-monnaies Bitcoin et Ethereum aux cybercriminels.

Les futures utilisations de l’IA et du ML pour la cybercriminalité

Les auteurs du rapport s’attendent à voir les cybercriminels exploiter l’IA de diverses manières à l’avenir dans le but d’améliorer la portée et l’ampleur de leurs attaques, d’échapper à la détection et d’utiliser de l’IA à la fois comme vecteur d’attaque et comme surface d’attaque.

Ils prévoient qu’ils s’attaqueront aux organisations via des tactiques d’ingénierie sociale. Les cybercriminels peuvent automatiser les premières étapes d’une attaque grâce à la génération de contenu, améliorer la collecte de renseignements commerciaux et accélérer le taux de détection auquel les victimes potentielles et les processus métier sont compromis. Cela permettra une fraude plus rapide et plus précise des entreprises par le biais de diverses attaques, notamment l’hameçonnage et les escroqueries par e-mail professionnel (BEC).

L’IA peut également être utilisée abusivement pour manipuler les pratiques de trading de crypto-monnaie. Les auteurs évoquent une discussion sur un forum parlant de robots alimentés par l’IA entraînés sur des stratégies de trading réussies à partir de données historiques afin de développer de meilleures prédictions et transactions.

Par ailleurs, l’IA pourrait être utilisée pour nuire ou infliger des dommages physiques à des individus à l’avenir. Les auteurs rapportent que « des drones de reconnaissance faciale alimentés par l’IA transportant un gramme d’explosif sont actuellement en cours de développement. Ces drones, qui sont conçus pour ressembler à de petits oiseaux ou à des insectes pour paraître discrets, peuvent être utilisés pour des bombardements micro-ciblés ou impliquant une seule personne et peuvent être exploités via Internet cellulaire ».

Les technologies d’IA et de ML ont de nombreux cas d’utilisation positifs, cependant, ces technologies sont également utilisées à des fins criminelles et malveillantes. Il est donc urgent de comprendre les capacités, les scénarios et les vecteurs d’attaque qui démontrent comment ces technologies sont exploitées pour être être mieux préparés à protéger les systèmes, les appareils et le grand public contre les attaques et les abus avancés

Les trois organisations formulent plusieurs recommandations pour conclure le rapport :

  • Exploiter le potentiel de la technologie de l’IA en tant qu’outil de lutte contre la criminalité pour assurer la pérennité de l’industrie de la cybersécurité et du maintien de l’ordre
  • Poursuivre la recherche pour stimuler le développement de technologies défensives
  • Promouvoir et développer des cadres de conception d’IA sécurisés
  • Désamorcer la rhétorique politiquement chargée sur l’utilisation de l’IA à des fins de cybersécurité
  • Tirer parti des partenariats public-privé et établir des groupes d’experts multidisciplinaires

Pour plus d’informations : Utilisations malveillantes et abus de l’intelligence artificielle

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.