Intelligence artificielle Intelligence artificielle et cybersécurité 

Pour approfondir le sujet

Sur le même thème :

La demande et l’adoption de la technologie pour assurer la sécurité du public sont en forte hausse selon une étude

Dans son rapport « Consensus for Change », Motorola Solutions, en partenariat avec une équipe de recherche universitaire indépendante dirigée par le Dr. Chris...

Inria dévoile son Livre blanc sur la cybersécurité

À l’occasion du Forum International de la Cybersécurité 2019, qui se tiendra à Lille les 22 et 23 janvier prochains, Inria dévoilera son Livre...

Plusieurs grandes écoles françaises s’engagent dans la construction d’une institution de sciences et technologies de rang mondial

L’École polytechnique, l’ENSTA ParisTech, l’ENSAE ParisTech, une école du GENES, deux écoles de l’IMT, Télécom ParisTech et Télécom SudParis ont signé la semaine dernière...

Focus sur le projet grenoblois QuCube, lauréat de l’ERC Synergy Grant sur les technologies quantiques

Le projet QuCube est lauréat de l’appel à proposition ERC Synergy Grant sur les technologies quantiques. Il recevra 14 millions d’euros sur 6 ans...

Intelligence artificielle et cybersécurité 

 

L’intelligence artificielle (IA), ce « buzzword » dont on parle depuis plusieurs années est aujourd’hui en train de connaitre un tournant déterminant dans les technologies qui nous entourent. L’intelligence artificielle la plus couramment utilisée, repose sur l’utilisation d’algorithmes dans l’optique de déterminer la ou les meilleures solutions, on parle de Machine Learning ou de Deep Learning. On est bien loin du fantasme d’une machine entièrement autonome qui est capable d’apprendre par elle-même, d’avoir une réflexion ou même une conscience.

En effet, l’intelligence artificielle telle que nous l’utilisons repose sur l’utilisation de réseaux de neurones et d’algorithmes probabilistes ou déterministes. Ces derniers se nourrissent de données, permettant le traitement d’un grand volume d’informations.

Si le test de Turing[1] est un bon indicateur de performance pour l’utilisation de chatbot, les performances de ces algorithmes dans le monde de la sécurité restent plus difficiles à mesurer. Loin des discours marketing qui prédisent une nouvelle révolution, la réalité est en fait beaucoup moins fantasmatique quant à l’utilisation d’intelligence artificielle appliquée aux différents secteurs d’activité et notamment à la cybersécurité. Elle reste cependant un atout indéniable qui promet des changements potentiellement conséquents dans l’industrie.

Comment l’IA peut-elle s’appliquer à l’industrie de la sécurité ?

L’utilisation la plus couramment rencontrée se traduit par des mécanismes d’apprentissage permettant l’amélioration des détections ainsi que la corrélation automatisée d’évènements. On distingue 2 principales méthodes utilisées :

  • Le Machine Learning qui est un sous domaine de l’intelligence artificielle, vise à « éduquer » une machine via des algorithmes d’apprentissage dans l’optique de définir le meilleur résultat ou de détecter un comportement malveillant dans le cas d’une application à la cybersécurité.
  • Le Deep Learning ,qui est un sous domaine du Machine Learning, repose sur le traitement d’un plus grand nombre de données.

Cette approche est basée sur l’utilisation de statistiques générés à partir de données collectées. Plus le nombre de données est important plus les résultats seront optimaux. Ce principe s’applique à la sécurité avec la volumétrie des cyberattaques collectées et l’identification de mode opératoire. Il permet de déceler des anomalies sur un réseau via la multitude d’informations accumulées. A l’heure où le marché de la sécurité vit une pénurie de talents qualifiés, ces technologies d’IA représentent une valeur non négligeable pour renforcer les services de sécurité tout en minimisant les coûts.

Et la réelle révolution se trouve ici ! Accompagner les opérationnels, les personnes en charge des réponses sur incident, pour leur permettre d’optimiser leur temps de travail sur des attaques beaucoup plus complexes via l’assistance des algorithmes d’intelligence artificielle. Ils permettent en effet un gain de temps considérable sur l’analyse et l’élimination des faux positifs.

Si l’IA peut-être utilisée pour renforcer les méthodes de sécurité, peut-elle être utilisée à mauvais escient ?

Chaque révolution s’accompagne toujours de son lot de dérive et l’intelligence artificielle n’y échappe pas. En 2017, les premiers malwares embarquant des techniques d’évasion permettant le contournement d’algorithmes de Machine Learning ont vu le jour. Le ransomware Cerber[2] fut l’un des premiers à utiliser ce type de techniques en déposant des fichiers anodins sur les machines infectées pour noyer la charge malveillante et contourner la détection via le processus d’apprentissage des algorithmes. Il est toutefois à noter que les moteurs d’analyses classiques permettaient la détection. Ponctuellement, de nouvelles attaques sont découvertes embarquant de nouvelles méthodes pour contourner la sécurité.

En 2018, des chercheurs d’IBM ont publiés un papier académique lors de la conférence BlackHat[3] démontrant l’utilisation d’IA dans le cas d’une attaque. Leur malware, nommé Deep Locker était capable de camoufler sa charge malveillante et ne la libérait uniquement que si la cible initiale avait été atteinte. Cette recherche démontre une efficacité non seulement pour contourner les détections mais aussi pour atteindre une cible en particulier, permettant une attaque extrêmement ciblée.

Ces nouvelles technologies sont en train de changer le paysage des menaces ainsi que les modes opératoires utilisés par les attaquants.

Quelles sont les mesures mises en œuvre par les Etats pour la course à l’IA ?

Cette prise de conscience est générale et s’applique aussi bien pour les gouvernements. Fin novembre, le gouvernement français a annoncé un plan d’investissements de 665 millions d’euros dédié à l’intelligence artificielle sur trois ans[4]. Au programme, le soutien de 4 instituts interdisciplinaires dans les domaines de la santé, des transports, de l’énergie ainsi que la recherche et l’éducation, et une coopération avec les pays européens et les entreprises privées.

En filigrane de l’engagement du gouvernement, c’est le savoir-faire académique de la France qui sera mis à contribution pour renforcer les compétences des chercheurs, entreprises et étudiants en IA.

Si l’intelligence artificielle laisse entrevoir de nombreuses opportunités, elle demeure une technologie controversée, notamment en matière de cybersécurité. Les attaquants restent à l’affût des innovations technologiques pour développer des attaques de plus en plus sophistiquées. Entre de mauvaises mains, l’intelligence artificielle permettra des attaques beaucoup plus élaborées et évoluées.

Pour être préparé face à ces nouvelles attaques, l’utilisation de moyens de détection les plus avancés pourra devenir un atout indéniable pour renforcer les rangs des services de sécurité mais les machines sont bien loin de remplacer l’analyse et la projection de l’intelligence humaine.

 

[1] https://fr.wikipedia.org/wiki/Machine_de_Turing

[2] https://blog.trendmicro.com/trendlabs-security-intelligence/cerber-starts-evading-machine-learning/

[3] https://securityintelligence.com/deeplocker-how-ai-can-power-a-stealthy-new-breed-of-malware/

[4] https://www.liberation.fr/france/2018/11/28/intelligence-artificielle-le-gouvernement-degaine-son-plan_1694826


1ère Marketplace de l'IA et de la transformation numérique vous recommande :
MicroTeks par NEURALTEKS

Au cœur de notre innovation se trouve microteks, notre produit phare, conçu spécifiquement pour les laboratoires de microbiologie. cette plateforme sa...

 

Contributeur expert

Thomas Roccia

Thomas Roccia est chercheur en sécurité au sein de l’équipe Advanced Threat Research de

Partager l'article

Apple : les premiers MacBook Pro équipés de puces M4 seraient prévus pour la fin de l’année

Fin octobre dernier, Apple présentait le même jour trois puces destinées à ses ordinateurs, les M3, M3 Pro et M3 Max. Alors qu'elle a...

Microsoft investit 1,5 milliard de dollars dans G42 pour élargir les capacités IA et cloud des Émirats

Il y a tout juste un an, Microsoft et le groupe G42 basé à Abu Dhabi, aux Émirats arabes unis, annonçaient leur intention de...

Google dévoile Axion, un processeur spécialement conçu pour les centres de données

La semaine dernière, lors de Google Cloud Next, Google a présenté Axion, son premier processeur personnalisé basé sur Arm conçu pour les centres de...

Après les Etats-Unis, Meta fait le choix de tester son chatbot en Inde et certains pays d’Afrique

En septembre 2023, Meta annonçait le lancement bêta de Meta AI, un assistant IA, aux Etats-Unis. Le chatbot est actuellement en phase de test...