Actualité Risques en matière de cybersécurité dans les véhicules autonomes : l'ENISA formule...

Pour approfondir le sujet

Scale-Up Europe : Plus de 150 fondateurs de scale-up, investisseurs, chercheurs, dirigeants et institutionnels rejoignent l’initiative

Talents, investissements, collaboration startups-grands groupes et deep tech, l’initiative Scale-Up Europe a été officiellement lancée le 4 mars 2021 par Cédric O aux côtés de...

Proptech : Partenariat entre la start-up Kize et Acheter-Louer.fr autour de leur solution de prédiction des prix de l’immobilier

Prédire les prix de l'immobilier est au coeur de l'algorithme d'intelligence artificielle développé par la Proptech Kize. La jeune pousse a annoncé avoir signé...

Lancement de la 7ème vague du volet i-Nov du Concours d’innovation

La 7ème édition du Concours i-Nov, financé par l’Etat via le Programme d’Investissements d’Avenir (PIA) et opéré par Bpifrance et l’ADEME, a été lancée....

Tests d’algorithmes d’intelligence artificielle, IA de confiance, effet black box : entretien avec Guillaume Avrin du LNE

Dans le cadre de notre dossier L'intelligence artificielle de confiance : Des systèmes critiques au bien commun paru dans le numéro 3 du magazine ActuIA...

Risques en matière de cybersécurité dans les véhicules autonomes : l’ENISA formule ses recommandations

Le Centre commun de recherche (CCR) de la Commission et l’Agence de l’UE pour la cybersécurité (ENISA) a publié cette semaine un rapport sur les risques en matière de cybersécurité liés à l’intelligence artificielle (IA) dans les véhicules autonomes. Il y formule notamment des recommandations et préconise une approche de sécurité dès la conception dans le développement des fonctionnalités d’IA dans les véhicules autonomes, où la cybersécurité devient un élément central de la conception des véhicules.

En supprimant la cause la plus fréquente d’accidents de la route – le conducteur humain – les véhicules autonomes devraient réduire les accidents de la route et les décès. Cependant, ils peuvent présenter un type de risque complètement différent pour les conducteurs, les passagers et les piétons. Les véhicules autonomes font appel à des systèmes d’intelligence artificielle, utilisant des techniques d’apprentissage automatique pour collecter, analyser et transférer des données, afin de prendre des décisions qui, dans les voitures conventionnelles, sont prises par les humains.

Mariya Gabriel, commissaire à l’innovation, à la recherche, à la culture, à l’éducation et à la jeunesse a ainsi déclaré :

« Les véhicules autonomes ne peuvent atteindre leur potentiel en termes de réduction des accidents de la route que s’ils sont en mesure de faire face aux risques en matière de cybersécurité. Je salue ce rapport et j’encourage les constructeurs automobiles, les décideurs politiques et les chercheurs à travailler main dans la main pour donner suite à ses recommandations pratiques afin de garantir la sécurité des futurs véhicules autonomes. »

Ces systèmes, comme tous les systèmes informatiques, sont vulnérables aux attaques qui pourraient compromettre le bon fonctionnement du véhicule. Le rapport du CCR et de l’ENISA met en lumière les risques de cybersécurité liés à l’adoption de l’IA dans les voitures autonomes et formule des recommandations pour les atténuer.

Thierry Breton, commissaire chargé du marché intérieur, a indiqué :

« La conduite autonome, les voitures connectées, les véhicules électriques et la mobilité partagée seront des moteurs essentiels de l’industrie automobile dans les années à venir. Nous devons veiller à ce que ces innovations soient sûres et fiables dès la conception. Avec les États membres, nous mettons en place un cadre solide pour prévenir les cybermenaces et y faire face — notamment une nouvelle stratégie de cybersécurité de l’UE, une proposition de révision de la directive SRI, la boîte à outils de sécurité 5G de l’UE, le cadre européen de cybersécurité, et d’autres encore. »

Le rapport recommande des évaluations systématiques de la sécurité et des risques des composants de l’intelligence artificielle avant et tout au long du processus de développement. Il plaide également en faveur de politiques de sécurité dans le domaine de l’intelligence artificielle et d’une culture de la sécurité, dans le cadre desquelles tous les acteurs participant au développement des produits sont suffisamment compétents en matière de cybersécurité et travaillent de concert avec l’objectif commun de création d’un produit sûr.

Juhan Lepassaar, directeur exécutif de l’Agence de l’UE pour la cybersécurité a déclaré :

« Lorsqu’un véhicule autonome en situation d’insécurité franchit la frontière d’un État membre de l’UE, il en va de même de ses vulnérabilités. La sécurité ne devrait pas être considérée comme une conséquence positive, mais plutôt comme une condition préalable au déploiement fiable des véhicules sur les routes européennes. »

Le rapport est disponible en PDF ICI.

Dede, G., Hamon, R., Junklewitz, H., Naydenov, R., Malatras, A. and Sanchez, I., Cybersecurity challenges in the uptake of artificial intelligence in autonomous driving, EUR 30568 EN, Publications Office of the European Union, Luxembourg, 2021, ISBN 978-92-76-28646-2, doi:10.2760/551271, JRC122440.

Pierre-yves Gerlat

Partager l'article

Scale-Up Europe : Plus de 150 fondateurs de scale-up, investisseurs, chercheurs, dirigeants et institutionnels rejoignent l’initiative

Talents, investissements, collaboration startups-grands groupes et deep tech, l’initiative Scale-Up Europe a été officiellement lancée le 4 mars 2021 par Cédric O aux côtés de...

Proptech : Partenariat entre la start-up Kize et Acheter-Louer.fr autour de leur solution de prédiction des prix de l’immobilier

Prédire les prix de l'immobilier est au coeur de l'algorithme d'intelligence artificielle développé par la Proptech Kize. La jeune pousse a annoncé avoir signé...

Lancement de la 7ème vague du volet i-Nov du Concours d’innovation

La 7ème édition du Concours i-Nov, financé par l’Etat via le Programme d’Investissements d’Avenir (PIA) et opéré par Bpifrance et l’ADEME, a été lancée....

Tests d’algorithmes d’intelligence artificielle, IA de confiance, effet black box : entretien avec Guillaume Avrin du LNE

Dans le cadre de notre dossier L'intelligence artificielle de confiance : Des systèmes critiques au bien commun paru dans le numéro 3 du magazine ActuIA...