Actualités

Défis de cybersécurité liés à l’intelligence artificielle dans la conduite autonome

#Actualités ·2021-02-19 17:13:43

Un rapport publié par l’Agence de l’Union européenne pour la cybersécurité (ENISA) et le Centre commun de recherche (JRC) analyse les risques de cybersécurité liés à l’IA dans les véhicules autonomes, ainsi que des recommandations pour les atténuer.

En éliminant la cause principale des accidents de la route – les conducteurs humains – les véhicules autonomes pourraient réduire considérablement les accidents et les décès. Toutefois, ils présentent également de nouveaux types de risques.

Les voitures autonomes utilisent des systèmes d’intelligence artificielle qui exploitent l’apprentissage automatique pour collecter, analyser et transmettre des données afin de prendre des décisions auparavant effectuées par des humains. Ces systèmes, comme tous les systèmes informatiques, peuvent être vulnérables à des cyberattaques mettant en péril leur bon fonctionnement.

Le rapport ENISA-JRC met en lumière ces risques et propose des mesures concrètes.

« Lorsqu’un véhicule autonome non sécurisé franchit une frontière de l’UE, ses vulnérabilités se multiplient. La sécurité ne doit pas être une réflexion après coup, mais une condition préalable », déclare Juhan Lepassaar, directeur exécutif de l’ENISA.

« La législation européenne doit garantir que les avantages de la conduite autonome ne soient pas compromis par des risques de sécurité. Ce rapport vise à appuyer les décisions politiques en approfondissant notre compréhension des risques liés à l’IA », ajoute Stephen Quest, directeur général du JRC.

Vulnérabilités de l’IA dans les véhicules autonomes

Les systèmes d’IA identifient en continu les panneaux de signalisation, les marquages routiers, détectent les véhicules, estiment la vitesse, et planifient les trajectoires. En plus des pannes aléatoires, ces systèmes peuvent être la cible d’attaques délibérées visant à compromettre la sécurité.

Par exemple : peindre des lignes pour tromper la navigation ou coller des autocollants sur des panneaux d’arrêt pour empêcher leur reconnaissance. Cela peut conduire à une mauvaise classification par l’IA, entraînant des comportements dangereux.

Recommandations pour améliorer la sécurité de l’IA

Parmi les mesures recommandées : réaliser des évaluations régulières de la sécurité tout au long du cycle de vie des composants IA. Une vérification systématique des modèles et des données est essentielle pour faire face aux attaques.

Un processus continu d’évaluation des risques, soutenu par des renseignements sur les menaces, doit être instauré. Une culture de sécurité IA solide doit être adoptée dans toute la chaîne de production automobile.

Enfin, l’approche « security-by-design » et une meilleure capacité de réponse aux incidents sont essentielles pour faire face à l’évolution des menaces liées à l’IA.


相关标签:

Copyright © 2019-2025 Ai Master