Cyberbeveiligingsuitdagingen voor AI in autonome voertuigen
#Nieuws ·2021-02-19 17:13:43
Een rapport van het Europese Agentschap voor Cyberbeveiliging (ENISA) en het Gemeenschappelijk Centrum voor Onderzoek (JRC) onderzoekt de cyberrisico’s van kunstmatige intelligentie (AI) in zelfrijdende voertuigen en geeft aanbevelingen voor risicobeperking.
Door de menselijke bestuurder – de grootste oorzaak van verkeersongevallen – uit te schakelen, kunnen autonome voertuigen het aantal ongevallen en doden verminderen. Tegelijkertijd ontstaan nieuwe risico’s voor bestuurders, passagiers en voetgangers.
Autonome voertuigen gebruiken AI-systemen die machine learning toepassen om gegevens te verzamelen, analyseren en verzenden, waardoor ze beslissingen nemen die normaal door mensen worden genomen. Net als andere IT-systemen zijn ze kwetsbaar voor aanvallen die de werking van het voertuig kunnen verstoren.
“Een onveilig autonoom voertuig dat een EU-grens oversteekt, verspreidt zijn kwetsbaarheden verder. Veiligheid moet vanaf het begin worden ingebouwd”, zegt ENISA-directeur Juhan Lepassaar.
Volgens JRC-directeur-generaal Stephen Quest “moet Europese regelgeving garanderen dat de voordelen van autonoom rijden niet worden tenietgedaan door beveiligingsrisico’s. Ons rapport helpt het inzicht in de risico’s vergroten.”
Kwetsbaarheden van AI in voertuigen
AI-systemen werken constant en herkennen verkeersborden, rijstroken, voertuigen, snelheden en routes. Behalve toevallige fouten zijn ze vatbaar voor opzettelijke aanvallen die de veiligheid ondermijnen.
Voorbeelden: lijnen schilderen op de weg of stickers plakken op stopborden, waardoor AI verkeerde objectherkenning uitvoert en gevaarlijke acties veroorzaakt.
Aanbevelingen voor meer veiligheid
– Regelmatige veiligheidsbeoordeling gedurende de hele levenscyclus van AI-componenten.
– Continue risicoanalyse ondersteund door dreigingsinformatie.
– Verankering van AI-beveiliging in de hele toeleveringsketen van de auto-industrie.
– "Security by design" aanpak en betere incidentrespons.