Cybersicherheitsherausforderungen bei KI-Anwendungen im autonomen Fahren
#News ·2021-02-19 17:13:43
Ein Bericht der Europäischen Agentur für Cybersicherheit (ENISA) und des Gemeinsamen Forschungszentrums (JRC) untersucht die mit künstlicher Intelligenz (KI) in autonomen Fahrzeugen verbundenen Cybersicherheitsrisiken und schlägt Maßnahmen zu deren Minderung vor.
Durch den Wegfall der häufigsten Unfallursache – dem menschlichen Fahrer – versprechen autonome Fahrzeuge eine Reduzierung von Verkehrsunfällen und Todesfällen. Gleichzeitig bringen sie jedoch neue Risiken für Fahrer, Passagiere und Fußgänger mit sich.
Autonome Fahrzeuge nutzen KI-Systeme, die mithilfe von maschinellem Lernen Daten erfassen, analysieren und übermitteln, um Entscheidungen zu treffen, die sonst vom Menschen getroffen würden. Wie alle IT-Systeme sind auch diese Systeme anfällig für Angriffe, die die sichere Funktion des Fahrzeugs gefährden können.
Der neue ENISA-JRC-Bericht zeigt die Cybersicherheitsrisiken der KI-Nutzung im autonomen Fahren auf und gibt Empfehlungen zu deren Eindämmung.
„Wenn ein unsicheres autonomes Fahrzeug eine EU-Grenze überquert, vervielfachen sich seine Schwachstellen. Sicherheit darf kein nachträglicher Gedanke sein – sie muss Voraussetzung für den verlässlichen Einsatz auf europäischen Straßen sein“, betonte Juhan Lepassaar, Exekutivdirektor von ENISA.
JRC-Generaldirektor Stephen Quest erklärte: „Die europäischen Gesetze müssen sicherstellen, dass die Vorteile des autonomen Fahrens nicht durch Sicherheitsrisiken zunichte gemacht werden. Unser Bericht soll politische Entscheidungen auf EU-Ebene unterstützen, indem er ein besseres Verständnis der eingesetzten KI-Technologien und ihrer Sicherheitsrisiken fördert.“
Verletzlichkeiten der KI in autonomen Fahrzeugen
Die KI-Systeme arbeiten durchgehend und erkennen Verkehrszeichen und Fahrbahnmarkierungen, erkennen Fahrzeuge, berechnen Geschwindigkeiten und planen Fahrwege. Neben zufälligen Fehlfunktionen sind sie auch anfällig für gezielte Angriffe, die sicherheitskritische Funktionen stören sollen.
Beispiele hierfür sind manipulierte Straßenschilder oder aufgebrachte Aufkleber, die das Erkennen durch die KI verhindern. Dies kann zu falscher Klassifikation von Objekten führen und riskante Fahrzeugreaktionen auslösen.
Empfehlungen zur Verbesserung der KI-Sicherheit
Zu den Empfehlungen gehört die regelmäßige Sicherheitsüberprüfung während des gesamten Lebenszyklus von KI-Komponenten. Die systematische Validierung von Modellen und Daten ist entscheidend, um die Sicherheit auch im Angriffsfall zu gewährleisten.
Ein weiterer Vorschlag ist ein fortlaufender Risikobewertungsprozess, gestützt durch Bedrohungsanalysen. Eine geeignete Sicherheitskultur und -politik sollte in der gesamten Automobil-Lieferkette verankert sein.
Die Branche sollte von Beginn an ein „Security-by-Design“-Prinzip umsetzen und ihre Reaktionsfähigkeit auf sicherheitsrelevante Vorfälle deutlich erhöhen.