Wie maschinelles Lernen die Cybersicherheit für autonome Autos verbessern kann
Veröffentlicht: 2022-03-11Autonome Fahrzeuge verwenden eine Kombination aus Hightech-Sensoren und innovativen Algorithmen, um ihre Umgebung zu erkennen und darauf zu reagieren, darunter Radar, Laserlicht/LIDAR, GPS, Odometrie, Drive-by-Wire-Steuerungssysteme und Computer Vision. Mit anderen Worten, ein selbstfahrendes Auto ist im Kern eine Mischung aus vernetzten Komponenten, von denen einige innerhalb des Autos und andere außerhalb davon existieren. Diese komplexen Systeme geben selbstfahrenden Autos die Daten und das Wissen, um autonome Entscheidungen zu treffen – aber sie schaffen auch Angriffsvektoren für Hacker, die versuchen, diese neue Technologie auszunutzen.
Es ist keine Untertreibung zu behaupten, dass die Cybersicherheit von Fahrzeugen ein entscheidender Faktor für die erfolgreiche Durchdringung selbstfahrender Autos durch die Verbraucher ist. Eine kürzlich durchgeführte AAA-Umfrage unter US-Fahrern ergab, dass 75 % „Angst“ vor dem Fahren in einem selbstfahrenden Auto haben würden, hauptsächlich aufgrund von Sicherheitsbedenken. In einer Rede von 2016 räumte GM-CEO Mary Barra ein, dass „ein Cyber-Vorfall ein Problem für jeden Autohersteller auf der Welt ist … es ist eine Frage der öffentlichen Sicherheit.“ Selbst nicht autonome Fahrzeuge bestehen aus bis zu 100 Millionen Codezeilen, verteilt auf etwa hundert elektrische Komponenten, die über ein internes Netzwerk kommunizieren.
In diesem Artikel geben wir einen breiten Überblick darüber, wie Autohersteller eine neue Klasse algorithmischer Techniken einsetzen können, um selbstfahrende Autos zu sichern: maschinelles Lernen. Diese Systeme spielen bereits eine Rolle in der Cybersicherheit, und es wurden Algorithmen entwickelt, um Netzwerkanomalien zu erkennen, einschließlich Intrusion Detection Systems (IDS), Malware-Schutz und Verhaltensanalyse. Maschinelle Lernsysteme spielen eine grundlegende Rolle bei der Verwirklichung des autonomen Fahrens – aber sie spielen auch eine Rolle beim Schutz von Autos und ihren Fahrern.
Warum selbstfahrende Autos anfällig sind
Um ihr Potenzial auszuschöpfen, verlassen sich autonome Autos auf eine umfassende Sensorik, die darauf ausgelegt ist, ein Umwelt-/Situationsbewusstsein zu gewährleisten. Natürlich sind die Köpfe hinter der Operation Computer.
Noch vor einem Jahrzehnt setzte die Automobilindustrie leistungsschwache Prozessoren ein, die grundlegende Funktionen mit einem Bus nach Industriestandard bewältigen konnten. Aber die heutigen Fahrzeuge werden mit wesentlich leistungsstärkeren System-on-Chip (SoC)-Designs ausgeliefert, die viel mehr leisten können. Autonome Autos gehen noch einen Schritt weiter, da sie genügend Rechenleistung benötigen, um wichtige Entscheidungen basierend auf sensorischen Eingaben zu treffen.
Die zusätzliche Komplexität geht jedoch mit einer erhöhten Anfälligkeit einher. Vor zwei Jahren demonstrierten die Sicherheitsforscher Charlie Miller und Chris Valasek, wie ein Jeep Cherokee über seine Internetverbindung aus der Ferne gehackt werden kann. Das Duo konnte das Auto auf einer Autobahn aus der Ferne lahmlegen. In einer Reihe von Experimenten zeigten sie, dass ein Hacker mit kabelgebundenem oder über das Internet zugänglichem Fahrzeug – einschließlich beliebter Modelle wie Toyota Prius, Ford Escape und Jeep Cherokee – die Bremsen eines Zielfahrzeugs deaktivieren oder aktivieren konnte. das Lenkrad drehen oder in manchen Fällen beschleunigen.
Die Angriffe von Miller und Valasek beruhten darauf, die rudimentären automatisierten Funktionen der betroffenen Fahrzeuge auszunutzen. Zum Beispiel nutzten sie das Kollisionsvermeidungssystem von Toyota, um den Prius zu bremsen, den Tempomat des Jeeps, um zu beschleunigen, und das automatische Parksystem des Jeeps, um das Lenkrad zu drehen, indem sie dem Auto vorgaukelten, es würde selbst parken, obwohl es so war während des Tests 80 Meilen pro Stunde zu tun.
Mit anderen Worten, diese Hacks beschränkten sich auf wenige Funktionen, die von den Bordcomputern von Standardautos gesteuert wurden. Theoretisch wäre es bei einem autonomen Auto möglich, jeden Aspekt der Funktionalität des Autos zu hacken, da alle Steuerungssysteme von einem Computer verwaltet werden.
Potenzielle Angriffsvektoren
Wie würden Hacker auf autonome Fahrzeuge abzielen? Böswillige Befehle können aus verschiedenen Quellen stammen. Zubehör ist eine große Gefahrenquelle: Der ODB-II-Port, ein fester Bestandteil aller modernen Fahrzeuge, wurde von Sicherheitsforschern der University of California in San Diego verwendet, um ein mit dem Internet verbundenes Gerät anzuschließen, das einem entfernten Angreifer den Zugang ermöglichte weisen auf die empfindlichsten Systeme des Fahrzeugs hin.
Dieses Risiko wird heute immer größer. Während Verbraucher nur selten auf ODB-II-Ports zugreifen, werden moderne Fahrzeuge zunehmend mit USB-Ports und Technologien wie Bluetooth ausgeliefert, die es Autos erleichtern sollen, mit Zubehör zu kommunizieren. Dadurch erhöht sich das Risiko, dass Malware unbeabsichtigt in das Fahrzeug eingeschleust werden könnte.
Selbstfahrende Autos könnten auch von externen Vektoren gehackt werden. Die V2V-Kommunikation (Vehicle-to-Vehicle) ist ein sich entwickelndes Paradigma, das die Autohersteller in die heutigen Fahrzeuge einführen und es jedem Auto ermöglichen, mit anderen auf der Straße zu kommunizieren, um Daten über den Verkehrsfluss, vorausliegende Unfälle oder schlechtes Wetter auszutauschen. Diese Kommunikationskanäle sind eine unschätzbare Datenquelle für die Leit- und Steuersysteme autonomer Fahrzeuge, würden sie jedoch weitaus anfälliger für Angriffe oder Verfolgung machen.
Wie maschinelles Lernen selbstfahrende Autos schützen kann
Wie bei allen Anwendungen des maschinellen Lernens besteht der erste Schritt zum Einsatz künstlicher Intelligenz zur Bekämpfung von Sicherheitsrisiken in autonomen Fahrzeugen im Sammeln und Speichern der richtigen Daten. Wenn das interne Netzwerk eines Autos mithilfe einer Plattform überwacht wird, die Protokolle speichern und analysieren kann, kann das Fahrzeug selbst böswillige Aktivitäten erkennen und Angriffe verhindern – oder zumindest die Fahrer warnen und ihre Auswirkungen mindern.

Ein Beispiel für eine effektive Plattform, die Protokolle speichern und analysieren kann, ist Elasticsearch, das im Sicherheitsbereich weit verbreitet ist. Das folgende Diagramm veranschaulicht, wie die Benutzerprotokolle eines Autos in eine Elasticsearch-Datenbank fließen könnten, die eine algorithmische Erkennung potenzieller Exploits ermöglichen würde.
Sobald ein autonomes Fahrzeug so konfiguriert ist, dass es Benutzerprotokolle sammelt und speichert, kommt maschinelles Lernen ins Spiel, um Anomalien zu erkennen. Ein Angriffserkennungsmodell ist eine Plattform, die in der Lage ist, Signale und Servicedaten zu analysieren, die von der Außenwelt über eine Internetverbindung oder Ports im Auto empfangen werden. Diese Algorithmen können verwendet werden, um Malware-Aktivitäten, Kommunikationsverhalten oder ungewöhnliche Befehle wie das Aktivieren des Parkmodus zu erkennen, während das Auto auf einer Autobahn steht.
Da ein Fahrzeugnetzwerk ein proprietäres System ist, das eine Sache anstelle eines standardmäßigen Computernetzwerks, das eine Vielzahl von Benutzereingaben akzeptiert, ist, ist die digitale Kommunikation eines Autos vorhersehbarer als die eines typischen Computernetzwerks. Daher ist es möglich, Taktiken wie unüberwachtes maschinelles Lernen einzusetzen, um einen Algorithmus zu trainieren, um einen böswilligen Exploit auf zweckmäßige und genaue Weise von „normalem Fahrverhalten“ zu unterscheiden, sodass das Fahrzeug den Fahrer warnen oder den Angriff verhindern kann.
Fallstudie: Machine Learning kann Angriffe erkennen und verhindern
Ein Beispiel für ein „Lernen und Verhindern“-Gerät, das im Fahrzeugkontext funktioniert, ist die von Miller und Valasek entwickelte Anti-Hacking-Lösung. Dieses Gerät ist ein Einbruchmeldesystem für Fahrzeuge mit bestimmten automatisierten Funktionen.
Das Gerät basiert auf einem Allzweck-NXP-Mikrocontroller mit einer einfachen Platine, die an den OBD-II-Port angeschlossen wird. Es funktioniert, indem es in den ersten paar Minuten einer Fahrt in einem Beobachtungsmodus arbeitet, wodurch das Gerät die typischen Datenmuster eines Fahrzeugs erfassen kann. Dann wechselt es in den Erkennungsmodus, um das System auf Anomalien zu überwachen, wie z. B. ein ungewöhnliches Flutsignal oder einen ungewöhnlichen Befehl. Wenn es ein „schlechtes“ Signal erkennt, versetzt es das Auto in den „Schlafmodus“, schaltet im Wesentlichen sein Netzwerk ab und deaktiviert einige Funktionen wie Servolenkung und Spurassistent, bis das Fahrzeug neu startet.
Nachdem die Anomalie erkannt wurde, können zwei verschiedene Aktionen ausgelöst werden: Prävention und Warnung.
Das Präventionsmodul wird verwendet, um dem Auto zu „sagen“, dass es die Rogue-Befehle ignorieren soll, und es kann verwendet werden, um Angreifer zu blockieren, die versuchen, denselben Ansatz zu verwenden. Das Alert -Modul wird verwendet, um Benachrichtigungen in Echtzeit zu senden (oder anzuzeigen), sodass Fahrer Maßnahmen ergreifen oder die Behörden automatisch über den Angriff informieren können. Dieses Modul kann mit dem im Auto integrierten Armaturenbrett erweitert werden.
Im Allgemeinen ist die digitale Kommunikation eines Autos viel vorhersehbarer als die eines typischen Computernetzwerks, und dies ist eine glückliche Eigenschaft, wenn es um die Cybersicherheit von Fahrzeugen geht. Da es in der Automobilwelt weniger Signalvarianzen gibt, ist es in der Regel offensichtlich, wenn etwas Außergewöhnliches passiert.
Sicherheit beim autonomen Fahren ist von entscheidender Bedeutung, und maschinelles Lernen kann dabei helfen
Das Hacken selbstfahrender Autos könnte weitaus schwerwiegendere Folgen haben als kompromittierte E-Mails oder sogar gestohlene Kreditkartennummern. Autonome Autos, die durch bösartigen Code ausgenutzt werden, könnten echten physischen Schaden anrichten, und diese Schwachstellen könnten theoretisch nicht nur von Autodieben, sondern auch von Schurkenstaaten und Terroristen ausgenutzt werden, um die Infrastruktur zu stören und Chaos zu verursachen.
Dieser Artikel befasste sich mit den Sicherheitsherausforderungen, mit denen fahrerlose Autos heute konfrontiert sind, und skizzierte einige Möglichkeiten, wie die Industrie sie angehen könnte. Eine langfristige Richtung, die die Industrie einschlagen könnte, um maximale Sicherheit in autonomen Fahrzeugen zu gewährleisten, ist Cloud Computing. Dies würde eine extrem niedrige Latenz, hohe Verfügbarkeit und viel Bandbreite erfordern, da die Verarbeitung und Analyse des Verhaltens innerhalb und außerhalb des Autos einfach zu viel ist, um es eingebetteten Computern zu überlassen.
Der Übergang zu 5G-Datennetzen, kombiniert mit der Flexibilität der Cloud-Orchestrierung, kann die Grundlage für die Nutzung von maschinellem Lernen zur Sicherung selbstfahrender Autos bilden und ihnen die Rechenleistung geben, um Bedrohungen zu erkennen und in Millisekunden zu reagieren.
Es besteht kein Zweifel, dass Hacker versuchen werden, in selbstfahrende Autos einzudringen, aber die Cybersicherheitsexperten von heute haben leistungsfähigere Taktiken, um sich dagegen zu wehren. Maschinelles Lernen hat sich zu einem unverzichtbaren Werkzeug für Unternehmen entwickelt, die ihre Ressourcen sichern möchten. Dasselbe gilt für die Automobilindustrie, heute mehr denn je.
