STUFEN DER AUTOMATISIERUNG

Openolli 1440

Autonomes Fahren ist keine Utopie mehr. Die Deutsche Akademie der Technikwissenschaften (acatech) rechnet mit einer tatsächlichen Einführung autonomer Fahrzeuge im öffentlichen Straßenraum zwar nicht vor 2030 (Lemmer 2016), doch bereits heute sind Serienfahrzeuge in der Lage, einzelne Fahrsituationen teilautonom zu bewältigen. Unter anderem zum Abstecken des rechtlichen Rahmens werden autonome Fahrzeuge je nach Grad der Automatisierung in eine von fünf Stufen eingeordnet (BASt 2012).

Steps of automation

Der Technologiesprung zum vollautomatisierten Fahrzeug ermöglicht zukünftig neue Geschäftsmodelle und Anwendungen. Spezielle Treiber dieser Entwicklung sind die Digitalisierung und die Vernetzung der zunehmend intelligenter agierenden Autos. Jedes dieser Fahrzeuge erzeugt mittels unterschiedlicher Sensoren Daten. Die effiziente und fehlerfreie Auswertung dieser Daten ist Voraussetzung für die erfolgreiche Weiterentwicklung der Technologie und ihre gesellschaftliche Akzeptanz. Das Projekt OpenOlli | Open Data Plattform für autonomen Shuttleverkehr stellt Daten eines autonomen Shuttles deshalb für Interessierte zur Verfügung. Außerdem wird im Rahmen eines Hackathons an Verbesserungsmöglichkeiten und neuen Anwendungen, die auf diesen Daten basieren, gearbeitet. Um die Daten sinnvoll nutzen zu können, müssen jedoch gleichzeitig entsprechende Kenntnisse über Sensortechnologien in autonomen Fahrzeugen und deren Funktionsweise vorliegen.

Die Aufgaben, die bei gewöhnlichen oder auch teilautomatisierten Fahrzeugen die Fahrerin oder der Fahrer übernimmt, müssen bei vollautomatisierten oder gar fahrerlosen Fahrzeugen vom System komplett übernommen werden. Die sich aus der Überwachung des Fahrzeugumfeldes ergebenden notwendigen Quer- und Längsregelungen (Lenken und Bremsen bzw. Beschleunigen) müssen vom autonomen Fahrzeug sowohl berechnet als auch durchgeführt werden. Für eine korrekte Berechnung ist die Überwachung und Interpretation des Fahrzeugumfeldes nötig. Diese beinhaltet sowohl die Erkennung von Objekten im Fahrzeugumfeld, als auch die Bestimmung der Eigenposition.

OBJEKTERKENNUNG

Objekterkennung ist für die Detektion von Hindernissen und daraus möglicherweise resultierenden gefährlichen Situationen unabdingbar. Hindernisse können temporäre Veränderungen einer eigentlich bekannten Strecke wie beispielsweise Baustellen oder Personen auf der Fahrbahn sein. Aber auch bereits bekannte Objekte können zu Hindernissen werden, falls die Selbstlokalisierung des Fahrzeugs fehlerhaft arbeitet oder die daraus abgeleitete Trajektorie beziehungsweise das Einhalten selbiger nicht ordnungsgemäß funktioniert. Die hier genannten Sensoren dienen vornehmlich der Objekterkennung, werden aber auch zur Standortbestimmung eingesetzt. Beispielsweise werden mittels Kameras markante Wegpunkte (Landmarken) aufgezeichnet und diese Informationen mit anderen Sensor- und Kartendaten abgeglichen. Aber auch wenn die absolute Position des Fahrzeugs mit Hilfe anderer Daten bestimmt wird, ist die relative Position von Objekten und Fahrzeug eine wichtige Information: Befindet sich eine Fußgängerin in 40 m Entfernung hinter dem Fahrzeug, muss die Trajektorie ihretwegen nicht angepasst werden. Befindet sie sich jedoch 20 m vor dem Fahrzeug, empfiehlt sich eine Vollbremsung.

Es existieren unterschiedliche Sensoren mit jeweils spezifischen Vor- und Nachteilen. So wird RADAR beispielsweise nicht vom Wetter beeinflusst, LiDAR liefert hochgenaue Entfernungsinformationen. Kameratechnologien liefern in Verbindung mit Bilderkennungssystemen die höchste Genauigkeit bei der Objektklassifizierung. Einige Hersteller nutzen nicht die gesamte Bandbreite sondern nur bestimmte Sensoren, andere Hersteller setzen auf die Fusion unterschiedlicher Sensoren um eine sehr hohe Genauigkeit zu erreichen. Folgende Abbildung bietet eine Übersicht über mögliche Einsatzfelder unterschiedlicher Technologien zur Objekterkennung.

Bartl lidar sensorsystem
Bartl (2012)
https://leibniz-institut.de/Konferenzen/ss2012/bartel_lidar-sensorik-automobilapplikationen.pdf#page=7

Sämtliche Technologien zur Objekterkennung basieren auf dem gleichen Grundprinzip: Am Fahrzeug angebrachte Sensoren registrieren elektromagnetische Strahlung bzw. akustische Signale einer bestimmten Wellenlänge, die von Objekten der Umwelt reflektiert wurde. Aktive Sensorsysteme senden diese Strahlung selbst aus (RADAR, LiDAR und Ultraschall), passive wie Kamerasysteme nutzen ohnehin vorhandene Strahlung, häufig im sichtbaren Bereich (Licht).

Sensoren

RADAR

RADAR (Radio Detection and Ranging) bezeichnet ein Verfahren zur Ortung von Objekten mit Hilfe von elektromagnetischen Wellen im Gigahertzbereich. Radarsysteme werden in unterschiedlichen Assistenzsystemen wie Tote-Winkel-Warnern, Abstandsregeltempomaten (Adaptive Cruise Control, ACC), Kollisions-Frühwarn- und Vermeidungssystemen sowie für die Spurwechselassistenz genutzt (Niehues 2014). Vorteil der Radarsysteme ist ihre Unabhängigkeit von Luftfeuchtigkeit, Lichtverhältnissen, Nebel oder auch Rauch.

Radarsysteme sind aktive Systeme: die Radarwellen werden vom System selbst ausgesandt, von Objekten in der Umgebung reflektiert und anschließend vom Radarsystem wieder empfangen. Da die Ausbreitungsgeschwindigkeit der Wellen bekannt ist, kann unter Einbezug eventueller Korrekturfaktoren zur Relativierung atmosphärischer Einflüsse, aus der Laufzeit der reflektierten Wellen die Entfernung des reflektierenden Objekts berechnet werden. Dopplerradare sind außerdem in der Lage, die relative Geschwindigkeit reflektierender Objekte zu bestimmen. Die Frequenz des reflektierten Signals ändert sich, je nachdem, ob sich das Objekt auf den Sender zu- oder davon weg bewegt (Effertz 2009).

Radar on car
Bild eines auf dem Autodach montierten, rotierenden Radars (links), korrespondierendes Kamerabild (nur in Fahrtrichtung, rechts) – Quelle: Reiner et al. 2009

Die Leistung der im Bereich des autonomen Fahrens eingesetzten Radarsensoren ist im Vergleich zu den aus dem Flugverkehr genutzten Radarsystemen gering. Sie liegt meist im Bereich von nicht gesundheitsbeeinträchtigenden 10 Milliwatt. Dementsprechend verringert sich jedoch auch der durch die Radarsensoren abgetastete Bereich auf etwa 0,5 bis 200 m.

LiDAR

LiDAR (Light Detection and Ranging; auch laser radar) ist genau wie RADAR ein aktives Verfahren: anstatt langwelliger elektromagnetischer Strahlung werden jedoch Impulse kurzwelliger Strahlung im Nah-Infrarotbereich ausgesendet, die Entfernung des Objekts wird auch hier über die Messung der Signallaufzeit berechnet. Da die Strahlung kurzwelliger ist, streuen die reflektierten Wellen weniger stark und es entsteht ein höher aufgelöstes Bild von der Umwelt. Die kurzwellige Strahlung verhindert jedoch auch die Nutzung des Dopplereffekts, weshalb die Bewegungsrichtung von reflektierenden Objekten nicht direkt messbar ist (Effertz 2009).

3d cloud lidar
3D-Punktewolke eines LiDAR-Scanners – Quelle: Quain 2017

Mit Hilfe von beweglichen Spiegelsystemen können die ausgesendeten Laser-Impulse umgelenkt werden und so die Umgebung Stück für Stück abtasten. Da für jeden reflektierten Lichtstrahl der Einfallswinkel und die Entfernung berechnet werden kann, entsteht so eine 3D-Punktewolke der Fahrzeugumgebung, aus der mit Hilfe von Klassifizierungsalgorithmen einzelne Objekte extrahiert werden können (Navarro et al. 2017). Die maximale Reichweite der Sensoren liegt im oberen Marktsegment momentan bei etwa 120 m (Quain 2017), wobei mit zunehmender Entfernung die Auflösung abnimmt.

Für eine erfolgreiche Objekterkennung und –klassifikation ebenso entscheidend wie die Reichweite der Laserscanner ist deren Auflösung. Diese steigt mit der Anzahl der eingesetzten Laserstrahlen (womit wiederum der Preis des LiDARsystems steigt). Zwischen hochpreisigen und eher kostengünstigen Systemen bestehen erhebliche Unterschiede in der Datenqualität:

Video einer Straßenszene, die mit dem Velodyne HDL-64E aufgenommen wurde:

Eine vergleichbare Szene, aufgenommen mit dem Velodyne Puck:

Quelle: http://radical-mag.com/2018/03/21/autonomes-fahren/%20

Beispiel einer Straßenszene als interaktive 3D-Grafik:

Klicke hier, um die Grafik zu laden

Kamerasysteme

Kamerasysteme nutzen das gesamte Spektrum des sichtbaren Lichts sowie teilweise den Nahinfrarotbereich. Es handelt sich um passive Sensoren, da sie das von der Sonne emittierte und von der Umgebung reflektierte Licht auffangen und keine eigene Strahlung aussenden.

Aktuell befinden sich zwei Klassen von Sensoren auf dem Markt: Charge Coupled Device (CCD) Sensoren und Complementary Metal Oxid Semiconductor (CMOS) Sensoren. Erstere bestehen aus einer Silizium-Halbleiterplatte. Bei Lichteinfall werden proportional zur Lichtstärke Elektronen freigesetzt. Da es sich um ein analoges Aufnahmeverfahren handelt, können theoretisch unendlich viele verschiedene Ladungszustände ausgelesen werden. Außerhalb des Sensors werden diese in einem A/D-Wandler (Analog-Digital-Wandler) diskretisiert (Börner 2006). Die Auslesung der einzelnen Pixel geschieht dabei zeilenweise. Das Auslesen des gesamten Sensors ist deshalb verhältnismäßig zeitintensiv, weshalb beim autonomen Fahren, das auf schnelle Bildfolgen angewiesen ist, vermehrt CMOS-Sensoren eingesetzt werden. Bei ihnen handelt es sich um metallische Halbleiterchips. Sämtliche Komponenten, die für die Verarbeitung der Signale zu Bildern benötigt werden, sind bereits in den Sensor integriert: Der Chip selbst, die Ausleseeinheit, ein Signalverstärker und der A/D-Wandler. Es handelt sich damit um Active Pixel Sensors. CMOS-Sensoren werden außerdem nicht zeilenweise ausgelesen, da jeder Pixel seinen eigenen Verstärkertransistor besitzt (Börner 2006).

Zur Erstellung von Farbaufnahmen existieren unterschiedliche Verfahren: Beim sogenannten Bayer-Sensor sind die einzelnen Pixel jeweils für eine bestimmte Wellenlänge des Lichts und damit für eine bestimmte Farbe empfindlich. Die Informationen von je vier benachbarten Pixeln werden zu einem Farbpixel zusammengefasst. Dadurch verringert sich die geometrische Auflösung des Sensors (Börner 2006). Da jedoch alle Farben mit einer Auslösung aufgenommen werden, eignet sich der Bayer-Filter gut für die Aufnahme von bewegten Szenen. Filterräder, die vor dem Sensor installiert werden und jeweils nur Licht einer Wellenlänge hindurchlassen, verlangen eine dreimalige Aufnahme derselben Szene, weshalb sie für das autonome Fahren nicht geeignet sind. Beim Foveonansatz liegen im Sensor drei Aufnahmeschichten übereinander. Da Licht unterschiedlicher Wellenlänge unterschiedlich tief in den Halbleiter eindringt, nimmt je eine Schicht je einen Farbbereich auf (Börner 2006). Durch den Einsatz mehrerer Schichten wird jedoch die Lichtstärke abgeschwächt, weshalb der Sensor weniger lichtempfindlich ist.

Um die Entfernung von Objekten berechnen zu können werden stereoskope Kamerasysteme benötigt (vgl. Abb.). Diese bestehen aus zwei Kameras, die leicht versetzt montiert werden. Aus der relativen Verschiebung (Disparität) eines Objektpunktes (z.B. der oberen linken Ecke des Nummernschildes eines vorausfahrenden Autos) auf der Bildebene kann bei bekannter Brennweite die Entfernung des Objektpunktes berechnet werden.

Pictures from stereocamera
Bildpaar einer Stereokamera; Prinzip des Stereomessens und resultierendes Entfernungsbild – Quelle: Börner 2006

Die optische Aufzeichnung der Fahrzeugumgebung ist unabdingbar zur Erkennung von Verkehrszeichen, Fahrspuren oder Bremslichtern (Effertz 2009). Kameras haben außerdem eine große Reichweite, können also auch Objekte in großer Entfernung registrieren.

Ultraschall

Ultraschallsensoren werden vor allem für die Nahfeldüberwachung eingesetzt. Das beinhaltet vor allem den Einsatz in Einparkhilfen oder automatischen Einparksystemen. Das Grundprinzip der Ultraschallsensoren entspricht dem der RADAR- oder LiDAR-Sensoren: Der Sender sendet Ultraschall aus, der Empfänger misst das Echo. Aus der Laufzeit und dem Einfallswinkel kann die Entfernung und die Richtung, in der das Hindernis liegt, berechnet werden. Auch hier kann der Dopplereffekt ausgenutzt werden und so aus der Frequenzänderung des Echosignals die Relativbewegung des Hindernisses bestimmt werden.

Ultrasonic sensor
Schnittbild eines Ultraschallsensors – Quelle: Reif 2016

Mit Hilfe einer dünnen Metallmembran (8), die mit Hilfe eines Piezoelements (1) in Schwingung gebracht wird, werden Ultraschallwellen mit einer Geschwindigkeit von 330 m/s ausgesendet. Das Echo wird von der gleichen Membran aufgefangen und vom Piezoelement in elektrische Spannung umgewandelt (Reif 2016).

Zurzeit sind Ultraschallsensoren in der Lage, mit einer Auflösung im Millimeterbereich zu arbeiten (Berns & von Puttkamer 2009). Das erlaubt nicht nur die Detektion von Hindernissen beim Ein- und Ausparken, sondern beispielsweise auch die Anwendung der Technologie im Bereich der Gestenerkennung bei Bedienungsinterfaces. Ein Vorteil besteht dabei darin, dass keine persönlichen Merkmale erkannt werden und somit die Privatsphäre geschützt wird. Da nur Töne in einem bestimmten Frequenzbereich erfasst werden, kann bspw. keine Sprache aufgezeichnet werden.

POSITIONSERKENNUNG

Prinzipien

Koppelnavigation

Die Koppelnavigation (engl. dead reckoning) stammt aus der Seefahrt und ist ein inkrementelles Ortungsverfahren. Ausgehend vom Kurswinkel – gemessen beispielsweise mit einem Gierratensensor– wird in Kombination mit der Geschwindigkeit und der verstrichenen Zeit die aktuelle Position im Verhältnis zu einer bekannten vorherigen Position berechnet. So kann nach Vivacqua et al. (2017) ausgehend von der Position des Fahrzeugs s i = [ x i , y i , θ i ] T die nächste Position s i + 1 wie folgt berechnet werden: x i + 1 = x i + L sin ( θ i + θ / 2 ) y i + 1 = y i + L cos ( θ i + θ / 2 ) θ i + 1 = θ i + θ wobei θ der Gierwinkel er in Bezug auf die y-Achse ist. Die Koppelnavigation ist anfällig für Fehlerfortpflanzung, da jede neu berechnete Position auf die Fehler der vorherigen Position aufbaut. Deshalb ist sie für das autonome Fahren nur zur Überbrückung bei temporärem Ausfall von genaueren Ortungssystemen geeignet.

Inertialnavigation

Die Inertial- oder auch Trägheitsortung kann ebenfalls den inkrementellen Ortungsverfahren zugeschlagen werden. Sie beschreibt ein Navigationsverfahren, bei dem die Position eines bewegten Objektes durch die Auswertung der auf das Objekt wirkenden dreidimensionalen Drehraten- und Beschleunigungsvektoren erfolgt. Sind die Ausgangsposition, -geschwindigkeit und –ausrichtung bekannt, kann aus den Messwerten mit Hilfe von Integrationsverfahren der zeitliche Verlauf von Position, Geschwindigkeit und Ausrichtung berechnet werden (Strang et al. 2008). Im Gegensatz zur Koppelnavigation wird die Geschwindigkeit des zu ortenden Objekts bei der Trägheitsnavigation mittels Integration aus der Beschleunigung berechnet.

Die Inertialnavigation sollte auf Grund der starken Anfälligkeit für Messfehler nicht über längere Zeit als einzige Ortungsmethode genutzt werden. Sie kann jedoch sehr gut für die zeitlich begrenzte Überbrückung von Signalausfällen des GNS-Systems oder der Landmarkennavigation genutzt werden. Durch eine Fusion mit den absoluten Positionskoordinaten der Satellitennavigation wird damit für eine bestimmte Zeit der Ausfall einer hochgenauen GPS-Lösung überbrückt. Die Güte und Qualität der verwendeten Inertialsensorik (INS) entscheidet dabei über die maximale Ausfallzeit, in der die geforderte Genauigkeit noch eingehalten werden kann (Strang et al. 2008). Die für die Inertialnavigation benötigten Sensoren sind meist gemeinsam auf einer Plattform, der IMU (inertial measurement unit) verbaut.

Trilateration

Bei der Trilateration handelt es sich um eine Form der Landmarkennavigation. Im Rahmen der Landmarkennavigation wird die Position eines zu ortenden Objekts über Entfernungsmessungen zwischen diesem Objekt und bekannten Bezugspunkten (Landmarken) bestimmt. Der Abstand zu einer Landmarke kann beispielsweise über die Messung der Laufzeit eines elektromagnetischen oder akustischen Signals bestimmt werden. Diese Signale können entweder vom Objekt ausgesendet, von der passiven Landmarke reflektiert und anschließend vom Objekt wieder empfangen werden. Dazu können RADAR, LiDAR oder Ultraschall genutzt werden. Dabei senden aktive Landmarken Signale selbst aus.

Für die eindeutige Berechnung einer dreidimensionalen Position sind drei Landmarken, deren Position genau bekannt ist, notwendig. Der gesuchte Standpunkt ist der Schnittpunkt der drei Kugeln (rot in Abbildung), deren Mittelpunkte

A 1 , A 2 , A 3 durch die bekannten Positionen der Landmarken und Radien r 1 , r 2 , r 3 durch die gemessenen Abstände gegeben sind. Die Auflösung der Abstandsgleichungen nach P x , P y , P z führt zu zwei möglichen Lösungen, von denen eine aus Plausibilitätsgründen ausgeschlossen werden kann.

Trilateration 2d

Vereinfachte Trilateration in 2D – Quelle: Cotera et al. 2016

Im Falle von passiven Landmarken setzt eine präzise Entfernungsmessung die genaue Kenntnis der Ausbreitungsgeschwindigkeit des ausgesendeten Signals sowie der Sende- und der Empfangszeit des Signals voraus. Bei aktiven Landmarken, wie beispielsweise Satelliten, müssen die Sende- und Empfangseinheiten zeitlich genau synchronisiert sein, was aufgrund der örtlichen Trennung der Sende- und Empfangseinheit(en) in GNS-Systemen nicht gegeben ist (Vivacqua et al. 2017).

Hyperbelnavigation

Um Fehler bei der Verwendung der Trilateration bei aktiven, räumlich gentrennten Landmarken auszugleichen wird die Hyperbelnavigation verwendet. Es werden nicht die möglicherweise fehlerhaften, aus den Signallaufzeiten berechneten Entfernungen genutzt, sondern direkt mit den gemessenen Laufzeitunterschieden der empfangenen Signale gearbeitet. Das auch Time Difference of Arrival (TDoA) genannte Verfahren benötigt keine exakte zeitliche Synchronisation. Da die Ausbreitung der Signale über alle Sendeeinheiten konstant ist, entsprechen Unterschiede in der Laufzeit Unterschieden in der Entfernung. Alle Orte konstanter Abstandsdifferenzen zwischen je zwei Sendeeinheiten bilden (im zweidimensionalen Fall) eine Hyperbel, deren Brennpunkte den Positionen der Sendeeinheiten entsprechen. Wird eine weitere Sendeeinheit mit einbezogen, ergibt sich eine weitere Hyperbel. Aus den Schnittpunkten der Hyperbeln ergibt sich die Position des Empfängers.

Triangulation

Ein weiteres Verfahren, bei der die Position eines zu ortenden Objektes mit Hilfe von Landmarken bestimmt wird, ist die Triangulation. Für die Positionsbestimmung wird auf die gemessenen Winkel zu bekannten Landmarken zurückgegriffen. Da die Positionen der Landmarken und damit auch ihre Abstände zueinander bekannt sind, kann mit Hilfe der Winkelfunktionen auch die des zu ortenden Objekts P bestimmt werden. Ist die Ausrichtung des zu ortenden Objektes nicht bekannt, werden für eine erfolgreiche Ortung drei Landmarken benötigt. Für eine detaillierte Herleitung der Lösungsgleichungen siehe (Berns et al. 2009).

Map-Matching

Beim Map-Matching wird das autonome Fahrzeug in Bezug auf eine hinterlegte Karte geortet. Da sich das Fahrzeug (mit wenigen Ausnahmen) nur auf Straßen bewegt, können einerseits viele theoretisch mögliche Positionen bereits ausgeschlossen werden. Des Weiteren können die Informationen über das Straßennetz, die in Form einer digitalisierten Karte vorliegen, mit der Fahrzeugposition in Beziehung gesetzt werden. Es existiert eine Vielzahl von Map-Matching-Ansätzen, die unterschiedliche Eigenschaften des Straßennetzes (Krümmung der Straße, Ausrichtung, Neigung usw.) für die Lokalisierung heranziehen (Vivacqua et al. 2017). Die Genauigkeit ist einerseits abhängig von der Genauigkeit des Kartenmaterials, andererseits aber auch von den örtlichen Gegebenheiten und der Variabilität des Straßennetzes.

(Filter-) Algorithmen

Sowohl die Positionsbestimmung, als auch die Planung der Trajektorie hängen maßgeblich von den Sensordaten ab. Die korrekte maschinelle Wahrnehmung der Umgebung ist also Voraussetzung zur Lösung dieser Probleme. Maurer et al. (2015) beschreiben die Ergebnisse der maschinellen Wahrnehmung als dynamisches Fahrzeugumfeldmodell. Darin sind sowohl das Fahrzeug selbst, seine Lage, Bewegungsrichtung und –geschwindigkeit, als auch die aller anderen relevanten Objekte in der Umgebung enthalten: von die Kreuzung überquerenden Pkw bis zu Fahrbahnmarkierungen und Stoppschildern. Aus diesen einzelnen Objekten wird dann eine Szene berechnet, in der die Objekte zueinander in Beziehung gesetzt und die Wahrscheinlichkeit möglicher zeitlicher Entwicklungen der Szene berechnet werden. Ausgehend von diesen Projektionen wird dann die bestmögliche Trajektorie gewählt und anschließend die Längs- und Querreglung des Fahrzeugs dementsprechend beeinflusst.

Da Sensordaten jedoch zum einen immer messfehlerbehaftet sind und zum anderen einzelne Sensoren unterschiedlich gut geeignet sind um unterschiedliche Merkmale wahrzunehmen, müssen die Daten aus mehreren Sensoren in das Fahrzeugumfeldmodell einfließen. Dieser Vorgang wird Sensordatenfusion oder auch Sensorfusion genannt (Strang et al. 2008) und ist im Bereich des autonomen Fahrens ein wichtiges Forschungsfeld.

Die Unsicherheiten, die beim Fällen von Entscheidungen über die ideale Trajektorie berücksichtigt werden müssen, können in drei Kategorien unterteilt werden (Maurer et al. 2015): Zustandsunsicherheit, Existenzunsicherheit und Klassenunsicherheit. Zustandsunsicherheit beschreibt die Unsicherheit über den Zustand der physikalischen Messgrößen und resultiert direkt aus den Messfehlern. Existenzunsicherheit bezieht sich auf die Unklarheit, ob ein von den Sensoren registriertes Objekt in der Realität existiert; Messfehler sowie Berechnungsfehler zahlen auf diese Unsicherheit ein. Die letzte Kategorie beschreibt die Unsicherheit, ob ein wahrgenommenes Objekt in Anbetracht von Klassifikationsalgorithmen und Güte der Messdaten der richtigen Klasse zugeordnet wurde. Sowohl die Rohdaten, als auch die daraus extrahierten Merkmale müssen also in Echtzeit einer Bewertung unterzogen werden um die Unsicherheit beurteilen und den gemessenen Zustand gegebenenfalls korrigieren zu können.

Grundsätzlich benötigt jede Art von Klassifizierungs-, Optimierungs- oder Steuerungsaufgabe ihre auf sie angepassten Algorithmen. Da die Vielfalt der existierenden Aufgaben und deren Lösungsmöglichkeiten den Rahmen dieses White Papers sprengen würden, sollen lediglich zwei zentrale Verfahren dargelegt werden: Bayes’sche Filteralgorithmen sowie das SLAM Verfahren.

Bayes-Filter

Da zur Positionsbestimmung verschiedene Sensoren mit jeweils bestimmten Sensoreigenschaften genutzt werden, müssen diese zentral in einem Fusionsfilter zusammengeführt werden. Die zentrale Aufgabe dieses Positionsfilters ist das Zusammenführen der im Allgemeinen – auf Grund von Messfehlern – widersprüchlichen Informationen aus verschiedenen Positionsmessungen zu einer Positionsschätzung. Die Schätzung der Position eines statischen Systems aus mehreren Messwerten ist meist weder mathematisch noch technisch anspruchsvoll. Der einfachste Fall ist die Bildung des Mittelwerts aus allen Einzelmessungen. Zustandsschätzungen von dynamischen Systemen sind weit komplexer. Da sich das autonome Fahrzeug bewegt, ändert sich der zu schätzende Zustand zwischen den Messungen. Die Bewegung des Fahrzeugs und ganz besonders die Bewegungseinschränkungen müssen bei der Zustandsschätzung also mit berücksichtigt werden.

Die Schätzung des Zustands eines dynamischen Systems kann als Markov-Modell dargestellt werden (vgl. Abb.): Die aktuellen Sensormessungen zk hängen theoretisch nur vom aktuellen Systemzustand xk ab. Der tatsächliche Zusammenhang wird über ein Sensormodell (measurement model) dargestellt, das auch Messfehler berücksichtigt. Der Zusammenhang von vorherigem und jetzigem Zustand kann mit einem Bewegungsmodell (movement model) beschrieben werden. Für die Vorhersage kommender Zustände werden diese beiden Modelle als Wahrscheinlichkeitsdichtefunktionen formuliert.

Markov model
Markov-Modell erster Ordnung – Quelle: Strang et al. 2008

Für jedes System muss das dargestellte Modell angemessen konkretisiert werden. Dazu müssen mögliche Bewegungen und Bewegungseinschränkungen des Systems bekannt sein (ein autonomer Shuttle beispielsweise kann sich nicht beliebig schnell fortbewegen und ohne vorhergehende Querlenkung nicht innerhalb weniger Sekunden seine Ausrichtung komplett ändern). Des Weiteren muss die Funktionsweise der Sensoren und der Zusammenhang zwischen Messwerten und Systemzustand in das Modell integriert werden. Die konkrete Ausformulierung der Systemparameter ist also kein triviales Problem (Strang et al. 2008).

Die generelle Funktionsweise von Bayes’schen Filteralgorithmen kann als Kreislauf von Vorhersagen über den jetzigen Zustand des Fahrzeuges aus dem Zustand der vorherigen Messungen und deren Aktualisierung auf Grund von neuen Messwerten angesehen werden. Grundlage aller Varianten des Bayes’schen Filter ist der Satz von Bayes. Er besagt, dass sich die Wahrscheinlichkeit, dass ein bestimmter Zustand x unter der Bedingung eines Ereignisses z eingetreten ist, durch die Wahrscheinlichkeit, dass das Ereignis z unter dem gegebenen Zustand x eintreten kann, wie folgt berechnen lässt:

P ( x z ) = P ( z x ) P ( x ) P ( z ) Auf der linken Seite steht die Wahrscheinlichkeitsdichtefunktion P ( x k z 1 , , z k ) Wie wahrscheinlich ist es, dass der Zustand xk vorliegt, wenn ich die Messungen z1 bis zk beobachtet habe? Nach Berücksichtigung des Satz der totalen Wahrscheinlichkeit sowie der oben erläuterten Markov-Annahme, dass jeder Systemzustand nur vom jeweils vorhergehenden Systemzustand abhängt, lässt sich der rekursive Bayes’sche Filteralgorithmus formulieren (Effertz 2009). p ( x k + 1 Z k + 1 ) = p ( z k + 1 x k + 1 ) p ( x k + 1 x k ) p ( x k Z k ) d x k p ( z k + 1 x k + 1 ) p ( x k + 1 x k ) p ( x k Z k ) d x k dx k + 1 Um die Integrale lösen zu können, werden verschiedene Verfahren angewendet, die die unterschiedlichen Varianten des Bayes-Filters darstellen.

Kalman-Filter nutzen wie die Bayes’schen Schätzer inhaltliche Annahmen über das System in Form von System- und Messgleichung um den aktuellen Zustand schätzen zu können. Der Kalman-Filter arbeitet nach der Methode der kleinsten Quadrate, ist jedoch nur für lineare Systeme geeignet. Der erweiterte Kalman-Filter ist auch für nicht-lineare Systeme anwendbar. Allerdings nutzt er zur Approximation mit der Taylor-Reihe ein ungenaueres Schätzverfahren. Für eine genaue Beschreibung der Algorithmen siehe (Strang et al. 2008).

Der Partikelfilter löst das obengenannte Integral durch numerische Integration mittels Monte-Carlo-Verfahren (vgl. Abb.). Dazu werden Hypothesen (Partikel) über mögliche Systemzustände generiert (bei der Positionsschätzung mögliche x- und y-Koordinaten sowie Ausrichtungen) (a), die unter den Einschränkungen des Bewegungsmodells zufällig bewegt werden (prediction, b). Danach werden alle Partikel mit den aktuellen Messwerten verglichen und nach Übereinstimmung bewertet (update, c). Diese beiden Schritte werden mit jedem Zeitschritt iteriert. So nähert sich die Verteilung der Partikel der Posterior-Verteilung an. Der Filter ist sehr flexibel, was die Voraussetzungen des Systems angeht, jedoch mit zunehmender Teilchenanzahl auch sehr rechenintensiv.

Particle filter
Schätzvorgang eines Partikelfilters – Quelle: Effertz 2009

SLAM-Verfahren

Als SLAM-Problem (Simultaneous Localization and Mapping; deutsch Simultane Lokalisierung und Kartenerstellung) wird ein Problem der Robotik bezeichnet, bei dem ein mobiler Roboter gleichzeitig eine Karte seiner Umgebung erstellen und seine Position auf dieser Karte schätzen muss (Berns & von Puttkamer 2009). Das Problem kann in fünf Bereiche unterteilt werden, für die jeweils eigenständig Lösungen entwickelt werden können. Zunächst müssen aus den Daten, die die Sensoren (bspw. LiDAR) bereitstellen, markante Punkte oder Objekte – Landmarken – extrahiert und deren Position im Verhältnis zur Position des Fahrzeugs berechnet werden (1, vgl. Abb. a). Bewegt sich das Fahrzeug im Raum, kann seine Position aus Odometriedaten geschätzt werden (vgl. Abb. b). Können während der Bewegung des Roboters im Raum die neu entstehenden Daten mit den zuvor extrahierten Landmarken verknüpft werden (2), kann der Roboter seine Position im Verhältnis zu den Landmarken schätzen (3) und die zuvor aus den Odometriedaten berechnete Position dementsprechend korrigieren (4) (vgl. Abb. c). Abschließend werden aus den neuen Sensordaten weitere Landmarken und deren Position extrahiert (5), womit die Kartengrundlage, mit deren Hilfe sich der Roboter lokalisiert, wächst.

Positioning slam
Positionsschätzung im Rahmen des SLAM-Verfahrens – Quelle: Berns et al. 2009

Da Sensordaten und damit möglicherweise auch die extrahierten Landmarken und die berechneten Entfernungen zwischen Fahrzeug und Landmarken immer messfehlerbehaftet sind, muss die Position des Roboters aus den Daten geschätzt werden. Dafür können verschiedene Schätzverfahren zum Einsatz kommen, wie etwa Kalman-Filter, Partikelfilter oder auch Techniken, die auf der Graphentheorie aufbauen.

Koordinatensysteme

Die Kenntnis über verwendete Koordinatensysteme ist die Grundlage für eine exakte Verortung von Objekten auf der Erdoberfläche. Die verschiedenen Sensoren zur Positionsbestimmung nutzen je eigene Messprinzipien und dabei auch eine Reihe von Koordinatensystemen.

Relation iframe eframe nframe
Bezug von i-frame, e-frame und n-frame – Quelle: verändert nach Niehues 2014

Obige Abbildung zeigt den Zusammenhang von vier wichtigen Koordinatensystemen. Das Intertialkoordinatensystem (i-frame) ist definiert in seinem Bezug auf Fixsterne. Der Ursprung befindet sich im Erdmittelpunkt. Durch die Erdrotation entspricht die zi-Achse der Rotationsachse der Erde. Ursprung und ze-Achse des erdfesten Koordinatensystems (e-frame) stimmen mit dem des Intertialkoordinatensystems überein, die xe- und ye-Achsen sind jedoch fest im Bezug zur Erde und rotieren mit der Winkelgeschwindigkeit von 360° je 24h gegenüber dem Inertialkoordinatensystem (Strang et al. 2008). Angegeben werden die Koordinaten im erdfesten System meist in Breitengrad (latitude, φe), Längengrad (longitude, λe) und Höhe (height, he). Da die Erde keine perfekte Kugel ist, sondern durch die Rotationsbewegung abgeflacht, wurde als Bezugskörper das Erdmodell WGS84 eingeführt, das die Länge der Halbachsen und die Abplattung definiert (Niehues 2014). Die Daten des GNSS-Sensors werden im e-frame angegeben. Das körper- oder fahrzeugfeste Koordinatensystem (b- oder f-frame) ist definiert in Bezug auf das zu ortende Objekt, im vorliegenden Fall also in Bezug auf das autonome Shuttle. Der Ursprung des Koordinatensystems muss in Bezug auf die Lage im Fahrzeug definiert werden. Möglichkeiten sind zum Beispiel der Fahrzeugschwerpunkt, die Mitte der Hinterachse oder der Mittelpunkt der vorderen Stoßstange. Die zb-Achse entspricht der Hochachse des Fahrzeugs, die xb-Achse zeigt nach vorne, die yb-Achse nach links. Das Navigationskoordinatensystem (n-frame) bringt die genannten Koordinatensysteme zusammen: Sein Ursprung ist in der Regel identisch mit dem Ursprung des b-frames (in der Abbildung stimmen die Ursprungspunkte nicht überein), die Achsen sind jedoch in Bezug auf den e-frame definiert, die yn-Achse zeigt nach Norden, die xn-Achse nach Osten (Steinhardt & Leinen 2015).

Für eine Fusion der Daten unterschiedlicher Sensoren sind je nach Bezugssystem unterschiedlich komplexe Transformationen zwischen den Koordinatensystemen notwendig. (Effertz 2009) bietet einen detaillierten Überblick über die Abbildungsvorschriften zur Koordinatentransformation zwischen unterschiedlichen Systemen.

Sensoren

GNSS

Derzeit existieren vier globale Satellitennavigationssysteme. Neben dem bekanntesten NAVSTAR Global Positioning System (GPS) der USA ist das Global Navigation Satellite System (GLONASS) der Russischen Förderation im Einsatz. Im Aufbau befinden sich die Systeme Galileo der Europäischen Union und Beidou der Volksrepublik China. Welche GNSS zur Ortung herangezogen werden können, ist abhängig vom Empfänger.

Die von den Satelliten gesendeten Signale ermöglichen es den Empfängern ohne eine zusätzliche Datenbankabfrage die Position des Satelliten sowie aus der Laufzeit des Signals die Entfernung zum Satelliten zu bestimmen (Schelewsky 2014). Aus der Position von mindestens drei bekannten Punkten und der Entfernung des Empfängers zu diesen Punkten kann mit dem Prinzip der Trilateration oder Hyperbelnavigation die Position des Empfängers berechnet werden. Da die Anforderungen an den im Sensor verbauten Zeitmesser bei drei bekannten Punkten jedoch sehr hoch sind, wird ein vierter Satellit für eine ausreichend genaue Bestimmung des Standortes benötigt (Bauer 2011).

Das derzeit am häufigsten eingesetzte Satellitennavigationssystem GPS besitzt in seiner Standardausführung eine Genauigkeit von <15 m und ist in dieser Form für die Anwendung des autonomen Fahrens ungenügend. Aus diesem Grund müssen die verschiedenen Fehlerursachen, die zu einer solch unzureichenden Positionsangabe führen, minimiert werden. So wird mit Verwendung des Prinzips der Differenziellen Satellitennavigation (DGPS) eine deutliche Genauigkeitssteigerung erreicht. Neben den Satellitensignalen wird dabei ein zusätzliches Korrektursignal genutzt, mit dem einige wichtige Fehlereinflüsse korrigiert werden. Die Genauigkeit der Positionsbestimmung kann somit auf ein bis fünf Meter verbessert werden (Niehues 2014). Wird das Prinzip des Carrier Phase Differential GPS (CPDGPS) angewandt, so kann die Genauigkeit weiter bis auf den Zentimeterbereich verbessert werden. Bei diesem Verfahren wird eine zusätzliche Trägerphasenauswertung der Satellitensignale vorgenommen. Dennoch reicht der Genauigkeitsgrad des GPS auch nach Anwendung der zwei beschrieben Optimierungsvorgänge nicht aus, um eine robuste und kontinuierliche Positionsbestimmung durchzuführen. So kann beispielsweise bereits bei Durchfahrt einer Schilderbrücke das Satellitensignal abreißen. Außerdem kann es zu Beginn der Ortung – auch ohne Abschattung – unter Umständen lange dauern, bis der Empfänger ein ausreichend starkes Signal erhält, um eine Ortung durchführen zu können. Dieses Phänomen ist unter dem Namen Cold Start bekannt: Die Satelliten senden neben den Informationen über ihre eigene Position auch Daten über den Verlauf der anderen im System vorhandenen Satelliten. Mit Hilfe dieser Informationen kann der Empfänger die Positionsdaten, die er von den Satelliten empfängt, schneller verarbeiten. Sind diese Zusatzdaten jedoch nicht mehr aktuell genug – etwa, weil seit der letzten Positionsbestimmung mehrere Stunden vergangen sind – dauert die Positionsbestimmung wesentlich länger, möglicherweise bis zu zwölf Minuten. Um diese Wartezeiten zu verkürzen, werden beim Assisted GPS (AGPS) die zu erwartenden Positionsdaten der Satelliten über GSM oder WLAN bereitgestellt (Schelewsky 2014).

Während Cold Start Effekte und Abschattung des Signals dazu führen, dass sich der Empfänger nicht orten kann, können sogenannte Multi-Path-Errors (Mehrwegeffekte) Fehlortungen auslösen. Diese Effekte entstehen, wenn das Signal des Satelliten nicht in direktem Wege auf den Empfänger trifft, sondern von einer Fläche wie beispielsweise einer Häuserwand reflektiert wird und erst dann beim Empfänger ankommt. Diese Reflektion verlängert die Dauer der Laufzeit des Signals, weshalb der Empfänger eine falsche Position berechnet.

Mobilfunkortung und WLAN

Für bestimmte Anwendungsfälle ist die hochgenaue Bestimmung der Position eines Fahrzeugs nicht notwendig. Ein Beispiel dafür ist das Monitoring von Fahrzeugen im Flottenbetrieb zur Bestimmung von Kennzahlen der Nutzungshäufigkeiten von Fahrzeugen in bestimmten kleinräumigen Regionen. Diese Informationen können bspw. für die Gestaltung von Dispositionssystemen genutzt werden. Dabei können nahezu überall verfügbare WLAN- und Mobilfunknetze genutzt werden und aufgrund einer hohen Verfügbarkeit können flächendeckende Informationen mit sehr geringen Kosten erzeugt werden.

Beide Verfahren sind vor allem für urbane Gebiete interessant. Eine Ortung über die Zell-ID eines Mobilfunknetzes hat im Innenstadtbereich bspw. eine Genauigkeit von ca. 100 m. In ländlichen Gegenden kann diese Genauigkeit jedoch mehrere Kilometer betragen. Der Einsatz neuer Mobilfunkstandards wie 5G verbessert die Genauigkeit der Positionsbestimmung und eröffnet zukünftig neue Anwendungsfelder.

Da sich aus der Stärke der empfangenen Signale die Entfernung des Senders ableiten lässt, ist bei mehreren empfangenen Signalen auch eine Positionsbestimmung mittels Trilateration möglich.

Beschleunigungssensor und Gyroskop

Beschleunigungssensoren und Gyroskop sind meist gemeinsam auf einer IMU (inertial measurement unit) installiert.

Für die Bestimmung von Positionsänderungen im dreidimensionalen Raum sind drei Beschleunigungssensoren notwendig. Um die Beschleunigung des Objekts in den drei Dimensionen unabhängig voneinander messen zu können, müssen die Sensoren orthogonal zueinander installiert werden.

Nachfolgende Abbildung zeigt den schematischen Aufbau eines kapazitiven Beschleunigungssensors. Beschleunigungen werden generell über die Trägheit von Massen registriert und gemessen. Eine Testmasse (auch seismische Masse) ist mittels elastisch verformbarer, also federnder Halterungen im Sensor aufgehängt. Bei einer linearen Beschleunigung verändert sich der Abstand zwischen den an der Testmasse angebrachten Elektroden (1) und jenen, die kammförmig am festen Sensorkörper installiert sind (3, 6). Dadurch ergibt sich eine messbare Kapazitätsänderung in den Kondensatorelektroden. Die Spannung des Differentialkondensators ist proportional zur Auslenkung und damit auch proportional zur beschleunigenden Kraft. Durch die kammförmige Anordnung haben die Elektroden eine größere Oberfläche, wodurch sich die Kapazität des Kondensators erhöht.

Structure acceleration sensor
Aufbau und Funktionsweise eines Beschleunigungssensors – Quelle: Niehues 2014

Da die für das autonome Fahren genutzten Sensoren meist nur einige 100 µm groß sind, sind die Kapazitäten der Differentialkondensatoren so gering, dass die Elektronik zur Auswertung der Signale auf dem Sensorchip installiert sein muss (Schmidt 2002).

Um die mit den Beschleunigungssensoren gemessene Positionsänderung des Objekts mit dessen Ausrichtung in Verbindung zu bringen und so die beiden an sich unabhängigen Koordinatensysteme miteinander in Verbindung und die Werte transformieren zu können wird zusätzlich ein Gyroskop benötigt (Vivacqua et al. 2017). Mit Hilfe eines Gyroskops kann der absolute Winkel des Objekts beschrieben werden. Werden die gemessenen dreidimensionalen Beschleunigungen darauf bezogen, kann so die absolute Lageänderung angegeben werden, da Transformationen zwischen verschiedenen Koordinatensystemen ermöglicht wurden.

Eine Alternative zur Kombination von Beschleunigungssensoren und Gyroskopen sind Sensorcluster von Beschleunigungs- und Gierratensensoren (Vivacqua et al. 2017).

Gierratensensor

Der Gierwinkel (engl. yaw) beschreibt die Drehung eines Fahrzeugs um seine Hochachse. Mittels Koppelnavigation kann bei bekanntem Gierwinkel und bekannter Beschleunigung die Positionsänderung absolut angegeben werden.

Autonomous land craft
Roll-, Nick- (pitch) und Gier- (yaw) Winkel bei einem autonomen Landfahrzeug – Quelle: Berns & von Puttkamer 2009

Zur Bestimmung der Gierrate kann ein piezoelektrischer Stimmgabel-Drehratensensor verwendet werden (vgl Abb.). Dieser wird möglichst nah am Fahrzeugschwerpunkt eingebaut. Der Sensor nutzt die Corioliskraft (Ablenkung von Teilchen durch Drehbewegung) und den Piezoeffekt (Erzeugung von elektrischer Spannung in festen Körpern durch mechanischen Druck bzw. Verformung). Der Sensor besteht aus einem Stahlkörper mit vier Piezoelementen. Beim Anlegen einer Spannung an die unteren Piezoelemente (6) beginnen die Stimmgabeläste gegenphasig zu schwingen. Wird der Sensor durch Drehung des Fahrzeugs ebenfalls gedreht, wirkt die Corioliskraft auf die schwingenden Piezoelemente (5), die entsprechend des Piezoeffekts durch den entstehenden mechanischen Druck eine Wechselspannung erzeugen. Amplitude und Vorzeichen des Spannungssignals sind Indikatoren für Drehgeschwindigkeit und Drehrichtung (Niehues 2014).

Structure yaw sensor
Aufbau und Funktionsweise eines Gierratensensors – Quelle: Niehues 2014

Raddrehzahlsensor

Mit Hilfe von Raddrehzahlsensoren (Odometriesensoren) kann der zurückgelegte Weg eines Fahrzeugs in einem Zeitintervall bestimmt werden. Die zurückgelegte Strecke ergibt sich dabei aus der Anzahl der Umdrehungen der Räder, deren Durchmesser und der Zeit.

Raddrehzahlsensoren arbeiten teilweise mit dem magneto-resistiven Wirkprinzip (durch Rotation des Rades wird im Sensor eine Änderung des Magnetfeldes ausgelöst, die messbar ist) (Niehues 2014). Optische Drehzahlsensoren messen die Anzahl der auf dem sich drehenden Rad angebrachten Markierungen, die sich in einer bestimmten Zeit am Sensor vorbeidrehen. Die zurückgelegte Strecke ist

s = 2 πr × n n 0 wobei r der Radius des Rades, n die Anzahl der gemessenen Markierungen und n 0 die Gesamtzahl der Markierungen (Berns & von Puttkamer 2009).

Kompass

Eine der ältesten Techniken zur Navigation ist die Benutzung eines Kompasses. Durch Detektion der Richtung des Erdmagnetfeldes, klassischerweise mit Hilfe einer Kompassnadel, heute durch Ausnutzung des Halleffektes oder hochgenaue Spulen (Fluxgate-Magnetometer), kann die Richtung des magnetischen Nordpols ermittelt werden. Dieses Verfahren ist im Bereich der Fahrzeugortung in erster Linie zur Ermittlung der Ausrichtung interessant. Vorteilhaft hierbei sind vor allem die fehlenden Anforderungen an freie Sicht um das Fahrzeug. Ein Nachteil der Richtungsbestimmung mit Hilfe eines Kompasses ist unabhängig von Bauweise und Messprinzip die Anfälligkeit für Störfelder. Außerdem ist stimmt der magnetische Nordpol nicht exakt mit dem geographischen Nordpol überein. Diese sogenannte Deklination kann jedoch mit Hilfe aus speziellen Karten abzulesenden Korrekturfaktoren berichtigt werden (Niehues 2014).