In der Autoentwicklung fallen bei Testfahrten sehr große Datenmengen an. Ihre Analyse stellt die Entwickler vor große Herausforderungen, die aber mit modernen Big-Data-Systemen und innovativen IT-Lösungen bewältigt werden können.
Die Digitalisierung und Automatisierung der Autos schreitet mit großen Schritten voran. Schon in wenigen Jahren sollen Pkws ohne Fahrer über unsere Autobahnen rollen können – gesteuert allein von Elektronik und Algorithmen. Bis es soweit ist und die ersten selbstfahrenden Straßenfahrzeuge zu kaufen sein werden, müssen die Automobilhersteller und -zulieferer noch eine Menge Entwicklungsarbeit leisten und während vieler Erprobungsfahrten auf Straßen und Testläufen auf Messständen Daten sammeln und diese für eine Verbesserung der Algorithmen analysieren.
Die dabei anfallenden Datenmengen sind riesig. So ergab beispielsweise die Rekordversuchsfahrt, bei der ein Team aus drei Fahrern in nur neun Tagen einen speziell präparierten VW Touareg über 19.000 km vom Nordkap zum Kap Agulhas in Südafrika fahren wollte, einen Bestand von 1,6 Milliarden Datenbankzeilen.
1000 Messwerte pro Sekunde und Sensor. Der VW Touareg erzeugte während der Rekordfahrt, die auch Testzwecken diente, einen sehr großen Datenstrom. »Allein die vier Fahrwerkssensoren generierten jeweils 1.000 Messwerte pro Sekunde«, macht Jürgen Dettling, Chief Technologist bei HPE Deutschland, die riesige Datenmenge greifbar. » Eine Millisekunden-genaue Abtastung ist heute auch in Serienfahrzeugen innerhalb der Steuergeräte, wie sie für das ESP benötigt werden, schon üblich«, fährt Dettling fort.
Für die Entwicklungsingenieure wird die steigende Datenflut während Testfahrten zur Herausforderung – nicht nur, wenn es um Lösungsansätze für das autonome Fahren geht. Auch bei der Konstruktion von Motoren, Getrieben oder Achsen nimmt die Komplexität schnell zu. In modernen Fahrzeugen arbeiten diese Systeme und Komponenten vernetzt zusammen, und Entwicklungsziele können nur durch eine gesamtheitliche Betrachtung aller Komponenten und Bauteile erreicht werden. So fallen heute bei einer einzelnen Testfahrt bereits mehrere Terabyte an Daten an. Experten gehen davon aus, dass diese Informationsmenge in den nächsten Jahren in den Petabyte-Bereich vorstoßen wird.
Messdatentransport braucht wertvolle Zeit. »Die schiere Datenmenge, die bei Auswertung von Fahrzeugflotten oder auch schon einzelnen Testfahrten anfällt, zählt zu den größten Herausforderungen in der Automotive-Entwicklung«, berichtet Dr. Tobias Abthoff, Vorstand bei der NorCom Information Technology, einem auf Datenanalysen und Prozessberatung spezialisierten Unternehmen aus München. So produziere ein autonom fahrendes Fahrzeug heute einen Rohdatenstrom von über einem Gigabyte pro Sekunde.
Solche Datenmengen lassen sich meist nicht mehr sinnvoll über Datenleitungen übertragen. Daher werden sie üblicherweise in Datenspeichern abgelegt und diese physikalisch zu den Testingenieuren zur Auswertung gebracht. Dabei vergehen Tage oder sogar Wochen, bis die Daten für die Analyse zur Verfügung stehen. Werden dann Auffälligkeiten bemerkt, ist es meist zu spät, weitere Daten einzufahren, da die Testfahrt längst abgeschlossen ist. »Es stellt sich daher die Frage, wie man diese Datenmengen auch während Feldtests in abgelegenen Gebieten möglichst schnell analysieren und mit bereits vorhandenen Testdaten kombinieren kann«, sagt Abthoff.
Die Analyseplattform kommt zu den Daten. Daher geht NorCom gemeinsam mit Hewlett Packard Enterprise beim Testdatenmanagement einen neuen Weg. »Wir bringen nicht mehr die Daten zur Analyseplattform beziehungsweise zu den Datenspezialisten, sondern transportieren nur die Analysefragen und -ergebnisse. Das verringert die Anforderungen an die Übertragungsbandbreite erheblich und ermöglicht eine Auswertung auch großer Testdatenmengen fast in Echtzeit«, fasst Abthoff die grundlegende Idee des Lösungsansatzes zusammen. Konkret wird die notwendige Hard- und Software beispielsweise in einem transportablen Container installiert, der direkt an der Teststrecke oder bei Zulieferern steht. Die Analysen finden also vor Ort statt, obwohl die zuständigen Datenspezialisten entfernt im Büro in der Entwicklungszentrale sitzen.
Die Lösung bietet viele Vorteile gegenüber dem konventionellen Ansatz des Datentransports an den Ort der Analyse: Zum einen kann man mit der Lösung die Analysen sehr schnell und unmittelbar nach den Testfahrten durchführen. Legen die Ergebnisse eine Anpassung der Bedatung oder Verbesserungen bei den Algorithmen nahe, so können diese schnell umgesetzt werden und mit minimaler zeitlicher Verzögerung in den bereits laufenden Feldtests bei weiteren Probefahrten zum Einsatz kommen. »Das Setup erlaubt eine schnelle Reaktion auf die Testergebnisse. Das spart wertvolle Entwicklungszeit und -kosten«, fasst Abthoff zusammen.
Zugriff auf Daten an unterschiedlichen Standorten. Zum anderen können die Datenspezialisten bei der Auswertung weitere Daten hinzuziehen, die an anderen Standorten gespeichert sind. So können sie beispielsweise bei einem Fehler, den die Analysen der Testfahrtdaten ans Licht brachten, sofort kontrollieren, ob der Fehler möglicherweise bereits früher aufgetaucht war, aber unbemerkt blieb. »Unsere Vision umfasst ein weltweit integriertes Testdaten-Management-Konzept, das uns jederzeit den Zugriff auf alle erzeugten Testdaten und deren Analyse mit Big-Data-Methoden ermöglicht«, erläutert Matthias Bauhammer, Practice Principal Manager Analytics & Data Management bei HPE.
Datenklassifizierung reduziert den Speicheraufwand. Der HPE-Manager wagt schließlich noch einen Ausblick auf künftige Herausforderungen im Datenhandling der Automobil-Entwickler: »Die Automotive-Unternehmen müssen sich generell der Frage stellen, wie sie auch in Zukunft die Flut an Messdaten managen.«, sagt Bauhammer. »Heutige Architekturen können Analysen von Datenmengen, die mehrere Tera- bis Exabyte umfassen, nicht mehr bewältigen. Es werden daher Big-Data-Architekturen benötigt die eine Analyse und automatische Klassifizierung dieser Datenmengen ermöglichen. Dann kann man effizient entscheiden, welche Daten man speichert, welche Informationen zur Analyse benötigt werden und welche wieder gelöscht werden können.« Bauhammer plädiert daher für einen konsequenten Einsatz von skalierbaren Open-Source-Big-Data-Lösungen, um der weiter steigenden Komplexität in der Messdatenanalyse gewachsen zu bleiben.