Als weiteren Quadranten aus dem aktuellen »Experton Big Data Vendor Benchmark« möchten wir Ihnen in dieser Woche die Marktkategorie »Big Data Aggregation« vorstellen.
Noch immer werden Anwender in der Umsetzung kreativer und fortgeschrittener Big-Data-Szenarien, die eine Vielzahl von Datenquellen unterschiedlichster Art berücksichtigen, dadurch ausgebremst, dass es nur wenige Tools überhaupt gibt, die die Anwender dabei unterstützen, diese Daten zusammenzuführen und aufzubereiten. Somit müssen sich die Anwender mit den Fähigkeiten der Datenbanken behelfen — und sie müssen dann Adapter und Konnektoren, Importfunktionen und Konvertierer programmieren.
Innerhalb der Kategorien des Big Data Vendor Benchmarks ist der Markt für Datenaggregation noch immer recht unreif. Weiterhin dominieren im Big-Data-Kontext Analytics-Lösungen, bei denen oftmals davon ausgegangen wird, dass die zu analysierenden Daten bereits in der Unternehmens-IT vorhanden sind oder Datenströme, beispielsweise aus Social-Media, direkt über Kooperationsverträge mit den Anbietern in eine Anwendungs-Software einfließen. Die Unternehmen in diesem Markt widmen sich mit ihren Lösungen speziell der Beschaffung und Zusammenführung von Daten.
Für die Aufgabe der Zusammenführung der Daten, möglichst unter Prüfung oder Verbesserung der Datenqualität sowie unter Sicherung der Datenintegrität, konnte die Experton Group im Rahmen des aktuellen Big Data Vendor Benchmarks 2016, der im Oktober vorgestellt wurde, eine eigenständige Gruppe von Anbietern und Lösungen identifizieren. Die Experton Group geht davon aus, dass diese Funktionalitäten im Zuge von Industrie 4.0 und des Internets der Dinge noch an Bedeutung gewinnen werden. Es geht dabei um mehr als nur die Umwandlung von Daten in eine CSV-Datei.
Die Daten zusammenzuführen beziehungsweise überhaupt zu beschaffen ist dabei eine überaus wichtige Funktion im Big-Data-Funktions-Stack. Variety heißt nicht nur, dass eine Analytics-Lösung verschiedene Datenarten verarbeiten kann, sondern auch, dass Datenlieferanten unterschiedlichste Datenmaterialien liefern. Für bestimmte Anwendungen müssen Data Warehouse Offloads (Ausschnitte aus großen Datenmengen) durchgeführt werden. Die so entstehenden Daten müssen mit anderen Daten zusammengeführt werden, ohne die Daten zu verändern oder umzuformen (das Umformen oder das Verändern würde zudem einen weiteren Prozessschritt erforderlich machen, der auch eine Störstelle darstellt).
Dabei ist die Aggregation von Daten keine triviale Aufgabe und beinahe so aufwendig wie die Entwicklung der geeigneten Fragen durch Data Scientists, also jener Fragen, mit denen aus den Daten neue Informationen gewonnen werden sollen.
Bemerkenswert ist das geringe Delta auf der Achse Portfolio-Attraktivität bei einer sehr weiten Spreizung des Anbieterfeldes in der Wettbewerbsstärke.
Bewertungskriterien für Big Data Aggregation
Neben den allgemeinen Bewertungsmerkmalen für alle Kategorien wurden hier insbesondere die Fähigkeiten der Softwarelösungen beziehungsweise Services für die Zusammenführung von Daten aus möglichst zahlreichen wie auch unterschiedlichen Datenquellen bewertet. Auch der Service-Charakter der Angebote spielte eine Rolle.
Daher ist der Markt für die Aggregation von Daten aus unterschiedlichen Quellen einerseits überschaubar und andererseits von ganz unterschiedlichen Ansätzen geprägt. Verschiedene Inputs und Outputs machen die Software und die Services erklärungsbedürftig. In der Bewertung wirkt sich das gleichermaßen auf die Wettbewerbsstärke wie auf die Portfolio-Attraktivität aus.
Aus einer technischen Perspektive wurde unter anderem beobachtet, wie die Anbieter Daten aus vorhandenen Systemen oder aus Datenströmen erfassen, wie sie vorverarbeitet werden und ob die Speicherung zum Beispiel auch In-Memory-Techniken einschließlich HANA unterstützt. Auch die Eignung der Lösung hinsichtlich der Weiterentwicklung wurde analysiert, beispielsweise anhand des Open-Source-Anteils, der Verfügbarkeit eines SDKs bei proprietären Lösungen oder eines denkbaren Customizing-Kits.
Unterstützende Hardware, Software und Dienstleistungen können zur Verbesserung der Positionierung in der Portfolio-Attraktivität beitragen.
Bei der Wettbewerbsstärke zahlten sich unter anderem die Vermittlung von Kompetenzen und die Unterstützung des immer wieder erforderlichen Domänenwissens für ein Big-Data-Projekt aus. Auch die Präsenz in Deutschland und die Unabhängigkeit der deutschen Organisation internationaler Unternehmen wurden analysiert und bewertet.
Gegenüber dem Vorjahr hat es keine signifikanten Veränderungen in diesem Marktsegment gegeben, wohl aber bei der Gewichtung der Einzelkriterien. Wie in den übrigen Kategorien auch wurde die Aufrechterhaltung des Momentums aus dem Vorjahreszeitraum sehr genau analysiert, unter anderem an neuen Projekten, Referenzen, am Kunden-Feedback und an weiteren Erfolgs-Indikatoren in Deutschland.
Anbieter-Benchmark Big Data Aggregation
Eine Gruppe von fünf Anbietern konnte sich in der diesjährigen Bewertung als Leader-Gruppe vom Wettbewerbsfeld absetzen: SAP, Balabit, Combit, Informatica und Neofonie.
Abbildung: Positionierung der Anbieter von Lösungen für die Aggregation von Daten für Big-Data-Anwendungen in Deutschland. Quelle: Experton Group AG, 2015.
Der Anbieter Neofonie aus Berlin konnte sich aus der Gruppe der Market-Challenger in den Leader-Quadranten verbessern. Das Unternehmen entwickelt Software-Lösungen für die Aggregation von Nachrichtenströmen nahezu aller Art. Neofonie konnte auch als deutsches Unternehmen den Schwung und Elan, den es zwischen 2013 und 2014 entwickelt hat, im Bewertungszeitraum des aktuellen Big Data Vendor Benchmarks aufrechterhalten. Konkret messen lässt sich dies an Neukunden und an der Weiterentwicklung der Lösung.
Die SAP AG nimmt eine Spitzenposition hinsichtlich der Portfolio-Attraktivität und der Wettbewerbsstärke ein. Einen wichtigen Beitrag für die Aggregation von Daten leistet die HANA-Plattform mit Tools wie dem SAP Data Integrator, mit dem Daten aus unterschiedlichen Datenbanken und Data Warehouses in einem ETL-Prozess für analytische Anwendungen aufbereitet werden können. Zu den SAP-Lösungen, die in diesem Benchmark in die Betrachtung einbezogen wurden, gehören unter anderem SAP Data Services, SAP Sybase Replication Server und SAP Data Migration. Sie sind auch dafür geeignet, dem Anwender überhaupt einen Überblick über seine Datenbestände zu verschaffen. Das Unternehmen ist in Deutschland sehr gut aufgestellt, was die Kriterien der Wettbewerbsstärke betrifft, beispielsweise im Bereich der Weiterbildung und der Wegbereitung für Big Data Analytics.
Informatica nennt sich selbst stolz den »Leader in der Datenintegration für Big Data & Cloud Analytics«. Im Big Data Vendor Benchmark 2016 der Experton Group erreicht das Unternehmen eine Position im Leader-Quadranten. Die positive Wertung ist unter anderem auf die vielfältigen Datenquellen zurückzuführen, die mit den Lösungen von Informatica zusammengeführt und aggregiert werden können. Die Daten können aus unterschiedlichen Systemwelten stammen und bei der Aggregation für verschiedene Anwendungsfälle transformiert werden.
Combit kann sich durch die Vielfalt an Datenformaten und das relativ zur Unternehmensgröße sehr starke Engagement bei deutschen Anwendern im Leader-Quadranten positionieren. Auch die interessante Facette, dass die Lösungen als Streaming Data der Analytics-Lösung zugeführt werden, wirkt sich positiv auf die Positionierung aus.
Balabit ist neu in dieser Kategorie und für die analytischen und überprüfenden Funktionen in der Aggregationsschicht der Big-Data-Prozess-Pyramide aufgenommen worden. Interessant ist bei Balabit, dass es für die zu aggregierenden Daten hier nicht nur verschiedene Quellen gibt, sondern ganz explizit auch bestimmte Destinationen erschlossen werden, wohin die aggregierten Daten fließen.
Holm Landrock, Prof. Dr. Andreas Gadatsch, Experton Group