In-Memory-basierte Big-Data-Analyse – Verborgene Schätze

In-Memory-basierte Big-Data-Analyse

Big Data ist weit mehr als ein vielzitierter Hype, es ist pure Realität. Innerhalb von durchschnittlich nur 18 bis 24 Monaten verdoppeln sich produzierte Terabyte-Datenmengen in Unternehmen. Einem laut BITKOM (4/2014) bereits stolzen Big-Data-IT-Investitionsvolumen von 2,6 Milliarden Euro in 2014 steht laut Analysten jedoch die nüchterne Tatsache gegenüber, dass in diesem Jahr nicht einmal ein Fünftel der Fortune 500 Unternehmen in der Lage sein werden, Big Data tatsächlich für ihr Business zu nutzen. »manage it« sprach mit Aaron Auld, Chief Executive Officer bei der EXASOL AG, darüber, welches die heutigen strategischen Anforderungen hierzu sind und welche Rolle In-Memory-Computing bei der Datenanalyse zukommt.

 

Herr Auld, was hat sich bei den IT- und Datenbankszenarien von Unternehmen geändert?

Früher war eine Datenbank einfach eine schlichte Datenbank. Sie speicherte Daten und stellte diese Benutzern und Anwendungsprogrammen bereit. Stand heute hat sich die Welt der Daten im Zuge der zunehmenden Digitalisierung jedoch gravierend geändert. Sie ist deutlich komplexer, Datenmengen wachsen rasant an und der Erfolg von Unternehmen hängt zunehmend davon ab, ob und vor allem wie Daten genutzt werden. Immer wichtiger dabei ist der Business-Intelligence-Kontext (BI), sprich die Datenflut gezielt befragen zu können sowie automatisiert Zusammenhänge zu erkennen und darzustellen. Wer als Unternehmen Big Data sammelt, sie aber nicht analysiert und für den eigenen Geschäftserfolg nutzbar macht, wird auf lange Sicht nicht mit dem Wettbewerb mithalten können.

Welche Datenbankinfrastruktur treffen Sie in der täglichen Unternehmenspraxis am häufigsten an beziehungsweise setzen darauf auf?

Infrastrukturen werden immer heterogener. Ein wichtiger, immer mehr etablierter Infrastrukturbaustein ist Hadoop. Die Open-Source-Plattform skaliert und ist zugleich wirtschaftlich. Im hybriden Ökosystem werden in Zukunft immer mehr Applikationen auf Hadoop ablaufen. Die Integration von Business Intelligence in Hadoop ist allerdings nur bedingt sinnvoll, zumal bei zeitkritischen Anwendungen. Für hochwertige Analytics liefern In-Memory-Datenbanken die notwendige Geschwindigkeit und werden zunehmend als High-Performance-Schicht auf Hadoop aufgesetzt. Der Best-Practice-Ansatz, den viele datengetriebene Unternehmen verfolgen, erfordert leicht zu implementierende und maximal skalierbare Lösungen, die ein hohes Maß an Flexibilität ermöglichen und eigene, oft begrenzte IT-Ressourcen entlasten.

Stichwort »In-Memory«. Der Begriff ist gerade in aller Munde, was genau verbirgt sich dahinter?

Beim In-Memory Computing geht es darum – wie der Name schon sagt – Daten im Hauptspeicher und damit extrem schnell zu verarbeiten. Das ist grundsätzlich nichts Neues. Jeder Computer arbeitet genau nach diesem Prinzip. Früher waren die für den Hauptspeicher benötigten Chips allerdings sehr teuer, weshalb man so wenig Hauptspeicher wie möglich verwenden wollte. Herkömmliche Datenbanken sind aus diesem Grunde alle für Prozesse auf Festplatten optimiert, was im Vergleich zum Hauptspeicher sehr viel langsamer ist. Da der RAM-Preis im Verhältnis zum Festplattenspeicher seit Jahren im Sinkflug ist, können es sich Unternehmen jetzt ohne weiteres leisten, Hauptspeicher einzusetzen und dadurch von den riesigen Geschwindigkeitsvorteilen zu profitieren. Nur wenige Datenbankhersteller haben aber bis jetzt eine gut funktionierende Lösung für die veränderten Umstände entwickelt. Bei EXASOL arbeiten wir seit 15 Jahren In-Memory.

 

5 Überlegungen zu In-Memory basierter Big-Data-Analyse 

  • Big Data sollte als fester Bestandteil in der Unternehmensstrategie
    integriert sein. 
  • Die durchgängige Lösung von einem einzigen Anbieter gibt es nicht. Erfahrungsgemäß wählt man einen Best-Practice-Ansatz und überlegt genau, welche Aufgaben wer/was erfüllen sollte. Die Abhängigkeit von nur einem Anbieter kann sehr kostspielig werden und den Erfolg ausbremsen.
  • Datenvolumen und -anforderungen ändern sich ständig: Abteilungen müssen in die Lage versetzt werden, ihren Analyse- und Datenbedarf schnell und einfach realisieren zu können.
  • Compliance-Vorgaben erfüllen: Mitarbeiter schulen, Transparenz und Vertrauen schaffen sowie gut überlegen, welche Daten und Prozesse sinnvoll im Haus bleiben sollen beziehungsweise welche in die Cloud gelegt werden.
  • Data Scientists: Immer mehr Unternehmen sind ›data driven‹ – das heißt Mitarbeiter sind gefragt, die mit dem Thema Big Data und
    Datenanalyse umgehen können.

 

Mit welchen Investitionen muss ein Unternehmen rechnen, wenn es seine Daten über eine intelligente In-Memory-Datenbank analysieren möchte?

Dies hängt generell vom Einzelfall und der bereits bestehenden Infrastruktur ab. Hier ist es zunächst wichtig zu wissen, dass das Durchführen von Big-Data-Analysen in der Regel keinen großen Austausch vorhandener Systeme erfordert. Oftmals geht es nur um gezielte Ergänzungen und Erweiterungen. Ausschlaggebende Kriterien für die Kosten der einzusetzenden Analysesysteme sind insbesondere die Menge der anfallenden Daten sowie die genutzte Datenbanktechnologie. Setzt ein Unternehmen auf eine analytische In-Memory-Datenbank, so reduzieren sich die Lizenzkosten auf den tatsächlich genutzten Arbeitsspeicher und nicht auf die gesamten Datenmengen. Hinzu kommen intelligente Kompressionsalgorithmen und vollautomatisierte Prozesse, die die Investitionskosten einer In-Memory-Datenbank im Vergleich zu konventionellen Datenbanken schnell mehr als halbieren können. Und auch selbst bei einem stark beschränkten Budget lassen sich mithilfe von flexibel skalierbaren Software-as-a-Service- oder Cloud-Lösungen Big-Data-Projekte erfolgreich und kostengünstig umsetzen.

Können Sie anhand konkreter Beispiele verdeutlichen, welche Vorteile In-Memory-Analytics mit sich bringen?

Ein gutes Beispiel ist der Onlineversandhändler Zalando. Das Sortiment des Webshops erweitert sich stetig – mit aktuell über 150.000 Produkten. Seit Mitte 2010 ist das Data Warehouse von Zalando um mehr als den Faktor fünf gewachsen. Da die bisherig eingesetzte Lösung die hohen Ansprüche nicht mehr erfüllen konnte, ergänzte Zalando sein Data Warehouse um unsere analytische In-Memory Datenbank als skalierbares und flexibles Data Mart. Das Ergebnis: Das neue Datenbanksystem war innerhalb von nur acht Wochen produktiv einsetzbar und verkürzte etwa die nächtliche Vorberechnung von gut 13 Stunden auf ganze 30 Minuten. Zalando kann nun viel schneller auf die Wünsche seiner Kunden reagieren und dementsprechend zeitnah das Sortiment anpassen sowie Umsatzpotenziale und Marketing-Maßnahmen besser steuern.

 

5 Benefits zu In-Memory basierter Big-Data-Analyse

  • Schnellste Big-Data-Analyse-Technologie
  • Beliebige Skalierbarkeit
  • Branchenunabhängig
  • Ideale Datenbankergänzung – nahtlos integrierbar
  • Realtime Analytics großer Datenmengen bei geringem TCO

 

Ein weiteres Beispiel ist das Karlsruher Unternehmen econda, einer der führenden Anbieter von Webanalyse- und Personalisierungslösungen auf dem europäischen Markt. Für seine mehr als 1.000 Kunden aus dem E-Commerce-Bereich verarbeitet econda bereits über 13 Terabyte Rohdaten monatlich – Tendenz steigend. Geschwindigkeit und Analyseflexibilität des gesamten econda-Systems hängen dabei stark von der zugrundeliegenden Datenbank ab. Durch die Integration unserer analytischen In-Memory-Datenbank ist econda nun in der Lage, seine Daten bis zu 100-fach schneller als zuvor auszuwerten. Aber nicht nur die Schnelligkeit sondern auch die Qualität beziehungsweise die Tiefe der Analysen wurden optimiert.

Was wäre noch zu beachten, um einem drohenden Daten-Overload entgegenzuwirken?

Technik allein genügt nicht, um die verborgenen Big-Data-Schätze zu heben. Eine enge Verzahnung zwischen analytischer Expertise, dem Know-how der eigenen Fachbereiche und der IT sind der Schlüssel zum Erfolg. Hier fehlt es oftmals an Spezialisten mit tiefgründigem Wissen von Datenanalysen. Erfahrene Data Scientists spielen eine entscheidende Rolle, wenn es darum geht, die nötigen Analysegrundlagen für businesskritische Entscheidungen herauszufiltern – für den maximalen Nutzwert von Big Data.


Optional für »manageit«-Leser: Zusätzlich zur kostenfreien Test-version von EXASolution unter https://www.exasol.com/mit/testen haben Sie die Möglichkeit, an einem 30-minütigen Webseminar zu In-Memory Analytics teilzunehmen.

 

Weitere Artikel zu