Drei Fehler, die man bei der Modernisierung von Business-Intelligence-Lösungen vermeiden sollte

Business Intelligence hat sich von großen Software-Monolithen, welche in der Vergangenheit ausschließlich von der IT kontrolliert wurden, zu einem agileren Tool-Set gewandelt. Eine große Rolle spielt dabei auch Nutzerfreundlichkeit durch ansprechende Visualisierung. Nicht umsonst sind Angebote wie Tableau, Qlik und andere am Markt sehr erfolgreich. Sollen solche Werkzeuge nachhaltig im Unternehmen etabliert werden, müssen Verantwortliche einiges beachten. Otto Neuer, Regional VP Sales bei Denodo, zeigt drei häufige Fehler und wie sich diese vermeiden lassen.

 

  1. Fehlende Strategie für eine vollständige Integration heterogener Datenquellen

Unternehmen schöpfen ihre Daten heutzutage aus einer Vielzahl unterschiedlicher Quellen, um Informationen über neue Märkte, Kundenpräferenzen und vieles mehr zu sammeln. Moderne BI-Lösungen (Business Intelligence) kommen dabei mit unterschiedlichen Datenquellen zurecht, von traditionellen Datenbanken bis zu unstrukturierten Quellen.

Herkömmliche ETL-Prozesse stoßen dagegen bei der Menge und der Komplexität heutiger Daten schnell an ihre Grenzen. Das gleiche gilt auch für klassische Data Warehouses. Die Abhängigkeit von 20 Jahre alten, auf ETL-Prozessen basierenden Architekturen als Standarddatenintegration kann so die Möglichkeiten moderner BI-Lösungen einschränken. Solche veralteten Prozesse sind zeit- sowie ressourcenintensiv und beschränken Datenanbindung, Verarbeitung und Bereitstellung. Heutige Anwendungsfälle wie Live Dashboards oder Mobile Apps lassen sich damit schwer umsetzen.

Die Nutzung von Data-Adaptern oder Connectors hat ebenfalls Schwächen. Die Punkt-zu-Punkt-Verbindungen, die bei dieser Methode zwischen einer Quelle und einem oder mehreren Zielen hergestellt wird, sind nur sehr aufwändig zu verwalten. Die dadurch entstehende gesteigerte Komplexität sorgt für eine höhere Fehleranfälligkeit. Beispielsweise kann es vorkommen, dass nicht jedes Reporting-Tool Zugriff auf alle notwendigen Ressourcen hat. Das bedeutet, dass Anwender mehrere Tools nutzen müssen, die oft untereinander inkonsistente Ergebnisse liefern. Stattdessen sollten Unternehmen einen proaktiven automatisierten Ansatz verfolgen, um Integritätsprobleme schnell aufzudecken.

Um eine moderne BI-Plattform zu unterstützen, benötigen Unternehmen eine zeitgemäße Datenarchitektur, welche die Konnektivität mit einer Vielzahl von Datenquellen – strukturiert und unstrukturiert, relational und nicht-relational, On-Premises und in der Cloud – ermöglicht. Moderne Datenintegrationsansätze wie Datenvirtualisierung schaffen als Middleware eine Abstraktionsschicht, die den Zugriff auf alle Datenbestände unabhängig von Standort und Format erleichtert.

 

  1. Keine Echtzeitanalysen

Das exponentielle Datenwachstum der letzten Jahre hat neben dem schieren Volumen an Information zu weiteren Herausforderungen geführt. Eine davon ist die Geschwindigkeit, mit der Daten heute entstehen. Zudem kommt ein Großteil des neuen Datenaufkommens aus unstrukturierten Quellen, dabei handelt es sich beispielsweise um Sensordaten, Bilder, Chats, Finanztransaktionen, etc. Die immer schnellere Frequenz, mit der Daten entstehen macht heute moderne und agile Methoden der Datenintegration notwendig.

Allerdings sieht die Realität in den meisten Unternehmen so aus, dass sie über in die Jahre gekommene Infrastrukturen verfügen, welche keinen umfassendes Reporting in Echtzeit zulassen. Daher müssen alle Daten zunächst repliziert und in einem zentralen Repository aggregiert werden, bevor Analysten und Data Scientists diese nutzen können. Dieser Prozess behindert nicht nur den Echtzeitzugriff, sondern kann auch Duplikationen, Kontextverlust und erhöhte Latenz hervorrufen. Das größte Problem bei diesem Prozess: Die replizierten Daten sind selten völlig synchron mit dem Original und weisen eine gewisse Zeitverzögerung auf.

Wird stattdessen Datenvirtualisierung eingesetzt, verbleiben die Daten in ihrem ursprünglichen Kontext. Über einen Access Layer sind sie dennoch unmittelbar zugänglich. Die Datenquellen werden von den Anwendungen somit gewissermaßen abstrahiert. Zudem bietet Datenvirtualisierung einen ganzheitlichen Überblick über alle integrierten Daten, ohne dass Replikationen notwendig sind.

 

  1. Mangelnde Integrationsfähigkeit von (hybriden) Multi-Cloud Umgebungen

Die Cloud ist der große Treiber hinter einer neuen Generation von Business-Intelligence-Anwendungen. Dennoch verfügen viele Unternehmen immer noch nicht über eine optimale Datenintegration zwischen Cloud und On-Premises-Daten. Ebenso kommen sie mit Deployments über mehrere Clouds hinweg schlecht zurecht. Cloud-Strategien für Business Intelligence sind oft auf ein einzelnes Deployment fokussiert und daher limitiert. Wenn Unternehmen ihre BI Deployments nicht von einem zentralen Punkt aus verwalten können, führt das zu einem ineffizienten Gesamtsystem. Damit haben Organisationen keine Möglichkeit, ein effektives Workload Balancing zu implementieren. Das heißt für die Verantwortlichen, sie müssen viel Zeit damit zubringen, den Daten Herr zu werden, anstatt sich auf ihr eigentliches Geschäft zu konzentrieren.

Erfolgreiche Datenanalyse für die Cloud benötigt heute eine agile Echtzeitintegration, die eine breite Varianz unterschiedlicher Datenquellen abdeckt. Für diese Anforderungen ist Datenvirtualisierung die ideale Lösung. Die Technologie macht Dateninfrastrukturen transparent und ermöglicht das Datenmanagement in hybriden Architekturen, welches den Zugriff sowohl von On-Premises-Systemen als auch von der Cloud zulässt. Gleichzeitig ist es möglich, Workflows zu automatisieren. Moderne Datenvirtualisierungslösungen nutzen Machine Learning, um repetitive Aufgaben zu automatisieren und Empfehlungen für das weitere Vorgehen auf der Grundlage von Nutzungsanalysen zu geben.

 

Big Data vs. Data Warehouse: Zeit für die Modernisierung

Laut eines TDWI-Berichts ist es in den meisten Unternehmen Zeit für die Modernisierung der Data-Warehouse-Lösung [1]. Die Gründe dafür lassen sich in vier Kategorien einteilen: Unternehmen wollen echte Werte aus Big Data generieren Wir sind endgültig im Analytics-Zeitalter angekommen Es gibt neue Anforderungen an Echtzeitdaten Open-Source-Software ist mittlerweile Teil des Data Warehouse Die Bereithaltung, zentrale,…

Ambient und Ubiquitous Computing: Wie die 2020er unser Verständnis von Technologie verändern werden

Die technologischen Trends für 2020 sind vielfältig. Smartphones sind zwar weiterhin der König, wenn es um personalisierte Gadgets geht. Doch inzwischen drängen auch die neuen Produktkategorien immer stärker in den Mainstream: Apples Wearables-Geschäft, welches die Apple Watch und die Airpods Kopfhörer umfasst, erwirtschaftete laut Boersennews im vergangenen Jahr einen Umsatz von 18,9 Milliarden US-Dollar und…

Aus- und Weiterbildung ist einer der wichtigsten Faktoren der Unternehmensresilienz

Warum der Erwerb von Kompetenzen zu Cyberangriffen & Co. in Unternehmen existenziell ist. Von Unternehmen ist heute flexible Handlungsfähigkeit gefordert – auch in Krisensituationen. Es gilt daher, in der gesamten Organisation Widerstandskraft aufzubauen. Unternehmensresilienz ist der Schlüssel und erfordert eine Sensibilisierung beziehungsweise Stabilisierung der Mitarbeiter für entsprechende Handlungsfelder und Gefahren. Aus- und Weiterbildung ist daher…

Die Trends für Business Intelligence & Big Data 2020

Welche Trends für Business Intelligence (BI), Data & Analytics werden das Jahr 2020 prägen? Im Interview gibt BARC-Chef-Analyst Dr. Carsten Bange seine Prognosen ab. Außerdem stellt er exklusiv die Ergebnisse des BARC BI Trend Monitor 2020 vor, der 2.650 Anwender von BI-Technologie zu ihren persönlichen Trendthemen befragt hat. Dr. Carsten Bange, Gründer und Geschäftsführer von…

Datenintegration ist entscheidend für die Data-Warehouse-Modernisierung

Das Business Application Research Center (BARC) veröffentlicht »The Data Management Survey 19«, eine neue Studie, die auf einer aktuellen weltweiten Umfrage unter 782 Nutzern von Datenmanagementsoftware basiert. Die Umfrageergebnisse geben Einblicke in aktuelle Ansätze zur Modernisierung des Data Warehouse sowie einen Vergleich von elf führenden Datenmanagement-Produkten. Bekanntlich fallen etwa 70 bis 80 Prozent des Aufwandes…

Rechenzentrum: Verdreifachung von Edge-Einrichtungen bis 2025

Aktuelle Prognosen deuten auf ein rasantes Edge-Wachstum und einen starken Rückgang an Fachkräften hin. Vor fünf Jahren startete Vertiv eine globale, branchenweite Umfrage bezüglich des Rechenzentrums (RZ) der Zukunft. »Data Center 2015: Exploring the Possibilities« greift die Visionen von mehr als 800 Branchenexperten auf und stellt eine gemeinsame Vision für das Rechenzentrum der nächsten Generation…

Drei zentrale Triebfedern für das KI-Zeitalter – Stream Processing kombiniert mit Datenanalytik und Hybrid-Cloud

Der Einsatz von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) wächst in rasantem Tempo, wenn auch oft noch in Test-Umgebungen. Unternehmen entwickeln parallel dazu ihre Dateninfrastruktur konsequent weiter, um von den aktuellen technologischen Entwicklungen zu profitieren und um im Wettbewerb, der von der Digitalisierung angeheizt wird, zu bestehen.   Die Verlagerung der Dateninfrastruktur und der…

Die Digitalisierung bietet die nächsten großen Chancen für den deutschen Mittelstand

Der Mittelstand bildet seit jeher das Rückgrat der deutschen Wirtschaft. Die Liste der Hidden Champions, die in ihrer jeweiligen Nische Weltmarktführer sind, ist lang. Damit das auch in Zukunft so bleibt, müssen mittelständische Unternehmen ihre Geschäftsmodelle beziehungsweise Teile davon, ihre Prozesse und ihre Services digitalisieren. Wie sie dabei idealerweise vorgehen sollten, zeigt die folgende Checkliste.…

New Work mit Home Office, Mobilarbeit und flexiblen Arbeitszeiten – brauchen Unternehmen noch ein Büro?

Über die ganze Welt verteilte Standorte und Mitarbeiter, Fortschritte in der Technologie und sich ändernde Einstellungen zur Arbeit führen zu einem grundlegenden Wandel der Arbeitsweise von modernen Arbeitskräften. Das Ergebnis ist ein ständig wachsender Druck auf Unternehmen und IT-Abteilungen, sich an die neue Arbeitsweise der Mitarbeiter anzupassen. Laut einer Studie des UCaaS-Anbieters Fuze unter 6.600…

IT-Modernisierung mit der Cloud benötigt einen strategischen Ansatz

Kosten senken, die Infrastruktur besser verwalten, die Zeit zur Marktreife verkürzen und die Servicequalität verbessern: Immer mehr Unternehmen wollen ihre IT mit dem Umzug in die Cloud modernisieren und von Standardisierung und Automatisierung profitieren. Dabei investieren sie in die Cloud, ziehen ihre Altsysteme um oder greifen auf Services wie die Amazon Web Services, Google Cloud…

CPQ-Lösungsanbieter weiter auf Wachstumskurs

Die camos Software und Beratung GmbH steigert den Umsatz und Auftragseingang in 2018 erneut. Der CPQ-Lösungsanbieter freut sich über zahlreiche Neukundenprojekte im Maschinen- und Anlagenbau sowie einen hohen Bedarf der Bestandskunden, die in 2018 intensiv in CPQ Erweiterungen und Modernisierungen investierten.   Michael Hüllenkremer, Geschäftsführer bei camos, resümiert: »camos schaut erneut auf ein sehr erfolgreiches…

Wie Banken und Versicherungen auch wucherisch überteuerte Immobilien finanzieren

Wenn Investorenschrott normale Immobilien zu Schrottimmobilien macht – verantwortungslose Eigentümer auf der Suche nach angeblich Schuldigen.   Schrott-Immobilien sind ein Thema für bis zu mehr als zwei Millionen betroffene Investoren. Der Investorenrat »Investiere nur in Anlagen, die Du auch selbst verstehst«, betrifft den Zeitpunkt des Investments in Geldanlagen sowie die laufende Überwachung von Kapitalanlagen. Häufiger…

Audit »Zukunftsfähige Unternehmenskultur«: IT-Fachkräfte finden und binden

Die Pix Software GmbH, die Pixelconcept GmbH, die SpaceNet AG und die SPI GmbH arbeiten nicht nur mit digitalen Lösungen für morgen, sie haben sich auch intern neu aufgestellt und damit einen Startvorteil im Wettbewerb um IT-Fachkräfte. Dafür wurden sie nun vom Bundesministerium für Arbeit und Soziales mit dem Audit »Zukunftsfähige Unternehmenskultur« ausgezeichnet.   Die…

Checkliste: Diese Fragen sollten Fertigungsunternehmen ERP-Anbietern stellen

Neun Schlüsselfragen bei der Auswahl einer ERP-Software für Fertigungsunternehmen.   Ob industrielle Fertigung, Prozessindustrie, Automotive-Branche oder High-Tech: Viele Fertigungsunternehmen stehen derzeit vor einer Modernisierung ihrer ERP-Landschaft und sehen sich nach neuen Lösungen um. Ihre Wahl will gut überlegt sein, denn sie muss 15 Jahre oder länger halten. Eine Checkliste von IFS führt die entscheidenden Fragen…

Neue Wege gehen: Kontakt und Bindung zu Digital Natives

Viele Firmen sehen im Bekenntnis zur Digitalisierung noch nicht den Schlüssel zu einer erfolgreichen Transformation. Dies geht aus der Studie »Die neuen Gewinner des digitalen Umbruchs: etablierte Unternehmen« hervor. Jeder zweite Betrieb aus der Befragung erkennt die digitalen Kompetenzen sogar als entscheidenden Faktor für eine erfolgreiche Umstellung an. Auf der anderen Seite sieht knapp die…