Eine solide Datengrundlage gewährleistet die Transformation des Energiesektors

foto freepik

Bereits heute verfügen Energieunternehmen über Massen an verschiedensten Daten. Doch um effizienter und nachhaltiger zu werden, müssen diese aus Silos befreit und einheitlich aufbereitet werden. Durch die Energiewende werden viel mehr kurzfristige, steuernde Eingriffe notwendig, die nur auf Basis einer optimalen Dateninfrastruktur realisiert werden können. Otto Neuer, Regional VP und General Manager bei Denodo, zeigt, wie Unternehmen aus dem Energiesektor von modernen Datenmanagementplattformen profitieren können.

Energieversorgungsunternehmen generieren eine Vielzahl von Daten, wie etwa Smart-Meter-Daten von Verbrauchern, Sensordaten von Kraftwerken, Wetterdaten von externen Agenturen, Marktdaten von Energiehändlern, Standortdaten und viele mehr. Die Versorger nutzen all diese Daten auf vielfältige Weise: Um den Energiebedarf zu prognostizieren, die Erzeugungsleistung vorherzusagen, vorausschauende Analysen für zeitgerechte Wartung durchzuführen, die Arbeit des Wartungsteams zu optimieren oder den Kunden Einblicke zu geben, damit sie ihr Verbrauchsverhalten ändern können. Die Herausforderung für die Unternehmen besteht allerdings darin, dass diese wertvollen Daten in verschiedenen Repositories gespeichert sind – in Data Lakes, Anwendungen und internen Datenbanken.

Energieversorger benötigen moderne Datenplattformen

Der Schlüssel zur effizienten Nutzung der Daten von Energieversorgungsunternehmen ist eine logische Datenplattform, die Erkenntnisse aus verschiedenen, verteilten Datensätzen ermöglicht. Die einfache Lösung, alle verfügbaren Daten in einem Cloud Data Warehouse oder Data Lake zu speichern, funktioniert nicht und wird auch in Zukunft nicht funktionieren. Nur weil man „Cloud“ vor Data Warehouse oder Data Lake setzt, werden die Lösungen dadurch nicht automatisch smart. So verschiebt man lediglich ein dysfunktionales System vom eigenen Server in die Cloud.

Eine logische Datenplattform berücksichtigt dagegen die Tatsache, dass Daten über verschiedene Repositories verteilt sind, und ermöglicht es Data Scientists, diese Daten schnell und einfach zu kombinieren, ohne sie notwendigerweise in einen zentralen Speicherort (d. h. einen Data Lake oder ein Data Warehouse) zu kopieren und sie in Echtzeit zu verwalten.

Wie viele große Unternehmen verfügen auch Energieversorger in der Regel über zahlreiche Altsysteme, in denen Daten in Silos gespeichert sind. Diese Systeme wurden oft als in sich geschlossene Anwendungssuiten konzipiert, und es kann schwierig sein, Daten aus diesen Silos herauszuholen. Dies behindert die vollumfängliche Datennutzung und verlangsamt die Einführung neuer Technologien und Prozesse. Eine logische Datenmanagement-Plattform, die auf Datenvirtualisierung basiert, kann hier als Brücke zwischen diesen Altsystemen und moderneren Anwendungen und Tools fungieren. Sie kann über die verfügbaren Integrationspunkte – in der Regel komplexe und proprietäre APIs – auf die Daten in den Altsystemen zugreifen und diese Daten über Standardschnittstellen und -formate zur Verfügung stellen. So können Versorgungsunternehmen ihre Altsysteme noch weiterhin gewinnbringend nutzen, während sie gleichzeitig nahtlos neue digitale Lösungen übernehmen und integrieren können.

Zudem gibt es entlang der gesamten Wertschöpfungskette von Unternehmen Bedarf von Integration und Harmonisierung zwischen verschiedenen Anwendungen – sowohl innerhalb eines als auch zwischen verschiedenen Unternehmen. Eine logische Datenplattform, die Zugriff ohne physisches Verschieben ermöglicht, stellt eine ideale Basis für nahtlose, konsistente Datenintegration über verschiedene Anwendungen hinweg dar. Außerdem wird dadurch die Datenarchitektur gestärkt und Redundanzen werden reduziert. Auch erhalten Datennutzer einen Echtzeitdatenüberblick aus Daten unterschiedlicher Quellen, können heterogene Quellen abfragen und gleichzeitig die Einhaltung von Regulatorien sicherstellen.

Neue Möglichkeiten durch effiziente Datennutzung

Große Energieversorger verwalten ein riesiges Netzwerk von physischen Anlagen, angefangen bei Kraftwerken bis hin zur Netzinfrastruktur. Da diese Anlagen immer vielfältiger und verteilter werden, wird es immer schwieriger, sie effizient zu verwalten und zu betreiben. Neuere Anlagen im Bereich der erneuerbaren Energien befinden sich oft an abgelegenen, schwer zugänglichen Standorten, wie beispielsweise Offshore-Windparks, was die Wartung erschwert. Daten, die von diesen Anlagen in Form von eingebetteten Sensordaten gesammelt werden, können wertvolle Einblicke in die Funktionsweise der Anlagen liefern. Die Sensordaten sind jedoch oft in IoT-Data Lakes gefangen und werden häufig von den kritischen Kontextdaten getrennt, die für den Betrieb der Anlagen wichtig sind. Eine agile Datenplattform kann diese beiden Aspekte zusammenbringen und die optimierte Wartung unterstützen.

Ein Stromnetz, das zu großen Teilen auf volatilen erneuerbaren Energieträgern wie Wind und Sonne basiert, benötigt zudem mehr steuernde Eingriffe als alte Netze, die sich hauptsächlich auf große thermische Kraftwerke gestützt haben. Um Schwankungen in den Netzen entgegenzuwirken, brauchen Energieversorger Zugriff auf Echtzeitdaten für Erzeugung und Verbrauch. Die Steuerung der Nachfrage können sie unter anderem über moderne, datenbasierte Pricing-Modelle realisieren. So hat beispielsweise Octopus Energy in Großbritannien eine App entwickelt, bei der Verbraucher eine Vergütung erhalten, wenn sie ihren Stromverbrauch in Zeiten mit einer geringen Nachfrage und hohen Erzeugung verlagern.

Ein weiterer Aspekt, der heute eine solide Datengrundlage erfordert, sind wachsende Anforderung im Bereich Compliance und ESG-Reporting. Für Unternehmen ist es heute elementar, entsprechende Daten parat zu haben. Mit einer integrierten Datenmanagementplattform sind Energieunternehmen gut aufgestellt, um auf die informationstechnischen Herausforderungen der Zukunft zu reagieren.

 

3450 Artikel zu „Daten Management Plattform“

Zentrale Datenplattform und der Golden Record – Ohne Datenqualität kein erfolgreiches Datenmanagement

Oder muss es heißen: Ohne Datenmanagement keine Datenqualität? Es ist das Henne-Ei-Phänomen – das eine kommt ohne das andere nicht aus. Wie können Unternehmen strategisch vorgehen, um ihr Datenmanagement an den immer steigenden Anforderungen auszurichten und dabei ihre Daten in einer verlässlich hohen Qualität für belastbare Analysen zu pflegen?

Master Data Management per Open-Source-Plattform: Ein Unternehmen, eine Datenplattform

  Auf dem Weg zur Digitalisierung stehen Unternehmen auch vor der Aufgabe, ihre Stammdaten effizienter zu organisieren. Dafür braucht es ein unternehmensübergreifendes Stammdaten-System, in dem alle Daten in hoher Qualität, einschließlich ihrer Relationen untereinander, hinterlegt und abgerufen werden können. Für die technische Umsetzung bieten sich Open-Source-Plattformen als zukunftsfähige und kostengünstige Lösung an.   Daten werden…

Konvergente Datenmanagement-Plattform: Ransomware-Angriffe laufen ins Leere

Durch eine effektive Backup-Lösung kann Ransomware im Idealfall auf geringfügige Unannehmlichkeiten reduziert werden. Malware-Attacke dank Backup überstanden: Langs Building Supplies berichtet von einem aktuellen Ransomware-Angriff. Aufgrund seiner neuen Backup-Infrastruktur, basierend auf der konvergenten Datenmanagement-Plattform Rubrik, kann das Unternehmen seine Daten ohne die Zahlung von Lösegeld wiederherstellen. Dies zeigt, dass mittels einer effektiven Backup-Lösung Ransomware im…

Wie die Saubermacher AG ihr Konzern-Reporting völlig neu gestaltete – Nie wieder Datenmüll

Die Saubermacher Dienstleistungs AG verschafft sich mit dem Infor Enterprise Performance Management (EPM) einen vollständigen Überblick über ihre Geschäftsleistung in Echtzeit. Durch die Kombination von intelligenten Geschäftstools und Funktionen für die Finanzplanung in einer EPM-Softwarelösung, lassen sich zuverlässige Berichte erstellen, vergangene und aktuelle Leistungen messen und zukünftige Aktivitäten prognostizieren.

KI trifft auf Datendiebstahl: Malvertising-Kampagne auf Facebook

Cyberkriminelle nutzen das große Interesse an KI-Diensten wie ChatGPT, Sora AI, DALL-E oder Midjourney, um Nutzer auf Facebook mit Malware zu infizieren. Die Bitdefender Labs warnen vor einer großangelegten Malvertising-Kampagne auf Facebook, die das große Interesse an neuen KI-Diensten wie ChatGPT oder Midjourney nutzt, um Nutzer mit Malware zu infizieren und ihre Daten zu stehlen.…

Effektives Management und KI-Kompetenz als Schlüssel zur Förderung von Frauen in der Tech-Branche

Der »Women in Tech Report 2024« hebt die größten Herausforderungen und die steigende Nachfrage nach beruflicher Weiterbildung in verschiedenen Lernbereichen hervor [1].   Skillsoft, ein Plattform-Anbieter für transformatives Lernen in Unternehmen, veröffentlicht seinen Women in Tech Report 2024, der das aktuelle Arbeitsumfeld sowie die Bedürfnisse und Chancen von Frauen in der Technologiebranche untersucht. Der Report zeigt, dass…

Erhebliche Kommunikationslücken zwischen CISO und Top-Management

Fehlende Kommunikation als Risikofaktor: In Führungsetagen geht mehr als jeder dritte Befragte davon aus, dass Cybersicherheits-Verantwortliche ihr Top-Management über potenzielle Schwachstellen nur zögerlich informieren.   Zwischen Top-Management und Cybersicherheits-Verantwortlichen in Unternehmen klafft eine potenziell riskante Kommunikationslücke – trotz breiter Einigkeit über die steigende Bedeutung von Cybersicherheit. Das zeigt die Studie »CISO Redefined – Navigating C-Suite…

Engpässe im Ressourcenmanagement mit KI vorhersagen

Es wirkt wie ein Blick in eine Glaskugel, wenn eine künstliche Intelligenz im Ressourcenmanagement eventuelle Ausfälle vorab prognostiziert oder bei Ausfällen direkt Lösungen parat hält. Tatsächlich steckt aber nichts Außergewöhnliches dahinter, denn die KI bedient sich für ihre Einschätzung lediglich vorhandener Daten und erlernter Arbeits- und Verhaltensweisen. Mit ihrer Hilfe wird so die Ressourcen- und…

Optimale Steuerung der Lieferkette: Mit präzisen Bestands-KPIs zu datenbasierten Entscheidungen

Mit den richtigen Kennzahlen zur optimalen Steuerung der Lieferkette, von der Absatz- über die Bestands- bis hin zur Einkaufsplanung: Das Slim4 Add-On Business Intelligence verhilft Unternehmen dank präziser Bestands-KPIs zu datenbasierten Entscheidungen.   Für ein effizientes Bestandsmanagement und die optimale Balance zwischen einer hohen Lieferfähigkeit und geringen Kapitalbindungskosten, braucht es eine Menge Daten und KPIs.…

Polykrisen und Lieferketten: Mit diesen Tech-Trends das Supply Chain Management optimieren

Der weltweite Handel ist von den aktuellen Polykrisen akut betroffen. So bewirkten beispielsweise die Huthi-Angriffe im Suezkanal, dass sich der Warenverkehr fast halbiert hat. Das verdeutlicht einmal mehr, wie fragil und anfällig viele Komponenten der Lieferketten sind – ein Zustand, der weder Unternehmen noch Kunden zufriedenstellt. Doch wie lässt sich das ändern? Madeleine Samios, Account…

Datengestützte, interoperable Supply-Chain-Lösung: Die Lieferkette der Zukunft ist digital

Datengestützte, interoperable Supply-Chain-Lösungen sorgen für transparente, resiliente Wertschöpfungsketten und beseitigen Störungen automatisiert über das gesamte Ökosystem hinweg.   In Zeiten globalen Wettbewerbsdrucks sind reibungslose Prozesse entlang der gesamten Lieferkette ein zentrales Erfolgskriterium. Eine schwankende Inflation sowie geopolitische Spannungen können Lieferketten jedoch empfindlich beeinträchtigen und die Produktivität, Nachhaltigkeit und Rentabilität von Unternehmen gefährden. Mittels interoperabler Supply-Chain-Lösungen,…

Komplett datengesteuerte Unternehmen – »Data Analytics betrifft das ganze Unternehmen«

Künstliche Intelligenz ermöglicht die Analyse von Informationen in hoher Geschwindigkeit – doch wie lässt sich die ­Technologie langfristig effizient nutzen? Im Gespräch mit »manage it« betont Jörg Tewes, CEO beim Nürnberger Anbieter von Hochleistungs-Analytics-Datenbanken Exasol, wie wichtig eine leistungsstarke, skalierbare Dateninfrastruktur für den erfolgreichen Einsatz von Data Analytics in Unternehmen ist.

»Super iPaaS« – eine Plattform der Plattformen: Das »Konnektivitäts-Chaos« beenden

Mit einer KI-gestützten iPaaS-Lösung für Unternehmen lassen sich unglaublich vernetzte Erlebnisse für Kunden, Mitarbeiter und Partner erschaffen. »manage it« sprach mit Dr. Stefan Sigg, CPO der Software AG, um zu erfahren wie alle Arten von Anwendungen, Daten, B2B, Events und APIs auf einer einheitlichen Plattform umfassend zusammengeführt werden.

Riverty setzt auf skalierbare Exadata-Datenbankinfrastruktur aus der Cloud –
Von On-Premises in die Cloud

Für den effizienten und sicheren Transfer von geschäftskritischen Daten ist der FinTech-Anbieter Riverty auf eine Top-Performance und skalierbare Ressourcen in seiner Data-Warehouse-Infrastruktur angewiesen. Aufgrund stetigen Wachstums und der steigenden Menge an Kundendaten entschloss sich das Unternehmen vom vorhandenen On-Premises-System in die Oracle Cloud Infrastructure zu wechseln. Das Ergebnis: eine Beschleunigung der Laufzeit bei Prozessen um 10 bis 15 Prozent.

Wittur digitalisiert sein Lieferantenmanagement mithilfe von JAGGAER

Die Wittur-Gruppe, einer der weltweit führenden Komponentenlieferanten für die Aufzugsindustrie, treibt die Digitalisierung ihrer globalen Einkaufsprozesse voran. In Sachen Lieferantenmanagement vertraut das Unternehmen mit Hauptsitzen in Dresden und dem bayerischen Sulzemoos-Wiedenzhausen dabei auf die Unterstützung von Source-to-Pay-Anbieter JAGGAER. Denn mit Produktionsstandorten in 11 Ländern weltweit, fast einer Milliarde Euro Umsatz bis 2022, 4.900 Mitarbeitenden, 7…

CO2-Reduktion in der Lieferkette: JAGGAER erweitert Source-to-Pay-Suite um Carbon Management-Lösung carbmee EIS™

Beschaffungsexperte und Source-to-Pay-Anbieter JAGGAER ergänzt seine Lösung fortan um das Environmental Intelligence System™ (EIS) von carbmee. Ziel ist es, den Usern vollständige Transparenz über die CO2-Bilanz ihrer Lieferketten zu gewähren und damit nachhaltige Beschaffungsentscheidungen voranzutreiben. Dazu zeigt das Tool u. a. sämtliche CO2-Daten auf Stücklisten-, Produkt- sowie Serviceebene auf und ermittelt automatisch die Emissionsmenge getätigter…

Der Spagat zwischen Leistung und Effizienz – Technologientrends rund um Storage und Data Management

Markus Grau, Principal Technologist bei Pure Storage, erläutert heute vier Entwicklungen, die seiner Ansicht nach die technologische Entwicklung rund um Storage und Data Management im kommenden Jahr prägen werden.   Die Nachfrage nach generativen KI-Lösungen wird eine neue Welle der Container-Einführung auslösen. Der Ansturm auf die Entwicklung und Implementierung generativer KI-Lösungen führt zu einer neuen…

Databricks: Wir sind in allen relevanten Bereichen des Data-Managements der Stand der Dinge

Am 7. November 2023 hat die Firma Databricks in den Münchner Eisbachstudios die Hausmesse Data + AI Summit veranstaltet. Wir haben dort mit Roman Pritzkow gesprochen, den RVP DACH.   Herr Pritzkow, zum Einstieg eine provokante Frage: Kann durch KI der Fachkräftemangel gelöst werden? Roman Pritzkow: Eine interessante Frage. Im Augenblick generiert KI mehr Bedarf…

Effektive Personalisierung gelingt nur mit frei zugänglichen Kundendaten

Der Schlüssel zu einer nahtlosen, geschmeidigen Kundenkommunikation sowie einer leistungsfähigen Personalisierung liegt in der effizienten Nutzung vorhandener Kundendaten. Unternehmen, die die Silos zwischen den Abteilungen aufgebrochen haben, um einen ununterbrochenen Fluss dieser Daten während der gesamten Customer Journey zu ermöglichen, gelingt die Kundenansprache besser. Zu dieser Erkenntnis kommt auch die Studie »Time To Make Things…