Reaktives Monitoring ist immer noch Stand der Dinge in der IT. Die Zukunft heißt aber proaktives oder Predictive Monitoring. Nur so lassen sich Störungen zuverlässig verhindern.
Status quo im Monitoring-Bereich ist das reaktive Monitoring, das zum Beispiel auf der Analyse von Logfiles basiert. Selbst wenn eine Echtzeitanalyse erfolgt, kann auf veränderte Bedingungen nur nachträglich reagiert werden. Werden zum Beispiel Belastungsspitzen erkannt, können Aktivitäten erst anschließend gestartet werden, etwa die Bereitstellung zusätzlicher Ressourcen. Engpässe können damit nicht verhindert werden. Außerdem sind mit einem reaktiven Monitoring Störungen oder gar Ausfälle von Applikationen generell nicht auszuschließen, da keine Detektion potenzieller Probleme oder Fehler erfolgt.
Predictive Monitoring
»Ein proaktiver oder auch Predictive Monitoring genannter Ansatz überwindet die Schwächen herkömmlicher Vorgehensweisen, da auf Basis der Bestimmung von Event-Mustern auch eventuelle künftige Ausfälle prognostiziert werden können. Dadurch ist es möglich, frühzeitig entsprechende Gegenmaßnahmen einzuleiten«, betont Henning von Kielpinski, Leiter Business Development bei Consol in München.
Big Data
Die umfassenden Analysen, die für ein erfolgreiches Predictive Monitoring erforderlich sind, führen zwangsläufig zum Thema Big Data. Es müssen alle internen und externen Infrastrukturkomponenten in die Überwachung einbezogen und die Daten zum Beispiel mit weit verbreiteten Logging-Tools wie Splunk oder Graylog analysiert und aufbereitet werden. Basierend auf der permanenten Auswertung einer großen heterogenen Datenmenge kann dann im Rahmen eines Predictive-Monitoring-Ansatzes dynamisch ein Zukunftsbild abgeleitet werden. Ohne eine Big-Data-Anwendung ist diese komplexe Aufgabenstellung nicht zu bewältigen.
End-to-End-Monitoring und umfassende Datenbasis
Der Erfolg des Predictive Monitoring hängt im Wesentlichen von zwei Faktoren ab: einem End-to-End-Monitoring und einer umfassenden Datenbasis des Providers. End-to-End-Monitoring heißt, dass alle IT-Prozesse unter Einbezug des gesamten Application-Stacks in Echtzeit überwacht werden, also alle technischen Systeme, Datenbanken und Applikationen. Nur so ist eine system- und funktionsübergreifende Ermittlung von Schwachstellen möglich. Unverzichtbar ist zudem, dass der Anbieter von Monitoring-Lösungen und -Services über ausreichende Erfahrungswerte mit unterschiedlichsten IT-Umgebungen und eine breite Datenbasis verfügt, um auf alle Eventualitäten gut vorbereitet zu sein.
Die Vorteile einer End-to-End-Monitoring-Lösung, die auf einem proaktiven und prognostischen Ansatz basiert, sind weitreichend. Systeme können so immer auf einem aktuellen Stand gehalten und Verfügbarkeit wie Performance zu jeder Zeit sichergestellt werden. Und nicht zuletzt spricht auch unter Kostengesichtspunkten einiges für Predictive Monitoring. Indem ungeplante Aktivitäten überflüssig werden, können auch unerwartete Kosten vermieden werden.
Consol etwa bietet branchenübergreifend Monitoring-Lösungen – auch im Rahmen von Managed Services – an, die eine umfangreiche, seit über 15 Jahren befüllte Wissensdatenbank nutzen. In ihr sind mehr als eine Million bearbeiteter und gespeicherter Incidents und Changes enthalten, die zudem in Form von Lösungswegen und Best Practices dokumentiert sind.
Monitoring im Rechenzentrum – Umgebungswerte stehen im Fokus
5 Open-Source-Tools, die beim OpenStack-Monitoring und Optimizing helfen
Durchgängiges Netzwerkmonitoring – Welche Vorteile sind damit verbunden?
Bis 2020 werden 60 Prozent der digitalen Unternehmen größere Service-Ausfälle erleiden