Digitalisierung schafft neue Verantwortung für die IT. Das richtige Monitoring ermöglicht der IT, sich dieser Herausforderung zu stellen.
Die Digitalisierung ist angekommen. Was vor einigen Jahren noch als IoT neue Wunderwelten mit sagenhaften Möglichkeiten versprach, ist heute in den meisten Bereichen Realität. Ob im Krankenhaus, im Produktionsumfeld, bei der Logistik oder in der Gebäudetechnik: Überall generieren vormals analoge und von der IT-Welt abgekapselte Geräte und Systeme heute auf digitalem Weg Daten und ermöglichen so ein völlig neues Kommunikationsniveau. Früher leuchtete bei Störungen eine rote Lampe auf einer Maschine, und der zuständige Techniker machte sich auf den Weg zur Maschine, um den Fehler zu identifizieren und entsprechende Maßnahmen einzuleiten. Heute informiert die Maschine selbst den zuständigen Service-Techniker via E-Mail und bestellt gleich noch die benötigten Teile über das ERP-System im Webshop des Herstellers. Oder der Arzt ruft die aktuellen Röntgenbilder auf seinem Laptop am Bett des Patienten auf, statt jemanden in die Röntgenabteilung zu schicken, der Bilder dort abholt und an die Leuchtwand im Sprechzimmer pinnt.
Neue Chancen, neue Herausforderungen
Digitalisierung ermöglicht völlig neue Prozesse, die unternehmensweit für deutlich mehr Effizienz sorgen, Mitarbeiter entlasten und Kosten sparen. Lediglich die IT-Abteilungen haben plötzlich erheblich mehr zu tun. Produktionsumgebungen waren früher komplett von der IT abgekapselt. Die wichtigste Sicherheitsmaßnahme war, die Türen zur Produktion abends gut zu verriegeln und möglichst keine chinesischen Delegationen mit kleinen Kameras durch die Fabrikhallen marschieren zu lassen. Mit der Öffnung zur IT sind plötzlich ganz andere Risiken in den Vordergrund gerückt, und Intrusion Detection- und Access Management-Systeme haben Hochkonjunktur. Aber nicht nur die neuen Sicherheitsanforderungen verursachen ein mehr an Arbeit für die IT. Die digitalisierten Bereiche generieren riesige Datenmengen, die transportiert, gespeichert und verarbeitet werden müssen. Die Cloud spielt hier eine wichtige Rolle, ist aber nicht immer die passende Option: Vielen Unternehmen sind ihre Daten zu heikel für die Public Cloud angesichts der Angst, dass die Daten plötzlich auf amerikanischem Hoheitsgebiet liegen und amerikanischer Rechtsprechung unterliegen. In dem Fall muss eine Private Cloud her, oder aber die Daten werden doch vor Ort im eigenen Rechenzentrum gelagert und verarbeitet.
Monitoring-Konzepte
Ganz egal, worum es geht und welches Modell letztlich zum Tragen kommt: Die IT trägt die Verantwortung für das Funktionieren der Infrastruktur und des Netzwerks; in der klassischen IT genauso wie jetzt auch in den digitalisierten Umgebungen. Daten müssen generiert, transportiert, übersetzt, gespeichert und ausgewertet werden, und selbst wenn Teile dieses Prozesses (noch) bei Fachabteilungen liegen oder an (Cloud-)Dienstleister ausgelagert sind, muss die IT in jedem Fall den Transport der Daten sicherstellen. Dazu benötigen die Fachleute aus der IT eine Monitoring-Lösung, die übergreifend sowohl die IT-Komponenten und -Bereiche überwacht als auch die digitalisierten Systeme und Umgebungen. Natürlich liefern viele dieser Systeme eigene Monitoring-Funktionalität mit, ähnlich wie in der IT, wo etliche komplexe Systeme vom Hersteller mit entsprechenden Monitoring-Kapazitäten ausgestattet sind. Je heterogener und umfangreicher allerdings die Umgebung bzw. die Verantwortung ist, desto schwieriger wird das Konzept des herstellerspezifischen Monitorings: Bin ich als Experte für Virtualisierung nur für meine VMware-Applikationen zuständig, reichen mir in der Regel die VMware-Bordmittel für das Monitoring. Geht es allerdings darum, einen komplexen Prozess wie beispielsweise einen E-Mail-Service sicherzustellen, reicht es nicht, nur meine virtuellen Server zu betrachten. Ich muss den Weg im Blick behalten, den meine E-Mails nehmen, inklusive der betroffenen Switche, Router und Firewalls, ich muss involvierte Storage-Systeme und Datenbanken überwachen, Load-Balancer, Mail-Server und natürlich auch die Hardware, auf der all das passiert. Will ich dies mit Bordmitteln der einzelnen Komponenten realisieren, ende ich mit zahllosen Monitoring-Systemen. Schon die Fehlersuche beim Störungsfall wird zur aufwändigen Detektivarbeit, ganz zu schweigen von der Suche nach der Ursache des Fehlers. Aus diesem Grund existieren in der IT bereits seit Jahrzehnten zahlreiche etablierte Monitoring-Lösungen, die unterschiedlichste Systeme teils direkt überwachen, teils mit den bordeigenen Monitoring-Tools interagieren und teils Rückschlüsse aus dem Monitoring des Datenstroms ziehen. Die meisten dieser Tools beherrschen unterschiedliche Methoden und unterstützen die gängigsten IT-Protokolle.
In »frisch digitalisierten« Umgebungen existieren in der Regel keine übergreifenden Monitoring-Lösungen auf diesem Level. Anwender sind auf native Tools der Anbieter von Maschinen, medizinischen Geräten und Systemen oder Gebäudetechnik angewiesen. Auf der Suche nach einem zentralen Überblick haben IT-Monitoring-Lösungen daher einen deutlichen Vorsprung: Sie sind darauf ausgelegt, heterogene Umgebungen mit unterschiedlichsten Komponenten in einem zentralen Monitoring-Szenario zusammenzuführen. Auf der Suche nach Lösungen, die einen Gesamtüberblick über die klassische IT und digitalisierte Umgebungen bieten, liegt es nahe, diese IT-Lösungen um entsprechende Methoden und Protokolle für die digitalisierten Umgebungen zu erweitern, statt hochspezialisierte Tools für industrielle, medizinische oder andere digitalisierte Bereiche zu Generalisten umzuerziehen. Wie aber erkenne ich eine geeignete Lösung für ein übergreifendes Monitoring von IT und Digitalisierung?
Geeignete Monitoring-Lösungen für die Digitalisierung
Für jede übergreifende Monitoring-Lösung bildet das Beherrschen der klassischen Monitoring-Funktionalität die Grundvoraussetzung:
- erfassen von Daten zu Verfügbarkeit und Performance von Geräten und Systemen;
- speichern und analysieren der erfassten Daten;
- alarmieren und benachrichtigen anhand von Schwellwerten auf Basis der Analyse;
- publizieren von Daten und Analysen in Berichten und auf Dashboards.
Um das Monitoring auf digitalisierte Umgebungen ausweiten zu können, muss die Lösung neben den in der IT üblichen Protokollen und Methoden (SNMP, NetFlow, WMI, QoS, HTTPS, FTP …) auch solche beherrschen, die Zugriff auf branchenspezifische Umgebungen liefern, wie beispielsweise:
- UPC-UA, MQTT oder Modbus im industriellen Umfeld;
- DICOM und HL7 für medizinische Umgebungen;
- Modbus, MQTT oder BACnet im Bereich der Gebäudetechnik.
Ein weiterer elementarer Aspekt ist die Möglichkeit, mit zentralen Komponenten wie Edge-Geräten oder Kommunikationsservern direkt interagieren zu können. Das kann über Kooperationen und vordefinierte Integrationen, aber auch über mitgelieferte und entsprechend dokumentierte Schnittstellen ermöglicht werden.
Darüber hinaus müssen die Darstellungsmöglichkeiten für Daten und Analysen flexibel genug sein, um sowohl Teilbereiche mit vielen Details für Spezialisten abbilden zu können als auch einen übergeordneten Blick aus der Management- bzw. Helpdesk-Perspektive. Analog muss ein entsprechendes Rollen- und Rechte-Management gewährleistet sein, um Zuständigkeiten und Verantwortungen entsprechend abbilden und steuern zu können. Das umfasst auch das Alarmierungsmanagement, das entsprechende Eskalationsprozesse unterstützen muss.
Schließlich spielen Faktoren wie Komplexität bzw. Bedienbarkeit der Lösung sowie Preis-Leistungs-Verhältnis oder die Qualität des Supports eine wesentliche Rolle bei der Auswahl einer passenden Lösung. Aber das ist ja selbstverständlich.
Thomas Timmermann, Senior Market Expert bei der Paessler AG
Digitalisierte Produktion steigert Wettbewerbsfähigkeit – Stahlhartes Monitoring
Ausfälle in der Produktion sind nicht nur ärgerlich – sie kosten auch häufig viel Geld und können die gesamte Supply Chain stören. Um diesen Problemen entgegenzuwirken und einen gewissen Qualitätsstandard zu halten, ist ein Monitoring-Tool elementar wichtig. Damit lassen sich Fehler rechtzeitig erkennen, beheben und ein reibungsloser Betriebsablauf garantieren.
150 Jahre ist die SMS group GmbH bereits im Anlagenbau und in den Services für die Metallindustrie tätig. Mittlerweile stellt sie weltweit Anlagen zur Stahlherstellung und -verarbeitung her und ist Trendsetter für die grüne Stahlindustrie. Dank hoher Digitalisierungsexpertise kann sich das Unternehmen auf dem Markt abheben und ist wettbewerbsfähig. Um Schwachstellen im laufenden Betrieb zu identifizieren, zu beseitigen und die Funktion sowie Zuverlässigkeit von Anlagen sicherstellen zu können, überwacht die SMS group ihre Anlagen zur Stahlproduktion; sowohl während des Baus als auch während der Testphase. Damit kann das Unternehmen die hohe Qualität seiner Produktion gewährleisten.
Moderne Stahlproduktion funktioniert digital. Die SMS group liefert weltweit Produktionsanlagen für die Stahlindustrie. In Zeiten von Digitalisierung und Industrie 4.0 hat das nicht mehr viel mit archaischen Maschinen im »rostigen Eisen-und-Feuer-Look« zu tun: Moderne Steuerungstechnik und HMI (Human Machine Interface) sind ebenso Teil der Produktionsanlagen wie Automatisierungssysteme mit entsprechenden Echtzeitnetzwerken. Frank Schweisfurth und das Team von Digital Engineering & Products & Systems Technology EA stehen bei der SMS group für die gesamte IT- und OT-Hard- und -Software der Anlagen in der Verantwortung. Das reicht von relativ kleinen Anlagen mit lediglich zwei oder drei Computern, ein paar PLC und IOs bis hin zu Anlagen von bis zu hundert Bedienplätzen und einer Vielzahl von Steuerungskomponenten. Von der ersten Planung bis zum Aufbau beim Kunden durchlaufen SMS-group-Produktionsanlagen einen präzisen strukturierten Prozess aus Planung, Simulation, Tests und Implementierung.
Bevor eine SMS-group-Produktionsanlage beim Kun-den gebaut wird, wird sie mit Hilfe einer 3D-Echtzeitsimulation auf Herz und Nieren getestet und optimiert. Das erfordert eine komplexe IT-Umgebung mit Servern, Datenbanken und Switchen. In dieser Umgebung werden die Hard- und Softwarekomponenten der Produktionsanlagen überwacht. Dazu gehören von der SMS group eigens entwickelte X-Pact-Embedded-Automatisierungssteuerungen mit VxWorks-basierten Echtzeitsystemen ebenso wie Steuerungskomponenten.
Kontinuierliches Monitoring sichert Produktion. Neben der Überwachung der klassischen IT-Komponenten setzt das Unternehmen PRTG auch zum Monitoring der Steuerungssysteme ein. »Wir überwachen sowohl die von uns entwickelten Steuerungen, die wir dazu eigens mit entsprechenden Schnittstellen versehen haben, als auch Steuerungen, die wir von Lieferanten zukaufen«, sagt Frank Schweisfurth.
Auf die Simulationsphase folgt die Integration der IT-Komponenten in die OT-Umgebungen. Dabei werden die Steuerungen inklusive der ganzen IT-Komponenten in die physischen Maschinen integriert. Natürlich muss auch während der Integration ständig getestet und überwacht werden. Durch das Monitoring-Tool konnte das Unternehmen bereits wiederholt Störungen entdecken und so Probleme verhindern. »Einige unserer Softwareprodukte versursachten Memory Leaks, die uns so nicht aufgefallen wären. Mit unserer Monitoring-Lösung konnten wir diese bereits während der Testphase entdecken und beseitigen. Wäre uns das nicht gelungen, hätten die Memory Leaks im schlimmsten Fall beim produktiven Einsatz zum Ausfall der ganzen Anlage führen und so immense Kosten verursachen können«, sagt Frank Schweisfurth.
Nach erfolgreicher Testphase folgt die Implementierung der Anlage beim Kunden. Je nach Größe der Produktionsanlage kann diese Wochen oder auch Monate in Anspruch nehmen. Während der gesamten Aufbauphase wird laufend weiter optimiert und entwickelt. Auch hier spielt das Monitoring eine zentrale Rolle, und SMS group denkt bereits einen Schritt weiter: »PRTG hat sich zu einem zentralen Bestandteil des gesamten Entstehungsprozesses unserer Anlagen entwickelt: von der Planung bis zur Abnahme durch den Kunden«, sagt Frank Schweisfurth.
Probleme erkennen, verstehen und lösen. Aus verschiedenen Gründen entschied sich die SMS group bei der Auswahl des Monitoring-Tools für PRTG. »Das Monitoring unserer Anlagen ist bereits während der Planung von elementarer Bedeutung. Die zentrale Herausforderung ist dabei, sowohl IT als auch OT mit einer Lösung zu überwachen. Nur so sind wir in der Lage, übergreifende Zusammenhänge aufzudecken, komplexe Probleme zu verstehen und zu lösen«, sagt Frank Schweisfurth. Mit dem Maps-Feature der Monitoring-Lösung können sämtliche Systeme und Prozesse schnell und übersichtlich dargestellt werden, sodass ein zentraler Überblick über die komplette Produktionsanlage gewährleistet wird. Auch die Schnelligkeit des Monitoring-Tools ein wichtiger Aspekt: PRTG ist einfach einzusetzen, liefert zahlreiche Standards Out of the box und bietet dazu Optionen für individuelle Erweiterungen und damit den idealen Kompromiss zwischen einer kommerziellen Lösung mit vielen vordefinierten Features und einem Open-Source-Framework, das sich individuell anpassen lässt.
»Ein weiterer entscheidender Vorteil ist die Lizenzierung. Mit einem Update des Tools haben wir mehr Flexibilität dazugewonnen. Jetzt können wir für jedes Projekt und jede Anlage einen eigenen Server aufsetzen und die lizenzierten Sensoren völlig frei über die einzelnen Instanzen verteilen. Für kleinere Anlagen reichen oft schon 500 Sensoren, für große können es auch schnell einmal ein paar tausend Sensoren werden. All das können wir mit einer einzigen Lizenz abdecken, die sich noch dazu einfach und passend zu unserem jeweiligen Bedarf skalieren lässt«, sagt Frank Schweisfurth.
Felix Berndt,
Business Development Manager
IIoT und Data Centers
bei der Paessler AG