
foto freepik ki
Der Nachrichtenzyklus 2025 war geprägt von geopolitischen Ereignissen, wirtschaftlichen Schwankungen und Fortschritten in der KI, zugleich rückten jedoch erneut weitreichende, zunehmend globale IT-Ausfälle in den Fokus. Nachdem bereits 2024 einzelne Vorfälle zu systemischen Störungen eskaliert waren und die hohe Vernetzung digitaler Infrastrukturen samt Kettenreaktionen über Branchen und Länder hinweg offenlegten, deutet die Vielzahl hochkarätiger Ausfälle im Jahr 2025 darauf hin, dass Unternehmen nur begrenzt daraus gelernt haben. Besonders globale Cloud-Dienstleister wie Google Cloud, AWS, Cloudflare und Microsoft Azure waren von erheblichen Störungen betroffen, die weltweit zentrale Websites, Geschäftsanwendungen und Online-Dienste lahmlegten.
Zum Jahresende analysiert Eileen Haggerty, Area Vice President, Product & Solutions bei Netscout, diese Ausfälle und erklärt, wie sich Unternehmen auf die zunehmende Verbreitung und die Auswirkungen von IT-Ausfällen im Jahr 2026 und darüber hinaus vorbereiten können:
»Aus Sicht der Observability war das Jahr 2025 von einer Reihe schwerwiegender IT-Ausfälle mit weitreichenden Folgen geprägt. Keine Branche blieb von den Auswirkungen unerwarteter Systemausfälle verschont, von Technologie und Transportwesen bis hin zu Fertigung und Finanzdienstleistungen. Die erheblichen Störungen und Unannehmlichkeiten schadeten dem Ruf der Unternehmen, ihren Kundenbeziehungen und ihrer Rentabilität.
Das Jahr 2025 hat auch gezeigt, dass Störungen jedes Unternehmen betreffen können, selbst die weltweit besten Anbieter mit der besten Technologie und Systemen, die nach dem neuesten Stand der Technik entwickelt und konstruiert wurden. Moderne Anwendungen und Konnektivität bieten zwar große Vorteile, aber aufgrund ihrer Vernetzung können Störungen weitreichende Auswirkungen haben. Wenn sie auftreten, besteht die eigentliche Herausforderung darin, wie schnell Unternehmen sie erkennen, verstehen und beheben können.
Die Notwendigkeit von Vorbereitungsprozessen für Zwischenfälle, die – ähnlich wie Brandschutzübungen – regelmäßiges Üben, Proben und Verfeinern erfordern, ist entscheidend für die Gewährleistung der Geschäftskontinuität und der betrieblichen Ausfallsicherheit. Echte Beobachtbarkeit – die Unternehmen hilft, nicht nur zu verstehen, was kaputt ist, sondern auch warum und wo – ist für eine größere Ausfallsicherheit unerlässlich und hilft Unternehmen, die Auswirkungen ungeplanter Ausfallzeiten zu begrenzen.
Die Vielzahl der IT-Ausfälle in diesem Jahr war eine harte Lektion für Unternehmen – aber auch eine wertvolle Lernmöglichkeit. Wirklich widerstandsfähige Organisationen wandeln Störungen in Daten um und schaffen so Datenquellen und Vorlagen für die Leistungssicherung und operative Widerstandsfähigkeit. Durch die Erfassung umsetzbarer Erkenntnisse aus früheren Vorfällen dokumentieren Unternehmen nicht nur Best Practices, sondern machen ihre Abläufe auch zukunftssicher und stellen sicher, dass sie potenzielle Herausforderungen antizipieren und bewältigen können, bevor sie sich auf Kunden und das Geschäft auswirken.«

Illustration Absmeier foto freepik
Deep Packet Inspection für mehr Resilienz
Deep Packet Inspection (DPI) wird zu einer zentralen Datenquelle für moderne Observability-Strategien und hilft Unternehmen, ihre IT-Systeme widerstandsfähiger und leistungsfähiger zu machen.
Wenn Sie das Gefühl haben, Sie erleben die Informationstechnologie-Version des Films »Und täglich grüßt das Murmeltier«, sind Sie vermutlich nicht allein. Die Störungen im IT-Betrieb in diesem Jahr waren zahlreich. Das hat große Unternehmen, die auf hybride oder Multi-Cloud-Netzwerke für ihren Geschäftserfolg angewiesen sind, auf die Probe gestellt und gleichzeitig die Geduld von Privatpersonen strapaziert, die einfach nur ihren Morgenkaffee genießen wollten.
Die Ineffizienz traditioneller Tools
Jahrelang haben Unternehmen auf verschiedene traditionelle Überwachungstools gesetzt, die zwar nützlich, aber von Natur aus reaktiv sind. Sie schlagen erst Alarm, wenn ein Problem bereits aufgetreten ist – und oft erst, nachdem Kunden und/oder Mitarbeitende betroffen sind. Da digitale Ökosysteme immer verteilter, dynamischer und geschäftskritischer werden, hat sich dieser reaktive Ansatz als »zu spät« erwiesen. Organisationen wollen dringend aus diesem Modus herauskommen, Probleme frühzeitig erkennen und antizipieren, statt nur darauf zu reagieren. Ziel ist es, Auswirkungen wie die jüngsten großflächigen Ausfälle in Unternehmen und im Internet zu vermeiden oder zumindest zu verringern.
Déjà-vu – schon wieder
Spezialisten bei Netscout haben die jüngsten großen Internetausfälle beobachtet und festgestellt, dass selbst modernste Systeme, gebaut von den besten Ingenieuren der Welt, nicht vor ungeplanten Ausfällen gefeit sind. Jedes Unternehmen mit Netzwerk, Anwendungen und Infrastruktur kann betroffen sein. Es ist nicht die Frage, ob ein Problem auftritt, sondern wann.
Für Unternehmen, die von einem der drei jüngsten Internetausfälle zwischen Mitte Oktober und dieser Woche betroffen waren, ist eine der wichtigsten Erkenntnisse, dass solche Situationen regelmäßig auftreten können. Zu den häufigsten Ursachen ungeplanter Störungen zählen Konfigurationsänderungen, Software-Updates, Hardwarefehler oder DNS-Probleme – das heißt, jedes Unternehmensnetzwerk kann jederzeit betroffen sein.
Wenn Ihr Unternehmen sich jetzt verwundbar fühlt, gibt es einige Dinge, die die IT beeinflussen kann und die wir in unseren aktuellen Blogs behandelt haben. In »Sind Sie bereit, auf eine IT-Störung zu reagieren?« haben wir einen Vier-Schritte-Prozess vorgestellt, um Organisationen auf Netzwerkausfälle vorzubereiten. Und in »Wie schnell kann Ihr Unternehmen IT-Ausfälle erkennen und beheben?« haben wir die drastische Verkürzung der mittleren Wiederherstellungszeit (MTTR) durch den Einsatz von Deep Packet Inspection (DPI) im großen Maßstab hervorgehoben [1].
In diesem Beitrag unterstreichen wir den geschäftlichen Nutzen von DPI im großen Maßstab zur Reduzierung der MTTR – ein entscheidendes und messbares Ergebnis bei IT-Störungen. Wir zeigen auch, wie DPI der IT hilft, von einem reaktiven Ansatz zu einer proaktiven und letztlich prädiktiven Haltung im Umgang mit potenziellen Störungen überzugehen.
DPI im großen Maßstab als Beschleuniger moderner Observability-Strategien
DPI im großen Maßstab hat sich als starker Beschleuniger moderner Observability-Strategien etabliert, indem es den Netzwerkverkehr in Echtzeit und in der Tiefe analysiert. Es bietet Einblicke, die andere Überwachungstools und bestehende Observability-Stacks bereichern und verstärken. Noch wichtiger ist, dass es Unternehmen hilft, vom taktischen Incident-Response zu einem strategischen Modell mit Fokus auf operative Resilienz zu wechseln.
Warum wir traditionelle Monitoring-Tools hinter uns lassen
Traditionelle Monitoring-Tools haben zwar geholfen, die MTTR zu verkürzen, sind aber meist auf bestimmte Anwendungen oder Infrastrukturen beschränkt, die sie überwachen und analysieren können. Gerätebasierte Metriken und herstellerspezifische Einzellösungen sind begrenzt, und in heutigen komplexen hybriden Umgebungen sind blinde Flecken unvermeidlich.
Treten Probleme auf – etwa Latenzspitzen, Ausfälle von Microservices oder API-Verschlechterungen –, finden sich Teams oft in einem Wust von Warnmeldungen wieder, springen zwischen Tools hin und her und analysieren Symptome, statt die eigentlichen Ursachen zu finden. Das Ergebnis ist eine reaktive Schleife: erkennen, bewerten, beheben, wiederholen.
DPI im großen Maßstab: Eine neue Quelle für echte Transparenz
DPI bietet eine grundsätzlich andere Perspektive, indem das Netzwerk als zentraler Beobachtungspunkt genutzt wird. Statt sich auf herkömmliche Technologien zu verlassen, untersucht DPI die tatsächlichen Datenpakete und Gespräche im Netzwerk. Im großen Maßstab ermöglicht das:
- Echtzeit-Transparenz für jede Transaktion
- Protokollintelligenz zum Verständnis des Serviceverhaltens
- Kontextreiche Einblicke, die nicht nur zeigen, was passiert ist, sondern auch warum und wo
- Umfassende Abdeckung für »Visibility Without Borders« – für jede Infrastruktur, jede Anwendung, jeden Nutzer, überall
DPI wird zur »Quelle der Wahrheit«, die das Rauschen traditioneller Tools durchdringt. Es erfasst, was jeder Dienst tut, wie er funktioniert und wie Serviceabhängigkeiten andere Anwendungen und die Nutzererfahrung beeinflussen.
Von MTTR-Reduktion zu prädiktiven Operationen
Durch die Nutzung von DPI als essenzielle Datenquelle in einer modernen Observability-Strategie können Organisationen drei Reifegrade durchlaufen:
- Reaktiv → Proaktiv
DPI-Analysen können mit weiteren Datenquellen wie xFlow-Metriken, synthetischen Tests und anderen Metriken, Traces und Logs kombiniert werden, um Anomalien früher und präziser zu erkennen. Statt Vorfälle erst durch Kundenbeschwerden oder sekundäre Symptome zu entdecken, hebt DPI Ursachen wie Protokollanomalien, übermäßige Neuübertragungen, fehlerhafte Dienste oder überlastete Leitungen hervor, bevor sie sich ausweiten. - Proaktiv → Präventiv
Muster im Netzwerkverkehr helfen Teams, aufkommende Fehlerbilder zu erkennen. Maschinelles Lernen auf Basis von DPI-Daten kann wiederkehrende Verhaltensweisen identifizieren, frühe Anzeichen von Verschlechterungen aufdecken und präventive Maßnahmen empfehlen. Betriebsteams beginnen, Vorfälle zu eliminieren, bevor sie auftreten – etwa durch Planung saisonaler Verkehrsspitzen auf Basis von Trenddaten aus früheren Hochphasen. - Präventiv → Prädiktiv
Im großen Maßstab ermöglicht DPI prädiktive Observability. Verkehrsflüsse zeigen Nutzungstrends, Systembelastungen und potenzielle Engpässe lange bevor sie das Serviceerlebnis beeinträchtigen. Statt auf Ausfälle zu reagieren, modellieren Unternehmen Risiken, antizipieren Störungen und entwickeln resiliente Systeme.
Operative Resilienz: Das strategische Ziel
Die Reduzierung der MTTR ist wertvoll, bleibt aber taktisch. Der eigentliche strategische Wandel erfolgt, wenn DPI-basierte Observability zur Grundlage operativer Resilienz wird – also der Fähigkeit von Diensten, Schocks zu absorbieren, sich anzupassen und weiterhin erwartete Leistungen zu erbringen.
DPI trägt zu dieser Resilienz bei, indem es:
- die kontinuierliche Servicegesundheit bewertet und sicherstellt,
- die Kommunikation im gesamten Ökosystem analysiert – unabhängig von Geräteherstellern oder Drittpartnern –, um Latenz und Verzögerungen zu vermeiden,
- die Identifikation und Isolierung systemischer Risiken beschleunigt,
- Compliance, forensische Analysen und Nachvollziehbarkeit unterstützt,
- prädiktive Modelle ermöglicht, die Unternehmen helfen, Störungen zuvorzukommen.
In einer Welt, in der digitale Performance gleichbedeutend mit Geschäftserfolg ist, wird Resilienz zum Wettbewerbsvorteil.
Nächste Schritte
Während die jüngsten Internetausfälle in IT-Organisationen für Besorgnis gesorgt haben, bietet ein Observability-Ansatz, der auf DPI im großen Maßstab basiert und den Anforderungen moderner Umgebungen gerecht wird, eine Lösung. Die Observability-Strategie geht weit über reaktives Monitoring hinaus – mit Lösungen, die Probleme früher erkennen, das Serviceverhalten besser verstehen und Störungen verhindern, bevor sie das Geschäft beeinträchtigen. DPI im großen Maßstab beschleunigt nicht nur die MTTR, um Geschäftsrisiken und Kundenzufriedenheit zu verbessern, sondern liefert auch die Tiefe und den Kontext, um Observability zu einer prädiktiven, resilienzgetriebenen Disziplin weiterzuentwickeln.
https://www.netscout.com/blog/are-you-ready-respond-it-disruption
https://www.netscout.com/blog/how-fast-can-your-organization-identify-and-resolve-it-outages
https://www.netscout.com/deep-packet-inspection
https://www.netscout.com/enterprise
Deep Packet Inspection (DPI) ist eine Technologie, mit der der Datenverkehr in Netzwerken sehr detailliert analysiert wird. Anders als herkömmliche Monitoring-Tools, die meist nur grundlegende Informationen über Datenpakete erfassen (wie Absender, Empfänger oder Protokolltyp), untersucht DPI den gesamten Inhalt der Datenpakete. Dadurch können Unternehmen:
- Netzwerkverkehr in Echtzeit und in der Tiefe analysieren,
- Anomalien und Fehlerquellen schneller erkennen,
- Ursachen für Störungen gezielt identifizieren,
- Sicherheitsrisiken und Compliance-Verstöße aufdecken,
- und Trends sowie Muster im Datenverkehr erkennen, um proaktiv oder sogar prädiktiv auf potenzielle Probleme zu reagieren.
DPI wird somit zu einer zentralen Datenquelle für moderne Observability-Strategien und hilft Unternehmen, ihre IT-Systeme widerstandsfähiger und leistungsfähiger zu machen.
447 Artikel zu „Observability“
News | Cloud Computing | Effizienz | Infrastruktur | IT-Security
Mit KI-Observability gegen Alert Fatigue und Blind Spots in hybriden Multi-Cloud-Infrastrukturen
Security Operations Center (SOC) stehen aus mehreren Gründen unter Dauerstress. Die Komplexität heutiger IT-Landschaften – hybride Multi-Cloud-Infrastrukturen – führt zu einem Mangel an konsistenter und vollständiger Visibilität. Herkömmliche Tools wie Network Detection and Response (NDR) oder Cloud Native Application Protection Platforms (CNAPP) lösen dieses Problem jeweils nur teilweise. NDR lassen sich nicht über Cloud-Anbieter hinweg…
News | Cloud Computing | Digitale Transformation | Rechenzentrum | Services
Observability als Motor für digitale Transformation und Agilität
Vor vier Jahren war der Begriff »digitale Transformation« eines der wohl weltweit beliebtesten Schlagwörter: Ein großer Teil aller Unternehmen wechselte zur Hybridarbeit. Heute ist der Begriff zwar nicht mehr so sehr in aller Munde wie in der Hauptzeit der Covid-19-Pandemie, doch mittlerweile ist mehr Unternehmen bewusst, dass die digitale Transformation niemals aufhört. In letzter Zeit…
News | Business | Digitalisierung | IT-Security | Strategien | Tipps
Deep Observability und fünf weitere Schritte zur NIS2-Konformität
Deep Observability ist für die Anforderungen von NIS2 ein absolutes Must-have. Die unfreiwillige Schonfrist hält weiter an; noch immer gibt es kein genaues Datum, ab dem die EU-Richtlinie NIS2 offiziell greifen soll. Trotzdem müssen sich Unternehmen – sofern noch nicht geschehen – auf diesen Tag vorbereiten, denn es steht eine Menge auf der Maßnahmenagenda.…
News | Infrastruktur | IT-Security | Rechenzentrum | Services
NDR braucht Deep Observability
Gartner geht davon aus, dass Network-Detection-and-Response-Lösungen (NDR) in maximal fünf Jahren in der IT-Abteilung zur Standardausstattung gehören werden, da sie einen essenziellen Beitrag zur Sicherheit leisten. Dieser Meinung ist auch Helmut Scheruebl, Senior Sales Engineer von Gigamon. Doch damit sie effizient arbeiten können, darf die Sichtbarkeit nicht zu kurz kommen. Nur mit ausreichend Visibility lässt…
News | Favoriten der Redaktion | IT-Security | Ausgabe 9-10-2024 | Security Spezial 9-10-2024
Unified Observability konsolidiert Monitoring-Tools und beseitigt Datensilos – Moderne Observability
News | Digitalisierung | Effizienz | Services | Tipps
Tool-Wildwuchs mit Unified Observability bekämpfen
Unified Observability ist der Schlüssel zur Konsolidierung von Monitoring-Tools und Beseitigung von Datensilos. Heutige Unternehmen stehen einer stetig wachsenden Datenflut gegenüber. Darüber hinaus kämpfen viele mit einer großen Anzahl unterschiedlicher Monitoring-Tools, um dieser Datenmengen Herr zu werden und für fundierte Entscheidungen aufzubereiten. Die Überwachung dieser Tools und die damit einhergehenden Datensilos machen es für Unternehmen…
News | Trends 2024 | Trends Security | IT-Security
Visibility, Deep Observability und Zero Trust: Das Problem der blinden Flecken
Ein Blick auf die letzten zwölf Monate zeigt: Deutsche IT- und Security-Entscheider erkennen mittlerweile, dass die Themen Deep Observability und Zero Trust wesentlich zum Erfolg der eigenen Sicherheitsstrategie beitragen. Entsprechende Investitionen haben dazu geführt, dass sie sich weniger um Sicherheitsvorfälle sorgen und in – womöglich falscher – Sicherheit wägen. So scheint der Ernst der Lage…
News | Business Process Management | Cloud Computing | Lösungen | Services
Unified Observability: Konsolidierung von Monitoring-Tools und Beseitigung von Datensilos
Heutige Unternehmen stehen einer stetig wachsenden Datenflut gegenüber. Darüber hinaus kämpfen viele mit einer großen Anzahl unterschiedlicher Monitoring-Tools, um dieser Datenmengen Herr zu werden und für fundierte Entscheidungen aufzubereiten. Die Überwachung dieser Tools und die damit einhergehenden Datensilos machen es für Unternehmen jedoch immer schwieriger, die Leistung und Verfügbarkeit ihrer Anwendungen zu optimieren. Das…
News | Favoriten der Redaktion | IT-Security | Strategien
Security by Design, Zero Trust und Deep Observability: Dreifaltigkeit der IT-Sicherheit
Ali Moniri, Senior Sales Engineer bei Gigamon, weiß: Security by Design und Deep Observability müssen für optimale Netzwerksicherheit Hand in Hand gehen. Wer Softwareprodukte entwickelt, hat schon einmal von Security by Design als idealen Sicherheitsansatz gehört. Dabei handelt es sich um ein Design-Konzept, bei dem das Produkt über den gesamten Entwicklungsprozess hinweg – von…
News | Digitalisierung | Effizienz | Favoriten der Redaktion | IT-Security | Künstliche Intelligenz | Services | Strategien
Observability, Application Security und KI: Tiefe KI-gestützte Echtzeit-Einblicke für Entwicklungsprozesse
Optimierung von DevOps und Platform Engineering durch Observability, Application Security und KI. Bei der Bereitstellung von Cloud-nativen Technologien und Software spielen die Disziplinen DevOps und Platform Engineering eine entscheidende Rolle. Um Zuverlässigkeit, Sicherheit und Effizienz in den Prozessen zu gewährleisten, ist es wichtig, weitere technologische Investitionen zu tätigen. Eine dieser Schlüsseltechnologien ist Observability. …
News | Business Process Management | Infrastruktur | Services | Strategien
Auf dem Weg zu Full-Stack Observability: Drei wichtigste Meilensteine
Die Überwachung der gesamten Anwendungsperformance ist mittlerweile zu einem wesentlichen Bestandteil vieler Unternehmensstrategien geworden. Das gaben 85 Prozent der IT-Experten in einer kürzlich von Cisco durchgeführten globalen Studie an [1]. Tommy Ziegler, FSO Leader Sales Engineering von Cisco AppDynamics, verrät, wie wichtig es für IT-Experten und Entwickler ist, ihren gesamten IT-Stack im Blick zu haben,…
News | Trends 2024 | Künstliche Intelligenz
Enterprise-IT-Trends 2024: Observability, Datenbankprobleme, AIOps
Unternehmen werden erweiterte künstliche Intelligenz und Automatisierungsfunktionen nutzen, um Transparenz, Wachstum und Produktivität zu steigern. SolarWinds veröffentlicht seine Prognosen für die IT-Trends und ‑Themen, die das kommende Jahr prägen werden. 2024 werden Unternehmen mit großer Wahrscheinlichkeit noch stärker auf künstliche Intelligenz (KI), maschinelles Lernen (ML) und Automatisierung setzen, um ihre Ziele für Effizienz, Servicebereitstellung…
News | Cloud Computing | Infrastruktur | Lösungen | Ausgabe 11-12-2023
Vereinfachung komplexer IT-Umgebungen durch Full-Stack Observability – Voller Durchblick in den Wolken
Observability reduziert die Komplexität der Cloud, beschleunigt die Ursachenermittlung und Priorisierung von Problemen, ermöglicht eine schnellere Softwareentwicklung, integriert die Runtime-Application-Security in DevSecOps, unterstützt bessere Geschäftsentscheidungen und optimiert die Zusammenarbeit.
News | Cloud Computing | Effizienz | Favoriten der Redaktion | Infrastruktur | IT-Security
Full-Stack Observability: Voller Durchblick in den Wolken
Vereinfachung komplexer IT-Umgebungen durch Full-Stack Observability. Unternehmen kämpfen mit der zunehmenden Komplexität der Cloud. IT-Teams brauchen daher neue Möglichkeiten, um Probleme über den gesamten Technologie-Stack hinweg – von Mainframes bis hin zu Multi-Cloud-Umgebungen – zu erkennen und auf sie reagieren zu können: »Full-Stack Observability«. Diesen umfassenden Überblick zu erhalten, ist auch deshalb unverzichtbar,…
News | Business Process Management | Cloud Computing
Application Observability: 5 Kriterien, die eine Lösung erfüllen muss
Unternehmen führen zunehmend Cloud-native Technologien ein, um Innovationen voranzutreiben. Doch dies führt auch zu einer immer stärker fragmentierten, dynamischen IT-Umgebung mit Anwendungen, deren Komponenten sowohl in der Cloud als auch On-Premises laufen. Traditionelle Monitoring-Tools reichen nicht mehr aus, um diese Komplexität zu beherrschen. Stattdessen gewinnt Application Observability an Bedeutung, aber welche Voraussetzungen muss eine solche…
News | Infrastruktur | IT-Security | Produktmeldung
Cisco Secure Applications ermöglicht Business Risk Observability für native Cloud-Anwendungen
Cisco Secure Applications basiert auf der Full-Stack-Observability-Plattform von Cisco und bietet Unternehmen intelligente Business Risk Einblicke. Dadurch können sie Probleme besser priorisieren, in Echtzeit auf umsatzrelevante Sicherheitsrisiken reagieren und das allgemeine Risikoprofil des Unternehmens zu reduzieren. Cisco hat die Verfügbarkeit von Cisco Secure Application auf der Cisco Full-Stack-Observability-Plattform bekanntgegeben. Anwendungs- und Sicherheitsteams können damit…
News | Trends Security | IT-Security | Trends 2023
Konvergenz von Observability, DevSecOps und Sicherheit wird immer wichtiger
80 Prozent der CIOs in Deutschland beabsichtigen DevSecOps-Kultur auf mehr Teams auszuweiten: Schlüssel zur schnelleren und sichereren Softwareentwicklung sowie digitaler Transformation. Es wird immer schwieriger, die Zuverlässigkeit und Sicherheit von Software aufrechtzuerhalten. Das ergab eine weltweite Umfrage von Dynatrace unter 1.300 CIOs und leitenden DevOps-Managern [1]. Demnach erhöht die Forderung nach kontinuierlichen Release-Zyklen und…
News | IT-Security | Services
Die Frage nach dem Warum: Observability ist mehr als reines Monitoring
Die Nutzung von Cloud, Containern und Microservices hat die Anwendungslandschaft deutlich komplexer gemacht. Klassisches Monitoring zur Überwachung von einzelnen Systemen genügt daher nicht mehr. Besser eignet sich Observability, die Logging, Tracing und Monitoring zentral in sich vereint. Für eine erfolgreiche kontextbasierte Fehlerquellenanalyse sollten Unternehmen die fünf Best Practices von IT-Dienstleister Consol berücksichtigen. Tritt in einem…
News | Cloud Computing | Digitale Transformation | Trends Services | Trends 2022 | Whitepaper
Ein hoher Observability-Reifegrad senkt die Kosten und steigert die Innovationskraft
Observability-Leader sparen allein bei den Kosten von Ausfallzeiten über 20 Millionen Dollar. Splunk hat in Zusammenarbeit mit der Enterprise Strategy Group weltweit 1.250 Praktiker, Fachleute und Führungskräfte befragt, die hauptsächlich mit Observability befasst sind. Die Ergebnisse wurden als Lagebericht Observability 2022 veröffentlicht [1]. Die Studie zeigt deutlich, dass Observability im digitalen Wandel bereits unverzichtbar…


