Deep Observability: Transparenz schaffen und gestresste Sicherheitsteams entlasten

Illustration Absmeier foto freepik

IT-Sicherheit hat immer auch eine menschliche Dimension: Überlastete Teams und gestresste Mitarbeiter können dazu führen, dass Unternehmen nicht rechtzeitig auf Bedrohungen reagieren. Ein besonders kritischer Stressfaktor ist dabei die in letzter Zeit wachsende Komplexität durch revolutionäre Technologien wie KI, neue Infrastrukturen etwa Hybrid Cloud und immer mehr Tools. Unternehmen müssen jetzt dafür sorgen, dass ihre Sicherheitsteams einen tieferen Einblick in die Strukturen, die sie schützen sollen, bekommen, fordert Tiho Saric, Senior Sales Director von Gigamon.

 

Zeitdruck ist für Beschäftigte in vielen Branchen ein Problem; in der IT-Sicherheit kann er allerdings über die persönliche Ebene hinaus schnell geschäftskritisch werden. Wenn Sicherheits- und IT-Teams immer nur dem dringendsten Problem hinterherlaufen, bleiben wichtige Präventionsmaßnahmen und strategische Neuausrichtungen auf der Strecke. Könnte man hier nicht schnell durch mehr Tools Abhilfe schaffen? Das denken immer noch viele Unternehmen, doch dahinter steckt oft ein Paradoxon.

Stetig neue Tools, in die sich Mitarbeitende erst einarbeiten müssen und die immer mehr Alerts produzieren, können ihrerseits selbst zu Stress und Hintergrundrauschen führen. Das schadet echter Transparenz mehr, als dass es ihr nutzt. Gleichzeitig sind die Budgets für Neueinstellungen und Weiterbildungen oft knapp. Zusammen führen diese Faktoren häufig dazu, dass Security-Experten nicht so effektiv arbeiten können, wie sie sollten.

 

Sicherheitsteams sind gezwungen, Kompromisse einzugehen

Angesichts einer immer komplexeren Bedrohungslage ist der Einsatz moderner Technologien wie Künstlicher Intelligenz längst unverzichtbar. Doch jedes zusätzliche Tool erzeugt neue Daten und erhöht damit die Komplexität der IT-Landschaft. Häufig entstehen so fragmentierte Umgebungen, isolierte Datensilos und letztendlich gefährliche Blind Spots. Für Angreifer sind solche Lücken ein ideales Einfallstor, um sensible Informationen abzugreifen oder den Geschäftsbetrieb massiv zu beeinträchtigen.

Dass diese Gefahr real ist, belegt eine aktuelle Erhebung im Auftrag von Gigamon: 63 Prozent der im Jahr 2025 befragten Sicherheits- und IT-Experten berichten von mindestens einem erfolgreichen Cyberangriff – vier Prozentpunkte mehr als im Vorjahr [1]. Sicherheits- und IT-Teams scheinen zunehmend die Kontrolle über ihre IT-Umgebungen zu verlieren.

Ein wesentlicher Treiber dieser Entwicklung ist fehlende Transparenz der eigenen, gewachsenen Infrastrukturen. Neben der stetig steigenden technischen Komplexität spielen auch strategische Entscheidungen auf Managementebene eine zentrale Rolle. So geben 43 Prozent der deutschen Sicherheits- und IT-Experten an, keinen vollständigen Einblick in sämtliche Datenströme zu haben – trotz wachsender Datenvolumina und zunehmender Risiken durch verschlüsselten sowie lateralen East-West-Traffic. Gleichzeitig sind sich 56 Prozent bewusst, dass ihre vorhandenen Sicherheitslösungen bei besserer Sichtbarkeit deutlich wirkungsvoller wären. Doch hier sollten Sicherheitsverantwortliche keine Kompromisse eingehen.

 

Echter Durchblick statt immer mehr Tools

Entscheidend ist dabei nicht die Menge der eingesetzten Tools, sondern die Qualität, Konsistenz und intelligente Verknüpfung der gewonnenen Informationen. Genau hier setzt Deep Observability an. Entsprechende Plattformen bilden eine vermittelnde Ebene zwischen Infrastruktur sowie Monitoring- und Security-Lösungen und sammeln automatisiert Netzwerk-Telemetrie- und MELT-Daten (Metrics, Events, Logs, Traces). Diese Informationen werden korreliert, analysiert und in aufbereiteter Form an die angebundenen Analyse- und Sicherheitssysteme weitergeleitet.

Das Ergebnis ist durchgängige und vollständige Transparenz über den gesamten Technologie-Stack bis auf Netzwerkebene. Sicherheits- und IT-Teams können zentrale Fragen eindeutig beantworten: Welche Nutzer und Systeme sind aktuell aktiv? Welche Identitäten und Anwendungen greifen auf welche Daten zu? Wie bewegen sich die Daten durch das Netzwerk? Sichtbarkeitslücken werden geschlossen, verschlüsselter und lateraler East-West-Traffic wird nachvollziehbar und Bedrohungen lassen sich frühzeitig identifizieren.

Deep Observability wirkt damit nicht nur als effektiver Schutzschild gegen steigende Cyberrisiken, sondern adressiert zugleich das Problem Overtooling. Unternehmen, die auf ganzheitliche Transparenz statt auf immer neue Insellösungen setzen, machen ihre Teams effizienter, senken die operative Komplexität und schaffen eine Basis für eine vorausschauende, proaktive Sicherheitsstrategie.

 

[1] https://www.gigamon.com/de/resources/resource-library/white-paper/wp-gigamon-survey-hybrid-cloud-security-2025.html

 

200 Artikel zu „Deep Observability „

Deep Observability und fünf weitere Schritte zur NIS2-Konformität

Deep Observability ist für die Anforderungen von NIS2 ein absolutes Must-have.   Die unfreiwillige Schonfrist hält weiter an; noch immer gibt es kein genaues Datum, ab dem die EU-Richtlinie NIS2 offiziell greifen soll. Trotzdem müssen sich Unternehmen – sofern noch nicht geschehen – auf diesen Tag vorbereiten, denn es steht eine Menge auf der Maßnahmenagenda.…

Visibility, Deep Observability und Zero Trust: Das Problem der blinden Flecken

Ein Blick auf die letzten zwölf Monate zeigt: Deutsche IT- und Security-Entscheider erkennen mittlerweile, dass die Themen Deep Observability und Zero Trust wesentlich zum Erfolg der eigenen Sicherheitsstrategie beitragen. Entsprechende Investitionen haben dazu geführt, dass sie sich weniger um Sicherheitsvorfälle sorgen und in – womöglich falscher – Sicherheit wägen. So scheint der Ernst der Lage…

NDR braucht Deep Observability

Gartner geht davon aus, dass Network-Detection-and-Response-Lösungen (NDR) in maximal fünf Jahren in der IT-Abteilung zur Standardausstattung gehören werden, da sie einen essenziellen Beitrag zur Sicherheit leisten. Dieser Meinung ist auch Helmut Scheruebl, Senior Sales Engineer von Gigamon. Doch damit sie effizient arbeiten können, darf die Sichtbarkeit nicht zu kurz kommen. Nur mit ausreichend Visibility lässt…

Security by Design, Zero Trust und Deep Observability: Dreifaltigkeit der IT-Sicherheit

Ali Moniri, Senior Sales Engineer bei Gigamon, weiß: Security by Design und Deep Observability müssen für optimale Netzwerksicherheit Hand in Hand gehen.   Wer Softwareprodukte entwickelt, hat schon einmal von Security by Design als idealen Sicherheitsansatz gehört. Dabei handelt es sich um ein Design-Konzept, bei dem das Produkt über den gesamten Entwicklungsprozess hinweg – von…

Deep Packet Inspection für mehr Resilienz

Deep Packet Inspection (DPI) wird zu einer zentralen Datenquelle für moderne Observability-Strategien und hilft Unternehmen, ihre IT-Systeme widerstandsfähiger und leistungsfähiger zu machen.   Wenn Sie das Gefühl haben, Sie erleben die Informationstechnologie-Version des Films »Und täglich grüßt das Murmeltier«, sind Sie vermutlich nicht allein. Die Störungen im IT-Betrieb in diesem Jahr waren zahlreich. Das hat…

Mit KI-Observability gegen Alert Fatigue und Blind Spots in hybriden Multi-Cloud-Infrastrukturen

Security Operations Center (SOC) stehen aus mehreren Gründen unter Dauerstress. Die Komplexität heutiger IT-Landschaften – hybride Multi-Cloud-Infrastrukturen – führt zu einem Mangel an konsistenter und vollständiger Visibilität. Herkömmliche Tools wie Network Detection and Response (NDR) oder Cloud Native Application Protection Platforms (CNAPP) lösen dieses Problem jeweils nur teilweise. NDR lassen sich nicht über Cloud-Anbieter hinweg…

Wahlbezogene Deepfakes erreichten 3,8 Milliarden Menschen – X als Hauptkanal

Die neueste Analyse von Surfshark zeigt, dass seit 2021 in 38 Ländern wahlbezogene Deepfake-Vorfälle aufgetreten sind, die die Hälfte der Weltbevölkerung — 3,8 Milliarden Menschen — betreffen [1]. Politisch motivierte Deepfakes haben Wahlen in den größten Volkswirtschaften und Demokratien der Welt infiltriert, darunter die USA, Brasilien, das Vereinigte Königreich, Deutschland und Südkorea.   Unter den…

Finanzielle Verluste durch Deepfake-Betrug

Der Bericht von Surfshark zeigt, dass es in der ersten Hälfte des Jahres 2025 fast viermal so viele Deepfake-Vorfälle gab (insgesamt 580) wie im gesamten Jahr 2024 – und dass allein in diesem Zeitraum Verluste von 410 Millionen US-Dollar durch Deepfake-Betrug entstanden sind. Insgesamt belaufen sich die Verluste durch betrügerisch eingesetzte Deepfake-Technologie seit 2019 auf…

Observability als Motor für digitale Transformation und Agilität

Vor vier Jahren war der Begriff »digitale Transformation« eines der wohl weltweit beliebtesten Schlagwörter: Ein großer Teil aller Unternehmen wechselte zur Hybridarbeit. Heute ist der Begriff zwar nicht mehr so sehr in aller Munde wie in der Hauptzeit der Covid-19-Pandemie, doch mittlerweile ist mehr Unternehmen bewusst, dass die digitale Transformation niemals aufhört. In letzter Zeit…

TU Berlin: Expertinnen und Experten zum jüngsten Erfolg von »DeepSeek«

Expertinnen und Experten der TU Berlin zum jüngsten Erfolg des Large Language Models (LLM) »DeepSeek« aus China, dem Unterschied zwischen Open-Source-Anwendungen wie DeepSeek und anderen LLMs sowie der Rolle Europas bei der Entwicklung von künstlicher Intelligenz (KI).   Die Expertinnen und Experten: Dr. Vera Schmitt (Forschungsgruppenleiterin) und Dr. Nils Feldhus (Postdoktorand) forschen in der XplaiNLP-Gruppe…

Unified Observability: Konsolidierung von Monitoring-Tools und Beseitigung von Datensilos

Heutige Unternehmen stehen einer stetig wachsenden Datenflut gegenüber. Darüber hinaus kämpfen viele mit einer großen Anzahl unterschiedlicher Monitoring-Tools, um dieser Datenmengen Herr zu werden und für fundierte Entscheidungen aufzubereiten. Die Überwachung dieser Tools und die damit einhergehenden Datensilos machen es für Unternehmen jedoch immer schwieriger, die Leistung und Verfügbarkeit ihrer Anwendungen zu optimieren.   Das…

Over and Out: Was haben Unternehmen aus den globalen IT-Ausfällen im Jahr 2025 gelernt?

Der Nachrichtenzyklus 2025 war geprägt von geopolitischen Ereignissen, wirtschaftlichen Schwankungen und Fortschritten in der KI, zugleich rückten jedoch erneut weitreichende, zunehmend globale IT-Ausfälle in den Fokus. Nachdem bereits 2024 einzelne Vorfälle zu systemischen Störungen eskaliert waren und die hohe Vernetzung digitaler Infrastrukturen samt Kettenreaktionen über Branchen und Länder hinweg offenlegten, deutet die Vielzahl hochkarätiger Ausfälle…

Haftungsfalle Cybersecurity: NIS2-Schulungspflicht setzt Geschäftsleiter unter Zugzwang

Cyberangriffe treffen Unternehmen immer häufiger und entwickeln sich zum zentralen Geschäftsrisiko. Aktuell schärfen die NIS2-Richtlinie und der Entwurf eines neuen BSI-Gesetzes die Verantwortung der Chefetagen und verpflichten Geschäftsleiter zu regelmäßigen Schulungen im Cyberrisikomanagement.   »Die neue Schulungspflicht macht Cybersecurity zur Kernaufgabe der Geschäftsleitung und rückt die persönliche Verantwortung in den Mittelpunkt«, weiß Rechtsanwalt André Schenk,…

NIS2 kommt – Wie ist die Sicherheitslage im Mittelstand?

Eine neue Studie offenbart eine deutliche Diskrepanz in der Informationssicherheit des deutschen Mittelstands. Die Erhebung wurde kurze Zeit vor der Verabschiedung von NIS2 im Bundestag durchgeführt. Während die Unternehmen ihren eigenen Reifegrad als hoch einschätzen, stand dies im Kontrast zu einer hohen Zahl schwerwiegender Sicherheitsvorfälle und erheblicher Unsicherheit bezüglich der EU-Regulierung NIS2. Die Studie »Lage…

Schutz auf Kernel-Ebene zur Verteidigung vor Infostealern, die auf sensible Daten abzielen

Keeper Security Forcefield ist branchenweit erster Schutz vor speicherbasierten Angriffen auf Windows-Endpunkten.   Keeper Security, ein Cybersecurity-Anbieter für Zero-Trust- und Zero-Knowledge- Privileged-Access-Management-Software (PAM) zum Schutz von Passwörtern, Passkeys, privilegierten Konten, Geheimnissen und Remote-Verbindungen, kündigt Keeper Forcefield an – den ersten Schutz seiner Art gegen speicherbasierte Angriffe auf Windows-Geräten. Forcefield ist ein Endpoint-Sicherheitsprodukt auf Kernel-Ebene, das…

Der Dominoeffekt: Warum der Jaguar-Land-Rover-Angriff das Versagen isolierter Cybersicherheit offenbart

Ein Kommentar von Gerald Eid, Regional Managing Director EMEA bei Getronics Der Cyberangriff auf Jaguar Land Rover ist mehr als nur eine weitere Schlagzeile. Der geschätzte Schaden liegt bei fast zwei Milliarden Pfund, über 5.000 Organisationen sind betroffen. Dem Cyber Monitoring Centre zufolge handelt es sich um den wirtschaftlich schädlichsten Cyberangriff, den die britische Volkswirtschaft…

IT-Teams müssen Ordnung ins Chaos bringen – Zu viele Tools, zu wenig Sicherheit

Overtooling ist in IT-Abteilungen zu einem ernsthaften Problem geworden. Es gilt, Herr über das Tool-Chaos zu werden und sich gleichzeitig durch den Datendschungel zu kämpfen und sich gegen KI-Angriffe zu wehren. In all diesem Wirrwarr bildet Sichtbarkeit die Grundlage für Ordnung und dringend benötigte Strukturen.

Wie Systemdaten den Planeten retten können – und Unternehmen gleich mit: Auf die Sprache der Maschinen hören

Systemdaten bieten eine transformative Ressource, um die Beziehung zwischen Unternehmens-Technologie und Umwelt zu verbessern. Durch die Nutzung von Observability-Lösungen können Unternehmen nicht nur ihre Betriebskosten und den Energieverbrauch senken, sondern auch ihre Nachhaltigkeitsziele erreichen.  Diese Technologien ermöglichen es, Daten in verantwortungsbewusste Geschäftspraktiken umzuwandeln und so langfristige Vorteile für Unternehmen und Umwelt zu schaffen.

NIS2-Umsetzung: Mehr digitale Resilienz für Europa

Experten begrüßen Kabinettsbeschluss – Dänemark als mögliches Vorbild für nächste Schritte?   Ende Juli hat die Bundesregierung den Kabinettsbeschluss zur Umsetzung der EU-NIS2-Richtlinie gefasst und damit den Weg für strengere IT-Sicherheitsanforderungen in Deutschland geebnet. Doch während Deutschland hierbei noch ganz am Anfang steht, hat unser Nachbarland Dänemark die Richtlinie bereits vollständig in nationales Recht umgesetzt…