
Illustration Absmeier foto freepik
Unumstößliche Tatsache in puncto Cybersicherheit: verzerrte Wahrnehmung oder maßlose Selbstüberschätzung?
Tiho Saric, Senior Sales Director bei Gigamon, verrät, wie deutsche Sicherheits- und IT-Entscheider sich selbst, ihr Team und ihre Kompetenzen einschätzen und ob das der Realität entspricht.
Bei genauerer Betrachtung der Ergebnisse einer aktuellen Gigamon-Studie offenbart sich ein seltsamer Widerspruch. So legen sie nach eigenen Aussagen großen Wert auf die Einsicht in verschlüsselten Datenverkehr. Für 84 Prozent von ihnen hat die Transparenz eine hohe Priorität; für 80 Prozent nimmt sie in ihrer Sicherheitsstrategie eine essenzielle Rolle ein.
Gleichzeitig geben 73 Prozent von ihnen an, verschlüsselten Daten bedingungslos zu vertrauen. 37 Prozent verzichten sogar auf eine Entschlüsselung dieses Traffics, weil sie diesen Prozess für zu teuer und aufwendig halten; 47 Prozent halten es sogar für wahrscheinlich, dass sie verschlüsselte Daten niemals einer genauen Prüfung unterziehen werden. 51 Prozent machen dafür das steigende Volumen verantwortlich. In ihren Augen macht das den Entschlüsselungsprozess unpraktikabel.
Doch diese Einstellung gegenüber verschlüsseltem Datenverkehr ist ein großes Problem. Denn genau hier verstecken Cyberangreifer vermehrt ihre Malware, um sie in Unternehmensnetzwerke zu schleusen. Eine aktuelle Untersuchung von WatchGuard bestätigt sogar, dass diese Methode Erfolg hat. Demnach ist sie dafür verantwortlich, dass die Menge an Netzwerk-Malware um 94 Prozent gestiegen ist.
Große Selbstüberzeugung
Das ist allerdings nicht der einzige Widerspruch in den Aussagen und Handlungen deutscher Sicherheits- und IT-Entscheidern, der so manchen bedenklich die Stirn runzeln lässt.
So sind sie sich unter anderem sicher, dass:
- sie Malware inmitten von verschlüsseltem Datenverkehr erkennen können (85 Prozent).
- sie selbst durch Verschlüsselung getarnten Datendiebstahl bemerken würden (79 Prozent).
- sie über die richtigen Tools verfügen, mit denen sie sich effektiv dem steigenden Netzwerkdatenvolumen stellen können (83 Prozent).
- sämtliche Daten, die in Sicherheitslösungen fließen, qualitativ hochwertig und akkurat sind (86 Prozent).
- sie und ihr Team über die notwendigen Kompetenzen und Tools verfügen, um Sicherheitssysteme mithilfe von KI zu unterstützen und zu stärken (85 Prozent).
Diese Aussagen zeugen von großem Selbstvertrauen, das in deutschen IT-Abteilungen vorherrscht, sowie von der Zuversicht, gegen jedes Cyberrisiko gewappnet zu sein.
Doch entspricht das auch der Realität?
Trotz dieser optimistischen Selbsteinschätzung bleiben Fragen bestehen. Wenn in den meisten Fällen die ideale Grundlage für eine robuste IT-Sicherheit gegeben ist, warum waren die meisten Unternehmen (63 Prozent) von mindestens einem erfolgreichen Angriff betroffen? Wieso konnte in einem Drittel der Vorfälle (31 Prozent) die Ursache nicht festgestellt werden? Statt einer einzigen Antwort liegt der Grund für diese Diskrepanz in mehreren verschiedenen Herausforderungen, was den Kampf gegen Cyberangreifer wesentlich erschwert.
So entwickeln sich nicht nur die Bedrohungen stetig weiter – zum Beispiel durch den verstärkten Einsatz von KI im Rahmen von Phishing-, Ransomware- oder Deepfake-Attacken. Auch IT-Umgebungen von Unternehmen machen laufend Fortschritte. Sie wachsen mit jeder neuen Technologie, mit jeder neuen Anwendung und jedem neuen Mitarbeiter, entfernen sich unter anderem aufgrund von Remote Arbeit weiter vom ursprünglichen Netzwerk und generieren immer mehr Daten. So geben 30 Prozent der deutschen Sicherheits- und IT-Entscheider an, dass sich das Netzwerkdatenvolumen nahezu mehr als verdoppelt hat. Doch all das führt zwangsläufig zu einer wesentlich höheren Komplexität und schränkt die Sicht auf die gesamte Umgebung ein, weshalb Sicherheitslösungen nur bedingt ihren Job machen können. 56 Prozent der Befragten bestätigen, dass ihre Tools eigentlich effektiver arbeiten könnten. Darüber hinaus – und dabei handelt es sich um eine sehr kritische Entwicklung – gehen sage und schreibe 95 Prozent der Sicherheits- und IT-Entscheider hierzulande die Sicherheit gefährdende Kompromisse ein, damit ihre Teams auf die vielseitigen Security-Herausforderungen reagieren können. So verzichten sie beispielsweise auf vollständige Einsicht in ihre Infrastruktur, auf integrierte Sicherheitslösungen sowie auf qualitativ hochwertige, akkurate (Echtzeit-) Daten, die unter anderem für KI-Workloads wichtig wären.
Wie könnte sich die Situation verbessern?
Es liegt nahe, dass es deutschen Sicherheits- und IT-Entscheidern nicht um eine absichtliche Verzerrung der Realität im Sinne der Selbstprofilierung geht. Vielmehr scheint ihnen bei all den Feuern, die sie zu löschen versuchen, der Überblick verloren gegangen zu sein. Offenbar gehen sie ehrlich von einem besseren Status quo aus und können die tatsächliche Situation nicht vollständig erfassen.
Die bestehenden Herausforderungen deuten darauf hin, dass sie mehr Sichtbarkeit brauchen und die Transparenz ihrer gesamten IT-Landschaft bis hinunter auf Netzwerkebene (Deep Observability) erhöhen müssen – einschließlich des lateralen sowie des verschlüsselten Datenverkehrs. Im Zuge dessen fließen sowohl MELT-Daten (Metrik, Event, Log, Trace) als auch Netzwerktelemetriedaten zentral zusammen. Nach eingehenden Analysen werden sie von dort aus an sämtliche Monitoring- und Sicherheitslösungen weitergeleitet. Dadurch erhalten IT-Teams einen vollständigen Echtzeiteinblick in sämtliche Komponenten ihres Netzwerks wie Datenströme, Identitäten, Anwendungen und Aktivitäten. Auf diese Weise lassen sich verdächtiges Verhalten und potenzielle Angriffsversuche frühzeitig erkennen, was es Teams ermöglicht, sofort zu reagieren und das Risiko zu minimieren. Und ist solch ein hohes Maß an Transparenz erst einmal gegeben, lassen sich sowohl der aktuelle Status quo als auch die eigenen Möglichkeiten und Fähigkeiten wesentlich besser einschätzen.
[1] Die diesjährige Hybrid-Cloud-Security-Studie wurde von Gigamon in Auftrag gegeben und vom 21. Februar bis 7. März 2025 durch Vitreous World durchgeführt. An der Online-Umfrage haben insgesamt 1.021 Personen aus Deutschland (150), Frankreich, Großbritannien, den Vereinigten Staaten, Singapur und Australien teilgenommen.
https://mysecuritymarketplace.com/reports/internet-security-report-q4-2024/
157 Artikel zu „Deep Observability“
News | Business | Digitalisierung | IT-Security | Strategien | Tipps
Deep Observability und fünf weitere Schritte zur NIS2-Konformität

Deep Observability ist für die Anforderungen von NIS2 ein absolutes Must-have. Die unfreiwillige Schonfrist hält weiter an; noch immer gibt es kein genaues Datum, ab dem die EU-Richtlinie NIS2 offiziell greifen soll. Trotzdem müssen sich Unternehmen – sofern noch nicht geschehen – auf diesen Tag vorbereiten, denn es steht eine Menge auf der Maßnahmenagenda.…
News | Infrastruktur | IT-Security | Rechenzentrum | Services
NDR braucht Deep Observability

Gartner geht davon aus, dass Network-Detection-and-Response-Lösungen (NDR) in maximal fünf Jahren in der IT-Abteilung zur Standardausstattung gehören werden, da sie einen essenziellen Beitrag zur Sicherheit leisten. Dieser Meinung ist auch Helmut Scheruebl, Senior Sales Engineer von Gigamon. Doch damit sie effizient arbeiten können, darf die Sichtbarkeit nicht zu kurz kommen. Nur mit ausreichend Visibility lässt…
News | Trends 2024 | Trends Security | IT-Security
Visibility, Deep Observability und Zero Trust: Das Problem der blinden Flecken

Ein Blick auf die letzten zwölf Monate zeigt: Deutsche IT- und Security-Entscheider erkennen mittlerweile, dass die Themen Deep Observability und Zero Trust wesentlich zum Erfolg der eigenen Sicherheitsstrategie beitragen. Entsprechende Investitionen haben dazu geführt, dass sie sich weniger um Sicherheitsvorfälle sorgen und in – womöglich falscher – Sicherheit wägen. So scheint der Ernst der Lage…
News | Favoriten der Redaktion | IT-Security | Strategien
Security by Design, Zero Trust und Deep Observability: Dreifaltigkeit der IT-Sicherheit

Ali Moniri, Senior Sales Engineer bei Gigamon, weiß: Security by Design und Deep Observability müssen für optimale Netzwerksicherheit Hand in Hand gehen. Wer Softwareprodukte entwickelt, hat schon einmal von Security by Design als idealen Sicherheitsansatz gehört. Dabei handelt es sich um ein Design-Konzept, bei dem das Produkt über den gesamten Entwicklungsprozess hinweg – von…
Trends 2025 | News | Trends Kommunikation | Favoriten der Redaktion | IT-Security | Tipps
Wahlbezogene Deepfakes erreichten 3,8 Milliarden Menschen – X als Hauptkanal

Die neueste Analyse von Surfshark zeigt, dass seit 2021 in 38 Ländern wahlbezogene Deepfake-Vorfälle aufgetreten sind, die die Hälfte der Weltbevölkerung — 3,8 Milliarden Menschen — betreffen [1]. Politisch motivierte Deepfakes haben Wahlen in den größten Volkswirtschaften und Demokratien der Welt infiltriert, darunter die USA, Brasilien, das Vereinigte Königreich, Deutschland und Südkorea. Unter den…
News | IT-Security | Tipps
Finanzielle Verluste durch Deepfake-Betrug

Der Bericht von Surfshark zeigt, dass es in der ersten Hälfte des Jahres 2025 fast viermal so viele Deepfake-Vorfälle gab (insgesamt 580) wie im gesamten Jahr 2024 – und dass allein in diesem Zeitraum Verluste von 410 Millionen US-Dollar durch Deepfake-Betrug entstanden sind. Insgesamt belaufen sich die Verluste durch betrügerisch eingesetzte Deepfake-Technologie seit 2019 auf…
News | Cloud Computing | Digitale Transformation | Rechenzentrum | Services
Observability als Motor für digitale Transformation und Agilität

Vor vier Jahren war der Begriff »digitale Transformation« eines der wohl weltweit beliebtesten Schlagwörter: Ein großer Teil aller Unternehmen wechselte zur Hybridarbeit. Heute ist der Begriff zwar nicht mehr so sehr in aller Munde wie in der Hauptzeit der Covid-19-Pandemie, doch mittlerweile ist mehr Unternehmen bewusst, dass die digitale Transformation niemals aufhört. In letzter Zeit…
News | Kommentar | Künstliche Intelligenz
TU Berlin: Expertinnen und Experten zum jüngsten Erfolg von »DeepSeek«

Expertinnen und Experten der TU Berlin zum jüngsten Erfolg des Large Language Models (LLM) »DeepSeek« aus China, dem Unterschied zwischen Open-Source-Anwendungen wie DeepSeek und anderen LLMs sowie der Rolle Europas bei der Entwicklung von künstlicher Intelligenz (KI). Die Expertinnen und Experten: Dr. Vera Schmitt (Forschungsgruppenleiterin) und Dr. Nils Feldhus (Postdoktorand) forschen in der XplaiNLP-Gruppe…
News | Business Process Management | Cloud Computing | Lösungen | Services
Unified Observability: Konsolidierung von Monitoring-Tools und Beseitigung von Datensilos

Heutige Unternehmen stehen einer stetig wachsenden Datenflut gegenüber. Darüber hinaus kämpfen viele mit einer großen Anzahl unterschiedlicher Monitoring-Tools, um dieser Datenmengen Herr zu werden und für fundierte Entscheidungen aufzubereiten. Die Überwachung dieser Tools und die damit einhergehenden Datensilos machen es für Unternehmen jedoch immer schwieriger, die Leistung und Verfügbarkeit ihrer Anwendungen zu optimieren. Das…
News | Effizienz | Favoriten der Redaktion | IT-Security | Services | Strategien | Whitepaper
Was ist Cybersicherheit: Zero Trust und Mikrosegmentierung

Cyberresilienz, Data Security, Data Protection … die Liste ließe sich beliebig fortsetzen. Vor allem für Entscheider, die sich nicht täglich mit der Thematik befassen, ist mittlerweile kaum verständlich, worum es im Kern geht. Zero Networks, Experte für Mikrosegmentierung und Zero Trust, erläutert daher im folgenden Beitrag die Grundlagen klassischer Cybersicherheit. Cybersicherheit Cybersicherheit ist…
News | Business Process Management | Digitalisierung | Lösungen | New Work | Services
Container und Kubernetes: Mit Platform Engineering das Versprechen von DevOps

In der Softwareentwicklung zielt der Golden Path darauf ab, mithilfe von Self-Service-Templates für gängige Aufgaben einen reibungslosen Weg nach vorne zu bieten. Ermöglicht wird dies durch Platform Engineers, die Entwicklern eine möglichst einfache interne Entwicklerplattform und die Tools zur Verfügung stellen, die sie für Innovationen benötigen. Markus Grau, Enterprise Architect bei Pure Storage, erläutert in…
News | Business | Favoriten der Redaktion | Infrastruktur | Kommentar | Services | Tipps
IT-Sicherheitsrecht: NIS2-Regierungsentwurf ist ein großer Schritt auf dem Weg zur Cybernation

Mit dem Regierungsentwurf des Gesetzes zur Umsetzung der NIS2-Richtlinie wird das deutsche IT-Sicherheitsrecht umfassend modernisiert und der angespannten Bedrohungslage im Cyberraum Rechnung getragen. Dem Bundesamt für Sicherheit in der Informationstechnik (BSI) fällt dabei eine Schlüsselrolle zu. Der Gesetzesentwurf sieht unter anderem vor, das BSI-Gesetz (BSIG) zu novellieren und den Kreis der regulierten Organisationen um…
News | Favoriten der Redaktion | Infrastruktur | IT-Security | Kommentar | Tipps
NIS2: Der Kabinettsbeschluss ist da – und lässt einige Fragen offen

Die Bundesregierung hat endlich geliefert: Der Kabinettsbeschluss zur Umsetzung der NIS2-Richtlinie ist verabschiedet worden. Ulrich Plate, Leiter der Kompetenzgruppe KRITIS bei eco – Verband der Internetwirtschaft e.V., begrüßt diesen Schritt: »Damit kehrt das Thema Cybersicherheit endlich auf die politische Bühne zurück – überfällig angesichts der sicherheitspolitischen Lage. Die EU-Richtlinie verlangt nicht weniger als eine strukturelle…
News | Business | Favoriten der Redaktion | Infrastruktur | IT-Security | Kommentar | Tipps
NIS2 führt zu höherer Cybersicherheit in der deutschen Wirtschaft

Ausnahmeregelungen sind zu schärfen oder zu streichen. Unternehmen sollten klare Vorgaben haben, wie Nachweise für die Umsetzung zu erbringen sind. Das Bundeskabinett hat das nationale Umsetzungsgesetz der europäischen NIS2-Richtlinie beschlossen. Dazu sagt Marc Fliehe, Fachbereichsleiter Digitalisierung und Bildung beim TÜV-Verband: »Deutschland ist Ziel hybrider Angriffe und Cyberattacken auf Unternehmen, kritische Infrastrukturen und politische Institutionen gehören…
Trends 2025 | News | Trends Security | IT-Security
Emerging Tech: Zwei Seiten der Cybersecurity-Medaille

Seit Kurzem steht DeepSeek in Europa auf der Abschussliste: Experten und Gesetzgeber sehen in dem chinesischen KI-Chatbot ein eindeutiges Risiko und rufen dazu auf, die Anwendung von digitalen App-Marktplätzen zu entfernen [1]. Dies unterstreicht, dass Systeme, die auf neuen Technologien aufbauen, immer mit Vorsicht zu genießen sind. Tiho Saric, Senior Sales Director von Gigamon, rät:…
News | IT-Security | Kommentar | Strategien
NIS2 braucht praxisnahe Vorgaben und eine klare Verantwortungsverteilung

Umsetzung NIS2-Richtlinie: VOICE warnt vor Bürokratielast und fordert praxisnahe Vorgaben im Referentenentwurf für mehr IT-Sicherheit. Unklare Regeln, unterschätzte Kosten und fehlende Kontrollen gefährden Umsetzbarkeit für Unternehmen. Der aktuelle Referentenentwurf des Bundesministeriums des Innern (BMI) zur Umsetzung der NIS2-Richtlinie bietet wichtige Chancen für mehr Cybersicherheit, lässt aber an entscheidenden Stellen noch Fragen offen: Kosten werden aus…
Ausgabe 5-6-2025 | News | Cloud Computing | IT-Security | Künstliche Intelligenz
KI zwingt Unternehmen, Abstriche in Sachen Hybrid-Cloud-Sicherheit zu machen – Public Cloud als größtes Risiko

KI verursacht größeres Netzwerkdatenvolumen und -komplexität und folglich auch das Risiko. Zudem gefährden Kompromisse die Sicherheit der hybriden Cloud-Infrastruktur, weshalb deutsche Sicherheits- und IT-Entscheider ihre Strategie überdenken und sich zunehmend von der Public Cloud entfernen. Gleichzeitig gewinnt die Netzwerksichtbarkeit weiter an Bedeutung.
Ausgabe 5-6-2025 | Security Spezial 5-6-2025 | News | IT-Security | Strategien
NIS2: Von der Compliance-Last zum Katalysator – Die intrinsische Motivation für Informationssicherheit
Ausgabe 5-6-2025 | News | Digitalisierung | E-Government
IT-Transparenz als Grundlage der digitalen Verwaltung – Ende des Blindflugs

Moderne Observability gehen über die herkömmliche Überwachung hinaus, indem sie eine KI-gestützte, intelligente Datenanalyse in Echtzeit hinzufügt. In der öffentlichen Verwaltung schafft das Verfahren neue Voraussetzungen für Transparenz, Fehlertoleranz und eine langfristige Weiterentwicklung der IT-Infrastrukturen.