Tool-Wildwuchs mit Unified Observability bekämpfen

foto freepik ki

Unified Observability ist der Schlüssel zur Konsolidierung von Monitoring-Tools und Beseitigung von Datensilos.

Heutige Unternehmen stehen einer stetig wachsenden Datenflut gegenüber. Darüber hinaus kämpfen viele mit einer großen Anzahl unterschiedlicher Monitoring-Tools, um dieser Datenmengen Herr zu werden und für fundierte Entscheidungen aufzubereiten. Die Überwachung dieser Tools und die damit einhergehenden Datensilos machen es für Unternehmen jedoch immer schwieriger, die Leistung und Verfügbarkeit ihrer Anwendungen zu optimieren.

 

Das Problem des Tool-Wildwuchses bekämpfen

Beim sogenannten Tool-Wildwuchs (Tool Sprawl) setzen Unternehmen häufig eine Vielzahl unterschiedlicher IT-Tools ein, von denen jedes für spezifische Anwendungsfälle gedacht ist. Diese Situation entsteht häufig, wenn Unternehmen Multi-Cloud-Umgebungen für verschiedene Business Services einführen. Die Überflutung mit Daten in diesen Umgebungen erfordert von Fachkräften die Suche nach effektiven Methoden zur Verwaltung dieser Daten. Infolgedessen greifen sie für jeden Anwendungsfall auf ein anderes Tool zu.

Diese Tools und Services sind oft isoliert und sowohl aus finanzieller als auch aus Produktivitätssicht teuer. Denn sind beispielsweise zehn verschiedene Tools im Einsatz, müssen Fachkräfte sich in die Funktionsweise jedes dieser Applikationen einarbeiten, sich hierzu kontinuierlich weiterbilden, sicherstellen, dass jede Software auf dem neuesten Stand ist, Schwachstellen beheben und mehr.

Dieser Aufwand für Verwaltung und Wartung beansprucht Zeit und Ressourcen, die eigentlich für wichtigere Aufgaben genutzt werden könnten. Eine fragmentierte Tool-Landschaft führt zu inkonsistenten Datenanalysen, erhöhtem manuellen Aufwand und nicht optimal koordinierten Teams. Die Datensilos, die in Storage-Repositories und Monitoring-Tools verschiedener Teams existieren, fehlt der Kontext, der die Beziehungen und Abhängigkeiten in hybriden und Multi-Cloud-Ökosystemen widerspiegelt. Ohne diesen Kontext ist es schwierig, zwischen den Symptomen und der Ursache eines Problems zu unterscheiden, was dazu führt, dass Zeit mit der Nachverfolgung von Fehl- und doppelten Alarmen oder Problemen mit niedriger Priorität verschwendet wird.

Hinzu kommt, dass in stark regulierten Branchen wie dem Finanzsektor und dem Gesundheitswesen die Einhaltung der Daten-Governance und Datenschutz der Tool-Wildwuchs eine besondere Herausforderung mit sich bringt. Und dennoch setzen viele Unternehmen für ihr Monitoring immer noch mehrere Tools und Software-Services ein. Laut einer aktuellen Studie von Dynatrace umfasst die durchschnittliche Multi-Cloud-Umgebung zwölf verschiedene Plattformen und Services.

 

Wechsel vom traditionellen Monitoring hin zu Unified Observability

Der Wechsel vom traditionellen Monitoring hin zu einer umfassenden Observability unterstützt Unternehmen dabei, die oben genannten Herausforderungen zu bewältigen, die durch Tool-Wildwuchs entstanden sind. Oft wird Monitoring und Observability gleichgesetzt, jedoch gibt es wichtige Unterschiede. Während beide Systeme Daten sammeln, analysieren und nutzen, um den Fortschritt einer Anwendung oder eines Dienstes zu verfolgen, geht Observability einen Schritt weiter und hilft Fachkräften zu verstehen, was in einer Multi-Cloud-Umgebung im Kontext passiert.

Durch die Sammlung von Telemetriedaten von Endpunkten und Diensten, gekoppelt mit speziellen Analysefunktionen, ermöglicht eine Observability-Lösung, den Zustand, die Leistung und das Verhalten eines Systems zu messen. Teams können Einblicke in ihre lokalen, hybriden und Multi-Cloud-Systeme gewinnen und analysieren, wie sich Anpassungen an oder innerhalb dieser Technologien – selbst kleinste Änderungen an Microservices, Code oder neu entdeckte Sicherheitslücken – auf die Erfahrungen der Endbenutzer und die Business Perfomance auswirken.

 

Observability basiert im ersten Schritt auf den folgenden drei Grundpfeilern:

  1. Logs:
    Eine Aufzeichnung der Vorgänge innerhalb der Software
  2. Metriken:
    Zählungen, Messungen und Berechnungen zur Anwendungsleistung und Ressourcennutzung
  3. Traces:
    Der Weg, den eine Transaktion durch Anwendungen, Dienste und Infrastruktur eines Systems von einem Knoten zum anderen nimmt

 

Neben den klassischen drei Säulen umfassen die Observability-Daten auch Ereignisse und andere Signale, die von den Komponenten und Diensten des Systems erzeugt werden.

Observability ist jedoch nicht gleich Observability. Moderne Observability erfordert einen ganzheitlichen Ansatz für das Sammeln, Verarbeiten und Analysieren von Daten. Dieser muss über Protokolle, Metriken und Traces hinausgehen und sich auf die Sicherheit, Benutzererfahrung und geschäftlichen Auswirkungen konzentrieren. Im Folgenden finden sich die wichtigsten Kriterien, die eine Observability-Lösung erfüllen sollte:

  • Eine einheitliche Analyse- und Automatisierungsplattform für Observability-, Security- und Business-Daten
  • Die Erfassung und Verarbeitung aller Daten aus allen Quellen unter Beibehaltung des Kontexts hinsichtlich deren Topologie und Abhängigkeiten
  • Die Bereitstellung kostengünstiger und skalierbarer Datenanalytik
  • KI als Kernstück der Plattform, die mehrere Techniken wie vorhersagende, kausale und generative KI umfasst
  • Die Fähigkeit einer zuverlässigen Automatisierung von Geschäfts-, Entwicklungs-, Sicherheits- und Betriebsabläufen
  • Die Fähigkeit, Sicherheitsschwachstellen in Umgebungen während des laufenden Betriebs zu erkennen und zu beheben, Angriffe in Echtzeit zu blockieren und datengesteuerte Sicherheitsanalysen durchzuführen
  • Die Erweiterbarkeit zur Nutzung von Observability-, Security- und Business-Daten, um benutzerdefinierte digitale Geschäftsanwendungen zu unterstützen

Moderne Observability bietet eine datengestützte Methodik für den gesamten Software-Lebenszyklus. Sie zentralisiert alle Telemetriedaten von Metrics und Events über Logs bis hin zu Traces in einer zentralen Plattform. Dadurch können Unternehmen die Datenerfassung und -analyse optimieren, die Zusammenarbeit zwischen Teams verbessern, die Mean-Time-To-Repair reduzieren und die Anwendungsleistung sowie -verfügbarkeit steigern. Gleichzeitig werden Probleme behoben, die durch den Einsatz zu vieler unterschiedlicher Monitoring-Tools verursacht wurden, indem Datensilos aufgelöst und der Verwaltungsaufwand deutlich reduziert werden.

Alexander Zachow, Regional Vice President EMEA Central bei Dynatrace

 

27 Artikel zu „Unified Observability „

Unified Observability: Konsolidierung von Monitoring-Tools und Beseitigung von Datensilos

Heutige Unternehmen stehen einer stetig wachsenden Datenflut gegenüber. Darüber hinaus kämpfen viele mit einer großen Anzahl unterschiedlicher Monitoring-Tools, um dieser Datenmengen Herr zu werden und für fundierte Entscheidungen aufzubereiten. Die Überwachung dieser Tools und die damit einhergehenden Datensilos machen es für Unternehmen jedoch immer schwieriger, die Leistung und Verfügbarkeit ihrer Anwendungen zu optimieren.   Das…

Observability, Application Security und KI: Tiefe KI-gestützte Echtzeit-Einblicke für Entwicklungsprozesse

Optimierung von DevOps und Platform Engineering durch Observability, Application Security und KI.   Bei der Bereitstellung von Cloud-nativen Technologien und Software spielen die Disziplinen DevOps und Platform Engineering eine entscheidende Rolle. Um Zuverlässigkeit, Sicherheit und Effizienz in den Prozessen zu gewährleisten, ist es wichtig, weitere technologische Investitionen zu tätigen. Eine dieser Schlüsseltechnologien ist Observability.  …

Cloud, Observability, Ende-zu-Ende-Sichtbarkeit und Teambuilding – In vier Schritten zum Vorreiter der Softwareentwicklung

Eine positive Customer Experience hängt zu einem großen Teil davon ab, dass Software und Systeme Höchstleistungen bringen. Daher sind für viele Unternehmen die Entwicklung und Bereitstellung optimierter Software die oberste Priorität. Trotzdem erleben Nutzer noch immer Ausfälle, die sich bei den Unternehmen meist unmittelbar als Umsatzverluste niederschlagen. Es ist also noch ein langer Weg zum optimalen Kundenerlebnis.

The State of AI 2024: Kombinierter Ansatz für erfolgreiche KI-Einführung wird immer wichtiger

Laut Studie setzen durchschnittlich 39 Prozent der deutschen IT-Teams bereits KI-basierte Tools oder Services ein. Unternehmen erhöhen ihre Investitionen in KI in allen Geschäftsbereichen, um die Produktivität zu steigern, Aufgaben zu automatisieren, Kosten zu senken und wettbewerbsfähig zu bleiben, so die aktuelle Studie »The state of AI 2024: Challenges to adoption and key strategies for…

Die Hausordnung für IT-Systeme: NIS2

NIS2 sorgt in vielen Köpfen für Unsicherheit. Dabei lässt sie sich gut mit der Hausordnung, wie sie in Mehrfamilienhäusern oder Firmengebäuden existiert, vergleichen: Die europaweite Direktive ist das Regelwerk (Hausordnung), deren Einhaltung Dienstleister (analog zum Hausmeister) für Unternehmen (quasi die Bewohner) sicherstellen. Doch was ist neu an NIS2? Welche Maßnahmen müssen Firmen implementieren? Die nachfolgende…

EU-Direktive NIS2: So stellen Sie Ihre Task Force zusammen

Mit der neuen EU-Direktive NIS2 stehen Unternehmen vor der Herausforderung, ihre Cybersecurity-Strategie zu überarbeiten. Um den Anforderungen der Richtlinie gerecht zu werden, ist es entscheidend, ein Kernteam für Sicherheitsbelange zusammenzustellen. Wie Unternehmen dabei vorgehen sollten, erklärt Dirk Wocke, IT Compliance Manager und Datenschutzbeauftragter bei indevis.   Die neue NIS2-Direktive stellt konkrete Anforderungen an die technischen…

Netzwerk- und OT-Experten unter sich beim »Controlware Network Day & OT-Forum 2024« in Hanau

Controlware begrüßte am 19. und 20. Juni 2024 über 250 IT-Verantwortliche zum »Controlware Network Day & OT-Forum« im Congress Park Hanau. Der IT-Dienstleister und Managed Service Provider hatte das Netzwerk-Event in diesem Jahr erstmals um ein halbtägiges OT-Forum erweitert – und präsentierte neben den Top-Trends im Netzwerk-Umfeld auch Strategien für einen sicheren und effizienten Betrieb…

Digitalkompetenz: Deutschland hat enormes Aufholpotenzial

Digitale Grundkompetenz ist unabdingbar für den digitalen Wandel. Jedoch zeigen aktuelle Erhebungen: Im europäischen Vergleich hinkt Deutschland weiterhin spürbar hinterher. Um langfristigen ökonomischen Schaden zu vermeiden, braucht unser Land eine digitalpolitische Kehrtwende, meint das Münchner PR-COM Research Lab.    Der Anteil der 16- bis 74-Jährigen, die mindestens über grundlegende digitale Kompetenzen verfügen, lag in Deutschland…

Kunden haben die Wahl: OfficeMaster Suite ab sofort auf Microsoft Azure Marketplace verfügbar

Cloud ergänzt On-premises Mit der OfficeMaster Suite von Ferrari electronic steht ab sofort und zum ersten Mal ein Dokumentenaustauschserver auf dem Microsoft Azure Marketplace zur Verfügung. Damit passt der Berliner UC-Pionier sein Flaggschiff modernsten Umgebungen an und öffnet Lösungen zum rechtssicheren Dokumentenaustausch über Next Generation Document Exchange (NGDX) den Weg in die Cloud. Die bewährten…

Das Schweizer Taschenmesser für IT-Operations

ADN Group vertreibt die EUC-Analyse und Managementplattform von ControlUp. Mit der Portfolio-Erweiterung um ControlUp bietet die ADN Group ihren Partnern Cross- und Upselling-Chancen im Citrix- Microsoft- und VMware-Umfeld und erleichtert die Transformation vom klassischen Systemhaus zum Service Provider.   Der Homeoffice-Boom der vergangenen Monate führte nicht selten zu Frust bei den Nutzern auf der einen…

Länderübergreifende Vernetzung – Digitaler Dokumentenaustausch in der Logistik

Sie agiert größtenteils im Hintergrund und ist dennoch Weltwirtschaftstreiber Nr. 1 und eine der Grundvoraussetzungen für die tagtägliche Versorgung der Bevölkerung: Die Logistikbranche. Mit einer Gesamtleistung von geschätzt 268 Milliarden Euro allein im Jahr 2020 und drei Millionen Beschäftigten ist sie laut Bundesvereinigung Logistik (BVL) der drittgrößte Wirtschaftsbereich Deutschlands – und seit jeher Ursprung digitaler Innovationen. Welch entscheidende Rolle hier der Dokumentenaustausch spielt, zeigt ein Logistikexperiment des Digitalverbands Bitkom.

PLM: Standardsoftware ist nicht die Antwort

Viele Anbieter im Bereich PLM (Product Lifecycle Management) preisen ihre Lösung damit an, dass sie out-of-the-box als Standardsoftware funktioniert. Das soll in der Theorie die Zusammenarbeit zwischen Herstellern und ihren externen Stakeholdern wie OEMs oder Zulieferern vereinfachen. In der Praxis sieht es jedoch oft anders aus: Denn der Einsatz von Standardsoftware wird den individuellen Anforderungen,…

Wie Behörden sicher in Büro und Home Office kommunizieren – Sicherer, digitaler Dokumentenaustausch

Digitalisiert ist in vielen Behörden und Verwaltungen noch immer wenig. Vielerorts wandern Dokumente klassisch von Person zu Person, von Hand zu Hand. Dabei würde die Modernisierung der Verwaltung nicht nur zeitgemäße Prozesse schaffen, sondern zugleich die Mitarbeitenden entlasten. Der Weg dorthin führt über die Digitalisierung analoger Prozesse. Werden Dokumente auf digitalem Wege ausgetauscht, muss sichergestellt sein, dass sie sicher und verlustfrei übertragen werden.

Full-Stack Low-Code – Umfassende komplette Automatisierung

Low-Code ist ein Wegbereiter für die sichere, einfache Entwicklung und Änderung von Applikationen. Zudem ist das Informationsmanagement bereits fest in der Low-Code-Plattform integriert. Herbert Schild, Global Financial Services Industry Lead bei Appian erklärt im Interview, warum Low-Code für die Finanzindustrie so wichtig ist.

Unterschätzte Technologie – Das Fax als Wegbereiter der Digitalisierung

Wäre das Fax kein seelenloses Kommunikationsmittel, könnte man fast von (Cyber-) Mobbing sprechen. Mitte der 1990er Jahre noch Sinnbild hochmoderner Büroausstattung, stand das Fax in den letzten Monaten immer wieder als vermeintlich rückschrittliche Technologie unter Beschuss. Was viele Kritiker nicht bedenken: Fax ist nicht gleich Fax. Während die analoge Version zurecht in der Versenkung verschwinden darf, sind faxbasierte IP-Lösungen wie »Next Generation Document Exchange« Teil hochmoderner Unified-Communications-Systeme und Wegbereiter der Digitalisierung.

Multifunktionsdrucker versus Dokumentenscanner – Klarer Punktsieg für den Spezialisten

Seit Beginn der Coronapandemie steigt der Druck, papierbasierte Prozesse zu eliminieren und die Digitalisierung voranzutreiben. Da in den meisten Büroumgebungen Multifunktionsdrucker (MFP) vorhanden sind, ist es naheliegend diese als Scanner zu nutzen. Für die Erfassung weniger Papierdokumente am Tag macht das sicherlich Sinn. Was auf den ersten Blick als günstige Lösung erscheint, weil die Geräte bereits vorhanden sind, kann bei näherer Betrachtung teuer werden. Kodak Alaris zeigt, worin die Unterschiede zu einem Dokumentenscanner bestehen.

Hauptaugenmerk auf Sicherheit – Der neue Sicherheitsmaßstab beim Scannen

Im letzten Jahr wurden so viele Cyberattacken wie noch nie davor registriert. Das hat sicherlich mit dem schnellen Umzug von Mitarbeitern ins Home Office zu tun, wo das Thema Sicherheit unterschätzt wurde. Doch Cyberkriminelle sind stets auf der Suche nach Sicherheitslücken im Netzwerk, um Geräte aller Art angreifen zu können. Kodak Alaris hat sich diesem Problem angenommen, weshalb ihre neuen Scanner der Kodak S3000-Serie Sicherheitsfunktionen bieten, die vor Hackern schützen und die Einhaltung von Compliance vereinfachen beziehungsweise automatisieren.

Zero Trust: Nur ein Buzzword oder wichtiger Teil der Sicherheitsstrategie?

Das Zero-Trust-Modell hat sich bereits vor einigen Jahren als Sicherheitskonzept etabliert. Nun wurde die IT-Landschaft von Unternehmen innerhalb der letzten zwölf Monate allerdings auf den Kopf gestellt, was auch Folgen für die IT-Sicherheit hat. Besonders der plötzliche Umzug in die Cloud stellte viele Sicherheitsteams vor neue Herausforderungen. Rolf Haas, Senior Enterprise Technology Specialist bei McAfee,…