Tipps zum effizienten Einsatz von Datenbanküberwachungstools

Ist »gut genug« auch günstig?

Illustration: SentryOne, Absmeier

Ob Interaktion mit den Kunden in einem Onlineshop, Zugriffe auf Ressourcen einer Website oder die betriebsinterne Nutzung von Softwareanwendungen: Datenbanken sind eine tragende Säule zahlreicher Geschäftsprozesse. So können auch kleine Probleme auf Datenbankebene verlangsamte Abläufe mit sich bringen oder gar zu Ausfallzeiten führen. Laut Gartner liegen die durchschnittlichen Kosten für IT-Ausfallzeiten bei 5600 Dollar pro Minute. Obwohl die Bezifferung maßgeblich von der Größe und Art des Unternehmens abhängt, können selbst kleine Unternehmen Kosten von bis zu 100.000 Dollar pro Stunde Ausfallzeit verzeichnen, während bei größeren Unternehmen die Kosten auf über 1 Million Dollar pro Stunde ansteigen können. Verlangsamte Prozesse wiederum verursachen zwar geringeren Schaden – man schätzt etwa ein Fünftel der stündlichen Ausfallkosten – sie treten allerdings zehnmal häufiger auf. Diese Kosten können sich sehr schnell summieren, so dass es für jedes Unternehmen von enormem Wert ist, derartige Ereignisse frühzeitig und schnell zu identifizieren, ihre Ursache zu ermitteln, zu lösen und künftig zu vermeiden.

Datenbanken sind mit einer Vielzahl an weiteren Prozessen verknüpft, die sich auf die Leistung auswirken können. Unternehmen nutzen daher verschiedene Tools und Methoden, um Schwierigkeiten, die die Performance von Datenbanken beeinträchtigen oder diese hervorrufen können, ausfindig zu machen. Diese mögen augenscheinlich für den täglichen Betrieb gut genug sein, werden sie jedoch auf die falsche Weise eingesetzt, können noch mehr Aufwand und Kosten entstehen. Für Unternehmen lohnt es sich daher, ihre Monitoring-Lösungen kritisch zu betrachten:

  1. Überwachung der Anwendungsleistung: Application Performance Management (APM) Tools
    Heute gibt es eine Fülle von Tools auf dem Markt, die eine einfache Überwachung der Anwendungsleistung in guter Qualität ermöglichen und einen allgemeinen Überblick des Zustands von IT-Umgebungen bieten. Wie die Mehrheit der Nutzer angibt, sind APM-Tools zwar in der Lage, in die richtige Richtung zu weisen, allerdings gelingt es ihnen nicht, Problemursachen auf der Datenplattform zu identifizieren. Somit ist es erforderlich, zusätzlich manuelle Daten zu erfassen, um Probleme zu beheben und dauerhaft zu lösen.
    Da APM-Tools mitunter nicht die erforderliche Tiefe der Datenbankanalyse erreichen, um die zugrunde liegenden Performance-Probleme zu eliminieren, dauert die Ursachenanalyse meist länger und erschwert die langfristige Optimierung.
  1. Benutzerdefinierte Skripte
    Erfahrene Datenbankadministratoren (DBAs), verfügen meist über eine Sammlung von benutzerdefinierten Skripten, die sie entweder online recherchiert oder selbst erstellt haben. Diese Skripte dienen in der Regel dazu, andere Werkzeuge wie beispielsweise APM zu ergänzen, fehlende Funktionen auszugleichen oder ad-hoc-Probleme zu lösen.
    Wird die Leistungsüberwachung vornehmlich durch eine Skript-Bibliothek bewerkstelligt, kann dies dennoch Einschränkungen nach sich ziehen. Denn nur in Ausnahmefällen lässt sich mit ihnen ein vollständiges Bild der IT-Umgebung erstellen. Viele Skripte werden lediglich für einen bestimmten Sachverhalt entwickelt und sind bereits nach einmaliger Anwendung überflüssig. Diejenigen, die einen längerfristigen Wert bieten, sind hingegen oft schwer zu warten. Wenn die Umgebung wächst und neue Technologien zum Einsatz kommen, kann die Pflege der Skripts schnell zu einer Vollzeitbeschäftigung werden. Angesichts der geringen Wahrscheinlichkeit, dass die Skripts die erforderliche Granularität besitzen und/oder signifikante historische Details liefern, um den Ursachen auf den Grund gehen zu können, ein unnötig hoher Aufwand.
  1. SQL Server Wait Statistics
    Eine ‚Ressourcen-Wartezeit‘ wird durch Prozesse akkumuliert, die auf SQL Servern laufen und darauf warten, dass eine bestimmte Ressource verfügbar wird. Warte-Statistiken (wait statistics) zeigen entsprechend auf, wo sich kritische Engpässe innerhalb von SQL Servern aufbauen. Einige IT-Verantwortliche könnten versucht sein, sich einfach auf die Warte-Statistiken zu konzentrieren, um die Leistung ihrer Datenbanken zu verstehen. Dies kann jedoch – insbesondere auf Abfrageebene – zu völlig falschen Schlussfolgerungen führen. Es ist in etwa so, als würde man bei einem Verkehrsstau lediglich ein einzelnes Auto betrachten. Das Auto bewegt sich und läuft demnach einwandfrei. Was dieser Betrachtung jedoch entgeht, ist der Lastwagen weiter vorne, der umdrehen möchte. Ebenso benötigt man auch bei der Betrachtung von Warte-Statistiken Informationen aus anderen Quellen, damit man ein vollständiges Bild erlangen und den Ursachen auf den Grund gehen kann.
    Dennoch bilden sie zumindest einen sehr guten Ausgangspunkt, um ein Gefühl für das Leistungsprofil des Servers zu bekommen und zu erfahren, wo Probleme auftreten können.
  1. Überwachung der Datenbankleistung: Data Performance Monitoring (DPM) Tools
    Auf den ersten Blick erscheinen DPM-Tools natürlich als effektivste Methode zur Überwachung der Datenbankleistung, schließlich sind sie genau dafür konzipiert. Doch auch sie bringen Einschränkungen mit sich, wenn man es nicht versteht, ihr Potenzial maximal zu nutzen.
    Ein Problem von DPM-Tools können beispielsweise zu wenige Details sein, insbesondere bei Counter- Metriken wie CPU oder IO. Manche Produkte und auch selbst entwickelte Lösungen erfassen Momentaufnahmen dieser Daten lediglich einmal im Abstand von mehreren Minuten, um den entsprechenden Server nicht übermäßig zu belasten. Andere Einschränkungen betreffen die Details auf Abfrageebene: Meist werden lediglich die Top N-Abfragen gesammelt oder angezeigt, unabhängig von der Aktivitätsebene auf dem Server. Oder man konzentriert sich auf Abfragen, die auf ihren eigenen Wartezeiten basieren, im Gegensatz zum tatsächlichen Ressourcenverbrauch der Anfrage, bei dem es viel wahrscheinlicher ist, die Ursache zu identifizieren.
    Auch die Skalierbarkeit ist oft eine Herausforderung. Die Anzahl an Servern, die sich mit einer Produktinstallation überwachen lassen, ist bei den meisten DPM-Tools begrenzt. Die Tatsache, dass sie alle von einer SQL-Server-Datenbank unterstützt werden, um sämtliche gesammelten Daten zu speichern, schafft allerdings einen Engpass. Aus diesem Grund haben diese Produkte ab etwa 200-300 überwachten SQL-Servern zu kämpfen. Für größere Unternehmen kann es daher notwendig sein, mehrere Installationen zu implementieren, um alle Server abzudecken. Einige DPM-Produkte handhaben dies, indem sie mehrere Back-End-Datenbanken von einer einzigen Schnittstelle aus unterstützen, obwohl dies einen erheblichen Kosten- und Verwaltungsaufwand erfordert.

»Gut genug« kann durchaus teuer werden
Unabhängig von der Größe eines Unternehmens können die Datenbestände stets komplex sein.

Anzeige

Deshalb ist es wichtig, sicherzustellen, dass die eingesetzten Tools optimal laufen und maximalen Nutzen bringen. Im Wesentlichen können Unternehmen anhand der folgenden Kriterien beurteilen, ob ihre Lösung zur Datenbanküberwachung ausreichend wirksam ist:

  • Bietet die Lösung genügend Details und exakt die Angaben, um Probleme schnell zu lösen und zu verhindern?
  • Lässt sie sich entsprechend des erwarteten Datenwachstums skalieren?
  • Funktioniert die Lösung in allen Umgebungen, in denen sie benötigt wird?
  • Trägt sie in zufrieden stellendem Maß zur Problemlösung bei – oder ruft sie womöglich noch mehr hervor, als sie lösen soll?
  • Wie sieht es mit dem Support aus? Besteht Unterstützung durch erfahrende Ingenieure, für den Fall, dass etwas schief geht?

Bestehende Lösungen in regelmäßigen Abständen kritisch zu evaluieren hilft dabei, wirksame und effiziente Prozesse zu entwickeln. Insbesondere verhindert es dem Phänomen entgegen, dass die eingesetzten Lösungen zwar als gut genug erscheinen, letztendlich aber durch Verlangsamung oder Ausfälle unnötige Kosten verursachen.

Steven Wright, Director of Sales Enablement bei SentryOne

Anzeige

 

661 Artikel zu „Datenbank Leistung“

IT-Entscheidungsträger greifen für Data Warehouses und Datenbanken zur Cloud

Analysedaten in die Cloud verschieben: Das sehen 43 Prozent der Umfrageteilnehmer einer globalen Studie als einflussreichsten Cloud-Trend. In Deutschland gehen 37 Prozent der Befragten mit dieser Einschätzung mit. Die MariaDB Corporation befragte in einer globalen Studie deutsche und internationale IT-Führungskräfte zu allgemeinen Cloud- und Datenbanktrends und zu den Auswirkungen von Covid-19 auf IT-Entscheidungen. In Deutschland…

Gesundheitsmanagement: Gesunde und leistungsfähige Mitarbeiter trotz Corona-Krise

Um sie bestmöglich vor dem Corona-Virus zu schützen, haben deutsche Unternehmen ihre Angestellten zu großen Teilen ins Homeoffice beordert. Eine ebenso plausible wie umsichtige Maßnahme. Doch auch hier lauern gesundheitliche Gefahren, die sich zunächst nur schleichend bemerkbar machen, Wirtschaft und Staat aber langfristig umso teurer zu stehen kommen können. Mediziner warnen derzeit eindringlich vor umfassenden…

Datenbankadministratoren: Die stillen Krisenmanager

Während Security-Verantwortliche in der aktuellen Pandemiekrise in Unternehmen meist eine verstärkte Aufmerksamkeit zu Teil wird, geraten Datenbankadministratoren (DBAs) in Vergessenheit. Dabei sind sie denjenigen, die einen essenziellen Beitrag dazu leisten, dass digitale Geschäftsprozesse reibungslos ablaufen. Ihre alltäglichen Herausforderungen haben sich derzeit spürbar verstärkt. Daran lassen sich nicht zuletzt Entwicklungstendenzen für den IT-Markt ablesen.   Die…

Sichere Cloud- und Rechenzentrums-Dienstleistungen für die Automobilindustrie

Die noris network AG, Betreiber von Hochsicherheitsrechenzentren und PaaS-Provider, hat ihr TISAX-Zertifikat in einem Überwachungsaudit von der TÜV Rheinland i-sec GmbH prüfen und bestätigen lassen. TISAX (Trusted Information Security Assessment Exchange) dient einer unternehmensübergreifenden Anerkennung von Assessments der Informationssicherheit in der Automobilindustrie und schafft hierfür einen gemeinsamen Prüf- und Austauschmechanismus. Automobilhersteller und -zulieferer haben durch…

Die wahren Kosten der Legacy-Infrastruktur: Probleme mit Compliance, Budget und Leistung

Die Studie »Data-Driven Transformation in Europe« belegt, dass lediglich 58 % der Führungskräfte für Informations- und Kommunikationstechnologie (IKT) in Behörden und Ämter zuversichtlich sind, mit ihrer aktuellen Dateninfrastruktur strategische Transformationsziele erreichen zu können [1]. Die Umfrage unter hochrangigen Führungskräften im IKT-Bereich ergab, dass die derzeitige Dateninfrastruktur die operative Agilität beeinträchtigt (84 Prozent), die Betriebskosten erhöht…

Datenbankmigration: So werden Legacy-Systeme performanter, agiler und effizienter

Es gibt viele gute Gründe, von relationalen Legacy- auf New-Technology-Datenbanken zu migrieren. Diese fünf Tipps eines NoSQL-Datenbankpioniers machen den Umstieg leichter. Semi-strukturierte Daten, das Internet der Dinge, also OT-Applikationen, mobile Online-Devices und Big-Data-Anwendungen stellen hohe Anforderungen an klassische relationale Datenbank-Systeme, denen sie oft nicht mehr optimal gewachsen sind. Die starren Tabellenstrukturen der Systeme stammen noch…

NoSQL-Datenbanken massiv auf dem Vormarsch

In der Folge der digitalen Transformation ergeben sich in vielen Unternehmen und Organiationen vielfältige Herausforderungen, etwa in den Bereichen Data Management, Data-as-a-Service und Echtzeitanalytik. In der sich zeitgleich weiterentwickelnden Welt der Geschäftsanwendungen und Datenbanken setzen Unternehmen zunehmend auf NoSQL-Datenbanken. Drei Aspekte prägen nach Meinung von Roland Stritt, Director Channels EMEA bei Rubrik, den Markt und…

Erwerbstätige: Dienstleistungsbereich wird immer wichtiger

Der Anstieg bei den Erwerbstätigen hierzulande hat sich auch im Jahr 2018 fortgesetzt, wie das Statistische Bundesamt mitgeteilt hat. Demnach gab es hierzulande 1,3 Prozent mehr Erwerbstätige als noch 2017 – insgesamt hatten so 2018 44,8 Millionen Personen ihren Arbeitsort in Deutschland. Wie die Grafik von Statista zeigt, waren dabei die meisten im Dienstleistungsbereich tätig.…

Maximale Leistung durch SDS – Immer höhere Akzeptanz von Software-defined Storage

Hochverfügbarkeit und Disaster Recovery stellen für viele Unternehmen nach wie vor die größten Herausforderungen in der IT-Infrastruktur dar. Hinzu kommt die Notwendigkeit, vorhandene und zukünftige IT-Hardware herstellerübergreifend nutzen zu können. Einen passenden Lösungsansatz liefert Software-defined Storage, mit dem sich ein Rechenzentrum der nächsten Generation umsetzen lässt. Eine aktuelle Studie von DataCore Software zeigt aktuelle Entwicklungen im Enterprise-Storage-Markt auf.

Digitale Arbeitswelt verlangt nach leistungsfähigen Collaboration- und Communication-Tools

5,2 Milliarden Euro geben deutsche Unternehmen in diesem Jahr für Software as a Service aus, davon einen Großteil für Communication- und Collaboration-Tools. Dies zeigen die Ergebnisse des auf Basis des eAnalyzers 2018 von techconsult und CANCOM Pironet erstellten ITK-Budget-Benchmarks. Bisher haben über 3.535 Personen das Benchmark aufgerufen, 1.833 haben es vollständig durchgeführt und die Höhe…

Orientierung im Datenbank-Lizenzdschungel: 7 Kriterien, die Entscheider beachten sollten

Viele Unternehmen zahlen zu viel für Datenbanklizenzen – flexible Abrechnungsmodelle können helfen, die Kosten zu senken. Datenbanken und Datenbankmanagementsysteme (DBMS) gehören heute zu den Kernsystemen für fast jedes Unternehmen. Die Lizenz- und Supportkosten für diese Systeme sind jedoch nicht gerade Peanuts und verschärfen die ohnehin angespannte Budgetsituation in IT-Abteilungen zusätzlich. Auch die mit den Lizenzverträgen…

IT-Leistungsverrechnung – Was nichts kostet, ist nichts wert

Unter dieser oder ähnlicher Motivation gibt es unzählige Versuche, IT-Leistungen mit den internen Abteilungen, die die Leistungen nutzen, zu verrechnen. Oft werden dazu auch Marktzahlen herangezogen, um die Forderungen der IT zu rechtfertigen. Bei der IT-Leistungsverrechnung wirken aber nicht die Kräfte des Marktes. IT-Leistungsverrechnung ist zu allererst Unternehmenspolitik. Das wird oft verdrängt und nicht kommuniziert und daraus resultiert eine Vielzahl der Probleme, die mit der IT-Leistungsverrechnung einhergehen.

Praxishandbuch für die Nutzung von Wissensdatenbanken im Service

  Der Spezialist für Wissensmanagement im Service, USU AG, hat ein umfassendes Fachbuch mit dem Titel »Aktive Wissensdatenbanken. Eine Anleitung für die Umsetzung in die Praxis« veröffentlicht. Das Werk eignet sich sowohl für Einsteiger als auch für Fachleute, da es nicht nur die Grundlagen abdeckt, sondern einen detaillierten Einblick in die Struktur, Inhalte, Prozesse und…

Blockchains: Supercomputer-Leistung für die Sicherheit

Blockchains sind spezielle Datenbanken, die Transaktionsdaten ohne eine zentrale Kontroll-Instanz, ohne die Notwendigkeit gegenseitigen Vertrauens und mit vollkommener Transparenz verwalten können. Die größte und bekannteste öffentliche Blockchain ist die von Bitcoin – sie läuft auf einem Netzwerk von aktuell etwa 5600 Servern im Internet und führt am Tag über 240.000 Transaktionen durch. Das ist in…

Security Schwachstellenmanagement: Herstellerleistung zeigt große Spannbreite

Anwender bewerten Lösungen für das Vulnerability Management und deren Hersteller in einer aktuellen Studie. Während die Bewertungen der verschiedenen Kategorien auf Seiten der Lösung relativ eng beieinander liegen, unterscheidet sich die Herstellerleistung häufig sehr deutlich. Die Studie ist Teil des Professional User Ratings: Security Solutions (PUR-S) der techconsult, das Orientierung auf dem Markt der IT-Sicherheitslösungen…

Einmal Datensee und zurück: relationale Datenbank und polystrukturierte Daten

  Laut einer aktuellen Studie des Gartner Instituts investieren bereits über 75 % der befragten Unternehmen in Big-Data-Lösungen oder planen Investitionen bis 2017. Auch im Mittelstand ist das Thema angekommen. Der zum Sommer mit Spannung erwartete SQL Server 2016 bietet auch kleineren Unternehmen die Chance, Big-Data-Technologien ohne großen Aufwand zu installieren und zu nutzen –…