Herkules-Aufgabe Datenbankmanagement

Illustration Absmeier foto freepik

 

Fünf Aspekte, die Führungskräfte über Datenbanken wissen sollten.

Die Datenbanklandschaft hat sich in den letzten zehn Jahren gravierend verändert. Wo früher meist eine einzige Plattform zum Einsatz kam, entsteht in vielen Unternehmen heute geradezu ein Wildwuchs an unterschiedlichen Technologien. Spezialisten von DevOps-Lösungen für End-to-End-Datenbankmanagement, nennen fünf Gründe, wie es dazu kam – und was Business Leader wissen müssen.

 

Bis Mitte der 2010er-Jahre wählten die meisten Unternehmen in der Regel eine der vier großen relationalen Datenbankplattformen entsprechend ihren Bedürfnissen aus. So fiel die Entscheidung entweder auf Oracle, MySQL, SQL Server oder PostgreSQL. Dass dabei oft Kompromisse eingegangen werden mussten, versteht sich von selbst – und dass sehr viel Legacy aufgebaut wurde, die sich bis heute hartnäckig hält. Unter anderem deshalb sind diese »Big Four« auch heute noch entsprechend häufig im Einsatz. Durch neue Tools und technologische Möglichkeiten wie KI-Unterstützung oder Automatisierung haben Unternehmen inzwischen jedoch die Freiheit, nicht nur eine Datenbankplattform, sondern eine Vielzahl zu verwenden. Die Folge: Die Datenbanklandschaft ist komplexer als je zuvor. Redgate (DevOps-Lösungen für End-to-End-Datenbankmanagement) erklärt in fünf Punkten, wie es dazu kommen konnte und was für CTOs und die Geschäftsführungen deshalb heute von essenzieller Bedeutung ist.

Grund 1: Das Datenvolumen steigt

Beinahe jedes Unternehmen hat mit steigenden Datenmengen zu kämpfen. Weltweit gibt es Prognosen, die eine Verdreifachung des gesamten Datenvolumens bis 2027 vorhersagen; angetrieben vor allem durch den rasanten Aufstieg und Verbreitung von künstlicher Intelligenz (KI) und generativer KI. Für Unternehmen wird es immer wichtiger, das volle Potenzial ihres Datenschatzes auszuschöpfen. Genau dabei spielt KI eine immer größere Rolle – das setzt allerdings eine perfekt orchestrierte Datenbanklandschaft voraus.

Grund 2: Daten werden immer komplexer

Nicht nur das schiere Volumen steigt, auch die Komplexität der von Unternehmen gesammelten Daten nimmt zu. Wo früher strukturierte Daten in Tabellen gespeichert wurden, gibt es heute immer mehr halb- oder unstrukturierte Daten wie Dokumente, Videos, Zeitreihen von Sensoren, Mails oder Graphdaten. Die meisten Daten müssen heute daher auf exakt auf sie zugeschnittene Datenbanken verteilt und in ihnen bereitgestellt werden, um sie gewinnbringend zu nutzen. Das führt ebenfalls zu einem Anstieg der eingesetzten Datenbankplattformen.

Grund 3: Daten brauchen mehr als Datenbanken

Ein weiterer Grund für den Anstieg eingesetzter Tools ist, dass die unterschiedlichen Datentypen und Datenbanken auch verwaltet und gewartet werden müssen. Es ist vorteilhaft, wenn Unternehmen in der Lage sind, Daten zu sammeln und zu sichern. Aber es gehört mehr dazu, um aus ihnen auch wirklich Wert zu schöpfen. Es bedarf vor allem geeigneter Suchmaschinen und Anwendungen, die die verschiedenen Daten überhaupt erst konsumierbar machen. Daher müssen CTOs eng mit Datenbankadministratoren zusammenarbeiten, um den optimalen Werkzeugkasten für ihre Datenbanklandschaft zu evaluieren und zu implementieren.

Grund 4: Datenbankteams unter Strom

Eine funktionale Multi-Datenbanklandschaft am Laufen zu halten, ist nicht nur ein Full-Time-Job – es ist eine Herkules-Aufgabe. Gerade in Zeiten von Fachkräftemangel und steigender Komplexität sowie einem immer größeren Aufgabenfeld fällt dies Administratoren schwer. Neben dem Entwickeln und Management der Datenbanken müssen IT-Teams vor allem auch deren Überwachung in den Griff bekommen. Bei der Auswahl entsprechender Tools ist es wichtig, dass diese nicht nur in Echtzeit Einblicke liefern, sondern auch einen umfangreichen Kontext und ein individualisierbares Alerting bieten.

Grund 5: Daten sind geschäftsrelevanter denn je

Lange Jahre war der Datenhaushalt eine eher technische Angelegenheit – das hat sich grundlegend verändert. Heute sind Daten und deren strategische Nutzung entscheidend für den geschäftlichen Erfolg und maßgeblich dafür verantwortlich, ob ein Unternehmen wettbewerbsfähig bleibt. Auch das ist ein Grund, warum Datenbankspezialisten äußerst gefragt sind und eine gut geölte Datenbanklandschaft zur Grundvoraussetzung für erfolgreiches Management geworden ist.

 

»CTOs und die Geschäftsführung müssen das Thema Datenbanken und ihr Management zu einem Grundpfeiler ihrer Unternehmensstrategie machen«, erklärt Oliver Stein, Geschäftsführer DACH bei Redgate. »Nur Unternehmen, die die Herausforderungen moderner IT-Infrastrukturen aktiv annehmen und meistern, werden auf dem Markt die Nase vorn haben. Das passendes Tool-Set ist dabei zentraler Dreh- und Angelpunkt für den Erfolg.«

 

1590 Artikel zu „Datenbank“

Cloud und KI bestimmen den Datenbanksektor

Überraschend viele Unternehmen hosten ihre Datenbanken in der Cloud. Allerdings gibt es auffällige Unterschiede zwischen den Branchen, im Hinblick auf die Cloud Journey. Zudem setzen Unternehmen immer öfter künstliche Intelligenz (KI) für deren Management ein.   Für die diesjährige Studie »State of the Database Landscape« hat Redgate weltweit 3.800 IT-Fachleute befragt, darunter auch Experten von…

Riverty setzt auf skalierbare Exadata-Datenbankinfrastruktur aus der Cloud –
Von On-Premises in die Cloud

Für den effizienten und sicheren Transfer von geschäftskritischen Daten ist der FinTech-Anbieter Riverty auf eine Top-Performance und skalierbare Ressourcen in seiner Data-Warehouse-Infrastruktur angewiesen. Aufgrund stetigen Wachstums und der steigenden Menge an Kundendaten entschloss sich das Unternehmen vom vorhandenen On-Premises-System in die Oracle Cloud Infrastructure zu wechseln. Das Ergebnis: eine Beschleunigung der Laufzeit bei Prozessen um 10 bis 15 Prozent.

Enterprise-IT-Trends 2024: Observability, Datenbankprobleme, AIOps

Unternehmen werden erweiterte künstliche Intelligenz und Automatisierungsfunktionen nutzen, um Transparenz, Wachstum und Produktivität zu steigern.   SolarWinds veröffentlicht seine Prognosen für die IT-Trends und ‑Themen, die das kommende Jahr prägen werden. 2024 werden Unternehmen mit großer Wahrscheinlichkeit noch stärker auf künstliche Intelligenz (KI), maschinelles Lernen (ML) und Automatisierung setzen, um ihre Ziele für Effizienz, Servicebereitstellung…

Open-Source-Lösungen und Cloud-Services – Mit Vektordatenbanken gut aufgestellt in die KI-Ära einsteigen

Eine leistungsstarke Dateninfrastruktur ist einer Zeit der kontinuierlich steigenden Datenmengen unverzichtbar. Open-Source-Lösungen, die in Cloud-Betriebsmodellen bereitgestellt werden, gewinnen hier zunehmend an Bedeutung. Abhängig von den konkreten Anforderungen hinsichtlich Datenspeicherung, Streaming, Analyse, Suche oder Orchestrierung bieten sich unterschiedliche Lösungen an. Für den boomenden Sektor der KI-Anwendungen sind es Vektordatenbanken.

Viel besser als ihr Ruf: Fünf Vorurteile gegen moderne Datenbanken widerlegt

Entwickler und Administratoren sind oft mit traditionellen Datenbanken konfrontiert, die sprichwörtlich Staub ansetzen. Ihr Unternehmen von einer Modernisierung zu überzeugen, ist jedoch oft schwierig: Es ranken sich oft negative Mythen um State-of-the-Art-Alternativen. Crate.io, Entwickler der Datenbank CrateDB, räumt mit den Märchen auf.   Wenn das Thema Datenbankmodernisierung auf der Tagesordnung steht, schlagen die Herzen vieler…

Open-Source-Datenbank-Checkliste: Diese Eigenschaften von PostgreSQL sollten User kennen

PostgreSQL erfreut sich international großer Beliebtheit, und auch in Deutschland steigen die Nutzerzahlen der Open-Source-Datenbank. Auf welche sechs Eigenschaften von PostgreSQL sollten potenzielle Nutzer achten.​   Die Skepsis gegenüber Open-Source-Alternativen zu proprietären Lösungen nimmt stetig ab. Viele quelloffene Projekte haben über die letzten Jahrzehnte bewiesen, dass sie keinesfalls hinter kommerziellen Produkten zurückstehen – weder bei…

Datenschätze regelkonform schützen: Management von Datenbank-Sicherheit und Compliance

Die nahezu flächendeckende Digitalisierung von Wirtschaft und Gesellschaft und nicht zuletzt die Covid-19-Krise haben die Anforderungen an die Datenbank-Sicherheit und Compliance erheblich verschärft. Compliance und Sicherheit sind zwei eng miteinander verbundene Konzepte, die sich auf alle Datenbanken auswirken, die personenbezogene und andere sensible Daten speichern. Heutzutage umfasst die Datenbank-Sicherheit Vorkehrungen für den Schutz personenbezogener Daten;…

Tipps zum effizienten Einsatz von Datenbanküberwachungstools

Ist »gut genug« auch günstig? Ob Interaktion mit den Kunden in einem Onlineshop, Zugriffe auf Ressourcen einer Website oder die betriebsinterne Nutzung von Softwareanwendungen: Datenbanken sind eine tragende Säule zahlreicher Geschäftsprozesse. So können auch kleine Probleme auf Datenbankebene verlangsamte Abläufe mit sich bringen oder gar zu Ausfallzeiten führen. Laut Gartner liegen die durchschnittlichen Kosten für…

IT-Entscheidungsträger greifen für Data Warehouses und Datenbanken zur Cloud

Analysedaten in die Cloud verschieben: Das sehen 43 Prozent der Umfrageteilnehmer einer globalen Studie als einflussreichsten Cloud-Trend. In Deutschland gehen 37 Prozent der Befragten mit dieser Einschätzung mit. Die MariaDB Corporation befragte in einer globalen Studie deutsche und internationale IT-Führungskräfte zu allgemeinen Cloud- und Datenbanktrends und zu den Auswirkungen von Covid-19 auf IT-Entscheidungen. In Deutschland…

Datenbankadministratoren: Die stillen Krisenmanager

Während Security-Verantwortliche in der aktuellen Pandemiekrise in Unternehmen meist eine verstärkte Aufmerksamkeit zu Teil wird, geraten Datenbankadministratoren (DBAs) in Vergessenheit. Dabei sind sie denjenigen, die einen essenziellen Beitrag dazu leisten, dass digitale Geschäftsprozesse reibungslos ablaufen. Ihre alltäglichen Herausforderungen haben sich derzeit spürbar verstärkt. Daran lassen sich nicht zuletzt Entwicklungstendenzen für den IT-Markt ablesen.   Die…

Quantencomputer mit 1.000 Qubits für das Leibniz-Rechenzentrum in Garching

  Das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften (LRZ) in Garching bei München erhält seinen ersten Quantencomputer auf Basis neutraler Atome. Das vollständig digitale System mit 1.000 Qubits und einer neuartigen Multi-Core-Architektur wird vom deutschen Start-up planqc entwickelt und in die bestehende Infrastruktur für Hochleistungsrechnen (HPC) integriert. Für planqc ist dies bereits das zweite große…

Stromreduzierende Ansätze für eine nachhaltige GenAI-Entwicklung

Generative KI verbraucht Strom, sogar sehr viel Strom. Vor allem das Training der großen Sprachmodelle erfordert aufgrund der benötigten Rechenleistung eine enorme Menge an Energie. Dell Technologies nennt wichtige Maßnahmen, um den Verbrauch und die Umweltauswirkungen zu reduzieren. Stattliche 1.287 Megawattstunden soll 2020 das Training des Sprachmodells GPT-3 laut Forschern von Google und der Universität…

VOICE bittet EU-Kommission um Unterstützung gegen missbräuchliches Marktverhalten von Broadcom/VMware

VOICE – Bundesverband der IT-Anwender hat in einem offenen Brief an Kommissionspräsidentin Ursula von der Leyen erneut das missbräuchliche Marktverhalten von Broadcom und seiner Tochter VMware deutlich kritisiert und die Kommission gebeten, dieses Anwender-schädigende Verhalten zu unterbinden. Die Interessenvertretung fordert die Kommission auf, Broadcom/VMware zu Veränderung der Lizenzbedingungen in acht konkreten Bereichen zu bewegen.  …

Location Intelligence löst (mindestens) fünf große Herausforderungen für Unternehmen

Daten boomen, aber ein entscheidender Faktor wird oft übersehen: die Macht des Standorts. Wenn Unternehmen das »Wo« ihrer Daten verstehen, können sie strategisches Potenzial freisetzen. Die Einsatzmöglichkeiten von Location Intelligence sind nahezu unbegrenzt und beschränken sich nicht nur auf die Kartierung. Durch das Verständnis räumlicher Zusammenhänge entstehen Einblicke, die Unternehmen bisher verwehrt waren. So können…

Praxishilfe: Mit wenigen Klicks durch die KI-Verordnung navigieren

Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Zwei Drittel der Unternehmen brauchen Hilfe bei der Umsetzung des AI Acts.   Darf ich eine bestimmte KI-Anwendung anbieten oder in meinem Unternehmen verwenden? Und wenn ja, welche Voraussetzungen muss ich dafür erfüllen? Rechtliche Unsicherheiten sind für 40 Prozent der Unternehmen in Deutschland ein Hemmnis für…

Daten sammeln, und zwar ab sofort!

Ohne Daten keine KI – so einfach lässt sich die Erfahrung beschreiben, die viele Unternehmen derzeit machen. Eigentlich würden sie gerne datengetrieben arbeiten und mit KI-Anwendungen Themen wie dem Fachkräftemangel, gestörten Lieferketten oder anderen drängenden Problemen entgegenwirken. Doch sobald es an die Umsetzung konkreter Initiativen oder Projekte geht, stellen viele fest, dass ihnen die benötigten…

Jobsuche in Dauerschleife

Aktuelle Studie zur Jobsuche: Jeder fünfte Bewerber (und Bewerberin) sucht während der Arbeitszeit nach einem neuen Arbeitgeber.   Die aktuelle Arbeit ruhen lassen, um eine neue zu finden – so verfahren immer mehr Bewerber und Bewerberinnen. So lautet das Ergebnis einer aktuellen Studie, die das Stellenportal jobtensor.com in Auftrag gab und für die 1.000 Bewerbende…

Fax und Diskette sind den meisten Kindern unbekannt

Kassettenrekorder noch am bekanntesten. Weniger als die Hälfte der 6- bis 9-Jährigen kennt noch Telefonzellen. Zum Vergleich: Vom Internet haben bereits 98 Prozent der Jüngsten gehört.   Diskette, Schreibmaschine und Fax – früher Alltag im Büro und den eigenen vier Wänden – heute für viele Kinder und Jugendliche ein Rätsel. Insgesamt knapp drei Viertel (73…

Bosch migriert Lösung zur Produktionsplanung auf eine resiliente und effiziente Anwendungsplattform

Bosch hat seine Softwarelösung ProCon für die Produktionsplanung, die von 90 Werken genutzt wird, erfolgreich auf die Bosch Private Cloud migriert, die auf der Technologie von Red Hat basiert. Die Umstellung erfolgte nahtlos in einem einjährigen Migrationsprojekt und führte zu einer gesteigerten betrieblichen Effizienz sowie zu erheblichen Verbesserungen bei der Skalierbarkeit und Ausfallsicherheit. Zudem wurden…

USU KAI – intelligenter KI-Assistent setzt neue Maßstäbe für Qualität und Effizienz im Kundenservice

Die USU-Gruppe hat ihren neuen KI-Assistenten KAI vorgestellt, der die Effizienz und Qualität im Kundenservice maßgeblich verbessern soll. Der neue Assistent ist Teil des USU Knowledge Management Systems. Mit einem besonderen Fokus auf Präzision, Konsistenz und Anpassungsfähigkeit setzt KAI neue Maßstäbe in der Anwendung von künstlicher Intelligenz im Kundenservice. Details werden in einem neuen, kostenfrei…

Cyber Resilience Act verabschiedet – Der Paradigmenwechsel für Produkt-Cybersicherheit

Jan Wendenburg: »Der Cyber Resilience Act wurde am 10. Oktober vom EU Council verabschiedet und verankert die Cybersecurity verpflichtend für alle Hersteller. Vernetzte Geräte müssen so entwickelt werden, dass sie über den gesamten Lebenszyklus hinweg mit aktueller Software vor Cyberangriffen geschützt sind.«   »Mit dem Cyber Resilience Act (CRA) wird erstmals der Grundsatz ›Security by…

Durch Cloud-Ausstieg mehr Geld für Investitionen

Aus finanzieller Sicht stellt sich für viele Unternehmen, die ihre IT in den vergangenen Jahren in die Cloud verlagert haben, mittlerweile die Frage »Wieder raus aus der Cloud und zurück ins eigene Rechenzentrum?« oder bleiben. Das Unternehmen 37signals hat sich für seinen Auszug aus der Cloud u.a. für Systeme von Pure Storage entschieden und konnte…

Trotz Backups erleiden Unternehmen Datenverlust

IDC-Studie deckt die Schwächen von Recovery-Strategien auf. 48 Prozent der befragten Unternehmen zahlten trotz verfügbarer Backups Lösegeld. In einem Drittel der Fälle erlitten die Unternehmen Datenverlust. Ein ganzheitlicher Ansatz für DR und Cyber-Recovery ist notwendig.   Zerto, ein Unternehmen von Hewlett Packard Enterprise, stellt seine jährlich von IDC durchgeführte Studie zum Stand der Vorsorge gegen…

Auswirkung von KI auf die Arbeitswelt: Welche Berufe sind besonders betroffen?

Die Arbeitsmärkte weltweit werden sich zwangsläufig verändern, wenn die Entwicklung der KI in der Arbeitswelt allgegenwärtig wird. Glücklicherweise sind Arbeitnehmer mit Hochschulausbildung am besten dafür geeignet, sich den durch KI ausgelösten Veränderungen zu stellen und der Verdrängung von Arbeitsplätzen entgegenzuwirken [1]. Vor diesem Hintergrund wollten die Lebenslaufexperten von cvapp.de herausfinden, welche deutschen Hochschulabsolventen am besten…

Cybersecurity Awareness Month: Überprüfen Sie Ihre E-Mail-Adresse. Jetzt!

Anlässlich des Cybersecurity Awareness Month im Oktober bietet Surfshark einen neuen, kostenlosen Data Leak Checker an, mit dem Nutzer auf einfache Art und Weise ihre persönlichen Daten im Internet überprüfen können. Mit diesem Tool, das von Surfshark Alert betrieben wird, können Benutzer durch einfache Eingabe ihrer E-Mail-Adresse überprüfen, ob ihre persönlichen Daten durch ein Datenleck…

Erfolgreiche KI-Projekte beginnen mit dem Readiness-Check

  Das KI-Potenzial ist praktisch unerschöpflich. Doch um es richtig zu nutzen und daraus echte Wettbewerbsvorteile zu generieren, muss vorab die Bereitschaft des Unternehmens dafür geklärt werden. Der IT-Dienstleister CGI erklärt, warum der Readiness-Check so wichtig ist, was er genau analysiert und was mit den daraus gewonnenen Erkenntnissen passiert.   Künstliche Intelligenz ist für Unternehmen…

Snom erweitert seine D8xx-Deskphone-Serie um drei neue Produkte

Die zwei neuen IP-Endgeräte D812 und D815W sowie das Erweiterungsmodul D8C ergänzen die Snom D8xx-Produktlinie nahtlos und bieten zu attraktiven Einstiegspreisen alles, was für zeitgemäße Bürokommunikation erforderlich ist.   Snom, Premiummarke der IP-basierten Kommunikation, kündigt die sofortige Verfügbarkeit zwei neuer IP-Endgeräte und eines Erweiterungsmoduls für seine D8xx-Serie an. D812 Mit dem D812 bietet der Hersteller…

 

 

Ohne guten Daten keine gute KI: Wie Daten für generative KI optimiert werden

Die Markteinführung von OpenAI ChatGPT hat eine wahre Welle der Begeisterung für generative künstliche Intelligenz (KI), insbesondere für Large Language Models (LLMs) ausgelöst – und ein Ende ist nicht abzusehen. Fast täglich entstehen neue Produkte, Unternehmen und Angebote im Bereich der generativen KI. Auch Unternehmen setzen zunehmend auf LLMs, um sich wettbewerbs- und zukunftsfähig aufzustellen.…

Cloud und KI bestimmen den Datenbanksektor

Überraschend viele Unternehmen hosten ihre Datenbanken in der Cloud. Allerdings gibt es auffällige Unterschiede zwischen den Branchen, im Hinblick auf die Cloud Journey. Zudem setzen Unternehmen immer öfter künstliche Intelligenz (KI) für deren Management ein.   Für die diesjährige Studie »State of the Database Landscape« hat Redgate weltweit 3.800 IT-Fachleute befragt, darunter auch Experten von…

Open-Source-Datenbank-Checkliste: Diese Eigenschaften von PostgreSQL sollten User kennen

PostgreSQL erfreut sich international großer Beliebtheit, und auch in Deutschland steigen die Nutzerzahlen der Open-Source-Datenbank. Auf welche sechs Eigenschaften von PostgreSQL sollten potenzielle Nutzer achten.​   Die Skepsis gegenüber Open-Source-Alternativen zu proprietären Lösungen nimmt stetig ab. Viele quelloffene Projekte haben über die letzten Jahrzehnte bewiesen, dass sie keinesfalls hinter kommerziellen Produkten zurückstehen – weder bei…

DSAG 2022: Die neue Realität technisch abbilden

»New normal – IT is. Chancen erkennen, Potenziale entfesseln« lautet das Motto der Technologietage 2022 der Deutschsprachigen SAP-Anwendergruppe e. V. (DSAG) am 03. und 04. Mai im CCD Congress Center Düsseldorf. Die Pandemie hat an vielen Stellen Geschäftstransformationen beschleunigt. Und es zeigt sich, dass diese Entwicklungen keine vorübergehende Modeerscheinung sind, sondern tatsächlich zur neuen Realität,…

Supermicro gibt das weltweit erste TPCx-HCI-Benchmark-Ergebnis bekannt

Supermicro, AMD und VMware arbeiten zusammen, um eine noch nie dagewesene Leistung für HCI-Datenbank-Workloads zu liefern. Super Micro Computer, Anbieter von High-Performance-Computing-, Speicher-, Netzwerklösungen und Green-Computing-Technologie, gibt das erste veröffentlichte TPCx-HCI-Benchmark-Ergebnis mit einer gemessenen Leistung von 4.790,18 tpsHCI bei 49,60 $/tpsHCI bekannt. In Zusammenarbeit mit AMD und VMware nutzte Supermicro AMD EPYC™ Prozessor-basierte Server der…