Welchen Nutzen bietet »Data-as-a-Service«?

Wer profitiert von der Virtualisierung von Rechenleistung? Die Antwort ist, nach Meinung von Datenspezialisten, einfach – alle: Anwendungsentwickler, QM-Tester, IT-Betriebspersonal, das UAT-Team (Benutzerakzeptanztests), der Support für die Produktionsumgebung und das Datenanalytik-Team. Die Zielgruppe ist vielfältig – und sie gilt auch für »Data-as-a-Service«.

»Nehmen wir an, ein Unternehmen hat eine geschäftskritische Anwendung unter Verwendung einer Unternehmensdatenbank wie Oracle, MS SQL oder DB2 im Einsatz. Wer benötigt eine Kopie dieser Produktionsdatenbank?«, fragt Thorsten Eckert, Sales Director DACH bei Actifio. »Im Laufe der Jahre, im Zusammenspiel mit Hunderten von Kunden, kommt eine Liste von verschiedenen internen Teams zusammen, die immer wieder Kopien von Produktionsdaten verlangen.«

Dazu zählt Actifio die folgenden:

Anzeige

  1. Datenbankadministratoren, um Datenbankschemaänderungen zu testen und Performanceanalysen durchzuführen.
  2. Anwendungsentwickler – für Unit-Tests.
  3. Das Build-Team – für Integrationstests.
  4. Das Automatisierungs-QM-Team – für automatisierte Tests.
  5. QM-Ingenieure – für manuelle QM-Tests
  6. Das UAT-Team für Performance-Tests
  7. Das Pre-Production-/Staging-Team – für Ad-hoc-Sicherheits-, Anwendungs- und OS-Patch-Tests.
  8. Das Sicherheitsteam, um zu testen und Sicherheitslücken zu verhindern.
  9. Das Produktions-Support-Team – für Ursachenanalyse und Wartungs-Patches.
  10. Das Data-Warehousing- und Analytik-Team – zum Analysieren von Terabytes von Daten.
  11. Finanzanalysten, welche am Ende eines jeden Quartals Zahlen benötigen.
  12. Das Backup-/Disaster-Recovery-Team, um sofortige Wiederherstellungen von Backups durchzuführen.
  13. Das Compliance-Team, um sicherzustellen, das Daten aus der langfristigen Archivierung wiederherstellbar sind.
  14. Das Trainingsteam zur Demo von Produkten für interne/externe Kunden.

 

Der gemeinsame Nenner ist, dass alle Zugang zu den wertvollen Produktionsdaten benötigen. Allerdings, brauchen alle die Daten zur gleichen Zeit? Wahrscheinlich nein. Aber brauchen alle die Daten innerhalb eines Monats oder eines Quartals? Ja.

Traditionell erhalten diese Funktionsteams Zugriff auf die benötigen Daten über langwierige, aufwändige manuelle Prozesse, beginnend mit dem Öffnen eines Tickets, gefolgt von der Bereitstellung von Rechenkapazität und Speicherplatz durch einen IT-Mitarbeiter und dann das Klonen und Maskieren der Datenbank durch den Datenbankadministrator. Solche manuellen Prozesse und das physische Klonen verlangsamen zwangsläufig den Datenzugriff.

Anzeige

»Daten als Service« durch Datenvirtualisierung

Was eigentlich effizienter wäre, ist unmittelbarer Self-Service-Zugriff auf die erforderlichen Daten, um datenintensive Prozesse schneller voranzutreiben. Datenvirtualisierung ist eine Strategie, um für diese Benutzer »Daten als Service« zu liefern, so einfach wie das Streamen eines Films auf Netflix. Es sollte tatsächlich so einfach sein, dass ein Endbenutzer (dem auf Basis einer rollenbasierten Zugriffssteuerung Zugang gewährt wurde), auf eine Schaltfläche klickt und eine maskierte Kopie der Produktionsdatenbank sofort auf seinem Testgerät zur Verfügung hat.

Aber wie ist es möglich, eine Kopie einer 10- oder 50-TB-Datenbank »sofort« zu bekommen? Es ist nur möglich, wenn eine virtuelle Kopie statt einer physischen Kopie bereitgestellt wird. Eine virtuelle Kopie vermittelt die Illusion, dass jeder Benutzer seine eigene private Kopie einer 10 TB oder 50 TB großen Datenbank hat. Die Lesevorgänge aller virtuellen Kopien kommen dabei aus einer einzigen »goldenen« Master-Kopie des Produktionsdatensatzes. Der Ablauf bei diesem Prinzip der Copy-Data-Virtualisierung ist folgendermaßen:

  1. Nur geänderte Blöcke werden von der Produktionsdatenbank in der goldenen Master-Kopie aktualisiert. Die goldene Kopie kann in jeder beliebigen Speicherumgebung, auf jedem Hypervisor, in der Private-, Public- oder Hybrid-Cloud bereitgestellt werden.
  2. Sensible Daten können maskiert werden mittels eines entsprechenden Workflows. Der Workflow fordert Masking-Scripts an oder involviert deren bestehendes Data-Masking-Tool.
  3. Endnutzer nutzen dann »Daten als Service« durch die Self-Service-Bereitstellung von »virtuellen« Kopien auf ihren Testmaschinen.
  4. Die Lesevorgänge in allen virtuellen Kopien werden abgerufen von der goldenen Kopie.
  5. Die Schreibvorgänge auf jede virtuelle Kopie werden jeweils für diese virtuelle Kopie auf der goldenen Kopie gespeichert.

 

»Für die Benutzer ist Data-as-a-Service in jeder beliebigen Speicherumgebung und auf jedem Hypervisor verfügbar. Daten können auch zur Cloud repliziert werden, so dass die Benutzer »on demand« sowohl Rechenkapazität als auch Daten »als Service« in einer Public oder Private Cloud nutzen können«, erklärt Thorsten Eckert abschließend. »Das Ergebnis ist effizientes Datenmanagement, basierend auf einer intelligent verwalteten virtuellen Datenbasis.«


 

Hier folgt eine Auswahl an Fachbeiträgen, Studien, Stories und Statistiken die zu diesem Thema passen. Geben Sie in der »Artikelsuche…« rechts oben Ihre Suchbegriffe ein und lassen sich überraschen, welche weiteren Treffer Sie auf unserer Webseite finden. Diese Auswahl wurde von Menschen getroffen und nicht von Algorithmen.

 

Datenvirtualisierung: Überbrückung der Technologielücke mit Hybrid-IT

Rechenzentrum: Datenvirtualisierung löst Konflikt zwischen Datenexplosion und Energiebedarf

Trendprognose: Die Rechenzentrumsinfrastruktur 2017

IT-Strategie – neue alte Perspektiven: Digitale Transformation ist keine Selbstverständlichkeit

Die Sicherheit von virtuellen Umgebungen ist oft besorgniserregend

Schnelle Entwicklung von Software in guter Qualität ist große Herausforderung für Unternehmen

Die vier Kernkompetenzen moderner CIOs

Hybrid-IT: CIOs tun sich schwer mit der digitalen Disruption

Datenstrategie: Top 5 Data-Trends für 2017

Was ist der Business Value der digitalen Welt?

Stand der Virtualisierung der Geschäftsapplikationen im RZ