Big Data, Cloud, Rechenzentrum – Auf dem Weg zum digitalen Unternehmen

n_7-8-2016_360

Wachsende Datenmengen lassen sich am besten in einem Rundum-sorglos-Paket für die Installation, den Betrieb, das Management und die fortlaufende Wartung der Speichersysteme handhaben.

Die IT in Unternehmen hat sich in den letzten Jahren enorm verändert. Das Datenvolumen steigt kontinuierlich an. Zur Beschreibung dieses Phänomens verwendet man den Begriff Big Data, der zum einem die Datenmenge, zum anderen aber auch die Art und Weise, wie mit den Daten umgegangen wird, beschreibt. Informationen zu nutzen und auszuwerten wird für immer mehr Unternehmen zur Selbstverständlichkeit im Geschäftsalltag und die Verantwortlichen im Management setzen verstärkt auf Datenanalysen, um möglichst treffsichere Entscheidungen zu fällen.

Mehr als ein Drittel (35 Prozent) der Unternehmen in Deutschland nutzen heute Big-Data-Analysen für die Auswertung großer Datenmengen. Ein knappes Viertel der Unternehmen (24 Prozent) verfolgt konkrete Pläne in Sachen Big-Data-Nutzung, weitere 18 Prozent diskutieren zumindest darüber. Das hat eine repräsentative Umfrage von Bitkom Research und KPMG unter 704 Unternehmen und 102 Verwaltungen mit mehr als 100 Mitarbeitern ergeben [1].

Datenschutzanforderungen müssen bei Big-Data-Projekten frühzeitig berücksichtigt werden, damit die Datenschutz-Compliance sichergestellt wird und keine Rechtsrisiken folgen. Das Datenvolumen verbunden mit den gesetzlichen Regelungen führen zu einem überproportional ansteigenden Aufwand für die Informationsspeicherung, -verfügbarkeit und -sicherheit. Das Thema Backup as a Service und die Lagerung einer Datenkopie außer Haus nimmt daher in Unternehmen einen immer größeren Stellenwert ein. Warum? Verbunden mit der steigenden Komplexität der IT-Infrastruktur ist das Thema Backup – und in einem noch stärkeren Maße die Wiederherstellung von Daten, das sogenannte Desaster Recovery aus dem Backup – ein wesentlicher Faktor im IT-Bereich. Entsprechend entwickelt sich Backup in die Cloud zu einem immer wichtigeren Diskussionspunkt und auch das Thema Backup as a Service ist mehr und mehr in aller Munde.

Unternehmensdaten verstehen und strategisch nutzen. Die Informationsflut hat Folgen für die Konzeption der Infrastruktur. Bei der Planung eines Rechenzentrums geht man heute anders vor als noch vor einigen Jahren. In der Regel hat man bisher erst einmal entschieden, wie viele Server benötigt werden. Auf dieser Grundlage wurden die Art und der Umfang der erforderlichen Infrastruktur festgelegt. Heutzutage allerdings geht man von den Daten als Ausgangspunkt aus. Die Entscheidung steht im Raum, wie Informationen verwendet werden sollen und welcher Nutzen daraus gezogen werden soll. Hierfür werden Kenntnisse über den Ursprung der Daten und die nötigen Netzwerkverbindungen für deren Übertragung benötigt. Auf strategischer Ebene haben IT-Verantwortliche hier Entscheidungen zu treffen, die das Rechenzentrum betreffen.

Mehr Erkenntnisse und finanziellen Nutzen gewinnen aus Big-Data-Projekten. Mit einem Data Lake kann man Speicheranforderungen moderner Rechenzentren gerecht werden. Ein Data Lake ist ein Scale-out-Speichersystem für die Datenkonsolidierung und fungiert als Data Warehouse für moderne Rechenzentren. Dadurch kann mittels herkömmlicher Verfahren und Methoden der nächsten Generation auf Big Data zugegriffen werden. Zur Wertschöpfung tragen schnelle Analysen bei. Data Lake hat enorme Speicherkapazitäten, womit man wachsenden Storage-Anforderungen gerecht wird. Die Vorteile liegen im Konsolidieren, Optimieren und Analysieren. Konsolidieren bedeutet, dass Silos eliminiert, Kosten gesenkt und Abläufe vereinfacht werden können. Darüber hinaus kann die Speicherumgebung mit einer bewährten Scale-out-Plattform der Enterprise-Klasse für unstrukturierte und strukturierte Daten optimiert werden.

Die Plattform nutzt ein einziges Volume mit enormen Speicherkapazitäten, das sich ohne Datenmigration einfach verwalten lässt. Optimieren schließt mit ein, dass die Effizienz gesteigert und Ressourcen optimal eingesetzt werden. Dadurch verbessert man die Speicherumgebung mit flexiblen Bereitstellungs- und Datensicherheitsfunktionen wesentlich. Eine Erweiterung der Infrastruktur ist nahtlos in die Cloud möglich. Big Data-Analysen können zur Entscheidungsfindung für neue Erkenntnisse genutzt werden

Infrastrukturen zur Unterstützung des neuen Datenmodells schaffen. Neben der datenbezogenen Entscheidung stehen die Konzeption der entsprechenden Infrastruktur und die Beschreibung der hierfür nötigen Veränderungen. Die Cloud und deren bestmögliche Nutzung sind hierbei ein wichtiger Aspekt: Wie groß soll der Anteil der Unternehmens-IT sein, der in die Cloud verlagert wird? Wohin gehören unterschiedliche Workloads und Datensätze? Wie lange sollen sie dort lagern? Es kann sein, dass die Daten aus der Cloud in das Rechenzentrum und wieder zurück übertragen werden. Die Infrastruktur muss an diese Anforderungen angepasst werden. Möglicherweise indem man das Rechenzentrum näher an die Cloud heranbringt. Besitzt das Unternehmen überhaupt noch ein eigenes Rechenzentrum? Falls ja, möchte es dieses auch selber betreiben? Oder bietet es sich an, während des laufenden oder des nächsten Modernisierungszyklus auf eine extern gehostete Lösung umzusteigen? Zu beachten sind dabei Fragen zur Netzwerkkapazität des Anbieters und zur Sicherheit der Cloud-Plattform. Für IT-Entscheider empfiehlt es sich frühzeitig die Fundamente für Infrastrukturen zu schaffen, die zum neuen Datenmodell passen. Sie sollten sich Gedanken machen, wie Netzwerke, Cloud und Sicherheit in einem hybriden IT-Umfeld zusammengeführt werden können.

Bei IT-Entscheidungen die Unternehmensbedürfnisse im Auge behalten. Neben der Infrastruktur gilt es, deren zukünftigen Entwicklungen und ihre Anpassung an die Bedürfnisse des Unternehmens im Blick zu haben. IT-Entscheider sollten beachten, welche Workloads sich beispielsweise am besten für eine Auslagerung in ein Cloud-basiertes Modell eignen – im Rahmen eines Managed-Services-Angebots – und welche innerhalb eines virtualisierten Umfelds verbleiben sollten. Mehr und mehr Unternehmen haben die Vorteile der Auslagerung von Anwendungen in gehostete Modelle schon erkannt: Der Entwicklungsaufwand für eine Migration in ein vollständiges Cloud-Modell entfällt dabei. Die Unternehmen können ihre IT-Kosten reduzieren. Entscheidungen bei der Gestaltung der Infrastruktur sollten dabei jedoch immer unternehmens- und nicht mehr technologiezentriert getroffen werden.

Vom Hosting zum Rundum-sorglos-Paket in der Kombi mit Managed Services. MTI Technology beispielsweise ist der erste EMC-Service-Enabled-Partner für Isilon-Systeme in Deutschland. In Kombination mit den MTI Managed Services erhalten Kunden ein Rundum-sorglos-Paket für die Installation, den Betrieb, das Management und die fortlaufende Wartung von Speichersystemen. In Verbindung mit den professionellen MTI Technology Services haben Kunden nicht nur die Vorteile der klassischen Wartung und Reparatur, sondern auf Wunsch auch eine komplette Remote-Überwachung sowie ein Remote-Management. Somit kann je nach vereinbartem Service Level nicht nur der komplette Betrieb samt fortlaufendem Management automatisiert übernommen werden, sondern Kunden wird ein zusätzliches Zeitkontingent verschafft, das für andere Aufgaben im Unternehmen genutzt werden kann.


autor_martin_traegerMartin Träger,
Sales Director,
MTI Technology

 

 

 

[1] https://www.bitkom.org/Presse/Presseinformation/Jedes-dritte-Unternehmen-nutzt-Big-Data.html
Bilder: © MTI 

Schreiben Sie einen Kommentar