Studie: Big Data wird zunehmend zum Problem für Rechenzentren

foto Tata Communications data centre facilityBig Data wird immer mehr zu einem Problem für Rechenzentren. Laut einer aktuellen Studie [1] gehen 77 Prozent der befragten IT-Experten davon aus, dass die wachsende globale Datenflut zu einer zunehmend großen Herausforderung für Rechenzentren wird. Tendenz steigend: Für das Jahr 2020 gehen bereits 82 Prozent der Fachleute von Problemen aus.

Diese Zahlen verwundern nicht angesichts der Geschwindigkeit, mit der Big Data derzeit voranschreitet. So rechnen die Marktforscher von IDC damit, dass sich das weltweite Datenvolumen bis 2020 verzehnfachen wird – von derzeit 4,4 auf 44 Zettabyte. Laut Benjamin Schönfeld, Geschäftsführer von LeaseWeb Deutschland, muss der stetig wachsenden Datenflut mit effizienten und innovativen Lösungen entgegengetreten werden. Einen Ausweg sieht der Speicherexperte unter anderem in nanobasierten Speichertechnologien.

Nanobasierte »Racetrack-Speicher« bis 2020 serienreif

Die Experten sind sich laut der Studie einig, dass die meisten Rechenzentren in puncto Kapazitäten (Server, Storage, Netzwerk) wachsen werden (73 Prozent). Schönfeld sieht in modernen Nanolösungen großes Potenzial, um den Speichermarkt und damit auch die Rechenzentrumslandschaft zu revolutionieren: »Diese innovativen Technologien ermöglichen, verglichen mit heutigen Flashspeichern, das Hundertfache der aktuell möglichen Speicherdichte und extrem kurze Zugriffszeiten.« Die Datacenter Expert Group im eco – Verband der deutschen Internetwirtschaft e. V. geht davon aus, dass die ersten nanobasierten »Racetrack-Speicher« schon 2020 serienreif sein werden und dann bisherige Speicherarchitekturen kontinuierlich ablösen. Dementsprechend rechnen auch 71 Prozent der befragten IT-Experten damit, dass die Nanotechnologie im Jahr 2020 das Problem des wachsenden Speicherbedarfs lösen wird.

Internet der Dinge wird Hauptverursacher für Datenflut

Der Geschäftsführer von LeaseWeb Deutschland sieht die rasch voranschreitende globale Digitalisierung als Hauptursache für die stetig und immer schneller steigende weltweite Datenmenge an. »Vor allem das Internet der Dinge und die damit verbundene zunehmende Verbreitung von vernetzten Produkten, funk- und softwarebasierten Geschäftsmodellen werden dafür sorgen, dass sich der Datenbestand künftig alle zwei Jahre verdoppeln wird«, betont Schönfeld. Noch im Jahr 2002 lag die geschätzte Speicherkapazität aller Rechenzentren weltweit bei einem Petabyte (PB). Ein PB entspricht 0,000001 ZB. Heute bewegen sich die Datenmengen bereits im Zettabyte-Bereich. Ein Zettabyte ist eine Zahl mit 21 Nullen und entspricht einer Trilliarde Byte.

[1] Studie von Hostinganbieter LeaseWeb