Objektspeicher rettet die Datenwelt

Hochauflösende Medien, mehr mobile Geräte und die allgemeine Digitalisierung von Inhalten lassen die Menge unstrukturierter Daten exponentiell anwachsen. Die Technologien derzeitiger NAS- und SAN-Infrastrukturen können mit diesem nie da gewesenen Wachstum einfach nicht Schritt halten.

Backup und Wiederherstellung dauern länger, Datenmigrationen auf neue Systeme sind arbeitsintensiv und die Provisionierung des Speichers muss häufig manuell nachjustiert werden. Objektspeicher (Object Storage) schickt sich an, diese Herausforderungen zu meistern. Was zeichnet Objektspeicher aus, was ist der Unterschied zu bisherigen Technologien und welche Standards setzen sich am Markt durch?

Ein Überblick von Jacco van Achterberg, Cloudian.

Wir alle sind bereits in irgendeiner Weise Nutzer von Objektspeicher, ohne es zu wissen. Google Docs, Dropbox, Instagram, Twitter – all diese Dienstleister vertrauen bereits auf Objektspeicher, um ihre immensen unstrukturierten Datenmengen zu sichern. Abseits von diesen bekannten Marken nutzen auch Großunternehmen bereits diese Technologie für Speicherung von Mediendaten, Backup, Archivierung, Datenanalyse, Private Cloud und das Teilen von Dateien. Unabhängig von den Facebooks, Netflixes und Amazons dieser Welt, die ohnehin schon auf Objektspeicher setzen, wird der Markt für Objektspeicher – wenig überraschend – in den nächsten Jahren stark wachsen.

Wie genau funktioniert Objektspeicher?

Objektspeicher vereint mehrere Charakteristiken. Zum einen wird das Speichern der Daten komplett von der Hardware losgelöst, auf dem sie gespeichert wird. Damit werden Daten mobiler, können sehr einfach migriert werden und stehen Applikationen einfacher zur Verfügung. Das Loslösen der Daten von der Hardware vereinfacht auch die Skalierung und erlaubt simple Integration und Entwicklung für Anwendungen. Auch ist Objektspeicher sehr effizient – er braucht nur genau so viel Speicher wie die Datengröße, ohne aufwendige Voreinstellung von Daten-Containern.

Objekte sind wie Mäntel

Objekte sind natürlich auch Daten, allerdings nur im Prinzip so wie Dateien. Anders als bei Dateien sind Objekte nicht hierarchisch organisiert, sondern existieren wie alle anderen Objekte auf dem gleichen flachen Speicherpool. Objekte können nicht innerhalb von anderen Objekten gespeichert sein und haben, genauso wie Dateien, Metadaten. Bei Objektspeicher sind diese Metadaten jedoch mit einem einzigartigen Identifizierungscode erweitert, der es dem Server erlaubt, das Objekt zu finden, ohne dass dieser überhaupt weiß, wo es gespeichert ist.

Man stelle sich einen Opernbesuch vor. Man gibt seinen Mantel an der Garderobe ab und bekommt einen Abriss mit einer Nummer darauf. Man weiß nicht, wo genau der Mantel ist, oder auch nicht ob der Mantel während der Vorstellung im Hintergrund herumgeräumt wird. Das muss man auch nicht, da ja die Garderobenhilfe weiß, wo der Mantel ist. In dieser Analogie ist der Identifizierungscode des Objektspeichers der Abriss, der Mantel sind die Daten und der Opernbesucher ist der Nutzer, der seinen Mantel, also die Daten, irgendwann wiederhaben will. Ein über Jahrhunderte bewährtes Prinzip, das also auch bei Objektspeicher Anwendung findet.

Welche Standards gibt es bereits?

Drei unterschiedliche Standards haben bisher Zugkraft entwickelt, von denen sich einer in der Nutzergunst bereits abgesetzt hat:

  • CDMI, definiert und entwickelt von der SNIA, der Storage Industry Networking Association, hat bei Herstellern von Objektspeichern bisher wenig Anklang gefunden.
  • Etwas populärer Ansatz ist OpenStack Swift, ein Open Source API, den Hersteller mehr und mehr unterstützen, um ihre Produkte kompatibel mit OpenStack Nova zu machen.
  • Der absolute Platzhirsch ist jedoch Amazon S3, wenn man sich die sehr große Anzahl von Anwendungen (mehr als 500) und die bereits sehr große Verbreitung ansieht.

Big Data? Nein, Really reallly really Big Data!

Der Speichermarkt als Ganzes wird natürlich von der massiven Steigerung der Datenmenge getrieben und bei Objektspeicher ist das nicht anders. Milliarden von Nutzern, konstant mit dem Netz verbunden, kreieren nun einmal rund um die Uhr neue Daten. Und diese werden so gut wie nie wieder gelöscht werden, ob nun aus Compliancegründen, aus Gewohnheit oder einfach nur, weil man sie ja vielleicht noch einmal brauchen könnte. Bis 2020 sollen es rund 1,8 Zettabyte sein, also rund eine Milliarde Terabytes, um eine Einheit zu nutzen, unter der man sich Mensch noch etwas vorstellen kann.

Die Mehrheit aller Daten, geschätzte 80 Prozent, werden in Zukunft unstrukturiert vorliegen und damit natürlich Einfluss auf die Speicherstrategien von Unternehmen haben. Unternehmen speichern im Schnitt bereits heute 285 TB an Daten, und ihre IT-Abteilungen haben entsprechend Probleme, dies kostengünstig mit einem gleichbleibenden IT-Budget zu verwalten. Für KMUs geht der Budget-Trend sogar nach unten: 451 Research hat im Jahr 2014 fallende Budgets von minus 19 Prozent feststellen können. Hört man sich unter IT-Managern um, hält dieser Trend auch 2015 an und es wird händeringend nach Strategien gesucht, um dieses Problem zu beheben.

Schlussendlich muss man festhalten, dass die Datenexplosion und die damit verbunden Kostenexplosion nicht mit den vorhandenen Budgets von Unternehmen vereinbar sind. Unternehmen müssen sich ernsthaft Gedanken machen, wie sie ihre Speicher-Infrastruktur ändern können, um der Datenexplosion Herr zu werden. Für diejenigen Unternehmen, die einen hohen Anteil an unstrukturierten Daten haben, wird wohl kein Weg an Objektspeicher vorbei führen.

foto autor Jacco van Achterberg cloudianJacco van Achterberg ist Sales Director EMEA bei Cloudian und seit Jahren an der Speerspitze moderner Speichertechnologien tätig. Bei Nexenta leitete Achterberg ebenfalls den Vertrieb in EMEA für die SDS-Produkte. Im Lauf seiner Karriere hatte Achterberg Positionen bei Tiscali und Brain Force inne.

Weitere Artikel zu