Die Demokratisierung des Wettbewerbs

screen (c) transtec

Wie immer sind sich die Marktanalysten nicht ganz einig, aber deren Prognosen zeigen zumindest in die gleiche Richtung: Big Data ist auf dem Vormarsch (wer wusste das nicht?), die Machine-to-Machine-Kommunikation nimmt zu, das Internet der Dinge klopft an die Tür, und wer meint, in Zukunft ohne digitale Transformation auskommen zu können, hat sich gehörig geschnitten.

So unterschiedlich sie sind, so sehr haben all diese Bereiche doch eine Gemeinsamkeit: sie generieren gigantische, heterogene Datenmengen, deren Speicherung, Filterung und Analyse klassische IT-Systeme hoffnungslos überfordern. Natürlich ist es möglich, solche Daten lediglich einer »Light-Bearbeitung« zu unterziehen, so dass eine einfache Steuerung von Systemen oder die Gewinnung rudimentärer Erkenntnisse möglich sind. Diese Vorgehensweise wäre allerdings schon fast sträflich, denn erstens werden die genannten Systeme und Konzepte genau mit dem Ziel implementiert, viele Daten zu generieren, und zweitens verbergen die entstandenen Daten ein deutlich wertvolleres, geradezu unbezahlbares Potenzial: Wissen.

Die präzise Analyse all dieser Daten (oft auch in Echtzeit) bringt nuancierte Erkenntnisse hervor, wie sie bislang nicht möglich waren. Sie erlauben nicht nur, auf Aktionen zu reagieren, sondern auch Zustände und Verhalten präzise zu antizipieren. Damit kann etwa die Produktentwicklung perfektioniert, die Steuerung der Fertigung verbessert, die Instandhaltung von Maschinen optimiert oder das Einkaufsverhalten von Kunden vorweggenommen werden (Stichpunkt hier: predictive analytics). Am Ende des Tages heißt das: Reduzierung von Kosten, Verbesserung von Produkten, besseres Pricing, Erhöhung der Wettbewerbsfähigkeit, und glücklichere Kunden.

Konventionelle IT-Systeme sinken, wie erwähnt, bei der mit dieser Vorgehensweise einhergehenden Rechenlast unwiderruflich in die Knie. Performante HPC-Rechner oder -Cluster bieten sich hier alternativ an. Das mag einige IT-Verantwortliche erschrecken; die uneingeschränkt gute Nachricht aber ist, dass HPC-Cluster mittlerweile x86-basiert und damit standardisiert sind, deshalb auch für weniger üppige Budgets in Frage kommen. Wir sprechen von Systemkosten ab 25.000 Euro, das sollte auch für kleinere Unternehmen problemlos erschwinglich sein.

Solche HPC-Cluster sind mit der Leistung früherer Groß- und Supercomputer durchaus vergleichbar. So banal dieser Vergleich klingt (siehe Moore’s law), so groß ist doch dessen Tragweite, denn mit dem, was die heutigen HPC-Cluster bewerkstelligen, sorgen sie für die Demokratisierung beim Computereinsatz: Unternehmen, egal welcher Provenienz oder sonstiger Couleur, verfügen damit stets über ausreichend Rechenleistung, die noch vor wenigen Jahren nur Großunternehmen oder Forschungseinrichtungen vorbehalten war. Auch die kleinsten Unternehmen haben damit die verbrieften Rechte auf hohe Effizienz, schnelle Entwicklung, geringere Kosten, starken Wettbewerb und fundiertes Wissen – genauso wie die großen.

Soweit zu den guten Nachrichten. Und die schlechten? Die gibt es nicht.

Hans-Jürgen Bahde

Hans-Jürgen Bahde ist Vorstand des IT-Dienstleisters und HPC-Spezialisten transtec AG in Reutlingen, Foto: transtec

Weitere Artikel zu