Cloud und Preistransparenz: Nobody is Perfect

Illustration: Chutnarong Absmeier

Eine Thematik, die es vor fünf Jahren schon einmal gab, taucht in letzter Zeit wieder häufiger auf: Sind die eigenen IT-Lösungen, die seit Jahren gewachsen und von einem eingespielten Team betreut werden, wirklich überholt, zu langsam, zu teuer, weil es ein schickes Dashboard für Self-Service-BI gibt, das in Sekundenschnelle aus Daten eine Idee erzeugt oder Diagramme viel hübscher darstellt? Müssen die vorhanden IT-Prozesse und Fachverfahren über Bord geworfen werden? Lassen sich ein Mainframe oder ein Data Warehouse mal eben so in die Cloud umziehen? Auf alle diese Fragen lautet die Antwort zunächst nein. Die vorhandene IT, die Fachverfahren, die Prozesse und der Service sind vielleicht nicht perfekt, aber sie sind etabliert und durchaus auch berechenbar.

Nun ist es auch nicht gerade so, dass jedes Analytics-Tool die größte Erfindung seit geschnittenem Brot ist. Ja, die eine oder andere Darstellung ist klarer oder die Farben sind besser und manche Darstellung liefert eine Information, für die im alten System erst wieder eine Änderung beantragt, programmiert, abgenommen und eingepflegt werden muss. Preiswerter ist das neue Tool auch. Die Demo war wirklich beeindruckend und der Proof-of-Concept war wirklich vielversprechend. Da soll die eigene IT-Abteilung erst einmal ihre Kosten rechtfertigen.

Aber wie so oft gibt es hier und da ein paar Haken, an die bei der Vorbereitung und Planung einiger Big-Data-Projekte mitunter nicht gedacht wird. Big-Data-Initiativen entstehen oft in der Folge von Workshops mit Partnern, nicht unbedingt müssen das die Software-Anbieter sein. Die Workshops liefern, wenn sie mit den richtigen Leuten zur richtigen Zeit laufen, eine ganze Reihe Anregungen für die Verbesserung des bisherigen Geschäfts bis hin zu ganz neuen Geschäftsideen. Und preiswerter ist das auch noch!

Der Begriff Design Thinking wird in Unternehmen Einzug halten. Im nächsten Schritt wird ein Proof of Concept oder ein Pilot eingerichtet, bei dem eine neue Lösung einige Erfolge erzielt. Überschlägig wird vom Team ausgerechnet, dass so etwas als Service aus der Cloud einen Geschäftsprozess wirksam unterstützen kann. Damit ist natürlich das Interesse groß, so einen Service auch im Produktivbetrieb nutzen zu können. Gerne werden hier noch agile Entwicklungsmethoden eingesetzt. Auch von der »Kultur des Scheiterns« wird die Rede sein. Man wird sich schon vor dem Projektstart darauf einigen, dass so ein Pilot »auch mal floppen darf«. Sonst kommen wir ja nie zu Innovation.

Was bisher verborgen blieb ist der Blick aufs Ganze. Manche Anwender haben das Glück, eine Big-Data-Lösung auf der grünen Wiese bauen zu können. Dann wird es den Entwicklern Spaß machen, mit neuen Tools attraktive und nützliche Applikationen zu schreiben, beispielsweise wenn ein alteingesessener Hersteller von Maschinen eine Lösung für Predictive Maintenance entwickeln möchte. Dann entsteht im ehrwürdigen Unternehmen ein Start-up. Das heißt, mit etwas Tatendrang und etwas frischem Blut könnte hier eine ganz attraktive Sache herauskommen.

Die meisten Unternehmen haben jedoch nicht den Segen und den Spielraum eines Start-ups. Sie haben die Verantwortung für einige tausend Mitarbeiter und kämpfen an vielen Fronten. Vor allem haben sie eines: eine seit Jahren weiterentwickelte IT-Landschaft mit im Grunde sehr ausgereiften Lösungen. Die Menschen hinter der hauseigenen IT haben die Systeme im Griff und mit den Investitionen der letzten Jahre können sie ihren internen Kunden, den Anwendern, einen Service bieten, der oft besser als 99,999 Prozent verfügbar ist. Änderungen können zwar nur über den etablierten Prozess eingebracht werden, aber dafür verstehen die Mitarbeiter, welche Bereiche der IT von einer neuartigen Lösung betroffen sind. Sie können neue Tools und Funktionen mit der entsprechenden Sorgfalt einrichten. Sie wissen, aus welchem Data Warehouse von welchem Mainframe Dateien benötigt werden.

Dieses Wissen lässt sich nur sehr schwer in einem Pflichtenheft formulieren. Es sei denn, man formuliert alles, was sich in der vorhandenen IT befindet, ins Lastenheft für eine neue Cloud-Lösung. In einem weltweit agierenden Unternehmen mit einer tausendköpfigen IT-Mannschaft können hier schon für einen kleinen Data-Warehouse-Umzug mehrere zehntausend Positionen ins Pflichtenheft rutschen. Das müssen die Anwender zwischen den Zeilen lesen, wenn damit geworben wird, die wichtigsten Mainframe-Applikationen in die Cloud zu verlagern.

Holm Landrock, ISG Research

 

Bottom Line (ICT-Anwenderunternehmen):

Neue Angebote klingen sehr attraktiv: Schon für wenige Cents ein Gigabyte auf immer und ewig beim Provider hosten zu können. Die Altsysteme entsorgen. Künftig ist alles nicht unbedingt billiger, aber viel besser. Ist da was dran? Ist man eine Innovationsbremse, wenn man sich den Verlockungen entzieht?

Bottom Line (ICT-Anbieterunternehmen):

Preistransparenz muss weiter gehen als bis zu einem Web-Tool, mit dem sich Anwender einen Big-Data-Cluster mit x Storage, y Performance und z Lizenzkosten für einen Hadoop-Cluster zusammenstellen können. Es wird Zeit für Preistransparenz. Was bei einem Start-up vielleicht funktioniert, kann für ein etabliertes Unternehmen mit Verantwortung auch zu einer Gefahr werden.

 


 

Hier folgt eine Auswahl an Fachbeiträgen, Studien, Stories und Statistiken die zu diesem Thema passen. Geben Sie in der »Artikelsuche…« rechts oben Ihre Suchbegriffe ein und lassen sich überraschen, welche weiteren Treffer Sie auf unserer Webseite finden.

 

PaaS – Moderne Private Clouds und Hybrid-Lösungen: Ganz privat zu niedrigen Kosten

Integrierte Anwendungs-Suite für Unternehmen mit kundenfreundlichem Preismodell

Cloud Computing: Eine Revolution in der IT-Welt

Disruptive Start-ups und innovative Geschäftsmodelle: Die Cloud erfährt mehr Akzeptanz