Schnelle Entwicklung von Software in guter Qualität ist große Herausforderung für Unternehmen

foto-cc0-pixabay-bhakti2-pferde-schnell

Umfrage zeigt unter anderem, dass 59 Prozent der Unternehmen unter Release-Zyklen von bis zu einem halben Jahr zu leiden haben.

Actifio, spezialisiert auf Copy-Data-Virtualisierung, hat die Ergebnisse einer neuen Studie veröffentlicht, die Trends bei der Software- und Anwendungsentwicklung in Unternehmen erforscht. Die der Studie zugrundeliegende Umfrage bei 173 Unternehmen wurde von TechValidate durchgeführt.

Die Umfrageergebnisse zeigen auf, dass die meisten Befragten den Zeit- und Kostenaufwand für die Bereitstellung von Daten für Anwendungstests und -entwicklung kennen, die Mehrheit aber keine Lösungsansätze in Aussicht hat, um diese Hürden zu meistern.

Release-Zyklen von ein bis sechs Monaten 

Die Studie ergab, dass fast 60 Prozent der Befragten für die Mehrzahl ihrer geschäftskritischen Anwendungen auf Release-Zyklen von ein bis sechs Monaten oder länger kommen. Die Befragten deuteten auf einen Mangel an Automatisierung bei der Durchführung von Softwaretests (44 Prozent) hin. Ebenso wurde ein Mangel an kontinuierlichen Integrationstests beklagt, wodurch es zu Zeitverlust bei der Lösung von Integrationsproblemen kommt (41 Prozent). Beide Ursachen sorgen für verlängerte Zeitfenster bei Entwicklungsprojekten und somit für höhere Kosten und entgehende Umsätze.

Trotzdem gaben nur 4 Prozent der Befragten an, dass sie Copy-Data-Virtualisierung (CDV) nutzen, um nach dem Self-Service-Prinzip einen sofortigen Zugriff auf hochwertige Testdateien für Entwickler zu ermöglichen. Jüngste Analystenberichte haben CDV als einen aufstrebenden Lösungsansatz identifiziert, um Anwendungen in höherer Qualität schneller zu erstellen. CDV hilft, Anwendungs-Release-Zyklen zu beschleunigen, indem virtuelle Kopien von Produktionsdaten nahezu sofort bereitgestellt werden.

Weitere wichtige Ergebnisse der Studie waren:

  • 42 Prozent der Befragten verbringen die meiste Zeit während ihrer Anwendungs-Release-Zyklen mit dem Aktualisieren von Kopien mit Änderungen aus den Produktionsdaten. 38 Prozent wollen Testumgebungen möglichst schnell sichern und wiederherstellen, um Ausfallzeiten beim Entwickeln und Testen zu reduzieren, was am meisten Zeit kostet.
  • Das Klonen von Produktionsdaten und das Kopieren in Testumgebungen war die beliebteste Art, um Daten bereitzustellen (46 Prozent).
  • 85 Prozent der Befragten betrachteten die Beschleunigung von Anwendungs-Release-Zyklen durch die Einführung agiler Praktiken, die kontinuierliche Integration und die kontinuierliche Bereitstellung als wichtig oder sehr wichtig.

»Die Umfrage bestätigt, was wir seit Jahren von Unternehmen hören: Die Unzugänglichkeit von konventionell verwalteten Datenkopien belastet Release-Zyklen, Backups und Disaster Recovery«, erklärte Thorsten Eckert, Sales Director DACH von Actifio. »Nur wenige Unternehmen wissen, dass die Virtualisierung ihrer Datenkopien diese Prozesse transformiert, so dass die Entwicklung von einem besseren Datenzugriff und der IT-Betrieb von mehr Kontrolle profitiert, während das Unternehmen insgesamt Zeit und Geld spart. Das Konzept der Copy-Data-Virtualisierung verbreitet sich Schritt für Schritt weiter und setzt sich auch in der DACH-Region durch.«


Wie sich mit DevOps Anwendungs-Release-Zyklen verkürzen lassen

Immer mehr Unter­neh­men in einem breiten Spektrum von Branchen, aber auch Insti­tu­tio­nen im öffent­li­chen Sektor, entschei­den sich für DevOps-Modelle bei der Anwen­dungs­ent­wick­lung. Es geht dabei um schnel­lere Reaktion im Geschäfts­all­tag. Das Verspre­chen von DevOps sind schnel­lere Release-Zyklen, um mit neu entwi­ckel­ten Anwen­dun­gen neue und bessere Geschäfts­chan­cen zu erschlie­ßen und den Kunden­ser­vice zu verbes­sern. Im Rahmen eines Webinars in Zusam­men­ar­beit mit 451 Research verdeut­lichte Actifio, wie Copy-Data-Virtualisierung Unter­neh­men bei der Optimie­rung und Automa­ti­sie­rung von DevOps unter­stüt­zen kann.

Cloud und die Schatten-IT

Eine große Heraus­for­de­rung bei herkömm­li­chen IT-Umgebungen ist, dass sie sich nicht schnell genug weiter­ent­wi­ckeln, um den aktuel­len Anfor­de­run­gen gerecht zu werden. Dies führt häufig zu nicht verwal­te­ter Nutzung öffent­li­cher Cloud-Ressourcen, wobei man auch von »Schatten-IT« spricht. Die interne IT duldet dies oft und regle­men­tiert die Nutzung nicht, um die Innova­tion nicht zu verlang­sa­men. Dass der Bedarf an alter­na­ti­ven IT-Ressourcen offen­sicht­lich da ist, macht es leich­ter, Cloud-Implementierungen durch­zu­set­zen – und DevOps-Modelle. Vieler­orts werden Anwen­dun­gen in die Cloud verla­gert oder als SaaS bereit­ge­stellt. Paral­lel dazu werden Anwen­dun­gen direkt, »nativ« in der Cloud entwi­ckelt. Die Cloud bietet neue Möglich­kei­ten, die es vorher nicht gab. Die Unter­neh­men erken­nen dadurch, dass sie bestehende Anwen­dun­gen von der physi­schen Infra­struk­tur entkop­peln müssen, um das Effizi­enz­po­ten­zial von DevOps vollstän­dig zu erschlie­ßen. Genau an dieser Stelle setzt die Copy-Data-Virtualisierung an.

Bei DevOps geht es um Geschäfts­pro­zesse 

Ihre DevOps-Initiativen müssen die Unter­neh­men jedoch selbst voran­trei­ben – und sie stoßen dabei auf neue Heraus­for­de­run­gen. Was ist der beste Weg, um mit DevOps zu begin­nen? Was sind die Standards? Wer soll welche Rolle im Team überneh­men? Was sind die besten Techno­lo­gien? Wie können größere Unter­bre­chun­gen des IT-Betriebs und plötz­li­che Verän­de­run­gen der etablier­ten Kultur vermie­den werden? Was sind die Folgen, wenn man nicht schnell genug voran­kommt? Beraz­ter wissen aus prakti­scher Erfah­rung bei ihren Kunden, dass die tradi­tio­nelle IT nicht gerade darauf aus ist, neue Chancen zu ergrei­fen. Das altbe­kannte Motto lautet »Never change a running system.« Unbekannte, nicht getes­tete Ansätze stehen hinge­gen nicht so hoch im Kurs – und das gilt auch für DevOps.

Bei DevOps dreht sich schein­bar alles um die Entwick­ler, doch eigent­lich geht es bei DevOps um Geschäfts­pro­zesse. Es geht darum, schnel­ler einen Geschäfts­vor­teil zu erlan­gen. Dies ist nicht ohne eine Verän­de­rung der Unter­neh­mens­kul­tur reali­sier­bar. Der Wandel mag hart sein, aber wenn einige grund­le­gende Regeln befolgt werden, steigen die Chancen erheb­lich, dass sich der ersehnte Erfolg tatsäch­lich bald einstellt. Dazu empfiehlt Actifio:

  • Fangen Sie klein an. DevOps ist wie eine Werkstatt, die mit Werkzeu­gen gefüllt ist. Starten Sie nicht gleich mit der großen Motor­säge.
  • Versu­chen Sie es mit nur einer neuen Anwen­dung und dehnen Sie von dort aus Ihre DevOps-Initiative aus.
  • Stellen Sie ein oder mehrere funkti­ons­über­grei­fende Teams zusam­men, um die Arbeit zu vertei­len. Teilen Sie auch die Erfolge mit allen Betei­lig­ten, bringen Sie Know-how ein in die Teams.
  • Bezie­hen Sie die Shadow-IT-Nutzer mit ein. Sie sind die »Early Adopters« einer neuar­ti­gen IT-Nutzung und DevOps-Projekte können von deren Erfah­rung profi­tie­ren.
  • Stellen Sie Self-Service-Funktionen in den Mittel­punkt.

Der Schlüs­sel zum Erfolg ist, die Entwick­ler vom Infra­struk­tur­ma­nage­ment zu befreien, so dass sie direkt und schnell auf Daten zugrei­fen können, egal wo diese vorge­hal­ten werden. So können sie sich voll und ganz auf die Entwick­lung der Software und die Verbes­se­rung der Funktio­na­li­tät konzen­trie­ren. Deshalb ist Self-Service ein entschei­den­der Bestand­teil jeder erfolg­rei­chen DevOps-Struktur. Sobald der effizi­ente Umgang mit Techno­lo­gie und Tools bewäl­tigt ist, werden die Teams heraus­fin­den, wie die Verant­wort­lich­kei­ten in den invol­vier­ten Abtei­lun­gen neu sortiert werden müssen, um alte Grenzen und Struk­tu­ren aufzu­bre­chen.


Anwendungsentwicklung beschleunigen und Qualität erhöhen

Die Entwick­ler­teams in den Unter­neh­men müssen immer schnel­ler und effizi­en­ter neue Software entwi­ckeln bezie­hungs­weise bestehende Anwen­dun­gen erneu­ern. Ein aufstre­ben­der Trend ist der DevOps-Ansatz, eines der moderns­ten Konzepte zur Anwen­dungs­ent­wick­lung. Dieser setzt jedoch eine ebenso moderne Daten­ver­wal­tung voraus.

Hier etabliert sich zuneh­mend die Virtua­li­sie­rung von Daten­ko­pien. Durch Copy-Data-Virtualisierung kann das IT-Betriebsteam den Entwick­lern sofor­ti­gen Daten­zu­griff nach dem Self-Service-Prinzip bieten. Aktuelle Daten stehen so wesent­lich schnel­ler für Entwick­lungs­zwe­cke und Tests zur Verfü­gung. Das Ergeb­nis sind Anwen­dun­gen in besse­rer Quali­tät, die schnel­ler ausge­lie­fert werden können.

Die zentrale Rolle, die Software heute spielt, ist offen­sicht­lich. Anwen­dun­gen beein­flus­sen die Art, wie wir kommu­ni­zie­ren, einkau­fen und Entschei­dun­gen treffen. Sie treiben auch Innova­tio­nen in Unter­neh­men voran. Anwen­der schät­zen die erwei­ter­ten Funktio­na­li­tä­ten, die ihnen helfen, Aufga­ben zu erfül­len und das Leben leich­ter zu machen. Entschei­dend ist heute auch die Verfüg­bar­keit dieser Anwen­dun­gen, also die Möglich­keit überall darauf zugrei­fen zu können, egal ob unter­wegs, am Arbeits­platz oder zu Hause.

Software­ent­wick­ler stehen vor der Aufgabe, diese moder­nen Anwen­dun­gen und mobilen Apps zu reali­sie­ren. Sie sollen einfach zu bedie­nen sein und immer mehr Funktio­na­li­tät bieten. Der herkömm­li­che Ansatz für die Anwen­dungs­ent­wick­lung sieht dabei eine klare Aufga­ben­tren­nung vor. Das für den IT-Betrieb verant­wort­li­che Team kümmert sich um die Bereit­stel­lung, Maskie­rung und das Erstel­len von Workflow-Skripten für die Daten­sätze, so dass sie das Entwick­lungs­team in einer kontrol­lier­ten Umgebung nutzen kann. Die Entwick­ler wiederum erstel­len dann die Anwen­dun­gen, die Unter­neh­men und Endbe­nut­zern möglichst hohen Nutzwert bieten sollen. Dabei sind sie mit anspruchs­vol­len Anfor­de­run­gen konfron­tiert: der Einhal­tung von Fristen, dem Roll-out der ferti­gen Software, der Sicher­stel­lung der Quali­tät und der Bereit­stel­lung von Updates und Upgrades.

»Dummy«-Datensätze sind nicht der Weisheit letzter Schluss

Das Standard­ver­fah­ren erweist sich in der heuti­gen Welt als zu langsam. Entwick­ler müssen Daten beim IT-Betriebsteam anfor­dern. Oft dauert es mehrere Wochen oder sogar Monate, bis Entwick­ler die erfor­der­li­chen Daten erhal­ten, um Anwen­dun­gen auf ihre Produk­ti­ons­reife hin zu testen. Durch diese Verzö­ge­rung entspre­chen die Daten nicht mehr dem aktuel­len Stand der Produk­ti­ons­um­ge­bung. Ein weite­res Problem ist die zeitauf­wän­dige Handha­bung riesi­ger Daten­men­gen. Um Zeit zu sparen, setzen viele Unter­neh­men abgespeckte »Dummy«-Datensätze ein, die aber die reale Produk­ti­ons­um­ge­bung nicht hinrei­chend reprä­sen­tie­ren. Ist die Software fertig, muss dann häufig nachge­bes­sert werden, weil zuvor keine Tests unter realis­ti­schen Bedin­gun­gen durch­ge­führt werden konnten. Die Nutzung vollstän­di­ger Daten­sätze ist aber oftmals kaum reali­sier­bar und bringt auch ein Aktua­li­täts­pro­blem mit sich: Die Erstel­lung von fünf oder sechs physi­schen Kopien einer 5-Terabyte-Datenbank über ein 1-Gigabit-Netzwerk würde fünf Tage erfor­dern. Nachdem die Daten altern, sind Zeitver­zö­ge­run­gen in der Daten­ko­pie stets »einge­baut« – und das jedes Mal, wenn die Entwick­ler eine Aktua­li­sie­rung anfor­dern.

Daten­vir­tua­li­sie­rung

Die Alter­na­tive ist hier die Daten­vir­tua­li­sie­rung bezie­hungs­weise virtu­elle Daten­ko­pien. Eine Daten­platt­form hält dabei virtu­elle Kopien der Produk­ti­ons­da­ten vor und ermög­licht jeder­zeit verzö­ge­rungs­freien Zugang zu diesen Kopien. Dank Automa­ti­sie­rung haben Mitar­bei­ter aus Entwick­lung (»Dev«) und IT-Betrieb (»Ops«) perma­nent Zugriff auf aktuelle virtu­elle Daten­ko­pien, was die Umset­zung von effizi­en­ten DevOps-Modellen maßgeb­lich unter­stützt. Daten­schutz und regula­to­ri­sche Maßnah­men können integriert werden. Da es sich hierbei um eine Self-Service-Umgebung handelt, erhal­ten Entwick­ler nahezu unmit­tel­ba­ren Daten­zu­griff und können auf einfa­che Weise jeder­zeit eine Aktua­li­sie­rung anfor­dern.

»Daten­vir­tua­li­sie­rung ist eine natür­li­che Weiter­ent­wick­lung, die nun bereits seit einigen Jahren auf die zuvor voran­ge­trie­bene Server- und Netzwerk­vir­tua­li­sie­rung folgt. Sie hilft bei der Automa­ti­sie­rung von Workflows und ermög­licht On-Demand-Datenzugriff sowie Daten­be­reit­stel­lung gemes­sen in Minuten statt in Tagen. Für den DevOps-Bereich ist Daten­vir­tua­li­sie­rung eine perfekte Lösung, um eine rasche Entwick­lung, Prüfung, Freigabe und Aktua­li­sie­rung der Anwen­dun­gen zu ermög­li­chen«, fasst Thors­ten Eckert, Sales Direc­tor DACH bei Actifio zusam­men. »Dies geht mit bis zu 90 Prozent reduzier­ten Bereit­stel­lungs­zei­ten einher, entschei­dend, um inner­halb kürzes­ter Zeit quali­ta­tiv hochwer­tige produk­ti­ons­reife Anwen­dun­gen zu reali­sie­ren und diese erfolg­reich auf den Markt zu bringen.«


Datenvirtualisierung: Überbrückung der Technologielücke mit Hybrid-IT

Stau auf der Datenautobahn und Gedränge in der Wolke

Anwendungsentwicklung in der Cloud

Sieben Maßnahmen zur Forcierung der Anwendungsentwicklung

Kritische Analyse von EMCs angekündigter Lösung für Copy-Data-Management

Das Ende der Schatten-IT – Ablösung des Primats der Infrastruktur durch Daten

Vernachlässigung von DevOps schadet Unternehmen

Fünf Tipps zur erfolgreichen Umsetzung von DevOps

Kosten für Datensicherung und Anwendungsentwicklung spürbar senken

Bei der Softwareentwicklung auf DevOps setzen – Chancen sind oft noch unerkannt

Halloween ist in der Softwarebranche das ganze Jahr

Barrieren zwischen DevOps und Security

OpenStack und Co. – Veni, vidi, vici

Schreiben Sie einen Kommentar