Erfolgsfaktoren für die Anwendungsmodernisierung im Rechenzentrum

foto freepik

Damit Unternehmen langfristig wettbewerbsfähig bleiben, müssen sie schnell auf Marktveränderungen reagieren und mit technologischen Entwicklungen Schritt halten. Doch das gelingt nur, wenn auch die IT-Systeme mitspielen. Aerospike rät Unternehmen daher, ihre Legacy-Anwendungen regelmäßig auf den aktuellen Stand zu bringen.

Milliarden von Entscheidungen werden heute in weniger als einer Millisekunde getroffen: bei der Betrugsbekämpfung, beim Online-Shopping oder in der Fabrikhalle. Dies setzt jedoch eine zeitgemäße IT-Infrastruktur voraus, die flexibel und hochskalierbar ist. Auf Altsystemen basierende Rechenzentren können da nicht mithalten. Denn sie erfüllen die Anforderungen moderner, unternehmenskritischer Applikationen nicht oder nur schlecht. Mit schwerwiegenden Folgen für Unternehmen – von Wettbewerbsnachteilen über Produktivitätsverluste bis hin zu unzufriedenen Kunden. Zudem sind viele Legacy-Anwendungen nicht ausreichend vor aktuellen Sicherheitsrisiken geschützt.

Müssen also Alt-Applikationen durch einen komplett neuen Datastack ersetzt werden? Das wäre komplex, teuer und zeitaufwändig. Wirtschaftlicher ist es, Legacy-Anwendungen kontinuierlich zu modernisieren. Als Orientierungshilfe hat der Realtime-Datenbankanbieter Aerospike die drei wichtigsten Bausteine für eine erfolgreiche Modernisierung zusammengestellt:

  1. Auf eine Realtime-Multimodell-Datenbank umstellen

Daten in Echtzeit zu erfassen, zu verarbeiten, zu speichern und zu analysieren ist heute für viele Geschäftsmodelle unerlässlich. Daher sollten starre, monolithische Architekturen abgelöst werden. Gefordert sind Systeme, die unterschiedliche, dynamische Entwicklungsmuster unter Verwendung von Echtzeitdaten unterstützen.

Unternehmen müssen ihre Legacy-Applikationen jedoch nicht komplett ersetzen. Durch die Umstellung auf eine Realtime-Multimodell-Datenbank bleiben Altsysteme wertvolle Assets, die regelmäßig verbessert und erweitert werden. Realtime-Datenbanken bieten kalkulierbare Leistung und unbegrenzte Skalierbarkeit zu erschwinglichen Kosten. So steigern sie die Effizienz und reduzieren die Serverlast.

  1. Einen JSON-Dokumentenspeicher einsetzen

Echtzeit-Entscheidungen basieren immer häufiger auf Algorithmen für künstliche Intelligenz (KI) und Machine Learning (ML). Die Voraussetzung dafür sind ständig aktualisierte, riesige Datensätze. Diese Daten werden vielfach im JSON-Format generiert, übertragen, gespeichert und konsumiert. Das gilt für Echtzeitdaten aus Feeds von IoT-Sensoren und sozialen Netzwerken, aber auch für Bestandsdaten wie Benutzerprofile und Produktkataloge.

JSON-Dokumentdaten können zwar in relationalen Datenbanken gespeichert werden. Um sie jedoch in Echtzeit und unbegrenztem Umfang zu speichern, zu verarbeiten und abzufragen, eignet sich am besten ein NoSQL-JSON-Dokumentenspeicher. Er bietet auch den Vorteil, dass Entwickler und Datenarchitekten in einer ihnen vertrauten Umgebung und Sprache arbeiten können.

  1. Schrittweise vorgehen

Legcay-Systeme zu modernisieren, kann für Unternehmen sehr nervenaufreibend sein. Daher empfiehlt es sich, schrittweise vorzugehen und Unterbrechungen auf ein Minimum zu beschränken. Es hat sich bewährt, zunächst die Legacy-Anwendungen zu refaktorieren. Das heißt, den Programmcode so zu überarbeiten, dass die Software flexibler und wartungsfreundlicher wird und effizienter in einer neuen Umgebung eingesetzt werden kann. Im zweiten Schritt gilt es, die Datenspeicherung und -abfrage zu optimieren. Und schließlich sollte eine intelligente Datenverarbeitung am Netzwerkrand ermöglicht werden – für Echtzeit-Performance in einer verteilten Umgebung.

Auf diese Weise können Unternehmen sicherstellen, dass ihre Rechenzentren moderne Datenpipelines verwenden. Damit ergänzen sie nicht nur ihre Mainframes um einen Intraday Operational Data Store, in dem Daten mehrmals täglich aktualisiert werden. Sie machen sich auch weniger abhängig vom Mainframe als System of Record. Flexible Datenmodelle helfen bei jedem Schritt, insbesondere bei der Verarbeitung von JSON-Daten. Das Ergebnis sind eine höhere Effizienz und geringere Kosten – bei gleicher oder besserer Leistung, Zuverlässigkeit und Dimensionierung des Mainframes.

Fazit

Die Menge an Daten wird auch in den nächsten Jahren weiter rasant zunehmen – ebenso wie der Bedarf an Echtzeit-Analysen oder automatischen Handlungsempfehlungen. »Damit IT-Systeme mit diesen Entwicklungen Schritt halten können, müssen Altanwendungen nicht komplett ausgetauscht werden. Sie sollten aber kontinuierlich modernisiert werden. Unternehmen, die dies erkennen und auf eine Realtime-Datenbank setzen, stellen sich zukunftssicher auf und legen damit den Grundstein für ihren künftigen Erfolg«, betont Martin James, Vice President EMEA bei Aerospike.

 

 

 

JSON, oder JavaScript Object Notation, ist ein leichtgewichtiges Daten-Austauschformat. Es ist einfach für Menschen zu lesen und zu schreiben und einfach für Maschinen zu parsen und zu generieren. JSON basiert auf einer Teilmenge der JavaScript Programming Language, Standard ECMA-262 3rd Edition – Dezember 1999. JSON ist ein Textformat, das komplett sprachunabhängig ist, aber es verwendet Konventionen, die Programmierern von der C-Familie von Sprachen vertraut sind, einschließlich C, C++, C#, Java, JavaScript, Perl, Python und vielen anderen. Diese Eigenschaften machen JSON zu einer idealen Daten-Austauschsprache.

Wie funktioniert JSON?

JSON bildet die Struktur von Daten durch ein Set von Schlüssel-Wert-Paaren ab. Ein Schlüssel ist ein String und der Wert kann ein String, eine Zahl, ein Array, ein Boolean oder ein anderes Objekt sein. Diese Paare werden in geschweiften Klammern eingeschlossen { }, um ein JSON-Objekt zu bilden. Arrays werden in eckigen Klammern [ ] dargestellt. Dies ermöglicht es Datenstrukturen wie Objekte und Arrays zu verschachteln.

JSON wird häufig verwendet, um Daten zwischen einem Server und einer Webanwendung auszutauschen. Aufgrund seiner Textnatur kann JSON leicht über Netzwerke gesendet werden und von verschiedenen Programmiersprachen gelesen werden. Die Verwendung von JSON im Webkontext ermöglicht es Webanwendungen, schnell und asynchron Daten zu laden und zu senden, ohne dass die Seite neu geladen werden muss.

Zusammenfassend ist JSON eine effiziente, standardisierte und einfache Methode zum Austausch von Daten zwischen unterschiedlichen Systemen.

Genki Absmeier

 

271 Artikel zu „Legacy Rechenzentrum“

Rechenzentrumsbranche in der Pflicht – Gegen Energie­vampire hilft kein Knoblauch

Rechenzentren sind als Stromfresser verschrien. Im Vereinigte Königreich werden sie gar schon als »Energievampire« gescholten, die das Stromnetz leersaugen, sodass für andere häufig nichts übrig bleibt [1]. Die Diskussionen um den hohen Energieverbrauch von Rechenzentren konzentrieren sich fast ausschließlich auf den Bereich der Neubauten, obwohl etwa 60 Prozent des Bestands an Rechenzentren in Europa älter als achtzehn Jahre sind.

Ungenutzte Effizienzmöglichkeiten im Rechenzentrum: Die Software macht den Unterschied 

Wenn die IT im Rechenzentrum nicht die gewünschte Leistung bringt, gibt es die unterschiedlichsten Optionen, um die Performance zu erhöhen. Die meisten Unternehmen rüsten einfach die Hardware auf. Dabei bietet auch die Software großes Potenzial für eine Effizienzsteigerung. Dell Technologies zeigt, an welchen Stellschrauben Firmen drehen können.   Unternehmen haben hohe Anforderungen an die Performance…

Daten als Schlüssel für mehr Nachhaltigkeit im Rechenzentrum

Rechenzentren sind das Rückgrat der Digitalisierung, aber auch einer der größten Stromverbraucher weltweit. Ein datenbasierter Ansatz hilft, die Anlagen effizienter zu betreiben, was nicht nur deren Umweltbilanz deutlich verbessert, sondern auch erhebliches Einsparpotenzial bietet.   Digitalisierung und Nachhaltigkeit sind eng miteinander verknüpft. Auf der einen Seite tragen digitale Lösungen zu mehr Nachhaltigkeit bei: Videokonferenzen beispielsweise…

Eigenes Rechenzentrum oder Cloud? Mit Daten-Streaming von beiden Welten profitieren

Durch technologische Innovationen sowie sich ändernde Markt- und Kundenanforderungen steigt der Druck für Unternehmen ihre IT-Abteilung zu modernisieren, um wettbewerbsfähig zu bleiben. Darüber hinaus zwingt sie auch der herrschende IT-Fachkräftemangel dazu, sich nach Technologien umzuschauen, die Prozesse effizienter und kostengünstiger machen, um dieses Defizit auszugleichen. Die erste Anlaufstelle für viele Unternehmen ist daher die Cloud:…

Equinix und Joint Venture-Partner investieren 3 Milliarden Dollar in Rechenzentrumsprojekte für mehr Hyperscale-Konnektivität

Equinix-xScale-Rechenzentren bilden eine wichtige Schnittstelle zwischen Hyperscale-Anbietern und dem umfangreichen Equinix-Kundenökosystem. Equinix gab Details zu seiner xScale-Rechenzentrumsinitiative mit einem Investitionsvolumen von drei Milliarden US-Dollar bekannt. Im Rahmen dieser Investition werden derzeit Projekte in mehreren Märkten durchgeführt, darunter in Deutschland (Frankfurt), Brasilien, Frankreich und Japan. Durch diese weltweite Expansion, die gemeinsam mit Joint-Venture-Partnern finanziert wird, sollen wachsende…

Vision für das Rechenzentrum der Zukunft: Was sie 2021 und darüber hinaus leisten müssen

Rechenzentren müssen hohen Ansprüchen genügen. Bislang galten diese Anforderungen hauptsächlich ihrer Leistung und der Sicherheit. In den nächsten Jahren unterliegen Rechenzentren einer wesentlich weitgreifenderen Entwicklung. Die wichtigsten Trends: Höhere Energieeffizienz, Etablierung von Stoffkreisläufen, Entwicklung hin zu Zero-Waste.     Durch die Corona-Pandemie hat die Digitalisierung zusätzlichen Schwung erhalten. Diese Entwicklung stellt auch Rechenzentren vor neue…

#digiWiesn: noris network Rechenzentrum in Hof eröffnet – Ganz oben dabei

»In Bayern ganz oben« heißt es im Stadtmarketing von Hof. Mithilfe des IT-Dienstleisters noris network wurde jetzt ein weiterer Schritt getan, um auch in der Digitalisierung ganz oben mitzuspielen. Hof erhält ein eigenes, hochsicheres Colocation-Rechenzentrum, das Unternehmen aus der Region die Schritte in Richtung Digitalisierung erleichtern und sie wettbewerbsfähiger machen soll.

Wie schreibt man Software, die vom Start weg »legacy« ist?

Gehen IT-Abteilungen bei der Entwicklung von Software nicht konsequent und diszipliniert vor, schaffen sie Anwendungen, die vom Start weg teuer und aufwändig in der Pflege sind. Ein häufiger Schlendrian ist etwa das Vernachlässigen der Dokumentation. Da ihre technische Funktionsweise dann nur schwer oder gar nicht zu verstehen ist, werden Aktualisierungen oder Erweiterungen der Software in…

Automatisierte Früherkennung von Attacken auf das Rechenzentrum

Rechenzentren mit ihren vielen Daten, die darin vorgehalten – also IT-Deutsch für »abrufbereit aufbewahrt« – werden, stellen ein verlockendes Ziel für Angreifer dar. Wenn der Angreifer Glück hat, findet er eine Schwachstelle für den Zugang über das Internet zum Rechenzentrum. Anderenfalls erfordert ein direkter Angriff erheblichen Aufwand und Planung, wie Vectra, Anbieter eine Plattform für…

Legacy-Software: sechs gute Gründe, warum Unternehmen ihren Altanwendungen treu bleiben sollten

Die Versuchung, sich von Altanwendungen zu trennen und sie durch Neuentwicklungen zu ersetzen, ist groß. Häufig gibt es aber gute Gründe dafür, besser davon abzusehen und sie stattdessen lieber zu modernisieren. Der IT-Dienstleister Avision, Spezialist für Software Revival, nennt die wichtigsten davon. Gewohnheit. Die Mitarbeiter sind bereits an das vorhandene Tool gewöhnt und kommen damit…

Defizite bei Datenmanagementsystemen: Legacy-Technologie bremst das Business aus

  Bei aller Rede von datengetriebenen Entscheidungen wird eines oft vernachlässigt: die Sicherstellung, dass die Daten tatsächlich »fahrbereit« sind. Zu viele Unternehmen klammern sich nach Erfahrung von Rubrik weiterhin an ihre alten IT-Systeme, auch wenn diese nicht mehr zum Geschäft passen. Veraltete Datenmanagementlösungen erfordern, dass IT-Teams wertvolle Zeit für die Wartung und Fehlerbehebung aufwenden müssen…

Die wahren Kosten der Legacy-Infrastruktur: Probleme mit Compliance, Budget und Leistung

Die Studie »Data-Driven Transformation in Europe« belegt, dass lediglich 58 % der Führungskräfte für Informations- und Kommunikationstechnologie (IKT) in Behörden und Ämter zuversichtlich sind, mit ihrer aktuellen Dateninfrastruktur strategische Transformationsziele erreichen zu können [1]. Die Umfrage unter hochrangigen Führungskräften im IKT-Bereich ergab, dass die derzeitige Dateninfrastruktur die operative Agilität beeinträchtigt (84 Prozent), die Betriebskosten erhöht…

Datenbankmigration: So werden Legacy-Systeme performanter, agiler und effizienter

Es gibt viele gute Gründe, von relationalen Legacy- auf New-Technology-Datenbanken zu migrieren. Diese fünf Tipps eines NoSQL-Datenbankpioniers machen den Umstieg leichter. Semi-strukturierte Daten, das Internet der Dinge, also OT-Applikationen, mobile Online-Devices und Big-Data-Anwendungen stellen hohe Anforderungen an klassische relationale Datenbank-Systeme, denen sie oft nicht mehr optimal gewachsen sind. Die starren Tabellenstrukturen der Systeme stammen noch…

Vier Phasen für eine erfolgreiche VMware-Migration: Erkennen, Analysieren, Pilotieren und Planen

Wie eine reibungslose Umstellung auf eine VMware-Alternative sichergestellt werden kann.   Eine Schockwelle ging durch die Welt der Virtualisierung und Cloud Computing, als Broadcom die Übernahme von VMware im Mai 2022 ankündigte. Speziell die Meldungen der vergangenen Wochen haben für Wirbel gesorgt und dazu geführt, dass sich viele Unternehmen – teilweise eilig – auf die…

Datenhoheit in der Cloud und IT-Modernisierung: Voraussetzungen, Potenzial und Herausforderungen

Erst 11 Prozent der deutschen Unternehmen setzen Datenhoheit um und haben eine Strategie für den souveränen Umgang mit Daten. Cloud Computing ist der wichtigste Modernisierungsfaktor für die IT, Cloud Services werden Legacy IT in den kommenden zwei Jahren immer umfassender ersetzen. 61 Prozent der Unternehmen planen mittel- und langfristig eine noch intensivere Nutzung von Cloud…