Analog zur zunehmenden Digitalisierung aller Branchen bis hin zu einzelnen Mitarbeitern sind auch die Anforderungen an eine fachgerechte Sicherung und Verwaltung unternehmenseigener IT gewachsen. Worauf sollten mittelständische Geschäftsführer bei der Rechenzentrumswahl achten.
Industrie 4.0, Internet of Things (IoT) und Big Data – die Digitalisierung hat viele neuartige Themen geschaffen, die Unternehmen zeitnah auffordern ihre IT-Landschaft grundlegend zu erneuern beziehungsweise zu konsolidieren. Der Grund: Wer nicht digitalisiert, der wird im Ernstfall vom Markt vertrieben.
Ein Beispiel, das Ihnen in diesem Zusammenhang wahrscheinlich bekannt ist: Denken Sie nur kurz an die Beispiele Uber oder Airbnb, die zwei komplette Branchen für immer verändert haben. Hoteliers und Taxiunternehmen haben hier bisher in vielen Fällen den Anschluss an das digitale Zeitalter verpasst und wurden von neuen Geschäftsmodellen abgehängt.
Gerade mittelständische Unternehmen, jene »hidden champions«, die der deutschen Wirtschaft ihren Ruf zu verdanken haben, haben den Bedarf nach digitaler Modernisierung der eigenen Geschäftsmodelle mittlerweile erkannt. Hier stellen sich nun ganz andere Fragen, wie etwa »Wie gewährleiste ich eine zukunftssichere und performance-starke IT?«. Drei Möglichkeiten gibt es aktuell:
- Modernisierung der bestehenden IT
- Neuanschaffung zur bestehenden IT
- Outsourcing in ein datenschutzkonformes Rechenzentrum
Die HARTL GROUP als Rechenzentrumsbetreiber gibt mittelständischen Geschäftsführern drei Tipps an die Hand, worauf Sie gerade beim Thema Outsourcing achten sollten.
- Langfristige Kostenvorteile im Rechenzentrum
Die unternehmenseigene IT in eine sichere Cloud-Umgebung auszulagern oder zu erweitern, stellt aus wirtschaftlicher und technischer Sicht eine interessante Alternative zu On-Premises-Lösungen dar.
Alleine für die Wartung und den Betrieb hauseigener Systeme investieren IT-Mitarbeiter pro Woche durchschnittlich fünf bis zehn Stunden an Arbeitszeit. Hinzu kommen beispielsweise noch der Zukauf von Lizenzen, die Einrichtung neuer Arbeitsplätze oder die Erweiterung von Speichermedien.
Im Gegensatz hierzu bieten etwa Managed Services aus einem Rechenzentrum viele Vorteile. So werden IT-Mitarbeiter von sämtlichen Standardprozessen befreit und können sich auf ihr Kerngeschäft fokussieren.
Und: Wer in ein Rechenzentrum auslagert, profitiert letztendlich gerade bei den monatlichen Kosten für die IT. Denn Managed-Service-Anbieter [1] regeln unter anderem alle Wartungs-, Betriebs- und Lizenz-Aspekte standardisiert und kosteneffizient.
Zusätzlich sollten Unternehmen, die ihre IT in ein externes Rechenzentrum auslagern möchten, darauf achten, dass der jeweilige Anbieter auch über weitreichende Partnerschaften verfügt. Der Grund: Dank vieler Partnerprogramme zwischen Hersteller und Rechenzentrumsanbieter entstehen maßgebliche Kostenvorteile beim Zukauf von Hard- und Software für den Kunden.
- Höchste Performance und Verfügbarkeit
Unternehmen, die ihre IT in die Hände eines Rechenzentrums geben, sollten an erster Stelle darauf achten, wie verfügbar die Services der Anbieter sind. Schließlich will kein Geschäftsführer mit zufälligen Ausfällen einzelner Anwendungen oder gar der ganzen IT rechnen müssen.
Die Anforderungen an die Verfügbarkeit von Rechenzentren und den IT-Services sind demnach drastisch gestiegen. Amazon beispielsweise garantiert zwar für seinen Cloud-Computing-Service »Elastic Compute Cloud« eine Verfügbarkeit von fast 100 Prozent, kann aber beispielsweise keinen deutschen Rechenzentrumsstandort oder persönlichen Support bieten.
Und hier trennen sich auch die individuellen Anforderungen der Unternehmen. Wer gerne möglichst kostengünstig und ausfallsicher IT auslagern möchte, der findet bei AWS und Microsoft Azure seine Lösung.
Unternehmen die aber zusätzlich auf einen deutschen Support, regionalen Rechenzentrumsstandort und vielleicht sogar auf persönliche Beratung auf Augenhöhe Wert legen, sollten sich bei der wachsenden Anzahl von Full-Service-Anbietern hierzulande umsehen.
Der Vorteil: Deutsche Full-Service-Anbieter beraten ihre Kunden teilweise vollkommen kostenlos, bieten attraktive Angebote beim Zukauf von IT und stellen selbst bei Lösungen von US-Anbietern deutsche Rechnungen aus.
- Zukunftssicher gegen Industriespionage
Unternehmen, die ihre Daten, Infrastrukturen und IT-Prozesse effizient schützen wollen, sollten eine genaue Analyse des Schutzbedarfs im Rechenzentrum durchführen.
Im ersten Schritt liefert ein funktionierendes Risikomanagement hier die Basis für die Analyse des individuellen Schutzbedarfs. Es betrachtet unter anderem den möglichen Schaden, wenn IT-gestützte Prozesse, Daten, physische und virtuelle Instanzen nicht ordnungsgemäß funktionieren oder ausfallen.
Im zweiten Schritt müssen Unternehmen klären, welchen Anforderungen der Rechenzentrumsbetreiber ihrer Wahl entsprechen sollte oder gar muss. Hier geht es vorwiegend um Aspekte wie Datenschutz, IT-Security und Schutz vor digitaler Wirtschaftsspionage. Einige wichtige Kernfaktoren sind zum Beispiel:
- Ein datenschutzkonformer deutscher Rechenzentrumsstandort
- Multi-Faktor-Authentifizierung bei allen Serverräumen
- Tier-3-Zertifizierung mit u.a. 24 x 7 Sicherheitsdienst vor Ort, Notstromaggregaten und automatischen Notfallkühlungssystemen
- ISO-Zertifizierungen (etwa ISO 9001:2008, ISO 27001, ISAE 3402, ISO 20000, ISO 14001, OHSAS 18001
[1] Weitere Informationen zum Leistungsspektrum, den Sicherheitsvorkehrungen und Zertifizierungen der HARTL GROUP erfahren Sie auch hier.
Die drei wichtigsten Anforderungen für Cloud-Sicherheit
Eine wachsende Zahl von Unternehmen setzt mittlerweile auf eine Mischung aus lokal betriebener Hardware und Cloud-Computing-Anwendungen, um die Gesamtbetriebskosten in den Griff zu bekommen und die betriebliche Effizienz zu steigern. Mit großen Veränderungen gehen aber auch große Herausforderungen einher. So weist Experten darauf hin, dass es entscheidende Unterschiede gibt zwischen den Sicherheitsmaßnahmen für Cloud-basierte Technologien und traditionelle Hardware-basierte Rechenzentren beziehungsweise lokal betriebene Infrastrukturen.
»Ein Rechenzentrum ist eine feste Umgebung, in der Anwendungen auf dedizierten Servern ausgeführt werden, auf die nur autorisierte Benutzer zugreifen können. Im Gegensatz dazu ist eine Cloud-Umgebung dynamisch und automatisiert. Rechenressourcen-Pools stehen bei Bedarf zu jeder Zeit, von jedem Gerät aus zur Verfügung, um Anwendungsarbeitslasten zu unterstützen«, erklärt Thorsten Henning, Senior Systems Engineering Manager Central & Eastern Europe bei Palo Alto Networks. »Es scheint fast so, dass viele der Prinzipien, die Cloud Computing gerade so attraktiv machen, konträr zu bewährten Sicherheitspraktiken sind.«
Experten haben die Sicherheit von traditionellen und Cloud-basierten Rechenzentren gegenübergestellt und die drei wichtigsten Anforderungen für Cloud-Sicherheit definiert.
Cloud Computing reduziert vorhandene Netzwerksicherheitsrisiken nicht
Die Sicherheitsrisiken, die ein Rechenzentrum und Netzwerk heute bedrohen, verändern sich, sobald Anwendungen in die Cloud verlagert werden. Zum Beispiel verwenden viele Anwendungen im Rechenzentrum eine breite Palette von Ports, was herkömmliche Sicherheitsmaßnahmen ineffektiv macht, wenn diese Anwendungen in die Cloud verschoben werden. Cyberkriminelle kreieren anspruchsvolle, Port-unabhängige Angriffsszenarien, um über verschiedene Angriffsvektoren mithilfe gängiger Anwendungen ihr Ziel zu kompromittieren.
Sicherheit erfordert Trennung und Segmentierung – die Cloud basiert jedoch auf gemeinsam genutzten Ressourcen
Seit Jahrzehnten geben Best Practices für Informationssicherheit vor, dass geschäftskritische Anwendungen und Daten in sicheren, getrennten Segmenten im Netzwerk vorgehalten werden sollen. Oft wird dies als Zero-Trust-Prinzip bezeichnet: Nie vertrauen, immer überprüfen. Auf einem physischen Netzwerk innerhalb des eigenen Rechenzentrums ist Zero Trust relativ einfach mithilfe von Firewalls und VLANs umzusetzen. Hinzu kommen Regeln auf Basis der Anwendungs- und Benutzeridentität.
In einer Cloud-Umgebung hingegen erfolgt eine ständige Kommunikation zwischen den virtuellen Maschinen innerhalb eines Servers, in einigen Fällen über verschiedene Vertrauensebenen hinweg. Dies macht die Segmentierung zu einer schwierigen Aufgabe, zumal Cloud-Anwendungen auf gemeinsam genutzten Ressourcen basieren. Unterschiedliche Vertrauensebenen in Kombination mit mangelnder Sichtbarkeit des Datenverkehrs durch virtualisierte Port-basierte Sicherheitslösungen können die Sicherheitslage gefährden.
Sicherheitskonfigurationen sind prozessorientiert, Cloud-Umgebungen sind dynamisch
Virtuelle Arbeitslasten können in wenigen Minuten erstellt oder geändert werden. Die Einrichtung der Sicherheitskonfiguration für die jeweiligen Arbeitslasten kann Stunden, Tage oder Wochen erfordern. So entstehen Diskrepanzen zwischen Sicherheitspolitik und Bereitstellung von Arbeitslasten in der Cloud. Das Ergebnis ist eine geschwächte Sicherheitslage, wodurch wichtige Daten und geistiges Eigentum gefährdet werden. Zudem kann es zu Verstößen gegen Compliance- und Governance-Richtlinien und entsprechende gesetzliche Verordnungen kommen.
Daher haben Sicherheitsexperten drei Schlüsselanforderungen für die Absicherung der Cloud definiert:
- Konsequente Sicherheit in physischen und virtualisierten Formfaktoren.
Das gleiche Niveau für Anwendungskontrolle, gefälschte und falsch konfigurierte Anwendungen sowie Bedrohungsabwehr ist nötig, um sowohl die Cloud-Umgebung als auch das physische Netzwerk zu schützen. - Segmentierung von Geschäftsanwendungen entsprechend Zero-Trust-Grundsätzen.
Um die Auslastung von IT-Ressourcen zu maximieren, ist es eine relativ gängige Praxis, Vertrauensebenen für Anwendungs-Workloads auf der gleichen Rechenressource zu mischen. Ziel muss es sein, den Verkehr zwischen Workloads zu kontrollieren und die seitliche Bewegung von Bedrohungen zu verhindern. - Zentrale Verwaltung von Sicherheitsimplementierungen und optimierte Aktualisierung von Sicherheitsregeln.
Physische Netzwerksicherheit wird nach wie vor in den meisten Unternehmen eingesetzt. Entscheidend ist es, sowohl Hardware- als auch virtuelle Umgebungen von einem zentralen Standort aus verwalten zu können – über die gleiche Management-Infrastruktur und -Schnittstelle. Die gewählte Lösung muss in der Lage sein, physische und virtuelle Umgebungen vollständig abzudecken durch ein einheitliches Policy-Management und Regelwerk zur Durchsetzung der Sicherheitsregeln. Features für eine automatische Aktualisierung von Sicherheitsregel-Updates ergänzen den Funktionsumfang.
www.paloaltonetworks.com
Big Data, Cloud, Rechenzentrum – Auf dem Weg zum digitalen Unternehmen
IT-Infrastruktur heute und morgen – Das Rechenzentrum und die Cloud
In Frankreich arbeitet das erste Rechenzentrum mit Energiespeicherung
Ökologisches Rechenzentrum im Produktivbetrieb – IT mit grünem Fußabdruck
Notstromversorgung im Rechenzentrum – Eine USV-Lösung mit kinetischer Energie
Betriebskosten um rund ein Viertel senken – Sparen im Rechenzentrum