Drei Tipps für die Wahl eines Rechenzentrums

foto-rittal-aa-rechenzentrum-infrastruktur

Analog zur zunehmenden Digitalisierung aller Branchen bis hin zu einzelnen Mitarbeitern sind auch die Anforderungen an eine fachgerechte Sicherung und Verwaltung unternehmenseigener IT gewachsen. Worauf sollten mittelständische Geschäftsführer bei der Rechenzentrumswahl achten.

Industrie 4.0, Internet of Things (IoT) und Big Data – die Digitalisierung hat viele neuartige Themen geschaffen, die Unternehmen zeitnah auffordern ihre IT-Landschaft grundlegend zu erneuern beziehungsweise zu konsolidieren. Der Grund: Wer nicht digitalisiert, der wird im Ernstfall vom Markt vertrieben.

Ein Beispiel, das Ihnen in diesem Zusammenhang wahrscheinlich bekannt ist: Denken Sie nur kurz an die Beispiele Uber oder Airbnb, die zwei komplette Branchen für immer verändert haben. Hoteliers und Taxiunternehmen haben hier bisher in vielen Fällen den Anschluss an das digitale Zeitalter verpasst und wurden von neuen Geschäftsmodellen abgehängt.

Gerade mittelständische Unternehmen, jene »hidden champions«, die der deutschen Wirtschaft ihren Ruf zu verdanken haben, haben den Bedarf nach digitaler Modernisierung der eigenen Geschäftsmodelle mittlerweile erkannt. Hier stellen sich nun ganz andere Fragen, wie etwa »Wie gewährleiste ich eine zukunftssichere und performance-starke IT?«. Drei Möglichkeiten gibt es aktuell:

  • Modernisierung der bestehenden IT
  • Neuanschaffung zur bestehenden IT
  • Outsourcing in ein datenschutzkonformes Rechenzentrum

Die HARTL GROUP als Rechenzentrumsbetreiber gibt mittelständischen Geschäftsführern drei Tipps an die Hand, worauf Sie gerade beim Thema Outsourcing achten sollten.

 

  1. Langfristige Kostenvorteile im Rechenzentrum

Die unternehmenseigene IT in eine sichere Cloud-Umgebung auszulagern oder zu erweitern, stellt aus wirtschaftlicher und technischer Sicht eine interessante Alternative zu On-Premises-Lösungen dar.

Alleine für die Wartung und den Betrieb hauseigener Systeme investieren IT-Mitarbeiter pro Woche durchschnittlich fünf bis zehn Stunden an Arbeitszeit. Hinzu kommen beispielsweise noch der Zukauf von Lizenzen, die Einrichtung neuer Arbeitsplätze oder die Erweiterung von Speichermedien.

Im Gegensatz hierzu bieten etwa Managed Services aus einem Rechenzentrum viele Vorteile. So werden IT-Mitarbeiter von sämtlichen Standardprozessen befreit und können sich auf ihr Kerngeschäft fokussieren.

Und: Wer in ein Rechenzentrum auslagert, profitiert letztendlich gerade bei den monatlichen Kosten für die IT. Denn Managed-Service-Anbieter [1] regeln unter anderem alle Wartungs-, Betriebs- und Lizenz-Aspekte standardisiert und kosteneffizient.

Zusätzlich sollten Unternehmen, die ihre IT in ein externes Rechenzentrum auslagern möchten, darauf achten, dass der jeweilige Anbieter auch über weitreichende Partnerschaften verfügt. Der Grund: Dank vieler Partnerprogramme zwischen Hersteller und Rechenzentrumsanbieter entstehen maßgebliche Kostenvorteile beim Zukauf von Hard- und Software für den Kunden.

 

  1. Höchste Performance und Verfügbarkeit

Unternehmen, die ihre IT in die Hände eines Rechenzentrums geben, sollten an erster Stelle darauf achten, wie verfügbar die Services der Anbieter sind. Schließlich will kein Geschäftsführer mit zufälligen Ausfällen einzelner Anwendungen oder gar der ganzen IT rechnen müssen.

Die Anforderungen an die Verfügbarkeit von Rechenzentren und den IT-Services sind demnach drastisch gestiegen. Amazon beispielsweise garantiert zwar für seinen Cloud-Computing-Service »Elastic Compute Cloud« eine Verfügbarkeit von fast 100 Prozent, kann aber beispielsweise keinen deutschen Rechenzentrumsstandort oder persönlichen Support bieten.

Und hier trennen sich auch die individuellen Anforderungen der Unternehmen. Wer gerne möglichst kostengünstig und ausfallsicher IT auslagern möchte, der findet bei AWS und Microsoft Azure seine Lösung.

Unternehmen die aber zusätzlich auf einen deutschen Support, regionalen Rechenzentrumsstandort und vielleicht sogar auf persönliche Beratung auf Augenhöhe Wert legen, sollten sich bei der wachsenden Anzahl von Full-Service-Anbietern hierzulande umsehen.

Der Vorteil: Deutsche Full-Service-Anbieter beraten ihre Kunden teilweise vollkommen kostenlos, bieten attraktive Angebote beim Zukauf von IT und stellen selbst bei Lösungen von US-Anbietern deutsche Rechnungen aus.

 

  1. Zukunftssicher gegen Industriespionage

Unternehmen, die ihre Daten, Infrastrukturen und IT-Prozesse effizient schützen wollen, sollten eine genaue Analyse des Schutzbedarfs im Rechenzentrum durchführen.

Im ersten Schritt liefert ein funktionierendes Risikomanagement hier die Basis für die Analyse des individuellen Schutzbedarfs. Es betrachtet unter anderem den möglichen Schaden, wenn IT-gestützte Prozesse, Daten, physische und virtuelle Instanzen nicht ordnungsgemäß funktionieren oder ausfallen.

Im zweiten Schritt müssen Unternehmen klären, welchen Anforderungen der Rechenzentrumsbetreiber ihrer Wahl entsprechen sollte oder gar muss. Hier geht es vorwiegend um Aspekte wie Datenschutz, IT-Security und Schutz vor digitaler Wirtschaftsspionage. Einige wichtige Kernfaktoren sind zum Beispiel:

  • Ein datenschutzkonformer deutscher Rechenzentrumsstandort
  • Multi-Faktor-Authentifizierung bei allen Serverräumen
  • Tier-3-Zertifizierung mit u.a. 24 x 7 Sicherheitsdienst vor Ort, Notstromaggregaten und automatischen Notfallkühlungssystemen
  • ISO-Zertifizierungen (etwa ISO 9001:2008, ISO 27001, ISAE 3402, ISO 20000, ISO 14001, OHSAS 18001
[1] Weitere Informationen zum Leistungsspektrum, den Sicherheitsvorkehrungen und Zertifizierungen der HARTL GROUP erfahren Sie auch hier.

Die drei wichtigs­ten Anfor­de­run­gen für Cloud-Sicherheit

Eine wachsende Zahl von Unter­neh­men setzt mittler­weile auf eine Mischung aus lokal betrie­be­ner Hardware und Cloud-Computing-Anwendungen, um die Gesamt­be­triebs­kos­ten in den Griff zu bekom­men und die betrieb­li­che Effizi­enz zu steigern. Mit großen Verän­de­run­gen gehen aber auch große Heraus­for­de­run­gen einher. So weist Exper­ten darauf hin, dass es entschei­dende Unter­schiede gibt zwischen den Sicher­heits­maß­nah­men für Cloud-basierte Techno­lo­gien und tradi­tio­nelle Hardware-basierte Rechen­zen­tren bezie­hungs­weise lokal betrie­bene Infra­struk­tu­ren.

»Ein Rechen­zen­trum ist eine feste Umgebung, in der Anwen­dun­gen auf dedizier­ten Servern ausge­führt werden, auf die nur autori­sierte Benut­zer zugrei­fen können. Im Gegen­satz dazu ist eine Cloud-Umgebung dynami­sch und automa­ti­siert. Rechenressourcen-Pools stehen bei Bedarf zu jeder Zeit, von jedem Gerät aus zur Verfü­gung, um Anwen­dungs­ar­beits­las­ten zu unter­stüt­zen«, erklärt Thors­ten Henning, Senior Systems Enginee­ring Manager Central & Eastern Europe bei Palo Alto Networks. »Es scheint fast so, dass viele der Prinzi­pien, die Cloud Compu­ting gerade so attrak­tiv machen, konträr zu bewähr­ten Sicher­heits­prak­ti­ken sind.«

Experten haben die Sicher­heit von tradi­tio­nel­len und Cloud-basierten Rechen­zen­tren gegen­über­ge­stellt und die drei wichtigs­ten Anfor­de­run­gen für Cloud-Sicherheit definiert.

Cloud Compu­ting reduziert vorhan­dene Netzwerk­si­cher­heits­ri­si­ken nicht

Die Sicher­heits­ri­si­ken, die ein Rechen­zen­trum und Netzwerk heute bedro­hen, verän­dern sich, sobald Anwen­dun­gen in die Cloud verla­gert werden. Zum Beispiel verwen­den viele Anwen­dun­gen im Rechen­zen­trum eine breite Palette von Ports, was herkömm­li­che Sicher­heits­maß­nah­men ineffek­tiv macht, wenn diese Anwen­dun­gen in die Cloud verscho­ben werden. Cyber­kri­mi­nelle kreieren anspruchs­volle, Port-unabhängige Angriffs­sze­na­rien, um über verschie­dene Angriffs­vek­to­ren mithilfe gängi­ger Anwen­dun­gen ihr Ziel zu kompro­mit­tie­ren.

Sicher­heit erfor­dert Trennung und Segmen­tie­rung – die Cloud basiert jedoch auf gemein­sam genutz­ten Ressour­cen

Seit Jahrzehn­ten geben Best Practices für Infor­ma­ti­ons­si­cher­heit vor, dass geschäfts­kri­ti­sche Anwen­dun­gen und Daten in siche­ren, getrenn­ten Segmen­ten im Netzwerk vorge­hal­ten werden sollen. Oft wird dies als Zero-Trust-Prinzip bezeich­net: Nie vertrauen, immer überprü­fen. Auf einem physi­schen Netzwerk inner­halb des eigenen Rechen­zen­trums ist Zero Trust relativ einfach mithilfe von Firewalls und VLANs umzuset­zen. Hinzu kommen Regeln auf Basis der Anwendungs- und Benut­ze­r­iden­ti­tät.

In einer Cloud-Umgebung hinge­gen erfolgt eine ständige Kommu­ni­ka­tion zwischen den virtu­el­len Maschi­nen inner­halb eines Servers, in einigen Fällen über verschie­dene Vertrau­ens­ebe­nen hinweg. Dies macht die Segmen­tie­rung zu einer schwie­ri­gen Aufgabe, zumal Cloud-Anwendungen auf gemein­sam genutz­ten Ressour­cen basie­ren. Unter­schied­li­che Vertrau­ens­ebe­nen in Kombi­na­tion mit mangeln­der Sicht­bar­keit des Daten­ver­kehrs durch virtua­li­sierte Port-basierte Sicher­heits­lö­sun­gen können die Sicher­heits­lage gefähr­den.

Sicher­heits­kon­fi­gu­ra­tio­nen sind prozess­ori­en­tiert, Cloud-Umgebungen sind dynami­sch

Virtu­elle Arbeits­las­ten können in wenigen Minuten erstellt oder geändert werden. Die Einrich­tung der Sicher­heits­kon­fi­gu­ra­tion für die jewei­li­gen Arbeits­las­ten kann Stunden, Tage oder Wochen erfor­dern. So entste­hen Diskre­pan­zen zwischen Sicher­heits­po­li­tik und Bereit­stel­lung von Arbeits­las­ten in der Cloud. Das Ergeb­nis ist eine geschwächte Sicher­heits­lage, wodurch wichtige Daten und geisti­ges Eigen­tum gefähr­det werden. Zudem kann es zu Verstö­ßen gegen Compliance- und Governance-Richtlinien und entspre­chende gesetz­li­che Verord­nun­gen kommen.

Daher haben Sicher­heits­ex­per­ten drei Schlüs­sel­an­for­de­run­gen für die Absiche­rung der Cloud definiert:

  1. Konse­quente Sicher­heit in physi­schen und virtua­li­sier­ten Formfak­to­ren.
    Das gleiche Niveau für Anwen­dungs­kon­trolle, gefälschte und falsch konfi­gu­rierte Anwen­dun­gen sowie Bedro­hungs­ab­wehr ist nötig, um sowohl die Cloud-Umgebung als auch das physi­sche Netzwerk zu schüt­zen.
  2. Segmen­tie­rung von Geschäfts­an­wen­dun­gen entspre­chend Zero-Trust-Grundsätzen.
    Um die Auslas­tung von IT-Ressourcen zu maximie­ren, ist es eine relativ gängige Praxis, Vertrau­ens­ebe­nen für Anwendungs-Workloads auf der gleichen Rechen­res­source zu mischen. Ziel muss es sein, den Verkehr zwischen Workloads zu kontrol­lie­ren und die seitli­che Bewegung von Bedro­hun­gen zu verhin­dern.
  3. Zentrale Verwal­tung von Sicher­heits­im­ple­men­tie­run­gen und optimierte Aktua­li­sie­rung von Sicher­heits­re­geln.
    Physi­sche Netzwerk­si­cher­heit wird nach wie vor in den meisten Unter­neh­men einge­setzt. Entschei­dend ist es, sowohl Hardware- als auch virtu­elle Umgebun­gen von einem zentra­len Stand­ort aus verwal­ten zu können – über die gleiche Management-Infrastruktur und -Schnitt­stelle. Die gewählte Lösung muss in der Lage sein, physi­sche und virtu­elle Umgebun­gen vollstän­dig abzude­cken durch ein einheit­li­ches Policy-Management und Regel­werk zur Durch­set­zung der Sicher­heits­re­geln. Features für eine automa­ti­sche Aktua­li­sie­rung von Sicherheitsregel-Updates ergän­zen den Funkti­ons­um­fang.

www.paloaltonetworks.com


Sicherheit im Rechenzentrum: Verordneter IT-Schutz

Automatisches Feuerlöschsystem im Rechenzentrum

Big Data, Cloud, Rechenzentrum – Auf dem Weg zum digitalen Unternehmen

IT-Infrastruktur heute und morgen – Das Rechenzentrum und die Cloud

In Frankreich arbeitet das erste Rechenzentrum mit Energiespeicherung

Quo vadis Rechenzentrumsmarkt

Das moderne Rechenzentrum

Ökologisches Rechenzentrum im Produktivbetrieb – IT mit grünem Fußabdruck

Notstromversorgung im Rechenzentrum – Eine USV-Lösung mit kinetischer Energie

Betriebskosten um rund ein Viertel senken – Sparen im Rechenzentrum

Miniaturisierung der IT: Das Rechenzentrum in der Kiste

Das »energieeffizienteste« Rechenzentrum der Welt

Schreiben Sie einen Kommentar