
Proprietäre Strukturen sind auch im Networking nicht mehr zeitgemäß. Software-Defined Networking (SDN) und disaggregierte Netzwerktechnologien bieten Anwendern heute mehr Flexibilität und weniger Aufwand bei Implementierung und Betrieb.
Die cloudKleyer Frankfurt GmbH hat ihren Firmensitz in Frankfurt am Main und setzt bewusst auf eine deutsche Cloud-Lösung. Man versteht sich als IT-Manufaktur. Kundenbedürfnisse passgenau für Cloud-Lösungen mit Individualcharakter abzubilden, steht im Vordergrund bei der Implementierung der Technologien von Kunden.
Deutschlands Unternehmen legen die Messlatte bei ihren Wünschen sehr hoch, wenn es um eine Migration in Richtung der Cloud-Version Office 365 von Microsoft geht. In einer Befragung von über 200 Unternehmen durch die Centracon AG ist untersucht worden, welche Voraussetzungen unbedingt erfüllt sein sollten, damit ein Einsatz gerechtfertigt wäre. Gleichzeitig wurde der Frage nachgegangen,…
Big Data wird immer mehr zu einem Problem für Rechenzentren. Laut einer aktuellen Studie [1] gehen 77 Prozent der befragten IT-Experten davon aus, dass die wachsende globale Datenflut zu einer zunehmend großen Herausforderung für Rechenzentren wird. Tendenz steigend: Für das Jahr 2020 gehen bereits 82 Prozent der Fachleute von Problemen aus. Diese Zahlen verwundern nicht…
In der fünften Auflage der jährlich durchgeführten Befragung unter IT-Professionals gibt eine Mehrheit (52 Prozent) an, mit Software-defined Storage (SDS) die Lebensdauer der Speicherhardware verlängern und die Zukunftssicherheit der IT-Infrastruktur gewährleisten zu wollen. Trendthemen wie Big Data, Object Storage oder OpenStack spielen in den Investitionsplanungen der Unternehmen dagegen eine untergeordnete Rolle. Der Bericht 2015 basiert…
Ein führender europäischer Anbieter von Cloud- und Carrier-neutralen Rechenzentrumsdienstleistungen für Colocation zeigt gemeinsam mit den Marktforschern von DatacenterDynamics Intelligence in einer aktuellen, technischen Untersuchung, dass Unternehmen den Bau und Betrieb ihrer Datacenter zu stark nach gängigen Standards ausrichten und dabei die Kosteneffizienz vernachlässigen [1]. Ein Fehler, den sich Organisationen nicht leisten sollten: Immerhin müssen 70…
Viele Rechenzentren haben heute Schwierigkeiten mit dem Monitoring und der Verwaltung der genutzten Serverkapazitäten. Mit einem geschätzten Anteil von 30 Prozent sind diese Tätigkeiten, welche an vielen Stellen auch in modernen Häusern noch größtenteils manuell erfolgen, ein besonders hoher Kostenpunkt – neben der Kühlung, Sicherung und Instandhaltung. Besonders teuer können Ausfälle bei lückenhafter Überwachung werden…
Im April gelang es Sicherheitsforschern in den USA, mithilfe einer manipulierten JPEG-Bilddatei Zugang zu SQL-Servern und Domänen-Controllern zu erlangen. »Es handelte sich zwar in diesem Fall nur um eine simulierte Attacke auf einen Windows Server 2012 R2. Dennoch zeigt dieses Beispiel eindrucksvoll, dass einmal eroberte Server kinderleicht zum Einfallstor werden können, um sich Zutritt zu…
Ein stabiler, sicherer IT-Betrieb – darauf zielen Unternehmen, wenn sie den IT-Betrieb an Dienstleister und in externe Rechenzentren auslagern. Doch immer mehr Entwicklungsabteilungen entwickeln agil, wollen mehrere Releases pro Tag in den Betrieb geben. Wie lässt sich dies auf Basis von Continuous Delivery mit IT-Dienstleistern realisieren?
Für weltweit 70 Prozent der IT-Manager hat der Umbau ihrer IT-Abteilungen oberste Priorität. Damit zählen die Renovierungsarbeiten (Application Modernization) zusammen mit Sicherheitsfragen und Big-Data zu den Top-3-Initiativen der IT-Verantwortlichen. Das ergibt die Studie »Global CIO Survey« [1]. Rund 600 CIOs, IT-Direktoren und IT-Manager aus Unternehmen in Nordamerika, Europa und Asien (APAC) wurden befragt. 46 Prozent…
Die Migration auf Flash parallel mit der Virtualisierung und Reduzierung redundanter Datenkopien vereinfacht die Datenverwaltung und macht Speicherinfrastrukturen leistungsfähiger – bei geringeren Betriebskosten. Die Migration auf Flash in Speicherumgebungen bringt mit der Virtualisierung von Datenkopien einen wesentlich größeren IT-Performanceschub und vereinfacht zugleich die Datenverwaltung. Dies alles geht einher mit geringeren Betriebskosten als bei konventionellen…
Big Data und kein Ende: Der weltweit rapide wachsende Speicherbedarf stellt Festplattenhersteller, Unternehmen und Rechenzentren vor immer größere Herausforderungen. Wie die enormen Datenmengen in Zukunft verarbeitet werden und welche Speicherformen in den nächsten Jahren auf den Markt drängen, stellt der eco – Verband der deutschen Internetwirtschaft e. V. vor. Laut Dr. Béla Waldhauser, Leiter der…
Mehr als 60 Prozent der mittleren und großen Unternehmen (ab 500 Mitarbeitern) sind gegenüber Cloud-basierten Arbeitsplatz-Lösungen grundsätzlich aufgeschlossen. Cloud-Euphorie gibt es aber keine – das Sicherheitsbewusstsein dominiert die Diskussionen. Anbieter deren Cloud-Rechenzentren im Inland stehen, punkten bei den Unternehmen. Das zeigt eine von PAC (Pierre Audoin Consultants) durchgeführte Sonderauswertung der Studie »Arbeitsplätze in der Wolke?!«.…
Der vierte jährliche Bericht »Veeam Data Center Availability Report 2014« zeigt auf, wie gut es Unternehmen weltweit gelingt, Zugang zu IT-Services zu gewährleisten [1]. 82 Prozent der befragten CIOs gestehen, dass sie nicht in der Lage sind, den Bedarf ihres Unternehmens nach einer sofortigen Always-On-Verfügbarkeit der IT-Dienstleistungen zu decken. Diese Verfügbarkeitslücke erzeugt unmittelbar Kosten: Anwendungsausfälle…
OpenStack ist einer der zentralen Technologietrends im weltweiten Cloud-Markt. Schon lange hat das Open Source Cloud-Management-Framework die Nische verlassen und wirbelt nun die Cloud-Planungen der CIOs und Service Provider durcheinander. Doch wie sehen deutsche IT-Entscheider die Entwicklung von OpenStack? Mit der Studie »OpenStack im Unternehmenseinsatz« liefert Crisp Research die ersten empirischen Ergebnisse zum Einsatz von…
Schon ein durchschnittlich genutztes Rechenzentrum hat zu Spitzenzeiten Mühe, für eine ausreichende Klimatisierung des Equipments zu sorgen. High Performance Computing – Hochleistungsrechnen – fordert Serversystemen über Tage oder sogar Wochen Volllast ab, dementsprechend hoch sind auch die Anforderungen an die Klimatisierung.