Sechs Fragen rund um Multi-Cloud – Vorteile und Herausforderungen

Illustration: Absmeier, Mittermeier

Viele Unternehmen nutzen mehr als einen Public-Cloud-Anbieter. Man spricht hier von »Multi-Cloud«, als Abgrenzung zur Hybrid-Cloud. Was steckt hinter dem Trend? Welche Auswirkungen hat dies auf ein Unternehmen? Wann sollte mehr als eine Public Cloud genutzt werden und wann ist dies zu vermeiden? Rubrik, Anbieter von Multi-Cloud Data-Control, liefert heute Antworten auf sechs der häufigsten Fragen zur Multi-Cloud.

 

  1. Was ist die Multi-Cloud? Warum wird sie immer beliebter?

Einfach ausgedrückt, steht der Begriff Multi-Cloud für die Nutzung von mehr als einem Public-Cloud-Anbieter. Es gibt laut Gartner mehrere Gründe, warum dieser Ansatz immer beliebter wird, darunter erhöhte Ausfallsicherheit, die Fähigkeit, Kosten besser zu managen und die Tatsache, dass verschiedene Clouds für bestimmte Anwendungen besser geeignet sind (siehe weiter unten).

 

  1. Wie wirkt sich die Multi-Cloud auf ein Unternehmen aus? Wie geht ein Unternehmen damit um?

Aus Sicht des Kostenmanagements kann sich dies positiv auswirken. In der Cloud-Welt gibt es Preiskriege, ähnlich wie bei Supermarktketten. Preisüberprüfungen und -senkungen finden ständig statt und daher ist es sinnvoll, in mehr als einem »Geschäft« einkaufen zu können. Um dies jedoch effektiv zu erreichen, bedarf es eines vielschichtigen Fachwissens.

 

  1. Wann sollten Unternehmen mehrere Clouds nutzen? Wann sollten sie das vermeiden?

Unternehmen sollten mehrere Clouds verwenden, wenn das Kostenmanagement ein Hauptaugenmerk ist und es ihnen um Verfügbarkeit geht. Voraussetzung ist, dass sie eine Cloud-Data-Management-Lösung im Einsatz haben, die es ihnen ermöglicht, ihre Daten einfach zwischen den Clouds zu verschieben.

Die Nutzung mehrerer Clouds sollte hingegen vermieden werden, wenn Unternehmen über herkömmliche Datenmanagement-Tools verfügen und daher ihre Daten nicht effektiv verwalten können.

 

  1. Welche Best Practices gibt es für das Management vieler Clouds innerhalb eines Unternehmens?

Bei der Verwaltung mehrerer Clouds sind Orchestrierungs-Tools sinnvoll, um den Einsatz vieler verschiedener Management-Tools zu vermeiden. Natürlich ist auch die API-Integration entscheidend. Ebenso sollte Cloud Data Management eingesetzt werden, um zu vermeiden, dass Daten an einen einzigen Anbieter gebunden werden.

 

  1. Welche potenziellen Nachteile hat die Multi-Cloud und wie lässt sich diesen entgegenwirken?

Es gibt einige Nachteile. So kann es schwierig sein, Anwendungen zwischen Clouds zu verschieben. Es ist auch schwieriger, die Kosten zu messen, es sei denn, es steht ein zentrales Tool bereit, um die Kosten im Auge zu behalten.

Unternehmen können die Herausforderungen der Datenbindung an einen Anbieter mindern, indem sie ebenfalls mit Hilfe einer Cloud-Data-Management-Lösung die Daten von der Infrastruktur entkoppeln. Dies ermöglicht die Orchestrierung zwischen den Clouds und sogar zurück zum traditionellen Rechenzentrum des Unternehmens.

 

  1. Wie wird sich das Management von Multi-Clouds in den nächsten 18 bis 24 Monaten verändern? Wie sollten sich Unternehmen am besten vorbereiten?

Es ist wahrscheinlich, dass Cloud Broker eingesetzt werden und sich um das Management der Multi-Cloud kümmern werden. So werden Unternehmen eine bestimmte Menge an Rechenleistung oder Speicherplatz anfordern und der Cloud Broker wird den Standort und die Kosten für sie verwalten. Für diejenigen, die die Multi-Cloud nutzen wollen, sollte es einfacher werden.

 

Multi Cloud von Anfang an richtig nutzen – Ein Blick ins Wolkenmeer

Lange Zeit wurde in den deutschen Unternehmen diskutiert, ob man überhaupt Cloud Services nutzen sollte und darf, und wenn ja, welcher Anbieter der richtige ist. Diese Zeiten sind vorbei. 

Mittlerweile ist es keine Frage mehr, ob Cloud Services eingesetzt werden, sondern welche Art von Cloud Services – sei es Multi Cloud und/oder Hybrid Cloud. Amazon, Microsoft oder Google, jeder Anbieter setzt auf spezielle Services und Schwerpunkte, so dass es nicht trivial ist, den richtigen Anbieter für seine speziellen Bedürfnisse zu finden. Unabhängig vom Anbieter sind im Vorfeld unbedingt einige Punkte zu beachten, die Unternehmen durchaus vor Herausforderungen stellen können.  

Oftmals werden Multi Cloud und Hybrid Cloud in einem Atemzug genannt. Allerdings verbergen sich dahinter unterschiedliche Konzepte. Während eine Hybrid Cloud eine Private Cloud mit einer Public Cloud verbindet und damit in der Regel eine »verlängerte Werkbank« darstellt, handelt es sich bei einer Multi Cloud um eine Verbindung zu mehreren Public Clouds. Die Entscheidung, welches Modell beziehungsweise welche Kombination eingesetzt wird, hängt von den Geschäftsanforderungen und der IT-Strategie des jeweiligen Unternehmens ab. 

Ziel der Multi Cloud ist es, die Services, Anwendungen und Infrastrukturen auf den Cloud-Strukturen verschiedener Anbieter parallel zu nutzen und dadurch von einem einzelnen Provider unabhängig zu agieren. Die Services lassen sich je nach Bedarf, gewünschter Leistung und Preis vom jeweils geeignetsten Anbieter auswählen. Unternehmen setzen dabei zwangsläufig unterschiedliche Schwerpunkte. Grob sind hier zwei Vorgehensweisen zu erkennen:

  • »Best of Breed«-Ansatz
    Dabei handelt es sich um die Nutzung unterschiedlichster Services aus verschiedenen Clouds, entsprechend den Geschäftsanforderungen. IaaS-, PaaS-, SaaS- oder XaaS-Lösungen können hier in Frage kommen, die genutzt werden, um eigene Applikationen/Services oder Daten in die Cloud zu verlagern.
  • Nutzung von IaaS (Infrastructure as a Service)
    Hierunter zählen beispielsweise Storage-Kapazitäten aus verschiedenen Clouds. Ein Automatisierungstool, ein sogenannter Broker (Vermittler), entscheidet zum Zeitpunkt der Anforderung – unter Kostenaspekten – welcher Storage von welchem Public Cloud-Anbieter dem Kunden zur Verfügung gestellt wird. Dieser Vorgang ist für den Anwender völlig transparent. 

Eine Integration der beiden Modelle in eine Private Cloud ist möglich und wird als Hybrid Cloud bezeichnet.

Ist eine grundlegende Entscheidung gefallen, sind einige Vorarbeiten und Überlegungen notwendig. Ein einfaches »Lift & Shift«, das heißt die vorhandene IT-Infrastruktur 1:1 in der Public Cloud abzubilden, bringt in der Regel nicht die erhofften Vorteile und führt zudem oftmals in eine Sackgasse. Ist die Entscheidung für ein Cloud-Modell gefallen, ist es ratsam, bereits frühzeitig den zweiten Schritt, die Exit-Strategie, festzulegen. Neben der Strategie, wie Daten und Anwendungen in die Cloud kommen, sollte gleichzeitig unbedingt eine Strategie festgelegt werden, wie diese wieder aus der oder den Clouds herauskommen. Dabei geht es nicht nur um Daten, sondern auch um die weitere Nutzung der Services oder eigenentwickelten Applikationen/Services. Unternehmen, die sich erst Jahre später mit dem Thema Exit beschäftigen, nachdem viele Systeme, Daten und Services in die Public Cloud verlagert wurden, tun sich erfahrungsgemäß sehr schwer mit den nachträglichen Planungen – die Herausforderungen sind meistens sehr hoch. Doch worauf sollte bei einer guten Exit-Strategie geachtet werden? Grundsätzlich bieten sich zwei Exit-Lösungen und Vorgehensweisen an:

  • Transfer oder Migration aller Applikationen/Services und Daten zurück in die On-Premises-Umgebung, also in das eigene Rechenzentrum. Dies wird jedoch umso schwieriger, je länger Public Cloud Services genutzt werden. Der Hauptgrund besteht darin, dass Public Cloud Services nicht auf der eigenen IT-Infrastruktur abzubilden sind. 
  • Bei einer Verlagerung in die Public Cloud ist es sinnvoll, bei der Neuentwicklung oder Anpassung der benötigten Applikationen/Services unbedingt Public-Cloud-Standards zu berücksichtigen. In Abhängigkeit der zu transferierenden Anwendungen, Daten und Schnittstellen können sich erhebliche Aufwendungen im Programmierungsbereich ergeben. Hier sollte eine Prüfung erfolgen, ob der Aufwand gerechtfertigt ist oder ob neue Services aus der Cloud diese abdecken können. Bei einer Legacy-Anwendung stehen die Anpassungen meist in keinem Verhältnis zum Nutzen. Somit ist ein Verbleib On-Premises meistens die bessere Lösung.

Neben den bereits erwähnten Punkten ist es erforderlich, sich Gedanken über die Netzwerkanbindung an die einzelnen Public Clouds zu machen. Je mehr Clouds genutzt werden, desto komplexer sind die Möglichkeiten der Netzwerkanbindung. Grundsätzlich stehen drei Alternativen zur Verfügung:

  • Zugriff über das Internet (unverschlüsselt)
  • Zugriff über das Internet mit VPN-Verschlüsselung
  • Zugriff über eine direkte Verbindung (etwa Amazon AWS – Direct Connect oder MS Azure – ExpressRoute)

In Abhängigkeit von Verfügbarkeit, benötigter Bandbreite und Sicherheitsanforderungen kommen die entsprechenden Lösungen zum Einsatz. Für mobile User bietet sich in der Regel der Zugriff über eine VPN-verschlüsselte Internetverbindung an. Unternehmen, die bereits ihre IT-Infrastruktur in eine Colocation verlegt haben und Public Cloud-Dienste im großen Umfang mit entsprechenden Sicherheitsmaßnahmen nutzen, setzen vorrangig direkte Verbindungen ein, die von den verschiedenen Colocation-Anbietern zur Verfügung gestellt werden. Diese Cloud-Exchange-Knoten bieten eine direkte Verbindung in die entsprechenden Clouds und erlauben es, auch hochverfügbare Routen zu den Regionen der Cloud-Anbieter umzusetzen.

Des Weiteren sollte die Auswahl eines geeigneten Multi-Cloud-Management-Tools im Vorfeld erfolgen. Hier gibt es mehrere Lösungsanbieter am Markt, die unterschiedliche Bedürfnisse und Anforderungen abdecken. 

Controlware unterstützt die Kunden nicht nur bei der Umsetzung der Cloud-Strategie, sondern steht bereits im Vorfeld als Partner beratend zur Seite – unter anderem bei Themen wie Exit-Strategie, Netzwerkdesign und Security.


Angelika Stiehl,
Business Development Manager
Application Delivery/Data Center,
Controlware GmbH
www.controlware.de

 

 

Illustration: © kkoman /shutterstock.com

 

685 Artikel zu „Multi Cloud“

Datenmanagement in Multi-Cloud-Umgebungen: Unternehmensdaten unter Kontrolle

Der Schutz und die Integrität seiner Daten hat für ein Unternehmen höchste Priorität. Das gilt auch dann, wenn solche Informationen auf mehreren Public-Cloud-Plattformen gespeichert werden. Wer die volle Kontrolle über solche Daten behalten möchte, benötigt eine Lösung, die Multi-Cloud-Services mit einem effektiven Datenmanagement verbindet. Cloud Computing – ja gerne. Aber geschäftskritische Daten sollten dennoch unter…

Multi-Cloud-Netzwerke absichern

Cloud-basierte Rechen- und Serviceplattformen versetzen Unternehmen in die Lage, sich an die neue digitale Wirtschaft anzupassen. Die Cloud ermöglicht es ihnen, schnell Ressourcen zu bündeln, neue Anwendungen zu implementieren und in Echtzeit auf die Anforderungen von Nutzern und Verbrauchern zu reagieren. So können Sie auf dem heutigen digitalen Markt effektiv agieren und konkurrenzfähig bleiben. Doch…

Neue Storage-Architekturen: Hybrid- und Multi-Cloud-Strategien beschleunigen

Auch wenn alle Welt über Daten und ihre Bedeutung für mehr Wettbewerbsfähigkeit und Flexibilität spricht, so fällt es vielen Unternehmen dennoch schwer, dieses Potenzial zu nutzen – und zwar aus einem einfachen Grund: Traditionelle Storage-Anbieter halten sie davon ab, ihr System zu modernisieren, weil sie an herkömmlichen Architekturen mit all ihrer inhärenten Komplexität und Einschränkungen…

Multi-Cloud-Ansätze für Unternehmen – Ein Hype mit Zukunft

Die wachsenden Anforderungen an IT-Infrastrukturen bringen herkömmliche Public-, Private- und Hybrid-Cloud-Modelle zunehmend an ihre Grenzen. Ein Multi-Cloud-Ansatz kann hier Abhilfe schaffen, indem er individuelle Lösungen für spezifische Anforderungen mit hoher Flexibilität und Unabhängigkeit vereint. Eine sorgfältige Kosten-Nutzen-Abwägung bleibt jedoch auch hier das A und O.

Studie »The Future of Multi-Cloud« – Die Multi-Cloud zukunftssicher schützen

Technologien verändern sich immer schneller. So wird es für IT-Verantwortliche immer schwieriger, die richtigen zukunftsfähigen Sicherheitslösungen zu implementieren. Welche Trends in den kommenden Jahren dabei zu berücksichtigen sind, zeigt die aktuelle Studie »The Future of Multi-Cloud« (FOMC) der Foresight Factory.

Hybride Multi-Cloud-Lösungen für mehr Freiheit und Transparenz

Sollten sich Unternehmen mit einem »Eine-Cloud-für-alles«-Ansatz begnügen? Nein! Denn Unternehmen, die offene, hybride Cloud-Lösungen nutzen, haben ganz klare Wettbewerbsvorteile. Denn eine hybride Multi-Cloud-Architektur passt sich mit verschiedenen Cloud-Anbietern und Konfigurationen ideal an unterschiedliche Use-Cases an und lässt sich trotzdem einheitlich verwalten.   Mythen über Multi-Clouds Es ist ein verbreitetes Missverständnis, dass mehrere Clouds automatisch eine…

Studie hebt zunehmenden Bedarf an Flexibilität bei dem Betrieb von Multi-Cloud-Umgebungen hervor

Laut der Umfrage wägen Unternehmen mit hybriden Kombinationen aus herkömmlicher und Multi-Cloud-IT deren Vorteile wie Cloud-Agilität und Risiken wie Anbieterbindung genau ab. Flexibilität bei der Beschaffung ist für 80 Prozent der Befragten das wichtigste Vorgehen, um die Bindung an den Anbieter zu vermeiden. 48 Prozent der Befragten halten Integration und Orchestrierung für die größte Hürde…

Netzwerk-Service-Provider setzen für private On-Demand-Multicloud-Konnektivität auf Equinix Cloud Exchange Fabric

ECX Fabric etabliert sich als globaler De-facto-Standard für Cloud-Anbindungen und kommt zunehmend bei Netzwerk-Service-Providern zum Einsatz. Immer mehr Netzwerk-Service-Provider-Kunden (NSPs) nutzen Equinix Cloud Exchange Fabric (ECX Fabric), um ihren Geschäftskunden private On-Demand-Multicloud-Konnektivität bereitzustellen. Das hat Equinix (Nasdaq: EQIX), der global führende Anbieter von Interconnection- und Rechenzentrumsdienstleistungen bekanntgegeben.   ECX Fabric verschafft Netzwerken den optimierten Zugang…

Multi-Cloud- und Hybrid-IT: Intelligent Identity Platform jetzt mit verbesserter Kundenerfahrung und IT-Automation

PingFederate-, PingAccess- und PingDirectory-Updates beschleunigen die Implementierung und Bereitstellung von Multi-Cloud- und Hybrid-IT-Umgebungen. Ping Identity, Anbieter im Bereich Identity Defined Security, kündigte Updates für seine Softwareprodukte, darunter PingFederate, PingAccess und PingDirectory, an. Die neuen Versionen verbessern die Benutzererfahrung für Anwender und Administratoren. Gleichzeitig erfüllen sie die Anforderungen moderner Unternehmen, schnell und zielgerichtet zu agieren. Moderne…

Der Multi-Cloud-Trend erreicht Deutschland

Wenn Unternehmen die Herausforderungen der Digitalisierung meistern wollen, dann nimmt die Nutzung von Cloud-Technologien eine Schlüsselrolle ein. Cloud-Dienste stellen die Voraussetzung für Agilität und Innovationsfähigkeit dar. Doch noch immer nutzen längst nicht alle Firmen diese Form der IT-Infrastruktur, bei der Speicherplatz, Software und Rechenleistungen über einen Server bereitgestellt werden. »Die Nutzung von Cloud Computing bedeutet…

 

Gartner Identifies the Top 10 Strategic Technology Trends for 2020

Gartner highlighted the top strategic technology trends that organizations need to explore in 2020.

Gartner defines a strategic technology trend as one with substantial disruptive potenzial that is beginning to break out of an emerging state into broader impact and use, or which is rapidly growing with a high degree of volatility reaching tipping points over the next five years.

 

»People-centric smart spaces are the structure used to organize and evaluate the primary impact of the Gartner top strategic technology trends for 2020,” said David Cearley, vice president and Gartner Fellow. »Putting people at the center of your technology strategy highlights one of the most important aspects of technology — how it impacts customers, employees, business partners, society or other key constituencies. Arguably all actions of the organization can be attributed to how it impacts these individuals and groups either directly or indirectly. This is a people-centric approach.”

»Smart spaces build on the people-centric notion. A smart space is a physical environment in which people and technology-enabled systems interact in increasingly open, connected, coordinated and intelligent ecosystems. Multiple elements — including people, processes, services and things — come together in a smart space to create a more immersive, interactive and automated experience,” said Mr. Cearley.

 

The top 10 strategic technology trends for 2020 are:

 

Hyperautomation

 

Hyperautomation is the combination of multiple machine learning (ML), packaged software and automation tools to deliver work. Hyperautomation refers not only to the breadth of the pallet of tools, but also to all the steps of automation itself (discover, analyze, design, automate, measure, monitor and reassess). Understanding the range of automation mechanisms, how they relate to one another and how they can be combined and coordinated is a major focus for hyperautomation.

 

This trend was kicked off with robotic process automation (RPA). However, RPA alone is not hyperautomation. Hyperautomation requires a combination of tools to help support replicating pieces of where the human is involved in a task.

 

Multiexperience

 

Through 2028, the user experience will undergo a significant shift in how users perceive the digital world and how they interact with it. Conversational platforms are changing the way in which people interact with the digital world. Virtual reality (VR), augmented reality (AR) and mixed reality (MR) are changing the way in which people perceive the digital world. This combined shift in both perception and interaction models leads to the future multisensory and multimodal experience.

 

»The model will shift from one of technology-literate people to one of people-literate technology. The burden of translating intent will move from the user to the computer,” said Brian Burke, research vice president at Gartner. . »This ability to communicate with users across many human senses will provide a richer environment for delivering nuanced information.”

 

Democratization of Expertise

 

Democratization is focused on providing people with access to technical expertise (for example, ML, application development) or business domain expertise (for example, sales process, economic analysis) via a radically simplified experience and without requiring extensive and costly training. »Citizen access” (for example, citizen data scientists, citizen integrators), as well as the evolution of citizen development and no-code models, are examples of democratization.

 

Through 2023, Gartner expects four key aspects of the democratization trend to accelerate, including democratization of data and analytics (tools targeting data scientists expanding to target the professional developer community), democratization of development (AI tools to leverage in custom-developed applications), democratization of design (expanding on the low-code, no-code phenomena with automation of additional application development functions to empower the citizen-developer) and democratization of knowledge (non-IT professionals gaining access to tools and expert systems that empower them to exploit and apply specialized skills beyond their own expertise and training).

 

Human Augmentation

 

Human augmentation explores how technology can be used to deliver cognitive and physical improvements as an integral part of the human experience. Physical augmentation enhances humans by changing their inherent physical capabilities by implanting or hosting a technology element on their bodies, such as a wearable device. Cognitive augmentation can occur through accessing information and exploiting applications on traditional computer systems and the emerging multiexperience interface in smart spaces. Over the next 10 years increasing levels of physical and cognitive human augmentation will become prevalent as individuals seek personal enhancements. This will create a new »consumerization” effect where employees seek to exploit their personal enhancements — and even extend them — to improve their office environment.

 

Transparency and Traceability

 

Consumers are increasingly aware that their personal information is valuable and are demanding control. Organizations recognize the increasing risk of securing and managing personal data, and governments are implementing strict legislation to ensure they do. Transparency and traceability are critical elements to support these digital ethics and privacy needs.

 

Transparency and traceability refer to a range of attitudes, actions and supporting technologies and practices designed to address regulatory requirements, preserve an ethical approach to use of artificial intelligence (AI) and other advanced technologies, and repair the growing lack of trust in companies. As organizations build out transparency and trust practices, they must focus on three areas: (1) AI and ML; (2) personal data privacy, ownership and control; and (3) ethically aligned design.

The Empowered Edge

 

Edge computing is a computing topology in which information processing and content collection and delivery are placed closer to the sources, repositories and consumers of this information. It tries to keep the traffic and processing local to reduce latency, exploit the capabilities of the edge and enable greater autonomy at the edge.

 

»Much of the current focus on edge computing comes from the need for IoT systems to deliver disconnected or distributed capabilities into the embedded IoT world for specific industries such as manufacturing or retail,” said Mr. Burke. »However, edge computing will become a dominant factor across virtually all industries and use cases as the edge is empowered with increasingly more sophisticated and specialized compute resources and more data storage. Complex edge devices, including robots, drones, autonomous vehicles and operational systems will accelerate this shift.”

 

Distributed Cloud

 

A distributed cloud is the distribution of public cloud services to different locations while the originating public cloud provider assumes responsibility for the operation, governance, updates to and evolution of the services. This represents a significant shift from the centralized model of most public cloud services and will lead to a new era in cloud computing.

Autonomous Things

 

Autonomous things are physical devices that use AI to automate functions previously performed by humans. The most recognizable forms of autonomous things are robots, drones, autonomous vehicles/ships and appliances. Their automation goes beyond the automation provided by rigid programing models, and they exploit AI to deliver advanced behaviors that interact more naturally with their surroundings and with people. As the technology capability improves, regulation permits and social acceptance grows, autonomous things will increasingly be deployed in uncontrolled public spaces.

 

»As autonomous things proliferate, we expect a shift from stand-alone intelligent things to a swarm of collaborative intelligent things where multiple devices will work together, either independently of people or with human input,” said Mr. Burke. »For example, heterogeneous robots can operate in a coordinated assembly process. In the delivery market, the most effective solution may be to use an autonomous vehicle to move packages to the target area. Robots and drones aboard the vehicle could then affect final delivery of the package.”

Practical Blockchain

 

Blockchain has the potenzial to reshape industries by enabling trust, providing transparency and enabling value exchange across business ecosystems, potenzially lowering costs, reducing transaction settlement times and improving cash flow. Assets can be traced to their origin, significantly reducing the opportunities for substitutions with counterfeit goods. Asset tracking also has value in other areas, such as tracing food across a supply chain to more easily identify the origin of contamination or track individual parts to assist in product recalls. Another area in which blockchain has potenzial is identity management. Smart contracts can be programmed into the blockchain where events can trigger actions; for example, payment is released when goods are received.

 

»Blockchain remains immature for enterprise deployments due to a range of technical issues including poor scalability and interoperability. Despite these challenges, the significant potenzial for disruption and revenue generation means organizations should begin evaluating blockchain, even if they don’t anticipate aggressive adoption of the technologies in the near term,” said Mr. Burke.

 

AI Security

 

AI and ML will continue to be applied to augment human decision making across a broad set of use cases. While this creates great opportunities to enable hyperautomation and leverage autonomous things to deliver business transformation, it creates significant new challenges for the security team and risk leaders with a massive increase in potenzial points of attack with IoT, cloud computing, microservices and highly connected systems in smart spaces. Security and risk leaders should focus on three key areas — protecting AI-powered systems, leveraging AI to enhance security defense, and anticipating nefarious use of AI by attackers.

 

Gartner clients can read more in the Gartner Special Report »Top 10 Strategic Technology Trends for 2020.«

 

About Gartner IT Symposium/Xpo

Gartner IT Symposium/Xpo is the world’s most important gathering of CIOs and senior IT executives, uniting a global community of CIOs with the tools and strategies to help them lead the next generation of IT and achieve business outcomes. More than 20,000 CIOs, senior business and IT executives worldwide will gather for the insights they need to ensure that their IT initiatives are key contributors to, and drivers of, their organization’s success.