Alle Artikel zu Datenmengen

Das Potenzial von Machine Learning in einem Data Lake

Egal um welche Branche oder Unternehmensgröße es sich handelt: Daten sind unverzichtbar geworden, wenn es darum geht, fundierte Entscheidungen zu treffen oder Prozesse zu optimieren. Dazu müssen die gewaltigen Datenmengen, die Unternehmen heute ununterbrochen generieren allerdings erst erschlossen und nutzbar gemacht werden. Die Grundlage dafür bildet der Data Lake (Datensee), ein zentrales Repository, in dem…

Auf jede Frage eine Antwort: Sichere Entscheidungsfindung dank künstlicher Intelligenz

Unternehmen benötigen riesige Datenmengen, um angemessen über die geschäftliche Ausrichtung zu urteilen. Im Zeitalter von Big Data nimmt der Pool relevanter Informationen dabei immer weiter zu. Wertvolle Unterstützung erhalten Führungskräfte durch künstliche Intelligenz (KI), die dabei hilft, Antworten auf komplexe Fragestellungen zu geben.   Zuverlässige Methoden der Datenorganisation und -auswertung bilden die Kernaspekte einer erfolgreichen…

6 Gründe für ein Cloud-basiertes Data Warehouse

Ein Data Warehouse, das Daten aus verschiedenen Quellen zusammenfasst, um sie analysieren und darauf reagieren zu können, ist heute entscheidend für den Geschäftserfolg. Denn es verarbeitet schnell die enormen Datenmengen, die sich heute in Unternehmen ansammeln. Darauf basierend können Führungskräfte zuverlässige datenbasierte Entscheidungen treffen. Allerdings halten es fast zwei Drittel der kürzlich befragten Experten für…

Wie die Ferienzeit Unternehmensnetzwerke belastet

Zusätzliche Herausforderungen rollen auf die IT-Abteilung zu: Gerade im Sommer entstehen gigantische Datenmengen. Denn mit dem Smartphone wird jeder Schritt ausführlich dokumentiert. Weil private Endgeräte zunehmend auch beruflich genutzt werden, finden Fotos nach dem Urlaub schnell ihren Weg in die Unternehmens-IT. Mit den Urlaubsfotos geht es schon morgens los – statt Croissants landet Superfood auf…

Speichern wie Facebook, Google und Co. – Warum Unternehmen Objektspeicherung nutzen sollten

Die Schlüsseltechnologie der Cloud-Pioniere ist mittlerweile frei verfügbar und löst das Problem vieler Unternehmen mit stetig wachsenden Datenmengen.   Weltweit erzeugen Nutzer immer mehr Daten und davon insbesondere Mediendaten, also Fotos, Audios und Videos. Die einzelnen Dateien werden nebenbei immer noch größer – 4K und bald schon 8K sei Dank. Diese Explosion an Daten- und…

Mit kognitiver Suche und Analyse vom daten- zum informationsgetriebenen Unternehmen

Die Datenmengen, die sich in Unternehmen anhäufen, werden immer größer und unübersichtlicher. Umso mehr kommt es deshalb auf die Methoden an, mit denen aus den Daten umsetzungsfähige Erkenntnisse und Antworten gezogen werden. Der Prozess hin zu einer effektiven Informationsarbeit indes ist noch alles andere als optimal.

Big Data 2018: Umsatz liegt erstmals über 6 Milliarden Euro

■  Umsatzwachstum von 10 Prozent prognostiziert ■  Ausbildung zum Data Scientist   Deutschland ist ein Wachstumsmarkt für Big Data. Im Jahr 2018 werden mit Hardware, Software und Services für Big-Data-Anwendungen voraussichtlich 6,4 Milliarden Euro umgesetzt, ein Plus von 10 Prozent im Vergleich zum Vorjahr. Das zeigen Berechnungen des IT-Marktforschungsunternehmens IDC im Auftrag des Digitalverbands Bitkom.…

Fünf Vorhersagen, wie sich Daten und ihr Management 2018 entwickeln werden

  In dem Maße, wie sich Daten im Zuge der digitalen Transformation immer mehr ausbreiten sowie noch dynamischer wachsen und vielfältiger werden, muss sich auch die gesamte IT-Infrastruktur verändern. Es gilt, ausgehend von der Applikationsarchitektur bis zur Bereitstellungsstrategie und einschließlich der Datenverwaltung alles an die Geschäftsrealität in der Hybrid Cloud anzupassen. In dieser führt ein…

Big Data Analytics – Aus Rohdaten wird Gewinn

Verborgene Schätze – Sensoren, Maschinenlogs, SAP-Daten, Remote-Plattformen oder andere Quellen liefern jeden Tag enorme Datenmengen. Sie bleiben häufig ungenutzt. Die Herausforderung ist es, diese Big Data so aufzubereiten, dass man daraus Werte schaffen kann – auf der Kosten-, der Risiko- und vor allem der Wachstumsebene.

»Datenquelle Genom«: 1,3 Millionen Zellen enthält der derzeit größte Einzelzell-Datensatz

Die Sequenzierung des menschlichen Genoms und die Auswertung der entstehenden Daten bieten große Chancen für die medizinische Forschung, zum Beispiel um die Entstehung von Erbkrankheiten oder immunologischen Erkrankungen besser zu verstehen. Die Sequenzierung des menschlichen Genoms gehört bereits zum Standard an deutschen Forschungseinrichtungen, nachdem das internationale Humangenomprojekt im Jahr 2001 die vollständige Sequenzierung des menschlichen…

Big Data erfolgreich beherrschen: 5 Gründe für anpassbare Datenbeschleuniger

Sprachgesteuerte Musikanlage, per App regulierte Heizung und connected Car – in der Zeit des Internet of Things ist das Alltag. Die Anbieter dieser Produkte erhalten von den Nutzern der Geräte Unmengen von Informationen. Doch häufig können Unternehmen diese Datenmengen nur unzureichend verwenden, etwa weil ihre bestehende Informationstechnologie nicht optimal auf die Auswertung von Big Data…

Big-Data-Ignoranz führt zu Wettbewerbsnachteilen

Zu teuer, zu kompliziert, nur was für große Konzerne, nur für extrem große Datenmengen: So oder so ähnlich lauten übliche Vorurteile bei mittelständischen Unternehmen, wenn es um Big Data geht. Doch die Realität sieht gänzlich anders aus und ein Ignorieren des Themas wird für viele Unternehmen zwangsläufig in einem Wettbewerbsnachteil münden. Das gängigste Missverständnis ist,…

Prognose für die Anwendungsintegration im Jahr 2017

Es wird immer wichtiger, die riesigen Datenmengen, die aus den unterschiedlichsten Quellen kommen und in unterschiedlichen Formaten vorliegen, in sinnvolle Informationen und handlungsrelevante Erkenntnisse umzumünzen. Die Software AG veröffentlichte ihre Prognosen für die Entwicklung des Anwendungsintegrationsmarktes in diesem Jahr. David Overos, Director, Produktmarketing bei der Software AG, sagte: »Integration ist mittlerweile nicht mehr allein Aufgabe…

Datensparsamkeit und Datenintelligenz

ICT-Anwenderunternehmen: Das Schauerszenario ist immer noch das beste Verkaufsargument, denn wenn Sie sich kein neues Dach kaufen, wird es beim nächsten Unwetter auf Ihre wertvollen Stilmöbel tropfen. Sie haben keine? Dann wird es Zeit, denn dann verlieren bei Freunden und Geschäftspartnern, die Sie zu Hause bewirten, an Ansehen. So ähnlich hören sich jedenfalls manche Presseinformationen…

Cloud wächst und wächst und wächst und wächst

Unvorstellbare Datenmengen verlangen nach Ausweichstrategien. Über 80 Prozent des weltweiten Datenverkehrs zwischen Rechenzentren weltweit wird noch vor dem Jahr 2020 aus der Cloud kommen. Mit dieser Prognose will eco – Verband der Internetwirtschaft e. V. auf die rasant wachsende Bedeutung des Cloud Computing hinweisen. »Vier von fünf Datenzentren werden laut Studien schon 2019 Clouddaten verarbeiten«,…

5 Dinge die ihre Tabellenkalkulation nicht kann

Wer für aussagekräftige Analysen großer Datenmengen auf Tabellenkalkulationen vertraut, hat die falsche Wahl getroffen. Zu oft kommt es dabei zu Fehlern, was sich auf die Genauigkeit auswirkt und wertvolle Zeit kostet. In diesem Whitepaper zeigen wir fünf entscheidende Möglichkeiten zur optimalen Datennutzung, die Tabellenkalkulationen nicht bieten können. Whitepaper jetzt herunterladen          

Wer Big-Data-Analysen einsetzt

Die Auswertung großer Datenmengen aus verschiedenen Quellen in hoher Geschwindigkeit, sogenanntes Big Data Analytics, ist in deutschen Unternehmen noch nicht weit verbreitet. Laut einer gemeinsamen Studie von Bitkom Research und der Wirtschaftsprüfungs- und Beratungsgesellschaft KPMG sind Automobilbauer und Versicherungen in Deutschland Vorreiter bei der Nutzung. Jeweils 21 Prozent der Unternehmen setzen in diesen Branchen solche…

Renninformationen in Echtzeit: Big-Data-Analysen revolutionieren TV-Erlebnis der Tour de France

Zum ersten Mal in der Geschichte des professionellen Radsports wird bei der diesjährigen Tour de France eine neuartige Plattform zur Analyse großer Datenmengen eingesetzt. Das ermöglicht den Zuschauern der Frankreichrundfahrt ein völlig neues TV-Erlebnis. Dabei werden die Live-Daten jedes Fahrers in Echtzeit auf eine Tracking-Webseite übertragen, von wo aus sie für Rundfunkanstalten, Kommentatoren, Journalisten und…

Engpass »IT-Infrastruktur«: Wachsende Datenmengen sind Top-IT-Thema

Da Organisationen immer mehr Datenströme, beispielsweise aus Interaktionen im Internet, aus mobilen GPS-Aktivitäten und über Sensoren generieren, nimmt die Datenmenge laut IDC alle fünf Jahre um das Zehnfache zu: von 4,4 Billionen Gigabyte im Jahr 2014 auf rund 44 Billionen Gigabyte bis etwa 2020. Unternehmen stehen vor der Herausforderung, einfach skalierbare, sichere und kostengünstige Speichermöglichkeiten…