Langzeitarchivierung von Daten – Herausforderungen und vielversprechende Ansätze

Illustration Absmeier foto freepik ki

Die Langzeitarchivierung von Daten stellt Organisationen vor große Herausforderungen, da technologische Entwicklungen, regulatorische Anforderungen und die Notwendigkeit dauerhafter Datenzugänglichkeit einen stetigen Anpassungsdruck erzeugen. Mythen wie die Annahme, Daten könnten einfach gespeichert und später problemlos genutzt werden, werden widerlegt – vielmehr müssen Archive aktiv gepflegt, validiert und mit Metadaten angereichert werden, um langfristig nutzbar zu bleiben. Neue Technologien wie Host-Managed-SMR-Festplatten, Object Storage und intelligente Tape-Lösungen bieten vielversprechende Ansätze, doch welche sich langfristig durchsetzen, entscheidet letztlich der Markt und die Akzeptanz der Anwender.

 

Wir leben in einer Zeit, in der Daten eine zentrale Ressource menschlicher Aktivitäten darstellen. Diese Entwicklung beruht auf der frühen Erkenntnis, dass Daten wirtschaftlichen und strategischen Wert besitzen: eine Annahme, auf der die Geschäftsmodelle großer Internetunternehmen bereits vor über zwei Jahrzehnten aufbauten. Mit dem Übergang von Big Data zu künstlicher Intelligenz verstärkt sich diese Bedeutung weiter: Daten sind heute in nahezu allen Bereichen eine wesentliche Quelle der Erkenntnis und der Wertschöpfung.

Vor diesem Hintergrund verfolgen viele Organisationen den Grundsatz, Daten zu speichern statt zu löschen. Ausschlaggebend dafür sind zum einen die stetig wachsenden analytischen Möglichkeiten, Daten in verwertbare Informationen zu überführen. Zum anderen erfordern rechtliche und regulatorische Vorgaben zunehmend die langfristige Aufbewahrung von Daten – häufig über mehrere Jahrzehnte.

Entsprechend rücken die langfristige Datenspeicherung sowie Technologien, welche diese ermöglichen, immer stärker in den Fokus. Aus diesem Anlass haben wir ein Panel mit Expertinnen und Experten zusammengestellt, um künftige Fragen zur Datenspeicherung zu diskutieren: die größten Herausforderungen für Organisationen mit langfristigen Archivierungsanforderungen, verbreitete Mythen und Irrtümer zur Langzeitspeicherung sowie aufkommende Technologien mit besonderem Potenzial in diesem Bereich.

 

Langzeitspeicherung im Spannungsfeld konkurrierender Zeithorizonte

Die zentrale Herausforderung der Langzeitspeicherung besteht darin, dass Daten über Jahrzehnte oder sogar darüber hinaus verfügbar bleiben müssen, während sich zentrale Aspekte der Datenspeicherung und des Datenmanagements in deutlich kürzeren Zyklen verändern.

Tim Pfaelzer, GM & SVP EMEA bei Veeam, bringt diesen Zielkonflikt auf den Punkt. Er betont die Notwendigkeit, Daten über lange Zeiträume hinweg sicher, zugänglich und regelkonform zu bewahren – trotz stetig wachsender Datenmengen, sich wandelnder Technologien sowie sich ändernder gesetzlicher und regulatorischer Rahmenbedingungen. »Mit wachsenden Datenmengen und einer zunehmenden Verteilung über Cloud- und On-Prem-Umgebungen steigt die Komplexität und es wird schwieriger, Datenintegrität, Governance und Auffindbarkeit dauerhaft sicherzustellen«, erläutert Pfaelzer. »Zugleich können Technologiestandards, Speichermedien und Datenformate im Laufe der Zeit obsolet werden, was die langfristige Lesbarkeit und Nutzbarkeit von Daten zu einer zentralen Herausforderung macht.«

Für Organisationen ergibt sich daraus die Gefahr, dass die sich kontinuierlich wandelnde Technologielandschaft und der damit verbundene Anpassungsdruck neue Risiken schaffen. Paul Speciale, Scalitys CMO, weist darauf hin, dass die größte Herausforderung darin besteht, Datenhaltbarkeit und Zugänglichkeit auch unter Bedingungen permanenten technologischen Wandels sicherzustellen.

»Hardware-Lebenszyklen verkürzen sich, Medienformate ändern sich kontinuierlich, und Software-Stacks entwickeln sich mit hoher Geschwindigkeit weiter«, so Speciale. »Bei Zeiträumen von mehreren Jahrzehnten reichen die Risiken weit über die physische Degradation von Speichermedien hinaus und umfassen unter anderem Format-Obsoleszenz, System-Inkompatibilitäten sowie den Verlust operativer Expertise.«

Wo Risiken bestehen, eröffnen sich zugleich Chancen. Skip Levens, Head of Product Marketing bei Quantum, betont, dass Organisationen, welche die Herausforderungen der Langzeitspeicherung erfolgreich meistern, daraus eine strategische Stärke entwickeln. »Das Risiko besteht heute nicht mehr primär darin, Daten zu verlieren, sondern darin, zurückzufallen, weil vorhandene Daten nicht so gespeichert, organisiert oder zugänglich sind, wie es künftige Workflows erfordern«, erklärt Levens. »Profitieren werden jene Unternehmen, die historische Inhalte, Forschungs-, Betriebs- und Kundendaten in Pipelines überführen, in denen sie indexiert, angereichert und durch moderne Analyse- und KI-Modelle aktiviert werden können.« Er fügt hinzu: »Niemand kann heute genau vorhersagen, welche Fragen in fünf oder zehn Jahren an diese Daten gestellt werden. Aber eines ist klar: Organisationen, die alles speichern, was sie können, in kosteneffizienten Formaten und mit vertrauenswürdigen Metadaten, haben einen erheblichen Vorteil. Sie innovieren schneller, entwickeln leistungsfähigere Modelle, bieten attraktivere Services an und treffen Entscheidungen auf der Basis jahrzehntelangen institutionellen Wissens.«

Martin Kunze, CMO und Mitgründer von Cerabyte, präzisiert die Herausforderung weiter: »Eine zentrale Aufgabe besteht darin, Daten bereits heute so mit Metadaten zu strukturieren und zu beschreiben, dass zukünftige Such- und Analyseverfahren – die wir heute noch nicht vollständig antizipieren können – dennoch effektiv darauf zugreifen können. Mit anderen Worten: Wir müssen Zugriffsmuster, Werkzeuge und Anwendungsfälle vorbereiten, die es heute noch gar nicht gibt.«

Robson Andrade, CRO von Geyser Data, lenkt den Fokus auf die Kosten von Rechenzentren bei der Datenspeicherung mit aktuellen Technologien wie Festplatten. »Der Einsatz großer Mengen mechanischer Festplatten umfasst weit mehr als reine Hardware-Investitionen«, erläutert er. »Er erfordert erheblichen Platzbedarf, hohen Energieverbrauch und kontinuierliche Kühlsysteme.«

Scott Shadley, Vorstandsmitglied der Storage Networking Industry Association (SNIA), betont die zentrale Rolle der Organisation bei der Entwicklung von Standards für Langzeitspeicher-Technologien. »Unternehmen stehen unterschiedlichen Rahmenbedingungen gegenüber, und die Lösungen zur Datenspeicherung werden entscheidend durch die von SNIA bereitgestellten Standards geprägt«, so Shadley. »Diese Standards decken ein breites Spektrum ab – von Tape, HDD und SSD bis hin zu DNA-Speicherung für Archivierungszwecke. Mehrere Arbeitsgruppen innerhalb der SNIA beschäftigen sich mit verschiedenen Methoden, Produkten und Schnittstellen der Datenspeicherung.«

 

Irrtümer und Missverständnisse bei der Langzeitarchivierung

Für David Norfolk, Practice Leader für Development und Governance bei Bloor Research, ist der größte Mythos in der Langzeit-Datenspeicherung die Annahme, dass Daten einfach unbeachtet bleiben können, bis man tatsächlich auf sie zugreifen muss. »Es ist ein Trugschluss zu glauben, man kann Daten lediglich speichern und sich erst später mit deren Wiederherstellung befassen«, betont Norfolk. »Ein Archiv muss von Beginn an auf die erwarteten Nutzungsszenarien ausgerichtet und regelmäßig überprüft werden, um sicherzustellen, dass es weiterhin den Anforderungen der Organisation entspricht.«

Für Aleksandr Ragel, CEO von Leil Storage, folgt daraus die Notwendigkeit, das Konzept klassischer Speicherklassen grundlegend zu überdenken. »Künstliche Intelligenz, Analytik und Compliance verwandeln vermeintlich ‚kalte‘ Daten in ‚langsam warme‘ Daten – mit seltenen Schreib-, aber wiederholten Lesezugriffen über viele Jahre hinweg«, erläutert er. »Architekturen, die davon ausgehen, dass Daten einmal geschrieben und anschließend kaum noch genutzt werden – die klassische Tape-Logik –, stoßen an ihre Grenzen, wenn Organisationen zehn Jahre alte Logs, Simulationen oder Videodaten zur Entwicklung neuer KI-Modelle heranziehen.«

Skip Levens von Quantum führt diesen Gedanken fort und betont, dass Speicher-Tiers nicht statisch, sondern dynamisch konzipiert werden sollten. »Diese Denkweise ist sinnvoll, da Speicherung vor allem unter dem Gesichtspunkt von Compliance oder Kostenkontrolle betrachtet wird«, erklärt Levens. »Langfristige Archive müssen jedoch als lebendige Assets verstanden werden: Sie werden kontinuierlich validiert, indexiert, angereichert und bereinigt, damit zukünftige Modelle daraus belastbare Erkenntnisse und Muster gewinnen können.«

»Organisationen mit einem nachhaltigen Wettbewerbsvorteil sind jene, die Archive so gestalten, dass Daten schnell rehydriert, mit weiterentwickelten Metadaten aktualisiert und bei Bedarf wieder nahtlos in aktive Daten-Pipelines integriert werden können.«

Paul Speciale von Scality unterstreicht diesen Standpunkt: »Heute greifen KI, Analytik und regulatorische Prüfungen regelmäßig auf Archivdaten zu. Archive entwickeln sich zu aktiven Data Lakes, deren Inhalte deutlich häufiger abgefragt, analysiert und wiederverwendet werden, als vielfach angenommen wird.«

»Langzeitarchivierung bedeutet, Daten über Jahrzehnte hinweg intakt und nutzbar zu halten. Dafür sind kontinuierliche Integritätsprüfungen, Unveränderlichkeit sowie automatisierte Selbstheilungs-Mechanismen unerlässlich.«

Martin Kunze von Cerabyte betont: »Es ist ein verbreiteter Irrtum, dass zuverlässige Bit-Speicherung ausreicht. Ohne begleitende Informationen zur Identifikation des Mediums, zum Lesen und zur Interpretation des Bitstroms bleiben archivierte Daten praktisch wertlos.«

Mehrere Panelteilnehmer stellen außerdem Mythen über die Eignung bestimmter Speichermedien für die Langzeitarchivierung infrage – insbesondere Tape. Tvrtko Fritz, CEO von euroNAS, verweist darauf: »Tape ist zwar kosteneffizient und zuverlässig, aber der Datenzugriff ist oft langsam und operativ aufwendig, insbesondere bei zeitkritischen Anforderungen.«

Aleksandr Ragel ergänzt: »Es ist ein Mythos, dass Tape grundsätzlich die günstigste und nachhaltigste Lösung darstellt. Zwar sind Kassetten preiswert, doch Faktoren wie Handhabung, Robotik, Mehrfachkopien, lange Wiederherstellungszeiten sowie manuelle Prozesse verursachen erhebliche versteckte Kosten und bergen Risiken.« Ragel widerspricht zudem der Annahme, SSDs könnten HDDs in Langzeitarchiven ersetzen: »Für große Kapazitäten und Aufbewahrungszeiträume über Jahrzehnte hinweg bieten HDDs – insbesondere HM-SMR – weiterhin deutlich bessere Kosten pro Terabyte und eine höhere Speicherdichte als SSDs, und das bleibt auf absehbare Zeit so. HDDs bilden nach wie vor das Rückgrat für Daten, die nicht mit extrem niedrigen Latenzen verfügbar sein müssen.«

 

Zentrale neue Technologien für die Langzeitarchivierung

Martin Kunze von Cerabyte betont: »Jede Technologie, die Daten ohne laufenden Energieverbrauch – für das Medium selbst und die Umgebung – speichert und zugleich kosteneffiziente Schreib- und Lesevorgänge ermöglicht, ist ein starker Kandidat für eine neue Stufe der Speicherhierarchie.« »In diesem Kontext geht es bei Permanenz weniger um ein Marketing-Label wie ›Langzeitspeicherung‹, sondern um die strukturelle Senkung der TCO.«

Aleksandr Ragel hebt die Vorteile von Host-Managed-SMR Festplatten hervor: »HM-SMR bietet rund 20 % mehr nutzbare Kapazität zu vergleichbaren Kosten, und alle großen HDD-Hersteller treiben die Entwicklung immer größerer zonierter Laufwerke voran, einschließlich kommender HAMR-basierter SMR-Modelle.«

Skip Levens favorisiert die Kombination aus Object Storage und Tape: »Die meisten ›Next-Gen‹-Archivtechnologien sind noch Jahre von der praktischen Nutzung entfernt. Niemand kann seine langfristige Aufbewahrungsstrategie auf Laborversprechen stützen. Die Kombination aus Object Storage und Tape ist leistungsfähig: Sie bietet Cloud-ähnliche Haltbarkeit und automatisierten Zugriff über eine intelligente Objektschicht, während das Medium im Ruhezustand praktisch keinen Strom verbraucht.«

Robson Andrade, CRO, Geyser Data, ergänzt: »Es gibt ein wiedererwachtes Interesse an magnetischen Tape-Technologien wie LTO, nun mit einem grundlegend erneuerten Ansatz. Intelligentes Tiering und hohe Kompressionsraten ermöglichen Zugriff und Management ähnlich einem Standardlaufwerk.«

Andy Tomlin, CEO, QiStor betont: »Langfristige Speicherung ist vor allem eine Kostenfrage. Ich sehe nicht, dass neue Technologien HDD oder SSD verdrängen werden.« Greg Matson, SVP Products Marketing bei Solidigm, ergänzt: »Bei dauerhaft aktiven Laufwerken mit häufigen Änderungen sind Haltbarkeit und Datenaufbewahrung kritisch. Für Write-Once-Read-Never- oder Write-Once-Read-Occasionally Szenarien bieten SSDs jedoch eine sehr praktikable Lösung.«

Paul Speciale hebt den Nutzen von Object Storage und S3 hervor: »Skalierbarer Object Storage bietet nahezu unbegrenzte Kapazität, geografische Verteilung, Hardware-Abstraktion und offene APIs. So wird die langfristige Zugänglichkeit unterstützt, während das selbstheilende Design den Migrationsaufwand erheblich reduziert.«

»Unterdessen gestalten softwaredefinierte Unveränderlichkeit und WORM-Richtlinien die Archivierungsstrategie neu, indem sie eine regulatorisch konforme Aufbewahrung gewährleisten, ohne auf proprietäre Hardware angewiesen zu sein«, führt Speciale weiter aus. »Parallel dazu verbessern Metadaten-gestützte Intelligenz und automatisierte Richtlinien die Klassifizierung von Daten, das Management von Speicherebenen sowie die Durchsetzung von Governance über lange Aufbewahrungs-Zeiträume hinweg.«

Schließlich verweist Tvrtko Fritz von euroNAS auf Ceph als langfristig geeignete Datenspeicher-Plattform. »Ceph gehört zu den vielversprechendsten Technologien für die Langzeitarchivierung«, so Fritz. »Seine Skalierbarkeit ist nahezu unbegrenzt. Ceph ist ideal für Organisationen, die kontinuierliches Datenwachstum erwarten. Besonders hervorzuheben ist Cephs Fähigkeit, Daten über mehrere Standorte oder Rechenzentren zu verteilen, wodurch eingebaute Redundanz und Resilienz gewährleistet werden.«

 

Langzeitspeicherung im Umbruch: Technologien im Wettstreit, der Markt entscheidet

Im Zeitalter der KI gewinnt die langfristige Bewahrung von Daten mehr denn je an strategischer Bedeutung. Der heutige – und potenzielle zukünftige – Wert dieser Daten ist für den Betrieb und die Wettbewerbsfähigkeit vieler Organisationen entscheidend. Die Absicht oder Verpflichtung, Daten auf unbestimmte Zeit aufzubewahren, bringt jedoch erhebliche Herausforderungen mit sich: den Zugriff über mehrere Technologie-Generationen hinweg sicherzustellen, fortlaufende Compliance zu gewährleisten sowie die zugrunde liegende Infrastruktur langfristig betreibbar und integrierbar zu halten. Ein Versagen in diesen Bereichen birgt erhebliche Risiken, während Organisationen, die diese Anforderungen meistern, zugleich große Chancen erschließen.

Wie Speichertechnologien für die Langzeitarchivierung in einigen Jahrzehnten aussehen werden, ist ungewiss. Vielversprechende Ansätze, etwa langlebige und wartungsarme Technologien wie etwa keramische Speicher, zeichnen sich bereits ab. Dennoch setzen sich Nischen-Technologien nur schwer gegen etablierte Lösungen wie HDD-, SSD- und Tape-Varianten sowie gegen bestehende Metadaten- und Object-Storage-Systeme durch, die den langfristigen Datenzugriff ermöglichen. Wahrscheinlich gelangen neue Formate in den breiten Einsatz – welche sich schließlich behaupten werden, entscheiden der Markt sowie die Akzeptanz durch die Anwender.

Federica Monsone, CEO und Gründerin von A3 Communications

 

583 Artikel zu „Archivierung“

Fünf Archivierungstrends, die Systemlandschaften 2026 prägen werden

  Das Jahr 2026 wird in vielen Unternehmen eine Neuordnung der Datenlandschaft mit sich bringen. Während bei den einen der Wechsel auf SAP S/4HANA entscheidende Veränderungen nach sich ziehen wird, wächst auch bei den anderen Unternehmen der Druck, die Datenhaltung und Archivierung strategisch neu auszurichten.   Treiber sind dabei nicht nur technische Migrationsprojekte, sondern auch…

E-Mail-Archivierung: Auch für KMU ein Must-have

E-Mails sind heute unverzichtbar für die Kommunikation. In diesem Kontext ist Microsoft 365 eine weit verbreitete Produktivitäts-Suite. Kristina Waldhecker, Senior Manager Marketing bei MailStore by OpenText, weiß jedoch: Die Plattform weist Schwächen hinsichtlich der E-Mail-Archivierung auf.   In Deutschland sind die meisten Unternehmen dazu verpflichtet, handels- und steuerrechtlich relevante Daten zu schützen, sowie über einen…

PROXESS DMS ergänzt Microsoft Dynamics 365 Business Central um rechtskonforme Archivierung, KI-basierte Belegerkennung und automatisierte Workflows

Microsoft Dynamics 365 Business Central (Dynamics 365 BC) stellt als ERP-System für KMU praktische Basisfunktionalitäten, deren Effizienz durch Experten-Tools maßgeblich optimiert werden können. So schließt die Integration des Dokumentenmanagementsystems PROXESS DMS gleich mehrere Funktionslücken. Geboten werden eine rechtssichere Archivierung von Eingangs- und Ausgangsdokumenten direkt aus dem System inklusive Recherchezugriff, eine automatisierte KI-gestützte Belegerfassung sowie ein…

Journal- oder Postfacharchivierung, das ist hier die Frage

Um überfüllten E-Mail-Postfächern und -Servern entgegenzuwirken, sowie E-Mail-Daten revisionssicher und datenschutzkonform aufbewahren zu können, entscheiden sich viele IT-Verantwortliche für eine professionelle E-Mail-Archivierungslösung. Bevor sie jedoch mit der Arbeit beginnen können, sollten zunächst folgende Fragen beantwortet werden: Welche Archivierungsstrategie und -ziele verfolge ich? Und welche Methode eignet sich für meine Anforderungen am besten: Postfach- oder Journalarchivierung?…

Webinar: Revisionssichere Archivierung mit einem software-basierten Ansatz – Flexibles, skalierbares und kosteneffizientes Datenmanagement

Compliance, Datenintegrität und revisionssichere Archivierung sind in Zeiten von DSGVO und Digitalisierung für alle Unternehmen und auch im medizinischen Umfeld eine drängende Herausforderung. Doch wie können Geschäfts- und Patientendaten langfristig, kostengünstig und sicher gespeichert werden? Anstatt die Antwort in starren, proprietären Archivsystemen zu suchen, können Unternehmen und Organisationen im Gesundheitswesen heute auf Softwareintelligenz setzen und so ihre Investitionen in die IT-Infrastruktur langfristig schützen.

Whitepaper: Mit moderner Archivierung Kosten sparen 

Whitepaper über innovative Archivierungskonzepte sowie die Reduktion von Datengräbern, Speicherkapazitäten und Kosten.   Der Archivierungsexperte KGS Software teilt seine Expertise in Form eines kostenlosen Whitepapers mit der Öffentlichkeit. Interessenten können das E-Book »Archivierung heute« ab sofort unter https://bit.ly/3rOZQ0F downloaden. Die Archivierung gehört zu den weniger beliebten Aufgaben der IT-Administratoren; vielfach befindet sie sich sogar »im…

Archivierung: Zehn Fakten zum Thema Archivieren

Archivierung ist Pflicht und keine Frage des Wollens. Rechts- und revisionssichere Archivierung selbst ist nicht nur eine gute Idee. Vielmehr ist elektronische Archivierung für alle Pflicht, die steuerpflichtige Gewinneinkünfte erzielen, sofern die unternehmerischen Prozesse IT-gestützt ablaufen. Korrekt archivieren. Revisionssichere Archivierung bedeutet, dass alle abgelegten Daten nicht nur vor einer nachträglichen Änderung geschützt sind und somit…

Die fünf Mehrwerte der E-Mail-Archivierung

Warum Unternehmen mit einer professionellen E-Mail-Archivierung viel mehr erreichen können, als nur rechtliche Anforderungen zu erfüllen. Dass E-Mail-Archivierung für Unternehmen rechtlich erforderlich ist, ist mittlerweile hinlänglich bekannt. Die entsprechenden Anforderungen ergeben sich aus Regelwerken und Richtlinien wie GoBD, Abgabenordnung und Handelsgesetzbuch. Und die meisten Anbieter von Archivierungslösungen werden nicht müde, auf die negativen Konsequenzen und…

Irrtümer der E-Mail-Archivierung: Die Archivfunktion des E-Mail-Programms ist keine rechtssichere Archivierung

Vor allem aus steuerrechtlichen Gründen sind Unternehmen dazu verpflichtet, geschäftliche Korrespondenzen aufzubewahren: Das Finanzamt erhebt den Anspruch, auch nach Jahren nachvollziehen zu können, wie welche Geschäfte zustande kamen. Bereits seit 2017 schreiben die GoBD, das HGB, die Abgabenordnung und das Umsatzsteuergesetz die Archivierung elektronischer Post vor. »Auch die Datenschutzgrundverordnung trägt ihren Teil zur Pflicht der…

Digitale Dokumentenprozesse für IT-Entscheider im Wandel

Die Digitalisierung von Dokumenten hat sich in den letzten Jahren von einer Nischenlösung zu einem zentralen Bestandteil moderner Büroabläufe entwickelt. Unternehmen aller Größen stehen vor der Herausforderung, papierbasierte Prozesse effizient in digitale Workflows zu überführen. Der globale Markt für Dokumentenscanner wächst dabei stetig und spielt eine zunehmend wichtige Rolle in der digitalen Transformation von Unternehmen.…

Schwachstelle Posteingang: Wie Unternehmen ihre E-Mail-Verwaltung verbessern

Konnect eMail stellt Lösungen vor, um Arbeitsabläufe zu optimieren, die Compliance zu gewährleiten und sich vor Ransomware-Angriffen zu schützen.   E-Mails sind das Rückgrat der modernen Arbeitswelt – und zugleich ihre Achillesferse. Werden sie nicht korrekt abgelegt, kann das zum Risikofaktor werden. Mit der Integrationslösung für Outlook und SharePoint von Konnect eMail können Unternehmen ihre…

Data-Governance und KI-Kompetenz als Beschleuniger bei der KI-Einführung

Die Studie »CDO Insights 2026« hebt ein Vertrauensparadoxon hervor, während Organisationen ihre KI-Initiativen beschleunigen, und betont den dringenden Bedarf, das Datenmanagement zu verbessern und die Belegschaft weiterzubilden.   Informatica von Salesforce, ein Unternehmen im Bereich KI-gestütztes Cloud-Datenmanagement für Unternehmen, hat eine neue globale Studie mit dem Titel »CDO Insights 2026: Data-Governance und das Vertrauensparadoxon von Daten-…

Krisenfeste IT auf Basis von Glas! Ausgerechnet Glas?

Neben Cerabyte und anderen, mehr berühmten Herstellern wie Pure Storage, Western Digital oder In-Q-Tel hat sich jetzt seit etwa einem halben Jahr auch »ewigbyte« auf einem neuen Marktsegment angemeldet. Und dieses im letzten Jahr neu gegründetes Unternehmen scheint in der Lage zu sein, einige fundamentale Grundsätze in der modernen IT und Speicherindustrie umzuwälzen. So sagt…

Vertrauen in KI wächst schneller als Einsatzbereitschaft – Defizite bei Datenintegrität bleiben bestehen

Es gibt Lücken in Bezug auf operative Reife, Datenvertrauen und Fähigkeiten auf, wenn Unternehmen versuchen, KI unternehmensweit zu skalieren.   Es existiert eine wachsende Diskrepanz bei der Einschätzung der Unternehmen hinsichtlich ihrer KI-Bereitschaft. Die Führungskräfte sind überwiegend davon überzeugt, dass sie für KI bereit sind, doch ihre Antworten deuten auf grundlegende Lücken hin, die den…

Rechtssichere Prozesse und volle Audit-Transparenz: Wie Alzchem Dokumentation neu gedacht hat

Von papierbasierten Abläufen zu revisionssicheren Prozessen. © Freepik, snowing In stark regulierten Branchen wie der Chemie entscheidet nicht nur die Qualität der Produkte über den Unternehmenserfolg, sondern vor allem die Qualität der Prozesse dahinter. Jede Abweichung, jede Lücke in der Dokumentation kann im Auditfall kritisch werden. Entsprechend hoch sind die Anforderungen an Nachvollziehbarkeit, Compliance und…

Vertragsmanagement 2026: Sieben Vorsätze die sich lohnen

Es braucht 21 Tage, um eine Gewohnheit zu entwickeln. Sie wieder loszuwerden, dauert unverhältnismäßig länger oder funktioniert gar nicht. Denn für eine erfolgreiche Veränderung fehlen oft Geduld, ein klarer Grund und die passenden Werkzeuge. Insbesondere im Vertragsmanagement tragen Gewohnheiten dazu bei, dass die Verwaltung in zahlreichen Betrieben seit Jahren analog erfolgt und weitreichende Verbesserungspotenziale ungenutzt…

Die wichtigsten Trends, die Infrastruktur und Betrieb im Jahr 2026 beeinflussen

Sechs zentrale Trends werden die 2026 Infrastruktur und Betrieb prägen: Hybrid Computing, agentische KI, KI‑Governance, energieeffizientes Computing, Desinformationssicherheit und geopolitisch motivierte Cloud‑Verlagerung. Diese Entwicklungen sollen Unternehmen helfen, resilienter zu werden, Risiken zu reduzieren und technologische Souveränität zu erhöhen. I&O‑Führungskräfte müssen diese Trends verstehen, um ihre Organisationen effektiv anzupassen, Innovation zu fördern und langfristige Strategien zu…

EuroCloud Pulse Check 2025 – Digitale Resilienz made in Europe – Strategien für eine souveräne Cloud-Zukunft

Cloud-Technologie ist längst kein IT-Trend mehr, sondern die Grundlage moderner Wertschöpfung. Künstliche Intelligenz, Automatisierung und datenbasierte Entscheidungen wären ohne sie kaum denkbar. Doch während internationale Hyperscaler weiterhin die Infrastruktur dominieren, setzen deutsche Unternehmen zunehmend auf Diversifikation, Datensouveränität und Resilienz – die zentralen Schlagworte des EuroCloud Pulse Check 2025, einer Studie von techconsult im Auftrag von EuroCloud, A1 Digital, IONOS und Plusserver [1].

E-Invoicing 2026: Warum strategische Vorbereitung jetzt entscheidend ist

Das Jahr 2026 steht für EU-weit agierende Unternehmen im Zeichen der elektronischen Rechnungsstellung. Während die schrittweise Einführung der E-Rechnung in Deutschland erst 2027 abgeschlossen sein wird, setzen Länder wie Belgien und Polen bereits in wenigen Monaten deutlich striktere Maßstäbe. Der regulatorische Flickenteppich stellt Unternehmen dabei vor Herausforderungen.   Mit dem nahenden Ende der langen Übergangsphase…