
Illustration Absmeier foto freepik
Post-Quantum-Kryptografie wird zur strategischen Pflicht – nicht zur Zukunftsoption.
Noch existieren leistungsfähige Quantencomputer nur in Forschungsumgebungen – doch die Bedrohung ist längst real. Angreifer speichern bereits heute verschlüsselte Daten, um sie später zu entschlüsseln. Warum Unternehmen jetzt handeln müssen, welche technischen und regulatorischen Faktoren beachtet werden müssen und wie eine praktikable Migration aussieht, erklärt Sebastian Hausmann, Quantenkryptografieexperte bei NetApp, am Rande des NetApp Connect Technologie Forums in München im Gespräch mit manage it.
Herr Hausmann, funktionierende Quantencomputer sollen laut Experten noch mehrere Jahre Forschung und Entwicklung brauchen – warum machen Sie Quantensicherheit schon heute zum akuten Thema?
Sebastian Hausmann: Quantencomputer werden noch ein paar Jahre brauchen, das ist richtig. Aber zum einen legt die Entwicklung ein erstaunliches Tempo vor – Fujitsu beispielsweise, Mutter unseres Technologiepartners Fsas, arbeitet in Japan bereits an Systemen mit 1.000 Qubits [1]. Entscheidend aber ist – und das unabhängig, ob es noch drei oder vielleicht zehn Jahre dauert – dass die sicherheitstechnischen Konsequenzen längst sehr konkret sind. Angreifer verfolgen bereits heute Strategien, bei denen verschlüsselte Daten abgefangen, archiviert werden, um sie zu einem späteren Zeitpunkt zu entschlüsseln. Dieses Vorgehen – ›harvest now, decrypt later‹ – zwingt Unternehmen dazu, ihre Kryptografie schon heute grundlegend neu zu bewerten. Quantensicherheit beginnt nicht morgen, sondern jetzt. Wer heute vertrauliche Daten verarbeitet, muss deren Schutz über die gesamte Lebensdauer hinweg sicherstellen.
Sind aktuelle Verschlüsselungsverfahren also zu schwach?
Hausmann: Für aktuelle Entschlüsselungsalgorithmen mögen sie ausreichen. Das Problem liegt in der Diskrepanz zwischen Datenlebensdauer und Kryptografie. Während Daten oft über Jahrzehnte geschützt werden müssen, basieren viele heute eingesetzte Verfahren auf mathematischen Problemen, die durch Quantenalgorithmen wie Shor potenziell gebrochen werden können. Die Zeitachse wird häufig unterschätzt. Die Bedrohung entsteht nicht erst mit dem ersten leistungsfähigen Quantencomputer, sondern bereits heute durch die langfristige Speicherung abgefangener Daten.

Foto: Stefan Mutschler
»Die Einführung quantenresistenter Verfahren ist kein isoliertes Projekt. Letztendlich betrifft sie die gesamte IT-Landschaft.«
Sebastian Hausmann, Quantenkryptografieexperte bei NetApp
Gibt es schon Verschlüsselungsstandards, die auch gegen Quantenalgorithmen bestehen?
Hausmann: Mit den im August 2024 veröffentlichten Standards FIPS 203, FIPS 204 und FIPS 205 hat das National Institute of Standards and Technology, kurz NIST, erstmals verbindliche Spezifikationen für quantenresistente Verfahren geschaffen. FIPS 203 definiert ML-KEM für den Schlüsselaustausch, FIPS 204 beschreibt ML-DSA für digitale Signaturen und FIPS 205 spezifiziert SLH-DSA als alternative Signaturlösung. Diese Verfahren basieren auf Gitterstrukturen oder Hash-Funktionen, die nach aktuellem Stand auch für Quantencomputer nicht lösbar sind. Die Standardisierung ist ein Meilenstein, weil sie erstmals Planungssicherheit schafft.
Was bedeutet die Einführung dieser Verfahren für Unternehmen konkret?
Hausmann: Die Einführung quantenresistenter Verfahren ist kein isoliertes Projekt. Letztendlich betrifft sie die gesamte IT-Landschaft.
In großen Organisationen ist die Umstellung kryptografischer Verfahren nie nur ein Software-Update. Unternehmen müssen zunächst verstehen, an welchen Stellen überhaupt quantenanfällige Verfahren im Einsatz sind. Das betrifft Anwendungen, Speichersysteme, Netzwerke, Zertifikate, Backup-Infrastrukturen, Hardware-Sicherheitsmodule, Identitätssysteme und viele weitere Komponenten. Die größte Herausforderung ist daher die Krypto-Inventarisierung.
Das klingt nach einem sehr komplexen Unterfangen. Wie sollte eine solche Transformation strukturiert angegangen werden?
Hausmann: Das NIST empfiehlt einen klaren Ansatz: Zunächst geht es genau um die Inventarisierung, also die Identifikation aller kryptografischen Komponenten und Abhängigkeiten. Im zweiten Schritt folgt die Bewertung der Schutzdauer sensibler Daten, an dritter Stelle die Priorisierung kritischer Systeme und schließlich die Entwicklung einer detaillierten Migrations-Roadmap.
Dabei wird Krypto-Agilität zum zentralen Ziel: Systeme müssen so gestaltet sein, dass Algorithmen später ohne grundlegende Umbauten ausgetauscht werden können. Gerade in historisch gewachsenen Infrastrukturen mit proprietären Schnittstellen und langen Lebenszyklen ist das tatsächlich sehr anspruchsvoll.
Was unterscheidet Post-Quantum-Kryptografie grundsätzlich von traditionellen Verfahren?
Hausmann: Während symmetrische Verschlüsselung mit ausreichend langen Schlüsseln – etwa beim Advanced Encryption Standard mit 256 oder mehr Bit – als vergleichsweise robust gilt, sind vor allem asymmetrische Verfahren gefährdet. Genau diese werden jedoch benötigt, um sichere Kommunikationskanäle aufzubauen und kryptografische Schlüssel auszutauschen.
PQK (Post-Quantum-Kryptografie) adressiert gezielt die Schwächen klassischer asymmetrischer Verfahren wie RSA oder elliptische Kurvenkryptografie. Während diese durch Quantenalgorithmen angreifbar werden könnten, setzen die neuen Verfahren auf komplexere mathematische Grundlagen. Es geht um zwei zentrale Schutzziele: Vertraulichkeit und Integrität. Beides muss auch unter den Bedingungen zukünftiger Angriffe gewährleistet bleiben.
Wichtig ist dabei, dass PQK nicht automatisch alle bestehenden Sicherheitsprobleme löst. Sie ersetzt keine saubere Schlüsselverwaltung, kein Härtungskonzept und keine Zero-Trust-Architektur. Aber sie schließt eine absehbare Lücke, die sonst in wenigen Jahren zu einem strukturellen Risiko werden würde.
Erfahrungsgemäß ist die Wirksamkeit neuer Technologien immer auch eine Frage der richtigen Implementierung. Wie ist das bei PQK und gibt es anerkannte Zertifizierungsprogramme?
Hausmann: Richtig, neben der Kryptostärke rückt die Zertifizierung zunehmend in den Fokus. In regulierten Branchen müssen Verfahren nicht nur sicher, sondern auch nachweisbar konform implementiert sein. Der Standard FIPS 140-3 definiert Anforderungen an kryptografische Module, etwa physische Sicherheit, Schutz vor Manipulation, sichere Schlüsselgenerierung und validierte Implementierungen. Das Cryptographic Module Validation Program (CMVP) prüft diese Anforderungen. Es wird gemeinsam vom NIST in den USA und dem Canadian Centre for Cyber Security betrieben. Ohne validierte Implementierungen entsteht ein erhebliches Compliance-Risiko.
Wo stehen wir aktuell mit der Zertifizierung? Läuft das bereits reibungslos?
Hausmann: Leider nicht. Ein zentrales Problem ist, dass sich Post-Quantum-Algorithmen und Zertifizierungsprozesse nicht immer synchron entwickeln. Wir befinden uns in einer Übergangsphase, in der neue Verfahren verfügbar sind, aber noch nicht vollständig zertifiziert. Das erfordert sorgfältig abgestimmte Migrationsstrategien.
Wie sieht die Umsetzung von PQK in der Praxis aus, etwa im Storage-Umfeld? Wie positioniert sich NetApp?
Hausmann: Gerade im Storage-Umfeld wird die Umsetzung schon sehr greifbar. Wir integrieren quantenresistente Verfahren schrittweise in die Dateninfrastruktur und kombinieren diese mit etablierten Sicherheitsmechanismen. Unsere Stärke liegt darin, Kryptografie direkt in die Datenebene zu integrieren. Self-Encrypting Drives ermöglichen beispielsweise Full-Disk-Encryption direkt im Laufwerk und unterstützen je nach Modell FIPS 140-3 Level 2 oder FIPS 140-2 Level 2. Mit ONTAP 9.18.1 wurden zudem erste Post-Quantum-Verfahren wie ML-KEM, ML-DSA und SLH-DSA in Secure Sockets Layer integriert – aktuell noch mit Einschränkungen im FIPS-Modus. Das zeigt, dass Innovation, Standardisierung und Zertifizierung zusammengeführt werden müssen. Hardwarebasierte Verschlüsselung ist ein pragmatischer Einstieg in die Quantensicherheit – sie entlastet Systeme und erfüllt gleichzeitig regulatorische Anforderungen.
Unterstützt PQK auch bei der Verteidigung von Ransomware-Angriffen?
Rein als solche sorgt sie schon mal dafür, dass Angreifer erbeutete Daten auch langfristig nicht für Erpressungsversuche oder auch sonst irgendwie nutzen können. Um das Thema umfassender anzugehen, kombinieren moderne Storage-Plattformen Verschlüsselung mit weiteren Sicherheitsmechanismen. Dazu zählen beispielsweise:
- mehrstufige Administratorfreigaben für kritische Aktionen
- maschinelles Lernen zur Erkennung ungewöhnlicher Dateizugriffe
- Analyse von Datenentropie zur Identifikation laufender Verschlüsselungsprozesse
- unveränderbare Snapshots zur schnellen Wiederherstellung von Daten
Snapshots speichern den Zustand eines Dateisystems zu einem bestimmten Zeitpunkt. Wird ein Angriff erkannt, können Systeme auf einen unveränderten Zustand zurückgesetzt werden. Da diese Snapshots unveränderbar sind, lassen sie sich selbst von Angreifern mit Administratorrechten nicht manipulieren.
Ist Quantensicherheit auch ein wirtschaftliches Thema?
Hausmann: Absolut. Die Einführung quantenresistenter Kryptografie ist nicht nur eine technische Notwendigkeit, sondern auch eine strategische Entscheidung. Unternehmen, die früh investieren, schaffen Transparenz über ihre kryptografischen Abhängigkeiten, erhöhen ihre Flexibilität durch kryptoagile Architekturen und können schneller auf regulatorische Anforderungen reagieren. Gleichzeitig stärken sie das Vertrauen von Kunden und Partnern. Vertrauen wird zur Währung der digitalen Wirtschaft – und Kryptografie ist ein zentraler Bestandteil dieses Vertrauens.
Würden Sie bitte die wichtigsten Fakten zum Thema noch einmal kurz zusammenfassen – so als kleines Fazit?
Sehr gerne! Wichtig: Quanten-Sicherheit ist kein fernes Forschungsthema mehr, sondern ein aktuelles Infrastrukturthema. Die Standards liegen vor, die Bedrohungsmodelle sind beschrieben, und erste marktreife Produkte sind verfügbar. Für Unternehmen bedeutet das: Jetzt handeln – also
kryptografische Verfahren inventarisieren, Migrationen planen und langfristig sichere Schutzmechanismen implementieren. Post-Quantum-Kryptografie, verschlüsselte Speicherlösungen und intelligente Sicherheitsfunktionen im Datenmanagement bilden dabei zentrale Bausteine einer zukunftsfähigen Sicherheitsstrategie. Wer sensible Daten mit langer Schutzdauer verantwortet, sollte nicht auf den Durchbruch des Quantencomputers warten. Die relevante Sicherheitsentscheidung fällt bereits heute.
Herr Hausmann, vielen Dank für das Gespräch!
Stefan Mutschler
[1] https://info.archives.global.fujitsu/global/about/resources/news/press-releases/2025/0422-01.html
498 Artikel zu „Quanten Computer“
News | Favoriten der Redaktion | Infrastruktur | Rechenzentrum | Strategien
Quantencomputer: Euro-Q-Exa nimmt am LRZ seine Arbeit auf
Am Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften (BAdW) geht mit Euro-Q-Exa der erste europäische Quantencomputer der EuroHPC Joint Undertaking in Deutschland in Betrieb. Das System verfügt über 54 Qubits, wird bis Ende 2026 um ein zusätzliches System mit mehr als 150 Qubits ergänzt und ist mit dem LRZ-Höchstleistungsrechner verbunden. Euro-Q-Exa wird Forschenden in Europa…
News | Trends 2026 | Trends Infrastruktur | IT-Security | Künstliche Intelligenz | Rechenzentrum
Quantencomputer, KI-Agenten und neue Rechenzentren: Die IT-Welt steht 2026 Kopf
Das neue Jahr eröffnet Unternehmen viele neue Chancen – angetrieben durch Technologien, die die IT-Landschaft grundlegend verändern werden. Fortschritte in Quantencomputing, agentenbasierter KI und Rechenzentrumsarchitektur ebnen den Weg für mehr Effizienz, Intelligenz und Skalierbarkeit. Ein Spezialist für Out-of-Band-Managementlösungen zum Schutz kritischer Infrastrukturen beleuchtet die Trends für 2026 und zeigt auf, welche Schritte IT-Teams ergreifen können,…
News | Cloud Computing | Effizienz | Favoriten der Redaktion | Rechenzentrum | Strategien
Forschungszentrum Jülich stärkt Quantenforschung mit dem Kauf eines Annealing Quantencomputers
Das Jülich Supercomputing Centre (JSC) übernimmt den D-Wave Annealing Quantencomputer dauerhaft in seine Quantencomputing-Infrastruktur. Nachdem das System drei Jahre lang erfolgreich gehostet und genutzt wurde, bleibt es ein zentraler Bestandteil der Quantencomputing-Strategie am Forschungszentrum Jülich. Verbunden mit JUPITER, Europas erstem Exascale-Rechner, soll das System in Zukunft Durchbrüche im Bereich künstlicher Intelligenz (KI) und Quantenoptimierung ermöglichen.…
News | Business | Trends 2030 | Trends Wirtschaft | Digitalisierung | Favoriten der Redaktion
Von KI über Quantencomputer bis zum räumlichen Internet: Welche Trends die Digitalisierung weiter beschleunigen
Die Digitalisierung hat die Art und Weise, wie Unternehmen arbeiten, Produkte entwickeln und verkaufen, in den letzten 15 Jahren grundlegend verändert. Technologien wie künstliche Intelligenz (KI), 6G, Spatial Computing und Web3 werden diese Entwicklung in den kommenden Jahren noch beschleunigen. Bis 2035 könnte die Quantentechnologie viele Bereiche revolutionieren. Dieser Wandel findet vor dem Hintergrund einer…
News | Cloud Computing | Digitalisierung | Effizienz | Favoriten der Redaktion | Rechenzentrum
Quantencomputer mit 1.000 Qubits für das Leibniz-Rechenzentrum in Garching
Das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften (LRZ) in Garching bei München erhält seinen ersten Quantencomputer auf Basis neutraler Atome. Das vollständig digitale System mit 1.000 Qubits und einer neuartigen Multi-Core-Architektur wird vom deutschen Start-up planqc entwickelt und in die bestehende Infrastruktur für Hochleistungsrechnen (HPC) integriert. Für planqc ist dies bereits das zweite große…
News | Digitalisierung | Favoriten der Redaktion | Rechenzentrum | Strategien
Quantencomputer: Verschränkung auf Knopfdruck sicher verteilt
Physiker am MPQ nutzen Laserpinzetten in optischen Resonatoren, um Verschränkung in einem Quantennetzwerk zu erzeugen. Die Verschränkung, Einsteins »spukhafte Fernwirkung«, ist heute DAS Werkzeug der Quanteninformatik. Sie liefert die essenzielle Ressource für Quantencomputer und dient dem Transfer von Quanteninformation in einem künftigen Quantennetzwerk. Allerdings ist sie höchst empfindlich. Deshalb ist es eine enorme Herausforderung,…
News | E-Commerce | IT-Security
Onlinebetrug durch Quantencomputer: Unternehmen brauchen Kryptoagilität
Wie durch sichere Verschlüsselungsmethoden Kundendaten geschützt werden können. Eine Studie der LexisNexis Risk Solutions aus dem Jahr 2023 hat ergeben, dass jede betrügerische Transaktion Unternehmen in der EMEA-Region durchschnittlich das 3,9-fache des verlorenen Transaktionswertes kostet. Einzelhändlern in Deutschland entstehen für jeden Euro, der durch Betrug verloren geht, Kosten in Höhe von 3,43 Euro. In den…
News | Trends Infrastruktur | Favoriten der Redaktion | Infrastruktur | Rechenzentrum
EPIQ: Ein Quanten-Supercomputer in Modulbauweise
Das Jülich Supercomputing Centre (JSC) am Forschungszentrum Jülich und das Siegener Start-up eleQtron bauen gemeinsam einen weltweit einzigartigen modularen Superrechner, der aus einem Quantenmodul und einem klassischen digitalen Modul besteht. Der Name des Projekts ist »Entwicklungspartnerschaft Ionenfallen-Quantencomputer in NRW«, oder kurz EPIQ. eleQtron entwickelt dafür einen Ionenfallen-Quantencomputer, dessen Qubits mit Hilfe einer revolutionären Mikrowellen-Steuerung rechnen,…
News | Effizienz | Infrastruktur | Strategien
Helmholtz Quantum Center: Forschungszentrum Jülich baut Technologielabor für Quantencomputer auf
Am Forschungszentrum Jülich entsteht ein nationaler Forschungsschwerpunkt für Quantencomputer. Mit dem Helmholtz Quantum Center (HQC) wird ein zentrales Technologielabor etabliert, welches das gesamte Forschungsspektrum für Quantencomputing abdeckt – von der Erforschung von Quantenmaterialien bis zur Prototypenentwicklung. Das von der Helmholtz-Gemeinschaft mit knapp 50 Millionen Euro finanzierte Projekt startet im Januar 2020. Blick ins Innere des…
News | IT-Security | Online-Artikel
Der Quantencomputer gefährdet schon heute die Sicherheit von Daten
Die nächste IT-Ära lässt noch lange auf sich warten. Dennoch müssen Unternehmen handeln. Wann der Quantencomputer kommerziell zur Verfügung stehen wird, weiß niemand. Unternehmen müssen aber schon heute Vorkehrungen treffen, sonst gefährden sie den Schutz ihrer Daten, warnt die Security Division von NTT. Es erscheint widersprüchlich: Der Quantencomputer ist unermesslich schnell, steckt aber noch…
News | Cloud Computing | Kommentar
Die Überlegenheit der Quantencomputer ist belegt – aber ohne maximale Transparenz in den Datenverkehr wird es nicht erfolgreich sein
Ron Lifton, Senior Enterprise Solutions Manager bei NETSCOUT kommentiert: »Obwohl es zweifellos ein enormer Meilenstein ist, dass Google die Überlegenheit der Quantencomputer – die sogenannte Quantum Supremacy – belegen konnte, steht dem Unternehmen noch eine gewaltige Aufgabe bevor. Wenn schnelles und leistungsfähiges Quanten-Computing über die Cloud verfügbar wird, können riesige Datenmengen und Aufgaben…
News | Business | Digitale Transformation | Digitalisierung | Effizienz | Infrastruktur | IT-Security | Kommunikation | Künstliche Intelligenz | Rechenzentrum | Services | Strategien
Quantum-Flagship: Gemeinsam zum europäischen Quantencomputer
Start der europäischen Forschungsinitiative »Quantum Flagship«. Mehr als 5000 Forscherinnen und Forscher aus Wissenschaft und Industrie sind daran beteiligt. Quantentechnologien in Europa vom Forschungslabor in die Alltagstechnik übersetzen: Das ist das Ziel der Forschungsinitiative »Quantum-Flagship«, die heute mit einer Auftaktveranstaltung in Wien offiziell startet. Mit einem Budget von einer Milliarde Euro und einer Laufzeit von…
News | Business | Cloud Computing | Digitale Transformation | Effizienz | Infrastruktur | Rechenzentrum | Strategien
Wir alle werden mit Quantencomputern arbeiten
Es ist keine Frage des »Ob«, es geht um das »Wann«. Wann werden wir den ersten Quantencomputer einsetzen und dank datenbasierter Muster präzise Vorhersagen von Kundenbedürfnissen generieren? Wann werden wir Zukunftsszenarien und Geschäftsprozesse so real simulieren können, dass sich das kommende Geschäftsjahr bereits im Hier und Jetzt abbilden lässt? Die Zahl aktiver Vorreiter wächst in…
News | Trends 2026 | Trends Security | IT-Security
EvilGPT, Quantenrisiken, Fehlinformationen und Cloud-Abhängigkeit: Diese Cybergefahren drohen 2026
Cyberangriffe werden 2026 noch gezielter, automatisierter und schwerer vorhersehbar. Während Verbraucherinnen und Verbraucher im Alltag immer stärker auf smarte Geräte, Online-Dienste und digitale Kommunikation setzen, wachsen die Online-Bedrohungen sowohl in ihrem Umfang als auch in ihrer Komplexität. Umso wichtiger ist es, die Entwicklungen im Blick zu behalten, um zu verstehen, welche Dynamiken die Bedrohungslandschaft von…
Infrastruktur | Künstliche Intelligenz | Strategien | Ausgabe 11-12-2025
Quantencomputing als KI-Booster – Use Cases greifbar, ROI noch fern
Der Markt für Quantencomputing entwickelt sich rasant. Besondere Chancen bietet in dem Umfeld Quanten-KI – als Kombination, die sich intelligente Analytics und die enorme Rechenleistung von Quantencomputing zunutze macht. Unternehmen stehen jedoch noch vor der Herausforderung, diese sinnvoll zu nutzen.
News | Trends 2025 | TechTalk | Infrastruktur | Trends
TechTalk: So ist es aktuell um das Thema Quantencomputing bestellt
News | Trends 2025 | Trends Security | Favoriten der Redaktion | Infrastruktur | Rechenzentrum | Strategien | Whitepaper
Fortschritte im Quantencomputing könnten in wenigen Jahren heutige Verschlüsselungsverfahren obsolet machen
70 Prozent der weltweit befragten Unternehmen arbeiten bereits an quantensicheren Lösungen oder planen deren Einführung innerhalb der nächsten fünf Jahre. 61 Prozent dieser »Early Adopters« erwarten innerhalb der nächsten fünf bis zehn Jahre den Eintritt des sogenannten »Q-Day« – dem Zeitpunkt, an dem Quantencomputer leistungsfähig genug sind, um die heute gängigen kryptografischen Algorithmen zu brechen, die…
News | Blockchain | IT-Security | Strategien | Tipps
Drei zentrale Cybersicherheitsrisiken von Quantencomputing
Heute verschlüsselte Daten, die künftig entschlüsselt werden könnten. Manipulation der Blockchain. Quantenresistente Ransomware. Es ist eines der drängendsten technologischen Themen der kommenden Dekade: die zunehmende Relevanz von Quantencomputern und deren mögliche Auswirkungen auf die digitale Sicherheit. Als Cybersicherheitsrisiken gelten verschlüsselte Daten, die künftig entschlüsselt werden könnten, Manipulation der Blockchain und quantenresistente Ransomware. Klassische Computer stoßen…
News | Trends 2025 | Trends Security | IT-Security | Strategien | Tipps | Whitepaper
Nur fünf Prozent der Unternehmen verfügen über quantensichere Verschlüsselung
Es gibt eine deutliche Lücke zwischen der internen Wahrnehmung im Unternehmen und der tatsächlichen Vorbereitung auf Quantencomputing-Bedrohungen. Die Marktstudie von DigiCert zeigt, dass zwar 69 Prozent der Unternehmen das Risiko durch Quantencomputer für die Sicherheit aktueller Verschlüsselungsstandards erkennen, aber nur fünf Prozent tatsächlich quantensichere Kryptografie implementiert haben. Demnach rechnen 46,4 Prozent der befragten Organisationen mit…
News | Digitalisierung | Effizienz | Infrastruktur | Lösungen | Strategien
Per Anhalter durch das Quantencomputing
Im Jahr 1979 erzählte der unsterbliche Douglas Adams in seinem Hitchhiker’s Guide to the Galaxy (deutsch: Per Anhalter durch die Galaxis), wie der Supercomputer Deep Thought die Antwort auf die endgültige Frage nach dem Leben, dem Universum und dem ganzen Rest berechnet – die Antwort (»42«) hat jeder schon einmal gehört. Damals war der Begriff…

