Wer Daten in DNA speichert, macht heute oft etwas, das eher nach Fabrik als nach IT klingt: Sobald sich ein Bit ändert, wird im Zweifel ein komplett neuer DNA-Strang synthetisiert. Teuer, langsam, schwer zu automatisieren. Genau an dieser Stelle setzt eine neue Forschungsrichtung an: Informationen sollen direkt auf dem vorhandenen DNA-Strang verändert werden – ohne jedes Mal alles neu zu bauen.
Das ist mehr als ein nerdiger Labortrick. Die Datenmengen wachsen weiter, getrieben von Video, vernetzten Geräten und generativer KI. Das Marktforschungsunternehmen IDC beziffert die globale „Datasphere“ seit Jahren in Größenordnungen von vielen Dutzend Zettabyte – Tendenz steigend. Gleichzeitig kämpfen Betreiber von Rechenzentren nicht nur mit Kapazität, sondern mit Stromkosten, Platz, Hardware-Zyklen, Lieferketten und der Frage, wo Daten aus Compliance- und Souveränitätsgründen überhaupt liegen dürfen.
DNA wird seit gut zehn Jahren als Speichermedium mit extrem hoher Dichte und potenziell langer Haltbarkeit gehandelt. Nur: Zwischen dieser Verheißung und einem Produkt, das ein Rechenzentrum wirklich einkaufen würde, klafft ein Loch. Umschreibbarkeit könnte helfen, es zu verkleinern. Sie ist aber kein Freifahrtschein.
Warum „Write once“ DNA-Speicher ausbremst
Klassischer DNA-Speicher funktioniert grob so: Digitale Daten werden in die vier Basen A, C, G, T übersetzt, dann werden diese Sequenzen chemisch synthetisiert. Auslesen heißt sequenzieren und zurück in Bits übersetzen. Die theoretische Dichte ist beeindruckend – die Praxis ist es weniger, weil Synthese und Sequenzierung Zeit, Geld und Infrastruktur fressen.
Der Knackpunkt: In der IT ist Schreiben kein einmaliger Akt. Selbst Archive brauchen Korrekturen, neue Metadaten, Index-Updates, Redundanz-Management, Retention-Regeln. Ein strikt unveränderliches Medium passt höchstens zu „WORM“-Szenarien (Write Once, Read Many) – also zu Daten, die wirklich nie wieder angefasst werden. Das ist in Behörden, Unternehmen und Forschung eher die Ausnahme als die Regel.
Die neue Idee: nicht den ganzen Strang neu herstellen, sondern gezielt einzelne Positionen oder Marker auf dem bestehenden DNA-Träger ändern. Im Prinzip wird aus „Herstellen“ ein „Editieren“. Das könnte die Kosten und die Wartezeiten der Synthese drücken – und DNA-Speicher näher an das bringen, was Betreiber unter „Update“ verstehen.
Nur reicht ein hübsches Konzept nicht. Die Industrie will Zahlen: Fehlerraten, Stabilität, wie viele Umschreibzyklen möglich sind, Kosten pro Megabyte, Zugriffsgeschwindigkeit. Ohne diese Metriken bleibt es Forschung – keine Roadmap.
Vom Labor in den Betrieb: Fehler, Tempo, Umschreibzyklen
DNA-Speicher wird gern über seine Dichte verkauft. Rechenzentren entscheiden aber nach anderen Kriterien: Zuverlässigkeit, Integrationsaufwand, Betriebskosten, Automatisierung. Magnetband ist im Archivgeschäft nicht romantische Nostalgie, sondern knallharte Ökonomie: günstig, ausgereift, mit Robotik und Software-Ökosystem.
Umschreiben macht DNA-Speicher technisch noch anspruchsvoller. Schon heute müssen Fehler aus Synthese und Sequenzierung mit Fehlerkorrekturcodes und Redundanz abgefedert werden. Kommt eine gezielte Modifikation hinzu, wächst die Fehlerfläche: unvollständige Reaktionen, Off-Target-Veränderungen, schleichende Degradation. Das sind keine Randprobleme, das sind die Punkte, an denen ein Produkt scheitert.
Entscheidend wird deshalb die Frage nach den Zyklen: Wie oft lässt sich derselbe Bereich verändern, bevor die Fehlerrate kippt? Bei Flash-Speichern ist das eine standardisierte Kennzahl. Bei DNA ist es bislang eher Labor-Realität: unterschiedliche Protokolle, unterschiedliche Bedingungen, schwer vergleichbare Ergebnisse.
Und dann ist da die Geschwindigkeit. Selbst wenn die Kosten sinken: DNA wird kein Medium für häufige Zugriffe. Sein Revier ist „kaltes“ Archiv – Daten, die fast nie gelesen werden, aber lange liegen müssen. Wer DNA als SSD-Ersatz verkauft, verkauft Märchen.
Warum DNA zuerst ins „Cold Storage“ der Rechenzentren zielt
In Rechenzentren ist ein großer Teil der Daten nicht „heiß“. Vieles wird aus regulatorischen Gründen, zur Nachvollziehbarkeit, wegen geistigen Eigentums oder schlicht aus Angst vor dem Löschen aufgehoben. Diese Daten werden selten angefasst – kosten aber trotzdem Geld: Strom, Fläche, Hardware, Verwaltung.
Hier könnte DNA punkten: extrem kompakt, potenziell langlebig, geeignet für sehr lange Aufbewahrung. Aber die Dichte aus Fachartikeln ist nicht die Dichte im Betrieb. In der Realität kommen Redundanz, Indexierung, Etikettierung, Fehlerkorrektur und Recovery-Prozesse dazu. Am Ende zählt die „nutzbare“ Dichte – und der Preis, zu dem man Daten zuverlässig wieder herausbekommt.
Umschreibbarkeit trifft in diesem Archiv-Szenario einen wunden Punkt: Archive sind selten völlig statisch. Kataloge wachsen, Metadaten ändern sich, Klassifizierungen werden angepasst, Formate migriert. Wenn jede kleine Änderung eine komplette Neusynthese erzwingt, wird DNA-Speicher schnell zur teuren Spielerei. Ein editierbarer Strang macht zumindest plausibler, dass man den Träger behält und trotzdem Updates fahren kann.
Große Cloud-Konzerne haben das Thema längst in der Forschung auf dem Tisch – auch wenn sie es selten laut sagen. Die Botschaft ist klar: DNA wäre eine zusätzliche, sehr tiefe Archivschicht. Konkurrenz wäre zuerst das Band, nicht der SSD-Cluster.
Die unbequemen Fragen: Energie, Standards, Sicherheit
Ein Punkt wird in vielen Ankündigungen gern weichgezeichnet: die Gesamtenergiebilanz. DNA ist klein, ja. Aber Schreiben, Manipulieren und Lesen braucht Geräte, Chemie, Reagenzien, Logistik. Ein kompakter Datenträger nützt wenig, wenn die Prozesskette teuer, materialintensiv oder schwer zu automatisieren ist.
Hinzu kommt Standardisierung. Speicher ist nie nur Material, sondern ein System aus Formaten, Protokollen, Prüfmechanismen, Garantien. Ohne Standards droht Vendor-Lock-in – ein Killerargument in regulierten Branchen. Umschreibbare DNA macht es noch komplizierter: Wie wird eine Änderung beschrieben, versioniert, protokolliert? Wie auditierst du Integrität nach mehreren Updates?
Und Sicherheit: Wenn ein Medium veränderbar ist, muss lückenlos nachvollziehbar sein, wer was wann geändert hat. Archive brauchen „Chain of Custody“, Integritätsnachweise, Zugriffskontrollen. Umschreiben ohne starke Audit-Spuren wäre ein Geschenk für Manipulation – oder zumindest ein Albtraum für Compliance-Abteilungen.
Umschreibbare DNA klingt nach dem richtigen Schritt weg vom reinen „Write-once“-Showcase. Aber der Weg zum Produkt führt nicht über schöne Dichtewerte, sondern über harte Betriebsdaten: reproduzierbare Ergebnisse, robuste Automatisierung, kalkulierbare Kosten – und Standards, die mehr sind als ein Laborprotokoll.



