Digitalisierung
Unter Digitalisierung (von lateinisch digitus ‚Finger‘ und englisch digit ‚Ziffer‘) versteht man die Umwandlung von analogen, d.h. stufenlos darstellbaren Werten bzw. das Erfassen von Informationen über physische Objekte in Formate, welche sich zu einer Verarbeitung oder Speicherung in digitaltechnischen Systemen eignen. Die Information wird hierbei in ein digitales Signal umgewandelt, das nur aus diskreten Werten besteht. Zunehmend wird unter Digitalisierung auch die Nutzung primär digitaler Repräsentationen zum Beispiel durch Digitalkameras oder digitale Tonaufzeichnungssysteme verstanden. Die Möglichkeit der informationstechnischen (Weiter-)Verarbeitung ist ein Prinzip, das allen Erscheinungsformen der Digitalen Revolution und der Digitalen Transformation im Wirtschafts-, Gesellschafts-, Arbeits- und Privatleben zugrunde liegt.
Ausweitung des Begriffsumfangs
Das Verb digitize taucht im englischen Sprachraum 1953 erstmals auf, digitization im Jahr 1954. Spätestens seit Mitte der 1980er Jahre wurde der daraus abgeleitete Begriff der Digitalisierung in Deutschland verwendet.
Seit etwa 2013 wird – so zeigen Google-Suchanfragen – der Begriff der Digitalisierung in der deutschsprachigen medialen Öffentlichkeit immer seltener im Sinne der ursprünglichen Bedeutung (Umwandlung von analogen in digitale Datenformate) verwendet, sondern fast ausschließlich (und zunehmend unbestimmt) im Sinne der umfassenden Megatrends der digitalen Transformation und Durchdringung aller Bereiche von Wirtschaft, Staat, Gesellschaft und Alltag. Dabei geht es um „die zielgerichtete Identifikation und das konsequente Ausschöpfen von Potentialen, die sich aus Digitaltechnik ergeben“. Dort wird auch von „Digitalisierungsfähigkeit“ gesprochen, was wie viele andere Zusammensetzungen mit „Digitalisierung“ semantisch unsinnig ist.
Oft werden alle Formen technisch vernetzter digitaler Kommunikation wie Breitbandkommunikation, Internet der Dinge, E-Commerce, Smart Home oder Industrie 4.0 undifferenziert unter das Schlagwort subsumiert. Peter Mertens, Dina Barbian und Stephan Baier zeigen die zunehmend inflationäre und fragwürdige Verwendung des Begriffs auf, der nicht nur einen wichtigen Trend markiert, sondern auch Merkmale einer Mode (Hype, fad) trägt. Diese Mode sei mit allzu optimistischen Erwartungen und Machbarkeitsillusionen verbunden; ihre Realisierung könne zu riskanten Übertreibungen und Fehlinvestitionen führen. So ist von 2013 bis 2017 die Zahl der Google-Suchanfragen für „Digitalisierung“ und „Industrie 4.0“ um etwa 600 bis 700 Prozent gestiegen, ein klassisches Anzeichen für einen Hype.
Tatsächlich erhöht die technisch vernetzte digitale Kommunikation die Vielfalt technisch-organisatorischer Lösungsmöglichkeiten erheblich. Daher schafft sie keine langfristig stabilen Strukturen, sondern erhöht deren Flexibilität und Komplexität und reduziert ihre Berechenbarkeit durch die von ihr angestoßenen Prozesse disruptiven Wandels.
Die folgenden Ausführungen beziehen sich vorrangig auf die Digitalisierung im ursprünglichen, engeren Sinne als Prozess der Datenumwandlung.
Grundlagen
Die Digitalisierung als Erstellung digitaler Repräsentationen hat den Zweck, Informationen digital zu speichern und für die elektronische Datenverarbeitung verfügbar zu machen. Sie begann historisch meist mit einem analogen Medium (Photonegativ, Diapositiv, Tonband, Schallplatte). Das Produkt einer solchen Digitalisierung wird mitunter als Digitalisat bezeichnet. Zunehmend wird unter Objektdigitalisierung jedoch auch die Erstellung primär digitaler Repräsentationen mittels digitaler Video-, Foto- oder Tonaufzeichnung verstanden. Hier wird der Begriff Digitalisat gewöhnlich nicht verwendet.
Erste Versuche zur Digitalisierung analoger Informationen gehen auf Leibniz’ Binärkalkül und kryptographische Experimente des 17. Jahrhunderts zurück. Pläne zum Bau einer digitalen Rechenmaschine scheiterten an den damaligen Grenzen der Mechanik. Erste praktisch bedeutsame ingenieurtechnische Umsetzungen des Prinzips finden sich in Form der Kartensteuerung des Jacquardwebstuhls und der Telegrafie. Grundlagen der papierlosen Speicherung und Verarbeitung von Digitaldaten waren die Flipflop-Schaltung 1918, die – dauernde Spannungsversorgung vorausgesetzt – ein Bit über unbegrenzte Zeit speichern kann, ferner die Elektronenröhre und der Transistor (1947). Für die massenhafte Speicherung und Verarbeitung existieren seit den 1960er Jahren immer leistungsfähigere Speichermedien und seit den 1970er Jahren Mikroprozessoren.
Es wird geschätzt, dass 2007 bereits 94 Prozent der weltweiten technologischen Informationskapazität digital war (nach lediglich 3 Prozent im Jahr 1993). Auch wird angenommen, dass es der Menschheit im Jahr 2002 zum ersten Mal möglich war, mehr Information digital als analog zu speichern (der Beginn des „Digitalen Zeitalters“).
Die zu digitalisierende Größe kann alles sein, was mittels Sensoren messbar ist. Typische Beispiele sind:
- Schalldruck bei Tonaufnahmen mit einem Mikrofon,
- Helligkeit bei Bild- und Videoaufnahmen mit einem Bildsensor,
- mit Hilfe von speziellen Programmen auch Text aus einem gescannten Dokument heraus,
- Kräfte durch Schwere oder Beschleunigung
- Temperatur,
- magnetische oder elektrische Feldstärke
Der Sensor misst die physikalische Größe und gibt sie in Form einer – noch analogen – elektrischen Spannung oder einem elektrischen Strom wieder. Dieser Messwert wird anschließend mit einem Analog-Digital-Umsetzer in einen digitalen Wert, in Form eines (meist elektrischen) Digitalsignals, umgesetzt. Dieser Vorgang kann einmalig oder in regelmäßigen zeitlichen Abständen erfolgen. Von hier an sind die Messgrößen digitalisiert und können von einem digitaltechnischen System (zum Beispiel dem Heim-PC oder auch digitalen Signalprozessoren) weiterverarbeitet oder gespeichert werden, zum Beispiel auch in einem nicht flüchtigen Speicher wie einer Compact Disc oder einem USB-Stick.
Die heutige Digitaltechnik verarbeitet in der Regel ausschließlich binäre Signale. Da bei diesen nur zwischen zwei Signalzuständen unterschieden werden muss ("0" oder "1" beziehungsweise "low" oder "high"), sind dadurch die Anforderungen an die Genauigkeit der Bauteile geringer – und infolgedessen auch die Produktionskosten.
Systeminterne Repräsentation digitaler Daten
Wie die digitalisierten Werte anschließend im System intern dargestellt werden, hängt vom jeweiligen System ab. Hierbei muss zunächst die speicherunabhängige Kodierung und anschließend die Speicherung von Informationsblöcken unterschieden werden. Die Kodierung und das Format hängen von der Art der Information, den verwendeten Programmen und auch der späteren Nutzung ab. Die Speicherung kann im flüchtigen Arbeitsspeicher oder persistent zum Beispiel in Datenbanksystemen oder unmittelbar in einem Dateisystem als Dateien erfolgen.
Hierbei sind Dateiformate von wesentlicher Bedeutung, welche sowohl die binäre Kodierung als auch Metadaten standardisieren. Beispiele sind zum Beispiel Textdateien in ASCII oder Unicode-Kodierung, Bildformate, oder Formate für Vektorgrafiken, welche zum Beispiel die Koordinaten einer Kurve innerhalb einer Fläche oder eines Raumes beschreiben.
Schnittstellen in die physische Welt
Mit Blick auf die Prozessdigitalisierung sind Schnittstellen zwischen der digitalen Welt und der Außenwelt von entscheidender Bedeutung. Digitale Information wird auf analogen Geräten ausgegeben oder an physischen Gütern angebracht, um von Menschen oder von der gleichen Maschine zeitversetzt oder von anderen Maschinen erneut gelesen werden zu können.
Hierzu zählen neben klassischen Techniken wie der Ausgabe digitaler Information auf Trägermaterialien wie Papier mittels menschenlesbaren Zeichen (und deren Rückverwandlung durch Texterkennung) auch spezialisierte Techniken wie Strichcodes, 2D-Code (zum Beispiel QR-Code) oder Funknetze, die im Internet der Dinge auch ohne Sichtkontakt und ohne elektrische Verbindung zur Kommunikation zwischen Geräten verwendet werden (zum Beispiel über Wireless Local Area Networks (WLAN) oder mit Radio Frequency Identification (RFID)).
Von realen Objekten oder Prozessen können digitale Zwillinge modelliert werden, mit denen virtuelle Simulationen durchgeführt werden können, ohne die Realität zu beeinflussen.
Digitalisate
Das Endprodukt von Mediendigitalisierungen wird häufig – in Anlehnung an Begriffsbildungen wie Kondensat oder Korrelat – Digitalisat genannt.
- Beispiel A
- Ein Foto wird für den Druck digitalisiert:
- Es entsteht eine Datei mit den gewünschten Bildpunkten.
- Beispiel B
- Eine Seite mit Text und Fotos wird digitalisiert, der Text per Texterkennung (OCR) in
weiterbearbeitbare Form gebracht, und diese beiden im Originalsatz (Layout) mithilfe einer Auszeichnungssprache
beispielsweise als PDF-Datei
gespeichert:
- Die entstandene PDF-Datei besteht aus mehreren Einzelelementen: Raster-, Vektor- und Textdaten.
- Durch das Format PDF werden die Einzelelemente auf jeweils speichersparende Art in einer Datei untergebracht.
- Die Einzelelemente stellen vollwertige und nutzbare Digitalisierungen (Digitalisate einzelner Teile) dar. Aber erst die Verbindung der Einzelelemente im Endprodukt erzeugt eine echte Reproduktion, denn diese Datei verknüpft die Einzelelemente in der ursprünglichen Anordnung, ist also eine verlegerisch korrekte Wiedergabe des Originals.
Vor- und Nachteile
Das Vorliegen von Informationen und Daten in digitaler Form besitzt unter anderem folgende Vorteile:
- Digitale Daten erlauben die Nutzung, Bearbeitung, Verteilung, Erschließung und Wiedergabe in elektronischen Datenverarbeitungssystemen.
- Digitale Daten können maschinell und damit schneller verarbeitet, verteilt und vervielfältigt werden.
- Sie können (auch wortweise) durchsucht werden.
- Der Platzbedarf ist deutlich geringer als bei anderen Formen der Archivierung
- Auch bei langen Transportwegen und nach vielfacher Bearbeitung sind Fehler und Verfälschungen (zum Beispiel Rauschüberlagerungen) im Vergleich zur analogen Verarbeitung gering oder können ganz ausgeschlossen werden.
Ein weiterer Grund für die Digitalisierung analoger Inhalte ist die Langzeitarchivierung. Geht man davon aus, dass es keinen ewig haltbaren Datenträger gibt, ist ständige Migration ein Faktum. Fakt ist auch, dass analoge Inhalte mit jedem Kopiervorgang an Qualität verlieren. Digitale Inhalte bestehen hingegen aus diskreten Werten, die entweder lesbar und damit dem digitalen Original gleichwertig sind, oder nicht mehr lesbar sind, was durch redundante Abspeicherung der Inhalte beziehungsweise Fehlerkorrekturalgorithmen verhindert wird.
Schließlich können analoge Originale durch Erstellung digitaler Benutzungskopien geschont werden. Denn viele Datenträger, darunter Schallplatten, analog vorliegende Spielfilme und Farb-Diapositive, verlieren allein durch die Wiedergabe oder auch nur einfache Alterungsprozesse an Qualität. Auch gedruckte Bücher oder Zeitungen und Archivalien leiden unter Benutzung und können durch Digitalisierung geschont werden.
Es sei angemerkt, dass der Schritt der Digitalisierung grundsätzlich mit Qualitätsverlust bzw. Informationsverlust verbunden ist, weil die Auflösung „endlich“ bleibt. Ein Digitalisat kann jedoch in vielen Fällen so genau sein, dass es für einen Großteil der möglichen (auch zukünftigen) Anwendungsfälle ausreicht. Wenn diese Qualität durch das Digitalisat erreicht wird, spricht man von Preservation Digitisation, also der Digitalisierung zur Erhaltung (= Ersetzungskopie). Der Begriff verkennt jedoch, dass nicht alle zukünftigen Anwendungsfälle bekannt sein können. Beispielsweise ermöglicht eine hochauflösende Fotografie zwar das Lesen des Texts einer Pergamenthandschrift, kann aber zum Beispiel nicht für physikalische oder chemische Verfahren zur Altersbestimmung der Handschrift verwendet werden. Aus diesem Grund ist es auch hoch umstritten, beispielsweise Zeitungen und Bücher, die aufgrund ihrer minderwertigen Papierqualität nur durch aufwendige Restaurierung erhalten werden könnten, stattdessen zu digitalisieren und die Originale zu entsorgen.
Nachhaltigkeit
Durch Digitalisierung entstehen neue Verbrauche von Energie und Ressourcen. Dazu zählen:
- Energieverbrauch: Verbrauch beim Betrieb von IT-Systemen. Weltweit beträgt der Stromverbrauch der Informations- und Kommunikationstechnik im Jahr 2018 etwa 2300 Terawattstunden (TWh). Allein das Internet hat damit einen Anteil von 10 Prozent am weltweiten Stromverbrauch. Knapp vier Prozent der weltweiten CO2-Emissionen gehen heute auf digitale Geräte zurück. Laut einer Studie des Bundeswirtschaftsministeriums betrug der Energiebedarf der Rechenzentren einschließlich der Server-, Speicher- und Netzwerktechnik sowie wesentlicher Infrastruktursysteme 2015 in Deutschland 18 Terawattstunden (entspricht 18 Mrd. Kilowattstunden). Bezogen auf die Informations- und Kommunikationstechnik insgesamt betrug 2015 der Stromverbrauch in Deutschland 48 Terawattstunden, also pro Bundesbürger etwa 600 kWh.
- Ökologische Folgen: Kritisiert wird der Verbrauch von Rohstoffen. Bei der Herstellung eines Laptops gehen nur zirka 2 Prozent der Materialien in das Produkt selbst ein. Der Abbau von Lithium beispielsweise, das für die Akkus verwendet wird, verbraucht enorm viel Wasser.
Probleme treten beim Recycling und bei der Entsorgung insbesondere der privat genutzten Geräte auf. Digitalisierung kann im Einzelfall Energie und Ressourcen einsparen helfen. Ein Beispiel sind intelligente Verkehrsleitsysteme. Allerdings werden häufiger negative als positive Aspekte diskutiert.
Literatur
- Volker Boehme-Neßler: Unscharfes Recht. Überlegungen zur Relativierung des Rechts in der digitalisierten Welt. Berlin 2008.
- Marianne Dörr: Planung und Durchführung von Digitalisierungsprojekten. In: Hartmut Weber, Gerald Maier (Hrsg.): Digitale Archive und Bibliotheken. Neue Nutzungsmöglichkeiten und Nutzungsqualitäten. Stuttgart 2000, S. 103–112
- Peter Exner: Verfilmung und Digitalisierung von Archiv- und Bibliotheksgut. In: Hartmut Weber, Gerald Maier (Hrsg.): Digitale Archive und Bibliotheken. Neue Nutzungsmöglichkeiten und Nutzungsqualitäten. Stuttgart 2000, S. 113–127
- Thomas Fricke, Gerald Maier: Automatische Texterkennung bei digitalisiertem Archiv- und Bibliotheksgut. In: Hartmut Weber, Gerald Maier (Hrsg.): Digitale Archive und Bibliotheken. Neue Nutzungsmöglichkeiten und Nutzungsqualitäten. Stuttgart 2000, S. 201–221
- Mathias Greffrath: Ausbeutung 4.0 – Die Digitalisierung des Menschen, in: Blätter für deutsche und internationale Politik 1'21, S. 105–113
- Jürgen Gulbins, Markus Seyfried, Hans Strack-Zimmermann: Dokumenten-Management. Springer-Verlag, Berlin 2002.
- Gerald Maier, Peter Exner: Wirtschaftlichkeitsüberlegungen für die Digitalisierung von Archiv- und Bibliotheksgut. In: Hartmut Weber, Gerald Maier [Hrsg.]: Digitale Archive und Bibliotheken. Neue Nutzungsmöglichkeiten und Nutzungsqualitäten. Stuttgart 2000.
- Peter Mertens, Dina Barbian, Stephan Baier: Digitalisierung und Industrie 4.0 – eine Relativierung. Springer, Wiesbaden 2017, ISBN 978-3-658-19631-8.
© biancahoegel.de
Datum der letzten Änderung: Jena, den: 22.02. 2023