Digitalisierung

Unter Digitalisierung (von lateinisch digitus ‚Finger‘ und englisch digit ‚Ziffer‘) versteht man die Umwandlung von analogen, d. h. stufenlos darstellbaren Werten bzw. das Erfassen von Informationen über physische Objekte in Formate, welche sich zu einer Verarbeitung oder Speicherung in digitaltechnischen Systemen eignen. Die Information wird hierbei in ein digitales Signal umgewandelt, das nur aus diskreten Werten besteht. Zunehmend wird unter Digitalisierung auch die Nutzung primär digitaler Repräsentationen zum Beispiel durch Digitalkameras oder digitale Tonaufzeichnungssysteme verstanden. Die Möglichkeit der informationstechnischen (Weiter-)Verarbeitung ist ein Prinzip, das allen Erscheinungsformen der Digitalen Revolution und der Digitalen Transformation im Wirtschafts-, Gesellschafts-, Arbeits- und Privatleben zugrunde liegt.[1]

Historisch wurde auch die Behandlung eines Menschen oder Warmblüters mit einem aus Fingerhut (Digitalis) gewonnenen Medikament als Digitalisierung bezeichnet.[2][Anm. 1][Anm. 2][Anm. 3][3]

Das Verb digitize taucht im englischen Sprachraum 1953 erstmals auf, digitization im Jahr 1954.[Anm. 4] Spätestens seit Mitte der 1980er Jahre wurde der daraus abgeleitete Begriff der Digitalisierung in Deutschland verwendet.[Anm. 5]

Seit etwa 2013 wird – so zeigen Google-Suchanfragen – der Begriff der Digitalisierung in der deutschsprachigen medialen Öffentlichkeit[Anm. 6] immer seltener im Sinne der ursprünglichen Bedeutung (Umwandlung von analogen in digitale Datenformate) verwendet, sondern fast ausschließlich (und zunehmend unbestimmt) im Sinne der umfassenden Megatrends[Anm. 7] der digitalen Transformation und Durchdringung aller Bereiche von Wirtschaft, Staat, Gesellschaft und Alltag. Dabei geht es um „die zielgerichtete Identifikation und das konsequente Ausschöpfen von Potentialen, die sich aus Digitaltechnik ergeben“.[Anm. 8] Dort wird auch von „Digitalisierungsfähigkeit“ gesprochen, was wie viele andere Zusammensetzungen mit „Digitalisierung“ semantisch unsinnig ist.

Oft werden alle Formen technisch vernetzter digitaler Kommunikation wie Breitbandkommunikation, Internet der Dinge, E-Commerce, Smart Home oder Industrie 4.0 undifferenziert unter das Schlagwort subsumiert. Peter Mertens, Dina Barbian und Stephan Baier zeigen die zunehmend inflationäre und fragwürdige Verwendung des Begriffs auf, der nicht nur einen wichtigen Trend markiert, sondern auch Merkmale einer Mode (Hype, fad) trägt. Diese Mode sei mit allzu optimistischen Erwartungen und Machbarkeitsillusionen verbunden; ihre Realisierung könne zu riskanten Übertreibungen und Fehlinvestitionen führen. So ist von 2013 bis 2017 die Zahl der Google-Suchanfragen für „Digitalisierung“ und „Industrie 4.0“ um etwa 600 bis 700 Prozent gestiegen, ein klassisches Anzeichen für einen Hype.[Anm. 9]

Tatsächlich erhöht die technisch vernetzte digitale Kommunikation die Vielfalt technisch-organisatorischer Lösungsmöglichkeiten erheblich. Daher schafft sie keine langfristig stabilen Strukturen, sondern erhöht deren Flexibilität und Komplexität und reduziert ihre Berechenbarkeit durch die von ihr angestoßenen Prozesse disruptiven Wandels.

Die folgenden Ausführungen beziehen sich vorrangig auf die Digitalisierung im ursprünglichen, engeren Sinne als Prozess der Datenumwandlung.

Die Digitalisierung als Erstellung digitaler Repräsentationen hat den Zweck, Informationen digital zu speichern und für die elektronische Datenverarbeitung verfügbar zu machen. Sie begann historisch meist mit einem analogen Medium (Photonegativ, Diapositiv, Tonband, Schallplatte). Das Produkt einer solchen Digitalisierung wird mitunter als Digitalisat bezeichnet. Zunehmend wird unter Objektdigitalisierung jedoch auch die Erstellung primär digitaler Repräsentationen mittels digitaler Video-, Foto- oder Tonaufzeichnung verstanden. Hier wird der Begriff Digitalisat gewöhnlich nicht verwendet.

Erste Versuche zur Digitalisierung analoger Informationen gehen auf Leibniz’ Binärkalkül und kryptographische Experimente des 17. Jahrhunderts zurück. Pläne zum Bau einer digitalen Rechenmaschine scheiterten an den damaligen Grenzen der Mechanik. Erste praktisch bedeutsame ingenieurtechnische Umsetzungen des Prinzips finden sich in Form der Kartensteuerung des Jacquardwebstuhls und der Telegrafie.[4] Grundlagen der papierlosen Speicherung und Verarbeitung von Digitaldaten waren die Flipflop-Schaltung 1918, die – dauernde Spannungsversorgung vorausgesetzt – ein Bit über unbegrenzte Zeit speichern kann, ferner die Elektronenröhre und der Transistor (1947). Für die massenhafte Speicherung und Verarbeitung existieren seit den 1960er Jahren immer leistungsfähigere Speichermedien und seit den 1970er Jahren Mikroprozessoren.

Es wird geschätzt, dass 2007 bereits 94 Prozent der weltweiten technologischen Informationskapazität digital war (nach lediglich 3 Prozent im Jahr 1993).[5] Auch wird angenommen, dass es der Menschheit im Jahr 2002 zum ersten Mal möglich war, mehr Information digital als analog zu speichern (der Beginn des „Digitalen Zeitalters“).[6]

Die zu digitalisierende Größe kann alles sein, was mittels Sensoren messbar ist. Typische Beispiele sind:

Der Sensor misst die physikalische Größe und gibt sie in Form einer – noch analogen – elektrischen Spannung oder einem elektrischen Strom wieder. Dieser Messwert wird anschließend mit einem Analog-Digital-Umsetzer in einen digitalen Wert, in Form eines (meist elektrischen) Digitalsignals, umgesetzt. Dieser Vorgang kann einmalig oder in regelmäßigen zeitlichen Abständen erfolgen. Von hier an sind die Messgrößen digitalisiert und können von einem digitaltechnischen System (zum Beispiel dem Heim-PC oder auch digitalen Signalprozessoren) weiterverarbeitet oder gespeichert werden, zum Beispiel auch in einem nicht flüchtigen Speicher wie einer Compact Disc oder einem USB-Stick.

Die heutige Digitaltechnik verarbeitet in der Regel ausschließlich binäre Signale. Da bei diesen nur zwischen zwei Signalzuständen unterschieden werden muss ("0" oder "1" beziehungsweise "low" oder "high"), sind dadurch die Anforderungen an die Genauigkeit der Bauteile geringer – und infolgedessen auch die Produktionskosten.

Wie die digitalisierten Werte anschließend im System intern dargestellt werden, hängt vom jeweiligen System ab. Hierbei muss zunächst die speicherunabhängige Kodierung und anschließend die Speicherung von Informationsblöcken unterschieden werden. Die Kodierung und das Format hängen von der Art der Information, den verwendeten Programmen und auch der späteren Nutzung ab. Die Speicherung kann im flüchtigen Arbeitsspeicher oder persistent zum Beispiel in Datenbanksystemen oder unmittelbar in einem Dateisystem als Dateien erfolgen.

Hierbei sind Dateiformate von wesentlicher Bedeutung, welche sowohl die binäre Kodierung als auch Metadaten standardisieren. Beispiele sind zum Beispiel Textdateien in ASCII oder Unicode-Kodierung, Bildformate, oder Formate für Vektorgrafiken, welche zum Beispiel die Koordinaten einer Kurve innerhalb einer Fläche oder eines Raumes beschreiben.

Mit Blick auf die Prozessdigitalisierung sind Schnittstellen zwischen der digitalen Welt und der Außenwelt von entscheidender Bedeutung. Digitale Information wird auf analogen Geräten ausgegeben oder an physischen Gütern angebracht, um von Menschen oder von der gleichen Maschine zeitversetzt oder von anderen Maschinen erneut gelesen werden zu können.

Hierzu zählen neben klassischen Techniken wie der Ausgabe digitaler Information auf Trägermaterialien wie Papier mittels menschenlesbaren Zeichen (und deren Rückverwandlung durch Texterkennung) auch spezialisierte Techniken wie Strichcodes, 2D-Code (zum Beispiel QR-Code) oder Funknetze, die im Internet der Dinge auch ohne Sichtkontakt und ohne elektrische Verbindung zur Kommunikation zwischen Geräten verwendet werden (zum Beispiel über Wireless Local Area Networks (WLAN) oder mit Radio Frequency Identification (RFID)).

Von realen Objekten oder Prozessen können digitale Zwillinge modelliert werden, mit denen virtuelle Simulationen durchgeführt werden können, ohne die Realität zu beeinflussen.

Das Endprodukt von Mediendigitalisierungen wird häufig – in Anlehnung an Begriffsbildungen wie Kondensat oder Korrelat – Digitalisat genannt.

Das Vorliegen von Informationen und Daten in digitaler Form besitzt unter anderem folgende Vorteile:

Ein weiterer Grund für die Digitalisierung analoger Inhalte ist die Langzeitarchivierung. Geht man davon aus, dass es keinen ewig haltbaren Datenträger gibt, ist ständige Migration ein Faktum. Fakt ist auch, dass analoge Inhalte mit jedem Kopiervorgang an Qualität verlieren. Digitale Inhalte bestehen hingegen aus diskreten Werten, die entweder lesbar und damit dem digitalen Original gleichwertig sind, oder nicht mehr lesbar sind, was durch redundante Abspeicherung der Inhalte beziehungsweise Fehlerkorrekturalgorithmen verhindert wird.

Schließlich können analoge Originale durch Erstellung digitaler Benutzungskopien geschont werden. Denn viele Datenträger, darunter Schallplatten, analog vorliegende Spielfilme und Farb-Diapositive, verlieren allein durch die Wiedergabe oder auch nur einfache Alterungsprozesse an Qualität. Auch gedruckte Bücher oder Zeitungen und Archivalien leiden unter Benutzung und können durch Digitalisierung geschont werden.

Es sei angemerkt, dass der Schritt der Digitalisierung grundsätzlich mit Qualitätsverlust bzw. Informationsverlust verbunden ist, weil die Auflösung „endlich“ bleibt. Ein Digitalisat kann jedoch in vielen Fällen so genau sein, dass es für einen Großteil der möglichen (auch zukünftigen) Anwendungsfälle ausreicht. Wenn diese Qualität durch das Digitalisat erreicht wird, spricht man von Preservation Digitisation, also der Digitalisierung zur Erhaltung (= Ersetzungskopie). Der Begriff verkennt jedoch, dass nicht alle zukünftigen Anwendungsfälle bekannt sein können. Beispielsweise ermöglicht eine hochauflösende Fotografie zwar das Lesen des Texts einer Pergamenthandschrift, kann aber zum Beispiel nicht für physikalische oder chemische Verfahren zur Altersbestimmung der Handschrift verwendet werden. Aus diesem Grund ist es auch hoch umstritten, beispielsweise Zeitungen und Bücher, die aufgrund ihrer minderwertigen Papierqualität nur durch aufwendige Restaurierung erhalten werden könnten, stattdessen zu digitalisieren und die Originale zu entsorgen.

Die Digitalisierung hat eine lange Entwicklung hinter sich. Bereits vor langer Zeit wurden Universalcodes verwendet. Historisch frühe Beispiele dafür sind der Jacquardwebstuhl (1805), die Brailleschrift (1829) und das Morsen (ab 1837). Das Grundprinzip, festgelegte Codes zur Informationsübermittlung zu benutzen, funktionierte auch bei technisch ungünstigen Bedingungen per Licht- und Tonsignal (Funktechnik, Telefon, Telegrafie). Später folgten Fernschreiber (unter anderem unter Verwendung des Baudot-Codes), Telefax und E-Mail. Die heutigen Computer verarbeiten Informationen ausschließlich in digitaler Form.

In der Wissenschaft ist Digitalisierung im Sinne der Veränderung von Prozessen und Abläufen aufgrund des Einsatzes digitaler Technik (Digitale Revolution, Digitale Transformation) ein querschnittliches Thema in vielen Wissenschaftsdisziplinen. Die technische Entwicklung ist dabei Kernthema in der Informatik, die wirtschaftlich-technische Entwicklung Kernthema in der Wirtschaftsinformatik. Im deutschsprachigen Raum entstand der erste Lehrstuhl, der offiziell den Begriff der Digitalisierung als Hauptaufgabe aufgreift, 2015 an der Universität Potsdam.[Anm. 10]

Rein technisch gesehen wird der Prozess der Digitalisierung von einem Analog-Digital-Umsetzer durchgeführt, welcher analoge Eingangssignale in festgesetzten Intervallen, seien dies nun Zeitintervalle bei linearen Aufzeichnungen wie in der Messtechnik (siehe auch Digitale Messtechnik) oder der Abstand der Fotozellen beim Scannen, misst (siehe auch Abtastrate) und diese Werte mit einer bestimmten Genauigkeit (siehe Quantisierung) digital codiert (siehe auch Codec). Je nach Art des analogen Ausgangsmaterials und des Zwecks der Digitalisierung werden verschiedene Verfahren eingesetzt.

Bei der Digitalisierung von Text wird das Dokument zuerst genauso wie ein Bild digitalisiert, das heißt gescannt. Soll das Digitalisat das ursprüngliche Aussehen des Dokumentes möglichst genau wiedergeben, erfolgt keine weitere Verarbeitung und es wird nur das Bild des Textes abgespeichert.

Wenn der sprachliche Inhalt der Dokumente von Interesse ist, so wird das digitalisierte Textbild von einem Texterkennungsprogramm in einen Zeichensatz übersetzt (zum Beispiel ASCII oder bei nicht-lateinischen Buchstaben Unicode) und anschließend der erkannte Text gespeichert. Der Speicherbedarf ist dabei erheblich geringer als für das Bild. Allerdings gehen unter Umständen Informationen verloren, die nicht im reinen Text dargestellt werden können (zum Beispiel die Formatierung).

Eine weitere Möglichkeit ist die Kombination aus beidem, dabei wird neben dem digitalisierten Bild des Textes noch der Inhalt erkannt und als Metadaten hinterlegt. So kann im Text nach Begriffen gesucht werden, aber dennoch das (digitalisierte) Originaldokument angezeigt werden (zum Beispiel bei Google Books).

Um ein Bild zu digitalisieren, wird das Bild gescannt, das heißt in Zeilen und Spalten (Matrix) zerlegt, für jeden der dadurch entstehenden Bildpunkte wird der Grauwert bzw. Farbwert ausgelesen und mit einer bestimmten Quantisierung gespeichert. Dies kann durch Scanner, digitale Fotografie, durch satellitengestützte oder medizinische Sensoren erfolgen. Zur finalen Speicherung des Digitalisates können gegebenenfalls Methoden der Bildkompression eingesetzt werden.

Bei einer Schwarz-Weiß-Rastergrafik ohne Grautöne nimmt dann der Wert für ein Pixel die Werte „0“ für „Schwarz“ und „1“ für „Weiß“ an. Die Matrix wird zeilenweise ausgelesen, wodurch man eine Folge aus den Ziffern 0 und 1 erhält, welche das Bild repräsentiert. In diesem Fall wird also eine Quantisierung von einem Bit verwendet.

Um ein Farb- oder Graustufenbild digital zu repräsentieren, wird eine höhere Quantisierung benötigt. Bei Digitalisaten im RGB-Farbraum wird jeder Farbwert eines Pixels in die Werte Rot, Grün und Blau zerlegt, und diese werden einzeln mit derselben Quantisierung gespeichert (maximal ein Byte/Farbwert = 24 Bit/Pixel). Beispiel: Ein Pixel in reinem Rot entspricht R=255, G=0, B=0.

Im YUV-Farbmodell können die Farbwerte eines Pixels mit unterschiedlicher Quantisierung gespeichert werden, da hierbei die Lichtstärke, welche vom menschlichen Auge genauer registriert wird, von der Chrominanz (= Farbigkeit), die das menschliche Auge weniger genau registriert, getrennt sind. Dies ermöglicht ein geringeres Speichervolumen bei annähernd gleicher Qualität für den menschlichen Betrachter.

In Großformatscannern werden die einzelnen Farbauszüge der Druckfilme eingescannt, zusammengefügt und „entrastert“, damit die Daten wieder digital für eine CtP-Belichtung vorhanden sind.

Die Digitalisierung von Audiodaten wird oft als „Sampling“ bezeichnet. Zuvor in analoge elektronische Schwingungen verwandelte Schallwellen (etwa aus einem Mikrofon) werden stichprobenartig schnell hintereinander als digitale Werte gemessen und gespeichert. Diese Werte können umgekehrt auch wieder schnell hintereinander abgespielt und zu einer analogen Schallwelle „zusammengesetzt“ werden, die dann wieder hörbar gemacht werden kann. Aus den gemessenen Werten würde sich eigentlich bei der Rückumwandlung eine eckige Wellenform ergeben: Je niedriger die Sampling-Frequenz ist, umso eckiger ist die Wellenform bzw. das Signal. Dies kann sowohl durch mathematische Verfahren reduziert werden (Interpolation, vor der D/A Wandlung) als auch durch analoge Filter vermindert werden. Die Bittiefe bezeichnet beim Sampling den „Raum“ für Werte in Bits, die u. a. für die Auflösung des Dynamikumfangs notwendig sind. Ab einer Samplingfrequenz von 44,1 Kilohertz und einer Auflösung von 16 Bit spricht man von CD-Qualität.

Aufgrund der großen anfallenden Datenmengen kommen verlustfreie und verlustbehaftete Kompressionsverfahren zum Einsatz. Diese erlauben, Audiodaten platzsparender auf Datenträgern zu speichern (s. FLAC, MP3).

Gängige Dateiformate für Audio sind: WAVE, AIFF, FLAC, MP3, AAC, Au oder Ogg Vorbis.

Gängige Umsetzverfahren siehe Analog-Digital-Umsetzer.

Schallplatten können berührungslos softwaregestützt gelesen und digitalisiert werden, indem ein hochauflösendes optisches Digitalisat des Tonträgers von einem Programm „abgetastet“ wird. Dieses Verfahren wird bei der Rekonstruktion historischer Tonaufnahmen verwendet.[Anm. 11][7]

Hierbei handelt es sich meistens um die digitale Erfassung archäologischer Objekte in Schrift und Bild. Alle verfügbaren Informationen (Klassifizierung, Datierung, Maße, Eigenschaften etc.) zu einem archäologischen Objekt (zum Beispiel einem Gefäß, Steinwerkzeug, Schwert) werden digital erfasst, durch elektronische Abbildungen und Zeichnungen ergänzt und in einer Datenbank gespeichert. Anschließend können die Objekte in Form eines Daten-Imports in ein Objekt-Portal wie zum Beispiel museum-digital integriert werden, wo die Objekte für jeden frei recherchierbar sind. Anlass für die Digitalisierung von archäologischen Objekten ist meist die Erfassung größerer Bestände wie archäologische Sammlungen an Museen oder der für die Bodendenkmalpflege zuständigen Ämter, um sie der Öffentlichkeit zu präsentieren. Da im musealen Alltag nie alle Objekte einer Sammlung in Form von Ausstellungen oder Publikationen gezeigt werden können, stellt die Digitalisierung eine Möglichkeit dar, die Objekte dennoch der breiten Öffentlichkeit und auch der wissenschaftlichen Welt zu präsentieren. Außerdem wird so eine elektronische Bestandssicherung vorgenommen, ein in Hinblick auf den Einsturz des historischen Archives der Stadt Köln nicht unwesentlicher Aspekt.

In besonderen Fällen werden digitale bildgebende, nicht-zerstörende Verfahren verwendet, um die Fundsituation eines Objektes zu dokumentieren und eine Entscheidungsgrundlage für das weitere Vorgehen zur Sicherung und zur Restaurierung zu liefern, beispielsweise beim Goldhort von Gessel.

Im Gesundheitswesen bieten innovative digitale Anwendungen aus der Telemedizin neue Möglichkeiten, die Effektivität und Effizienz der Leistungserbringung zu steigern, die Versorgung der Patienten zu verbessern und die Transparenz der Leistungs- und Wertschöpfungsprozesse zu erhöhen.

Durch eine intelligente elektronische Datennutzung können Ärzte, Schwestern, Pfleger und andere Leistungserbringer von administrativen und routinemäßigen Tätigkeiten entlastet werden, um die Qualität der Gesundheitsversorgung auch im ländlichen Raum deutlich zu verbessern.[Anm. 12]

Zur Digitalisierung der gesundheitlichen Versorgung entstand der Begriff E-Health. Bei den Gesundheitsämtern in Deutschland werden Systeme wie SORMAS und DEMIS eingesetzt. Die Digitalisierung läuft ansonsten sehr schleppend, oft werden noch Faxgeräte verwendet.[8]

Zur Digitalisierung der Produktionstechnik gehören Entwurfs- und Codeerstellungsverfahren (CAD, CAM), Fertigungsverfahren (zum Beispiel mit Hilfe von CNC-Maschinen oder 3D-Druck) und Montageverfahren (zum Beispiel mit Industrierobotern). Die zunehmende Vernetzung erfordert die Gestaltung gemeinsamer Standards, damit sich die immer komplexeren Produktionssysteme steuern lassen.[Anm. 13]

Digital gesteuerte Lagertechnik, Navigationssysteme und digitale Verkehrsleitsysteme stellen wie die Industrie 4.0 spezielle Zweige der technischen Entwicklung dar.

Die Digitalisierung in der Landwirtschaft schreitet schon voran, seit es den Personal Computer gibt. Waren es zuerst die Buchführung und Schlagdokumentation im Betriebsbüro, die mittels Agrarsoftware zeitsparender erledigt werden konnten, so bewirken seit den 1990er Jahren verschiedene Entwicklungsschübe wie Precision Farming, Smart Farming und zuletzt Digital Farming, dass Computer- und Sensortechnik in aktuellen Landmaschinen weit verbreitet sind. Auch autonome Fahrzeuge, Traktoren und Feldroboter gibt es in der Landwirtschaft inzwischen nicht nur als Prototypen.[9]

In der Bildung macht sich die Digitalisierung in Form elektronischer Hilfen bemerkbar. Nach ersten experimentellen Anfängen in den 1980er Jahren (Programmierter Unterricht) stagnierte die Entwicklung zunächst wegen der noch unzureichenden und aufwändigen Technik. Die digitalen Medien und Tabletcomputer brachten einen gewissen Durchbruch. Heute werden in den Schulen außerdem Elemente der Robotik, der Künstlichen Intelligenz (KI) sowie der Augmented (AR) und Virtual Reality (VR) eingesetzt.[10][11] In der Weiterbildung sowie seit der COVID-19-Pandemie insbesondere auch in den Schulen treten Vorteile des orts- und zeitunabhängigen Lernens immer deutlicher hervor.

Auf der anderen Seite wird auch Kritik geäußert, bis hin zur Forderung zum Verbot digitaler Medien, nicht wegen technischer Probleme, sondern insbesondere aufgrund der gesundheitlichen Nebenwirkungen, wie sie z. B. der Psychiater Manfred Spitzer darstellt.[Anm. 14][12][13]

Postscanservices bieten Kunden die Möglichkeit, ihre physische Briefpost per zeitweisem Nachsendeauftrag an eine Korrespondenzadresse weiterleiten zu lassen, wo sie eingescannt und als digitale Post an den Kunden weitergeleitet wird. Dem Kunden wird in der Regel die physische Post nachträglich zugeschickt. Zu den Anbietern in Deutschland zählen Caya, DropScan, Clevver.io, dogado und die Deutsche Post AG.[14][15] Ein solcher Service wird auch „digitaler Briefkasten“ oder „digitales Postfach“ genannt.[16]

Die grundlegenden Vorteile der Digitalisierung liegen in der Schnelligkeit und Universalität der Informationsverbreitung. Bedingt durch kostengünstige Hard- und Software zur Digitalisierung und der immer stärkeren Vernetzung über das Internet entstehen in hohem Tempo neue Anwendungsmöglichkeiten in Wirtschaft, Verwaltung und Alltag. Wenn die Logik von Produktions- und Geschäftsmodellen, Wertschöpfungsketten, Wirtschaftszweigen, Verwaltungsroutinen, Konsummustern oder auch die Alltagsinteraktion und die Kultur einer Gesellschaft dadurch tiefgreifend verändert werden, spricht man von digitaler Transformation. Diese zieht Chancen, aber auch Risiken nach sich. Exemplarisch dafür sind die neuen Anforderungen an das Rechtssystem zu nennen.

Die Digitalisierung stellt neue Anforderungen an das Rechtssystem, wobei die Rechtswissenschaft erst vor einigen Jahren begonnen hat, sich mit diesem Problem zu befassen.[Anm. 15] Die „Theorie des unscharfen Rechts“ geht davon aus, dass sich das Recht insgesamt in einer digitalisierten Umwelt grundlegend ändert.[Anm. 16] Nach ihr relativiert sich die Bedeutung des Rechts als Steuerungsmittel für die Gesellschaft deutlich, da sich die Ansprüche der Gesellschaft zusätzlich an immateriellen Gütern orientieren, welche die Nationengrenzen überschreiten.[Anm. 17]

Die Möglichkeit der vereinfachten und verlustfreien Reproduktion hat zu verschiedenen Konflikten zwischen Erstellern und Nutzern digitaler Inhalte geführt. Industrie und Verwertungsgesellschaften reagieren auf die veränderten Bedingungen insbesondere mit urheberrechtlicher Absicherung von geistigem Eigentum und der technischen Implementierung von Kopierschutz.

Zudem stärkte die deutsche Verfassungsrechtsprechung die Rechte der Nutzer, indem das Grundrecht auf informationelle Selbstbestimmung den Bürgerinnen und Bürgern die Befugnis erteilte selbst darüber zu bestimmen, welche ihrer Daten andere verarbeiten können sollen.[17]

Ein wesentliches Merkmal digitaler Inhalte ist eine Veränderung der Kostenstruktur. Eine Kostenreduktion betrifft oft die Vervielfältigung und den Transport der Informationen (zum Beispiel über das Internet). So sinken die Kosten zunächst für jede weitere digitale Kopie (siehe Grenzkosten). Einmal zentral im Internet zur Verfügung gestellt, können digitale Daten jederzeit und gleichzeitig überall auf der Welt zur Verfügung gestellt werden.

Dagegen können die Kosten durch erhöhte Aufwendungen im Bereich der urheberrechtlichen Absicherung von geistigem Eigentum und der technischen Implementierung von Kopierschutz wieder steigen. Auch Anforderungen an die Sicherheit der Datenübertragung und Zuverlässigkeit der Computeranlagen wirken sich kostensteigernd aus.

In den betrieblichen Abläufen eines Unternehmens ermöglicht die Digitalisierung eine Effizienzsteigerung und damit eine Verbesserung ihrer Wirtschaftlichkeit. Der Grund hierfür ist, dass Betriebsabläufe durch den Einsatz von Informations- und Kommunikationstechnik schneller und kostengünstiger abgewickelt werden können als dies ohne Digitalisierung möglich wäre.[Anm. 18] Dies wird beispielsweise durch die Umwandlung von physischen Dokumenten und analogen Informationen in eine digitale Form realisiert. Viele Unternehmen lassen beispielsweise Briefe, die sie in physischer Form erhalten, einscannen und per E-Mail verteilen.[Anm. 19]

Durch die Speicherung von Daten auf vernetzten Computern besteht insbesondere für Unternehmen, Politiker und Verbände die Gefahr, dass Hacker Zugang zu diesen Daten bekommen. Auch besteht die Gefahr, dass Daten von unberechtigten Personen ausgewertet, verbreitet und verändert werden. Ein Schutz dagegen ist teilweise nur mit erheblichem technischen Aufwand möglich.

Dieter Balkhausen führte in seinem Buch Die Dritte Industrielle Revolution bereits 1978 aus, bis Ende der 1980er Jahre würden sich 50 Prozent der Arbeitsplätze in Deutschland durch die Mikroelektronik verändern,[18] hatte dabei aber vor allem den Produktionsbereich im Blick (CAD, Einsatz speicherprogrammierbarer Steuerungen z. B. in CNC-Maschinen), wodurch sich Qualifikationsanforderungen verschoben und neue Berufsbilder entstanden (etwa der „Elektroniker Informations- und Telekommunikationstechnik“ oder der „Zerspanungsmechaniker“), aber keine massenhafte Freisetzung von Arbeitskräften erfolgte. Im Büro- und Dienstleistungsbereich und erst recht in der öffentlichen Verwaltung setzten sich digitale Technologien nur zögerlich durch. Die relativ teure sog. Mittlere Datentechnik spielte in den 1970er bis 1990er Jahren vor allem in größeren und Filialunternehmen eine Rolle, während die ersten seit 1984 produzierten deutlich billigeren PCs einen Speicherplatz von gerade einmal 64 kB besaßen und daher nur für wenige Anwendungen wie Textverarbeitung taugte. Hier stieg der Arbeitskräftebedarf durch die neue Technik zunächst an, es kam fast nirgends zu einem Austausch der Belegschaften.

Zu einer eher pessimistischen Beurteilung des möglichen Abbaus von Beschäftigung in Produktion, Handel und verschiedenen Dienstleistungssektoren infolge des Anstiegs der Arbeitsproduktivität (bei gleichzeitigem Wachstum neuer Geschäftsmodelle) kam es mit der flächendeckenden Verbreitung des Web 2.0 und des Smartphone, wobei der Konsument („Prosument“) Tätigkeiten übernimmt, die früher vom Unternehmen durchgeführt wurden. Eine Studie aus dem Jahr 2016 gab für folgende Berufsgruppen Substitutionspotenziale durch die Digitalisierung über 50 % an:

Am geringsten wurde mit 13 % das Substitutionsrisiko für soziale und kulturelle Dienstleistungsberufe eingeschätzt.[19]

Bei einer 2018 durchgeführten Befragung von 868 Entscheidern aus Deutschland, Österreich und der Schweiz durch den Personaldienstler Hays fand sich ein Unterschied zur vorherrschenden Stimmung in der Gesellschaft. Die Befragten rechnen eher mit einer „Chance zu neuen Jobchancen“, dennoch „es sind eine Menge Brüche drin. […] Wir erleben eine Evolution, keine Revolution.“ Studienleiterin war die Direktorin des Instituts für Beschäftigung und Employability der Hochschule Ludwigshafen, Jutta Rump. Als negativ wurde von Führungskräften die Verkleinerung der Kernbelegschaften und die Ersetzung von Tätigkeiten durch Digitaltechnik genannt. Die individuellen Wünsche (Ruhe, Erholung, Aktivität) stehen im Widerspruch zu den Forderungen nach lebenslangen Lernen und Work-Life-Balance. 44 Prozent der Unternehmen vermelden solche Maßnahmen als wichtig, die Umsetzung erfolgt nur bei 32 Prozent. Bei der Führung würden die neuen Arbeitsformen zu wenig beachtet: Eigenverantwortung und Selbstorganisation stünden im Fokus, Teamaspekte würden unterschätzt.[21] Inwieweit Digitalisierung eine Zunahme der Arbeitslosigkeit nach sich zieht, ist umstritten. Jeremy Rifkin befürchtet durch die Digitale Revolution sogar ein „Ende der Arbeit“. Computerprogramme sind jedoch zum Beispiel nur anhand von elektronischen Wort- und Begriffskatalogen (Wörterbuch) in der Lage, einen Text bis zu einem gewissen Grad auf formale Fehler zu überprüfen. Daher werden manche Berufe wie die des Korrektors auch langfristig nicht ganz verschwinden. Demgegenüber entstehen neue Berufsbilder wie Mathematisch-technischer Softwareentwickler.

Durch Digitalisierung entstehen neue Verbrauche von Energie und Ressourcen. Dazu zählen:

Probleme treten beim Recycling und bei der Entsorgung insbesondere der privat genutzten Geräte auf.[26] Digitalisierung kann im Einzelfall Energie und Ressourcen einsparen helfen. Ein Beispiel sind intelligente Verkehrsleitsysteme. Allerdings werden häufiger negative als positive Aspekte diskutiert.[Anm. 21]

Deutschland:

Schweiz:

Digitalisierung in der British Library