Digitalisierung

contact me
None
LaBlog
LaBiTedia
Direkt zum Seiteninhalt

Digitalisierung

LaBiT
Veröffentlicht von Roland Wichtermann in Digitalisierung · 22 Juni 2020
Wer erinnert sich noch an die Zeit, als der Computer den Weg in die Stube gefunden hat, und parallel in den Büro's die Schreibmaschinen abgelöst hat? Dann war gross die Rede vom Büro der Zukunft, das papierlose Büro. Ja, lang war es her, doch ich selber musste feststellen, dass jetzt erst recht Papier produziert wurde. Haben wir da was falsch verstanden?
Jetzt ist der Begriff der "Digitalisierung" in der Mode Phase. Selbst die Politik möchte alles "noch" digitaler.
Für mich als Technologe ist dies aber bei weitem nichts neues. Überspitzt behauptet nur der Versuch einen modernen Begriff für das "Büro der Zukunft" zu finden.
Nun aber zum Begriff selber: Digitalisierung. Im Grundsatz wird jede Information in eine anreihung von zwei Zuständen, nämlich 0 (oder nein) und 1(ja) gebracht. Schon dieser Grundsatz wiederspricht eigentlich dem menschlichen sein, dass nicht immer eine klare Entscheidung parat hat. In der Digitalisierung gibt es grundsätzlich kein "Jein". Warum schreibe ich hier Grundsätzlich, technisch gesehen liegt zwischen 0 und 1 eine definierter Schwellwert. Denn 0 oder 1 sehen wir dann als Resultat. So absolut läst sich das technisch gar nicht realisieren. In einem Computersystem mit einer Betriebsspannung V0 zu VCC von 3.3V ist ein 0 von (0.0V) bis 0.8V und 1 von 2.0V bis (3.3V). Wir sprechend da von Logikpegeln für das detektieren des logischen Wertes. Nun was passiert nun zwischen 0.8V und 2.0V? Das ist die undefinierte Zone, also eigentlich auch ein "Jein". Nur dieses wird heute nicht ausgewertet. Es wird auch im Computer darauf geachtet, dass dieser Zustand gar nicht mehr möglich ist (Das ist aber auch der Stromfresser und die Geschwindigkeitsbegrenzung schlechthin in einem Computer, von 0 zu 1 und umgekehrt möglichst sofort zu wechseln, einfach das mal mit einem noch schnelleren Osziloskop darstellen lassen). Als ich selber noch Kleinkomputer baute, machte ich mir diesen Effekt zu nutzen. So hatte ich pro Bit statt 2, 3 Zustände. Und als Speicher noch teuer wahr, war dies eine angenehme Möglichkeit insbesondere beim Thema künstliche Intelligenz dieser Zustand zu nutzen. Wir nannten es aber damals noch "Fuzzy Logik".
Wir haben also ein einfaches Grundmodel, es gibt nur Ja und Nein. Aber technisch doch sehr kompliziert.
Mit dem Quantencomputer hingegen wird alles wieder ganz anders. Das ist der Weg zurück zu einem "Analog Computing" das wieder viel näher an die Funktionsweise des menschlichen Hirnes erinnert. Und da auch eine erste Antwort, warum die Quantencomputer so viel schneller sind als heutige Computersysteme, es ist ein wegkommen vom klassischen takten um die 0/1 synchronität sicher zu stellen, da ich eine analoge information habe und diese analog mit einer anderen Information verknüpfe und als Resultat schon eine exakte Antwort erhalte, ohne diese irgend einem BIT Muster angleichen zu müssen. Beispiel dazu das Thema der Musik, wie lange wurde geübt um die Musik so natürlich digital zu Speichern und dann wieder möglichst originalgetreu wieder analog unseren Ohren als erlebnis zur Verfügung zu stellen. Mit dem Resultat, dass wir heute wieder zurück zur voll analogen Schallplatte gehen. Ein Vergleich zwischen Vorher und Nachher am Osziloskop bringt die Wahrheit unverblümt an den Tag, ach so schöne sanfte liebevolle spezifische Töne werden in irgend welche emozionslose Treppenkurven vermurkst. Thönen tut das schon noch, und wenn noch erinnerungen an das original vorhanden sind, kann der Mensch sogar dafür noch Emotionen zeigen. Aber wehe wenn nicht, wird das zur reinen Konserve.
Kommen wir aber wieder zurück zur Digitalisierung. Und da ist der Begriff noch recht offen. Ich kann ein Dokument in Papierform dahingegen digitalisieren, dass ich es mit einem Scanner einlese und abspeichere. Jetzt habe ich eine Datei mit 0 und 1 und mit dem richtigen Programm kann ich das wieder am Bildschirm anzeigen lassen und ausdrucken. Es ist nun digital vorhanden, aber leider kann ich damit wenig anfangen. Der Computer kann die Informationen darauf nicht verarbeiten, sondern lediglich die Daten.
Als Einschub unterscheide ist strickte zwischen Daten und Informationen. Als Informationen bezeichne ich etwas das ich als Mensch sofort verarbeiten kann: "Das Wetter ist jetzt schön". Daten sind hingegen die 0 und 1sen die aneinander angereit sind und nach anwendung von logischen Regeln dann zu Informationen führen kann: "100010001100001011100110010000001010111011001011110100011101000110010101110010001000000110100111100110111010000100000011010100110010101110100111101001110100001000000111001101100011011010001111011001101110". Um diese Daten wieder in die Information "Das Wetter ist jetzt schön" umwandeln zu können muss man die Umwandlungsregel kennen (oder erraten?). Ich habe im Beispiel eine Variante gewählt, die es dem Computer einfach und eindeutig ermöglicht auch die enthaltene Information zu verarbeiten. Wenn ich nun das Beispiel des eingescannten Dokumentes nehme, so werden dort nicht die Buchstaben in erster Linie eingelesen, sondern die anordnung der Farbpunkte auf dem Papier. Das führ dazu, das ich am Monitor das wieder gut lesen kann, aber der Computer kann die Information nicht verarbeiten. Er muss es zuerst in eine für ihn lebare Form bringen. Und da sind schon diverse Fehler bei dieser umwandlung möglich. Ein 0 wird mit einem O verwechselt, usw.
Also ein Dokument einzuscannen könnte man als Digitalisierung betrachten, aber eine fehlerfreie digitale Weiterverarbeitung ist damit nicht möglich. So ist das nur eine Möglichkeit um ältere Informationsbestände vor Zerfall des Informationsträgers (In diesem Beispielfall Papier) zu bewahren.
Digitalisierung soll also als Ansatz sein, der neue digitale Prozesse verwendet oder ein völliger weggang mit dem Umgang von Informationsbeständen auf Papier ist. Also keine Ordnerstrukturen, keine Archivstrukturen, keine Dossiers. Als Resultat habe ich dann Informationsdatenbanken in deren jedes Informationsobjekt eineindeutig ist, mit den nötigen "n" parameter ausgestattet ist, einem Informationsobjekt owner zugewiesen ist und mit den anderen Informationsobjekten in Beziehung steht. Dann weiter ist dann definiert welchen Schutzbedarf dass dieses Informationsobjekt zugrunde liegt, ist das eine öffentliche Information, gibt es in verknüpfung mit anderen Informationsobjekten Berechtigungsrestriktionen, und so weiter.
Die Digitalisierung muss also eine Symbiose zwischen Daten und Information darstellen. Mensch wie Maschine können effektiv und effizient mit den Informationen(primär der Mensch) und den Daten (Primär die Maschine) umgehen.



Es gibt noch keine Rezension.
0
0
0
0
0

Created with WebSite X5
© LaBiT Computer Technology 2023
Zurück zum Seiteninhalt