Der Begriff Information wurde 1940 von Norbert Wiener mit seiner Kybernetik eingeführt.
Wesentlich für seine große Verbreitung war Shannons Informationstheorie die wichtige
Grundlagen der Nachrichten- Rechen- und Speichertechnik bereitstellte. Heute ist Information
ein nahezu universell angewendeter Begriff der aber leider sehr oft nur unscharf und intuitiv
benutzt wird.Mit diesem Buch liegt wohl erstmalig eine exakte Begriffsdefinition vor. Sie geht
weitgehend auf Wieners Einführung zurück. Information ist kein Objekt sondern betrifft immer
ein komplexes Geschehen das aus drei Teilen besteht. Der stofflich-energetische
Informationsträger wirkt auf ein spezifisches System ein und ruft in ihm und in dessen Umgebung
eine spezielle Wirkung das Informat hervor. Bei einer Musikaufzeichnung ist z. B. die
verbogene Rille der Schallplatte der ursprüngliche Informationsträger der über technische
Schritte den Schall erzeugt der schließlich auf Menschen einwirkt. Damit er die ursprünglich
beabsichtigte Wirkung das Informat hervorruft muss der Mensch (als angepasstes System) bereits
über spezifische Musikerfahrungen verfügen.Im Allgemeinen besitzt Information vielfältige
Möglichkeiten und Varianten. Sie werden detailliert begründet und exakt behandelt. Dabei ist es
notwendig fünf Aspekte der Information zu unterscheiden. Grundlegend ist der dreistufige Fall
aus Informationsträger System und Informat der wegen der wichtigen und spezifischen Wirkung
(dem Informat) W-Information genannt wird. Vielfach insbesondere bei Sprache und Schrift
werden jedoch nicht die Originale als Informationsträger benutzt. Statt ihrer werden im Sinne
der Semiotik auf sie verweisende Zeichen verwendet. Dann sind u. a. zusätzlich mittels
Klassenbildung und Axiomatik sehr nützliche Komprimierungen als Vereinfachungen der Prozesse
möglich. Deshalb wird dieser Aspekt als Z-Information bezeichnet. Ein dritter Aspekt betrifft
die Nachrichtentechnik und deren Grenzen wie sie von Shannon eingeführt und inzwischen enorm
erweitert und ganz entscheidend für ihre Optimierung sind. Deshalb sind diese Inhalte unter
S-Information erfasst und betreffen u. a. die Übertragung Fehlerkorrektur Komprimierung und
Datensicherheit. Besonders wichtig für die Information sind die Möglichkeiten der Speicherung.
Dafür ist eine umfangreiche Speichertheorie entstanden. Im gespeicherten Zustand liegt jedoch
die Information nur potentiell vor. Erst durch die Wiedergabe muss aus dem Speicherzustand
erneut ein Informationsträger erzeugt werden. Deshalb wurde hierfür der Begriff P-Information
gewählt. Hierbei ist die von Shannon einführte Entropie wesentlich. Leider wird sie (selbst von
Experten) recht oft mangelhaft bis falsch behandelt. Deshalb wird sie hier möglich anschaulich
aber dennoch mathematisch exakt erklärt. Die höchste Stufe der Information entsteht mittels der
Nutzung der Rechentechnik. Sie ermöglicht völlig neue Anwendungen die u. a. zu virtuellen
Welten führen. Deshalb wurde hierfür die Bezeichnung V-Information gewählt.Für alle
Informationsarten werden die wichtigsten Beispiele eingeführt und ausführlich erklärt. So ist
quasi ein Kompendium der Information mit genauer Erfassung ihrer Möglichkeiten und Grenzen bis
hin zu den technischen Anwendungen entstanden. Da leider mit den vielen Möglichkeiten der
Information auch ein umfangreicher Missbrauch entstanden ist und weiter entstehen wird wurde
ein Kapitel angefügt das vor allem versucht für die Zukunft einige Abgrenzungen und Maßnahmen
aufzuzeigen