Zurück zum Blog

Die Definition der Information
Definition der Länge der Information
Definition Intelligenz und Wissen
Verwertbare Information
Summary
Gruppe, Vektorraum und Norm, Metrik
Problem Skalarprodukt
Verwertete Information: Bertrands Paradox
Verwertete Information: Wissen und Intelligenz – Aktive und passive Informationsverarbeitung, Lernen
Verwertete Information: Wissen und Intelligenz – Virtualisierung und Automatisierung
Wiederholbarkeit
Zusammenhang
Über die Natur der Veränderung
Eigenvektoren und Mindestinformation

Weitere Folgerungen aus der 1001. Definition der Information

Zurück zum Anfang

Verwertete Information: Wissen und Intelligenz - Aktive und passive Informationsverarbeitung, Lernen

Die Definition der Information als Regelwerk, das in wiederholbaren, also gleich bleibenden Prozessen immer wieder dieselben eindeutigen Zustände in eindeutigen Reihenfolgen produziert, macht Information durch diese Zustände sowohl abbildbar als auch vorhersehbar. Ein Zustand X(e|w) ist dabei definiert als Eigenschafts-Wert-Paar.

Abbildbar wird die Dynamik dabei nicht in ihrem primären, zeitabhängigen Prozessanteil, sondern durch die zeitunabhängigen Zustände in ihren festen Anordnungen. Die Abbildung erfolgt deshalb durch Speicherung dieser Zustände sowie Speicherung der Anordnungen (Pars pro toto).

Diese Speicherung kann nun auf zwei Arten geschehen: fest an die Eigenschaften des Zustandes gebunden oder flexibel Eigenschaften mit Werten kombinierend. Bei der ersten Abbildungsart müssen die Eigenschaften der vorkommenden Zustände bekannt sein und können dann zur Strukturierung des „Speicherorts“ dienen, der nur noch die unterschiedlichen Werte der Eigenschaften aufnehmen muss, um den gesamten Zustand abzubilden. Bei der flexiblen Abbildung ist der „Speicherort“ dagegen beliebig strukturierbar, dafür muss neben dem Wert auch die Eigenschaft abgespeichert werden. Bekannteste Beispiele sind Genetik und relationale Datenbanken für die fixe Abbildung sowie Neuronen und XML für die flexible Abbildung.

Zustände alleine genügen aber nicht, um die Information, das erzeugende Regelwerk, zu rekonstruieren. Eine Abbildung von Information muss deshalb immer auch die Anordnungen speichern, um die Information vollständig zu rekonstruieren.

Physik der Information, ISBN 3-935031-03-3,
Speicherstrategien: Konfiguration und Huckepack, S. 159-163

„Ähnliches trifft bei Abbildungen zu. Kein Wert allein ist sinnvoll, er muss immer einer Eigenschaft zugeordnet sein, um überhaupt „Wert“ zu sein. Diese Verbindung Eigenschaft-Wert muss von einer Abbildung immer rekonstruiert werden können, soll sie ihren Zweck erfüllen. Neben der Abbildung selbst und ihrer Struktur ist also immer auch die Abbildungsvorschrift erforderlich.

Doch wie bei der Haltbarmachung von Objekten ist auch die „Haltbarmachung“ von Abbildungen nicht unbedingt eine Frage des Speichers…

Deshalb sind die Speicherstrategien auch nahe verwandt zu den Abbildungsstrategien, die sich grundsätzlich in fest und flexibel unterscheiden ließen. Die feste Abbildungsform ist für umfassend erlernte Probleme geeignet, deren Spektrum an Eigenschaften mitsamt ihren Querverbindungen bekannt sind und sich wenig verändern. Die flexible Form ist dagegen in der Lage, neue Identitäten und neues Verhalten zu integrieren, also eine weitaus umfassendere und vielschichtigere Realität zu erfassen.

Die Konfigurationsmethode, die Speicherform der festen Abbildung, speichert denn auch ausschließlich Werte, nicht aber die Abbildungsvorschrift, während die Huckepack-Methode sowohl die Werte als auch Bestandteile der Abbildungsvorschrift enthält.

Die elementarere Konfigurationsmethode muss deshalb nichts weiter können, als Werte geordnet zu konservieren.

Weil nämlich nur die nicht mitgespeicherte Abbildungsvorschrift die jeweilige Profilschablone der Eigenschaften vollständig kennen muss. Und nur diese Vorschrift muss in der Lage sein, die Anordnung der abgebildeten Werte in die Anordnung der zugehörigen Eigenschaften zu übertragen. Diese Übersetzung geschieht einerseits bei dem Speichervorgang, wenn aus einem zu speichernden Zustand Eigenschaft-Wert die Anordnung der Ablage bestimmt wird und andererseits bei der Rekonstruktion, wenn aus dieser Positionierung des Wertes im Speicher der gewünschte Zustand Eigenschaft-Wert wieder herzustellen ist.

Die Konfigurationsmethode ist damit in der Lage, Informationen mithilfe ihrer Nachrichten zu speichern, solange sie das Verhalten der beteiligten Eigenschaften in ihrer externen Abbildungsvorschrift beherrscht. Dann nämlich kann sie die maßgeblichen Identitäten erkennen und auf ihren Zustand abfragen, diese Zustände separat konservieren und bei Bedarf die Identitäten wieder in diese Zustände versetzen.

Der Vorteil dieser Methode ist augenscheinlich. Sie ist sehr simpel. Sie muss schließlich nur die Nachricht der Information abbilden, die als Wertekombination zwangsläufig zeitunabhängig und damit prinzipiell speicherbar ist.

Ihre Nachteile sind genauso offensichtlich. Erstens bedeutet jede Speicheranordnung eine eigene Abbildungsvorschrift. Warum? Weil unterschiedliche Anordnungen von unterschiedlichen Profilschablonen stammen, die nicht nur unterschiedliche Eigenschaften in unterschiedlichen Gliederungen bedeuten, sondern auch mit unterschiedlichen inneren Abhängigkeiten aufwarten können. Zweitens bedeutet die reine Aufbewahrung der Nachricht, dass die Information selbst keineswegs gespeichert ist. Jeder Verlust der Abbildungsvorschrift führt zu der Tatsache, dass all die kostbaren Daten nicht mehr interpretiert werden können und verloren sind.

Haben Sie nicht auch schon alte Dokumente eingebüßt, nur weil sie ein Format aufwiesen, das Ihre neue Software nicht mehr beherrschte? ...

Diese [Konfigurations-]Methode hat also vor allem dort ihre Berechtigung, wo entweder die Gefahr gering ist, die Abbildungsvorschrift zu verlieren oder nicht viele verschiedene Abbildungsvorschriften zu bewältigen sind. Die Genetik ist hier ein sehr gutes Beispiel dafür, denn die Zelle als Vorschrift ist gleichzeitig das Original der Abbildung oder wenigstens ein Teil davon. Die gespeicherten Zustände direkt in eigene Zustände zu übertragen, gehört zu den Lebensfunktionen der Zelle und ist kein separater Abbildungsvorgang. Die Abbildungsvorschrift zu verlieren, hieße für eine Zelle nichts weiter als sterben zu müssen, ihr Interesse zu Überleben beinhaltet deshalb ganz automatisch auch die Erhaltung der Abbildungsvorschrift. Auch ist bei der Genetik keine überbordende Vielfalt von Vorschriften zu befürchten. So differenziert auch die Arten sich entwickelt haben, die einzelne Zelle in den einzelnen Art muss immer nur die eigene Vorschrift beherrschen…

Unsere moderne Technologie zeigt deshalb auch, dass wir die Grenzen der Konfigurationsmethode erreicht haben, denn sie ist eine Einzelfall-Lösung mit all ihren Nachteilen. Einzelfall-Lösungen bieten zwar immer den Vorteil der Einfachheit, dafür ufern sie rasch aus und erfordern dann zusätzliche Koordinationstätigkeiten, die unabhängig von der Abbildung einfach dafür sorgen müssen, dass all die einzelnen Speicheranordnungen und Abbildungsvorschriften sich nicht gegenseitig zu widersprechen beginnen.

Eines der erfolgreichsten Beispiele der Huckepack-Variante aus der jüngeren Vergangenheit dürfte XML sein, das als flexible Dokumentenstrukturierung begann und häufig für Datenaustausch zwischen unterschiedlichen Datenbanken eingesetzt wird. Warum? Weil es seine Datenstruktur nicht fest in der altbewährten Dateiform zementiert, sondern dem betreffenden „Datum“ mehr oder minder direkt beiordnet…

Ein generelles Problem des Speicherns ist schließlich, dass es Zeitunabhängigkeit schaffen soll, die Abbildungsvorschrift dagegen immer einen dynamischen Anteil aufweisen muss, der die Speicherung und Rekonstruktion tatsächlich auch ausführt. Diese Vorschrift muss als Regelwerk glücklicherweise selbst Information erzeugen, um sinnvoll zu sein, das heißt, sie muss zuverlässig sein und immer wieder dasselbe produzieren bei der gleichen Ausgangssituation: Sie muss wiederholbar sein.

Das wiederum zeigt, dass auch Regelwerke sich abbilden lassen müssen – und genau dies nützen die Huckepack-Methoden aus, wenn sie die gesamte Individualität in die Daten auslagern und nur die einzelfall-unabhängigen Prozesse wie SQL, Browser oder XML-Treiber im dynamischen Verarbeitungssektor belassen…

Die Huckepack-Methode besteht deshalb grundsätzlich aus drei Anteilen: der zu speichernden Nachricht, den Meta-Daten als Nachricht der Abbildungsvorschrift und der auf möglichst einfache Regeln reduzierten Dynamik der Abbildungsvorschrift. Gespeichert wird dabei nur die Nachricht und die Metadaten, die Regeln werden über generalisierte Zugänge wie SQL oder Browser gestellt. Die Gefahr, dass sie verloren gehen, ist stark gesenkt durch die hohe Anonymität gegenüber dem Einzelfall und die daraus resultierende vielseitige Verwendung, die wiederum zu einer weiten Verbreitung der Programme führt. Die Vielfalt der Speicherbedürfnisse andererseits wird durch die Metadaten der Nachricht berücksichtigt und verlangt deshalb auch keine individuellen, vielfältigen Speicheranordnungen mehr – wie bei den Regeln genügen ein paar prozessabhängige Speichersysteme.“

Physik der Information, ISBN 3-935031-03-3,
Aktive und passive Informationsverarbeitung, S. 218

„Wie weit die Berücksichtigung der „Problem-Individualität“ bei der Konstruktion einer Informationsverarbeitung geht, kann sogar als Unterscheidungsmerkmal für zwei ganz generelle Typen von Informationsverarbeitung dienen: aktive und passive Verarbeitung.

Denken Sie an die fixen und flexiblen Abbildungen oder die Speicherformen von Konfiguration und Huckepack: Genau dies bildet sich auch in den Typen der Informationsverarbeitung ab, denn diese integriert Abbildungen und Speicherformen und muss deshalb deren Charakteristika erben.

Und wie war das mit der Lernfähigkeit? Die Lernfähigkeit der Gene ist nur auf die Art beschränkt, das Individuum ist dazu nicht einmal ansatzweise in der Lage. Im Gegensatz dazu bieten die Neuronen die Lernfähigkeit auf der Ebene der Individuen an – das hat seinen Grund.

Wie sich beide Verarbeitungsformen unterscheiden?

Oder anders gefragt: Was unterschied die fixe von der flexiblen Abbildung, was unterschied die Konfigurationsspeicherung von der Huckepack-Variante?

Es war der Umgang mit den Eigenschaften der betrachteten Realität, die beide Varianten unterschied: die Art und Weise, wie die Anordnung von Eigenschaften abgebildet und gespeichert wurde…

Die zwei zentralen Techniken der fixen und flexiblen Abbildung beziehungsweise der Konfigurationsmethode und der Huckepack-Variante unterschieden sich nun in ihrer Handhabung der Eigenschaftsprofile, die ihre Beobachtung ihnen aus der Umwelt zuführte.

Wurde jedes dieser Spektren als Einzelfall angesehen und in seiner spezifischen Ausprägung fixiert, so reduzierte sich die Abbildung auf die Frage, wie die eingehenden Wertveränderungen auf dieses eine einzige Spektrum zu verteilen sei, das dann in der Konfigurationsmethode gespeichert werden konnte.

Die Konstruktion der Informationsverarbeitung wird sich deshalb an dem einzelnen Eigenschaftsspektrum, das bearbeitet werden soll, ausrichten. Ändert sich die Umwelt und das betreffende Eigenschaftsspektrum, so muss sich die gesamte Informationsverarbeitung anpassen. Sie muss passiv den Gegebenheiten folgen.

In der Software-Entwicklung geschieht dies durch Programm-Änderung, in der Natur nur durch die Mechanismen von Mutation und Selektion – das Individuum selbst kann keine solche Lernerfahrung nützen. Denken Sie an den dünnen, spitzen Schnabel eines Vogels, der wunderbar geeignet ist, kleine Insekten in ihren Verstecken aufzuspießen. Hartschalige Nahrung könnte ein solches Tier wohl erst nach Generationen verwerten.

Die zweite Strategie, Eigenschaftsspektren zu bearbeiten, benutzt die Tatsache, dass Eigenschaften und Werte ihrem grundsätzlichen Charakter nach gar nicht so sehr verschieden sind.

Beide können über Mengenelemente symbolisiert werden, beide müssen nur zeitunabhängig und unterscheidbar sein. Und genau, wie Eigenschaften sich nach „unten“ fast beliebig in Eigenschaftsspektren zerlegen und nach „oben“ fast beliebig mit anderen Eigenschaften zu neuen Spektren verbinden lassen, genauso kann eine Eigenschaft auch als Wert und ein Wert wiederum als Eigenschaft gesehen werden…

Gerade weil Information mehr ist als Zustände, genau deshalb sagen auch nur die Relationen der Zustände etwas über Information aus, nie der eine einzelne Zustand allein.

Exakt diese Janus-Gesichtigkeit der Information nützt die zweite Strategie aus.

Sie betrachtet Eigenschaftsspektren nicht mehr als eindeutigen, unzweifelhaften Spezialfall, an den sich anzupassen ist wie ein Tierkörper an eine bestimmte Umwelt, sondern als eigenen Wert, der wiederum auf Eigenschaftsspektren abgebildet werden kann, die dann ihrerseits auch andere Werte annehmen können: Das Eigenschaftsspektrum wird also unabhängig vom Einzelfall des Problems selbst abstrahiert.

Erinnern Sie sich an die Frage der Ähnlichkeit? Sie führt immer auf die Hypothese, dass die Gleichheiten eine Gruppengemeinsamkeit betreffen, während die Ungleichheiten die individuelle Eigenart des Einzelfalls kennzeichnen. Das kann auch für Probleme benutzt werden, um Typen gleichartiger Problemfälle zusammenzufassen.

Problemlösung kann als Problem, das untersucht werden soll, sogar sich selbst heranziehen, sich also die Aufgabe stellen, wie denn ganz generell überhaupt Probleme gelöst werden sollen.“

Kurz gefasst:

Passive Informationsverarbeitung bearbeitet Einzelfälle, aktive benutzt Regeln, um ganze Typen von Einzelfällen in den Griff zu bekommen. Passive Informationsverarbeitung verwendet zur Speicherung der Zustände deshalb die Konfigurationsmethode, die Zustände mit festen Eigenschaftsprofilen vergleicht, die korrelierenden anhand ihrer Werte erfasst und in der Struktur der festen Eigenschaftsprofile abspeichert.

Die Abbildungsvorschrift, die „Intelligenz“ dieser Informationsverarbeitung, wird nicht mitgespeichert, besteht aber letztendlich auch nur in der Fähigkeit, beliebige Zustände mit den eigenen bekannten Eigenschaftsprofilen zu vergleichen, die passenden Werte zur Abspeicherung bestimmen zu können und umgekehrt auch die gespeicherten Werte den bekannten Eigenschaftsprofilen wieder zuzuordnen.

Aktive Informationsverarbeitung ist dagegen einzelfallunabhängig. Sie erfasst beliebige Zustände und vergleicht sie nicht mit festen Eigenschaftsprofilen, sondern mit einem vorhanden „Satz“ von Eigenschaften, den sie beherrscht, stellt dann selbst die Struktur der Eigenschaftsprofile zusammen, die dem betrachteten Zustand am ehesten entspricht und speichert diese Kombination – spezifisches Eigenschaftsprofil + dazugehörige Werte ab. Um den Zustand aus dem Speichermedium zu rekonstruieren, müssen deshalb sowohl die Werte als auch die Eigenschaften in korrektem Zusammenhang wiederhergestellt werden.

Die Intelligenz der aktiven Informationsverarbeitung muss deshalb mächtiger sein als die der passiven Informationsverarbeitung.

Physik der Information, ISBN 3-935031-03-3,
Abbildungsstrategien, S. 78

„Die nächste Stufe der Informationsverarbeitung trat also nicht als Fortentwicklung des Alten auf, sondern in Form einer neuen Abbildungsstrategie. Vielleicht, weil es grundsätzlich keine andere Strategie der Informationsverarbeitung gibt als Abbildungen, die nicht nur aus den Originalen erstellt werden können, sondern auch andere gleichartige Abbildungen verwenden? Denn genau dies findet statt beim Lernen durch andere Individuen: Fremde Abbildungen werden in die eigenen integriert, ohne dass die eigene Abbildung direkt aus der Realität erstellt oder verändert wird.“

Kurz gefasst:

Lernen bedeutet die „Vergrößerung der Intelligenz“, sprich die Erweiterung der Abbildungsmöglichkeiten. Lernen kann deshalb auf zwei Arten geschehen: Durch „Training“ der Intelligenz oder durch direkte Übernahme von Abbildungen oder Teilen von Abbildungen, ohne dass diese Abbildung aus eingehenden Zuständen selbst extrahiert wurde. Dies erfordert, dass die Abbildungsstrategie des lernenden Systems mit dem des lehrenden Systems soweit übereinstimmen muss, dass eine Übernahme möglich ist.

Intelligenz ist die Fähigkeit, Information aufzunehmen und zu verarbeiten, Wissen ist dabei die gesamte, bereits vorhandene Abbildung einer Intelligenz, ist Intelligenz plus Daten.

Letzteres mag auf den ersten Blick nicht ganz einsichtig sein: Warum Intelligenz als eigenständig definierten Begriff noch einmal in Wissen integrieren? Dies geschieht aus Respekt vor der Sprache: Wissen ist Macht, heißt es und das zeigt klar, dass Wissen nicht nur Daten umfasst, sondern auch eine aktive Komponente beinhaltet: die Intelligenz.

Intelligenz ist deshalb die Abbildungsvorschrift plus Speichermedium, ist „abstraktes Wissen“, Wissen selbst ist „realisierte Intelligenz“, da die in der Intelligenz steckenden Möglichkeiten durch die Realität eingehender Zustände konkretisiert wurden.

Wissen ist deshalb bei passiven Informationsverarbeitungen ein Repertoire an festen Eigenschaftsprofilen sowie die Abbildungsvorschrift (Intelligenz), um aus beliebigen eingehenden Zuständen die anhand dieser Eigenschaftsprofile beherrschbaren herauszusortieren und sie mit ihren spezifischen Werten und ihrer spezifischen Anordnung in der endlosen Kette eingehender Zustände abspeichern zu können. Wissen ist aber auch die Nutzung der gespeicherten Information: die „Umkehrung“ dieses Vorgangs, die Rekonstruktion der gespeicherten Information aus den hinterlegten Zuständen anhand der Eigenschaftsprofile (und deren Anordnung), unter denen sie mit ihren jeweiligen aktuellen Werten gespeichert wurden.

Bei aktiven Informationsverarbeitungen muss Wissen dagegen nicht nur die einzelnen Wertprofile in der richtigen Anordnung abspeichern, sondern wegen der Flexibilität der Strukturen auch die dazugehörigen Eigenschaftsprofile. Im Gegensatz zur passiven Information kann nämlich die Speicherstruktur nicht mehr als „Informationselement“ (Eigenschaftsprofil) verwendet werden.

Und nicht nur das.

Das feste Repertoire an Eigenschaftsprofilen erlaubt der passiven Informationsverarbeitung nicht nur eine Intelligenz, die sich nicht um die Struktur der Eigenschaftsprofile kümmern muss, sie ermöglicht auch, das Problem der Anordnungen zu vereinfachen. Denn die einzelnen Eigenschaftsprofile können aufgrund des Regelwerks „Information“ nicht in beliebigen Anordnungen auftreten. Deshalb können bei fixen Eigenschaftsprofilen auch diese Anordnungen fixiert werden, also in das „feste Repertoire“ aufgenommen werden.

Das Beispiel der Gene zeigt dies schön, deren feste Anordnung in die vier Buchstaben des Lebens nicht nur den fertigen erwachsenen Körper darstellen können, sondern jede Stufe dazwischen – von der Eizelle über Jugend bis zum Alter, dazu mit allen möglichen Erkennungen von fehlerhaften Zuständen und deren Beseitigung. Ein einfacheres Beispiel bietet die ERP: Die einzelnen Eigenschaftsprofile sind Auftrags-, Lieferschein und Rechnungsdateien, die „feste Anordnung“ ist die erforderliche Reihenfolge der Abarbeitung: von Auftrag über Lieferschein zur Rechnung.

Aktive Informationsverarbeitung hat es genau hier sehr viel schwerer: Durch die Flexibilisierung der Eigenschaftsprofile wurde auch die Anordnung der Zustände flexibilisiert. Aktive Informationsverarbeitung muss also nicht nur fähig sein, sich einen „Satz von Eigenschaften“ anzulegen, mit dem sie die eingehenden Zustände erfassen kann, sie braucht dazu auch eine Möglichkeit, den Zusammenhang dieser Zustände zu bestimmen. Sie muss deshalb über ein Regelwerk verfügen, das allgemein genug ist, die diversen Regelwerke der diversen eingehenden Informationen zu simulieren sowie über eine Speichertechnik, die ebenfalls allgemein genug ist, die diversen Zustände in ihren unterschiedlichsten Strukturen abzubilden.

Wie in der Information ist das zugrunde liegende Regelwerk also entscheidend – und dieses Regelwerk ist selbst nicht mehr flexibilisierbar. Ganz wie in der Mathematik, die auf einfachsten Axiomen und Logikprinzipien aufbaut.

Und das macht auch Sinn. Denn Information ist zwar vor allem Dynamik, aber pure Dynamik ist nie Information. Das Quantenrauschen schafft wie Information Zustände und baut sie wieder ab, der Zufall erzeugt Zustände und vernichtet andere, doch was Information vor allen anderen Veränderungen auszeichnet, ist ihre Stabilität – sie schafft immer dieselben Zustände. Genau das macht sie schließlich abbildbar – und verwendbar.

Also muss auch jede Abbildung, die Information rekonstruiert, in ihrem verarbeitenden Anteil Stabilität, Regelcharakter aufweisen, sie muss selbst „Information sein“, um Information verwendbar zu machen, sprich im Rahmen der eigenen Möglichkeiten und Interessen korrekt zu simulieren.

Die Mathematik kennt schließlich auch die Unterscheidung „aktiv-passiv“: sie nennt sie syntaktisch und semantisch, wobei die syntaktische Variante der aktiven Verarbeitung entspricht – aus einem „vorhandenen Satz von Eigenschaften“, den Axiomen, werden über Logikprinzipien alle Aussagen, die in diesen Axiomen stecken, herleitbar gemacht, zumindest unter den Voraussetzungen, die Gödel bestimmte.

Somit muss eine Intelligenz „nur“ noch die Axiome und die Logikprinzipien beherrschen, um alle Aussagen des Systems rekonstruieren zu können, und Wissen muss darüber hinaus noch fähig sein, alle benötigten „Schritte“ der angewandten Regeln soweit zu speichern, dass aus den gespeicherten Zuständen, gesichert mit ihren Eigenschaftsprofilen und spezifischen Werten, die Ausgangssituation – die jeweilige „Aussage“ des Systems – wieder rekonstruiert werden kann. Die „Schrittfolge“ zu speichern ist möglich, weil die Abbildung von Information immer selbst Information sein muss: ein wiederholbarer, identifizierbarer Prozess, dessen Abfolge über klare Zustände beherrschbar wird.

An dieser Stelle wird auch erkennbar, warum Zeit sich eignet, um „logische“ Zusammenhänge zu bestimmen: Für die Strategie einer aktiven Informationsverarbeitung, aus dem Chaos eingehender Signale eine Struktur zu schaffen, sind die Ausgangspunkte die Gleichartigkeits– und die Gleichzeitigkeitshypothese. Gleiche Art wird herangezogen, um gleiche Objekte zu „vermuten“, gleiche Zeit dagegen dient der Vermutung gleicher Ursachen.

Was ein solches Regelwerk denn auch anbietet, ist „Trainierbarkeit“ – Axiome und Regeln sind sehr allgemeine Verfahrenselemente, die in ihrem eigenen Rahmen weiter kombinierbar sind, sodass viele verschiedene Schrittfolgen und verschachtelte Hierarchien von Zuständen und Anordnungen ermöglicht werden.

Dies ist vielleicht der augenfälligste Unterschied zwischen aktiver und passiver Informationsverarbeitung:

Die Erinnerung der passiven Informationsverarbeitung ist zweigeteilt – sie steckt nicht nur in den gespeicherten Werten der Zustände, sondern in dem eigenen, festen Repertoire an beherrschbaren Eigenschaftsprofilen (plus deren festen Anordnungen). Passive Informationsverarbeitung kann sich deshalb nur „körperlich“ fortentwickeln. Lernen, „Vergrößerung der Intelligenz“ kann deshalb nur durch Veränderung des festen Repertoires an verarbeitbaren Zuständen/Abfolgen geschehen.

In der Biologie zeigt sich dies dadurch, dass genetisches Lernen – Evolution – nur über Generationenwechsel erfolgen kann, nie auf individueller Ebene. Nur die Art, der jeweilige „Typ“ der Informationsverarbeitung, kann sich fortentwickeln.

Aktive Informationsverarbeitung erlaubt dagegen dem Individuum zu lernen.

Denn die Erinnerung der aktiven Informationsverarbeitung, das Wissen, das sie mit ihrer Intelligenz aufbaute, ist nicht mehr vorkonfiguriert, sondern beruhte auf den eingehenden Zuständen, die mit dem Regelwerk der aktiven Informationsverarbeitung aufbereitet und gespeichert wurden. Je grundlegender ein Regelwerk und ein „Axiomensatz“ einer aktiven Informationsverarbeitung ist, umso weniger Erinnerung steckt in diesen Ausgangselementen – umso mehr der aufgenommenen Information steckt im gespeicherten, im „Daten- und Metadatenteil“ des Wissens.

Umso „individueller“ wird Wissen.

Zurück zum Anfang

Verwertete Information: Wissen und IntelligenzVirtualisierung und Automatisierung

Die Definition der Information als Regelwerk, das in wiederholbaren Prozessen immer wieder dieselben eindeutigen Zustände in eindeutigen Reihenfolgen produziert, macht Information durch diese Zustände abbildbar, wobei diese Abbildung generell als aktive oder passive Informationsverarbeitung realisiert werden kann. Im Gegensatz zu der an die Konfigurationsmethode (feste Speicherungsformen mit festen Abbildungsregeln) gebundenen passiven Variante benutzt die aktive Informationsverarbeitungen die Huckepack-Methode der Speicherung, bei der nicht nur die Werte konserviert werden, sondern auch alles Übrige, was für die Rekonstruktion des Zustandes in seiner korrekten Anordnung erforderlich ist: die „Metadaten“. Deshalb benötigt sie zur Ausführung der Abbildung nur noch ein Basis-Regelwerk, das diese Metadaten im Speicher erkennen und verwerten kann, um zusammen mit den ebenfalls gespeicherten Werten den korrekten Zustand in seiner korrekten Anordnung wiederherzustellen.

Die Metadaten selbst sind dabei freilich nichts weiter als die Datenspeicherung nach der Konfigurationsmethode für den Typ, das heißt sie gruppieren die zu betrachtenden Einzelfälle nach bestimmten Merkmalen (Typisierung), deren Struktur dann fest vorgegeben ist, deshalb auch feste Abarbeitungs-Regeln besitzt und legen darüber hinaus noch den Rahmen an Merkmalen und Verhaltensweisen fest, den die Einzelfälle in ihren spezifischen Ausprägungen haben dürfen. Metadaten des Einzelfalls müssen diese Rahmenbedingungen dann konkretisieren, wobei die individuellen Verhaltensweisen so abgebildet sein müssen, dass sie vom Basis-Regelwerk bearbeitet werden können.

Da auch diese Typen wieder gruppiert werden können, kann diese Flexibilisierung über mehrere Hierarchiestufen erfolgen – Grenzen sind hier letztlich nur durch die Praktikabilität gesetzt, denn dem Nutzen der Verallgemeinerung steht der Mehraufwand an Berechnung gegenüber, der erforderlich ist, um die jeweiligen Zustände zur Laufzeit aus den verschiedenen Typhierarchien zu rekonstruieren: ein Problem, das die einfache Konfigurationsmethode nicht hat.

Die Frage lautet also, was wertvoller ist: Vielseitigkeit oder Geschwindigkeit.

Die „Formel“ für die aktive Informationsverarbeitung sieht damit kurz und knapp aus: Basis-Regelwerk + Metadaten + Daten = metadatengesteuerte, regelbasierte Verarbeitung.

Das genau ist denn auch „Virtualisierung“.

Bei Virtualisierung wird zwar häufig von Policies oder Richtlinien hinsichtlich der mit den Metadaten definierten Verhaltensweisen gesprochen und die von den Metadaten bestimmten Zustände werden Profile genannt, das Prinzip der aktiven Verarbeitung ist freilich deutlich daran zu sehen, dass Einzelfälle der bearbeiteten Art in der Regel einfach und bequem nicht nur korreliert werden können, sondern dem System hinzugefügt oder entfernt werden dürfen.

Zurück zum Anfang

Wiederholbarkeit

Wiederholbarkeit ist nach Formel 12 eine zentrale Eigenschaft der Information.

Wiederholbarkeit heißt, dass aus einem bestimmten Anfangszustand immer derselbe Endzustand folgt. Aber eigentlich dreht sich bei der Information alles um Transformationen, Zustandswechsel, nicht wirklich um Zustände selbst.

Physik der Information, ISBN 3-935031-03-3,
Verknüpfungen von Transformationen: Wiederholbarkeit und Zusammenhang, S. 130

„Sollen die Translationen also eine „vernünftige“ Funktion darstellen, muss die Transformation „wiederholbar“ in dem Sinne sein, dass in der Menge der Transformationen, die die Werte der betreffenden Eigenschaft verändern können, nur solche mit unterschiedlichen Anfangszuordnungen auftreten oder anders gesagt: Es darf keine Gruppe von Transformationen existieren, die zwar einen gleichen Anfangszustand, aber unterschiedliche Endzustände aufweisen. Wie bei der Bestimmung der Eindeutigkeit einer Korrespondenz muss durch die Anfangszuordnung festgelegt sein, wie die Endzuordnung aussieht und dies in jedem Fall.

7. Wiederholbarkeit: für X(e|w) = e|w’ und X(e|w)=e|w’’
==> w’ = w’’

Werden Zuordnungen betrachtet als durch Transformationen erzeugt, lässt sich dies auch folgendermaßen formulieren: Wiederholbarkeit heißt, dass vorangehende Transformationen keinerlei Einfluss auf die aktuelle Transformation haben dürfen

8. Wiederholbarkeit: für X(e|w) = e|w’ und XX(e|w’’) = e|w’’’
für X(e|w’’) = e|w
==> w’= w’’’

Dann nämlich ist sichergestellt, dass auch der „Schatten“ der Transformationen auf den Werten nicht mehrdeutig wird, egal, wie oft und viele Varianten von Transformationsketten auch gebildet werden.

Wiederholbare Transformationen sind also „geschichtslos“, sie hängen nur von der Art der Transformation und ihrem Anfangszustand ab. Sie sind „deterministisch“ in dem Sinne, dass eine Anfangszuordnung mathematisch hinreichend für die Endzuordnung und diese notwendig für die Anfangszuordnung ist.“

Wiederholbarkeit ist demnach primär eine Eigenschaft von Transformationen und die sind nicht nur die mathematischen Strukturelemente der Mengenmathematik: Die Transformationen der Informationsmathematik sind die tatsächlichen, realen Veränderungen, die einen Zustand in den nächsten überführen.

Wenn also gilt:

X(e|w) = e|w’ und X(e’|w’’) = e’|w’’’

dann sind für uns nur e|w, e|w’, e’|w’’ und e’|w’’’ bedeutsam, weil dies per definitionem Relationen aus Mengenelementen sind und diese per definitionem identifizierbar und unterscheidbar sind.

Und solange e = e’, w=w’’ und w’ = w’’’ ist, sind die Veränderungen X und X’ gleich, weil nur jene Mengenelemente das sind, womit X und X’ bestimmt und unterschieden werden können. Ansonsten können wir sie nicht unterscheiden, deshalb sind sie ansonsten nach Leibniz gleich.

Zurück zum Anfang

Zusammenhang

Zusammenhang ist nach Formel 12 eine zentrale Eigenschaft der Information.

Zusammenhang heißt, dass das jeder Zustand einer Eigenschaft auch eingenommen werden kann, weil von jedem anderen Zustand aus eine Reihe von Zustandswechseln (Transformationen) existiert, die am Ende in dem gewünschten Zustand resultiert.

Physik der Information, ISBN 3-935031-03-3,

Verknüpfungen von Transformationen: Wiederholbarkeit und Zusammenhang, S. 135:

„Ist unsere Menge von Transformationen vollständig bzgl. einer Wertemenge, ist diese Anforderung jedoch erfüllt, denn dann ließ sich die Menge der Werte aus ganz beliebigen Anfangszuordnungen überstreichen. Selbst für die weniger strenge Bestimmung der Bestimmbarkeit von Zuordnungen über Wertebereiche für feste Anfangszuordnungen ist für jedes Paar von Transformationen erfüllt, dass es „zusammenhängt“, dass also eine Kette von Transformationen zwischen ihnen aufzubauen ist. Eine Kette von Transformationen ist aber selbst eine Transformation, also Element unserer Menge. Formulieren wir diese Eigenschaft, die wir für die Translationsabbildung so wünschenswert fanden, noch allgemeiner und nennen sie „Zusammenhang“.

9. Zusammenhang: Es existiert eine Transformation X(e|w’) = e|w’’
für alle X(e|w) = e|w’, X’(e|w’’) = e|w’’’

Da der Wertebereich definiert ist als diejenigen Werte, die über eine Transformation von e „erreichbar“ sind, bedeutet dies, dass jeglicher Wert der Wertemenge mit jedem anderen verknüpft ist.

Für die nützliche Funktionalität der Translation auf der betroffenen Wertemenge genügt somit bereits Zusammenhang und Wiederholbarkeit der diese Wertemenge erzeugenden Transformationen.“

Zusammenhang ist somit keine Eigenschaft der Transformation, sondern der Verknüpfung.

Diese Definition deckt sich übrigens mit derjenigen des Wegzusammenhangs in der Topologie – mit der nicht unerheblichen Einschränkung, dass die Translation dort eine stetigen Abbildung ist.

Zurück zum Anfang

Über die Natur der Veränderung

Information dreht sich um Veränderung und nicht nur um eine, sondern um eine ganze Menge.

Denn eine Transformation im Sinne der Informationsdefinition ist reale Veränderung, ist die Ersetzung eines Wertes oder Zustandes durch den nächsten, was in der Realität nur durch Wirkung erreicht werden kann.

Die Verknüpfung von Veränderung ist dabei von besonderer Bedeutung (Formel 6):

Verknüpfung Xe’Xe := XX(e|w) = e|w’’
für X(e|w) = e|w’, X’(e|w’) = e|w’’“

Auffällig ist dabei die Schreibweise XX, die für die kombinierte Transformation von X und X’ verwendet wird. Eine Nachlässigkeit, ein Fehler?

Kann X <> X’ sein, kann es verschiedene Transformationen und damit verschiedene Wirkungen oder Wirkungsarten geben - und müssten wir dann nicht sorgfältiger mit unserer Formalisierung umgehen?

Physik der Information, ISBN 3-935031-03-3,
Mehrere Eigenschaften: Platos Problem, S. 146

„„Eigenschaften und Werte, die stabilen, unterscheidbaren Mengenelemente, die wir in Abbildungen niederschreiben können, sind nämlich leider unser einziger Zugang zur Information und diese ist unser einziger Zugang zu Veränderung. Wir kennen nicht wirklich die Transformationen, die die Veränderungen erreichen, wir können nur ihre Muster auf dem bestimmen, was wir speichern können: den Werten.

So funktionieren Abbildungen und nur das können wir überhaupt „verstehen“, also nachvollziehen. Die Veränderung selbst wird uns genau deshalb ewig unbegreiflich bleiben, die Zeit, die Dinge bewegt, ihr Aussehen ändert, sie erschafft und vernichtet, ist nichts, was ein menschliches Gehirn begreifen kann. Denn Veränderung bedeutet gerade, dass etwas nicht gleich bleibt, dass es heute blau ist und morgen grün, heute weich und morgen hart, heute da und morgen fort ist.“

Über die Natur der Veränderung können wir deshalb niemals etwas aussagen und damit auch nicht über die Natur der Zeit, denn wir können nur dann etwas „aussagen“, etwas „wissen“, wenn wir es abbilden können.

Wissbar, abbildbar ist freilich nur der „raumartige“ Anteil, unabhängig von der Zeit, das, was gespeichert werden kann: Zustände e|w, e’|w’.

Dass wir in unseren Worten von verschiedenen Wirkungen oder verschiedenen Transformationen reden, das wir der Übersichtlichkeit halber neben X auch X’ in den Formeln nutzen, entspricht unserem Bedürfnis nach Unterscheidbarkeit als Voraussetzung von Information, nicht unserem tatsächlichen Kenntnisstand darüber.

Gottfried Wilhelm Leibniz, 1646-1716
Das Prinzip von der Identität des Ununterscheidbaren:
Was nicht unterschieden werden kann, ist gleich.

Leibniz gibt uns die Antwort auf die Frage nach der Natur der Veränderung.

Wir können Veränderung nur durch das feststellen, was sie bewirkte, durch Zustände, nicht aber die Veränderung selbst – und wir können sogar feststellen, dass wir das nicht können.

Wir kennen einen Hort von Veränderung, der uns ständig neu verblüfft, den wir – gerade in der modernen Computertechnologie – nur als zu real akzeptieren müssen: das Quantenrauschen. Es ist pure Veränderung, ständig tut sich etwas, doch wir können es nur indirekt feststellen über Resonanzphänomene wie den Casimir-Effekt oder den Hohlraumresonator.

Diese „Ursuppe der Veränderung“ ist auch die Mutter unserer Zeit, denn sie unterscheidet zwischen Kaonen und Antikaonen, sie ist die Mutter unserer Information, denn sie liefert den nie versiegenden Antrieb, doch sie ist auch die Grenze unseres Verständnisses, weil Information Unterscheidbarkeit braucht. Das Quantenrauschen kennt aber (praktisch) keine Unterscheidbarkeit.

Unterscheidbarkeit, die „Sichtbarkeit der Wirkung“, braucht nämlich Stabilität, Zeitunabhängigkeit – denn Unterscheidbarkeit ist weder eine eindimensionale Eigenschaft noch ein einseitiges Verhalten: Unterscheidbarkeit heißt Vergleichbarkeit in Werten, die die Anwendbarkeit des Leibnizschen Prinzips erlauben. Selbst bei noch so kurzlebigen Zuständen muss sich also wenigstens ein Abbild erzeugen lassen, das sich irgendeinem anderen Abbild, einem „Vergleichswert“, gegenüberstellen lässt, um nach dem Leibnizschen Prinzip eine Entscheidung zu treffen: Sind die beiden Abbilder nicht identisch, gelten sie als ungleich.

Das Quantenrauschen aber zeigt ganz klar auf, dass wir dieses Prinzip nicht auf Veränderung selbst anwenden können, denn nur dann, wenn Veränderung lange genug oder stark genug ist, dass sie sich in dauerhaften Wertveränderungen niederschlagen kann, sind wir imstande, sie überhaupt wahrzunehmen: das Planksche Wirkungsquantum.

Das wiederum beantwortet uns unsere Frage.

Was nicht unterschieden werden kann, ist gleich.

Die Natur der Veränderung ist für uns nicht feststellbar. Wir können Veränderungen nur feststellen – und unterscheiden – durch die Feststellung und Unterscheidung von „Vorher“ und „Nachher“.

Von Zuständen.

Deshalb sind für uns Veränderungen gleich, wenn die Vorher-Nachher-Zustände gleich sind, und sie sind ungleich, wenn diese Zustände sich wenigstens in einem unterscheiden.

Deshalb ist die Schreibweise XX so richtig wie die Schreibweise X'X oder XX'. Weil wir nicht wissen können, ob nur eine einzige Form von Veränderung existiert oder ob es mehrere Arten gibt, die sich auf bestimmte „Sorten“ von Zuständen „spezialisiert“ haben, (wie es die physikalischen Wirkungen nahelegen,) ist es auch kein Fehler, alle Veränderung als gleich anzusehen und alle Transformationen schlicht mit X zu bezeichnen.

Kein Fehler, keine Nachlässigkeit - nur ein Ausdruck einer Unmöglichkeit.

Ob X <> X’ ist oder nicht, ob es verschiedene Transformationen gibt oder nur eine und damit verschiedene Wirkungen oder nur eine, ist nicht von Bedeutung, weil wir es nicht messen können.

Und was wir nicht messen können, können wir nicht verstehen.

Brauchen wir gar nicht erst zu versuchen.

Zurück zum Anfang

Eigenvektoren und Mindestinformation

Die Menge „Information“ der wiederholbaren, identifizierbaren Wertveränderungen einer Eigenschaften stellt eine mathematische Gruppe dar, die mit der Länge einen metrischen Raum darstellt. Zum Vektorraum oder gar zum normierten Vektorraum reicht’s freilich bei weitem nicht – Problem Skalarprodukt.

Die Beschäftigung mit den QuBits führte nun zu folgender gewagter Hypothese:

Die Menge der Information ist generell mit der Menge der Eigenvektoren des zugrunde liegenden quantenmechanischen Systems beschreibbar.

Dies erfolgte aufgrund der Behauptung, das das „Fließend-Zustandssystem“ des Quanten-Bits die fünf Bedingungen der Information

1) Transformation

2) Wiederholbarkeit

3) Zusammenhang

4) Inverse

5) Normal

erfüllen würden, weil sich die Zustände berechnen ließen, und das Interessante dabei sei, dass seine beiden Eigenvektoren einen Hilbertraum aufspannen.

Die grundlegende Frage, die nun auftaucht, ist das Verhältnis von Eigenvektor und Transformation – wobei auf einem Hilbertraum die mathematische Transformation äquivalent zur tatsächlichen, physikalischen Transformation ist. Davon lebt die Physik schließlich.

Äquivalenz von Transformation und Translationsabbildung auf dem Wertebereich (275 kB):
„Wiederholbare Transformationen auf dem Wertebereich erzeugen eindeutige Translationsabbildungen, nachvollziehbare Transformationen auf dem Wertebereich erzeugen eineindeutige Translationsabbildungen.“

Klären wir also zuerst unsere Begriffe.

Ein Eigenvektor/Eigenzustand ist per definitionem ein Vektor/Zustand, der nach der Einwirkung des Operators, dem er zu „eigen“ ist, sich nur betragsmäßig ändert, das heißt, sich nur um einen Zahlenwert und sonst nichts weiter von seinem Ausgangszustand unterscheidet:

Λ |u> = λ |u>

In der Quantenphysik werden Operatoren und Eigenvektoren dazu verwendet, die physikalischen Beobachtungen zu beschreiben, da die üblicherweise gegebene Nichtvertauschbarkeit der Operatoren sich prächtig mit den diversen Unschärferelationen deckt. Darüber hinaus lassen sich die Eigenwerte der Vektoren als Messwerte der Observablen interpretieren, solange es „hermitesche“ Operatoren sind, also solche mit reellen Eigenwerten.

Deshalb ist es auch korrekt zu sagen, dass ein Eigenvektor/Eigenzustand ein Zustand ist, in dem der (Eigen)Wert einer Observablen eindeutig festgelegt ist – es sind die „messbaren“ Zustände.

Bei dem QuBit sind Eigenvektoren die beiden Zustände |0> und |1>, in denen das System vorgefunden werden kann – durch Messung. Ansonsten kann es, wie im Quantenkosmos „üblich“, alle mögliche Zwischenzustände einnehmen, solange es „ungestört“ bleibt.

Für unsere Frage ist nun interessant, das Operatoren Verknüpfungen sind, was Wikipedia am einfachsten und klarsten ausdrückt (Quelle 21.02.2005):

„Ein Operator ist in der Mathematik ein Zeichen, das eine bestimmte Abbildung symbolisiert, meist eine zweistellige Verknüpfung… Sind V und W Vektorräume über dem Körper K, dann nennt man eine Funktion f: V -> W einen Operator.“

Der Äquivalenzsatz schafft uns dann weiterhin die Verbindung zwischen den Operatoren/Funktionen und den tatsächlichen Wertveränderungen, sprich den Transformationen der Informationsmenge - genau die Verbindung also, die die Quantenphysik letztlich auch verwendet, wenn sie Operatoren und Eigenvektoren zur Beschreibung tatsächlicher physikalischer Gegebenheiten verwendet.

Weil die Operatoren der Eigenwertgleichungen nur „ihren“ Zustand bis auf den Faktor „Eigenwert“ beibehalten, können die Eigenvektoren jedoch nicht als generelle Repräsentanten der Zustandsänderungen/Transformationen angesehen werden. Dennoch sind diese Operatoren für die Physik die interessanten, da sie sich mit den Observablen in Verbindung bringen lassen, die gemessen werden können und weil sie für den von ihnen aufgespannten Hilbertraum ein Koordinatensystem bilden. (Quelle 21.02.2005, s. Spektralsatz)

Das reine Messproblem interessiert in unserem Fall jedoch nicht – einfach, weil die Transformationen der Informationsmenge über Zustände („Zuordnungen“) und diese über temporäre Mengenelement-Relationen definiert sind und ein Mengenelement im Prinzip immer messbar ist, rein theoretisch: weil die Menge den Typ und das Mengenelement die Eindeutigkeit liefert, ist es immer klar bestimmt. Und damit messbar.

Im Gegensatz zu den Operatoren der Eigenvektoren verändern die Transformationen der Informationsmenge jedoch wirklich Zustände: Im QuBit machen sie aus |0> den Zustand |1> und aus |1> den Zustand |0>. Die Eigenvektoren sind trotzdem auch in unserem Zusammenhang interessant, gerade weil sie eine Basis für den Hilbertraum ihres physikalischen Systems darstellen, und das heißt, dass sich jedwelcher Zustand dieses Hilbertraums und damit des Systems mit ihrer Hilfe beschreiben lässt. Und natürlich, weil die Eigenvektoren die messbaren Zustände des Systems darstellen und Information über Werte, also über Messbarkeiten, definiert wird.

Aber machen wir es uns doch einfach.

Die Zuordnung, die Basis der Informationsmenge, ist schließlich nichts weiter als eine (temporäre) Relation zwischen Mengenelementen und eine Transformation nichts weiter als die Aufhebung einer solchen Zuordnung, um sie durch eine andere zu ersetzen. Unabhängig von allen Fragen nach dem Messproblem und den Observablen betrachten wir ein physikalisches System als „Eigenschaft“, sprich als stabiles Element in unseren temporären Zuordnungen, und ein Zustand, indem es gemessen werden kann, als „Wert“, sprich als austauschbares Element. Dann beschreiben unsere Transformationen nichts weiter als die messbaren und damit identifizierbaren Zustandswechsel eines Systems, ob dies nun klassisch oder quantenphysikalisch ist. Dafür scheinen uns die Eigenvektoren höchst geeignet, denn genau das liefern sie uns: messbare Zustände und damit die Grundlage für messbare Zustandswechsel. Unsere Zuordnung e|wi kann also abgekürzt werden mit: |i>.

Unsere gewagte Hypothese lautet somit, dass die Mindestinformation die Eigenvektoren eines Systems „verknüpft“.

Das Problem der Entartung gerät nun in unser Blickfeld. Entartung liegt vor, wenn mehrere Eigenvektoren denselben Eigenwert aufweisen und kann für unsere Betrachtung deshalb interessant sein, weil die Eigenwerte das sind, was wir messen können und somit unsere Fähigkeit berühren, die Zustände zu unterscheiden – ein wesentlicher Punkt bei Information. Diesen Fall verschieben wir freilich und betrachten ein System mit n nicht entarteten Eigenvektoren.

Das zweite Problem ist dasjenige des Definitionsbereichs eines Operators, soll heißen, derjenigen Vektoren, die sich aus anderen Vektoren des Hilbertraumes durch Anwendung des Operators bestimmen lassen (Wertevorrat des Operators). Der Wertevorrat kann somit von geringerem Umfang sein als der Hilbertraum, doch auch diesen Fall verschieben wir.

Unsere Behauptung, dass die Mindestinformation die n Eigenvektoren verbindet, lässt sich nun folgendermaßen konkretisieren:

Die durch die n Eigenvektoren |n> repräsentierten n Zustände eines Systems werden durch Transformationen aus anderen Eigenvektoren erstellt, wobei diese Transformationen sowohl wiederholbar als auch zusammenhängend sind und die Inverse sowie das Normal existiert.

1) Transformation: X|i> = |j> für alle i,j <=n

2) Wiederholbarkeit: gilt X|i> = |j> und X|i> = |k>, so gilt auch |j> = |k> für alle i,j,k <=n

3) Zusammenhang: gilt X|i> = |j> und X|l> = |k>, so existiert auch X|j> = |l> für alle i,j,k,l <=n

4) Inverse: gilt X|i> = |j>, so gilt auch gilt X-1|j> = |i> für alle i,j, <=n

5) Normal: es gilt X1|i> = |i> für alle i <=n

Was geschieht nun, wenn eine weiterer (messbarer) Zustand |n+1> hinzukommt?

Auch dieser Zustand muss vom System eingenommen werden können, sonst könnte er schlicht nicht gemessen werden.

1) Transformation: es muss also (mindestens) eine Transformation X|m> = |n+1> geben für m <=n

2) Wiederholbarkeit: da der Zustand X|m> bereits wiederholbar im n-Zustandssystem war, muss es ein |j> gegeben haben mit X|m> = |j>. Da nun nach Voraussetzung |n+1> <> |j> ist, kann dies nur durch eine verknüpfte Transformation erfüllt werden: XX|m> = |j> für X|m> = |n+1> und X|n+1> = |j> für m, j <=n. Das wiederum heißt, dass die zwar wiederholbare, aber nicht „elementare“ Transformation XX|m> = |j> zwar zur Mindestinformation des n-Zustand-Systems gehören konnte, nicht mehr jedoch zu derjenigen des n+1-Zustand-Systems

3) Zusammenhang: Aus dem n-Zustands-System gilt, dass mit X|i> = |j> und X|l> = |k> auch X|j> = |l> existiert, für alle i,j,k,l <=n. Für |n+1> existieren nach Punkt 2 die beiden Transformationen X|m> = |n+1> und X|n+1> = |j> sowie die „verbindende“ Transformation X|m> = |j>. Da für ein beliebiges |i> galt, dass es ein X|i> gibt mit X|i> = |m> und die Transformation XX immer dann existiert, wenn ihre Ausgangstransformationen existieren, gibt es auch X(X|i>) = X|m> = |n+1>

4) Inverse: da im n-Zustandssystem für X|i> = |j> gilt, dass es X-1|j> = |i> für alle i,j, <=n gibt, gibt es für X|m> = |j> auch ein X-1|j> = |m>. Die Transformation X’X|m> = |j> mit X|m> = |n+1> und X’|n+1> = |j> für m, j <=n hat also eine Inverse X-1|j> = |m>. Dann existiert aber auch die Transformation X-1 X’ = X-1(X’|n+1>) = X-1|j> = |m>

5) Normal: es gilt X1|n+1> = |n+1>, da |n+1> nach Voraussetzung existiert.

Vollständige Induktion: Und da die Behauptung für das 2-Zustandssystem des QuBits mit |0> und |1> gilt, gilt es mit obiger Beweisführung für den nächsten Schritt n+1 auch für alle n-Zustandssysteme.

Die Tatsache, dass wir die Transformationen nicht genauer spezifizierten, ist dabei kein Problem bei Punkt 2, aber das heißt nicht, dass alles im Reinen ist.

Ob die reinen Zustände sich physikalisch tatsächlich so brav eindeutig verknüpfen und auch wieder „auflösen“ lassen, wie es in Punkt 2, Wiederholbarkeit, für X|m> = |n+1> und X|n+1> = |j> verwendet wurde, ist keineswegs offensichtlich. Bei einem quantisierten Elektronenzustand im Atom lässt sich das immerhin leicht denken: Aus einem niedrigen Energiezustand wird das Elektron je nach zugeführter Energie auf einen höheren Level gehoben, was sich auch für einen „Sprung über mehrere Ebenen“ einfach als „stufenweises“ Anheben entsprechend der jeweiligen Energiezufuhr vorstellen lässt, genauso wie das Abfallen von höheren auf die niedrigsten Level sich als „stufenweises“ Absenken theoretisch zergliedern lässt.

Offen geblieben ist auch der Fall entarteter Eigenvektoren und von Wertebereichen, die nicht den gesamten Hilbertraum überstreichen, sowie die Frage nach dem Messproblem unseres Systems und Art und Umfang seiner Observablen. Im Fall entarteter Eigenvektoren und Wertebereiche darauf hinzuweisen, dass wir nicht mit Eigenwerten, sondern tatsächlich mit den Vektoren |i> argumentierten, scheint mir nicht ganz schlüssig zu sein, denn letztlich können wir nur Eigenwerte messen und nur den Hilbertraum verwenden, um die Vektoren zu berechnen. Und so kehrt auch das Messproblem und die Observablen zurück in unsere Fragestellung, denn im Makrokosmos sind es gerade die Observablen, die Messbarkeit ermöglichen, was wiederum die Bestimmung von Information überhaupt erst gewährleistet.

Und letztlich ist auch nicht geklärt, inwieweit die Behauptung, dass das QuBit aufgrund seiner Berechenbarkeit wiederholbare Transformationen aufweist, berechtigt ist – es bleibt doch ein Zweifel, inwieweit die Wahrscheinlichkeiten der Quantenphysik nicht nur aus fehlender Unterscheidbarkeit (Quelle 21.02.2005, s. Ensemble-Interpretation), sondern darüber hinaus auch aus fehlender Wiederholbarkeit stammen, ob also die Unmöglichkeit, einen Quantenzustand „genauer“ als über Wahrscheinlichkeiten zu bestimmen, nicht doch mit der Tatsache zusammenhängt, dass die Zustandsänderungen, die Transformationen, keine eindeutigen Funktionen mehr erzeugen können.

Was wiederum ebenfalls die Frage der Wiederholbarkeit von Punkt 2 berührt, ganz abgesehen davon, dass es den Startpunkt der Induktion in Zweifel zieht.

Trotz des Bildes der Wirkungswellen, die mit steigender Stabilität Information erzeugen und die obige Beweisführung unterstützen, ist leider die „Unberechenbarkeit“ des Quantenkosmos allein genug Einwand dagegen, diese Argumentation ohne weitere Nachweise zu übernehmen.

Immerhin unterstützt sie folgenden interessanten Satz von Wikipedia (Quelle 21.02.2005):

„Diese Beobachtungen legen nahe, dass die Information eines Qubits gerade ein klassisches Bit beträgt.“





Zurück zum Anfang


© bussole IV 2004 (außer Zitate)

Zurück zum Blog