Zurück zum Blog

RDF
RTE
Tempolimit in neuronalen Netzen
Der Nürnberger Trichter
Die Essenz des Lernens
Cookies
BPO, RTE und Subsysteme
Nachtrag BPO...
Hannover-Messe
Topics bei JMS
ESB
Kernel, SOA, RTE, ESB
Einfach nur – Objektorientierung
Nachtrag OO
Kurzer Exkurs in die Biologie: Proteom
Informationstechnologie und der Untergang des Abendlandes
Virtualisierung, Automatisierung, Integration
QuBits
BPM
Performante App-Server

Weitere aktuelle (und nicht mehr ganz aktuelle) Trends in Richtung „Definition der Information

Zurück zum Anfang

Nachtrag OO

Jede Informationsverarbeitung ist eine praktische Anwendung der Eigenschaften der Information, nutzt somit ganz selbstverständlich die Tatsache aus, dass sie als Regelwerk, das in wiederholbaren Prozessen immer wieder dieselben eindeutigen Zustände in eindeutigen Reihenfolgen produziert, sowohl abbildbar als auch vorhersehbar ist – die existentiellen Voraussetzungen für jegliche Informationsverarbeitung. Kaum eine Problemlösungsstrategie zeigt die Charakteristiken der Information freilich so deutlich wie die Objektorientierung, was bei der langjährigen Erfahrung der IT mit der hochflexiblen Materie der Software-Erstellung nicht zu sehr verwundern dürfte.

Best practices neigen schließlich immer dazu, sich der optimalen Lösung anzunähern.

Das liegt nicht nur daran, dass das menschliche Gehirn, das diese Praktiken letztlich als besonders erfolgreich einstuft, auf die Bearbeitung von Information optimiert ist - das liegt auch daran, dass Informationsverarbeitungen mit den physikalischen Gegebenheiten wie dem Energieerhaltungssatz zurechtkommen müssen. Faulheit ist genau aus dem Grund eine direkte Folge des Überlebenswunsches des menschlichen Körpers, eine Emotion, die Mutter Natur den Menschen einpflanzte, um sie sorgsam mit ihren Ressourcen umgehen zu lassen.

Das wiederum hat die nützliche Konsequenz, dass Lösungen, die mehr Arbeit fordern als andere, vom Gehirn automatisch als „weniger gut“ eingestuft werden als solche, die nur sparsam nach Aufwand verlangen. Solche „sparsamen“ Lösungen jedoch erfüllen generell eher die Anforderung des Prinzips der geringsten Wirkung, das die „optimale Lösung“ bestimmt.

Beispiele aus einer Patentrecherche, die sich um die Problematik „Software-Erstellung“ drehen, eignen sich deshalb prächtig zur Demonstration der grundlegenden Vorzüge der Information: über Anfangs- und Endzustände sowie ein Regelwerk, das den einen in den anderen überführt, verwendbar zu sein.

Der Fachjargon der einzelnen Disziplinen verschleiert zwar die Tatsache, dass es sich immer um dieselben logischen Strukturen handelt, das aber ist nicht den jeweiligen Patentanmeldern vorzuwerfen. Denn das ist eine ganz typische Erscheinung jeder Schriftgelehrtenwissenschaft: Wer sich auf die Erfahrung von Menschen beziehen muss und nicht auf ein naturwissenschaftlich verifizierbares Fundament zurückgreifen kann, mittels dessen jedes neue Verfahren und jede neue Wortschöpfung verifiziert werden kann, der muss sich eben an Worten festhalten, so gut er kann.

1) Patent DE 69404439 T2 (->DE/Einsteigerrecherche), Veröffentlichung 1995, „Programmmodellierungssystem“ betrifft einen nach objektorientierten Prinzipien funktionierenden inkrementellen Compiler:

Dieser Compiler zerlegt ein Programm in semantische Einheiten, die als „Komponenten“ bezeichnet werden. Diese bestehen aus einer Gruppe von Eigenschaften, die entweder extern (public, sichtbar) sind und deshalb Schnittstellen (Interface) genannt werden, oder eben privat: die Implementierung.

Schnittstellen und Implementierung: Grundsatz der Objektorientierung ist es, die tatsächliche Realisierung zu verbergen, um Anpassungen einfacher durchführen zu können, ohne den gesamten Ablauf des Systems zu behindern. Das bedeutet, dass nicht nur die Methoden, sondern auch die Daten/Variablen nur über Schnittstellen zugänglich gemacht werden sollten. Diese Schnittstellen freilich sind nichts weiter als „Namen“ – eindeutige Symbole für dynamische und stabile Eigenschaften, Identitäten, die die Zugriffsmöglichkeiten und ihre Voraussetzungen bzw. Ergebnisse in Parameterform beschreiben: Zustände. So bilden der Status der öffentlichen Methoden und die Voraussetzungen (Anfangsparameter) die Anfangszustände, öffentliche Methoden plus Ergebnisse stellen die Endzustände dar.

Zusammen mit der Implementierung, der Realisierung des Objektverhaltens ist das Ganze ein Regelwerk zur Erstellung von Zuständen, ist klar und unzweideutig Information.

Auch die Natur der Information, Wirkung zu sein, wird angesprochen, denn die Abarbeitung dieser Komponenten soll auf „wirksame“ Weise aneinandergereiht werden. Selbstverständlich, nicht wahr? Wirksam, mit Wirkung, gar mit maximaler Wirkung bei gegebenen Ressourcen, effektiv und effizient soll alles sein im Zusammenhang mit Informationstechnologie, dass dies aber direkt mit der Information zusammenhängt, scheint schwer zu verstehen.

So ähneln viele Konstruktionsprinzipien dieses Compilers den Prinzipien der ML-Methode. Müssen sie auch, denn die ML wurde mit dem Ziel erstellt, das Prinzip der geringsten Wirkung für eine gegebene Lösung umzusetzen.

Was noch sehr interessant ist hinsichtlich der Definition der Information: Der Vorrang der Verknüpfung vor dem Objekt wird häufig betont, eine Idee, die Java ebenfalls mit seinen Interface-Klassen verfolgt – der Prozess steht über den einzelnen ausführenden Elementen.

Auch das eine direkte Folge der Natur der Information, die zuerst dynamisch, zuerst Wirkung (Zustandsänderung) ist und dann erst wiederholbar (immer die gleichen Zustandsänderungen), was sie so praktisch abbildbar durch Zustände macht - weshalb sie nie durch einzelne Zustände, sondern nur durch eine wohlgeordnete Anordnung derselben ausreichend genau beschrieben werden kann.

Und auch das eine Tendenz der modernen Software-Entwicklung – die Tendenz zur Prozessorientierung. Best Practices neigen eben dazu, sich der optimalen Lösung anzunähern.

2) Patent DE 69622078 T2 (->DE/Einsteigerrecherche), Veröffentlichung 1996, „Animationsverfahren für zusammengesetzte Verhalten von Szenarien“ betrifft Szenarien als funktionale Gruppierungselemente für große Programmentwicklungen:

Die Beschreibung dieses Patentes betont verständlicherweise die Bedeutung von Szenarien, also eines Gesamtüberblicks, weil das dynamische Verhalten häufig der allerwichtigste Aspekt eines zu entwickelnden Systems sei und weil es wichtig wäre, den Entwurf aus den drei Blickwinkeln Struktur, Daten und Verhalten zu betrachten.

Auch hier, fast nebenbei, die Betonung der Bedeutung des Verhaltens – ohne weitere Erklärung wohl als „selbstredend“ vorausgesetzt, denn alle wissen, dass ein Programm nicht nur eine Ansammlung von Statements, sondern vor allem zur Ausführung gedacht ist, zur Arbeit.

Und nicht nur Roboterprogramme tun das in einem ganz physikalischen Sinne, auch wenn viele die Energie, die die Hardware aufbringen muss, um die Wirkung zu erzielen, wegabstrahieren können aus ihren Gedanken.

Dieses Patent zeigt freilich wieder einmal, dass es weitaus effektiver ist, sich des Charakters der Arbeit als zentralem Element bewusst zu werden als sie als unbeachtlichen Anteil der Verarbeitung aus dem Modell „heraus zu abstrahieren“. Der Compiler und das Szenario betrachten die Lösung als zusammenhängendes System, das effizient abzuarbeiten ist – rühren deshalb direkt an die innerste Natur der Information – weisen konsequenterweise deutliche Ähnlichkeit mit der ML auf (sogar mit einer Namensgleichheit: Szenario).

Physik der Information, ISBN 3-935031-03-3,
Information lässt sich nicht speichern, S. 99

„Abbildungen funktionieren nicht nur wegen der Stabilitäten und der Fähigkeit, Werte und Eigenschaften darstellen zu können aufgrund der Unterscheidbarkeit des Abgebildeten und der Abbildungselemente, sondern auch wegen der tatsächlichen Durchführung der Zuordnung von Abgebildetem zur Abbildung. Sie funktionieren, weil es nicht nur eine Möglichkeit gibt, Vergleiche am Original anzustellen, sondern auch wegen ihrer Methode, eine so klare und unzweifelhafte Beziehung zum Abgebildeten zu erstellen, dass die Vergleiche sogar an der Abbildung durchgeführt werden können.

Eine Abbildung, die „wahr“ ist, muss somit selbst immer große Ähnlichkeit mit dem Abgebildeten haben – das wiederum bedeutet, dass sie mit den Bereichen der Wirklichkeit, für die sie zuständig ist, Gleichheiten vorzuweisen hat.

Denn auch für Ähnlichkeit ist Gleichheit das Kriterium. Ähnlichkeit ist nur eine „mindere“ Form der Gleichheit, was bedeutet, dass für zwei Identitäten, die durch mehr als eine Eigenschaft beschrieben werden, nur ein Teil der Eigenschaften übereinstimmen.

Wenn aber die dynamische Form der Abbildungsgestaltung einen größeren Rahmen an Information verarbeiten kann, dann spricht sehr viel dafür, dass sie dem Abgebildeten, der zu verarbeitenden Information also, ähnlicher ist als die statische.“

Genau aus dem Grund müssen Best Practices, die sich so direkt mit den Prinzipien der Informationsverarbeitung abgeben wie die Software-Erstellung, auch in diese Richtung gehen: Sie müssen die physikalische Natur der Information so genau als möglich abbilden, um in ihren Abbildungen die effizienteste Form der Verarbeitung zu schaffen.

3) Patentanmeldung DE 10205793 A1 (->DE/Einsteigerrecherche), Veröffentlichung 2002, „Verfahren zur vollgraphischen visuellen objektorientierten Programmierung auch für komplexe, verteilte und nebenläufige Systeme“ betrifft graphische Programmierumgebungen:

In dieser Anmeldung wird zwischen aktiven und passiven Objekten unterschieden. Passive Objekte kapseln Attribute und stellen Methoden für den Zugriff zur Verfügung, aktive Objekte dagegen können selbst etwas tun: Sie stellen die Transitionen dar, die Zustandsübergänge von Zustandsgraphen bewirken.

Zustandsänderungen sind das wesentliche Thema in der gesamten Programmierung, genauso wie Objekte, die sich am Kontrollfluss beteiligen können – sie sind damit wesentlicher Bestandteil der Abbildung und sollten deshalb Ähnlichkeit mit dem Abgebildeten haben: der Information, die sie, so als IT, zu verarbeiten haben.

Doch immer wieder wird von den Theoretikern der Information diese Aktivität auf die Seite der „Verarbeitung“ in „Informations-Verarbeitung“ geschlagen. Mit welcher Begründung – ohne klare Definition der Information?

Dass es bisher immer so gehandhabt wurde?

4) Patent DE 69627522 T2 (->DE/Einsteigerrecherche), Veröffentlichung 1997, „Verfahren zur Erzeugung von wiederverwendbaren Komponenten in einer objektorientierten Programmierumgebung“ betrifft Datenobjekte.

In diesem Patent werden Objekte hinsichtlich der Datentypen generalisiert. Dies geschieht durch „Abtrennung der Nachrichtenteile, die die Funktion benennen (einschließlich deren beabsichtigte Interpretation), von der Umsetzung der Funktion“.

Wie im Beispiel 1 wird die Schnittstelle (die Anfangs- und Endzustände) von der Implementierung (der tatsächlichen Durchführung der Arbeit = Wirkung) separiert. Dabei ist nicht wirklich interessant, dass es sich dort um Compiler-Probleme und hier um Programmier-Probleme handelt: Beides sind Informationsverarbeitungen und müssen sich deshalb der Charakteristik der Information unterwerfen, wenn sie Nutzen aus der Verarbeitung ziehen wollen.

Und der Nutzen eines Regelwerks, das in wiederholbaren Prozessen immer wieder dieselben eindeutigen Zustände erzeugt, ist nun mal Vorhersehbarkeit (Bertrands Paradox) – die wiederum ist unverzichtbare Grundlage von Entscheidungen und das wiederum ist etwas, was jegliche Informationsverarbeitung zu jeder Zeit tun muss, ob sie nun lebt oder programmiert ist: Entscheidungen treffen.

Wenn, dann, solange...

Oder würde die Programmierung eines If-Else-Statements Sinn machen, wenn das Programm nicht immer wieder diese Zustände vorfinden könnte und daraus nicht immer wieder dieselben Resultate erzielen würde?

Demgemäß wird auch in diesem Patent besonders bei der Besprechung grundsätzlicher Programmierkonzepte wie dem „Typ“ die Bedeutung der beiden Anteile von Information betont: dem stabilen Teil (den „Daten“, Physikern auch verständlich als „raumartig“) sowie dem dynamischen Part (dem „Verhalten“, „zeitartig“, sprich der Logik). So ist ein Typ nicht nur eine Klassifizierung von Werten, sondern immer auch eine Gruppe von Operationen, die auf diesem Typ möglich sind.

Dass Verhalten, also die zeitartige Komponente der Information, tatsächlich etwas mit Logik und zwar sogar im umgangssprachlichen Sinn zu tun hat, wird bei der in diesem Patent verwendeten Definition des „Typs“ besonders schön deutlich: Der Typ sei ein Konzept, das Daten „Bedeutung“ verleihe, heißt es dort. Und weiter heißt es sogar, dass durch die Bereitstellung solcher benutzerdefinierter Typen und die Bedeutung, die sie den Daten verliehen, ein einfacheres Arbeiten möglich sei, da anstelle eines puzzlemäßigen Werkelns an den einzelnen Daten die Programmierer nun am „ganzen Objekt“, also auf einer höheren abstrakten (logischen) Ebene aktiv werden könnten.

„Kontextbezogen“ wird dies auch gerne genannt und ist von vielen, die sich mit Information beschäftigen, sehr wohl als Kerncharakteristikum von Information erkannt worden. Das wiederum ist nichts weiter als die Akzeptanz, dass ein Zustand allein nie etwas über Information aussagen kann: die Priorität der Verknüpfung.

Auch spricht das Patent im weiteren Verlauf der Beschreibung dieses Konzeptes auf das „Verbergen“ der Methoden hinter den Zuständen der Schnittstellen an, wie in Beispiel 1. Das wiederum ist letztendlich nichts anderes als die Abbildbarkeit der Information: Da das Regelwerk immer dieselben Zustände produziert, lässt es sich darüber auch modellieren und zwar dauerhaft, denn die stabilen Zustände und ihre Anordnungen können gespeichert werden.

Völlig unabhängig von der dahinter stehenden Dynamik – wie es scheint.

Doch die Ähnlichkeiten zu Beispiel 1 gehen noch weiter, denn auch in diesem Patent (Datenobjekte) tauchen viele Anklänge an die ML-Methode auf. Zwar war Metadaten-Programmierung zu der Zeit noch ungewöhnlich, der Vorzug hinsichtlich einer Automatisierung von „menschlichen“ Aufgaben durch eine solche „Virtualisierung“ wird jedoch bereits klar erkannt und für die Konstruktion der Datenobjekte verwendet.

Und der Nachteil von „Objektspaghetti“, einem Wust unstrukturierter „Kopplungen“ zwischen den Objekten wird ebenfalls deutlich betont, sogar als Ursache dafür gesehen, dass in manchen Fällen Objektorientierung die Wiederverwendbarkeit von Code sogar reduziert hätte, da jegliche Änderung an einem stark vernetzten Objekt das ganze Netz berührt. Ein solches Netz sei dann in Abwesenheit von strengen Regeln nur noch schwer zu steuern, heißt es.

Die Fliege oder das Handwerk der Datenbank-Programmierung, ISBN 3-935031-02-5
Lösungsansätze, S. 52

„Doch hat es sich gezeigt, dass eine solche Unterordnung von schweren zu leichten Begriffen nur in dem Falle nützlich war, dass das Szenariengewicht schwerer als das Optimum war. Ein solches System weist zu wenig Kommunikation auf, also zu viel Strukturierung und zu wenig Objekt-Anteil. Unsere Methode erhält nicht nur Impulse, sondern zum großen Teil auch Objekte, senkt die Kommunikation also nicht sehr stark oder anders gesprochen, erhöht die Strukturierung nicht wesentlich.

Im Falle aber, dass das System zu hoch vernetzt war, störte dies mehr, als es half. Hier erwies sich folgende Taktik als nützlich: die überschießenden Verwendungen oder Bedarfe, die ja Wechselwirkungen zwischen den Begriffen deutlich machten, wurden als Impulsketten interpretiert. Die Anordnung der Impulskette erfolgt dabei nach Fläche, Gewicht und Distanz zum In/Output. Das Objekt, zu dem diese Wechselwirkungen gehörten, wird also “zerlegt”. Liegt nur ein einziger überzähliger Bedarf vor, sollte sich das Ergebnis nicht von der ersten Variante unterscheiden.“

Was die Fliege mit den Baumgraphen zu tun hat?

Nun, der zentralen Punkt der Entscheidung ist ein Wurzelknoten eines gerichteten Graphen (mit der interessanten Eigenschaft, dass der eine „Flügel“ wirkungsmäßig die entgegengesetzte Richtung zum anderen hat). Darüber hinaus ist die Fliege so konstruiert, dass Wege minimiert werden, ohne dass Zusammenhang aufgegeben wird: Es gibt immer genau einen Weg in der Konstruktion, der Knoten verbindet.

Mathematik ist schon richtig „praktisch“, nicht wahr?

Andererseits ist es faszinierend, wie sich dieselben Strukturen aus unterschiedlichen Themengebieten ergeben: die Graphentheorie aus der Mathematik und die Fliege aus der Physik der informativen Wirkungen.

Diese Übereinstimmung ist erneut ein deutlicher Hinweis darauf, dass Problemlösungen nicht an „Erfindern“ hängen, sondern an Problemen. Problemgebiete stellen Wirkungsstrukturen dar und die haben nun mal unter gegebenen Randbedingungen nur ein Minimum der Wirkung, ob das nun Hinz und Kunz, Lieschen oder Müller entdeckt, ist völlig gleichgültig. Denn wenn Hinz oder Kunz zu dumm sind, dieses Minimum festzustellen und eine schlechtere, sprich aufwändigere Lösung konstruieren, dann wird Lieschen die daraus resultierende Belastung solange bemäkeln, bis Müller sich Gedanken macht, ihr das Leben zu vereinfachen.

Dieselbe Struktur – Fliege – ist auch das Muster jeder Realisierung des Prinzips der Blackbox oder des „Verbergens“ von Details der Objektorientierung, weil dieses Prinzip Wirkungsketten hin zum und weg vom Objekt/System über Schnittstellen, die klare Zustände schaffen, sammelt, besonders schön am Design-Pattern Facade zu sehen oder am obigen Beispiel vom Datenobjekt sowie an der folgenden Patentanmeldung, die Metadaten benutzt, um die Einzelfälle der angesprochenen Objekte zu standardisieren und damit zu automatisieren (Stichwort: Virtualisierung).

5) Patentanmeldung DE 10206903 A1 (->DE/Einsteigerrecherche), Veröffentlichung 2003, „Softwareapplikation, Softwarearchitektur und Verfahren zur Erstellung von Softwareapplikationen, insbesondere für MES-Systeme“ betrifft einen Laufzeit-Generator für Software aus metadatengesteuerten Komponenten (bis auf Formulierungen identisch mit DE 10206902 A1):

Dieses Patent versieht die Objekte des Systems mit Metadaten nicht nur über sich selbst, sondern gar über den gesamten Zustand der Applikation oder des relevanten Teils davon. Und zwar in wirklich jedem Teil, wie betont wird, sogar in der kleinsten Variablen.

Und das dazu noch physikalisch. Damit würde, so heißt es, das Prinzip der Lokalität unterstützt, was bedeuten solle, dass alle für ein Objekt wesentlichen Informationen auch physikalisch am Objekt vorhanden seien.

Das Interessante hier ist die Formulierung „Lokalität“.

Lokalität hat immer etwas mit Ort zu tun, mit Raum und damit mit den stabilen, positionierbaren Elementen, die auch Verhaltensmuster sein können – denn Information ist Regelwerk und insofern abbildbar durch ihre geordneten Zustände, sprich speicherbar – und deswegen stabil, „raumartig“, selbst wenn die verursachende Wirkung, die die Zustandsänderungen hervorruft, jedes Mal „neu bewirkt“ werden muss. Doch das ist unvermeidlich, denn der zeitartige Anteil der Information ist per se veränderlich und damit nicht fassbar und muss durch die Informationsverarbeitung immer wieder neu zur Verfügung gestellt werden.

Ob das auch ein Grund dafür ist, dass die Informatiker die Dynamik der Information nicht erkennen können? Dass sie zwar realisieren, mit Abbildern zu arbeiten, aber nicht, dass ihre Abbildungen genügend Ähnlichkeit mit dem Abgebildeten, der Information, haben müssen, um Informationsverarbeitung zu sein?

Noch ein weiterer Vorteil liegt darin, dass „auch in den ganz fein granulierten Objekten die gesamte Beschreibung der Applikation oder auch eines Geschäftsprozesses enthalten ist“ und zwar der, dass jedes einzelne Objekt zu einer Reorganisation oder Selbstorganisation verwendet werden kann.

Das ist das Prinzip der DNA für die Körperzellen oder des Egos für das menschliche Bewusstsein: die Bauanleitung für das System zu separieren, um nicht nur den Aufbau des Systems, sondern zusammen mit den aktuellen Werten der Rahmenbedingungen auch sein Funktionieren anhand der Überprüfung mit dieser Vorlage zu gewährleisten.

Ein eindeutiger Tribut an die aktive Natur der Information, die jede Informationsverarbeitung zu einer höchst wechselhaften Sache macht.

Ein Tribut, den diese Patentanmeldung über so genannte „Verbindungselemente“ zollt und der auch durch die jüngere Tendenz zu conceptual objects (connecting elements, Verknüpfungsobjekte) demonstriert wird, bei der die interaktiven Elemente einer Verarbeitung separiert werden, sodass die zugrunde liegenden „Basisobjekte“ wirklich nur noch sich selbst kennen müssen. Das macht sie austauschbar, zu echten Komponenten, während ihre „Zusammenarbeit“ im System davon abgekoppelt wird, sodass auch diese Zusammenarbeit leichter an neue Gegebenheiten anpassbar wird. Leichter nicht nur dadurch, dass durch die Trennung Komplexität abgebaut wird, sondern auch dadurch, dass alles, was zusammen gehört, an einer einzigen Stelle zu finden ist, was nicht nur die Implementierung und Kontrolle erleichtert, sondern auch die erforderlichen Wirkungsverläufe im System zentralisiert. Wie effizient diese Strategie ist, wurde bereits in Beispiel 4 (Stichwort „Fliege“) oder Beispiel 1 (Stichwort „Priorität der Verknüpfung vor dem Objekt“) vorgeführt.

Visuell umgesetzt wurde diese Zentralisierungs- oder Schnittstellenstrategie in der vorliegenden Patentanmeldung durch eine ganz einfache Graphik, in der ein umgebender Container alle Zugriffe auf ein Objekt empfängt, das in seinem Inneren verborgen ist und die eigentliche Arbeit zu leisten hat.

Zu guter Letzt wird in dieser Patentanmeldung ein Softwaresystem – völlig zu Recht – mit dem menschlichen Nervensystem verglichen, das Reize durch Impulsketten verarbeitet.

Die Information als physikalischer Wirkung, die durch ein informationsverarbeitendes System transportiert wird, wird hier unbedingt akzeptiert nicht nur in der Konstruktion von Baumstrukturen wie in Beispiel 4, sondern auch in der geregelten Abarbeitung der jeweiligen Baumelemente, um einen kontrollierten Prozess zu bewirken, so genannte Traversierungsalgorithmen. Die Akzeptanz scheint jedoch nur pragmatischer Natur zu sein, was sicher durch die Anforderungen an Patentanmeldungen, sich auf technische Gegebenheiten zu beschränken, begünstigt wird: Weil es sich als technisch nützlich erwiesen hat, organisiert man eben Informationsverarbeitungen so, dass sie Wirkungsketten möglichst kompakt bewältigen und fragt sich nicht, warum überall dasselbe Schema tauglich ist.

6) Patent DE 69523939 T2 (->DE/Einsteigerrecherche), Veröffentlichung 1996, „Verfahren zur Erzeugung von Objektstrukturen für den Zugriff auf konventionelle, nicht objektorientierte Geschäftsanwendungen“ betrifft ein Softwaresystem zum Kapseln von Legacy-Anwendungen:

In diesem Patent werden die Altanwendungen über eine Doppelschicht aus Business Objects und Transaktionsobjekten in eine moderne objektorientierte Umgebung integriert. Die Business Objects stellen dabei die gewünschte Geschäftsanwendung dar, deren Funktionen über Transaktionsobjekte gestellt werden, die die Altanwendungen steuern und den Datenfluss hin und von diesen Anwendungen aufbereiten. Dies hat den Vorteil, dass die Geschäftsanwendungen in ihrem „Definitionsprozess nicht durch das BA[Legacy]-Verhalten eingeschränkt“ werden. Zur Kommunikation zwischen Transaktionsklassen und der Altanwendung wird ein weiterer Typ Klassen verwendet: Transaktionsaufzeichnungsklassen (transaction records).

Wieder das Schnittstellenprinzip, um Funktionalitäten abzugleichen, diesmal auf zwei Ebenen: Während die alten Wirkungsketten unabhängig von ihrer Effizienz weiter bestehen können, wird die erwünschte Verbesserung des Systems durch eine Abkoppelungsschicht für diese alten Wirkungsketten erreicht, die über kontrollierte Zugänge durchlässig gemacht wird, um einer darüber liegenden, effizienteren Organisation gezielt zur Verfügung zu stehen.

Auch hier wird die nützliche Eigenschaft der Information, über Zustände und ihre Abläufe abbildbar zu sein, konsequent ausgenützt dadurch, dass die erste Schicht der Verarbeitung für die Zustände sorgt, die von den Anwendern erwünscht sind, und zwar indem erforderliche Teile der Zustände, die von den Altanwendungen geliefert werden können, von diesen Altanwendungen abgerufen werden.

Was Information bewirkt, ist letztlich unerheblich: ob die modernen Business Objects der Objektorientierung die Arbeit tun oder die alten Legacy-Anwendungen ist nicht wirklich bedeutsam, nicht zuletzt deshalb, weil ein auf Abbildung optimiertes Gehirn wie das unsere nur stabile Zustände verarbeiten kann und deshalb schlicht nicht „begreift“, was Änderung ist. Was zählt, ist nur die Anordnung und damit Relation von Zuständen, die das Wirkungsgefüge „Information“ einwandfrei und zeitunabhängig bestimmen kann.

Wie ein Zustand sich ermittelt, ist dabei dem Regelwerk überlassen: Ob es eine, zwei oder hundert Ebenen dazwischen schaltet, um die Zustände wiederholbar zu gestalten, ist ohne Belang. Der Unterschied liegt höchstens in der Mühe, die Menschen damit haben, hundert Ebenen von miteinander verschachtelten Wirkungsketten zu überblicken.

Nebenbemerkung: die Übersetzung des Begriffs „Realisierungsprozess“ lautete „materialization process“. Eigentlich ein recht deutlicher Hinweis auf die Akzeptanz physikalischer Zusammenhänge oder etwa nicht?

7) Patent DE 19831651 C1 (->DE/Einsteigerrecherche), Veröffentlichung 2000, „Verfahren zum Erzeugen eines regel- und anpassbaren Netzwerkes von Modellen von Verhaltensmustern einschließlich Software-Systemen“ betrifft einen Laufzeit-Generator für Software (s. auch Bsp. 3):

Dieses Patent ist besonders interessant, da es wie die ML-Methode selbst Lösungen vorschlagen kann. Zwar sind seine Voraussetzungen nicht so rudimentär wie Worte, sondern müssen als Modelle und Regeln in mehreren Abstraktionsschichten vorgegeben werden, doch eine Lösung zu finden, ist immer eine Sache von Informationsverarbeitung und muss somit die grundsätzliche Strategie der Informationsgewinnung demonstrieren.

Modelle und Systeme werden deshalb als „abstrakte Begriffe“ vorgestellt, die aus der Interpretation der Realität erstehen und die es erlauben „sich ein Bild zu verschaffen über einen Ausschnitt aus der Realität, den Diskursbereich, der dann als ein System dient“. Die Modelle sind dabei das Ergebnis der Hypothesen, die sowohl Überprüfung als auch Simulation ermöglichen.

Gleichartigkeitshypothese, Gleichzeitigkeitshypothese und Widerspruch – das ist die generelle Strategie, aus unzusammenhängenden Ereignissen Information zu gewinnen einfach dadurch, dass „Daten ermittelt“ werden, also irgendwelche Werte, die gemessen werden können und diese Werte dann verglichen werden in der Art und in der Abfolge.

Die Vergleiche in der Art liefern den Objektzusammenhang, die Vergleiche in der Abfolge liefern den kausalen Zusammenhang und somit ist aufgrund einfachster Prinzipien etwas erfolgt, dessen philosophischer Hintergrund atemberaubend ist:

Aus dem Chaos wurde Ordnung.

„Das zu ordnende Durcheinander“ nennt es die obige Patentschrift wörtlich.

Chaos und Ordnung: Der Stoff, aus dem die Mythen sind, lässt sich auf die einfachen Prinzipien von Gottfried Wilhelm Leibniz zurückführen, dass gleich ist, was nicht unterschieden werden kann und dass alles seinen Grund hat.

Genau dies genügt nämlich, um aus Farben Formen und damit Bilder zu schaffen, die sich in der Zeit verändern können. Und das wiederum genügt, um „Teilchen“ und „Wechselwirkungen“ zu postulieren, um „Objekte“ mit „Verhalten“ zu bestimmen.

Doch weil diese Ordnung hypothetisch im wahrsten Sinn des Wortes ist, muss sie ständiger Überprüfung standhalten, denn der Widerspruch ist der absolute Richter, ob das aufgestellte Modell tatsächlich der Realität entspricht. Solange dieser Widerspruch jedoch nicht zuschlägt, kann das Modell für Simulationen dienen, denn es ist per se ein dynamisches Modell, ein Konglomerat aus Objekten, die sich nach bestimmten Regeln verhalten können.

Weil Problemlösung bei aktiver Informationsverarbeitung immer etwas mit Intelligenz zu tun hat, wird diese ebenfalls angesprochen, wenn auch indirekt durch die Beschreibung der „intelligenten Softwareagenten“, die von dem Verfahren verwendet werden, um die hinterlegten Modelle gemäß den hinterlegten Regeln auf die aktuelle Aufgabenstellung anzupassen. Interessant dabei ist besonders die Tatsache, dass „die Ausstattung mit Intelligenz bis zur Befähigung gehen kann, Aufgaben in Teilen autonom durchzuführen und mit der Umwelt auf sinnvolle Art und Weise zu interagieren“ und dass die Agenten nicht nur auf „wahrgenommene Umweltsituationen“ reagieren können, sondern sogar proaktiv handeln können, „z.B. wenn Informationen bei vorliegen bestimmter zeitlicher und/oder geographische Randbedingungen abfragbar sind“.

Autonomie, Wahrnehmung und proaktives Handeln – Intelligenz ist also etwas, das ein System selbst hat, das ihm nicht von außen zugeführt wird und es hat etwas mit Wahrnehmung, mit der Aufnahme und Bewertung von Daten zu tun.

Das ist die eine Seite der „Abbildungsvorschrift Intelligenz“: Ereignisse anhand ihrer Werte/Zustände aufzunehmen, sie nach internen Ordnungskriterien aufzuarbeiten und abzuspeichern im „Wissen“, in der Erinnerung.

Die andere Seite jeder Informationsverarbeitung und deshalb auch der Intelligenz als zentralem Element der aktiven IV ist die „Interaktion“, die Gewinnung der Entscheidung aus den eingehenden Informationen und die daraus resultierende Durchsetzung - entweder als direkte Reaktion auf das Eintreffen eines bestimmten, auslösenden Ereignisses oder „proaktiv“ und das bedeutet aufgrund von Prognosen, die ein Modell, das aus Teilchen und Wechselwirkung aufgebaut ist, immer ermöglicht.

Auch die Technik der Virtualisierung wird sehr bildhaft beschrieben als „Abbildungsnetz, das z.B. über relevante Untersuchungs-Bereiche mit Hilfe des Netzwerkes von Methoden-Modellen geworfen wird“.

Methoden-Modelle spielen hier ganz deutlich auf die dynamische Natur der Information an, auch wenn das Wort „Abbildungsnetz“ die Stabilität der informativen Prozesse betont.

8) Patentanmeldung DE 10307544 A1 (->DE/Einsteigerrecherche), Veröffentlichung 2004, „Verfahren und Vorrichtung zur Bewertung von Technologien“ betrifft Methoden zur Bewertung von innovativen Technologien:

Diese interessante Patentanmeldung beschäftigt sich auch mit der Evolution der Technologien, denn nur was beschrieben, also „modelliert“ werden kann, kann bewertet werden.

Unter „Energieleitfähigkeit“ versteht sie dabei die Fähigkeit, Energie innerhalb des Systems zu transformieren, wobei die Verbesserung des Energieflusses häufig die Ursache einer Weiterentwicklung ist.

Das System neigt dazu, seiner „optimalen Lösung“ entgegenzugehen, weil Energiefluss mit physikalischer Wirkung und damit mit dem Prinzip der geringsten Wirkung gekoppelt ist. Ohne es anzusprechen, begründet die Patentanmeldung damit die Strategie von Technologien, sich mit „best practices“ zu entfalten, was auch für die Informationstechnologie gilt.

Weil Information physikalische Wirkung ist und somit jedes System, das physikalische Wirkung verarbeitet, sprich gezielt verwendet, auch Informationsverarbeitung ist, ob es nun „biologischer“ oder „technologischer“ Herkunft ist.

In der Biologie findet sich diese Beobachtung der best practices unter der Rubrik „form follows function“, was bedeutet, dass ein in Horden jagendes Raubtier wie ein Wolf aussieht, ob es nun ein Beuteltier oder ein Säugetier ist.

Was die Patentanmeldung darüber hinaus feststellt, ist eine Tendenz technischer Systeme, die Flexibilität zu erhöhen: „immer von festen, statischen Strukturen hin zu flexiblen, adaptiven“.

Diese Beobachtung deckt sich mit der grundlegenden Unterscheidung in passive und aktive Informationsverarbeitung und ihren Speicherformen „Konfiguration“ und „Huckepack“.

Weiterhin interessant ist die Feststellung, dass eine Verkürzung des Energieflusses typischerweise die Systemeffizienz steigert.

Das ist die grundlegende Hypothese der ML-Methode – weil Information physikalische Wirkung ist, folgt sie dem Prinzip der geringsten Wirkung. Ein System, das eine gute Lösung für eine Aufgabe ist, erledigt deshalb seinen Job effektiv und effizient, soll heißen, dass es nicht nur die Aufgabe zu erfüllen hat, sondern sogar mit dem geringsten Arbeitseinsatz.

Bis hierher ist der Fall noch nicht hypothetisch, sondern nur Konsequenz der physikalischen Natur der Information. Die Hypothese beginnt erst mit der Bestimmung derjenigen Systemkonfiguration, die bei gleicher Effektivität (Aufgabenerfüllung) die höchste Effizienz (minimaler Arbeitseinsatz unter den gegebenen Bedingungen) zeigt. Um das Prinzip der geringsten Wirkung zu nutzen, wird nämlich vermutet, dass eine Minimierung von Differenzen das gewünschte Resultat liefert, Differenzen, die sich analog der Länge der Information auf solch einem System festlegen lassen.

Eine weitere grundlegende Beobachtung wird in Zusammenhang mit so genannten „Substanz-Feldern“ gemacht, wobei gilt: „Substanzen und Felder werden dabei möglichst weitreichend definiert, um je zwei Dinge beschreiben zu können, die miteinander durch interaktives Verhalten – als „Feld“ definiert – eine Funktion erfüllen können“. Eine Verkettung solcher Substanz-Felder erreicht dabei eine „höhere Stufe der Idealität“, soll heißen, erzielt mehr Leistung pro Kosten, ist also effizienter und zwar, weil sie insgesamt weniger Elemente benötigt, um dieselben oder sogar mehr Funktionen zu bewältigen.

Systeme von kleineren Elementen, die Funktionen ausführen können, sind also effizienter als ein einzelnes größeres Element. Diese Beobachtung deckt sich mit der Tatsache, dass alle Informationsverarbeitungen sich arbeitsteilig organisieren.

Wie aber passt dies zu der obigen Feststellung, dass Wege im Allgemeinen verkürzt werden können, wenn Subsysteme entfallen und dass dies zu Effizienzsteigerungen führt?

Einerseits erhöht ein System aus Elementen die Effizienz gegenüber einem Riesenobjekt, andererseits stellt die notwendige Kommunikation zwischen den Elementen ebenfalls einen Aufwand dar. Die optimale Lösung kombiniert beides, was bei der ML-Methode sehr augenfällig wird. Die Berechnung des geringsten durchschnittlichen Abstandes unter der Bedingung, dass jedes Element die Möglichkeit hat, die Funktionalität eines jeden anderen für seine eigene Aufgabe zu verwenden, führt deshalb zu einem Optimum.

9) Patentanmeldung DE 10330054 A1 (->DE/Einsteigerrecherche), Veröffentlichung 2004, „Verfahren zum Gestalten von strategischen Prozessen“ betrifft eine Systematik der Entscheidungsfindung in Unternehmen:

Gestalten strategischer Prozesse – auch hier beschäftigte sich jemand mit Lösungsfindung und damit mit Aufbau und Strategie von Informationsverarbeitung, doch dieser Fokus liegt auf betriebswirtschaftlicher Problematik. Obwohl also in den Grundlagen eine deutliche Übereinstimmung zu erkennen ist mit Beispiel 7, liegt kaum verbale Ähnlichkeit zwischen beiden Dokumenten vor.

Das Problem der Schriftgelehrtenwissenschaften reicht somit augenscheinlich in die Grundlagen der Patentrechte, denn wenn nicht detaillierte, an definierte Einzelschritte gekoppelte Algorithmen und Handlungsanweisungen patentrechtlich geschützt werden sollen, sondern Konzepte, dann muss ein Konzept auch so exakt zu formulieren sein, dass es sich tatsächlich vergleichen lässt.

Worte sind dazu nicht besonders tauglich, wie die Schriftgelehrtenwissenschaften mit ihren Lagerbildungen, ihren Heiligen Schriften und Heiligen Kriegen darüber oder ihrer herrschenden Meinung, ihrer Mindermeinung und der im Wachsen begriffenen Mindermeinung nur zu offensichtlich demonstrieren.

Wenn aber nicht Worte, auf was sollte man sich verlassen?

Auf Information – denn sie ist eindeutig und axiomatisch, also checklistenartig bestimmbar, auch wenn Informationsverarbeitungen die ideale mathematische Formulierung nur in der realen Näherung von Hypothesen über Modellbildung und deren Überprüfung verwenden können.

So beschreibt die obige Patenanmeldung die mehrstufige Gewinnung von Information aus Dokumenten, die von Menschen oder auch von Algorithmen bewertet werden, wobei diese Bewertungen dann selbst zum „Dokument“ werden, sprich zu einem Objekt mit Worten und Zahlen, das gespeichert wird, um der weiteren Verarbeitung zur Verfügung zu stehen. Unter dem Stichwort „Information“ ist interessant, dass diese „Resultate und Datenausgaben aus dem Prozeß der Analyse“ in erheblichem Maße Stichworte und deren Zählung und Anordnungen verwenden.

Die Stichworte können somit als „charakteristische Eigenschaften“ verstanden werden.

Physik der Information, ISBN 3-935031-03-3,
Mehrere Eigenschaften: Platos Problem, S. 145

„Die Abhängigkeiten lassen sich dann noch weiter unterscheiden, doch was noch interessant an ihnen erscheint, ist die Tatsache, dass sie eine Bestimmung von Charakteristik erlauben. Charakteristik soll vorliegen, wenn eine Eigenschaft so „dominant“ ist, dass sie alle Transformationen der übrigen Eigenschaften ihrer Profilschablone irgendwie beeinflussen kann.“

Solche hervorstechenden Attribute können als Stellvertreter für ihre Zustände fungieren, sie können verwendet werden, um ein „abstraktes“ Modell zu erstellen, das wesentlich weniger komplex ist als ein Modell, das realitätsnäher ist, sprich mehr Eigenschaften pro Zustand pflegt – und zeigen dabei genau die Vorteile von „Abstraktion“: der „Kunst des Weglassens“.

Denn Relationen, wie sie eine Informationsverarbeitung beherrschen muss, sind immer „zweidimensional“, raumartig und zeitartig, sodass jede Eigenschaft, die nicht berücksichtigt werden muss, eben nicht in ihren Kombinationen mit anderen Eigenschaften und ihren eigenen Entwicklungsstadien gespeichert, bewertet und geprüft werden muss und damit der obersten Prämisse, der Machbarkeit, gewaltig Vorschub leistet.

Die Patentanmeldung beschreibt mehrere Stufen der Informationsgewinnung: Exploration, Design, Akzeptanz und Implementierung und jede Stufe weist einen Speicher auf, in dem die vorliegenden Dokumente abgelegt werden. Da es sich um überwiegend verbale Problematik handelt, werden diese Speicher „Thesauri“ genannt. Zu jeder Stufe gehört aber auch ein Prozess, der seine eigenen Methoden hat, um diese gespeicherten Daten zu verarbeiten und jede höhere Stufe verwendet die Ergebnisse der darunter liegenden, wobei die Hierarchie nicht sehr streng ist. Werden Teilprozesse nicht benötigt, müssen sie auch nicht durchlaufen werden.

Die Ergebnisse der gesamten Datenerfassung und –bewertung werden dann gegebenenfalls mit menschlicher Hilfe für Prognosen verwendet, so genannten Portfolios, die als „Handlungs- bzw. Entwicklungsoptionen für die betreffende Institution“ bezeichnet werden. Diese fließen wiederum als „Rohdaten in Form von Aussagen“ in den Informationsthesaurus ein und können somit wiederum als „Input in den ganzen Verfahrensablauf eingehen“.

Die in der obigen Patentanmeldung beschriebenen umfangreichen, mehrschichtigen und oft gar rekursiven Verfahren, aus Stichworten durch Häufigkeit, Clusterung und Relationen zwischen jenen Stichworten Muster und Relationen dieser Muster zu bestimmen, stellen ein schönes Beispiel für den Aufwand dar, den aktive Informationsverarbeitungen treiben müssen, um aus dem Chaos eingehender Signale Information zu gewinnen - um die Kenntnis über die identifizierbaren Regelkreise in der Umwelt zu erhalten, die, falls sie durchschaut werden, vorhergesehen werden können und damit die notwendige Grundlage jeder Entscheidung sind. Dass bei der obigen Patentanmeldung noch weitere Elemente jenseits der reinen Stichwortbearbeitung verwendet werden und bei wachsendem Fortschreiten der Entwicklung mehr und mehr menschliche Entscheidungen benötigt werden, zeigt darüber hinaus noch, dass selbst diese umfangreiche Methodik noch ergänzungswürdig ist.

Jede „Ersparnis“ in solchen Mustererkennungsverfahren erscheint also von erheblichem Reiz zu sein und erklärt möglicherweise auch die Neigung zur „Überabstraktion“ – Eigenschaften, die das Verhalten ihrer Zustände maßgeblich beeinflussen, dürfen nun einmal nicht unter den Tisch fallen, selbst wenn sie Arbeit machen.

Lassen sich dagegen echte charakteristische Eigenschaften finden, so erlauben sie eine erste Näherung für ein Modell, das bei weitgehender Ähnlichkeit mit der modellierten Realität den Vorzug der Einfachheit aufweist.

Ob dieses Modell nun „Thesaurus“ heißt, weil hier Dokumente mit Stichworten verknüpft werden oder „Instinkt“, weil typische Situationen mit typischen Merkmalen, den Signalreizen, assoziiert werden, die dann eine schablonisierte Lösung für diese typische Situation ablaufen lassen, ist nicht wirklich bedeutsam.

Das generelle Konzept der „Charakteristik“ eignet sich deshalb wohl kaum, das Problem der Vergleichbarkeit von Patenten zu diskutieren, weil jedes abstrahierende Modell darunter fällt – und somit nicht mehr patentierbar wäre.

Es muss also eine etwas höhere Ebene der Modellierung berücksichtigt werden, dort, wo bereits unterschiedliche Muster zu erkennen sind. Die Frage bleibt jedoch: eine „um wie viel höhere Ebene“?

Vergleichen wir grob Beispiel 7 und 9: Während Beispiel 7 mit Metadaten und Modellstrukturen eine Vierschicht-Organisation aufbaut, erstellt Beispiel 9 mit Metadaten und Modellstrukturen (denn die ganzen Parameter und verwendeten Methoden sind auch nur das) eine fünfstufige Netzstruktur. Daneben erinnert der Informationsthesaurus an die dritte Schicht der konkreten Artefakte, der Methodenthesaurus an Schicht 2 und die Systemsteuerung an Schicht 1, wobei die Agenten aus Beispiel 9 wohl nicht selbstanpassend sind.

Beide Beispiele stellen aber generell aktive Informationsverarbeitung dar, eine Verarbeitung, die sich arbeitsteilig in der Form der Fliege organisiert, um mit Hilfe von Virtualisierung, sprich Beobachtung und Modellierung einer zu beherrschenden Umwelt, die eigenen Ziele bestmöglich zu fördern.

Sind Metadaten und Modellstrukturen oder hierarchische Anordnungen somit das Konzept, das hinter den Patentanmeldungen steht, so sind diese Anmeldungen schlicht als gleich zu behandeln. Doch auch dies scheint noch eine zu niedrige Ebene der Vergleichbarkeit zu sein, wenn die Patentpraxis aus der „normalen“ Industrie herangezogen wird, wo eben nicht nur Glühbirnen patentiert werden können, sondern auch „Glühbirnen mit besonders hoher Leuchtdichte“.

Das wiederum bedeutet jedoch, dass die Patentanmeldungen, die sich in den grundlegenden Strategien und Strukturen der Informationsverarbeitung nicht unterscheiden, ihre Besonderheit vor allem in den fachspezifischen Methoden aufweisen. Bei Softwareerstellung werden gerne ausgeklügelte Frameworks und reichhaltige Sammlungen von Design Patterns verwendet, bei betriebswirtschaftlichen Problemen ist die Kenntnis des statistischen Fachgebiets besonders nützlich. Diese werden in beiden Patenten jedoch eher nebensächlich diskutiert, während die Grundlagen von Informationsverarbeitung ausführlich besprochen werden – wohl einfach, weil die Informatik solches Basiswissen eben noch nicht zu stellen vermag.

Denn dass die aus unterschiedlichen Disziplinen stammenden Patentanmelder für die Grundlagen der Informationsverarbeitung reichlich unterschiedliche Worte verwenden, ist ein deutliches Indiz dafür, dass sie die Gemeinsamkeiten und Überlappungen selbst nicht kennen. Die Informatik, die sich stolz als „Schlüsseltechnologie unserer Gesellschaft“ bezeichnet, konnte dies bisher noch nicht liefern, da sie zwar eine junge, aufstrebende Technologie ist, es aber noch nicht zum Hilbert-Status gebracht hat, was wiederum heißt, dass sie ihre naturwissenschaftliche Basis noch nicht genau genug kennt, um sie zu axiomatisieren und zu formalisieren. Und ohne klare Formeln sind Gemeinsamkeiten hinter unterschiedlichem Fachjargon schlecht zu erkennen.

Zurück zum Anfang

Kurzer Exkurs in die Biologie: Proteom

In Artikel „Mehr als vier Buchstaben“ von Autor Andreas Jahn, promoviertem Biologe und Redakteur bei spektrum direkt wird folgendes erwähnt: „Der Mensch, die ‚Krone der Schöpfung’, soll nur 30.000 Gene sein Eigen nennen? Also nur doppelt soviel wie die Taufliege Drosophila melanogaster und ein wenig mehr als das Würmchen Caenorhabditits elegans? Doch die Zahlen, die das Humangenomprojekt und seine private Konkurrenz Celera Genomics im Februar 2001 der staunenden Weltöffentlichkeit präsentierten, scheinen sich zu bestätigen. Vielleicht kommen wir noch auf 35.000, aber der Traum von einem beeindruckend umfangreichen Erbgut mit mehr als 100 000 Bausteinen scheint ausgeträumt.“ (Aus einer Publikation von Spektrum der Wissenschaft und VDI nachrichten, IiD „Innovation in Deutschland“, November 2004, S. 12, wobei sämtliche Nutzungsrechte beim Spektrum Verlag liegen, dessen Anschrift in der Linkliste des Blogs zu finden ist.)

Es fällt also noch mehr Leuten als mir auf, dass die Gene allein kaum das Menschsein ausmachen können.

Proteom: „Wie der Begriff ‚Genom’ die Gesamtheit aller Erbfaktoren umfasst, meint Wilkins mit Proteom das komplette Proteinexpressionsmuster einer Zelle, einer Körperflüssigkeit oder eines ganzen Organismus. Und hier wird es kompliziert: Die Buchstabenzahl erhöht sich von vier auf zwangzig… Aus den 30000 Genen werden so einige Millionen verschiedene Proteinmoleküle.“

Aber jetzt erst wird es richtig interessant:

„Diese Millionen sind in einer Zelle jedoch nicht alle gleichzeitig vorhanden – und das ist das eigentlich Interessante. Das Genom einer Raupe unterscheidet sich in nichts von dem Erbgut des Schmetterlings, von dem sie werden soll. Was sich dagegen ändert, sind die Proteine, deren Information von den Genen abgelesen und synthetisiert wird.“

Was sich dagegen ändert – ist der Zeitpunkt, die Reihenfolge im Ablauf der Prozesse, den die Zelle ausführt, die Zelle, die nichts weiter als ein Programm ausführt, das Information verwendet – wiederholbare, identifizierbare Prozesse.

Zeit wird endlich auch für die Genetik ein Thema, denn ohne Zeit, ohne die für uns erkenntliche Konsequenz von Wirkung und Änderung ist Information nicht zu verstehen, deren ureigenstes Wesen die Veränderung ist – und erst danach kommt die von uns so begehrte und für uns so nützliche Stabilität und Identifizierbarkeit der Prozesse, die informative Veränderungen bewirken.

Mit der Hinwendung zum Proteom, zu den von den Ausgangszuständen des Genoms zusammen mit dem Regelwerk der Zelle erzeugten aktuellen Zellzustände, wird endlich die Reihenfolge der abgelaufenen und noch durchzuführenden Aktionen bedeutsam, die Verknüpfung, der Zusammenhang, gewinnt an Bedeutung, weil zwar nicht gilt, dass das Genom einer Raupe sich von dem Erbgut des Schmetterlings unterscheidet, aber sehr wohl, das der aktuelle Zustand Raupe sich von dem des Zustands Schmetterling unterscheidet. Die Reihenfolge macht’s eben.

Ist schließlich Information, die verarbeitet werden muss.

Na, klar.

Nachtrag, ein paar Tage später: Auch der Brockhaus Newsletter vom Dezember 2004 spricht in seiner Produktbeschreibung zu „12124 Proteomics“ das Proteom an, das bereits 1994 von dem oben erwähnten australischen Biochemiker Mark Wilkins an die Öffentlichkeit getragen wurde. Eine Bemerkung war dabei, die unverhohlen die neue Dynamik in der Sichtweise der Genetiker anspricht: Die Gene lieferten nur den „vorläufigen“ Bauplan für Proteine, hieß es darin, die Proteine selbst entwickelten eigene Strategien, die nicht in der Information aus der DNA enthalten seien.

Das macht Sinn, denn Information kann nicht in einem stabilen Zustand wie dem DNA-Datenspeicher stecken, sie kann nur in einem Regelwerk wie der Zelle, das in wiederholbaren Prozessen immer wieder dieselben eindeutigen Zustände in eindeutigen Reihenfolgen produziert, vollständig enthalten – und damit verarbeitbar – sein.

Dass die Gene der DNA „nur den vorläufigen Bauplan“ stellen, heißt dabei nichts anderes, als dass sie ein Set von Startpositionen für Lösungswege festlegen. Steht die Zelle vor einem bestimmten Problem, so kann sie die dazu passende Startposition verwenden, um eine geeignete Lösung zu finden.

Diese „neue Fähigkeit“ der Zelle, unabhängig von den Genen über „eigene Strategien der Proteine“ zu verfügen, eröffnet ihr ganz neue Möglichkeiten: Während die Gene eine einzige „Lösung“ für ein Problem offerieren, kann diese Integration von Steuerelementen in den Regelkreis eine weitaus größere Flexibilität verschaffen.

Warum?

Weil Wirkung zwar eindeutige Zustände benötigt, weil ohne eindeutige Zustände keine Wiederholbarkeit vorliegen kann, die definiert dadurch ist, dass aus einem Anfangszustand immer derselbe Endzustand folgt, weil das aber nichts über die beteiligten Zustände aussagt, außer…

dass sie eindeutig sein müssen. Das ist freilich keine große Einschränkung, denn ist ein Zustand unter bestimmten Bedingungen nicht eindeutig, so kann eine Berücksichtigung weiterer Eigenschaften ihn sehr wohl eindeutig machen.

Das wiederum heißt, dass die Gene nur ein Schlüsselsegment für den Anfangszustand dieses Lösungswegs liefern müssen, nur einen Teil des gesamten Startpunktes für die erforderlichen Prozesse, die am Ende das gewünschte Ergebnis erzielen sollen. Der Rest wird von der Zelle selbst gestellt, von ihrem aktuellen Befinden, der aktuellen Umweltsituation, auf die sie sich gerade einrichten muss. Damit kann eine viel feinere Abstimmung des Lösungsweges mit den Gegebenheiten erreicht werden.

Wer sich bereits mit Software beschäftigt, deren Prozesse so weitgehend datenanonymisiert sind, dass ihre diversen Instanzen nur über Metadaten für den Einzelfall individualisierbar sind, wird längst denselben Schluss gezogen haben:

Die Gene allein konnten unmöglich – völlig unmöglich – all die vielen Prozesse der Zelle gesteuert haben.

Denn sogar datenanonyme Prozesse sind nicht völlig beliebig zu gestalten. Sicher, hinsichtlich des jeweiligen Einzelfalls sind sie unabhängig gemacht worden durch die sie steuernden Metadaten, doch hinsichtlich dieser Metadaten – der Typ-Beschreibung der bearbeitbaren Einzelfälle – müssen sie wiederum fest verdrahtet sein. Irgendwoher muss die Identifizierbarkeit des Prozesses kommen, die die Information so zwingend fordert, denn ansonsten mag sich vieles tun im System, aber es hat nichts mehr mit Information zu tun. Um Information zu verarbeiten, muss sie nicht nur ins System integriert werden…

sie muss auch erhalten werden, egal, wie raffiniert sie das System für sich nutzt und umbaut.

Die moderne Tendenz zur Virtualisierung beweist zwar die große Freiheit, die solche metadatengesteuerten Prozesse für die Verarbeitung gleichartiger Aufgaben gewähren, doch den Überdrüber-Prozess für alle Gelegenheiten gibt es nicht. Der eine, einzige Prozess, der alle Aufgaben erfüllen kann nur über die Steuerung von Metadaten, ist nicht machbar. Wer diesen Superprozess irgendwann mal suchte, wird sich vielleicht auch an die Genetiker gehalten haben, die die Zelle zu einem solchen Superprozess erklärten. Denn genau das taten sie, indem sie die gesamte Genetik auf die DNA, den Datenspeicher, konzentrierten, die verarbeitende „Engine“ jedoch völlig außer Acht ließen. Und wer das einmal tat, sich an das Vorbild der Gene zu wenden, fand sicher auch das Beispiel von Maultier und Maulesel.

Was daran so interessant für Programmierer ist? Beide Tiere haben dieselben Eltern, Pferd und Esel, und doch sehen sie demjenigen Elternteil ähnlicher, dessen Zelle sie entstammen.

Damit können Programmierer aufhören, den Superprozess zu suchen, denn wenn es selbst Mutter Natur nicht schaffte, ihn zu finden, dann wird es ihn wohl nicht geben.

Schließlich muss Information in jeder Informationsverarbeitung bewahrt bleiben können und jede Aktion einer Informationsverarbeitung muss selbst Teil von Information sein: von identifizierbaren, wiederholbaren Prozessen, da ohne die Regelmäßigkeit eindeutiger Prozessen jede Zustandsveränderung ein anderes Ergebnis liefern kann. Das aber macht Entscheidungen geradezu lächerlich. Wenn ich vor einem Problem stehe, das ich lösen will, dann habe ich einen Bedarf, den ich befriedigt sehen möchte. Diese Befriedigung ist es ja gerade, die das Ziel jeder meiner Anstrengungen ist, mit meinem Problem fertig zu werden, und das heißt, dass nur Information mir diese Befriedigung verschaffen kann.

Nichts sonst.

Denn wenn ich eine Lösung für mein Problem kenne, weiß ich, was ich zu tun habe, um vom Problem zur Lösung zu gelangen. Kommt das Problem wieder, löse ich es mit demselben Verfahren: Wiederholbarkeit. Wenn ich Hunger habe, esse ich. Wenn Essen nicht jedes Mal wieder Hunger stillen würde, sondern einmal noch hungriger macht, einmal vergiftet und einmal durstig macht, welchen Sinn würde es dann machen, bei Hunger zu essen?

Um Gene und das Beispiel „Essen“ zu verbinden – die Gene liefern die Initialzündung „Hunger, suche etwas zu Essen“ – und die Zelle sieht sich dann um, was in der aktuellen Situation zur Verfügung steht.

Doch die Frage nach dem, was Menschen von Mäusen unterscheidet, löst auch das Proteom nicht. Zwar mag die Differenz größer als einige Prozent sein, aber das, was uns wirklich von den Nagern unterscheidet, ist das aktiv informationsverarbeitende System in unserem Körper: das Gehirn.

Zurück zum Anfang

Weitere aktuelle (und nicht mehr ganz aktuelle) Trends in Richtung „Definition der Information“

Informationstechnologie und der Untergang des Abendlandes
Virtualisierung, Automatisierung, Integration
QuBits
BPM
Performante App-Server

Zurück zum Anfang

© bussole IV 2004 (außer Zitate)

Zurück zum Blog