Zurück zum Blog

RDF
RTE
Tempolimit in neuronalen Netzen
Der Nürnberger Trichter
Die Essenz des Lernens
Cookies
BPO, RTE und Subsysteme
Nachtrag BPO...
Hannover-Messe
Topics bei JMS
ESB
Kernel, SOA, RTE, ESB
Einfach nur – Objektorientierung
Nachtrag OO
Kurzer Exkurs in die Biologie: Proteom
Informationstechnologie und der Untergang des Abendlandes
Virtualisierung, Automatisierung, Integration
QuBits
BPM
Performante App-Server

Aktuelle (und nicht mehr ganz aktuelle) Trends in Richtung „Definition der Information

RDF

„Resource Description Framework

is a universal format for data on the Web. Using a simple relational model, it allows structured and semi-structured data to be mixed, exported and shared accross different applications. RDF data describe all sorts of things“

- aus „FAQ about RDF“ (Quelle 13.09.2004)

„Resource Description Framework, as its name implies, is a framework for describing and interchanging metadata. It is built on the following rules.

1. A Resource is anything that can have a URI...

2. A Property is a Resource that has a name and can be used as a property...

3. A Statement consists of the combination of a Resource, a Property, and a value...

4. There is a straightforward method for expressing these abstract Properties...

- aus „What is RDF?“ by Tim Bray, XML.com, Copyright © 1998-2004 O'Reilly Media, Inc.“ (Quelle 13.09.2004)

==> dreiteilige Beschreibung von Objekten (Entität, Identität, Wert) + eine Regel

Physik der Information, ISBN 3-935031-03-3,
Formalismus der Information, Anforderungen der Existenz von Elementen und Veränderung, S. 127

„Das wiederum zeigt freilich, was noch interessant an der Definition der Transformation X ist: Unsere Mengenelemente müssen wohl mindestens drei Eigenschaften haben, wenn sie selbst „Eigenschaft“ sein wollen, und nur eine davon darf ihre Werte ändern...

Weil wir von allen betroffenen Elementen nur zwei feste Charakteristiken verlangen und die auch nur wegen der Identifizierbarkeit. Darüber hinaus muss nur noch das Mengenelement, das wir zur „Eigenschaft“ auserkoren haben und das deshalb in allen seinen Transformationen unveränderlich sein soll, ein weiteres Kennzeichen aufweisen, die die besagten Werte der „Eigenschaft“ annehmen kann.“

Woher die zwei „fixen“ Eigenschaften (Entität/Identität aka Resource/Property) stammen?

S. 123

„Gleich den Wänden im Casimir-Effekt, die aus dem leeren Raum eine Nullpunktsenergie herauskristallisieren können durch ihre pure Existenz, formen uns die Mengen damit die „Nullpunkts-Information“ der Positionierung. Mit der Art der Menge sind nämlich auch die beiden grundlegenden Eigenschaften ihrer Mengenelemente vorbestimmt: erstens die Klassifizierung über die Mengeneigenschaft, die die Mengenelemente als zusammengehörig kennzeichnet und zweitens die Identifizierung als Individuen über ihre Eindeutigkeit innerhalb dieser Gruppe. Die Eigenschaften liefern uns somit Hinweise, wie und was wir zu messen, zu vergleichen und zu speichern haben – ganz genau das, was das Einzige ist, auf das wir uns verlassen können.“

Zur Klarstellung: Das Tripel (Entität, Identität, Wert) entspricht in der axiomatischen Definition der Information nicht dem Mengenelement „Eigenschaft“ selbst, dessen Transformationen unter bestimmten Bedingungen die Menge bilden, die wir Information über diese Eigenschaft nennen. (Auch ein „ehemaliges Missverständnis“: Transformation ist hier nicht im üblichen funktionalen Sinn der Mathematik zu verstehen, sondern tatsächlich als Veränderung von Wertzuordnungen zu sehen.)

Das Tripel entspricht vielmehr einer Zuordnung Eigenschaft|Wert, wobei diese Zuordnung veränderlich ist, der Wert kann also getauscht werden. Dies geschieht über eine „Transformation X“, die aus einer eindeutigen Zuordnung Eigenschaft|Wert1 eine ebenso eindeutige, aber nachfolgende Zuordnung Eigenschaft|Wert2 macht – siehe Punkt 4, „straightforward method“.

Da eine Eigenschaft aber immer identifizierbar sein muss, ist zu einer realen Beschreibung dieser Eigenschaft immer das Tripel Mengen-Typ/Mengen-ID/“Eigenschaft = Platzhalter für Werte“ heranzuziehen, das aber üblicherweise als ID/“Eigenschaft“ oder auch Ressource/Eigenschaft dargestellt werden kann.

Warum die Eigenschaft als Mengenelement beschrieben wurde? Weil ein Mengenelement „messbar“ und „identifizierbar“ ist, wie im obigen Zitat beschrieben – und weil sich damit die Menge als die grundlegendste und prächtigste Abbildungssystematik jeglicher Informationsverarbeitung herausgestellt hat, nicht nur ein „abstraktes mathematisches Konstrukt“, mit dem in früheren Jahren Grundschulkindern erfolgreich Angst vor der Mathematik eingebläut wurde.

(s. auch Architektur der Realität – Information)

Zurück zum Anfang

RTE

Realtime Enterprise

- siehe EAI Forum (Quelle 13.09.2004) -

ausführlich beschrieben beispielsweise in:

1) „RTE Real-Time-orientierte IT-Archektur“, Version 1.0 Autoren: Richard Nußdorfer, CSA Consulting GmbH München; Dr. Wolfgang Martin, Wolfgang Martin Team, S.A.R.L Martin, Annecy; Juli 2003 (Quelle 13.09.2004, 356 KB)

2) im Schwerpunkt der Computerwoche 09/2004, S. 34ff

3) The Outlook, Quarterly Newsletter – June 2003, „The Wave Front “ by Edgard Capdevielle, Principal at Outlook Ventures, et al., Copyright © 2003 Outlook Ventures. All rights reserved. (Quelle 13.09.2004)

zu 1) Realtime Enterprise ist, salopp formuliert, das Bestreben, alle vorhandenen organisatorischen oder it-technischen Bearbeitungsstellen von Information zu einer Einheit zusammenzuschalten, die die eingehende Informationen rasch und zügig entgegennimmt, aufarbeitet und der zuständigen Entscheidungsstelle zuführt – die Betonung liegt dabei sowohl auf „rasch und zügig“ als auch auf „Einheit“.

Ein wesentlicher Punkt ist dabei „Ereignisorientierung“, das als Umkehrung der üblichen Bearbeitung in der IT verstanden wird, bei der die computergestützte Verarbeitung zwar gewisse Vorarbeiten leistet, freilich darauf warten muss, dass Menschen sie abarbeiten.

Ereignisorientierung bedeutet dagegen, dass sich auch die Maschine bei den Menschen melden und sie zur Mitarbeit auffordern kann, wenn das maßgebliche „Ereignis“ zuerst bei ihr auftrat.

- sozusagen die „Integration des Objektes Mensch“ in die Komponentenstruktur der Software.

So abwegig ist diese Beschreibung gar nicht: Echte Komponenten, also nicht nur Sackgassenkomponenten, sollen schließlich eigenverantwortlich handeln und für den Fortschritt der Arbeit miteinander kommunizieren: Das ist die Grundlage des Kernelkonzepts. Und es zeigt das Problem bei jeder Kernelkonstruktion – die verbindliche Roadmap zu schaffen, nach der die Komponenten zusammenarbeiten. Eben mein Projekt.

Diese Verbindung zeigen auch die Hinweise auf SOA, die als notwendige IT-Architektur für RTE beschrieben wird (s.o.: „RTE Real-Time-orientierte IT-Archektur“, S. 8)

Nebenbei: In diesem Dokument sind wieder viele Hinweise auf die „Fliege“ als Struktur von Informationsverarbeitungen enthalten, die aus der Konsequenz der Definition der Information (und aus Erfahrung) abgeleitet wurde: Die Fliege – oder – Das Handwerk der Datenbank-Programmierung (ISBN 3-935031-02-5). Es ist augenscheinlich, dass das Wissen um den Informationsfluss längst (und klar) vorhanden ist: Sensorik->Motorik, oder Beobachtung, Bewertung, Entscheidung als „sensorischer“ Teil und Entscheidung, Ausführung, Ergebnis als „motorischer“ Teil jeglicher Informationsverarbeitung. Woher die Fliegenform stammt? Aus den beiden mit den Spitzen aufeinander liegenden Dreiecken, die sich ergeben, wenn man die Masse an Verarbeitung berücksichtigt. Viele Ereignisse müssen aufgefangen, sprich beobachtet oder erfasst, werden, danach durch Bewertung soweit raffiniert, bis eine einzige Entscheidung resultiert, die dann wieder aufgefächert wird, um eine maximale Breitseite an Ergebnissen aus der Entscheidung zu erzielen.

zu 2) Die Computerwoche („Die Jetzt-Wirtschaft wartet nicht“, S. 35) definiert die Zielsetzung von RTE als die computergestützte Verkürzung der Zeitspanne zwischen dem Eingang eines Ereignisses und der notwendigen Entscheidung:

Firmen – Informationsverarbeitungen wie jede andere Lebensform auch – wollen und müssen Information verarbeiten und das in Echtzeit.

Die zwischen Erfassung und Entscheidung liegenden Zeiten einer Informationsverarbeitung werden in der Terminologie der Business Intelligence (BI) aufgelistet:

1. Data Latency

2. Analysis Latency

3. Decision Latency

Latency = Zeitverzug: Deutlicher kann es nicht mehr werden. Da Information Wirkung ist, ist Informationstransport immer Arbeit und verbraucht deshalb notwendig Zeit. Information als wiederholbare, identifizierbare Wirkung, die sich anhand ihres Anfangs- und Endzustandes und der Korrelation beider Zustande messen und abbilden lässt, muss in einer Informationsverarbeitung immer irgendwie erfasst werden - durch Sensoren geeigneter Art. Diese machen freilich nur Sinn, wenn die eingehenden Daten (Messwerte der Sensoren) auch gespeichert werden. Nun liegen jedoch nur Daten vor, also Zustände – Information ist aber mehr. Aus den Daten muss also die „eigentliche“ Information erst extrahiert werden, dies geschieht durch Vergleich mit bisherigem Wissen. Wurde die hinter den Daten steckende Gesetzmäßigkeit, sprich Information, dann ermittelt, kann unter Berücksichtigung der Firmeninteressen eine Entscheidung getroffen werden, was zu tun ist.

Data – Analysis – Decision

oder auch

Information – Evaluation – Transaction, wie es die A. Helbling Management Consulting in Dietikon beschreibt (Quelle 13.09.2004).

Wieder die „Fliege“, und zwar der sensorische Anteil (Die Fliege – oder – Das Handwerk der Datenbank-Programmierung)

Ein typisches Problem von Echtzeit-Verarbeitung spricht die Computerwoche in Artikel „Nichts geht ohne Analyse und Integration“, S. 36, an: Performance. Müssen eingehende Ereignisse sofort in die vorhandene Datenlandschaft integriert werden, kostet dies Arbeit, wenn es auch nur Computerarbeit ist.

Die Probleme, die das macht, sieht man deutlich am Gehirn. Was hat Mutter Natur hier nicht an Aufwand hineingesteckt? Die moderne IT hat nun ein Stadium erreicht, in dem die bisher „zwischengeschalteten“ Computersysteme so mächtig geworden sind, dass sie langsam zu selbständigen Partner der Menschen werden müssen und nicht nur zu ihren passiven Werkzeugen: Das ist der Casus Knaxus hinter RTE.

Und das kann bei wachsender Intelligenz wirklich zu Arbeitsmengen führen, deren schiere Masse bereits ein Problem ist. Die Biologe behalf sich hier mit vorgefertigten Default-Lösungen (Instinkten) und Default-Systematisierungen (Gefühlen), die mit Hilfe der Technik „Symbol“ (Reizsignal als Charakterisierung eines umfangreichen Zustandes durch ein typisches Einzelmerkmal) auf bestimmte häufige Grundmuster zugeschnitten sind. Dabei werden jedoch nur Ereignisse mit „Informationsvermutung“ als relevant angesehen oder anders ausgedrückt: Zufällige Ereignisse werden nicht berücksichtigt, was das Maß an zu verarbeitenden Vorgängen erheblich senkt. Das Rauschen bei Sensoren ist solch ein zufälliges Ereignis, erkennbar über fehlende Wiederholung, die als Bestätigung zur Übergabe zwischen Ultrakurz-, Kurz- und Langzeitgedächtnis notwendig wäre. Rauschen ist aber bei Computersystemen weitaus weniger ein Problem, da die Sensoren der Software nicht auf den grundlegenden physikalischen Vorgängen Licht, Ton, Druck etc. beruhen, sondern bereits auf die Problemstellung hin optimiert sind. Oder mit anderen Worten: Kommt ein Telefonanruf an, so muss nicht geprüft werden, ob das Geräusch tatsächlich vom Telefon stammt.

Bei Faxen – oder gar Emails – ist das bereits etwas anderes, denn die Spams sind, von einer Firma aus gesehen, nicht mehr als Rauschen, das eliminiert werden sollte.

zu 3) (in Englisch) Wie die Computerwoche, so spricht auch dieser Autor von den Puffern, die in Firmen überall auftreten – „delay in flow“ nennt er das so treffend.

Information muss „fließen“, wenn sie verarbeitet werden soll – es ist Wirkung, die weitergereicht wird, vom Anfangs- zum Endzustand, der wiederum Anfangszustand des nächsten Regelkreises ist.

Er bezeichnet die ideale RTE-Architektur wie folgt:

1) Sensoren: schönes Beispiel RFID

2) Workflow Support, auch BPM (Business Process Management): Unter diesem Punkt erwähnt er auch, wie die anderen Quellen, BAM (Business Activity Monitoring). BAM beaufsichtigt nicht nur Geschäftsprozesse, es kann sie auch bewerten hinsichtlich gewisser Indikatoren und deshalb ggf. Alarm schlagen. Auch Collaboration oder IM (Instant Messaging) sind RTE-Workflow-Bestandteile

3) Back-End Integration: Hier wird EAI (Enterprise Application Integration) aufgeführt, das als Koordination verschiedener Basis-Software-Anwendungen weiterhin erwähnt werden muss, weil eben häufig noch viele verschiedene, nur wenig integrierte Software-Anwendungen für die diversen Aufgaben wie Finanzbuchhaltung oder ERP benutzt werden.

4) Decision Support: Traditionelles DW (Data Warehousing) wird als nicht sonderlich nützlich für RTE eingestuft, da es konzeptionell auf den Batch-Betrieb ausgelegt ist.

5) Automation: Ist insoweit Bestandteil des RTE-Systems, weil Verzögerungen nur vermieden werden können, wenn die Software nicht auf Menschen oder Systeme warten muss. Batch-Betrieb ist deshalb zu vermeiden, menschliche Routine in Regeln abzubilden.

Hier taucht wieder der „Partnerschaftsaspekt“ von Software und Mensch auf.

Wird die obige Auflistung um den „historischen, nicht logischen“ Punkt EAI gekürzt und Punkt 5 umformuliert als „Arbeitsübernahme durch das System“, dann ist ersichtlich, dass die Arbeit selbst aus den Punkten

1) Sensoren

2) Workflow

3) Decision

besteht. Auch Input, Logic, Output (wie ich es bei meinen Metadaten nannte) oder „Information – Evaluation – Transaction“ (s.o) oder Data – Analysis – Decision oder Datenerfassung, Bewertung, Entscheidung oder These, Antithese, Synthese.

Letzteres ist gar nicht so abwegig. Das Gehirn arbeitet sicher so: Es empfängt über seine Sensoren die aus externen Ereignisquellen stammenden Wirkungen, die möglicherweise Information sind. Diese Wirkungen führen zu Wertveränderungen in den Sensoren: es sieht oder hört etwas. Die erhaltenen Messwerte sind nur reine „Daten“, es sind Zustände, die alleine sinnlos sind, also fängt das Gehirn an, diese Zustände mit seinem „Wissen“, früheren, bereits in der Erinnerung gespeicherten Zuständen und den daraus resultierenden Strukturen zu vergleichen. Ab einer gewissen Übereinstimmung wird dann die „These“ aufgestellt, es könnte sich um Vergleichbares handeln: der Zustand wird also „vor“strukturiert und kategorisiert. Diese These wird dann mit „ähnlichen“ gespeicherten Zuständen verglichen, ob ein Widerspruch (eine Antithese) auftaucht und wenn ja, inwieweit die Ähnlichkeit dann noch zu berücksichtigen ist oder ob eine Änderung der Strukturierung und Kategorisierung nötig ist. Beim Verstehen von Worten probiert das Gehirn auf diese konstruktive Art bis zu dreimal, das Muster der eingegangenen Töne mit gespeicherten Werten zu vergleichen, bis es endlich zugibt, ein Wort nicht verstanden zu haben.

Physik der Information, ISBN 3-935031-03-3,
Die Grundkonstruktion der Informationsverarbeitung: die Fliege, S. 208

„Das führt uns zu der Organisation von Informationsverarbeitung als arbeitsteilige Systeme, denn nur so lässt sich einerseits die Masse an externen Informationen, die durch die Verarbeitung geschleust werden kann, erhöhen und gleichzeitig die Machbarkeit dadurch sichern, dass die Belastung einzelner Systembestandteile in Grenzen gehalten wird: zur Fliege...

Der sensorische, auslegende Anteil ist derjenige, der Information von der Situation der Umwelt aufnimmt, aufbereitet und der Entscheidungsstelle zuführt, der motorische, ausführende Anteil ist der, der die eigenen Ressourcen aktiviert, um die Entscheidung dann auch in die Tat umzusetzen. Mit Unsicherheit muss nur der sensorische Anteil fertig werden, denn er hat die Aufgabe, aus dem Überangebot von Wertveränderungen diejenigen herauszufischen, die relevant für das eigene System sind und daraus die Informationen zu rekonstruieren. Er muss aus dem Puzzle an Werten unter Einsatz von Hypothesen die Möglichkeiten bestimmen und mithilfe des eigenen Ziels bewerten, um eine klare und eindeutige Entscheidung treffen: Er muss aus vielen Wirkungen ein Ergebnis schaffen. Der motorische Anteil seinerseits muss diese einzige Entscheidung in möglichst viel Wirkung umsetzen, um das vom sensorischen Anteil prognostizierte Resultat dann auch tatsächlich zu erreichen. Er hat dabei mit keiner Unsicherheit mehr zu kämpfen, was er benutzen kann an Ressourcen, ist durch das eigene System vollständig vorgegeben.

Sind auslegende und ausführende Teile identisch, wie es bei vielen menschlichen Organisationen der Fall ist, so reduziert sich die Fliegenform auf die bekannte Dreiecksform der Hierarchie: viele Mitarbeiter, ein paar leitende Angestellten und eine einzige Führung.“

Diese „Dreifaltigkeit“ (data-analysis-decision) stammt aus der Natur der Information: wiederholbare, identifizierbare Wirkung. Identifizierbarkeit lässt sich immer über Zustände beschreiben, Wiederholbarkeit ist eine Anordnungsvorschrift für Zustände: Aus einem bestimmten, eindeutigen Zustand folgt bei Vorliegen dieser Information immer ein ganz genauso bestimmter Endzustand. Die Wirkung, die den Anfangs- in den Endzustand überführt, muss also immer eine regelmäßige sein und lässt sich deshalb immer durch einen Formalismus, eine Regel beschreiben.

Das ist es, was Information unverzichtbar macht und die Grundvoraussetzung dafür, dass Informationsverarbeitungen überhaupt existieren können: Es schafft Vorhersehbarkeit.

Information ist deshalb das Gegenteil des Zufalls. Ein Zufall ist auch eine Wirkung, ein Ereignis, er verändert auch Werte, doch wenn er eintrifft, kann weder bestimmt werden, warum er stattfand noch was daraus wird. Woher und Wohin bleibt ungeklärt.

Ein Komet aus der Oortschen Wolke ist ein schönes Beispiel dafür, dass Zufall nichts Esoterisches ist, was nur außerhalb der Naturgesetze existieren könnte: Er folgt den Naturgesetzen, und ist dennoch kaum berechenbar – zu viele Einflüsse wirken auf ihn ein, sodass es wohl nur eine einzige „Rechenmaschine“ gibt, die all diese physikalischen Elemente korrekt berücksichtigen kann: Das Universum selbst. Für alle anderen sind es zu viele Rechengrößen, um deterministisch, sprich total vorhersehbar seine Bahn zu ermitteln.

Und deshalb ist die Bahn eines Kometen für „alle anderen“ auch keine Information. Denn nicht einmal der einzelne Zustand kann genau identifiziert werden, weil nicht alle Einflussgrößen bestimmt werden können, geschweige denn kann eine Regel aufgestellt werden, dass aus einem dieser Zustände mit 100%iger Sicherheit der nächste hergeleitet werden kann.

Deshalb können wir hier auf der Erde uns zwar im Nachhinein ausmalen, woher der Komet kam, weil wir dann die „wesentlichen“ Einflussgrößen – im Nachhinein – ausmachen und damit auf alle anderen Einflussgrößen verzichten können. Im Voraus aber, das, was die Information so kostbar macht, können wir und werden wir niemals sagen können, wann uns ein Komet treffen wird, den wir nicht wenigstens schon gesehen haben. Dazu dürfte allein die Oortschen Wolke schlicht zu groß sein.

Zurück zu Informationsverarbeitungen:

Weil Informationsverarbeitungen nur Information gebrauchen können, drückt sich die Natur der Information auch immer auf die Struktur der Informationsverarbeitung auf. Denn nur dann, wenn Informationsverarbeitung selbst Information produzieren, macht ihre Mühe überhaupt Sinn.

Wieso? Stichwort Fehler: Wenn aus einem klaren Zustand, einer klaren „Vorgabe“ immer etwas anderes als Arbeitsergebnis herauskommt, ist das im besten Fall Schlamperei, in keinem Fall jedoch nützlich. Aus den gleichen Vorgaben muss auch in einer Informationsverarbeitung immer dasselbe Ergebnis erwartet werden können, damit sich die Arbeit lohnt. Warum sollte ich mir Essen zubereiten, wenn ich nicht vertrauen könnte darauf, dass es genießbar ist? Warum sollte ich jeden Morgen ins Büro fahren, wenn ich nicht vertrauen könnte darauf, dass am Monatsende mein Gehalt eintrifft? Warum sollte ich Arbeitnehmer einstellen und mein schönes Geld hergeben, wenn ich nicht vertrauen könnte darauf, dass sie mir Kunden zuführen oder halten, die mir ihr schönes Geld dann geben? Jede Un-Regelmäßigkeit ist da störend.

Jede Nicht-Information.

Deshalb ist die Natur der Information (Anfangszustand-Regel-Endzustand) auch immer in Informationsverarbeitungen wieder zu finden, ganz fraktal, in allen Ebenen.

Zurück zum Anfang

Tempolimit in neuronalen Netzen

Aus „Gibt es ein Tempolimit für das Denken?“, Max-Planck-Gesellschaft, Presseinformation, B 11 / C 11 /2004 (32), 08. März 2004, ISSN 0170-4656, über die Originalveröffentlichung von Marc Timme, Fred Wolf, Theo Geisel, „Topological Speed Limits to Network Synchronization“, Physical Review Letters 92: 074101, 20 February 2004 (Quelle 13.09.2004):

„Dieses Tempolimit wird durch die komplizierte Verschaltungs-Struktur des Netzwerkes festgelegt und würde nicht auftreten, wenn jedes Neuron mit jeder anderen Nervenzelle in dem Netzwerk verbunden wäre. Diese Grenze für die Synchronisationsgeschwindigkeit beruht darauf, dass sogar dann, wenn nur ein einziges Neuron vom vollständig synchronen Verhalten des neuronalen Netzes abweicht, diese Information über das gesamte Netzwerk transportiert werden muss, bevor es wieder zu einer vollständigen Synchronisation kommt.“

==> die „Fliege“: Objekte versus System, „Omnipotenz“ versus Effizienz. Die Verschachtelung ist langsamer und wird offensichtlich doch bevorzugt:

Die Fliege oder das Handwerk der Datenbank-Programmierung, ISBN 3-935031-02-5
Systeme und Objekte, S. 22

„Objekte sind also in punkto Akzeptanz den Systemen mit mehr als einem Objekt überlegen. Und doch existieren in der Natur Strukturen, also Steuerzentralen und Vorschriften, wie Beziehungen zu verlaufen haben, anstatt der hohen Akzeptanz ungerichteter, frei miteinander kommunizierbarer Elemente. Gerade das Gehirn, dessen Hauptaufgabe die Auslegung der Informationen ist, die die Umwelt ihnen liefert, ist sehr hoch strukturiert, obwohl doch seine Aufgabe darin besteht, soviel als mögliche Input-Ereignisse zu erfassen und zu interpretieren...

Systeme müssen also auch in bestimmten Punkten den Objekten überlegen sein.

Objekte haben ungerichtete Beziehungen, jeder mit jedem, und in der Dreiecksform der Auslegung eine hohe Akzeptanz von Input-Ereignisse, da bis auf ein einziges Element nur Eingangs-Schnittstellen vorliegen.

Was haben nun Systeme Objekten voraus? Sie geben die “Omnipotenz” der vollständigen Kommunikation auf, die hohe Akzeptanz, und was bekommen sie dafür? Zur Beantwortung der Frage formulieren wir sie doch einfach mal um: hohe Kommunikation und hohe Akzeptanz verlangen auch etwas: Beziehungen müssen ausgeführt werden, Kommunikation erfordert Aufwand, die Akzeptanz als Entgegennahme äußerer Wertveränderungen muss weitergeleitet werden – Arbeit, es erfordert Arbeit.“

Nicht nur hier liegt die Verbindung zur Definition der Information vor, denn auch „Grenzgeschwindigkeit“ erinnert uns an etwas, nicht wahr? Sie erinnert an die Lichtgeschwindigkeit, die eine Grenzgeschwindigkeit für Wirkung ist. So deuten also sowohl die Verschachtelung im Netzwerk – via Arbeit und Arbeitsteilung – als auch die Grenzgeschwindigkeit darauf hin, dass das, was hier „transportiert“ wird, Wirkung im physikalischen Sinn sein muss.

Die Tatsache der „Synchronisation“ ist deshalb besonders aufschlussreich. Es genügt nicht, einfach einen Zustand/Wert irgendwo hin zu bringen, er muss „synchron“ bleiben, um Information zu gewährleisten. Information steckt nun mal nicht in den Zuständen, sie ist die Wirkung, die die Zustände erzeugt. Deshalb ist es unerlässlich für den Transport der Information, dass die Zusammenhänge, die Relationen zwischen den Zuständen bewahrt bleiben. Würden Neuronen direkt miteinander in Verbindung stehen wie in der einfachen Objektstruktur, wäre keine Synchronisation erforderlich, weil über den Allkontakt die gegenseitige Abstimmung von vorne herein gegeben ist: Die Kontakte des einen Neurons stellen schließlich „das gesamte Netzwerk“ dar. (EPR fällt mir da spontan ein, das Gedankenexperiment von Einstein, Podolsky und Rosen, das auch die „Grenzgeschwindigkeit“ überwindet.)

Arbeitsteilung erhöht demnach zwar die Masse an Information, die transportiert werden kann, die Abstimmungsprozesse zur Bewahrung der Information können aber nicht beliebig schnell durchgeführt werden. (Hier fällt mir spontan die Unterscheidbarkeit der Information ein, die Vergleiche erst sinnvoll macht – und das Wirkungsquant.)

Aus „Gibt es ein Tempolimit für das Denken?“:

„Das bedeutet also, dass Hirn-Areale, in denen ein schneller Informationsaustausch essentiell ist, hochgradig vernetzt sein müssen, um ihre Funktion adäquat erfüllen zu können."

Physik der Information, ISBN 3-935031-03-3,
Information lässt sich nicht speichern, S. 98

„Gehirne sind generell ein sehr vernetztes System: Erinnert dies nicht fast an Flüssigkeiten?“

Wirkung ist dynamisch und Information ist wiederholbare Wirkung. Der Vergleich mit stehenden Wellen ist deshalb ein hübsches Bild, um die ständig gleichen Zustände und vor allem, die Bedeutung ihrer Relationen zu verdeutlichen – den inneren Zusammenhang zwischen all diesen Zuständen.

Und es ist ein altbekannter Vergleich: Die Atomphysik redet schon lange nicht mehr vom Atom als dem letzten Unzerstörbaren, sondern vielmehr vom Welle-Teilchen-Dualismus: Für alles Stabile gibt es eine „Fokussierungsebene“, ab der es sich einfach in Wohlgefallen auflöst.

Übrigens: Im obigen Text wird der Physiker Eugene Wigner erwähnt, auf dessen Arbeiten das vorgestellte Ergebnis zurückzuführen ist. Derselbe Eugene Wigner, der 1960 einen Artikel in „Communications on Pure and Applied Mathematics“, 13/1960, S. 1-14 mit dem hochinteressanten Titel „The unreasonable effectiveness of mathematics in the natural sciences“ veröffentlichte und damit zeigte, dass nicht nur ich mich angesichts der Voraussetzungen der Mengenmathematik wunderte, wieso sie so oft funktioniert.

Nun ja, das ist mit Information sehr nahe liegend geworden.

Zurück zum Anfang

Der Nürnberger Trichter

Bis heute scheinen viele Menschen zu denken, dass „Denken“ vom Himmel fällt, dass Verstehen blitzartig vonstatten geht und dass es deshalb irgendwo diesen berühmten Nürnberger Trichter geben muss, mit dem sich Wissen transplantieren lässt – per Zaubertrank, per Operation, per Genen.

Die kognitiven Erkenntnisse freilich deuten viel mehr auf das hin, was Wissen ist – gespeicherte Arbeit.

Aus „Cognitive Support Features for Software Development Tools“, DISSERTATION, submitted in partial satisfaction of the requirements for the degree of DOCTOR OF PHILOSOPHY in Information and Computer Science by Jason Elliot Robbins, UNIVERSITY OF CALIFORNIA, IRVINE, 1999 (Quelle 13.09.2004, Zip-Version 501 KB):

Theories of Designers' Cognitive Needs, Reflection-In-Action

„The cognitive theory of reflection-in-action (Schoen 1983, 1992) observes that designers of complex systems do not conceive a design fully-formed. Instead, they must construct a partial design, evaluate, reflect on, and revise it, until they are ready to extend it further... (Guindon, Krasner, and Curtis, 1987) Calling it ‚serendipitous design,’ they noted that as the developers worked hands-on with the design, their mental model of the problem situation improved, hence improving their design.“

Das Modell im Kopf muss erst „erbaut“ werden, es kann nicht einfach „in die Neuronen gestempelt“ werden – und es muss „synchron“ gehalten werden. Das Modell ist nämlich nichts weiter als ein „Rangierbahnhof“ und es muss deshalb ständig überprüft werden, ob die im Modell vorhandene „Reiserouten“ auch tatsächlich mit den erwünschten übereinstimmen.

Physik der Information, ISBN 3-935031-03-3,
Information lässt sich nicht speichern, S. 97

„Genau dasselbe geschieht, wenn Sie ein Problem analysieren. Sie suchen die Unterscheidbarkeiten, bilden ein Muster und vergleichen Sie mit Ihren Erinnerungen. Wenn Sie es ‚verstehen’, identifizieren Sie die Hauptrollen und ihre Aktionsmöglichkeiten. Damit können Sie dann nachvollziehen, warum etwas geschehen musste, wie es geschah – und vor allem, was unter bestimmten Voraussetzungen zukünftig geschehen wird. Um etwas zu verstehen, müssen Sie es im Kopf abbilden und die möglichen Aktionen erfassen. Um das Verständnis zu nutzen, zum Beispiel für Erklärungen oder für Vorhersagen, müssen Sie darüber hinaus immer die Zeit aufbringen, die Aktionen wenigstens im eigenen Kopf durchzuspielen.“

Aus „Cognitive Support Features for Software Development Tools“, by Jason Elliot Robbins:

Theories of Designers' Cognitive Needs, Reflection-In-Action

„One interesting related effect is ‚the tyranny of the blank page’ (Boucher, 1995). Authors (who are a type of designer) often find it hard to start from nothing. Starting from a partially specified design (e.g., a rough outline) is much easier, even if much of this initial template is changed in the course of design. This may be because it is easier to make design decisions in some context of decision.“

Diese Erfahrung, dass ein „PackAn“ die halbe Miete ist, wird auch in der ML-Methode verwendet, deren rein strukturelle Lösungen zwar nicht entscheiden können, ob hier tatsächlich auch die inhaltlich optimale Lösung gefunden wurde, die aber durch die einfache Tatsache des Angebots von Objekten und ihren Beziehungen die Möglichkeit zur „Kritik“ gibt:

Die Fliege oder das Handwerk der Datenbank-Programmierung, ISBN 3-935031-02-5
Die Lösung S. 98

„Damit haben wir die Objektliste und ihre öffentlichen Methoden und Variablen bestimmt. Sicher, das ist erst der Anfang, doch ein Anfang, der Rahmen steckt und Übersicht verschafft.“

Begriffsfindung, Übernahme in das Tool, S. 58

„Klingt das ein wenig unüberlegt? Nein, es beugt sich nur der Erfahrung, dass zuviel des Guten immer schlecht ist. Probleme müssen mit Sachverstand gelöst werden, aber es ist viel leichter, vor einem klaren Problem die richtige Entscheidung zu treffen, als vor einem großen Chaos.

Genau diese Einsicht werde ich auf diesem Weg nämlich verwerten:

zuerst wird eine Lösung erstellt, die bekanntermaßen noch nicht optimal ist, die aber dennoch klar mit dem Problem verbunden ist und die den Vorteil hat, verbesserbar zu sein, bis sie allen Ansprüchen genügt.

Zu sagen, was falsch ist, fällt unendlich viel leichter, als festzustellen, was richtig ist – oder geht Ihnen das anders?

So arbeiten schließlich alle Menschen, die aus einem ersten, ungeordneten Szenario eine Lösung herausfiltern, über Annäherung, Beurteilung, Verbesserung und Beurteilung.“

Doch nicht nur diese „bildhauerhafte“ Kreation eines Modells weist die Richtung auf „gespeicherte Arbeit“.

Aus „Cognitive Support Features for Software Development Tools“, by Jason Elliot Robbins:

Theories of Designers' Cognitive Needs, Opportunistic Design

„(Hayes-Roth and Hayes-Roth, 1979; Guindon, Krasner, and Curtis, 1987; Visser, 1990) The cognitive theory of opportunistic design explains that although designers plan and describe their work in an ordered, hierarchical fashion, in actuality, they choose successive tasks based on the criteria of cognitive cost. Simply stated, designers do not follow even their own plans in order, but choose steps that are mentally least expensive among alternatives.“

Simply stated – auch Menschen folgen dem Prinzip der geringsten Wirkung. Sie weichen aus, wenn sie weitere Arbeit in die erforderliche Lösung stecken müssen und suchen sich bevorzugt Lösungswege, die sie schon kennen.

„If they lack knowledge about how to structure a solution or proceed with a particular task, they are likely to delay this task. Accessibility of information may also cause a deviation in planned order. If designers must search for information needed to complete a task, that task might be deferred.“

Dass Informationsverarbeitung immer Arbeit ist, wird sicher auch niemand bezweifeln – warum also die „Ursache“ von Arbeit in Frage stellen? Warum bezweifeln, dass es tatsächlich (physikalisch) Information und ihr „Transport“ ist, die diese (physikalische) Arbeit erfordern? Wo nicht nur fehlende Information Arbeit erfordert, sie zu beschaffen, sondern auch vorhandene Information Arbeit erspart?

„On the other hand, opportunistic switching can occur when one task brings to mind the information needed for another task.“

Kleine Nebenbemerkung:

Aus „Cognitive Support Features for Software Development Tools“, by Jason Elliot Robbins:

Theories of Designers' Cognitive Needs, Limited Short-Term Memory

„Another aspect found in virtually all models of human memory is short-term memory (STM). Miller (1965) first proposed that STM has a capacity of seven plus or minus two items“.

Diese Vermutung wird bis heute vielfach verwendet, beispielsweise bei den Tipps zum Aufbau von Präsentationsfolien

Die Fliege oder das Handwerk der Datenbank-Programmierung, ISBN 3-935031-02-5,
Die Zeichen der Zahlen, S. 33,35

„Damit sind wir imstande, uns für jede Gesamtzahl unseres Systems zu einer Struktur zu entschließen, bei der wir vermuten können, dass sie die geringste Last unserer armen Arbeitsbienen “Objekte” bei größter Akzeptanz von äußeren Signalen liefert.“

„Nun können wir unsere Zonen fortführen. Bisher hatten wir ihre Grenzen wie folgt aufgestellt:

Unter-Objekt-Bereich: 1 < n <= 2

Objekt-Bereich: 3 < n < = 7

2-Objekt-Bereich: 7 < n < 13

3-7 Objekte: 13 =< n <= 43“

Der Gedanke ist schon interessant, dass das Kurzzeitgedächtnis nur „Elementarsysteme“ parkt.

Zurück zum Anfang

Die Essenz des Lernens

Aus „Cognitive Support Features for Software Development Tools“, DISSERTATION, submitted in partial satisfaction of the requirements for the degree of DOCTOR OF PHILOSOPHY in Information and Computer Science by Jason Elliot Robbins, UNIVERSITY OF CALIFORNIA, IRVINE, 1999 (Quelle 13.09.2004, Zip-Version 501 KB):

Introduction, Research Method

„A good research method should be repeatable...

One of the contributions of this dissertation is a description of the relevant theories in a way that could allow more people to repeat the method.“

Der Kontext weist uns hier darauf hin, dass es sich wohl nicht um die Ergebnisse handelt, die wiederholbar sein müssen, sondern um die Methode selbst.

Und tja, das ist ein Problem bei allem, was mit „intelligentem Verhalten“ zu tun hat, weil Information dessen Voraussetzung ist – und wer nicht weiß, was Information ist, kann nicht wissen, was Intelligenz ist oder Wissen, zumindest nicht exakt. Du musst dich dann an „Schriftgelehrte“ halten, an überkommenes Wissen, an Best Practices, die sich im Lauf der Zeit als bewährt herausstellten, kannst aber nicht wie bei Naturwissenschaften einfach „sauber herleiten“.

Nun sind Methoden alias Automatismen nichts weiter als Handlungsschablonen, „Theaterspiele“ sozusagen nach einem vorgefertigten Skript, und je genauer du dein „Theaterstück“ kennst, umso genauer kannst du erklären, wer wann was machen soll...

Eine gute Methode ist ein „Programm“, nichts weiter – deshalb die Wiederholbarkeit. Und deshalb auch die Möglichkeit, überhaupt vernünftig Software zu machen, denn Software setzt methodisches Vorgehen in Automatismus um.

Nun ja, wer kennt freilich (außer ML) tatsächlich eine research method, die programmiert wurde?

Theories of Designers' Cognitive Needs, Opportunistic Design:

„Software process research has focused on developing process notations and enactment tools that help ensure repeatable execution of prescribed processes. However, in their focus on repeatable processes, process tools have tended to be restrictive in their enforcement of process steps.“

Hier kommt das Problem der „Schriftgelehrtenwissenschaft“ zutage: Aus Methode wird Ritual, aus praktischer Erfahrung wird Überzeugung ohne Wissen. Wo Methode noch offen und lernbereit ist, aus Fehlschlägen auf Veränderungsnotwendigkeit zu schließen, neigt das Ritual viel zu gerne dazu, in fanatischem Eifer alles nach dem einmal Gelernten auszurichten – notfalls mit Gewalt.

Nun ist Gewalt zwar zumeist siegreich, wie die menschliche Geschichte der letzten zehntausend Jahre beweist, sie ist nur leider „nicht intelligent“ im Sinne von „verwendeter Information“ – deshalb sind ihre „Prognosen“ auch nur Zufallstreffer. Gewalt richtet sich immer nur nach „differentiellen Kräfteverhältnissen“, nie nach „integralen“, soll heißen, Gewalt folgt einfach dem Maximum irgendeines Trendes, den sie bevorzugt und unterstützt ihn durch die eigenen Ressourcen. Und weil sie nicht „Gewalt“ wäre, wenn sie nicht stark genug wäre, gegen andere Kräfte zu obsiegen, setzt sie ihren Weg zumeist auch durch.

Sie ist nur leider nicht imstande (oder willens), zusätzliche Bedingungen (Informationen) zu berücksichtigen. Deshalb beherrschen sie schließlich auch die niedrigsten Rassen.

Gewalt folgt dem Maximum, Intelligenz dem Optimum – je mehr Information du verarbeitest, umso besser werden deine Prognosen (Bertrands Paradox), umso intelligenter verhältst du dich. Und um Informationen zu verarbeiten, musst du sie aufnehmen, du musst „sensibel“ (aufnahmefähig) werden, du musst beobachten, abwägen, querchecken, deine Handlungen fein justieren auf die aktuelle Situation und auf die höchst verschiedenen Ergebnisse, die sich daraus erzielen lassen.

Solche „sensiblen“ Handlungen und „Gewalt“ schließen sich zumeist aus – nicht, weil Intelligenz menschenfreundlich ist, sondern weil Gewalt den Einsatz starker Kräfte bedeutet – und diese hat in dem vielfältigen Wirkungsgefüge der Realität zumeist schlicht und einfach so viel Auswirkung, dass sie kaum mehr vorhersehbar ist. Es ist (schlicht und einfach) intelligenter, in kleinen Schritten voranzugehen, deren Ergebnisse berechenbar bleiben, als in einem einzigen großen, bei dem viel zuviel Fehlerquellen zusammengewürfelt werden, deren „Teamwork“ dann noch undurchsichtiger werden mag.

(In memoriam Karl Schneiderbanger, einem der großartigsten Mathematiklehrer aller Zeiten: „Numme nid huddle, ehr buuwe: immer ään Schritt noch’m annere, schunnschd iwwersehd ehr noch was“.)

Lange Rede, kurzer Sinn?

Wer die Hintergründe von Methoden nicht beherrscht, neigt zur Ritualisierung, zur Überwertung der Form gegenüber dem Inhalt, zu „gewalttätigem“ Vorgehen in der Hinsicht, dass nicht alle Informationen aus der aktuellen Situation berücksichtigt werden - weil aufgrund des fehlenden Wissens (Hintergrund der Methode) kein Auswahlmechanismus zur Verfügung steht, mit dem die Unendlichkeit von Zuständen und Ereignissen einer Realität auf ein machbares Pensum herabgedrückt werden könnte: In einer solchen Situation, in der dann nur das „Ritual“ als solches bekannt ist (somit die „einzige“ Information darstellt und somit die einzige Überlebensgarantie dieser Informationsverarbeitung im Augenblick ist), wird dieses Ritual denn auch mit Zähnen und Klauen verteidigt.

Ob es passt oder nicht.

Wer will es denn entscheiden (ob es nicht passt), wenn du nicht weißt, woher das Ritual stammt und was die Ursachen waren, warum es sich „früher irgendwann mal“ als nützlich erwies?

Usage Scenario, Scene 3: Answering Questions that Arise During Design:

„Once the designer completes the design excursion to satisfactorily answer the second question, he or she must return to the original question of multiplicity. Argo/UML's "instant replay" feature helps the designer recover from the design excursion by rapidly repeating the sequence of recently highlighted rows. This tells the designer how much progress was made on the first scan of the table and where to pick up again.“

Hier wird wieder der Punkt „reflection-in-action“ angesprochen: Um zu „analysieren“ muss das menschliche Gehirn das Modell im Kopf parat haben, um zu verstehen, muss es „nachvollziehen“ können. Wenn es jedoch einmal steht, dann genügt oft ein kurzer Teilausschnitt, um das „Muster“ wieder zu erkennen.

Repeating, repeatable...

Ohne Wiederholung kein Lernen:

Repetitio est mater studiorum
Das Wiederholen ist die Mutter der Studien

Die Wiederholbarkeit ist das herausstechendste Element der Information und seit wohl Jahrtausenden verstanden: Sie ist die Mutter des Determinismus, sozusagen, der behauptet, die ganze Welt damit erklären zu können.

Weniger offensichtlich scheint die Identifizierbarkeit zu sein, auch wenn Symbole, die genau das tun (Identifizierbarkeit verwenden), seit 40.000 Jahren nachgewiesen sind - also sicher sogar noch weitaus länger benutzt werden, zumindest wohl solange, wie Schmuck in den Hinterlassenschaften der Menschen gefunden wurde (wenn wir mal davon ausgehen, dass Schmuck ein typisches „Eigentümer“-Objekt ist).

Gar nicht offensichtlich freilich ist heutzutage, dass Information immer Wirkung ist, also immer Veränderung, und dass diese wunderbare Wiederholbarkeit damit ihrer Natur nach zuallererst dynamisch ist, dass dieser prächtige, heiß geliebte Aspekt von Sicherheit und Stabilität nur „nachgeordnet“ ist.

Die Essenz des Lernens ist deshalb nicht nur die Wiederholbarkeit und Identifizierbarkeit der Information – wäre sie es, hätte Mutter Natur bei der Wissensspeicherung der DNA bleiben können, denn irgendwann wäre wohl der Zeitpunkt gekommen, wo alles, was lernbar ist, von einer Rasse bereits erlernt worden wäre...

Die Essenz des Lernens ist deshalb die Akzeptanz der Natur der Information als Wirkung – nur wenn diese wiederholbar und identifizierbar ist, ist sie Information.

Der Unterschied zu den beiden Ansichten? Die Einschränkung...

wie bei der Gewalt, nicht wahr?

Die Berücksichtigung von Bedingungen nennt man Intelligenz, die Durchsetzung ohne Berücksichtigung von Bedingungen Gewalt.

Dass Lernen erfolgreich ist und dass Mutter Natur den allergrößten Aufwand in dasjenige Organ der Biologie gesteckt hat, das lernfähig ist, beweist eigentlich schon ohne weitere Argumentation, dass diese „nur wenn“-Bedingung wohl weitaus bedeutender ist, als sie gemeinhin gewünscht wird.

Denn Information ist wiederholbare Wirkung und das heißt nichts weiter, als dass aus einem Anfangszustand immer derselbe Endzustand folgt.

Immer...

ist freilich zeitliche Unendlichkeit und damit letztendlich nicht realisierbar. Und somit immer nur eine Vermutung aus dem bisherigen Wissen heraus.

Wissen kann deshalb nicht nur falsch sein, es ist definitiv immer falsch und zwar mindestens im Sinne von Unvollständigkeit.

IKI: Infinity kills information
Unendlichkeit ist zu groß für Information

(Untertitel von „Die Individualität liegt in den Daten)

Und genau deshalb ist Lernen so bedeutsam, dass Mutter Natur das Gehirn der Menschen so riesig machte, dass es ein gesundheitliches Problem für die Rasse wurde (via Geburt und Unreife der Säuglinge) – und dennoch der Rasse mehr nützte als schadete.

Weil Information zwar identifizierbare und wiederholbare Wirkung ist und sich deshalb über Zustände und ihre Relationen „wissen“ lässt, weil sie jedoch niemals „sicher“ ist, weil niemals garantiert wird, dass diese „gewusste“ Wirkung, die im Gedächtnis als „gleich bleibend“ eingestuft wurde, nicht plötzlich aufhört, dieselben Resultate zu liefern.

Wie der Golfstrom, der vielleicht bald erlischt – und deshalb den Frühling nicht wiederbringt - und deshalb diese „Urselbstverständlichkeit“ (im Frühling wird’s wieder warm) beenden kann.

Wenn dies geschieht, wird das menschliche Gehirn, das bisher lernte „düstere Umweltprognosen verändern die Umwelt nicht“, genauso schnell kapieren, dass es etwas Falsches lernte.

Es wird sich dann neu orientieren: an den neuen „Urselbstverständlichkeiten“, die dann auftauchen werden, an den neuen Zuständen und neuen Relationen.

Weil es, das menschliche Gehirn, die fleischgewordene Essenz des Lernens ist.

Zurück zum Anfang

Weitere aktuelle (und nicht mehr ganz aktuelle) Trends in Richtung „Definition der Information“

Cookies
BPO, RTE und Subsysteme
Nachtrag BPO...
Hannover-Messe (incl. Definition der Information)
Topics bei JMS
ESB
Kernel, SOA, RTE, ESB
Einfach nur – Objektorientierung
Nachtrag OO
Kurzer Exkurs in die Biologie: Proteom
Informationstechnologie und der Untergang des Abendlandes
Virtualisierung, Automatisierung, Integration
QuBits
BPM
Performante App-Server

Zurück zum Anfang

© bussole IV 2004 (außer Zitate)

Zurück zum Blog