Logik Und Information

Inhaltsverzeichnis:

Logik Und Information
Logik Und Information

Video: Logik Und Information

Video: Logik Und Information
Video: Boolean Logic & Logic Gates: Crash Course Computer Science #3 2023, Juni
Anonim

Eintragsnavigation

  • Eintragsinhalt
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Freunde PDF Vorschau
  • Autor und Zitierinfo
  • Zurück nach oben

Logik und Information

Erstveröffentlichung Montag, 3. Februar 2014; inhaltliche Überarbeitung Mi 30. Mai 2018

Logik ist im Grunde das Studium der Konsequenz, und Information ist eine Ware. Vor diesem Hintergrund wird sich die Wechselbeziehung zwischen Logik und Information auf die informativen Konsequenzen logischer Handlungen oder Operationen konzentrieren, die allgemein konzipiert sind. Die explizite Einbeziehung des Begriffs Information als Gegenstand logischer Studien ist eine neuere Entwicklung. Zu Beginn des heutigen Jahrhunderts verschmolz eine beträchtliche Anzahl bestehender technischer und philosophischer Arbeiten (mit Vorläufern, die bis in die 1930er Jahre zurückverfolgt werden können) in das neu entstehende Feld der Logik und Information (siehe Dunn 2001). Dieser Eintrag ist eher thematisch als chronologisch organisiert. Wir untersuchen wichtige logische Ansätze für das Studium von Informationen sowie das Informationsverständnis der Logik selbst. Wir gehen über drei miteinander verbundene und komplementäre Positionen vor:Information als Bereich, Information als Korrelation und Information als Code.

Die Kernintuition, die die Haltung von Information als Bereich motiviert, besteht darin, dass ein Informationszustand durch die Reihe von Möglichkeiten oder Konfigurationen charakterisiert werden kann, die mit den in diesem Zustand verfügbaren Informationen kompatibel sind. Das Erfassen neuer Informationen entspricht einer Verringerung dieses Bereichs, wodurch die Unsicherheit über die tatsächliche Konfiguration der Angelegenheiten verringert wird. Mit diesem Verständnis erweist sich die Einstellung der Semantik möglicher Welten für epistemische Modallogiken als lohnend für das Studium verschiedener semantischer Aspekte von Informationen. Ein prominentes Phänomen ist hier die Informationsaktualisierung, die sowohl im individuellen als auch im sozialen Umfeld aufgrund der Interaktion zwischen beiden Agenten und ihrer Umgebung über verschiedene Arten von epistemischen Aktionen auftreten kann. Wir werden sehen, dass eine epistemische Handlung jede Handlung ist, die den Informationsfluss erleichtert. Daher werden wir selbst zu epistemischen Handlungen zurückkehren.

Die Information-als-Korrelation-Haltung konzentriert sich auf den Informationsfluss, da er in strukturierten Systemen lizenziert ist, die aus systematisch korrelierten Komponenten bestehen. Zum Beispiel: Die Anzahl der Ringe eines Baumstamms kann Ihnen Informationen über den Zeitpunkt der Geburt des Baumes geben, und zwar aufgrund bestimmter Regelmäßigkeiten der Natur, die die Vergangenheit und Gegenwart von Bäumen „verbinden“. Zentrale Themen dieser Haltung sind die Überlegenheit, Lage und Zugänglichkeit von Informationen in strukturierten Informationsumgebungen.

Das Hauptanliegen der dritten Haltung, Information als Code, ist die syntaxähnliche Struktur von Informationsteilen (deren Codierung) und die Inferenz- und Berechnungsprozesse, die (unter anderem) aufgrund dieser Struktur lizenziert sind. Eine sehr natürliche logische Umgebung, um diese Informationsaspekte zu untersuchen, ist die algebraische Beweistheorie, die von einer Reihe von Substrukturlogiken gestützt wird. Substrukturlogiken waren schon immer ein natürliches Zuhause für Informationsanalysen, und die jüngsten Entwicklungen in diesem Bereich bereichern die Haltung von Informationen als Code.

Die drei Standpunkte sind keineswegs unvereinbar, aber auch nicht notwendigerweise auf einander reduzierbar. Dies wird später im Eintrag erweitert, und einige weitere Forschungsthemen werden veranschaulicht. Um jedoch eine Vorschau darauf zu erhalten, wie die drei Standpunkte zusammenleben können, wird ein strukturiertes Informationssystem verwendet, das aus mehreren Teilen besteht. Erstens ermöglichen die Korrelationen zwischen den Teilen natürlich einen "Informationsfluss" im Sinne der Information als Korrelationshaltung. Zweitens ergeben sich auch lokale Möglichkeiten, da die an einem Teil verfügbaren lokalen Informationen mit einer bestimmten Reihe globaler Zustände des Systems kompatibel sind. Drittens können die kombinatorischen, syntaxartigen, beweistheoretischen Aspekte von Informationen auf verschiedene Weise in diese Umgebung gebracht werden. Eine davon ist die Behandlung des korrelativen Informationsflusses als eine Art kombinatorisches System, durch das lokale Informationszustände auf syntaktische Weise kombiniert werden, um einer bestimmten Interpretation der Substrukturlogik zu entsprechen. Man könnte der Modellierung auch explizit eine codeähnliche Struktur hinzufügen, indem man beispielsweise den Komponenten oder lokalen Zuständen des Systems lokale deduktive Kalküle zuweist. Wir beginnen jedoch mit Informationen als Bereich

  • 1. Informationen als Bereich

    • 1.1 Erkenntnistheoretische Logik
    • 1.2 Dynamische epistemische Logik, Informationsänderung
    • 1.3 Quantitative Ansätze
  • 2. Information als Korrelation: Situationstheorie

    • 2.1 Situationen und Hintergrundinformationen
    • 2.2 Informationsfluss und Einschränkungen
    • 2.3 Verteilte Informationssysteme und Kanaltheorie
  • 3. Informationen als Code

    • 3.1 Kategoriale Informationstheorie
    • 3.2 Substrukturlogik und Informationsfluss
    • 3.3 Verwandte Ansätze
  • 4. Verbindungen zwischen den Ansätzen

    • 4.1 Bereiche und Korrelationen
    • 4.2 Code und Korrelationen
    • 4.3 Code und Bereiche
  • 5. Spezielle Themen

    • 5.1 Informationsstrukturen und Äquivalenz
    • 5.2 Negative Informationen
  • 6. Fazit
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Andere Internetquellen
  • Verwandte Einträge

1. Informationen als Bereich

Das Verständnis von Information als Bereich hat seinen Ursprung in Bar-Hillel und Carnaps Theorie der semantischen Information, Bar-Hillel und Carnap (1952). Hier wird das Prinzip des inversen Bereichs zum ersten Mal in Bezug auf den Informationsgehalt eines Satzes artikuliert. Das Prinzip des umgekehrten Bereichs besagt, dass es eine umgekehrte Beziehung zwischen den in einem Satz enthaltenen Informationen einerseits und der Wahrscheinlichkeit gibt, dass dieser Satz andererseits wahr ist. Das heißt, je mehr Informationen von einem Satz getragen werden, desto weniger wahrscheinlich ist es, dass der Satz wahr ist. Je wahrscheinlicher die Wahrheit eines Satzes ist, desto weniger Informationen enthält er.

Die Wahrscheinlichkeit der Wahrheit eines Satzes verbindet sich mit Informationen als Reichweite über eine mögliche Weltsemantik. Für jeden möglichen Satz wird er durch einige Möglichkeiten unterstützt (diejenigen, bei denen er wahr ist) und nicht von anderen (diejenigen, bei denen er falsch ist). Daher wird ein Vorschlag durch eine Reihe von Möglichkeiten unterstützt, einen „Informationsbereich“. Nehmen wir nun an, dass es eine Wahrscheinlichkeitsverteilung über den Raum der Möglichkeiten gibt, und nehmen wir der Einfachheit halber an, dass die Verteilung gleichmäßig ist. In diesem Fall ist die Wahrheit des Satzes umso wahrscheinlicher, je mehr Welten einen Satz unterstützen, und desto weniger Informationen enthält er über das Prinzip der umgekehrten Beziehung. Obwohl Information als Bereich ihren Ursprung in der quantitativen Informationstheorie hat, kann ihre Rolle in der zeitgenössischen qualitativen Logik von Informationen nicht überbewertet werden.

Betrachten Sie das folgende Beispiel von Johan van Benthem (2011). Ein Kellner in einem Café erhält eine Bestellung für Ihren Tisch - einen Espresso und ein Soda. Als der Kellner an Ihrem Tisch ankommt, fragt er: "Für wen ist das Soda?". Nachdem Sie ihm gesagt haben, dass das Soda für Sie ist und er Ihnen Ihr Soda gibt, muss der Kellner nicht nach dem Espresso fragen, er kann ihn einfach Ihrem Café-Partner geben. Dies liegt daran, dass die Informationen, die der Kellner von Ihnen erhalten hat, wenn Sie ihm mitteilen, dass Sie das Soda bestellt haben, es ihm ermöglichen, bestimmte offene Möglichkeiten aus dem gesamten Spektrum der Möglichkeiten auszuschließen, sodass nur noch eine übrig bleibt - Ihr Freund hat den Espresso bestellt.

Die Logik der Informationen unterscheidet regelmäßig zwischen harten und weichen Informationen. Die Terminologie ist eine leichte Fehlbezeichnung, da diese Unterscheidung nicht zwischen verschiedenen Arten von Informationen an sich besteht. Vielmehr handelt es sich um eine zwischen verschiedenen Arten der Informationsspeicherung. Harte Informationen sind sachlich und nicht zu empfehlen. Harte Informationen werden oft als dem Wissen entsprechend angesehen. Im Gegensatz zu harten Informationen sind weiche Informationen nicht unbedingt sachlich und können daher bei Vorhandensein neuer Informationen überprüft werden. Weiche Informationen entsprechen aufgrund ihrer Überprüfbarkeit sehr stark dem Glauben. Die Begriffe Wissen und Glauben sind konventionell, aber im Kontext des Informationsflusses ist das Lesen von harten / weichen Informationen praktisch, da die Informationsphänomene in den Vordergrund gerückt werden. Zumindest wird die Terminologie immer beliebter, daher ist es wichtig, klar zu unterscheiden, ob zwischen Arten der Informationsspeicherung und Arten von Informationen unterschieden wird. Obwohl sowohl harte als auch weiche Informationen für unseren epistemischen und doxastischen Erfolg wichtig sind, konzentrieren wir uns in diesem Abschnitt hauptsächlich auf die Logik des harten Informationsflusses.

In Abschnitt 1.1 werden wir sehen, wie es ist, dass klassische epistemische Logiken den Fluss harter Informationen innerhalb der Informationen als Bereichsrahmen veranschaulichen. In Abschnitt 1.2 werden wir unsere Darstellung von der Logik des harten Informationsgewinns auf die Logik der Aktionen ausweiten, die den Gewinn solcher harten Informationen ermöglichen, dynamische epistemische Logik. Am Ende von Abschnitt 1.2 werden wir das wichtige Phänomen der privaten Information erläutern, bevor wir untersuchen, wie diese Information als Bereich in verschiedenen quantitativen Rahmenbedingungen erfasst wird.

1.1 Erkenntnistheoretische Logik

In diesem Abschnitt werden wir untersuchen, wie es ist, dass die Beseitigung von Möglichkeiten, die dem Informationsgewinn entsprechen, der Ausgangspunkt für die Erforschung der Logik des Wissens und des Glaubens ist, die unter die Überschrift der epistemischen Logik fallen. Wir werden mit der klassischen epistemischen Logik für einzelne Agenten beginnen, bevor wir die epistemische Logik für mehrere Agenten untersuchen. In beiden Fällen werden die gewonnenen Informationen harte Informationen sein, da wir uns auf die Logik des Wissens im Gegensatz zur Logik des Glaubens konzentrieren werden.

Betrachten Sie das Beispiel des Kellners genauer. Bevor Sie die harte Information erhalten, dass das Soda für Sie ist (und für das Beispiel nehmen wir an, dass das Warten hier mit harten Informationen zu tun hat), wird die Wissensbasis des Kellners durch ein Paar Welten modelliert (im Folgenden: Informationszustände). (x) und (y) so, dass Sie in (x) das Soda und Ihren Freund den Espresso und in (y) den Espresso und Ihren Freund das Soda bestellt haben. Nachdem Sie die harte Information erhalten haben, dass das Soda für Sie bestimmt ist, wird (y) aus der Wissensdatenbank des Kellners entfernt, sodass nur (x) übrig bleibt. Insofern entspricht die Reduzierung des Möglichkeitenbereichs einem Informationsgewinn für den Kellner. Betrachten Sie die Wahrheitsbedingung für Agent (alpha) weiß, dass (phi), geschrieben (K _ { alpha} phi):

) tag {1} x \ Vdash K _ { alpha} phi \ text {iff für alle} y \ text {st (so dass)} R _ { alpha} xy, y \ Vdash \ phi)

Die Zugänglichkeitsrelation (R _ { alpha}) ist eine Äquivalenzbeziehung, die (x) mit allen Informationszuständen (y) verbindet, so dass (y) nicht von (x) zu unterscheiden ist, wenn (Die harten Informationen von \ alpha) in diesem Zustand (x). Das heißt, wenn man bedenkt, was der Kellner weiß, wenn er sich in diesem Zustand befindet. Wenn also (x) der Informationsstatus des Kellners war, bevor Sie darüber informiert wurden, dass Sie das Soda bestellt haben, hätte (y) die Informationen enthalten, die Sie für den Espresso bestellt haben, da jede Option bis zum Kellner so gut war wie die andere wurde anders informiert. Es gibt eine implizite Annahme bei der Arbeit - dass ein Zustand (z), in dem Sie sowohl das Soda als auch den Espresso bestellt haben, nicht im Informationsbereich des Kellners liegt. Das heißt, der Kellner weiß, dass (z) keine Möglichkeit ist. Einmal informiert, jedochDie Informationszustände, die Ihre Bestellung des Espressos unterstützen, werden aus dem Informationsbereich entfernt, der dem Wissen des Kellners entspricht.

Die grundlegende Modallogik erweitert Aussagenformeln um Modaloperatoren wie (K _ { alpha}). Wenn (mathbf {K}) die Menge aller Kripke-Modelle ist, haben wir Folgendes:

) begin {align} tag {A1} & \ mathbf {K} Vdash K _ { alpha} phi \ wedge K _ { alpha} (phi \ rightarrow \ psi) rightarrow K _ { alpha} psi \\ \ tag {A2} & \ mathbf {K} Vdash \ phi \ Rightarrow \ mathbf {K} Vdash K _ { alpha} phi \ end {align})

In Bezug auf harte Informationen besagt (A1), dass harte Informationen unter (bekannten) Implikationen geschlossen sind. Da die erste Konjunktion besagt, dass alle Zustände, auf die (alpha) zugreifen kann, (phi) Zustände sind, besitzt (alpha) die harte Information, dass (phi), also (alpha) besitzt auch die harte Information, dass (psi). (A2) besagt, dass, wenn (phi) in der Menge aller Modelle enthalten ist, (alpha) die harte Information besitzt, dass (phi). Mit anderen Worten, (A2) besagt, dass alle Tautologien vom Agenten bekannt / hart gespeichert sind, und (A1) besagt, dass (alpha) die logischen Konsequenzen aller Sätze kennt, die (alpha) kennt (seien sie) Tautologien oder auf andere Weise). Das heißt, die Axiome besagen, dass der Agent logisch allwissend oder ein idealer Denker ist, eine Eigenschaft von Agenten, auf die wir in den folgenden Abschnitten ausführlich zurückkommen werden. [1]

Der bisher untersuchte Rahmen betrifft die epistemische Logik eines einzelnen Agenten, aber Argumentation und Informationsfluss sind sehr oft Angelegenheiten mehrerer Agenten. Betrachten Sie noch einmal das Beispiel des Kellners. Wichtig ist, dass der Kellner aufgrund Ihrer Ankündigung an ihn in Bezug auf den Espresso nur das entsprechende Argumentationsverfahren ausführen kann, das einer Einschränkung des Bereichs der Informationszustände entspricht. Das heißt, es ist die verbale Interaktion zwischen mehreren Agenten, die den Informationsfluss erleichtert, der das logische Denken ermöglichte.

An diesem Punkt wirft die epistemische Logik mehrerer Agenten neue Fragen bezüglich der Informationen in einer Gruppe auf. "Jeder in (G) besitzt die harte Information, dass (phi)" (wobei (G) eine beliebige Gruppe von Agenten aus einer endlichen Menge von Agenten (G *) ist) geschrieben als (E_G \ phi. E_G) wird für jedes (G \ subseteq G ^ *) folgendermaßen definiert:

) tag {2} E_G \ phi = \ bigwedge _ { alpha \ in G} K _ { alpha} phi)

Gruppenwissen unterscheidet sich wesentlich von allgemeinem Wissen (Lewis 1969; Fagin et al. 1995). Allgemeines Wissen ist der Zustand der Gruppe, in dem jeder weiß, dass jeder weiß, dass jeder weiß … dass (phi). Mit anderen Worten, allgemein bekannt betrifft die harten Informationen, die jeder Agent in der Gruppe über die harten Informationen besitzt, die die anderen Mitglieder der Gruppe besitzen. Dass jeder in (G) die harte Information besitzt, dass (phi) nicht bedeutet, dass (phi) allgemein bekannt ist. Mit Gruppenwissen kann jeder Agent in der Gruppe die gleichen harten Informationen besitzen (wodurch Gruppenwissen erreicht wird), ohne notwendigerweise harte Informationen über die harten Informationen zu besitzen, die die anderen Agenten in der Gruppe besitzen. Wie von van Ditmarsh, van der Hoek und Kooi (2008: 30) festgestellt,"Die Anzahl der Iterationen des Operators (E) - macht in der Praxis einen echten Unterschied." (C_G \ phi) - das allgemeine Wissen, dass (phi) für Mitglieder von (G) wie folgt definiert ist:

) tag {3} C_G \ phi = \ bigwedge_ {n = 0} ^ { infty} E ^ n_G \ phi)

Um den Unterschied zwischen (E) und (C) zu erkennen, betrachten Sie das folgende „Spionagebeispiel“(ursprünglich Barwise 1988 mit den Umschlagdetails von Johan van Benthem).

Es gibt eine Gruppe konkurrierender Spione bei einem formellen Abendessen. Alle haben die Aufgabe, geheime Informationen aus dem Restaurant zu beschaffen. Darüber hinaus ist es allgemein bekannt, dass sie die Informationen wollen. Vergleichen Sie vor diesem Hintergrund Folgendes:

  • Jeder Spion weiß, dass sich die Informationen in einem Umschlag auf einem der anderen Tische befinden, aber er weiß nicht, dass die anderen Spione dies wissen (dh es ist nicht allgemein bekannt).
  • Unter den Spionen ist allgemein bekannt, dass sich die Informationen im Umschlag befinden.

Ganz offensichtlich werden die beiden Szenarien bei den Spionen sehr unterschiedliche Verhaltensweisen hervorrufen. Das erste wäre relativ subtil, das letztere dramatisch weniger. Siehe Vanderschraaf und Sillari (2009) für weitere Details.

Eine noch feinkörnigere Verwendung von S5-basierten epistemischen Logiken ist die von Zhou (2016). Zhou zeigt, dass S5-basierte epistemische Logik verwendet werden kann, um die epistemischen Zustände des Agenten aus der Perspektive des Agenten selbst zu modellieren. Daher bezeichnet Zhou eine solche epistemische Logik als intern epistemisch. Zhou verwendet dann eine mehrwertige Logik, um die Beziehung zwischen der internen Wissensbasis des Agenten und seiner externen Informationsumgebung zu modellieren.

1.2 Dynamische epistemische Logik, Informationsänderung

Siehe den vollständigen Eintrag zu Dynamic Epistemic Logic. Wie oben erwähnt, handelt das Kellnerbeispiel vom Anfang dieses Abschnitts sowohl vom Informationsgewinn über Ankündigungen, epistemischen Aktionen als auch von Informationsstrukturen. In diesem Abschnitt werden wir skizzieren, wie es ist, dass die Ausdruckskraft der epistemischen Logik mit mehreren Agenten erweitert werden kann, um epistemische Aktionen zu erfassen.

Ein harter Informationsfluss, dh der Informationsfluss zwischen den Wissenszuständen von zwei oder mehr Agenten, kann durch mehr als eine epistemische Aktion erleichtert werden. Zwei kanonische Beispiele sind Ankündigungen und Beobachtungen. Wenn „Ankündigung“auf echte und öffentliche Ankündigung beschränkt ist, ähnelt das Ergebnis auf der Wissensbasis des empfangenden Agenten dem einer Beobachtung (unter der Annahme, dass der Agent den Inhalt der Ankündigung glaubt). Die öffentliche Ankündigung, dass (phi) das Modell der Wissensbasis des Agenten auf die Informationszustände beschränkt, in denen (phi) wahr ist, daher ist "Ansage (phi)" ein epistemischer Zustandstransformator in das Gefühl, dass es die epistemischen Zustände der Agenten in der Gruppe transformiert (siehe van Ditmarsh, van der Hoek und Kooi 2008: 74). [2]

Dynamische epistemische Logiken erweitern die Sprache nicht dynamischer epistemischer Logiken um dynamische Operatoren. Insbesondere erweitert die öffentliche Ankündigungslogik (PAL) die Sprache der epistemischen Logik um den dynamischen Ankündigungsoperator) (phi)], wobei) (phi] psi) "nach der Ankündigung " (phi) gelesen wird) ist es der Fall, dass (psi)”. Die wichtigsten Reduktionsaxiome von PAL lauten wie folgt:

) begin {alignat} {2} tag {RA1} &) phi] p & \ text {iff} & \ phi \ rightarrow p \ text {(wobei (p) atomar ist)} \ \ Tag {RA2} &) phi] neg \ psi & \ text {iff} & \ phi \ rightarrow \ neg) phi] psi \\ \ tag {RA3} &) phi] (psi \ wedge \ chi) & \ text {iff} &) phi] psi \ wedge) phi] chi \\ \ tag {RA4} &) phi]) psi] chi & \ text {iff} &) phi \ wedge) phi] psi] chi \\ \ tag {RA5} &) phi] K _ { alpha} psi & \ text {iff} & \ phi \ rightarrow K _ { alpha} (phi \ rightarrow) phi] psi) end {alignat})

RA1 - RA5 erfassen die Eigenschaften des Ansageoperators, indem sie das, was vor der Ansage wahr ist, mit dem verbinden, was nach der Ansage wahr ist. Die Axiome werden als "Reduktions" -Axiome bezeichnet, da die Richtung von links nach rechts entweder die Anzahl der Ansageoperatoren oder die Komplexität der Formeln in ihrem Geltungsbereich verringert. Für eine eingehende Diskussion siehe Pacuit (2011). RA1 gibt an, dass Ankündigungen wahr sind. RA5 gibt die epistemisch-zustandstransformierenden Eigenschaften des Ansageoperators an. Es besagt, dass (alpha) weiß, dass (psi) nach der Ankündigung, dass (phi) iff (phi) impliziert, dass (alpha) weiß, dass (psi) wird wahr sein, nachdem (phi) in allen (phi) - Zuständen angekündigt wurde. Die Bedingung "nachdem (phi) angekündigt wurde" ist da, um die Tatsache zu berücksichtigen, dass (psi) seinen Wahrheitswert nach der Ankündigung ändern könnte. Die Interaktion zwischen dem dynamischen Ansageoperator und dem Wissensoperator wird vollständig von RA5 beschrieben (siehe van Benthem, van Eijck und Kooi 2006).

So wie das Hinzufügen des Common-Knowledge-Operators (C) zur epistemischen Logik für mehrere Agenten die Ausdrucksmöglichkeiten der epistemischen Logik für mehrere Agenten erweitert, führt das Hinzufügen von (C) zu PAL zu einer aussagekräftigeren öffentlichen Ankündigungslogik mit allgemeinem Wissen. PAC). Die genaue Beziehung zwischen öffentlichen Ankündigungen und allgemeinem Wissen wird durch die Ankündigungs- und allgemeine Wissensregel des logischen PAC wie folgt erfasst:

) tag {4} text {From} chi \ rightarrow) phi] psi \ text {und} (chi \ wedge \ phi) rightarrow E_G \ chi, \ text {infer} chi \ rightarrow) phi] C_G \ psi.)

Auch hier ist PAC die dynamische Logik harter Informationen. Die epistemische Logik, die sich mit weichen Informationen befasst, fällt in den Bereich der Glaubensrevisionstheorie (van Benthem 2004; Segerberg 1998). Denken Sie daran, dass harte und weiche Informationen an sich keine unterschiedlichen Arten von Informationen sind, sondern unterschiedliche Arten der Informationsspeicherung. Fest gespeicherte Informationen können nicht angezeigt werden, während weich gespeicherte Informationen überprüft werden können. PAL-Varianten, die weiche Informationen modellieren, ergänzen ihre Modelle um Plausibilitätsreihenfolgen für Informationszustände (Baltag und Smets 2008). Diese Ordnungen sind in der nicht-monotonen Logik und der Glaubensrevisionstheorie als Präferenzmodelle bekannt. Die Logik kann dynamisch gemacht werden, da sich die Reihenfolge angesichts neuer Informationen ändert (was das Zeichen für weiche Informationen im Gegensatz zu harten Informationen ist). Solche Plausibilitätsordnungen können qualitativ über Teilordnungen usw. oder quantitativ über Wahrscheinlichkeitsmaße modelliert werden. Solche quantitativen Maßnahmen stellen eine Verbindung zu einer breiteren Familie quantitativer Ansätze für semantische Informationen her, die wir im Folgenden untersuchen werden. Neuere Arbeiten von Allo (2017) verknüpfen die weichen Informationen der dynamischen epistemischen Logik mit nicht monotonen Logiken. Dies ist eine intuitive Bewegung. Weiche Informationen sind Informationen, die auf revidierbare Weise gespeichert wurden. Daher macht die revidierbare Natur von Schlussfolgerungen in nicht monotonen Argumenten nicht monotone Logiken zu einer natürlichen Passform. Zu diesem Thema siehe auch Kapitel 13.7 von van Benthem (2011). Solche quantitativen Maßnahmen stellen eine Verbindung zu einer breiteren Familie quantitativer Ansätze für semantische Informationen her, die wir im Folgenden untersuchen werden. Neuere Arbeiten von Allo (2017) verknüpfen die weichen Informationen der dynamischen epistemischen Logik mit nicht monotonen Logiken. Dies ist eine intuitive Bewegung. Weiche Informationen sind Informationen, die auf revidierbare Weise gespeichert wurden. Daher macht die revidierbare Natur von Schlussfolgerungen in nicht monotonen Argumenten nicht monotone Logiken zu einer natürlichen Passform. Zu diesem Thema siehe auch Kapitel 13.7 von van Benthem (2011). Solche quantitativen Maßnahmen stellen eine Verbindung zu einer breiteren Familie quantitativer Ansätze für semantische Informationen her, die wir im Folgenden untersuchen werden. Neuere Arbeiten von Allo (2017) verknüpfen die weichen Informationen der dynamischen epistemischen Logik mit nicht monotonen Logiken. Dies ist eine intuitive Bewegung. Weiche Informationen sind Informationen, die auf revidierbare Weise gespeichert wurden. Daher macht die revidierbare Natur von Schlussfolgerungen in nicht monotonen Argumenten nicht monotone Logiken zu einer natürlichen Passform. Zu diesem Thema siehe auch Kapitel 13.7 von van Benthem (2011). Daher macht die Wiederholbarkeit von Schlussfolgerungen in nicht-monotonen Argumenten nicht-monotone Logik zu einer natürlichen Übereinstimmung. Zu diesem Thema siehe auch Kapitel 13.7 von van Benthem (2011). Daher macht die Wiederholbarkeit von Schlussfolgerungen in nicht-monotonen Argumenten nicht-monotone Logik zu einer natürlichen Übereinstimmung. Zu diesem Thema siehe auch Kapitel 13.7 von van Benthem (2011).

Private Informationen. Private Informationen sind ein ebenso wichtiger Aspekt unserer sozialen Interaktion. Stellen Sie sich Szenarien vor, in denen der Ansager die private Kommunikation kennt, andere Mitglieder der Gruppe jedoch nicht, z. B. E-Mails in Bcc. Betrachten Sie auch Szenarien, in denen der sendende Agent die private Kommunikation nicht kennt, z. B. eine Überwachungsoperation. Das System der dynamischen epistemischen Logik (DEL) modelliert Ereignisse, die private (und öffentliche) Informationen aktivieren, indem es die Informationen der Agenten zu den Ereignissen modelliert, die in einem bestimmten Kommunikationsszenario stattfinden (siehe Baltag et al. 2008; van Ditmarsh et al. 2008); und Pacuit 2011). Für einen hervorragenden Überblick und die Integration aller oben genannten Themen siehe die jüngste Arbeit von van Benthem (2016), in der der Autor mehrere miteinander verbundene Ebenen der logischen Dynamik, eine Ebene der Aktualisierung, diskutiert.und eine andere der Darstellung. Für eine umfangreiche Sammlung von Artikeln, die diesen und verwandte Ansätze erweitern, siehe Baltag und Smets (2014)

Der modale informationstheoretische Ansatz für den Informationsfluss mit mehreren Agenten ist Gegenstand umfangreicher Forschungsarbeiten. Die Semantik wird nicht immer in relationalen Begriffen ausgeführt (dh mit Kripke Frames), sondern häufig algebraisch (Einzelheiten zum algebraischen Ansatz der Modallogik siehe Blackburn et al. 2001). Weitere Einzelheiten zu algebraischen und typentheoretischen Ansätzen finden Sie im Unterabschnitt über algebraische und andere Ansätze zur modalen Informationstheorie im ergänzenden Dokument Abstrakte Ansätze zur Informationsstruktur.

1.3 Quantitative Ansätze

Quantitative Ansätze zur Information als Bereich haben auch ihren Ursprung im Prinzip der umgekehrten Beziehung. Um es noch einmal zu betonen: Die Motivation ist, dass je weniger wahrscheinlich die Wahrheit eines Satzes in einer logischen Sprache in Bezug auf einen bestimmten Bereich ausgedrückt wird, desto mehr Informationen durch die relevante Formel codiert werden. Dies steht im Gegensatz zu den Informationsmaßen in der mathematischen Kommunikationstheorie (Shannon 1953 [1950]), bei denen solche Maße über eine umgekehrte Beziehung auf die Erwartung des Empfängers (R) des Empfangs eines Signals von einer Quelle erhalten werden (S).

Ein weiterer wichtiger Aspekt der klassischen Informationstheorie ist, dass es sich um eine vollständig statische Theorie handelt, die sich mit dem Informationsgehalt und dem Maß bestimmter Formeln befasst und in keiner Weise mit dem Informationsfluss.

Die formalen Details der klassischen Informationstheorie aktivieren die Wahrscheinlichkeitsrechnung. Diese Details können hier beiseite gelassen werden, da der offensichtliche konzeptionelle Punkt darin besteht, dass logische Wahrheiten eine Wahrheitswahrscheinlichkeit von 1 und daher ein Informationsmaß von 0 haben. Bar-Hillel und Carnap haben dies nicht als logische Wahrheiten oder Ableitungen verstanden waren ohne Informationsausbeute, nur dass ihre Theorie der semantischen Information nicht darauf ausgelegt war, eine solche Eigenschaft zu erfassen. Sie prägten den Begriff psychologische Information für das betreffende Eigentum. Siehe Floridi (2013) für weitere Details.

Ein quantitativer Versuch, die Informationsausbeute von Abzügen zu spezifizieren, wurde von Jaakko Hintikka mit seiner Theorie der Oberflächeninformation und Tiefeninformation unternommen (Hintikka 1970, 1973). Die Theorie der Oberflächen- und Tiefeninformation erweitert die Theorie der semantischen Information von Bar-Hillel und Carnap vom monadischen Prädikatenkalkül bis zum vollständigen polyadischen Prädikatenkalkül. Dies selbst ist eine beachtliche Leistung, aber obwohl technisch erstaunlich, besteht eine ernsthafte Einschränkung dieses Ansatzes darin, dass nur ein Fragment der Abzüge, die innerhalb der vollständigen Logik erster Ordnung durchgeführt werden, ein Informationsmaß ungleich Null ergibt. Der Rest der Abzüge im vollständigen polyadischen Prädikatenkalkül sowie alle im monadischen Prädikatenkalkül und im Satzkalkül messen 0 (siehe Sequoiah-Grayson 2008).

Die offensichtliche umgekehrte Situation mit der Theorie der klassischen semantischen Information ist, dass logische Widersprüche mit einer Wahrheitswahrscheinlichkeit von 0 ein maximales Informationsmaß von 1 liefern. In der Literatur am häufigsten als semantisches Bar-Hillel-Carnap-Paradox bezeichnet Der entwickelte quantitative Ansatz zur Bewältigung dieses Problems ist die Theorie stark semantischer Informationen (Floridi 2004). Die konzeptionelle Motivation für stark semantische Informationen besteht darin, dass eine Aussage, die Informationen liefert, uns helfen muss, die Menge möglicher Welten einzugrenzen. Das heißt, es muss uns sozusagen bei der Suche nach der tatsächlichen Welt helfen (Sequoiah-Grayson 2007). Eine solche Kontingenzanforderung an die Informativität wird sowohl durch logische Wahrheiten als auch durch logische Widersprüche verletzt, die beide 0 für die Theorie stark semantischer Informationen messen. Siehe Floridi (2013) für weitere Details. Siehe auch Brady (2016) für aktuelle Arbeiten zum Zusammenhang zwischen quantitativen Informationsberichten und Analytizität. Für einen neuen Ansatz zur Verknüpfung quantitativer und qualitativer Informationsmaße siehe Harrison-Trainor et al. (2018)

2. Information als Korrelation: Situationstheorie

Die korrelative Übernahme von Informationen untersucht, wie das Vorhandensein systematischer Verbindungen zwischen den Teilen einer strukturierten Informationsumgebung es ermöglicht, dass ein Teil Informationen über einen anderen enthält. Beispiel: Das Pixelmuster, das auf dem Bildschirm eines Computers angezeigt wird, enthält Informationen (nicht unbedingt vollständig) über die Tastenfolge, die von der Person gedrückt wurde, die ein Dokument eingibt, und sogar eine teilweise Momentaufnahme des klaren Sternenhimmels Ein Freund, der sich gerade umschaut, wird Ihnen Informationen über seine möglichen Standorte auf der Erde in diesem Moment geben. Der Fokus auf strukturierte Umgebungen und die Überlegenheit von Informationen geht Hand in Hand mit einem dritten Hauptthema des Informations-als-Korrelations-Ansatzes, nämlich der Lage von Informationen, d. H.seine Abhängigkeit von der bestimmten Einstellung, auf der ein Informationssignal auftritt. Nehmen Sie noch einmal den Sternenhimmel als Beispiel: Das gleiche Muster von Sternen zu unterschiedlichen Zeitpunkten und Orten im Raum vermittelt im Allgemeinen unterschiedliche Informationen über den Standort Ihres Freundes.

Historisch gesehen war Shannons Kommunikationsarbeit (1948) die erste paradigmatische Einstellung korrelierter Informationen, die wir bereits im letzten Abschnitt erwähnt haben. Shannon betrachtete ein Kommunikationssystem, das aus zwei Informationsstellen besteht, einer Quelle und einem Empfänger, die über einen verrauschten Kanal verbunden sind. Er gab schlüssige und äußerst nützliche Antworten auf Fragen im Zusammenhang mit der Erstellung von Kommunikationscodes, die dazu beitragen, die Effektivität der Kommunikation (in Bezug auf die zu übertragenden Informationen) zu maximieren und gleichzeitig die Möglichkeit von Fehlern durch Kanalrauschen zu minimieren. Wie wir bereits sagten, war Shannons Besorgnis rein quantitativ. Die logische Herangehensweise an Information als Korrelation baut auf Shannons Ideen auf, befasst sich jedoch mit qualitativen Aspekten des Informationsflusses, wie wir sie zuvor hervorgehoben haben:Welche Informationen über eine "entfernte" Site (räumlich, zeitlich, perspektivisch usw. entfernt) können aus Informationen gewonnen werden, die direkt an einer "proximalen" Site verfügbar sind?

Die Situationstheorie (Barwise und Perry 1983; Devlin 1991) ist bislang der wichtigste logische Rahmen, der diese Ideen zu ihrem Ausgangspunkt für eine Analyse von Informationen gemacht hat. Sein Ursprung und einige seiner zentralen Einsichten liegen im von Fred Dretske (1981) initiierten Projekt der Einbürgerung des Geistes und der Möglichkeit des Wissens, das bald den Beginn der Situationssemantik im Kontext der natürlichen Sprache beeinflusste (siehe Kratzer 2011)..

Technisch gesehen gibt es in der Situationstheorie zwei Arten von Entwicklungen:

  1. Set-theoretische und modelltheoretische Frameworks basierend auf detaillierten Ontologien, geeignet zur Modellierung von Informationsphänomenen in konkreten Anwendungen.
  2. Eine mathematische Theorie des Informationsflusses, die durch rechtmäßige Kanäle ermöglicht wird, die Teile eines Ganzen verbinden. Diese Theorie betrachtet Informationen abstrakter als Korrelation, die (im Prinzip) auf alle Arten von Systemen anwendbar ist, die in miteinander verbundene Teile zerlegt werden können.

Die nächsten drei Unterabschnitte geben einen Überblick über einige der Grundbegriffe dieser Tradition: die grundlegenden Informationsorte in der Situationstheorie (sogenannte Situationen), den Grundbegriff des Informationsflusses auf der Grundlage von Korrelationen zwischen Situationen und die mathematische Theorie der Klassifikationen und Kanäle, die in (b).

2.1 Situationen und Hintergrundinformationen

Die Ontologien in (a) umfassen ein breites Spektrum von Entitäten. Sie sollen eine bestimmte Art und Weise widerspiegeln, wie ein Agent ein System zerlegen kann. Hier kann „ein System“die Welt oder ein Teil oder ein Aspekt davon sein, während der Agent (oder die Art des Agenten) eine Tierart, ein Gerät, ein Theoretiker usw. sein kann. Die Liste der grundlegenden Entitäten umfasst Individuen, Beziehungen (die mit Rollen verbunden sind), zeitliche und räumliche Orte und verschiedene andere Dinge. Unter ihnen unterscheiden sich die Situationen und Infons.

Grob gesagt sind Situationen stark strukturierte Teile eines Systems, wie z. B. eine Unterrichtsstunde, eine Szene aus einer bestimmten Perspektive, ein Krieg usw. Situationen sind die grundlegenden Unterstützer von Informationen. Infons sind andererseits die Informationsprobleme, die Situationen möglicherweise unterstützen oder nicht. Die einfachste Art von Informationsproblem ist, ob einige Entitäten (a_1, \ ldots, a_n) in einer Beziehung (R) stehen (oder nicht stehen), wenn sie die Rollen (r_1, \ ldots, r_n) spielen. beziehungsweise. Ein solches Grundinfon wird üblicherweise als bezeichnet

) llangle R, r_1: a_1, \ ldots, r_n: a_n, i \ rrangle.)

Dabei ist (i) 1 oder 0, je nachdem, ob das Problem positiv oder negativ ist.

Infons sind keine intrinsischen Träger der Wahrheit, und sie sind auch keine Ansprüche. Es handelt sich lediglich um Informationsprobleme, die durch bestimmte Situationen unterstützt werden können oder nicht. Wir werden (s \ models \ sigma) schreiben, um zu bedeuten, dass die Situation (s) das Infon (sigma) unterstützt. Zum Beispiel ist eine erfolgreiche Transaktion, bei der Mary ein Stück Käse auf dem lokalen Markt gekauft hat, eine Situation, die das Infon unterstützt

) sigma = \ llangle gekauft, was: Käse, wer: Mary, 1 \ rrangle.)

Diese Situation unterstützt das Infon nicht

) llangle gekauft, was: Käse, wer: Mary, 0 \ rrangle)

weil Mary Käse gekauft hat. Die Situation unterstützt das Infon auch nicht

) llangle gelandet, wer: Armstrong, wo: Moon, 1 \ rrangle,)

weil Armstrong überhaupt nicht Teil der fraglichen Situation ist.

Die Diskriminierung oder Individualisierung einer Situation durch einen Agenten bedeutet nicht, dass der Agent vollständige Informationen darüber hat: Wenn wir uns fragen, ob der lokale Markt offen ist, haben wir eine Situation individualisiert, über die uns tatsächlich einige Informationen fehlen. Siehe Textor (2012) für eine detaillierte Diskussion über die Natur situationsähnlicher Entitäten und ihre Beziehung zu anderen ontologischen Kategorien wie den möglichen Welten, die in der Modallogik verwendet werden.

Neben Individuen, Beziehungen, Orten, Situationen und grundlegenden Informationen gibt es normalerweise verschiedene Arten von parametrischen und abstrakten Entitäten. Zum Beispiel gibt es einen Mechanismus der Typabstraktion. Wenn (y) ein Parameter für Situationen ist, dann

[T_y = [y \ mid y \ models \ llangle gekauft, was: Käse, wer: x, 1 \ rrangle])

ist die Art von Situationen, in denen jemand Käse kauft. Es wird einige Grundtypen in einer Ontologie geben und viele andere Typen, die durch Abstraktion erhalten werden, wie gerade beschrieben.

Die Sammlung von Ontologie-Entitäten enthält auch Vorschläge und Einschränkungen. Sie sind der Schlüssel zur Formulierung der Grundprinzipien des Informationsgehalts in der Situationstheorie, die als nächstes eingeführt werden sollen.

2.2 Informationsfluss und Einschränkungen

Das Folgende sind typische Aussagen zum „Informationsfluss“, wie sie in der Situationstheorie untersucht wurden:

  • [ E1] Die Tatsache, dass sich der Punkt auf dem Radarschirm nach oben bewegt, zeigt an, dass sich Flug A123 nach Norden bewegt.
  • [ E2] Das Vorhandensein von Fußabdrücken des Musters (P) in Zhucheng weist darauf hin, dass ein Dinosaurier vor Millionen von Jahren in der Region lebte.

Das allgemeine Schema hat die Form

[IC] Das (s: T) zeigt an, dass (p)

Dabei ist (s: T) die Notation für "(s) ist vom Typ (T)". Die Idee ist, dass es konkrete Teile der Welt sind, die als Informationsträger fungieren (der konkrete Punkt im Radar oder die Fußabdrücke in Zhucheng), und dass sie dies tun, weil sie von einem bestimmten Typ sind (der Punkt bewegt sich nach oben oder unten) die Fußabdrücke zeigen ein bestimmtes Muster). Was jede dieser konkreten Instanzen anzeigt, ist eine Tatsache über einen anderen korrelierten Teil der Welt. Für die unten zu diskutierenden Fragen wird es ausreichen, Fälle zu betrachten, in denen die angegebene Tatsache- (p) in der Formulierung von [IC] die Form (s ': T') hat, wie im Radarbeispiel.

Die Bedingungen, die erforderlich sind, um Informationssignale im Sinne von) (mathbf {IC})] zu verifizieren, beruhen auf der Existenz gesetzlicher Einschränkungen wie Naturgesetzen, notwendigen Gesetzen wie denen der Mathematik oder Konventionen, dank derer (teilweise) eine Situation kann als Informationsträger über eine andere Situation dienen. Einschränkungen geben die Korrelationen an, die zwischen Situationen verschiedener Typen im folgenden Sinne bestehen: Wenn zwei Typen (T) und (T ') der Einschränkung (T \ Rightarrow T') unterliegen, dann für jeden Situation (s) vom Typ (T) Es gibt eine relevant verbundene Situation (s ') vom Typ (T'). Im Radarbeispiel würde die relevante Korrelation durch die Einschränkung GoingUpward (Rightarrow) GoingNorth erfasst. Dies besagt, dass jede Situation, in der sich ein Radarpunkt nach oben bewegt, mit einer anderen Situation verbunden ist, in der sich ein Flugzeug nach Norden bewegt. Es ist die Existenz dieser Einschränkung, die eine bestimmte Situation ermöglicht, in der sich der Punkt bewegt, um etwas über die Situation der verbundenen Ebene anzuzeigen.

Vor diesem Hintergrund kann das Verifizierungsprinzip für die Informationssignalisierung in der Situationstheorie wie folgt formuliert werden:

[IS-Überprüfung] (s: T) gibt an, dass (s ': T'), wenn (T \ Rightarrow T ') und (s) relevant mit (s') verbunden sind.

Die Beziehung (Rightarrow) ist transitiv. Dies stellt sicher, dass das Xerox-Prinzip von Dretske in diesem Konto der Informationsübertragung gilt, dh es kann kein Verlust semantischer Informationen durch Informationsübertragungsketten auftreten.

[Xerox-Prinzip]: Wenn (s_1: T_1) anzeigt, dass (s_2: T_2) und (s_2: T_2) anzeigt, dass (s_3: T_3), dann zeigt (s_1: T_1) dies an (s_3: T_3).

Das [IS Verification] -Prinzip befasst sich mit Informationen, die im Prinzip von einem Agenten erfasst werden könnten. Der Zugriff auf einige dieser Informationen wird beispielsweise blockiert, wenn der Agent die Korrelation zwischen zwei Arten von Situationen nicht wahrnimmt. Darüber hinaus sind die meisten Korrelationen nicht absolut, sie lassen Ausnahmen zu. Damit die in [E1] beschriebene Signalisierung wirklich informativ ist, muss die zusätzliche Bedingung erfüllt sein, dass das Radarsystem ordnungsgemäß funktioniert. Bedingte Versionen der [IS-Überprüfung]Das Prinzip kann verwendet werden, um darauf zu bestehen, dass die Trägersituation bestimmte Hintergrundbedingungen erfüllen muss. Die Unfähigkeit eines Agenten, Änderungen unter diesen Hintergrundbedingungen zu verfolgen, kann zu Fehlern führen. Wenn das Radar kaputt ist, bewegt sich der Punkt auf dem Bildschirm möglicherweise nach oben, während sich das Flugzeug nach Süden bewegt. Wenn der Luftregler das Problem nicht erkennen kann, dh wenn er nicht merkt, dass sich die Hintergrundbedingungen geändert haben, kann er dem Piloten absurde Anweisungen geben. Anweisungen sind jetzt an Aktionen gebunden. Zur Behandlung von Handlungen aus situationstheoretischer Sicht verweisen wir den Leser auf Israel und Perry (1991).

2.3 Verteilte Informationssysteme und Kanaltheorie

Der im vorherigen Abschnitt skizzierte Grundbegriff des Informationsflusses kann auf eine abstraktere Umgebung angehoben werden, in der die Unterstützer von Informationen nicht unbedingt Situationen als konkrete Teile der Welt sind, sondern jede Einheit, die dies wie im Fall von Situationen kann als von bestimmten Arten eingestuft werden oder nicht. Die als nächstes zu beschreibende mathematische Theorie verteilter Systeme (Barwise und Seligman 1997) verfolgt diesen abstrakten Ansatz, indem sie den Informationstransfer innerhalb verteilter Systeme im Allgemeinen untersucht.

Ein Modell eines verteilten Systems in diesem Rahmen wird tatsächlich ein Modell einer Art verteiltes System sein, daher wird das Modell des Radar-Flugzeug-Systems, das wir hier als laufendes Beispiel verwenden werden, tatsächlich ein Modell von Radar-Flugzeug-Systemen sein (im Plural). Um ein solches Modell festzulegen, muss die Architektur des Systems in Bezug auf seine Teile und die Art und Weise, wie sie zu einem Ganzen zusammengesetzt werden, beschrieben werden. Sobald dies erledigt ist, kann man sehen, wie diese Architektur den Informationsfluss zwischen ihren Teilen ermöglicht.

Ein Teil eines Systems (wieder wirklich seine Art) wird modelliert, indem gesagt wird, wie bestimmte Instanzen davon nach einem bestimmten Satz von Typen klassifiziert werden. Mit anderen Worten, für jeden Teil eines Systems gibt es eine Klassifizierung

) mathbf {A} = \ langle Instanzen, Typen, \ models \ rangle,)

Dabei ist (models) eine binäre Beziehung, so dass (a \ models T), wenn die Instanz (a) vom Typ (T) ist. In einer vereinfachten Analyse des Radarbeispiels könnte man mindestens drei Klassifikationen festlegen, eine für den Monitorbildschirm, eine für das fliegende Flugzeug und eine für das gesamte Überwachungssystem:

) begin {align} mathbf {Screens} & = \ langle Monitor-Screens, Typen \: of \: Screen \: Konfigurationen, \ models_M \ rangle \\ \ mathbf {Flugzeuge} & = \ langle Flying \: Flugzeuge, Typen \: von \: Fliegen \: Flugzeuge, \ models_P \ rangle \\ \ mathbf {MonitSit} & = \ langle Monitoring \: Situationen, Typen \: von \: Überwachung \: Situationen, \ models_M \ rangle \ end { ausrichten})

Eine allgemeine Version einer Teil-Beziehung zwischen Klassifikationen ist erforderlich, um die Art und Weise zu modellieren, wie Teile eines Systems zusammengesetzt werden. Betrachten Sie den Fall der Überwachungssysteme. Dass jeder von ihnen einen Bildschirm als einen seiner Teile hat, bedeutet, dass es eine Funktion gibt, die jeder Instanz der Klassifizierung MonitSit eine Instanz von Bildschirmen zuweist. Auf der anderen Seite alle Arten, wie ein Bildschirm klassifiziert werden kann (die Arten von Bildschirmen) entsprechen intuitiv der Art und Weise, wie das gesamte Screening-System klassifiziert werden könnte: Wenn ein Bildschirm Teil eines Überwachungssystems ist und der Bildschirm beispielsweise blinkt, ist die gesamte Überwachungssituation intuitiv vom Typ „sein Bildschirm blinkt“. Dementsprechend kann eine verallgemeinerte Teil-Beziehung zwischen zwei beliebigen Klassifikationen (mathbf {A}, \ mathbf {C}) über zwei Funktionen modelliert werden

) begin {align} f ^ { wedge} &: Types_A \ rightarrow Types_C \\ f ^ { vee} &: Instances_C \ rightarrow Instances_A, \ end {align})

Der erste nimmt jeden Typ in (mathbf {A}) zu seinem Gegenstück in (mathbf {C}) und der zweite nimmt jede Instanz (c) von (mathbf { C}) zu seiner (mathbf {A}) - Komponente. [3]

Wenn (f: \ mathbf {A} rightarrow \ mathbf {C}) eine Abkürzung für die Existenz der beiden obigen Funktionen ist (das Funktionspaar (f) wird als Infomorphismus bezeichnet), wird eine beliebige Verteilung vorgenommen Das System besteht aus verschiedenen Klassifikationen, die durch Infomorphismen zusammenhängen. Für unsere Zwecke wird es hier ausreichen, drei Klassifikationen (mathbf {A}, \ mathbf {B}, \ mathbf {C}) zusammen mit zwei Infomorphismen zu betrachten

) begin {align} f &: \ mathbf {A} rightarrow \ mathbf {C} \ g &: \ mathbf {B} rightarrow \ mathbf {C}. \ end {align})

Dann würde eine einfache Möglichkeit zur Modellierung des Radarüberwachungssystems aus dem Paar bestehen

) begin {align} f &: \ mathbf {Screens} rightarrow \ mathbf {MonitSit} \ g &: \ mathbf {Planes} rightarrow \ mathbf {MonitSit}. \ end {align})

Die gemeinsame Codomäne in diesen Fällen ((mathbf {C}) im allgemeinen Fall und MonitSit im Beispiel) fungiert als Kern eines Kanals, der zwei Teile des Systems verbindet. Der Kern bestimmt die Korrelationen, die zwischen den beiden Teilen erhalten werden, und ermöglicht so einen Informationsfluss der in Abschnitt 2.2 beschriebenen Art. Dies wird über zwei Arten von Links erreicht. Einerseits kann angenommen werden, dass zwei Instanzen (a) von (mathbf {A}) und (b) von (mathbf {B}) über den Kanal verbunden sind, wenn sie es sind Komponenten derselben Instanz in (mathbf {C}), sodass die Instanzen von (mathbf {C}) als Verbindungen zwischen Komponenten fungieren. Somit wird im Radarbeispiel ein bestimmter Bildschirm mit einer bestimmten Ebene verbunden, wenn sie zu derselben Überwachungssituation gehören.

Nehmen wir andererseits an, dass jede Instanz in (mathbf {C}) eine Beziehung zwischen Typen überprüft, die zufällig Gegenstücke von Typen aus (mathbf {A}) und (mathbf {B} sind). Dann erfasst eine solche Beziehung eine Einschränkung, wie die Teile des Systems korreliert sind. Im Radarbeispiel enthält die Theorie der Kernklassifikation MonitSit Einschränkungen wie PlainMovingNorth (Rightarrow) DotGoingUp. Diese Regelmäßigkeit von Überwachungssituationen, die als Verbindungen zwischen Radar-Screenshots und Flugzeugen dienen, zeigt, wie Radarbildschirme und überwachte Flugzeuge miteinander korrelieren. All dies bietet die folgende Version der Informationsübertragung.

Kanalfähige Signalisierung: Angenommen,) begin {align} f &: \ mathbf {A} rightarrow \ mathbf {C} \ g &: \ mathbf {B} rightarrow \ mathbf {C}. \ end {align})

Dann zeigt die Instanz (a) vom Typ (T) in (mathbf {A}) an, dass die Instanz (b) vom Typ (T ') in (mathbf {C} ist.) wenn (a) und (b) durch eine Instanz aus (mathbf {C}) und der Beziehung (f ^ { wedge} (T) Rightarrow g ^ { wedge verbunden sind } (T ')) zwischen den vom Gegenstück interpretierten Typen wird von allen Instanzen von (mathbf {C}) erfüllt.

Nun für jede Klassifikation (mathbf {A}) die Sammlung

[L_A = {T \ Rightarrow T '\ mid \ text {jede Instanz von} mathbf {A} text {vom Typ} T \ text {ist auch vom Typ} T' })

Die durch alle globalen Einschränkungen der Klassifizierung gebildete Logik kann als eine Logik angesehen werden, die (mathbf {A}) innewohnt. Dann wird ein verteiltes System, das aus verschiedenen Klassifikationen und Infomorphismen besteht, eine Logik von Einschränkungen haben, die mit jedem Teil davon verbunden sind [4], und es können komplexere Fragen zum Informationsfluss innerhalb des Systems formuliert werden.

Angenommen, ein Infomorfismus (f: \ mathbf {A} rightarrow \ mathbf {C}) ist Teil des verteilten Systems, das untersucht wird. Dann transformiert (f) natürlich jede globale Einschränkung (T \ Rightarrow T ') von (L _ { mathbf {A}}) in (f ^ { wedge} (T) Rightarrow f ^ { wedge} (T ')), von dem immer gezeigt werden kann, dass es ein Element von (L _ { mathbf {C}}) ist. Dies bedeutet, dass man innerhalb von (mathbf {A}) argumentieren und dann zuverlässig Schlussfolgerungen über (mathbf {C}) ziehen kann. Andererseits kann gezeigt werden, dass die Verwendung von Vorbildern unter (f ^ { wedge}) zur Übersetzung globaler Einschränkungen von (mathbf {C}) nicht immer garantiert, dass das Ergebnis eine globale Einschränkung ist von (mathbf {A}). Es ist dann wünschenswert, zusätzliche Bedingungen zu identifizieren, unter denen die Zuverlässigkeit der inversen Translation garantiert oder zumindest verbessert werden kann. In einem Sinn,Diese Fragen stehen qualitativ nahe an den Bedenken, die Shannon ursprünglich hinsichtlich Lärm und Zuverlässigkeit hatte.

Ein weiteres Problem, das man modellieren möchte, ist das Denken über ein System aus der Sicht eines Agenten, der nur teilweise über die Teile eines Systems Bescheid weiß. Stellen Sie sich als Beispiel einen Flugzeugcontroller vor, der nur mit ACME-Monitoren gearbeitet hat und nichts über Elektronik weiß. Die Logik, die ein solcher Agent verwenden könnte, um über einen Teil (mathbf {A}) eines Systems (tatsächlich einen Teil der Bildschirme) nachzudenkenim Fall des Controllers) besteht im Allgemeinen aus einigen Einschränkungen, die möglicherweise nicht einmal global sind, sondern nur von einer Teilmenge von Instanzen (den ACME-Monitoren) erfüllt werden. Die Logik des Agenten kann in dem Sinne unvollständig sein, dass einige der globalen Einschränkungen der Klassifizierung übersehen werden (wie diejenigen, die innere Komponenten des Monitors betreffen). Die Logik des Agenten kann auch in dem Sinne nicht stichhaltig sein, dass es Fälle außerhalb des Bewusstseins des Agenten gibt (z. B. Monitore unbekannter Marken), die einige der Einschränkungen des Agenten verfälschen (die für alle ACME-Monitore gelten). Eine lokale Logik (L) in (mathbf {A}) kann auf die erwartete Weise entlang eines Infomorphismus (f: \ mathbf {A} rightarrow \ mathbf {C}) "verschoben" werden Das heißt, seine Einschränkungen werden über (f ^ { wedge}) transformiert, während seine Instanzen über (f ^ { vee}) transformiert werden. Natürliche Fragen, die in der Kanaltheorie zu diesen Begriffen untersucht wurden, umfassen die Beibehaltung (oder Nichterhaltung) einiger wünschenswerter Eigenschaften lokaler Logik, wie z. B. der Solidität, unter Übersetzung.

Eine neuere Entwicklung in der Kanaltheorie (Seligman 2014) verwendet eine allgemeinere Definition der lokalen Logik, bei der nicht alle Instanzen in der Logik alle ihre Einschränkungen erfüllen müssen. Diese Version der Kanaltheorie wird auf zwei wichtige Arten verwendet. Erstens wird durch die Verwendung lokaler Logik, um für Situationen zu stehen, und mit einer natürlichen Interpretation dessen, was ein Infon dann sein sollte, eine Rekonstruktion der Kernmaschinerie der Situationstheorie erstellt (in den Abschnitten 2.1 und 2.2 kaum dargestellt). Zweitens wird gezeigt, dass diese Version der Kanaltheorie mit probabilistischen Einschränkungen umgehen kann. Die grobe Idee ist, dass jedes Paar einer Klassifizierung plus eines Wahrscheinlichkeitsmaßes über die Menge von Instanzen eine erweiterte Klassifizierung mit derselben Menge von Typen induziert und wo eine Einschränkung genau dann gilt, wenn die Menge von Gegenbeispielinstanzen das Maß 0 hat. Beachten Sie, dass dieser Satz von Gegenbeispielen möglicherweise nicht leer ist. Probabilistische Einschränkungen sind ein entscheidender Schritt, um die Kanaltheorie formal mit Shannons Kommunikationstheorie in Beziehung zu setzen.

Für eine umfassende Entwicklung der hier skizzierten Theorie der Kanäle sowie einige Untersuchungen zu Anwendungen siehe Barwise und Seligman (1997). Siehe van Benthem (2000) für eine Untersuchung der Bedingungen, unter denen die Erfüllbarkeit von Einschränkungen unter Infomorphismen erhalten bleibt, und Allo (2009) für eine Anwendung dieses Rahmens auf eine Analyse der Unterscheidung zwischen kognitiven Zuständen und kognitiven Gütern. Abschließend muss erwähnt werden, dass der Begriff der Klassifikation in der Literatur seit einigen Jahren existiert und unabhängig unter Namen wie Chu-Räumen (Pratt 1995) oder formalen Kontexten (Ganter und Wille 1999) untersucht und eingeführt wurde.

3. Informationen als Code

Damit Informationen berechnet werden können, müssen sie von dem betreffenden Rechenmechanismus verarbeitet werden, und damit eine solche Verarbeitung stattfinden kann, müssen die Informationen codiert werden. Informationen als Code sind eine Haltung, die diese Codierungsbedingung sehr ernst nimmt. Das Ergebnis ist die Entwicklung feinkörniger Modelle des Informationsflusses, die die syntaktischen Eigenschaften der Codierung selbst aktivieren.

Um zu sehen, wie dies so ist, betrachten Sie erneut Fälle, in denen der Informationsfluss über Beobachtungen erfolgt. Solche Beobachtungen sind informativ, weil wir im normalen, gottähnlichen Sinne des Begriffs nicht allwissend sind. Wir müssen beobachten, dass sich die Katze zum Beispiel auf der Matte befindet, gerade weil wir uns nicht automatisch jeder Tatsache im Universum bewusst sind. Inferenzen funktionieren analog. Abzüge sind für uns gerade deshalb informativ, weil wir logisch nicht allwissend sind. Wir müssen über Dinge nachdenken, manchmal sehr ausführlich, weil wir uns nicht automatisch der logischen Konsequenzen der Informationen bewusst sind, mit denen wir argumentieren.

Um den Kreis explizit mit Informationen zu schließen, muss er behandelt werden, wobei in diesem Fall ein solcher Umgang ein kognitiver Akt ist. Daher werden die fraglichen Informationen auf irgendeine Weise codiert, daher unterstützt Information als Code die Entwicklung feinkörniger Modelle des Informationsflusses, die die syntaktischen Eigenschaften der Codierung selbst sowie die Eigenschaften der Aktionen aktivieren, die den verschiedenen Informationen zugrunde liegen -Verarbeitungskontexte beteiligt.

Solche informationsverarbeitenden Kontexte sind nicht auf explizite Handlungen des inferentiellen Denkens durch menschliche Agenten beschränkt, sondern umfassen automatisiertes Denken und Theorembeweis sowie maschinenbasierte Berechnungsverfahren im Allgemeinen. Ansätze zur Modellierung der Eigenschaften dieser letzteren Informationsverarbeitungsszenarien fallen unter die algorithmische Informationstheorie.

In Abschnitt 3.1 werden wir einen wichtigen Ansatz zur Modellierung der Eigenschaften der Informationsverarbeitung innerhalb der Information als Code-Framework über die kategoriale Informationstheorie untersuchen. In Abschnitt 3.2 werden wir den allgemeineren Ansatz zur Modellierung von Informationen als Code untersuchen, für den die kategoriale Informationstheorie eine Instanz ist, die Modellierung von Informationen als Code über Substrukturlogiken. In Abschnitt 3.3 werden wir die Details einiger anderer bemerkenswerter Beispiele für Logiken des Informationsflusses darlegen, die durch die Informationen als Code-Ansatz motiviert sind.

3.1 Kategoriale Informationstheorie

Die kategoriale Informationstheorie ist eine Theorie des feinkörnigen Informationsflusses, deren Modelle auf denen basieren, die durch die kategorialen Grammatiken spezifiziert sind, die von Lambek Calculi ursprünglich aufgrund von Lambek (1958, 1961) untermauert wurden. Die Motivation für die kategoriale Informationstheorie besteht darin, einen logischen Rahmen für die Modellierung der Eigenschaften der sehr kognitiven Verfahren bereitzustellen, die dem deduktiven Denken zugrunde liegen.

Der konzeptuelle Ursprung der kategorialen Informationstheorie liegt in van Benthem (1995: 186). Van Benthems Verwendung von "prozedural" als Synonym für "dynamisch" verstehen:

[I] t stellt sich heraus, dass insbesondere der Lambek-Kalkül selbst eine prozedurale Neuinterpretation zulässt, und daher können kategoriale Kalküle kognitive Prozeduren genauso beschreiben wie die syntaktischen oder semantischen Strukturen, die ihre ursprüngliche Motivation geliefert haben.

Die Motivation für die kategoriale Informationstheorie besteht darin, die kognitiven Verfahren zu modellieren, die deduktives Denken ausmachen. Betrachten Sie als Analogie das folgende Beispiel. Sie kommen von IKEA mit einem nicht zusammengebauten Tisch nach Hause, der noch flach in der Schachtel verpackt ist. Die Frage hier ist nun, haben Sie Ihren Tisch? Nun, es gibt einen Sinn, in dem Sie es tun, und einen Sinn, in dem Sie es nicht tun. Sie haben Ihre Tabelle in dem Sinne, dass Sie alle Teile haben, die zum Erstellen oder Generieren der Tabelle erforderlich sind, aber dies bedeutet nicht, dass Sie die Tabelle in dem Sinne haben, dass Sie sie verwenden können. Das heißt, Sie haben die Tabelle in keiner nützlichen Form, Sie haben nur Teile einer Tabelle. In der Tat kann es ein langer und mühsamer Prozess sein, diese Tischstücke in ihre nützliche Form zu bringen, nämlich einen Tisch.

Dies ist die Analogie zwischen dem obigen Tabellenbeispiel und dem deduktiven Denken. Es wird oft gesagt, dass die Informationen, die durch die Schlussfolgerung eines deduktiven Arguments codiert werden (oder „enthalten in“oder „ausgedrückt durch“), von den Prämissen codiert werden. Wenn Sie also die Informationen besitzen, die durch die Prämissen eines deduktiven Denkens codiert sind, besitzen Sie die Informationen, die durch die Schlussfolgerung codiert sind? Genau wie bei den Tischstücken besitzen Sie die durch die Schlussfolgerung verschlüsselten Informationen in keiner nützlichen Form, bis Sie die „Informationsstücke“, aus denen die Räumlichkeiten bestehen, richtig zusammengestellt haben. Wenn Sie über die von den Räumlichkeiten codierten Informationen verfügen, verfügen Sie zwar über einige der Informationen, die für die Erstellung oder Generierung der durch die Schlussfolgerung codierten Informationen erforderlich sind. Wie bei den Tischstücken jedochDas Abrufen der durch die Schlussfolgerung codierten Informationen aus den von den Räumlichkeiten codierten Informationen kann ein langer und mühsamer Prozess sein. Sie benötigen auch die Anleitungsinformationen, die Ihnen zeigen, wie Sie die von den Räumlichkeiten codierten Informationen richtig kombinieren können. Diese Informationserzeugung durch deduktive Inferenz kann auch als Bewegung von Informationen von impliziter zu expliziter Speicherung im Kopf des Argumentationsagenten angesehen werden, und es sind die kognitiven Verfahren, die diesen Speichertransfer erleichtern, die die kategoriale Informationstheorie motivieren. Diese Informationserzeugung durch deduktive Inferenz kann auch als Bewegung von Informationen von impliziter zu expliziter Speicherung im Kopf des Argumentationsagenten angesehen werden, und es sind die kognitiven Verfahren, die diesen Speichertransfer erleichtern, die die kategoriale Informationstheorie motivieren. Diese Informationserzeugung durch deduktive Inferenz kann auch als Bewegung von Informationen von impliziter zu expliziter Speicherung im Kopf des Argumentationsagenten angesehen werden, und es sind die kognitiven Verfahren, die diesen Speichertransfer erleichtern, die die kategoriale Informationstheorie motivieren.

Die kategoriale Informationstheorie ist eine Theorie der dynamischen Informationsverarbeitung, die auf den Operationen Merge / Fusion ((otimes)) und typisierten Funktionen ((rightarrow, \ leftarrow)) aus der kategorialen Grammatik basiert. Die konzeptionelle Motivation besteht darin, die Informationen im Kopf eines Agenten zu verstehen, da der Agent deduktiv Gründe dafür hat, eine Datenbank zu sein, ähnlich wie ein Lexikon in natürlicher Sprache eine Datenbank ist (siehe Sequoiah-Grayson (2013), (2016)). In diesem Fall wird eine Grammatik als eine Reihe von Verarbeitungsbeschränkungen verstanden, die auferlegt werden, um den Informationsfluss zu gewährleisten, oder als wohlgeformte Zeichenfolgen als Ausgaben. Neuere Forschungen zu Beweisen als Ereignissen von einem sehr ähnlichen konzeptionellen Ausgangspunkt aus finden sich in Stefaneas und Vandoulakis (in Vorbereitung).

Die kategoriale Informationstheorie hat einen stark algebraischen Geschmack. Die Fusion '(otimes)' entspricht dem binären Kompositionsoperator '.' Und '(vdash)' der Teilreihenfolge '(le)' (siehe Dunn 1993). Die Zusammenführungs- und Funktionsoperationen sind über die bekannten Rückstandsbedingungen miteinander verbunden:

) begin {align} tag {5} A \ otimes B \ vdash C & \ text {iff} B \ vdash A \ rightarrow C \\ \ tag {6} A \ otimes B \ vdash C & \ text { iff} A \ vdash C \ leftarrow B \ end {align})

Im Allgemeinen beschränken sich Anwendungen für die Anwendung von Richtungsfunktionen auf algebraische Analysen grammatikalischer Strukturen, bei denen kommutierte lexikalische Elemente zu nicht gut geformten Zeichenfolgen führen.

Trotz ihrer algebraischen Natur können die Operationen ihre Bewertungsbedingungen über "informationalisierte" Kripke-Frames erhalten (Kripke 1963, 1965). Ein Informationsrahmen (Restall 1994) (mathbf {F}) ist ein Triple (langle S, \ sqsubseteq, \ bullet \ rangle). (S) ist eine Reihe von Informationszuständen (x, y, z \ ldots). (sqsubseteq) ist eine Teilreihenfolge der Informationsentwicklung / -einbeziehung, so dass (x \ sqsubseteq y) bedeutet, dass die von (y) übertragenen Informationen eine Entwicklung der von (x übertragenen Informationen sind) und (bullet) ist eine Operation zum Kombinieren von Informationszuständen. Mit anderen Worten, wir haben eine Domain mit einer Kombinationsoperation. Die Funktionsweise der Informationskombination und die teilweise Reihenfolge der Informationseinbeziehung hängen wie folgt zusammen:

) tag {7} x \ sqsubseteq y \ text {iff} x \ bullet y \ sqsubseteq y)

Das Lesen von (x \ Vdash A) als Zustand (x) enthält Informationen vom Typ (A). Wir haben Folgendes:

) begin {align} tag {8} x \ Vdash A \ otimes B & \ text {iff für einige} y, z, \ in \ mathbf {F} text {st} y \ bullet z \ sqsubseteq x, y \ Vdash A \ text {und} z \ Vdash B. \\ \ tag {9} x \ Vdash A \ rightarrow B & \ text {iff für alle} y, z \ in \ mathbf {F} text { st} x \ bullet y \ sqsubseteq z, \ text {if} y \ Vdash A \ text {then} z \ Vdash B. \\ \ tag {10} x \ Vdash B \ leftarrow A & \ text {iff für alle } y, z \ in \ mathbf {F} text {st} y \ bull x \ sqsubseteq z, \ text {if} y \ Vdash A \ text {dann} z \ Vdash B. \ end {align})

Auf syntaktischer Ebene lesen wir (X \ vdash A), während die Verarbeitung von (X) Informationen vom Typ A generiert. In diesem Fall verstehen wir (vdash) als einen von Wansing (1993: 16) vorgeschlagenen Informationsverarbeitungsmechanismus, so dass (vdash) nicht nur die Ausgabe einer Informationsverarbeitungsprozedur, sondern auch die Eigenschaften von codiert das Verfahren selbst. Woraus diese Verarbeitung besteht, hängt von den Verarbeitungsbeschränkungen ab, die wir für unsere Datenbank festgelegt haben. Diese Verarbeitungsbeschränkungen werden auferlegt, um eine Ausgabe von der Verarbeitung selbst zu gewährleisten oder um es anders auszudrücken, um den Informationsfluss aufrechtzuerhalten. Solche Verarbeitungsbeschränkungen werden durch das Vorhandensein oder Fehlen verschiedener Strukturregeln festgelegt, und Strukturregeln sind das Geschäft der Unterstrukturlogik.

3.2 Substrukturlogik und Informationsfluss

Die kategoriale Informationstheorie wird durch eine Informationssemantik der Lambek-Kalküle ausgefällt. Auf einer geeigneten Abstraktionsebene wird der Lambek-Kalkül als eine sehr ausdrucksstarke Substrukturlogik angesehen. Es ist nicht überraschend, dass wir durch die Angabe einer Informationssemantik für die Substrukturlogik im Allgemeinen eine Familie von Logiken erhalten, die die Informationen als Code-Ansatz veranschaulichen. Diese logische Familie ist nach Ausdruckskraft organisiert, wobei die Ausdruckskraft der betreffenden Logik durch das Vorhandensein verschiedener struktureller Regeln erfasst wird.

Eine Strukturregel hat die folgende allgemeine Form:

) tag {11} X \ Leftarrow Y)

Wir können (11) lesen, da alle Informationen, die durch die Verarbeitung von (X) erzeugt werden, auch durch die Verarbeitung von (Y) erzeugt werden. Daher ist die Langform von (11) wie folgt:

) tag {12} frac {X \ vdash A} {Y \ vdash A})

Daher ist (X) ein strukturierter Informationskörper oder eine „Datenstruktur“, wie Gabbay (1996: 423) es ausdrückt, wobei die tatsächliche Anordnung der Informationen eine entscheidende Rolle spielt. Die Strukturregeln legen die Struktur der durch (X) codierten Informationen fest und wirken sich somit auf die Granularität der verarbeiteten Informationen aus.

Betrachten Sie die Schwächung, die bekannteste der Strukturregeln (gefolgt von der entsprechenden Rahmenbedingung:

) begin {align} tag {Weakening} & A \ Leftarrow A \ otimes B \& x \ bullet y \ sqsubseteq z \ rightarrow x \ sqsubseteq z \ end {align})

Wenn Weakening vorhanden ist, verlieren wir den Überblick darüber, welche Informationen tatsächlich für eine Schlussfolgerung verwendet wurden. Genau aus diesem Grund ist die Ablehnung der Schwächung das Kennzeichen relevanter Logik, wobei die Bewahrung von Informationen, die für die Ableitung der Schlussfolgerung relevant sind, die Motivation ist. Indem wir die Schwächung ablehnen, heben wir eine bestimmte Art von Informationstaxonomie hervor, in dem Sinne, dass wir wissen, welche Informationen verwendet wurden. Um mehr strukturelle Details zu bewahren als nur, welche Informationen verwendet wurden, müssen wir erwägen, weitere strukturelle Regeln abzulehnen.

Angenommen, wir möchten nicht nur aufzeichnen, welche Informationen in einer Inferenz verwendet wurden, sondern auch, wie oft sie verwendet wurden. In diesem Fall würden wir die Kontraktion ablehnen:

) begin {align} tag {Contraction} & A \ otimes A \ Leftarrow A \& x \ bull x \ sqsubseteq x \ end {align})

Die Kontraktion ermöglicht die uneingeschränkte Mehrfachnutzung einer Information. Wenn es also ein Problem ist, die „Informationskosten“für die Ausführung einer Informationsverarbeitung aufzuzeichnen, wird die Kontraktion abgelehnt. Die Ablehnung der Kontraktion ist das Kennzeichen der linearen Logik, die zur Modellierung solcher Verarbeitungskosten entwickelt wurde (siehe Troelstra 1992).

Wenn wir die Reihenfolge der Verwendung von Informationen beibehalten möchten, lehnen wir die strukturelle Kommutierungsregel ab:

) begin {align} tag {Commutation} & A \ otimes B \ Leftarrow B \ otimes A \& x \ bullet y \ sqsubseteq z \ rightarrow y \ bullet x \ sqsubseteq z \ end {align})

Die Informationsreihenfolge wird insbesondere in zeitlichen Umgebungen (unter Berücksichtigung der Aktionskomposition) und in der Semantik natürlicher Sprache (Lambek 1958) von Bedeutung sein, in denen erstmals nicht pendelnde Logiken auftauchten. Die Kommutierung erfolgt auch in einer bekannteren starken Form:

) begin {align} tag {Starke Kommutierung} & (A \ otimes B) otimes D \ Leftarrow (A \ otimes D) otimes B \& \ existiert u (x \ bullet z \ sqsubseteq u \ wedge u \ bullet y \ sqsubseteq w) rightarrow \& \ qquad \ existiert u (x \ bullet y \ sqsubseteq u \ wedge u \ bullet z \ sqsubseteq w) end {align})

Die starke Form der Kommutierung ergibt sich aus ihrer Kombination mit der strukturellen Assoziationsregel: [5]

) begin {align} tag {Association} & A \ otimes (B \ otimes C) Leftarrow (A \ otimes B) otimes C \& \ existiert u (x \ bullet y \ sqsubseteq u \ wedge u \ Aufzählungszeichen z \ sqsubseteq w) rightarrow \& \ qquad \ existiert u (y \ Aufzählungszeichen z \ sqsubseteq u \ Keil x \ Aufzählungszeichen u \ sqsubseteq w) end {align})

Durch die Ablehnung der Zuordnung bleiben die genauen feinkörnigen Eigenschaften der Kombination von Informationen erhalten. Ursprünglich wurden nichtassoziative Logiken eingeführt, um die kombinatorischen Eigenschaften der Sprachsyntax zu erfassen (siehe Lambek 1961).

Bei Kommutierung wird ein doppeltes Implikationspaar ((rightarrow, \ leftarrow)) zu einer einfachen Implikation (rightarrow). Bei Vorhandensein aller Strukturregeln kollabiert die Fusion (otimes) zu einer booleschen Konjunktion (wedge). In diesem Fall kollabieren die in (5) und (6) beschriebenen Restruktionsbedingungen in eine monidirektionale Funktion.

Die Wahl, welche Strukturregeln beibehalten werden sollen, hängt offensichtlich davon ab, welche Informationsphänomene modelliert werden. Daher ist ein starker Pluralismus am Werk. Wenn wir beispielsweise Weakening ablehnen, sprechen wir davon, welche Daten für den Prozess relevant waren, sagen aber nichts über ihre Vielzahl (in diesem Fall würden wir die Kontraktion ablehnen), ihre Reihenfolge (in diesem Fall würden wir die Kommutierung ablehnen) oder die tatsächlichen Muster aus der Verwendung (in diesem Fall würden wir die Vereinigung ablehnen). Indem wir Assoziation, Kommutierung und Kontraktion zulassen, haben wir die Taxonomie gesperrt. Wir kennen möglicherweise nicht die Reihenfolge oder Vielzahl der verwendeten Daten, aber wir wissen, welche Typen und genau welche Typen für die erfolgreiche Verarbeitung relevant waren. Die kanonische zeitgenössische Darstellung einer solchen informationsbasierten Interpretation aussagenrelevanter Logik ist Mares (2004). Eine solche Interpretation ermöglicht eine elegante Behandlung der Widersprüche, die von relevanten Logiken kodiert werden. Durch die Unterscheidung zwischen Wahrheitsbedingungen und Informationsbedingungen ermöglichen wir eine Interpretation von (x \ Vdash A \ Wedge \ neg A), da (x) die Information enthält, dass (A) und nicht (A). Für eine Untersuchung der Unterscheidung zwischen Wahrheitsbedingungen und Informationsbedingungen innerhalb einer quantifizierten relevanten Logik siehe Mares (2009). Für eine Untersuchung der Unterscheidung zwischen Wahrheitsbedingungen und Informationsbedingungen innerhalb einer quantifizierten relevanten Logik siehe Mares (2009). Für eine Untersuchung der Unterscheidung zwischen Wahrheitsbedingungen und Informationsbedingungen innerhalb einer quantifizierten relevanten Logik siehe Mares (2009).

In einem solchen Stadium sind die Dinge noch ziemlich statisch. Indem wir unsere Aufmerksamkeit von statischen Informationskörpern auf die Manipulation dieser Körper verlagern, lehnen wir strukturelle Regeln ab, die über die Schwächung hinausgehen, und gelangen schließlich zur kategorialen Informationstheorie, die von der schwächsten substrukturellen Logik codiert wird. Je schwächer wir sind, desto „prozeduraler“ist der Geschmack der beteiligten Logik. Aus dynamischer / prozeduraler Sicht könnte lineare Logik als „halber Punkt“zwischen statischer klassischer Logik und vollständig prozeduraler kategorialer Informationstheorie angesehen werden. Für eine detaillierte Darstellung der Beziehung zwischen linearer Logik und anderen formalen Rahmenbedingungen im Kontext der Modellierung des Informationsflusses siehe Abramsky (2008).

Jüngste wichtige Arbeiten von Dunn (2015) verknüpfen Substrukturlogik und Strukturregeln auf folgende Weise mit Informationsrelevanz. Dunn unterscheidet zwischen Programmen und Daten, wobei erstere dynamisch und letztere statisch sind. Wir können uns Programme als bedingte Anweisungen der Form (A \ rightarrow B) und Daten als atomare Sätze (A, B) usw. vorstellen. Angesichts dieser beiden Arten von Informationsartefakten haben wir drei mögliche Kombinationen, program zu Datenkombination, Programm zu Programmkombination und Daten zu Datenkombination. Bei der Kombination von Programm zu Daten bleibt die Kommutierung erhalten, während die Schwächung und Zuordnung fehlschlägt und die Kontraktion nicht angewendet wird. Für die Kombination von Programm zu Programm gilt die Zuordnung, während die Kommutierung fehlschlägt. Wie in Sequoiah-Grayson (2016) gezeigt,Der Fall der Kontraktion für die Kombination von Programm zu Programm ist komplizierter. Die genauen Eigenschaften der Kombination von Daten zu Daten bleiben ein interessantes offenes Thema. Die Verbindung mit Informationsrelevanz wird hergestellt, indem die Teilordnungsbeziehung (sqsubseteq) als Kennzeichnung der Informationsrelevanz selbst interpretiert wird. In diesem Fall wird (x \ sqsubseteq y) gelesen, da die Information x für die Information y relevant ist. Was genau die Höhe der Informationsrelevanz ist, hängt vom genauen Kontext der betreffenden Informationsverarbeitung ab. Sequoiah-Grayson (2016) erweitert das Framework auf Kontexte der Informationsverarbeitung durch einen Agenten, da der Agent dies ausdrücklich begründet. Vorausgesetzt, dass die Kombination der Informationszustände (x \ bullet y) auf der linken Seite der Teilordnungsbeziehung liegen kann,Die Erweiterung ist ein Bericht über die epistemische Relevanz epistemischer Handlungen. Eine Sammlung aktueller Artikel, in denen die Informationen als Code-Ansatz eingehend untersucht werden, finden Sie in Bimbo (2016).

3.3 Verwandte Ansätze

Der Ansatz von Informationen als Code ist eine sehr natürliche Perspektive auf den Informationsfluss, daher gibt es eine Reihe verwandter Frameworks, die dies veranschaulichen.

Ein solcher Ansatz zur Analyse von Informationen als Code besteht darin, eine solche Analyse im Hinblick auf die rechnerische Komplexität verschiedener Aussagenlogiken durchzuführen. Ein solcher Ansatz kann eine Hierarchie von Aussagenlogiken vorschlagen, die alle in Polynomzeit entscheidbar sind, wobei diese Hierarchie durch die zunehmenden Rechenressourcen strukturiert wird, die für die Beweise in den verschiedenen Logiken erforderlich sind. D'Agostino und Floridi (2009) führen eine solche Analyse durch, wobei ihre zentrale Behauptung darin besteht, dass diese Hierarchie verwendet werden kann, um das zunehmende Maß an Informativität des deduktiven Denkens von Aussagen darzustellen.

Gabbays (1993, 1996) Framework von markierten deduktiven Systemen veranschaulicht die Informationen als Code-Ansatz in einer Weise, die der informationalisierten Substrukturlogik von Abschnitt 3.1 sehr ähnlich ist. Ein Datenelement (beachten Sie, dass Gabbay im Gegensatz zu Dunn und Sequoiah-Grayson im obigen Abschnitt sowohl atomare als auch bedingte Informationen als Daten bezeichnet) wird als Paar der Form (x: A) angegeben, wobei (A) ist eine deklarative Information, und (x) ist eine Bezeichnung für (A. X) ist eine Darstellung von Informationen, die benötigt werden, um die von (A) codierten Informationen zu bearbeiten oder zu ändern. Angenommen, wir haben auch das Datenpaar (y: A \ rightarrow B). Wir können (x) auf (y) anwenden, was zu dem alt = "sep man icon" /> Zitieren dieses Eintrags führt.

sep man icon
sep man icon

Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.

Inpho-Symbol
Inpho-Symbol

Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.

Phil Papers Ikone
Phil Papers Ikone

Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.

Andere Internetquellen

  • Goguen, J., 2004, "Informationsintegration in Institutionen", Online-Manuskript.
  • Jacobs, B., 2012 Einführung in die Coalgebra. Auf dem Weg zur Mathematik der Zustände und Beobachtungen, Online-Manuskript, Version 2.0.

Beliebt nach Thema