Information

Inhaltsverzeichnis:

Information
Information

Video: Information

Video: Information
Video: franceinfo - DIRECT TV - actualité france et monde, interviews, documentaires et analyses 2023, March
Anonim

Eintragsnavigation

  • Eintragsinhalt
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Freunde PDF Vorschau
  • Autor und Zitierinfo
  • Zurück nach oben

Information

Erstveröffentlichung am 26. Oktober 2012; inhaltliche Überarbeitung Fr 14. Dezember 2018

Die Informationsphilosophie befasst sich mit der philosophischen Analyse des Informationsbegriffs sowohl aus historischer als auch aus systematischer Sicht. Mit dem Aufkommen der empiristischen Erkenntnistheorie in der Philosophie der frühen Neuzeit, der Entwicklung verschiedener mathematischer Informationstheorien im 20. Jahrhundert und dem Aufstieg der Informationstechnologie hat das Konzept der „Information“einen zentralen Platz in den Wissenschaften und in der Gesellschaft erobert. Dieses Interesse führte auch zur Entstehung eines eigenen Zweigs der Philosophie, der Informationen in all ihren Erscheinungsformen analysiert (Adriaans & van Benthem 2008a, b; Lenski 2010; Floridi 2002, 2011). Information ist sowohl in den Wissenschaften als auch in den Geisteswissenschaften zu einer zentralen Kategorie geworden, und die Reflexion über Information beeinflusst ein breites Spektrum philosophischer Disziplinen, die von der Logik abweichen (Dretske 1981;van Benthem & van Rooij 2003; van Benthem 2006, siehe Eintrag zu Logik und Information), Erkenntnistheorie (Simondon 1989) zur Ethik (Floridi 1999) und Ästhetik (Schmidhuber 1997a; Adriaans 2008) zur Ontologie (Zuse 1969; Wheeler 1990; Schmidhuber 1997b; Wolfram 2002; Hutter 2010)).

Es besteht kein Konsens über die genaue Natur des Feldes der Informationsphilosophie. Mehrere Autoren haben eine mehr oder weniger kohärente Informationsphilosophie vorgeschlagen, um die Philosophie aus einer neuen Perspektive zu überdenken: z. B. Quantenphysik (Mugur-Schächter 2002), Logik (Brenner 2008), semantische Information (Floridi 2011; Adams & de Moraes) 2016 siehe den Eintrag zu semantischen Informationskonzepten), Kommunikations- und Nachrichtensystemen (Capurro & Holgate 2011) und Meta-Philosophie (Wu 2010, 2016). Andere (Adriaans & van Benthem 2008a; Lenski 2010) sehen darin eher eine technische Disziplin mit tiefen Wurzeln in der Geschichte der Philosophie und Konsequenzen für verschiedene Disziplinen wie Methodik, Erkenntnistheorie und Ethik. Was auch immer die Interpretation der Natur der Informationsphilosophie ist,es scheint ein ehrgeiziges Forschungsprogramm zu implizieren, das aus vielen Teilprojekten besteht, die von der Neuinterpretation der Geschichte der Philosophie im Kontext moderner Informationstheorien bis zu einer eingehenden Analyse der Rolle von Information in Wissenschaft, Geisteswissenschaften und Gesellschaft reichen eine ganze.

Der Begriff „Information“in der Umgangssprache wird derzeit überwiegend als abstraktes Massennomen verwendet, um eine beliebige Menge von Daten, Code oder Text zu bezeichnen, die in einem beliebigen Medium gespeichert, gesendet, empfangen oder manipuliert werden. Die detaillierte Geschichte sowohl des Begriffs „Information“als auch der verschiedenen damit verbundenen Konzepte ist komplex und muss größtenteils noch geschrieben werden (Seiffert 1968; Schnelle 1976; Capurro 1978, 2009; Capurro & Hjørland 2003). Die genaue Bedeutung des Begriffs „Information“variiert in verschiedenen philosophischen Traditionen und seine umgangssprachliche Verwendung variiert geografisch und in verschiedenen pragmatischen Kontexten. Obwohl eine Analyse des Begriffs Information von Anfang an ein Thema in der westlichen Philosophie war, ist die explizite Analyse von Information als philosophisches Konzept neu.und stammt aus der zweiten Hälfte des zwanzigsten Jahrhunderts. In diesem Moment ist klar, dass Information ein zentrales Konzept in den Wissenschaften und in unserem täglichen Leben ist. Alles, was wir über die Welt wissen, basiert auf Informationen, die wir erhalten oder gesammelt haben, und jede Wissenschaft befasst sich im Prinzip mit Informationen. Es gibt ein Netzwerk verwandter Informationskonzepte mit Wurzeln in verschiedenen Disziplinen wie Physik, Mathematik, Logik, Biologie, Wirtschaft und Erkenntnistheorie. Alle diese Begriffe gruppieren sich um zwei zentrale Eigenschaften:mit Wurzeln in verschiedenen Disziplinen wie Physik, Mathematik, Logik, Biologie, Wirtschaft und Erkenntnistheorie. Alle diese Begriffe gruppieren sich um zwei zentrale Eigenschaften:mit Wurzeln in verschiedenen Disziplinen wie Physik, Mathematik, Logik, Biologie, Wirtschaft und Erkenntnistheorie. Alle diese Begriffe gruppieren sich um zwei zentrale Eigenschaften:

Die Informationen sind umfangreich. Zentral ist das Konzept der Additivität: Die Kombination zweier unabhängiger Datensätze mit derselben Informationsmenge enthält doppelt so viele Informationen wie die einzelnen Einzeldatensätze. Der Begriff der Extensivität entsteht natürlich in unseren Interaktionen mit der Welt um uns herum, wenn wir Objekte und Strukturen zählen und messen. Grundlegende Konzepte abstrakterer mathematischer Einheiten wie Mengen, Multisätze und Sequenzen wurden früh in der Geschichte auf der Grundlage struktureller Regeln für die Manipulation von Symbolen entwickelt (Schmandt-Besserat 1992). Die mathematische Formalisierung der Extensivität in Bezug auf die logarithmische Funktion erfolgte im Rahmen der Erforschung der Thermodynamik im neunzehnten (Boltzmann 1866) und frühen zwanzigsten Jahrhundert (Gibbs 1906). Wenn in Bezug auf fortgeschrittenere mehrdimensionale Zahlensysteme (komplexe Zahlen,Quaternionen, Oktonionen) Das Konzept der Extensivität verallgemeinert sich auf subtilere Begriffe der Additivität, die nicht unseren alltäglichen Intuitionen entsprechen. Sie spielen jedoch eine wichtige Rolle in den jüngsten Entwicklungen der auf Quantenphysik basierenden Informationstheorie (Von Neumann 1932; Redei & Stöltzner 2001, siehe Eintrag zu Quantenverschränkung und Information).

Informationen reduzieren die Unsicherheit. Die Menge an Informationen, die wir erhalten, wächst linear mit der Menge, um die unsere Unsicherheit verringert wird, bis wir alle möglichen Informationen erhalten haben und die Menge an Unsicherheit Null ist. Das Verhältnis zwischen Unsicherheit und Information wurde wahrscheinlich zuerst von den Empirikern formuliert (Locke 1689; Hume 1748). Hume stellt ausdrücklich fest, dass eine Auswahl aus einer größeren Auswahl von Möglichkeiten mehr Informationen liefert. Diese Beobachtung erreichte ihre kanonische mathematische Formulierung in der von Hartley (1928) vorgeschlagenen Funktion, die die Informationsmenge definiert, die wir erhalten, wenn wir ein Element aus einer endlichen Menge auswählen. Die einzige mathematische Funktion, die diese beiden Intuitionen über Ausdehnung und Wahrscheinlichkeit vereint, ist diejenige, die die Informationen in Bezug auf das negative Protokoll der Wahrscheinlichkeit definiert: (I (A) = - \ log P (A)) (Shannon 1948;Shannon & Weaver 1949, Rényi 1961).

Die Eleganz dieser Formel schützt uns jedoch nicht vor den konzeptuellen Problemen, die sie birgt. Im 20. Jahrhundert wurden verschiedene Vorschläge zur Formalisierung von Informationskonzepten gemacht:

  • Qualitative Informationstheorien

    1. Semantische Information: Bar-Hillel und Carnap entwickelten eine Theorie der semantischen Information (1953). Floridi (2002, 2003, 2011) definiert semantische Informationen als wohlgeformte, aussagekräftige und wahrheitsgemäße Daten. Formale entropiebasierte Definitionen von Informationen (Fisher, Shannon, Quantum, Kolmogorov) funktionieren auf einer allgemeineren Ebene und messen Informationen nicht unbedingt in aussagekräftigen, wahrheitsgemäßen Datensätzen, obwohl man die Ansicht verteidigen könnte, dass die Daten gut messbar sein müssen, um messbar zu sein gebildet (für eine Diskussion siehe Abschnitt 6.6 über logische und semantische Informationen). Semantische Information kommt unserer alltäglichen naiven Vorstellung von Information als etwas nahe, das durch wahre Aussagen über die Welt vermittelt wird.
    2. Information als Zustand eines Agenten: Die formale logische Behandlung von Begriffen wie Wissen und Glauben wurde von Hintikka (1962, 1973) initiiert. Dretske (1981) und van Benthem & van Rooij (2003) untersuchten diese Begriffe im Kontext der Informationstheorie, vgl. van Rooij (2003) zu Fragen und Antworten oder Parikh & Ramanujam (2003) zu allgemeinen Nachrichten. Auch Dunn scheint diesen Begriff im Sinn zu haben, wenn er Informationen als „was vom Wissen übrig bleibt, wenn man Glauben, Rechtfertigung und Wahrheit wegnimmt“definiert (Dunn 2001: 423; 2008). Vigo schlug eine struktursensitive Informationstheorie vor, die auf der Komplexität der Konzeptakquisition durch Agenten basiert (Vigo 2011, 2012).
  • Quantitative Informationstheorien

    1. Nyquists Funktion: Nyquist (1924) war wahrscheinlich der erste, der die Menge an "Intelligenz" ausdrückte, die bei einer bestimmten Leitungsgeschwindigkeit eines Telegraphensystems in Form einer Protokollfunktion übertragen werden konnte: (W = k \ log m), Dabei ist W die Übertragungsgeschwindigkeit, K eine Konstante und m die verschiedenen Spannungspegel, aus denen man wählen kann.
    2. Fisher-Information: Die Informationsmenge, die eine beobachtbare Zufallsvariable X über einen unbekannten Parameter (theta) trägt, von dem die Wahrscheinlichkeit von X abhängt (Fisher 1925).
    3. Die Hartley-Funktion: (Hartley 1928, Rényi 1961, Vigo 2012). Die Menge an Informationen, die wir erhalten, wenn wir ein Element aus einer endlichen Menge S unter gleichmäßiger Verteilung auswählen, ist der Logarithmus der Kardinalität dieser Menge.
    4. Shannon-Information: Die Entropie H einer diskreten Zufallsvariablen X ist ein Maß für die Unsicherheit, die mit dem Wert von X verbunden ist (Shannon 1948; Shannon & Weaver 1949).
    5. Kolmogorov-Komplexität: Die Information in einer binären Zeichenfolge x ist die Länge des kürzesten Programms p, das x auf einer universellen Referenz-Turing-Maschine U erzeugt (Turing 1937; Solomonoff 1960, 1964a, b, 1997; Kolmogorov 1965; Chaitin 1969, 1987).
    6. Entropiemaßnahmen in der Physik: Obwohl es sich nicht in allen Fällen ausschließlich um Informationsmaße handelt, hängen die in der Physik definierten unterschiedlichen Entropiebegriffe eng mit entsprechenden Informationskonzepten zusammen. Wir erwähnen die Boltzmann-Entropie (Boltzmann, 1866), die eng mit der Hartley-Funktion (Hartley 1928) verwandt ist, die Gibbs-Entropie (Gibbs 1906), die formal der Shannon-Entropie entspricht, und verschiedene Verallgemeinerungen wie die Tsallis-Entropie (Tsallis 1988) und die Rényi-Entropie (Rényi 1961).
    7. Quanteninformation: Das Qubit ist eine Verallgemeinerung des klassischen Bits und wird durch einen Quantenzustand in einem quantenmechanischen System mit zwei Zuständen beschrieben, der formal einem zweidimensionalen Vektorraum über den komplexen Zahlen entspricht (Von Neumann 1932; Redei) & Stöltzner 2001).

Bis vor kurzem wurde die Möglichkeit einer Vereinigung dieser Theorien allgemein angezweifelt (Adriaans & van Benthem 2008a), aber nach zwei Jahrzehnten der Forschung scheinen die Perspektiven für eine Vereinigung besser zu sein.

Die Konturen eines einheitlichen Informationskonzepts ergeben sich wie folgt:

  • Die Informationsphilosophie ist eine Unterdisziplin der Philosophie, die eng mit der Philosophie der Logik und der Mathematik verbunden ist. Die Philosophie der semantischen Information (Floridi 2011, D'Alfonso 2012, Adams & de Moraes, 2016) ist wiederum eine Unterdisziplin der Philosophie der Information (siehe die Informationskarte im Eintrag zu semantischen Informationskonzepten). Aus dieser Perspektive interessiert sich die Informationsphilosophie für die Untersuchung des Themas auf der allgemeinsten Ebene: Daten, wohlgeformte Daten, Umweltdaten usw. Die Philosophie der semantischen Information fügt die Dimensionen von Bedeutung und Wahrhaftigkeit hinzu. Es ist möglich, quantitative Informationstheorien im Rahmen einer Philosophie der semantischen Information zu interpretieren (siehe Abschnitt 6.5 für eine eingehende Diskussion).
  • Verschiedene quantitative Informationskonzepte sind mit unterschiedlichen Erzählungen (Zählen, Empfangen von Nachrichten, Sammeln von Informationen, Rechnen) verbunden, die auf demselben mathematischen Grundgerüst beruhen. Viele Probleme in der Philosophie der Information drehen sich um verwandte Probleme in der Philosophie der Mathematik. Umrechnungen und Reduktionen zwischen verschiedenen formalen Modellen wurden untersucht (Cover & Thomas 2006; Grünwald & Vitányi 2008; Bais & Farmer 2008). Die Situation, die sich abzuzeichnen scheint, ist dem Energiekonzept nicht unähnlich: Es gibt verschiedene formale Untertheorien über Energie (kinetisch, potentiell, elektrisch, chemisch, nuklear) mit genau definierten Transformationen zwischen ihnen. Abgesehen davon wird der Begriff „Energie“in der Umgangssprache lose verwendet.
  • Agentenbasierte Informationskonzepte entstehen auf natürliche Weise, wenn wir unser Interesse von einfacher Messung und Symbolmanipulation auf das komplexere Paradigma eines Agenten mit Wissen, Überzeugungen, Absichten und Wahlfreiheit ausweiten. Sie sind mit der Bereitstellung anderer Informationskonzepte verbunden.

Die Entstehung einer kohärenten Theorie zur quantitativen Messung von Informationen im 20. Jahrhundert hängt eng mit der Entwicklung der Computertheorie zusammen. Zentral in diesem Zusammenhang sind die Begriffe Universalität, Turing-Äquivalenz und Invarianz: Da das Konzept eines Turing-Systems den Begriff eines universell programmierbaren Computers definiert, scheinen alle universellen Rechenmodelle die gleiche Leistung zu haben. Dies impliziert, dass alle möglichen Informationsmaße, die für universelle Berechnungsmodelle definierbar sind (rekursive Funktionen, Turing-Maschine, Lambda-Kalkül usw.), asymptotisch invariant sind. Dies gibt eine Perspektive auf eine einheitliche Informationstheorie, die das Forschungsprogramm für die kommenden Jahre dominieren könnte.

  • 1. Informationen in der Umgangssprache
  • 2. Begriffsgeschichte und Informationsbegriff

    • 2.1 Klassische Philosophie
    • 2.2 Mittelalterliche Philosophie
    • 2.3 Moderne Philosophie
    • 2.4 Historische Entwicklung der Bedeutung des Begriffs „Information“
  • 3. Bausteine moderner Informationstheorien

    • 3.1 Sprachen
    • 3.2 Optimale Codes
    • 3.3 Zahlen
    • 3.4 Physik
  • 4. Entwicklungen in der Informationsphilosophie

    • 4.1 Popper: Informationen als Grad der Fälschbarkeit
    • 4.2 Shannon: In Bezug auf die Wahrscheinlichkeit definierte Informationen
    • 4.3 Solomonoff, Kolmogorov, Chaitin: Information als Länge eines Programms
  • 5. Systematische Überlegungen

    • 5.1 Informationsphilosophie als Erweiterung der Philosophie der Mathematik

      • 5.1.1 Information als natürliches Phänomen
      • 5.1.2 Manipulation und Erweiterbarkeit von Symbolen: Mengen, Multisätze und Zeichenfolgen
      • 5.1.3 Sätze und Zahlen
      • 5.1.4 Informationen in Zahlen messen
      • 5.1.5 Messen von Informationen und Wahrscheinlichkeiten in Zahlenreihen
      • 5.1.6 Perspektiven für die Vereinigung
      • 5.1.7 Informationsverarbeitung und Informationsfluss
      • 5.1.8 Informationen, Primzahlen und Faktoren
      • 5.1.9 Unvollständigkeit der Arithmetik
    • 5.2 Information und symbolische Berechnung

      • 5.2.1 Turingmaschinen
      • 5.2.2 Universalität und Invarianz
    • 5.3 Quanteninformation und darüber hinaus
  • 6. Anomalien, Paradoxien und Probleme

    • 6.1 Das Paradox der systematischen Suche
    • 6.2 Effektive Suche in endlichen Mengen
    • 6.3 Das P versus NP-Problem, beschreibende Komplexität versus zeitliche Komplexität
    • 6.4 Modellauswahl und Datenkomprimierung
    • 6.5 Determinismus und Thermodynamik
    • 6.6 Logik und semantische Informationen
    • 6.7 Bedeutung und Berechnung
  • 7. Schlussfolgerung
  • Literaturverzeichnis
  • Akademische Werkzeuge
  • Andere Internetquellen
  • Verwandte Einträge

1. Informationen in der Umgangssprache

Die mangelnde Genauigkeit und die universelle Nützlichkeit des Begriffs „Information“gehen Hand in Hand. In unserer Gesellschaft, in der wir die Realität mit immer komplexer werdenden Instrumenten und Installationen (Teleskope, Zyklotrons) erkunden und über fortgeschrittenere Medien (Zeitungen, Radio, Fernsehen, SMS, Internet) kommunizieren, ist es nützlich, eine Zusammenfassung zu haben Massennomen für das „Zeug“, das von den Instrumenten erzeugt wird und das durch diese Medien „fließt“. Historisch gesehen tauchte diese allgemeine Bedeutung ziemlich spät auf und scheint mit dem Aufstieg der Massenmedien und Geheimdienste verbunden zu sein (Devlin & Rosenberg 2008; Adriaans & van Benthem 2008b).

In der gegenwärtigen umgangssprachlichen Sprache wird der Begriff Information auf verschiedene lose definierte und oft sogar widersprüchliche Arten verwendet. Die meisten Menschen würden beispielsweise die folgenden Schlussfolgerungen auf den ersten Blick als gültig betrachten:

Wenn ich die Information bekomme, dass p, dann weiß ich, dass p.

Dieselben Personen hätten wahrscheinlich keine Probleme mit der Aussage, dass „Geheimdienste manchmal falsche Informationen verbreiten“oder mit dem Satz „Die von den Zeugen des Unfalls bereitgestellten Informationen waren vage und widersprüchlich“. Die erste Aussage impliziert, dass Informationen notwendigerweise wahr sind, während die anderen Aussagen die Möglichkeit zulassen, dass Informationen falsch, widersprüchlich und vage sind. In der alltäglichen Kommunikation scheinen diese Inkonsistenzen keine großen Probleme zu verursachen, und im Allgemeinen ist aus dem pragmatischen Kontext klar, welche Art von Informationen bezeichnet wird. Diese Beispiele genügen, um zu argumentieren, dass Verweise auf unsere Intuitionen als Sprecher der englischen Sprache bei der Entwicklung einer strengen philosophischen Informationstheorie wenig hilfreich sind. In der alltäglichen Kommunikation scheint es keinen pragmatischen Druck zu geben, sich einer genaueren Definition des Begriffs Information zu nähern.

2. Begriffsgeschichte und Informationsbegriff

Bis zur zweiten Hälfte des 20. Jahrhunderts betrachtete fast kein moderner Philosoph „Information“als ein wichtiges philosophisches Konzept. Der Begriff hat in der bekannten Enzyklopädie von Edwards (1967) kein Lemma und wird in Windelband (1903) nicht erwähnt. In diesem Zusammenhang ist das Interesse an „Philosophie der Information“eine jüngste Entwicklung. Rückblickend aus der Perspektive einer Ideengeschichte war die Reflexion über den Begriff „Information“jedoch ein vorherrschendes Thema in der Geschichte der Philosophie. Die Rekonstruktion dieser Geschichte ist relevant für das Studium von Informationen.

Ein Problem bei jedem Ansatz der „Ideengeschichte“ist die Bestätigung der zugrunde liegenden Annahme, dass das Konzept, das man studiert, tatsächlich Kontinuität über die Geschichte der Philosophie hat. Bei der historischen Analyse von Informationen könnte man sich fragen, ob das von Augustine diskutierte Konzept der „Information“einen Zusammenhang mit Shannon-Informationen hat, abgesehen von einer Ähnlichkeit der Begriffe. Gleichzeitig könnte man sich fragen, ob Lockes „historische, einfache Methode“ein wichtiger Beitrag zur Entstehung des modernen Informationskonzepts ist, obwohl Locke in seinen Schriften den Begriff „Information“im technischen Sinne kaum verwendet. Wie unten gezeigt, gibt es ein Konglomerat von Ideen, die einen Informationsbegriff beinhalten, der sich von der Antike bis in die jüngste Zeit entwickelt hat, aber eine weitere Untersuchung der Geschichte des Informationsbegriffs ist erforderlich.

Ein wichtiges wiederkehrendes Thema in der frühen philosophischen Analyse des Wissens ist das Paradigma der Manipulation eines Wachsstücks: entweder durch einfaches Verformen, durch Aufdrucken eines Siegelrings oder durch Schreiben von Zeichen darauf. Die Tatsache, dass Wachs unterschiedliche Formen und sekundäre Eigenschaften (Temperatur, Geruch, Berührung) annehmen kann, während das Volumen (Ausdehnung) gleich bleibt, macht es zu einer reichen Quelle von Analogien, natürlich für die griechische, römische und mittelalterliche Kultur, in der beide Wachs verwendet wurden für Skulptur, Schrift (Wachstafeln) und Enkaustik. Man findet dieses Thema in Schriften so unterschiedlicher Autoren wie Demokrit, Platon, Aristoteles, Theophrast, Cicero, Augustinus, Avicenna, Duns Scotus, Aquin, Descartes und Locke.

2.1 Klassische Philosophie

In der klassischen Philosophie war „Information“ein technischer Begriff, der mit einer Theorie des Wissens und der Ontologie verbunden war, die aus Platons (427–347 v. Chr.) Formtheorie hervorging und in einer Reihe seiner Dialoge entwickelt wurde (Phaedo, Phaedrus, Symposium, Timaios, Republik).. Verschiedene unvollkommene Einzelpferde in der physischen Welt konnten als Pferde identifiziert werden, da sie an der statischen atemporalen und aspatialen Idee der „Horseness“in der Welt der Ideen oder Formen teilnahmen. Als spätere Autoren wie Cicero (106–43 v. Chr.) Und Augustinus (354–430 n. Chr.) Platonische Konzepte in lateinischer Sprache diskutierten, verwendeten sie die Begriffe informare und informatio als Übersetzung für technische griechische Begriffe wie eidos (Essenz), Idee (Idee), Tippfehler (Typ), Morphe (Form) und Prolepsis (Darstellung). Die Wurzel „Form“ist noch im Wort In-Form-Ation erkennbar (Capurro & Hjørland 2003). Platons Formtheorie war ein Versuch, eine Lösung für verschiedene philosophische Probleme zu formulieren: Die Formtheorie vermittelt zwischen einer statischen (Parmenides, ca. 450 v. Chr.) Und einer dynamischen (Herakleitos, ca. 535–475 v. Chr.) Ontologischen Konzeption von Realität und es bietet ein Modell für das Studium der Theorie des menschlichen Wissens. Nach Theophrastus (371–287 v. Chr.) Geht die Analogie der Wachstafel auf Demokrit (ca. 460–380 / 370 v. Chr.) Zurück (De Sensibus 50). Im Theaetetus (191c, d) vergleicht Platon die Funktion unseres Gedächtnisses mit einer Wachstafel, in die unsere Wahrnehmungen und Gedanken wie ein Siegelring eingeprägt sind, der Eindrücke in Wachs stempelt. Beachten Sie, dass die Metapher des Einprägens von Symbolen in Wachs im Wesentlichen räumlich (umfangreich) ist und nicht einfach mit der von Platon unterstützten aspatialen Interpretation von Ideen in Einklang gebracht werden kann.

Man bekommt ein Bild von der Rolle, die der Begriff „Form“in der klassischen Methodik spielt, wenn man Aristoteles '(384–322 v. Chr.) Doktrin der vier Ursachen betrachtet. In der aristotelischen Methodik implizierte das Verstehen eines Objekts das Verstehen von vier verschiedenen Aspekten davon:

Materielle Ursache:: das, durch dessen Anwesenheit etwas entsteht - z. B. die Bronze einer Statue und das Silber einer Tasse und die Klassen, die diese enthalten

Formale Ursache:: die Form oder das Muster; Das heißt, die wesentliche Formel und die Klassen, die sie enthalten, z. B. das Verhältnis 2: 1 und die Zahl im Allgemeinen, sind die Ursache für die Oktave und die Teile der Formel.

Effiziente Ursache:: die Quelle des ersten Beginns der Veränderung oder Ruhe; zB ist der Mann, der plant, eine Ursache, und der Vater ist die Ursache des Kindes, und im Allgemeinen ist das, was produziert, die Ursache für das, was produziert wird, und das, was sich von dem ändert, was geändert wird.

Letzte Ursache:: das gleiche wie "Ende"; dh die letzte Ursache; zB als „Ende“des Gehens ist Gesundheit. Denn warum geht ein Mann? "Um gesund zu sein", sagen wir, und indem wir dies sagen, denken wir, dass wir die Ursache geliefert haben. (Aristoteles, Metaphysik 1013a)

Beachten Sie, dass Aristoteles, der Platons Theorie der Formen als atemporale aspatiale Einheiten ablehnt, immer noch „Form“als technisches Konzept verwendet. Diese Passage besagt, dass die Kenntnis der Form oder Struktur eines Objekts, dh der Information, eine notwendige Voraussetzung für das Verständnis ist. In diesem Sinne ist Information ein entscheidender Aspekt der klassischen Erkenntnistheorie.

Die Tatsache, dass das Verhältnis 2: 1 als Beispiel angeführt wird, zeigt auch die tiefe Verbindung zwischen dem Begriff der Formen und der Idee, dass die Welt von mathematischen Prinzipien regiert wurde. Platon glaubte unter dem Einfluss einer älteren pythagoreischen Tradition (Pythagoras 572 - ca. 500 v. Chr.), Dass „alles, was in der Welt auftaucht und geschieht“, anhand von Zahlen gemessen werden kann (Politicus 285a). Bei verschiedenen Gelegenheiten erwähnt Aristoteles die Tatsache, dass Platon Ideen mit Zahlen assoziierte (Vogel 1968: 139). Obwohl formale mathematische Theorien über Informationen erst im 20. Jahrhundert aufkamen und man darauf achten muss, den griechischen Begriff einer Zahl in keinem modernen Sinne zu interpretieren, geht die Idee, dass Information im Wesentlichen ein mathematischer Begriff war, auf die klassische Philosophie zurück:Die Form einer Entität wurde als Struktur oder Muster konzipiert, die in Zahlen beschrieben werden können. Eine solche Form hatte sowohl einen ontologischen als auch einen erkenntnistheoretischen Aspekt: Sie erklärt das Wesen sowie die Verständlichkeit des Objekts. Das Konzept der Information war also von Anfang an mit Erkenntnistheorie, Ontologie und Mathematik verbunden.

Zwei grundlegende Probleme, die durch die klassische Theorie der Ideen oder Formen nicht erklärt werden, sind 1) der tatsächliche Akt des Erkennens eines Objekts (dh wenn ich ein Pferd sehe, auf welche Weise wird die Idee eines Pferdes in meinem Kopf aktiviert) und 2) der Prozess des Denkens als Manipulation von Ideen. Aristoteles behandelt diese Probleme in De Anime und beruft sich dabei auf die Siegelring-Impression-in-Wachs-Analogie:

Mit „Sinn“ist gemeint, was die Kraft hat, die sinnlichen Formen der Dinge ohne Materie in sich aufzunehmen. Dies muss so verstanden werden, dass es so geschieht, wie ein Stück Wachs den Eindruck eines Siegelrings ohne Eisen oder Gold annimmt; wir sagen, dass das, was den Eindruck erzeugt, ein Siegel aus Bronze oder Gold ist, aber seine besondere metallische Konstitution macht keinen Unterschied: In ähnlicher Weise wird der Sinn durch das beeinflusst, was gefärbt oder aromatisiert ist oder klingt, aber es ist gleichgültig, was in jedem Fall das ist Substanz ist; Was allein zählt, ist, welche Qualität es hat, dh in welchem Verhältnis seine Bestandteile kombiniert werden. (De Anime, Buch II, Kap. 12)

Haben wir nicht bereits die Schwierigkeit der Interaktion mit einem gemeinsamen Element beseitigt, als wir sagten, dass der Geist in gewissem Sinne möglicherweise alles ist, was denkbar ist, obwohl es eigentlich nichts ist, bis es gedacht hat? Was es denkt, muss darin enthalten sein, so wie man sagen kann, dass sich Zeichen auf einem Schreibtablett befinden, auf dem noch nichts geschrieben steht: Genau das passiert mit dem Verstand. (De Anime, Buch III, Kap. 4)

Diese Passagen sind reich an einflussreichen Ideen und können im Nachhinein als programmatisch für eine Informationsphilosophie gelesen werden: Der Informationsprozess kann als Abdruck von Zeichen auf einer Wachstafel (tabula rasa) verstanden werden, das Denken kann im Hinblick auf Manipulation analysiert werden von Symbolen.

2.2 Mittelalterliche Philosophie

Während des gesamten Mittelalters wird die Reflexion über das Konzept der Information von aufeinanderfolgenden Denkern aufgegriffen. Ein Beispiel für den aristotelischen Einfluss ist die Passage von Augustinus in De Trinitate Buch XI. Hier analysiert er das Sehen als Analogie zum Verständnis der Dreifaltigkeit. Es gibt drei Aspekte: die körperliche Form in der Außenwelt, die Information durch den Sehsinn und die daraus resultierende Form im Geist. Für diesen Informationsprozess verwendet Augustinus das Bild eines Siegelrings, der einen Eindruck in Wachs hinterlässt (De Trinitate, XI Cap 2 Par 3). Capurro (2009) stellt fest, dass diese Analyse als frühe Version des technischen Konzepts des „Sendens einer Nachricht“in der modernen Informationstheorie interpretiert werden kann, aber die Idee ist älter und ein allgemeines Thema im griechischen Denken (Plato Theaetetus 191c, d; Aristoteles De Anime, Buch II, Kap. 12, Buch III, Kap. 4;Theophrastus De Sensibus 50).

Der Begriff der tabula rasa wurde später in der Erkenntnistheorie von Avicenna (ca. 980–1037 n. Chr.) Weiterentwickelt:

Der menschliche Intellekt bei der Geburt ist eher wie eine tabula rasa, eine reine Möglichkeit, die durch Bildung verwirklicht und kennengelernt wird. Wissen wird durch empirische Vertrautheit mit Objekten in dieser Welt erlangt, von denen man universelle Konzepte abstrahiert. (Sajjad 2006 [Andere Internetquellen [im Folgenden OIR]])

Die Idee einer tabula rasa-Entwicklung des menschlichen Geistes war das Thema eines Romans Hayy ibn Yaqdhan des arabisch-andalusischen Philosophen Ibn Tufail (1105–1185 n. Chr., Im Westen als „Abubacer“oder „Ebn Tophail“bekannt). Dieser Roman beschreibt die Entwicklung eines isolierten Kindes auf einer einsamen Insel. Eine spätere lateinische Übersetzung unter dem Titel Philosophus Autodidactus (1761) beeinflusste den Empiriker John Locke bei der Formulierung seiner tabula rasa-Doktrin.

Abgesehen von der permanenten kreativen Spannung zwischen Theologie und Philosophie kann das mittelalterliche Denken nach der Wiederentdeckung von Aristoteles 'Metaphysik im 12. Jahrhundert, inspiriert von arabischen Gelehrten, als eine ausgefeilte und subtile Interpretation und Entwicklung der hauptsächlich aristotelischen klassischen Theorie charakterisiert werden. Die Reflexion über den Begriff der Information wird unter dem Einfluss von Avicenna von Denkern wie Aquinas (1225–1274 CE) und Duns Scotus (1265 / 66–1308 CE) aufgegriffen. Wenn Aquin die Frage diskutiert, ob Engel mit Materie interagieren können, verweist er auf die aristotelische Lehre vom Hylomorphismus (dh die Theorie, dass Substanz aus Materie (Hylo (Holz), Materie) und Form (Morphè) besteht). Hier übersetzt Aquin dies als Information über Materie (informatio materiae) (Summa Theologiae, 1a 110 2; Capurro 2009). Duns Scotus bezieht sich auf Informatio im technischen Sinne, wenn er Augustines Visionstheorie in De Trinitate, XI Cap 2, Par 3, diskutiert (Duns Scotus, 1639, „De Imagine“, Ordinatio, I, d.3, S. 3).

Die Spannung, die in der klassischen Philosophie bereits zwischen dem platonischen Idealismus (universalia ante res) und dem aristotelischen Realismus (universalia in rebus) bestand, wird als das Problem der Universalien wieder aufgefasst: Gibt es universelle Eigenschaften wie „Menschlichkeit“oder die Idee eines Pferdes außerhalb des Individuums? Entitäten, die sie instanziieren? Im Zusammenhang mit seiner Ablehnung von Universalien führt Ockham (ca. 1287–1347 n. Chr.) Sein bekanntes Rasiermesser ein: Entitäten sollten nicht über die Notwendigkeit hinaus multipliziert werden. In ihren Schriften verwenden Aquinas und Scotus die lateinischen Begriffe informatio und informare im technischen Sinne, obwohl diese Terminologie von Ockham nicht verwendet wird.

2.3 Moderne Philosophie

Die Geschichte des Informationsbegriffs in der modernen Philosophie ist kompliziert. Wahrscheinlich ab dem 14. Jahrhundert tauchte der Begriff „Information“in verschiedenen sich entwickelnden europäischen Sprachen im allgemeinen Sinne von „Bildung“und „Untersuchung“auf. Das französische historische Wörterbuch von Godefroy (1881) gibt Action de Former, Unterweisung, Enquête, Wissenschaft, Talent als frühe Bedeutung von „Information“. Der Begriff wurde auch explizit für rechtliche Untersuchungen verwendet (Dictionnaire du Moyen Français (1330–1500) 2015). Aufgrund dieser umgangssprachlichen Verwendung verliert der Begriff „Information“allmählich seine Assoziation mit dem Begriff „Form“und erscheint in philosophischen Texten immer weniger im formalen Sinne.

Am Ende des Mittelalters verändern sich Gesellschaft und Wissenschaft grundlegend (Hazard 1935; Ong 1958; Dijksterhuis 1986). In einem langen komplexen Prozess wurde die aristotelische Methodik der vier Ursachen transformiert, um den Bedürfnissen der experimentellen Wissenschaft zu dienen:

  1. Die materielle Ursache entwickelte sich zum modernen Begriff der Materie.
  2. Die formale Ursache wurde als geometrische Form im Raum neu interpretiert.
  3. Die effiziente Ursache wurde als direkte mechanische Wechselwirkung zwischen materiellen Körpern neu definiert.
  4. Die letzte Ursache wurde als unwissenschaftlich abgetan. Aus diesem Grund hatten Newtons Zeitgenossen Schwierigkeiten mit dem Konzept der Schwerkraft in seiner Theorie. Die Schwerkraft als Fernwirkung schien eine Wiedereinführung der endgültigen Ursachen zu sein.

In diesem sich wandelnden Kontext wird die Analogie des Wachsabdrucks neu interpretiert. Eine Proto-Version des modernen Informationskonzepts als Struktur einer Menge oder Folge einfacher Ideen wird von den Empirikern entwickelt, aber da die technische Bedeutung des Begriffs „Information“verloren geht, wird diese Erkenntnistheorie niemals als eine identifiziert neue "Informationstheorie".

Die Folge dieser methodischen Verschiebung ist, dass nur Phänomene, die durch mechanische Wechselwirkungen zwischen materiellen Körpern erklärt werden können, wissenschaftlich untersucht werden können. Dies impliziert im modernen Sinne: die Reduktion intensiver Eigenschaften auf messbare umfangreiche Eigenschaften. Für Galileo ist diese Einsicht programmatisch:

Um in uns Geschmäcker, Gerüche und Geräusche zu erregen, glaube ich, dass in äußeren Körpern nichts außer Formen, Zahlen und langsamen oder schnellen Bewegungen erforderlich ist. (Galileo 1623 [1960: 276)

Diese Erkenntnisse führten später zur Lehre vom Unterschied zwischen primären Qualitäten (Raum, Form, Geschwindigkeit) und sekundären Qualitäten (Wärme, Geschmack, Farbe usw.). Im Kontext der Informationsphilosophie sind Galileos Beobachtungen zur Sekundärqualität von „Wärme“von besonderer Bedeutung, da sie den Grundstein für das Studium der Thermodynamik im 19. Jahrhundert legen:

Nachdem ich gezeigt habe, dass viele Empfindungen, die Eigenschaften sein sollen, die in äußeren Objekten leben, keine wirkliche Existenz haben, außer in uns, und außerhalb von uns bloße Namen sind, sage ich jetzt, dass ich geneigt bin zu glauben, dass Wärme von diesem Charakter ist. Diejenigen Materialien, die in uns Wärme erzeugen und uns Wärme fühlen lassen, die unter dem allgemeinen Namen „Feuer“bekannt sind, wären dann eine Vielzahl winziger Partikel mit bestimmten Formen und Bewegungen mit bestimmten Geschwindigkeiten. (Galileo 1623 [1960: 277)

Ein zentraler Denker dieser Transformation ist René Descartes (1596–1650 n. Chr.). In seinen Meditationen wird die Frage nach der Wechselwirkung zwischen diesen Substanzen zu einem Problem, nachdem er „bewiesen“hat, dass Materie (res extensa) und Geist (res cogitans) unterschiedliche Substanzen sind (dh Formen der Unabhängigkeit). Die Formbarkeit von Wachs ist für Descartes ein explizites Argument gegen den Einfluss der res extensa auf die res cogitans (Meditationes II, 15). Die Tatsache, dass ein Stück Wachs beim Erhitzen leicht seine Form und andere Eigenschaften verliert, impliziert, dass die Sinne für die Identifizierung von Objekten in der Welt nicht ausreichend sind. Wahres Wissen kann also nur durch „Inspektion des Geistes“erreicht werden. Hier wird die Wachsmetapher, die mehr als 1500 Jahre lang zur Erklärung des sensorischen Eindrucks verwendet wurde, verwendet, um gegen die Möglichkeit zu argumentieren, Wissen über die Sinne zu erlangen. Da das Wesen der res extensa die Erweiterung ist, kann das Denken grundsätzlich nicht als räumlicher Prozess verstanden werden. Descartes verwendet immer noch die Begriffe "Form" und "Idee" im ursprünglichen schulischen nicht geometrischen (atemporalen, aspatialen) Sinne. Ein Beispiel ist der kurze formale Beweis der Existenz Gottes in der zweiten Antwort auf Mersenne in den Meditationes de Prima PhilosophiaEin Beispiel ist der kurze formale Beweis der Existenz Gottes in der zweiten Antwort auf Mersenne in den Meditationes de Prima PhilosophiaEin Beispiel ist der kurze formale Beweis der Existenz Gottes in der zweiten Antwort auf Mersenne in den Meditationes de Prima Philosophia

Ich benutze den Begriff Idee, um mich auf die Form eines bestimmten Gedankens zu beziehen, dessen unmittelbare Wahrnehmung mich auf den Gedanken aufmerksam macht.

(Idee nomine Intelligigo cujuslibet cogitationis formam illam, per cujus unmittelbare Wahrnehmung ipsius ejusdem cogitationis bewusste Summe)

Ich nenne sie "Ideen", sagt Descartes

nur insoweit, als sie den Geist selbst verändern, wenn sie diesen Teil des Gehirns informieren.

(Sed Tantum Quatenus Mentem Ipsam in Illam Cerebri Partem Conversam Informant). (Descartes, 1641, Ad Secundas Einwände, Rationes, Dei existentiam & Anime Unterscheidung probantes, mehr Geometrico dispositae.)

Da die res extensa und die res cogitans unterschiedliche Substanzen sind, kann der Denkakt niemals im Raum nachgeahmt werden: Maschinen können nicht die universelle Fähigkeit der Vernunft haben. Descartes gibt zwei verschiedene Motivationen:

Von diesen ist das erste, dass sie niemals Wörter oder andere Zeichen verwenden könnten, die so angeordnet sind, wie es für uns kompetent ist, um unsere Gedanken anderen zu erklären: (…) Der zweite Test ist, dass solche Maschinen zwar viele Dinge ausführen könnten Gleiche oder vielleicht größere Vollkommenheit als jeder von uns, würden sie zweifellos bei bestimmten anderen versagen, aus denen hervorgeht, dass sie nicht aus Wissen, sondern nur aus der Disposition ihrer Organe handelten: Denn während die Vernunft ein universelles Instrument ist das heißt, bei jeder Gelegenheit gleichermaßen verfügbar, benötigen diese Organe im Gegenteil eine bestimmte Anordnung für jede bestimmte Handlung; woher muss es moralisch unmöglich sein, dass es in irgendeiner Maschine eine Vielfalt von Organen gibt, die ausreicht, um es zu ermöglichen, in allen Ereignissen des Lebens so zu handeln, wie unsere Vernunft es uns ermöglicht, zu handeln.(Discourse de la Méthode, 1647)

Die Passage ist relevant, da sie direkt gegen die Möglichkeit künstlicher Intelligenz spricht und sogar als Argument gegen die Möglichkeit einer universellen Turingmaschine interpretiert werden kann: Die Vernunft als universelles Instrument kann niemals im Raum emuliert werden. Diese Konzeption steht im Gegensatz zu dem modernen Informationskonzept, das als messbare Größe im Wesentlichen räumlich, dh umfangreich ist (sich jedoch in einem anderen Sinne von dem von Descartes unterscheidet).

Descartes präsentiert keine neue Interpretation der Begriffe Form und Idee, aber er bereitet die Bühne für eine Debatte über die Natur von Ideen, die sich um zwei entgegengesetzte Positionen entwickelt:

Rationalismus: Die kartesische Vorstellung, dass Ideen angeboren und somit a priori sind. Diese Form des Rationalismus impliziert eine Interpretation des Begriffs von Ideen und Formen als atemporale, aspatiale, aber komplexe Strukturen, dh die Idee eines „Pferdes“(dh mit Kopf, Körper und Beinen). Es passt auch gut zur Interpretation des wissenden Subjekts als geschaffenes Wesen (ens creatu). Gott schuf den Menschen nach seinem eigenen Bild und versorgte so den menschlichen Geist mit angemessenen Ideen, um seine Schöpfung zu verstehen. In dieser Theorie ist das Wachstum des Wissens a priori begrenzt. Die Schaffung neuer Ideen ex nihilo ist unmöglich. Diese Ansicht ist schwer mit dem Konzept der experimentellen Wissenschaft zu vereinbaren.

Empirismus: Konzepte werden im Kopf a posteriori auf der Grundlage von Ideen konstruiert, die mit sensorischen Eindrücken verbunden sind. Diese Lehre impliziert eine neue Interpretation des Begriffs der Idee als:

Was auch immer das Objekt des Verstehens ist, wenn ein Mensch denkt … was auch immer mit Phantasma, Vorstellung, Spezies oder was auch immer gemeint ist, worüber der Verstand beim Denken eingesetzt werden kann. (Locke 1689, bk I, ch 1, Abs. 8)

Hier werden Ideen als elementare Bausteine menschlichen Wissens und menschlicher Reflexion verstanden. Dies passt gut zu den Anforderungen der experimentellen Wissenschaft. Der Nachteil ist, dass der Geist niemals apodeiktische Wahrheiten über Ursache und Wirkung und das Wesen beobachteter Wesenheiten, einschließlich seiner eigenen Identität, formulieren kann. Das menschliche Wissen wird im Wesentlichen probabilistisch (Locke 1689: bk I, Kap. 4, Abs. 25).

Lockes Neuinterpretation des Begriffs der Idee als „struktureller Platzhalter“für jede im Geist vorhandene Entität ist ein wesentlicher Schritt bei der Entstehung des modernen Informationskonzepts. Da diese Ideen nicht an der Rechtfertigung des apodeiktischen Wissens beteiligt sind, verschwindet die Notwendigkeit, die atemporale und aspatiale Natur von Ideen zu betonen. Die Konstruktion von Konzepten auf der Grundlage einer Sammlung elementarer Ideen, die auf sensorischen Erfahrungen beruhen, öffnet das Tor zu einer Rekonstruktion von Wissen als einer umfassenden Eigenschaft eines Agenten: Mehr Ideen implizieren wahrscheinlicheres Wissen.

In der zweiten Hälfte des 17. Jahrhunderts wird die formale Wahrscheinlichkeitstheorie von Forschern wie Pascal (1623–1662), Fermat (1601 oder 1606–1665) und Christiaan Huygens (1629–1695) entwickelt. Das Werk De ratiociniis in ludo aleae von Huygens wurde von John Arbuthnot (1692) ins Englische übersetzt. Für diese Autoren war die Welt im Wesentlichen mechanistisch und damit deterministisch. Die Wahrscheinlichkeit war eine Qualität des menschlichen Wissens, die durch ihre Unvollkommenheit verursacht wurde:

Es ist unmöglich, dass ein Würfel mit solch einer bestimmten Kraft und Richtung nicht auf eine so bestimmte Seite fällt, nur ich kenne nicht die Kraft und Richtung, die ihn auf eine so bestimmte Seite fallen lässt, und deshalb ich nenne es Zufall, was nichts anderes ist als der Mangel an Kunst;… (John Arbuthnot der Gesetze des Zufalls (1692), Vorwort)

Dieser Text beeinflusste wahrscheinlich Hume, der als erster die formale Wahrscheinlichkeitstheorie mit der Erkenntnistheorie verband:

Obwohl es auf der Welt keinen Zufall gibt; Unsere Unkenntnis der wahren Ursache eines Ereignisses hat den gleichen Einfluss auf das Verständnis und erzeugt eine ähnliche Art von Glauben oder Meinung. (…) Wenn ein Farbstoff mit einer Figur oder Anzahl von Punkten auf vier Seiten und mit einer anderen Figur oder Anzahl von Punkten auf den beiden verbleibenden Seiten markiert wäre, wäre es wahrscheinlicher, dass der erstere auftaucht als der letztere; Wenn jedoch tausend Seiten auf die gleiche Weise markiert und nur eine Seite unterschiedlich wären, wäre die Wahrscheinlichkeit viel höher und unser Glaube oder unsere Erwartung an das Ereignis stabiler und sicherer. Dieser Prozess des Denkens oder Denkens mag trivial und offensichtlich erscheinen; aber für diejenigen, die es enger betrachten, kann es vielleicht Anlass zu merkwürdigen Spekulationen geben. (Hume 1748: Abschnitt VI, „Zur Wahrscheinlichkeit“1)

Hier wird das Wissen über die Zukunft als Grad des Glaubens anhand der Wahrscheinlichkeit gemessen, die wiederum anhand der Anzahl der Konfigurationen erklärt wird, die ein deterministisches System in der Welt haben kann. Die Grundbausteine einer modernen Informationstheorie sind vorhanden. Mit diesem neuen Wissenskonzept legten Empiriker den Grundstein für die spätere Entwicklung der Thermodynamik als Reduktion der Sekundärqualität von Wärme auf die Primärqualitäten von Körpern.

Gleichzeitig scheint der Begriff „Information“in den Schriften der Empiriker viel von seiner technischen Bedeutung verloren zu haben, so dass diese neue Entwicklung nicht als Neuinterpretation des Begriffs „Information“bezeichnet wird. Locke verwendet manchmal den Ausdruck, dass unsere Sinne uns über die Welt „informieren“und gelegentlich das Wort „Information“.

Zu welcher Information, zu welchem Wissen, trägt dieser Satz in sich, nämlich. "Blei ist ein Metall" für einen Mann, der die komplexe Idee kennt, für die der Name Blei steht? (Locke 1689: bk IV, ch 8, Abs. 4)

Hume scheint Informationen auf die gleiche beiläufige Weise zu verwenden, wenn er Folgendes beobachtet:

Zwei Objekte, die sich zwar vollkommen ähneln und sogar zu unterschiedlichen Zeiten am selben Ort erscheinen, können numerisch unterschiedlich sein: Und da die Kraft, durch die ein Objekt ein anderes hervorbringt, niemals nur aus ihrer Idee heraus erkennbar ist, ist sie offensichtliche Ursache und Wirkung sind Beziehungen, von denen wir Informationen aus Erfahrung erhalten und nicht aus abstrakten Überlegungen oder Überlegungen. (Hume 1739: Teil III, Abschnitt 1)

Die Methodik der Empiriker ist nicht unproblematisch. Das größte Problem ist, dass alles Wissen probabilistisch und a posteriori wird. Immanuel Kant (1724–1804) war einer der ersten, der darauf hinwies, dass der menschliche Geist die Metakonzepte von Raum, Zeit und Kausalität versteht, die selbst niemals als Ergebnis einer bloßen Kombination von „Ideen“verstanden werden können.. Darüber hinaus erlauben uns diese Intuitionen, wissenschaftliche Erkenntnisse mit Sicherheit zu formulieren: dh die Tatsache, dass die Summe der Winkel eines Dreiecks im euklidischen Raum 180 Grad beträgt. Dieses Problem kann im empirischen Rahmen nicht erklärt werden. Wenn Wissen durch Kombination von Ideen erzeugt wird, muss es eine a priori Synthese von Ideen im menschlichen Geist geben. Nach Kant bedeutet dies, dass der menschliche Geist seine eigene Fähigkeit zur Formulierung wissenschaftlicher Urteile bewerten kann. In seiner Kritik der reinen Vernunft (1781) entwickelte Kant die transzendentale Philosophie als Untersuchung der notwendigen Bedingungen menschlichen Wissens. Obwohl Kants transzendentales Programm nicht direkt zur Entwicklung des Informationskonzepts beitrug, beeinflusste er die Erforschung der für dieses Fach relevanten Grundlagen der Mathematik und des Wissens im 19. und 20. Jahrhundert: z. B. die Arbeit von Frege, Husserl, Russell, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper und Quine. Er beeinflusste die Forschung zu den für dieses Fach relevanten Grundlagen der Mathematik und des Wissens im 19. und 20. Jahrhundert: z. B. die Arbeiten von Frege, Husserl, Russell, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper und Quine. Er beeinflusste die Forschung zu den für dieses Fach relevanten Grundlagen der Mathematik und des Wissens im 19. und 20. Jahrhundert: z. B. die Arbeiten von Frege, Husserl, Russell, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper und Quine.

2.4 Historische Entwicklung der Bedeutung des Begriffs „Information“

Die Geschichte des Begriffs „Information“ist eng mit der Untersuchung zentraler Probleme in der Erkenntnistheorie und Ontologie in der westlichen Philosophie verbunden. Nach einem Beginn als Fachbegriff in klassischen und mittelalterlichen Texten verschwand der Begriff „Information“fast aus dem philosophischen Diskurs der modernen Philosophie, gewann jedoch in der Umgangssprache an Popularität. Allmählich erhielt der Begriff den Status eines abstrakten Massennomen, eine Bedeutung, die orthogonal zur klassischen prozessorientierten Bedeutung ist. In dieser Form wurde es im 20. Jahrhundert von mehreren Forschern (Fisher 1925; Shannon 1948) aufgegriffen, die formale Methoden zur Messung von „Informationen“einführten. Dies führte wiederum zu einer Wiederbelebung des philosophischen Interesses am Informationsbegriff. Diese komplexe Geschichte scheint einer der Hauptgründe für die Schwierigkeiten bei der Formulierung einer Definition eines einheitlichen Informationskonzepts zu sein, das alle unsere Intuitionen erfüllt. Mindestens drei verschiedene Bedeutungen des Wortes „Information“sind historisch relevant:

"Information" als der Prozess der Information

Dies ist die älteste Bedeutung, die man in den Schriften von Autoren wie Cicero (106–43 v. Chr.) Und Augustinus (354–430 n. Chr.) Findet, und sie geht im modernen Diskurs verloren, obwohl die Assoziation von Informationen mit Prozessen (dh Rechnen, Fließen) oder Senden einer Nachricht) existiert noch. In der klassischen Philosophie könnte man sagen, wenn ich ein Pferd als solches erkenne, dann ist mir die „Form“eines Pferdes in den Sinn gekommen. Dieser Prozess ist meine „Information“über die Natur des Pferdes. Auch der Akt des Unterrichts könnte als „Information“eines Schülers bezeichnet werden. Im gleichen Sinne könnte man sagen, dass ein Bildhauer eine Skulptur schafft, indem er ein Stück Marmor „informiert“. Die Aufgabe des Bildhauers ist die „Information“der Statue (Capurro & Hjørland 2003). Diese prozessorientierte Bedeutung hat im westeuropäischen Diskurs ziemlich lange überlebt:Schon im 18. Jahrhundert konnte Robinson Crusoe die Erziehung seines Dieners Freitag als seine „Information“bezeichnen (Defoe 1719: 261). In diesem Sinne wird es auch von Berkeley verwendet: „Ich liebe Informationen zu allen Themen, die mir in den Weg kommen, und insbesondere zu den wichtigsten“(Alciphron Dialogue 1, Abschnitt 5, Absatz 6/10, siehe Berkeley 1732).

"Information" als Zustand eines Agenten

dh als Ergebnis des Prozesses der Information. Wenn man einem Schüler den Satz von Pythagoras beibringt, kann man sagen, dass der Schüler nach Abschluss dieses Prozesses „die Informationen über den Satz von Pythagoras hat“. In diesem Sinne ist der Begriff „Information“das Ergebnis derselben verdächtigen Form der Begründung eines Verbs (informare (gt) informatio) wie viele andere technische Begriffe in der Philosophie (Substanz, Bewusstsein, Subjekt, Objekt). Diese Art der Begriffsbildung ist bekannt für die damit verbundenen konzeptuellen Schwierigkeiten. Kann man die Tatsache, dass ich Bewusstsein habe, aus der Tatsache ableiten, dass ich bewusst bin? Kann man die Tatsache, dass ich Informationen habe, aus der Tatsache ableiten, dass ich informiert wurde? Die Umwandlung in diese moderne begründete Bedeutung scheint schrittweise und in Westeuropa zumindest ab der Mitte des 15. Jahrhunderts allgemein gewesen zu sein. In der Renaissance konnte ein Gelehrter als „Mann der Information“bezeichnet werden, ähnlich wie wir jetzt sagen können, dass jemand eine Ausbildung erhalten hat (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). In „Emma“von Jane Austen kann man lesen: „Mr. Ich nehme an, Martin ist kein Mann der Information, der über sein eigenes Geschäft hinausgeht. Er liest nicht “(Austen 1815: 21). Ähnlich wie wir jetzt sagen können, dass jemand eine Ausbildung erhalten hat (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). In „Emma“von Jane Austen kann man lesen: „Mr. Ich nehme an, Martin ist kein Mann der Information, der über sein eigenes Geschäft hinausgeht. Er liest nicht “(Austen 1815: 21). Ähnlich wie wir jetzt sagen können, dass jemand eine Ausbildung erhalten hat (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). In „Emma“von Jane Austen kann man lesen: „Mr. Ich nehme an, Martin ist kein Mann der Information, der über sein eigenes Geschäft hinausgeht. Er liest nicht “(Austen 1815: 21).

"Information" als Disposition zur Information

dh als Fähigkeit eines Objekts, einen Agenten zu informieren. Wenn der Akt, mich den Satz von Pythagoras zu lehren, mir Informationen über diesen Satz hinterlässt, ist es nur natürlich anzunehmen, dass ein Text, in dem der Satz erklärt wird, diese Informationen tatsächlich „enthält“. Der Text kann mich informieren, wenn ich ihn lese. Im gleichen Sinne kann ich, wenn ich Informationen von einem Lehrer erhalten habe, diese Informationen an einen anderen Schüler weitergeben. So werden Informationen zu etwas, das gespeichert und gemessen werden kann. Dieses letzte Konzept der Information als abstraktes Massennomen hat in der modernen Gesellschaft breite Akzeptanz gefunden und im neunzehnten Jahrhundert seine endgültige Form gefunden, so dass Sherlock Homes folgende Beobachtungen machen kann:„… Freund Lestrade hielt Informationen in seinen Händen, deren Wert er selbst nicht kannte“(„Das Abenteuer des edlen Junggesellen“, Conan Doyle 1892). Die Assoziation mit den technisch-philosophischen Begriffen wie „Form“und „Informieren“ist aus dem allgemeinen Bewusstsein verschwunden, obwohl die Assoziation zwischen Informationen und Prozessen wie Speichern, Sammeln, Rechnen und Lehren noch besteht.

3. Bausteine moderner Informationstheorien

Im Nachhinein sind viele Begriffe, die mit optimalen Codesystemen, idealen Sprachen und der Assoziation zwischen Computer- und Verarbeitungssprache zu tun haben, seit dem 17. Jahrhundert wiederkehrende Themen in der philosophischen Reflexion.

3.1 Sprachen

Einer der ausführlichsten Vorschläge für eine universelle „philosophische“Sprache wurde von Bischof John Wilkins gemacht: „Ein Essay über einen realen Charakter und eine philosophische Sprache“(1668). Wilkins 'Projekt bestand aus einem ausgeklügelten Symbolsystem, das angeblich mit eindeutigen Konzepten in der Realität verbunden war. Vorschläge wie diese machten Philosophen sensibel für die tiefen Verbindungen zwischen Sprache und Denken. Die empiristische Methodik ermöglichte es, die Entwicklung der Sprache als ein System konventioneller Zeichen im Sinne von Assoziationen zwischen Ideen im menschlichen Geist zu verstehen. Das Problem, das derzeit als Symbolgrundproblem bekannt ist (wie erhalten willkürliche Zeichen ihre inter-subjektive Bedeutung), war eine der am heftigsten diskutierten Fragen im 18. Jahrhundert im Zusammenhang mit dem Problem der Herkunft von Sprachen. Verschiedene Denker wie Vico, Condillac, Rousseau, Diderot, Herder und Haman leisteten Beiträge. Die zentrale Frage war, ob die Sprache a priori (von Gott) gegeben wurde oder ob sie konstruiert wurde und somit eine Erfindung des Menschen selbst ist. Typisch war der Wettbewerb, der 1769 von der Königlich Preußischen Akademie der Wissenschaften veranstaltet wurde:

En supposant les hommes verlassen à leurs facultés naturelles, sont-ils en état d'inventer le langage? Et par quels moyens parviendront-ils d'eux-mêmes à cette Erfindung?

Unter der Annahme, dass Männer ihren natürlichen Fähigkeiten überlassen sind, können sie Sprache erfinden und auf welche Weise werden sie zu dieser Erfindung kommen? [1]

Die Kontroverse tobte über ein Jahrhundert lang ohne Abschluss, und 1866 verbannte die Linguistische Gesellschaft von Paris (Société de Linguistique de Paris) das Thema aus ihrer Arena. [2]

Philosophisch relevanter ist die Arbeit von Leibniz (1646–1716) an einer sogenannten Characteristica universalis: der Begriff eines universellen logischen Kalküls, der das perfekte Vehikel für wissenschaftliches Denken wäre. Eine zentrale Voraussetzung in Leibniz 'Philosophie ist, dass eine solch perfekte Wissenschaftssprache im Prinzip aufgrund der vollkommenen Natur der Welt wie der Schöpfung Gottes möglich ist (Verhältnis essendi = ration cognoscendi, der Ursprung des Seins ist der Ursprung des Wissens). Dieses Prinzip wurde von Wolff (1679–1754) abgelehnt, der heuristisch orientierte Charakteristika-Kombinatoren vorschlug (van Peursen 1987). Diese Ideen mussten auf Denker wie Boole (1854, Eine Untersuchung der Denkgesetze), Frege (1879, Begriffsschrift) warten,Peirce (der bereits 1886 vorschlug, elektrische Schaltkreise zur Verarbeitung logischer Operationen zu verwenden) und Whitehead und Russell (1910–1913, Principia Mathematica) suchten nach einer fruchtbareren Behandlung.

3.2 Optimale Codes

Die Tatsache, dass die Häufigkeit von Buchstaben in einer Sprache variiert, war seit der Erfindung des Buchdrucks bekannt. Drucker benötigten viel mehr "e" und "t" als "x" oder "q", um einen englischen Text zu setzen. Dieses Wissen wurde seit dem 17. Jahrhundert ausgiebig zum Entschlüsseln von Chiffren genutzt (Kahn 1967; Singh 1999). 1844 bestimmte ein Assistent von Samuel Morse, Alfred Vail, die Häufigkeit der in einer lokalen Zeitung in Morristown, New Jersey, verwendeten Buchstaben und optimierte damit den Morsecode. So wurde der Kern der Theorie der optimalen Codes bereits lange vor der Entwicklung der mathematischen Grundlage durch Shannon festgelegt (Shannon 1948; Shannon & Weaver 1949). Historisch wichtig, aber philosophisch weniger relevant sind die Bemühungen von Charles Babbage, Rechenmaschinen zu konstruieren (Difference Engine, 1821,und die Analytical Engine 1834–1871) und der Versuch von Ada Lovelace (1815–1852), die erste Programmiersprache für die Analytical Engine zu entwerfen.

3.3 Zahlen

Die einfachste Art, Zahlen darzustellen, ist ein unäres System. Hier ist die Länge der Darstellung einer Zahl gleich der Größe der Zahl selbst, dh die Zahl "zehn" wird als "" dargestellt. Das klassische römische Zahlensystem ist eine Verbesserung, da es verschiedene Symbole für verschiedene Größenordnungen enthält (eins = I, zehn = X, hundert = C, tausend = M). Dieses System hat enorme Nachteile, da man im Prinzip unendlich viele Symbole benötigt, um die natürlichen Zahlen zu codieren, und aus diesem Grund dieselben mathematischen Operationen (Addieren, Multiplizieren usw.) unterschiedliche Formen in unterschiedlichen Größenordnungen annehmen. Um 500 n. Chr. Wurde die Zahl Null in Indien erfunden. Mit Null als Platzhalter können wir eine Unendlichkeit von Zahlen mit einer endlichen Menge von Symbolen codieren (eins = I, zehn = 10, hundert = 100, tausend = 1000 usw.). Aus heutiger Sicht ist eine unendliche Anzahl von Positionssystemen möglich, solange wir 0 als Platzhalter und eine endliche Anzahl anderer Symbole haben. Unser normales Dezimalzahlensystem hat zehn Ziffern „0, 1, 2, 3, 4, 5, 6, 7, 8, 9“und repräsentiert die Zahl zweihundertfünfundfünfzig als „255“. In einem Binärzahlensystem haben wir nur die Symbole "0" und "1". Hier wird zweihundertfünfundfünfzig als "11111111" dargestellt. In einem Hexadezimalsystem mit 16 Symbolen (0, 1, 2, 3, 4, 5, 6, 7, 8, 9, a, b, c, d, e, f) kann dieselbe Zahl als "ff" geschrieben werden.. Beachten Sie, dass sich die Länge dieser Darstellungen erheblich unterscheidet. Mit dieser Darstellung können mathematische Operationen unabhängig von der Größenordnung der Zahlen, mit denen wir uns befassen, standardisiert werden, dh der Möglichkeit einer einheitlichen algorithmischen Behandlung mathematischer Funktionen (Addition,Subtraktion, Multiplikation und Division usw.) sind mit einem solchen Positionssystem verbunden.

Das Konzept eines Positionszahlensystems wurde vom persischen Mathematiker al-Khwarizmi (ca. 780 - ca. 850 n. Chr.) Nach Europa gebracht. Sein Hauptwerk über Zahlen (ca. 820 n. Chr.) Wurde im 12. Jahrhundert als Liber Algebrae et Almucabola ins Lateinische übersetzt, was uns unter anderem den Begriff „Algebra“gab. Unser Wort "Algorithmus" leitet sich von Algoritmi ab, der lateinischen Form seines Namens. Positionsnummernsysteme vereinfachten kommerzielle und wissenschaftliche Berechnungen.

1544 führte Michael Stifel das Konzept des Exponenten einer Zahl in Arithmetica integra (1544) ein. Somit kann 8 als (2 ^ 3) und 25 als (5 ^ 2) geschrieben werden. Der Begriff eines Exponenten legt sofort den Begriff eines Logarithmus als seine Umkehrfunktion nahe: (log_b b ^ a) = a). Stifel verglich die arithmetische Folge:

[-3, -2, -1, 0, 1, 2, 3)

wobei der Term 1 eine Differenz von 1 zur geometrischen Reihenfolge hat:

) frac {1} {8}, \ frac {1} {4}, \ frac {1} {2}, 1, 2, 4, 8)

in dem die Terme ein Verhältnis von 2 haben. Die Exponentenschreibweise erlaubte ihm, die Werte der zweiten Tabelle wie folgt umzuschreiben:

[2 ^ {- 3}, 2 ^ {- 2}, 2 ^ {- 1}, 2 ^ 0, 2 ^ 1, 2 ^ 2, 2 ^ 3)

welches die beiden Tabellen kombiniert. Dies war wohl die erste logarithmische Tabelle. Eine endgültigere und praktischere Theorie der Logarithmen wird von John Napier (1550–1617) in seinem Hauptwerk (Napier 1614) entwickelt. Er prägte den Begriff Logarithmus (Logos + Arithmetik: Zahlenverhältnis). Wie aus der Übereinstimmung zwischen arithmetischen und geometrischen Verläufen hervorgeht, reduzieren Logarithmen Produkte auf Summen:

) log_b (xy) = \ log_b (x) + \ log_b (y))

Sie reduzieren auch Spaltungen auf Unterschiede:

) log_b (x / y) = \ log_b (x) - \ log_b (y))

und Befugnisse zu Produkten:

) log_b (x ^ p) = p \ log_b (x))

Nach der Veröffentlichung der logarithmischen Tabellen durch Briggs (1624) gewann diese neue Technik zur Erleichterung komplexer Berechnungen rasch an Popularität.

3.4 Physik

Galileo (1623) hatte bereits vorgeschlagen, die Analyse von Phänomenen wie Wärme und Druck auf die Untersuchung der Bewegungen von Elementarteilchen zu reduzieren. Innerhalb der empirischen Methodik könnte dies als die Frage verstanden werden, wie die sensorische Erfahrung der sekundären Wärmequalität eines Objekts oder eines Gases auf Bewegungen von Partikeln reduziert werden könnte. Bernoulli (Hydrodynamica, veröffentlicht 1738) war der erste, der eine kinetische Theorie von Gasen entwickelte, in der makroskopisch beobachtbare Phänomene in Form von Mikrozuständen von Partikelsystemen beschrieben werden, die den Gesetzen der Newtonschen Mechanik entsprechen, aber es war eine intellektuelle Anstrengung, diese zu entwickeln mit einer angemessenen mathematischen Behandlung. Clausius (1850) machte einen abschließenden Schritt, als er den Begriff des mittleren freien Weges eines Teilchens zwischen zwei Kollisionen einführte. Dies eröffnete den Weg für eine statistische Behandlung durch Maxwell, der 1857 seine Verteilung formulierte, das erste statistische Gesetz in der Physik. Die endgültige Formel, die alle Begriffe miteinander verband (und die auf seinem Grabstein eingraviert ist, obwohl die eigentliche Formel Planck zu verdanken ist), wurde von Boltzmann entwickelt:

[S = k \ log W)

Es beschreibt die Entropie S eines Systems als Logarithmus der Anzahl möglicher Mikrozustände W in Übereinstimmung mit den beobachtbaren makroskopischen Zuständen des Systems, wobei k die bekannte Boltzmann-Konstante ist. In all seiner Einfachheit kann der Wert dieser Formel für die moderne Wissenschaft kaum überschätzt werden. Der Ausdruck "(log W)" kann aus Sicht der Informationstheorie auf verschiedene Arten interpretiert werden:

  • Als Entropiemenge im System.
  • Als Länge der Zahl, die benötigt wird, um alle möglichen Mikrozustände zu zählen, die mit makroskopischen Beobachtungen übereinstimmen.
  • Als Länge eines optimalen Index müssen wir den spezifischen aktuellen unbekannten Mikrozustand des Systems identifizieren, dh er ist ein Maß für unseren „Mangel an Informationen“.
  • Als Maß für die Wahrscheinlichkeit eines typischen spezifischen Mikrozustands des Systems im Einklang mit makroskopischen Beobachtungen.

Somit verbindet es die additive Natur des Logarithmus mit den umfangreichen Eigenschaften von Entropie, Wahrscheinlichkeit, Typizität und Information und ist ein grundlegender Schritt in der Verwendung der Mathematik zur Analyse der Natur. Später verfeinerte Gibbs (1906) die Formel:

[S = - \ sum_i p_i \ ln p_i,)

Dabei ist (p_i) die Wahrscheinlichkeit, dass sich das System im Mikrozustand (i ^ { textrm {th}}) befindet. Diese Formel wurde von Shannon (1948; Shannon & Weaver 1949) übernommen, um die Kommunikationsentropie eines Nachrichtensystems zu charakterisieren. Obwohl ein enger Zusammenhang zwischen der mathematischen Behandlung von Entropie und Information besteht, ist die genaue Interpretation dieser Tatsache seitdem umstritten (Harremoës & Topsøe 2008; Bais & Farmer 2008).

4. Entwicklungen in der Informationsphilosophie

Die modernen Informationstheorien entstanden Mitte des 20. Jahrhunderts in einem spezifischen intellektuellen Klima, in dem die Distanz zwischen den Wissenschaften und Teilen der akademischen Philosophie ziemlich groß war. Einige Philosophen zeigten eine spezifische anti-wissenschaftliche Haltung: Heidegger, „Die Wissenschaft denkt nicht. Andererseits diskreditierten die Philosophen aus dem Wiener Kreis die traditionelle Philosophie offen als Umgang mit illusionären Problemen (Carnap 1928). Das Forschungsprogramm des logischen Positivismus war eine rigorose Rekonstruktion der Philosophie auf der Grundlage einer Kombination aus Empirismus und den jüngsten Fortschritten in der Logik. Vielleicht aufgrund dieses intellektuellen Klimas fanden frühe wichtige Entwicklungen in der Informationstheorie isoliert von der allgemeinen philosophischen Reflexion statt. Ein Meilenstein ist die Arbeit von Dretske in den frühen achtziger Jahren (Dretske 1981). Seit der Jahrhundertwende hat das Interesse an Informationsphilosophie erheblich zugenommen, hauptsächlich unter dem Einfluss der Arbeit von Luciano Floridi auf semantische Informationen. Auch die rasche theoretische Entwicklung des Quantencomputers und der damit verbundene Begriff der Quanteninformation haben Auswirkungen auf die philosophische Reflexion.

4.1 Popper: Informationen als Grad der Fälschbarkeit

Das Forschungsprogramm des logischen Positivismus des Wiener Kreises in der ersten Hälfte des 20. Jahrhunderts hat das ältere Projekt des Empirismus wiederbelebt. Ihr Ziel war es, wissenschaftliche Erkenntnisse auf der Grundlage direkter Beobachtungen und der logischen Beziehung zwischen Aussagen über diese Beobachtungen zu rekonstruieren. Die alte Kritik an Kant am Empirismus wurde von Quine (1951) wiederbelebt. Im Rahmen des logischen Positivismus war die Induktion ungültig und die Kausalität konnte niemals objektiv festgestellt werden. In seiner Logik der Forschung (1934) formuliert Popper sein bekanntes Abgrenzungskriterium und positioniert dies explizit als Lösung für Humes Induktionsproblem (Popper 1934 [1977: 42]). Wissenschaftliche Theorien, die als allgemeine Gesetze formuliert sind, können niemals endgültig verifiziert werden, aber sie können durch nur eine Beobachtung verfälscht werden. Dies impliziert, dass eine Theorie „wissenschaftlicher“ist, wenn sie reicher ist und mehr Möglichkeiten bietet, gefälscht zu werden:

Man kann also sagen, dass die Menge an empirischer Information, die durch eine Theorie vermittelt wird, oder ihr empirischer Inhalt mit ihrem Grad an Fälschbarkeit zunimmt. (Popper 1934 [1977: 113], Schwerpunkt im Original)

Dieses Zitat im Kontext von Poppers Forschungsprogramm zeigt, dass der Ehrgeiz, die Menge empirischer Informationen in der wissenschaftlichen Theorie zu messen, die als Satz logischer Aussagen konzipiert wurde, bereits mehr als ein Jahrzehnt vor der Formulierung seiner Informationstheorie als philosophisches Problem erkannt wurde. Popper ist sich der Tatsache bewusst, dass der empirische Inhalt einer Theorie mit ihrer Fälschbarkeit zusammenhängt und dass dies wiederum einen Zusammenhang mit der Wahrscheinlichkeit der Aussagen in der Theorie hat. Theorien mit empirischeren Informationen sind weniger wahrscheinlich. Popper unterscheidet logische Wahrscheinlichkeit von numerischer Wahrscheinlichkeit ("die in der Theorie von Spielen und Zufall und in der Statistik verwendet wird"; Popper 1934 [1977: 119]). In einer Passage, die für die spätere Entwicklung des Informationsbegriffs programmatisch ist, definiert er den Begriff der logischen Wahrscheinlichkeit:

Die logische Wahrscheinlichkeit einer Aussage ergänzt ihre Fälschbarkeit: Sie nimmt mit abnehmendem Grad an Fälschbarkeit zu. Die logische Wahrscheinlichkeit 1 entspricht dem Grad 0 der Fälschbarkeit und umgekehrt. (Popper 1934 [1977: 119], Schwerpunkt im Original)

Es ist möglich, die numerische Wahrscheinlichkeit so zu interpretieren, dass sie auf eine Teilsequenz (ausgewählt aus der logischen Wahrscheinlichkeitsrelation) angewendet wird, für die auf der Grundlage von Frequenzschätzungen ein Messsystem definiert werden kann. (Popper 1934 [1977: 119], Schwerpunkt im Original)

Popper gelang es nie, eine gute formale Theorie zur Messung dieser Informationsmenge zu formulieren, obwohl er in späteren Schriften vorschlägt, dass Shannons Informationstheorie nützlich sein könnte (Popper 1934 [1977], 404 [Anhang IX, ab 1954]). Diese Fragen wurden später in der Wissenschaftsphilosophie entwickelt. Die Konformationstheorie untersucht die Induktionstheorie und die Art und Weise, wie Beweise eine bestimmte Theorie „stützen“(Huber 2007 [OIR]). Obwohl die Arbeit von Carnap wichtige Entwicklungen sowohl in der Wissenschaftsphilosophie als auch in der Informationsphilosophie motivierte, scheint die Verbindung zwischen den beiden Disziplinen verloren gegangen zu sein. In Kuipers (2007a) wird weder die Informationstheorie noch eine der grundlegenderen Arbeiten der Informationsphilosophie erwähnt, aber die beiden Disziplinen haben sicherlich überlappende Bereiche. (Siehe z.die Diskussion des sogenannten Black Ravens Paradox von Kuipers (2007b) und Rathmanner & Hutter (2011).)

4.2 Shannon: In Bezug auf die Wahrscheinlichkeit definierte Informationen

In zwei wegweisenden Veröffentlichungen charakterisierte Shannon (1948; Shannon & Weaver 1949) die Kommunikationsentropie eines Nachrichtensystems A:

[H (P) = - \ sum_ {i \ in A} p_i \ log_2 p_i)

Hier ist (p_i) die Wahrscheinlichkeit der Nachricht i in A. Dies ist genau die Formel für Gibbs Entropie in der Physik. Die Verwendung von Basis-2-Logarithmen stellt sicher, dass die Codelänge in Bits (Binärziffern) gemessen wird. Es ist leicht zu erkennen, dass die Kommunikationsentropie eines Systems maximal ist, wenn alle Nachrichten die gleiche Wahrscheinlichkeit haben und daher typisch sind.

Die Informationsmenge I in einer einzelnen Nachricht x ist gegeben durch:

[I (x) = - \ log p_x)

Diese Formel, die als Umkehrung der Boltzmann-Entropie interpretiert werden kann, deckt eine Reihe unserer grundlegenden Intuitionen über Informationen ab:

  • Eine Nachricht x hat eine bestimmte Wahrscheinlichkeit (p_x) zwischen 0 und 1 des Auftretens.
  • Wenn (p_x = 1), dann (I (x) = 0). Wenn wir sicher sind, dass wir eine Nachricht erhalten, enthält sie buchstäblich keine „Nachrichten“. Je geringer die Wahrscheinlichkeit der Nachricht ist, desto mehr Informationen enthält sie. Eine Nachricht wie „Die Sonne geht morgen auf“scheint weniger Informationen zu enthalten als die Nachricht „Jesus war Cäsar“, gerade weil die zweite Aussage von niemandem verteidigt werden kann (obwohl sie im Internet zu finden ist).
  • Wenn zwei Nachrichten x und y nicht zusammenhängen, ist (I (x \ textrm {und} y) = I (x) + I (y)). Die Informationen sind umfangreich. Die Informationsmenge in zwei kombinierten Nachrichten entspricht der Summe der Informationsmenge in den einzelnen Nachrichten.

Informationen als negatives Protokoll der Wahrscheinlichkeit sind die einzige mathematische Funktion, die diese Einschränkungen genau erfüllt (Cover & Thomas 2006). Shannon bietet einen theoretischen Rahmen, in dem binäre Zeichenfolgen als Wörter in einer (Programmier-) Sprache interpretiert werden können, die eine bestimmte Menge an Informationen enthält (siehe 3.1 Sprachen). Der Ausdruck (- \ log p_x) gibt genau die Länge eines optimalen Codes für die Nachricht x an und formalisiert als solches die alte Intuition, dass Codes effizienter sind, wenn häufige Buchstaben kürzere Darstellungen erhalten (siehe 3.2 Optimale Codes). Logarithmen als Reduktion der Multiplikation zur Addition (siehe 3.3 Zahlen) sind eine natürliche Darstellung umfangreicher Eigenschaften von Systemen und wurden bereits im 19. Jahrhundert von Physikern als solche verwendet (siehe 3.4 Physik).

Ein Aspekt von Informationen, den Shannons Definition ausdrücklich nicht abdeckt, ist der tatsächliche Inhalt der Nachrichten, die als Sätze interpretiert werden. Die Aussagen „Jesus war Cäsar“und „Der Mond besteht aus grünem Käse“enthalten möglicherweise dieselbe Menge an Informationen, während ihre Bedeutung völlig unterschiedlich ist. Ein großer Teil der Bemühungen in der Informationsphilosophie war auf die Formulierung semantischerer Informationstheorien gerichtet (Bar-Hillel & Carnap 1953; Floridi 2002, 2003, 2011). Obwohl Shannons Vorschläge von Philosophen zunächst fast vollständig ignoriert wurden, hat sich in den letzten Jahrzehnten herausgestellt, dass ihre Auswirkungen auf philosophische Fragen groß sind. Dretske (1981) war einer der ersten, der die philosophischen Implikationen von Shannons Theorie analysierte. Die genaue Beziehung zwischen verschiedenen Logiksystemen und Informationstheorie ist jedoch noch unklar (siehe 6.6 Logik und semantische Information).

4.3 Solomonoff, Kolmogorov, Chaitin: Information als Länge eines Programms

Dieses Problem, eine Reihe von Aussagen mit einer Reihe von Beobachtungen in Beziehung zu setzen und die entsprechende Wahrscheinlichkeit zu definieren, wurde von Carnap (1945, 1950) aufgegriffen. Er unterschied zwei Arten von Wahrscheinlichkeiten: Wahrscheinlichkeit (_ 1) oder "Bestätigungsgrad" (P_1 (h; e)) ist eine logische Beziehung zwischen zwei Sätzen, einer Hypothese h und einem Satz e, die eine Reihe von Beobachtungen enthalten. Aussagen dieser Art sind entweder analytisch oder widersprüchlich. Die zweite Form, Wahrscheinlichkeit (_ 2) oder "relative Häufigkeit", ist das statistische Konzept. In den Worten seines Schülers Solomonoff (1997):

Carnaps Wahrscheinlichkeitsmodell begann mit einer langen Folge von Symbolen, die das gesamte Universum beschreiben. Durch seine eigene formale sprachliche Analyse war er in der Lage, jeder möglichen Folge von Symbolen, die das Universum darstellen könnten, a priori Wahrscheinlichkeiten zuzuweisen.

Die Methode zur Zuweisung der von Carnap verwendeten Wahrscheinlichkeiten war nicht universell und hing stark von den verwendeten Codesystemen ab. Eine allgemeine Induktionstheorie unter Verwendung der Bayes-Regel kann nur entwickelt werden, wenn wir einer „möglichen Zeichenfolge“eine universelle Wahrscheinlichkeit zuweisen können. In einer Arbeit von 1960 skizzierte Solomonoff (1960, 1964a, b) als erster einen Entwurf einer Lösung für dieses Problem. Er formulierte den Begriff der sogenannten universellen Wahrscheinlichkeitsverteilung: Betrachten Sie die Menge aller möglichen endlichen Zeichenfolgen als Programme für eine universelle Turing-Maschine U und definieren Sie die Wahrscheinlichkeit einer Zeichenfolge x von Symbolen in Bezug auf die Länge des kürzesten Programms p, das x auf U ausgibt.

Dieser Begriff der algorithmischen Informationstheorie wurde etwas später von Kolmogorov (1965) und Chaitin (1969) unabhängig voneinander erfunden. Levin (1974) entwickelte einen mathematischen Ausdruck der universellen a priori Wahrscheinlichkeit als universelle (dh maximale) niedrigere semikompatible Halbmessung M und zeigte, dass der negative Logarithmus von (M (x)) mit der Kolmogorov-Komplexität von x übereinstimmt bis zu einem additiven logarithmischen Term. Die tatsächliche Definition des Komplexitätsmaßes lautet:

Kolmogorov-Komplexität Die algorithmische Komplexität eines Strings x ist die Länge (cal {l} (p)) des kleinsten Programms p, das x erzeugt, wenn es auf einer universellen Turing-Maschine U ausgeführt wird, die als (U (p) bezeichnet wird. = x):

[K (x): = \ min_p {l (p), U (p) = x })

Die algorithmische Informationstheorie (auch bekannt als Kolmogorov-Komplexitätstheorie) hat sich zu einem reichen Forschungsfeld mit einer Vielzahl von Anwendungsbereichen entwickelt, von denen viele philosophisch relevant sind (Li & Vitányi 1997):

  • Es liefert uns eine allgemeine Induktionstheorie. Die Verwendung der Bayes-Regel ermöglicht eine moderne Neuformulierung von Ockhams Rasiermesser in Bezug auf die minimale Beschreibungslänge (Rissanen 1978, 1989; Barron, Rissanen & Yu 1998; Grünwald 2007) und die minimale Nachrichtenlänge (Wallace 2005). Beachten Sie, dass Domingos (1998) gegen die allgemeine Gültigkeit dieser Prinzipien argumentiert hat.
  • Es ermöglicht uns, Wahrscheinlichkeiten und Informationsinhalte für einzelne Objekte zu formulieren. Auch einzelne natürliche Zahlen.
  • Es legt den Grundstein für eine Theorie des Lernens als Datenkomprimierung (Adriaans 2007).
  • Es gibt eine Definition der Zufälligkeit eines Strings in Bezug auf Inkompressibilität. Dies hat an sich zu einem völlig neuen Forschungsbereich geführt (Niess 2009; Downey & Hirschfeld 2010).
  • Es erlaubt uns, ein objektives a priori Maß für den Vorhersagewert einer Theorie in Bezug auf ihren Zufallsmangel zu formulieren: Das heißt, die beste Theorie ist die kürzeste Theorie, die die Daten zufällig von der Theorie abhängig erscheinen lässt. (Vereshchagin & Vitányi 2004).

Es gibt auch Nachteile:

  • Die algorithmische Komplexität ist nicht berechenbar, obwohl sie in vielen praktischen Fällen angenähert werden kann und kommerzielle Komprimierungsprogramme in einigen Fällen dem theoretischen Optimum nahe kommen (Cilibrasi & Vitányi 2005).
  • Die algorithmische Komplexität ist ein asymptotisches Maß (dh sie ergibt einen Wert, der bis zu einer Konstanten korrekt ist). In einigen Fällen ist der Wert dieser Konstante für die Verwendung in praktischen Zwecken unerschwinglich.
  • Obwohl die kürzeste Theorie immer die beste in Bezug auf Zufallsmangel ist, ist die inkrementelle Komprimierung von alt = "sep man icon" /> Zitieren dieses Eintrags.

    Sep Mann Symbol
    Sep Mann Symbol

    Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.

    Inpho-Symbol
    Inpho-Symbol

    Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.

    Phil Papers Ikone
    Phil Papers Ikone

    Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.

    Andere Internetquellen

    • Aaronson, Scott, 2006, Gründe zu glauben, Shtetl-optimierter Blog-Beitrag, 4. September 2006.
    • Adriaans, Pieter W., 2016, „Eine allgemeine Theorie der Information und Berechnung“, unveröffentlichtes Manuskript, November 2016, arXiv: 1611.07829.
    • Bekenstein, Jacob D., 1994, „Verstehen wir die Entropie des Schwarzen Lochs?“, Plenarvortrag beim siebten Marcel Grossman-Treffen an der Stanford University., ArXiv: gr-qc / 9409015.
    • Churchill, Alex, 2012, Magic: Die Versammlung ist abgeschlossen.
    • Cook, Stephen, 2000, Das P versus NP-Problem, Clay Mathematical Institute; Das Millennium-Preis-Problem.
    • Huber, Franz, 2007, Bestätigung und Induktion, Eintrag in der Internet Encyclopedia of Philosophy.
    • Sajjad, H. Rizvi, 2006, „Avicenna / Ibn Sina“, Eintrag in der Internet Encyclopedia of Philosophy.
    • Goodman, L. und Weisstein, EW, 2019, „The Riemann Hypothesis“, aus MathWorld - A Wolfram Web Resource.
    • Berechenbarkeit - Was würde es bedeuten, die Church-Turing-These zu widerlegen?, Diskussion über Theoretical Computer Science StackExchange.
    • Primzahlsatz, Encyclopedia Britannica, 20. Dezember 2010.
    • Hardware-Zufallszahlengenerator, Wikipedia-Eintrag, November 2018.

Beliebt nach Thema