Verbindungismus

Inhaltsverzeichnis:

Verbindungismus
Verbindungismus

Video: Verbindungismus

Video: Verbindungismus
Video: -ismus 2023, Dezember
Anonim

Dies ist eine Datei im Archiv der Stanford Encyclopedia of Philosophy. Zitieren Sie diesen Eintrag | Freunde PDF Vorschau | InPho-Suche | PhilPapers Bibliographie

Verbindungismus

Erstveröffentlichung am 18. Mai 1997; inhaltliche Überarbeitung Di 27.07.2010

Der Verbindungismus ist eine Bewegung in der Kognitionswissenschaft, die darauf hofft, die intellektuellen Fähigkeiten des Menschen mithilfe künstlicher neuronaler Netze (auch als "neuronale Netze" oder "neuronale Netze" bekannt) zu erklären. Neuronale Netze sind vereinfachte Modelle des Gehirns, die aus einer großen Anzahl von Einheiten (den Analoga von Neuronen) zusammen mit Gewichten bestehen, die die Stärke der Verbindungen zwischen den Einheiten messen. Diese Gewichte modellieren die Auswirkungen der Synapsen, die ein Neuron mit einem anderen verbinden. Experimente an Modellen dieser Art haben gezeigt, dass Fähigkeiten wie Gesichtserkennung, Lesen und das Erkennen einfacher grammatikalischer Strukturen erlernt werden können.

Philosophen haben sich für Konnektionismus interessiert, weil er eine Alternative zur klassischen Theorie des Geistes verspricht: die weit verbreitete Ansicht, dass der Geist so etwas wie ein digitaler Computer ist, der eine symbolische Sprache verarbeitet. Wie und inwieweit das verbindungsorientierte Paradigma eine Herausforderung für den Klassizismus darstellt, war in den letzten Jahren Gegenstand heißer Debatten.

  • 1. Eine Beschreibung neuronaler Netze
  • 2. Lernen und Backpropagation neuronaler Netze
  • 3. Beispiele dafür, was neuronale Netze leisten können
  • 4. Stärken und Schwächen neuronaler Netzwerkmodelle
  • 5. Die Form der Kontroverse zwischen Connectionists und Classicists
  • 6. Connectionist Vertretung
  • 7. Die Systematikdebatte
  • 8. Konnektionismus und semantische Ähnlichkeit
  • 9. Konnektionismus und die Beseitigung der Volkspsychologie
  • Literaturverzeichnis
  • Andere Internetquellen
  • Verwandte Einträge

1. Eine Beschreibung neuronaler Netze

Ein neuronales Netzwerk besteht aus einer großen Anzahl von Einheiten, die in einem Verbindungsmuster miteinander verbunden sind. Einheiten in einem Netz werden normalerweise in drei Klassen unterteilt: Eingabeeinheiten, die zu verarbeitende Informationen erhalten, Ausgabeeinheiten, in denen die Ergebnisse der Verarbeitung gefunden werden, und Einheiten dazwischen, die als versteckte Einheiten bezeichnet werden. Wenn ein neuronales Netz das gesamte menschliche Nervensystem modellieren würde, wären die Eingabeeinheiten analog zu den sensorischen Neuronen, die Ausgabeeinheiten zu den Motoneuronen und die verborgenen Einheiten zu allen anderen Neuronen.

Hier ist eine einfache Darstellung eines einfachen neuronalen Netzes:

Netz
Netz

Jede Eingabeeinheit hat einen Aktivierungswert, der eine Funktion außerhalb des Netzes darstellt. Eine Eingabeeinheit sendet ihren Aktivierungswert an jede der versteckten Einheiten, mit denen sie verbunden ist. Jede dieser versteckten Einheiten berechnet ihren eigenen Aktivierungswert in Abhängigkeit von den Aktivierungswerten, die sie von den Eingabeeinheiten erhalten. Dieses Signal wird dann an Ausgabeeinheiten oder an eine andere Schicht versteckter Einheiten weitergeleitet. Diese versteckten Einheiten berechnen ihre Aktivierungswerte auf die gleiche Weise und senden sie an ihre Nachbarn. Schließlich breitet sich das Signal an den Eingabeeinheiten vollständig durch das Netz aus, um die Aktivierungswerte an allen Ausgabeeinheiten zu bestimmen.

Das von einem Netz eingerichtete Aktivierungsmuster wird durch das Gewicht oder die Stärke der Verbindungen zwischen den Einheiten bestimmt. Gewichte können sowohl positiv als auch negativ sein. Ein negatives Gewicht repräsentiert die Hemmung der Empfangseinheit durch die Aktivität einer Sendeeinheit. Der Aktivierungswert für jede Empfangseinheit wird anhand einer einfachen Aktivierungsfunktion berechnet. Die Aktivierungsfunktionen variieren im Detail, entsprechen jedoch alle demselben Grundplan. Die Funktion summiert die Beiträge aller sendenden Einheiten, wobei der Beitrag einer Einheit als das Gewicht der Verbindung zwischen den sendenden und empfangenden Einheiten multipliziert mit dem Aktivierungswert der sendenden Einheit definiert ist. Diese Summe wird normalerweise weiter modifiziert, zum Beispieldurch Einstellen der Aktivierungssumme auf einen Wert zwischen 0 und 1 und / oder durch Setzen der Aktivierung auf Null, sofern kein Schwellenwert für die Summe erreicht ist. Konnektionisten gehen davon aus, dass kognitive Funktionen durch Sammlungen von Einheiten erklärt werden können, die auf diese Weise funktionieren. Da davon ausgegangen wird, dass alle Einheiten so ziemlich dieselbe einfache Aktivierungsfunktion berechnen, müssen die intellektuellen Leistungen des Menschen in erster Linie von den Einstellungen der Gewichte zwischen den Einheiten abhängen.

Die oben dargestellte Art von Netz wird als Feed-Forward-Netz bezeichnet. Die Aktivierung erfolgt direkt von den Eingängen zu versteckten Einheiten und dann weiter zu den Ausgabeeinheiten. Realistischere Modelle des Gehirns würden viele Schichten versteckter Einheiten und wiederkehrende Verbindungen umfassen, die Signale von höheren zu niedrigeren Ebenen zurücksenden. Eine solche Wiederholung ist notwendig, um kognitive Merkmale wie das Kurzzeitgedächtnis zu erklären. In einem Feed-Forward-Netz erzeugen wiederholte Präsentationen desselben Inputs jedes Mal den gleichen Output, aber selbst die einfachsten Organismen gewöhnen sich an die wiederholte Präsentation desselben Stimulus (oder lernen, diese zu ignorieren). Konnektionisten neigen dazu, wiederkehrende Verbindungen zu vermeiden, da wenig über das allgemeine Problem des Trainings wiederkehrender Netze verstanden wird. Elman (1991) und andere haben jedoch einige Fortschritte mit einfachen wiederkehrenden Netzen erzielt.wo die Wiederholung stark eingeschränkt ist.

2. Lernen und Backpropagation neuronaler Netze

Das Finden der richtigen Gewichte zur Erfüllung einer bestimmten Aufgabe ist das zentrale Ziel der verbindungsorientierten Forschung. Glücklicherweise wurden Lernalgorithmen entwickelt, mit denen die richtigen Gewichte für die Ausführung vieler Aufgaben berechnet werden können. (Eine leicht zugängliche Übersicht finden Sie in Hinton 1992.) Eine der am häufigsten verwendeten dieser Trainingsmethoden ist die Backpropagation. Um diese Methode anwenden zu können, benötigt man einen Trainingssatz, der aus vielen Beispielen für Eingaben und deren gewünschten Ausgaben für eine bestimmte Aufgabe besteht. Wenn die Aufgabe beispielsweise darin besteht, männliche von weiblichen Gesichtern zu unterscheiden, kann der Trainingssatz Bilder von Gesichtern zusammen mit einer Angabe des Geschlechts der jeweils abgebildeten Person enthalten. Ein Netz, das diese Aufgabe lernen kann, verfügt möglicherweise über zwei Ausgabeeinheiten (die die Kategorien männlich und weiblich angeben) und viele Eingabeeinheiten, von denen eine der Helligkeit jedes Pixels (winziger Bereich) im Bild gewidmet ist. Die Gewichte des zu trainierenden Netzes werden anfänglich auf zufällige Werte eingestellt, und dann werden Mitglieder des Trainingssatzes wiederholt dem Netz ausgesetzt. Die Werte für die Eingabe eines Elements werden auf die Eingabeeinheiten gelegt und die Ausgabe des Netzes wird mit der gewünschten Ausgabe für dieses Element verglichen. Dann werden alle Gewichte im Netz leicht in die Richtung angepasst, die die Ausgabewerte des Netzes näher an die Werte für die gewünschte Ausgabe bringen würde. Wenn beispielsweise das männliche Gesicht den Eingabeeinheiten präsentiert wird, werden die Gewichte so eingestellt, dass der Wert der männlichen Ausgabeeinheit erhöht und der Wert der weiblichen Ausgabeeinheit verringert wird. Nach vielen Wiederholungen dieses Prozesses kann das Netz lernen, die gewünschte Ausgabe für jede Eingabe im Trainingssatz zu erzeugen. Wenn das Training gut läuft,Viele haben auch gelernt, das gewünschte Verhalten für Ein- und Ausgänge zu verallgemeinern, die nicht im Trainingssatz enthalten waren. Zum Beispiel kann es gut dazu beitragen, Männer von Frauen in Bildern zu unterscheiden, die ihm noch nie zuvor präsentiert wurden.

Das Training von Netzen zur Modellierung von Aspekten der menschlichen Intelligenz ist eine Kunst. Der Erfolg mit Backpropagation und anderen verbindungsorientierten Lernmethoden kann von einer subtilen Anpassung des Algorithmus und des Trainingssatzes abhängen. Das Training umfasst normalerweise Hunderttausende von Runden zur Gewichtsanpassung. Angesichts der Einschränkungen von Computern, die derzeit verbindungsorientierten Forschern zur Verfügung stehen, kann das Training eines Netzes zur Ausführung einer interessanten Aufgabe Tage oder sogar Wochen dauern. Einige der Schwierigkeiten können gelöst werden, wenn Parallelschaltungen, die speziell für die Ausführung neuronaler Netzwerkmodelle entwickelt wurden, weit verbreitet sind. Aber auch hier bleiben einige Einschränkungen der konnektionistischen Lerntheorien zu bewältigen. Menschen (und viele weniger intelligente Tiere) zeigen die Fähigkeit, aus einzelnen Ereignissen zu lernen. Zum Beispiel wird ein Tier, das ein Futter frisst, das später Magenbeschwerden verursacht, dieses Futter nie wieder versuchen. Konnektionistische Lerntechniken wie Backpropagation sind weit davon entfernt, diese Art des "One-Shot" -Lernens zu erklären.

3. Beispiele dafür, was neuronale Netze leisten können

Konnektionisten haben erhebliche Fortschritte bei der Demonstration der Fähigkeit neuronaler Netze erzielt, kognitive Aufgaben zu meistern. Hier sind drei bekannte Experimente, die Konnektionisten dazu ermutigt haben zu glauben, dass neuronale Netze gute Modelle menschlicher Intelligenz sind. Eine der attraktivsten dieser Bemühungen ist Sejnowskis und Rosenbergs Arbeit von 1987 an einem Netz, das englischen Text namens NETtalk lesen kann. Das Trainingsset für NETtalk war eine große Datenbank, die aus englischem Text und der entsprechenden phonetischen Ausgabe bestand und in einem Code geschrieben war, der für die Verwendung mit einem Sprachsynthesizer geeignet war. Bänder von NETtalks Leistung in verschiedenen Phasen seines Trainings sind sehr interessant zu hören. Die Ausgabe ist zunächst zufälliges Rauschen. Später klingt das Netz wie plappernd,und später immer noch, als würde es Englisch sprechen (Sprache, die aus Lauten besteht, die englischen Wörtern ähneln). Am Ende des Trainings spricht NETtalk den ihm gegebenen Text ziemlich gut aus. Darüber hinaus lässt sich diese Fähigkeit ziemlich gut auf Text verallgemeinern, der nicht im Trainingssatz enthalten war.

Ein weiteres einflussreiches frühes verbindungsorientiertes Modell war ein Netz, das von Rumelhart und McClelland (1986) trainiert wurde, um die Vergangenheitsform englischer Verben vorherzusagen. Die Aufgabe ist interessant, denn obwohl die meisten Verben im Englischen (die regulären Verben) die Vergangenheitsform bilden, indem sie das Suffix '-ed' hinzufügen, sind viele der häufigsten Verben unregelmäßig ('is' / 'was', 'come'). / 'kam', 'ging' / 'ging'). Das Netz wurde zuerst an einem Satz trainiert, der eine große Anzahl unregelmäßiger Verben enthielt, und später an einem Satz von 460 Verben, die hauptsächlich reguläre Verben enthielten. Das Netz lernte die Vergangenheitsform der 460 Verben in etwa 200 Trainingsrunden und verallgemeinerte sich ziemlich gut auf Verben, die nicht im Trainingssatz enthalten waren. Es zeigte sich sogar eine gute Einschätzung der „Regelmäßigkeiten“, die unter den unregelmäßigen Verben zu finden sind ('senden' / 'gesendet', 'bauen' / 'gebaut' 'blasen' / 'blasen', 'fliegen' / 'fliegen').. Während des LernensDa das System dem Trainingssatz ausgesetzt war, der regelmäßigere Verben enthielt, neigte es dazu, zu unregelmäßig zu werden, dh sowohl unregelmäßige als auch reguläre Formen zu kombinieren: ('break' / 'broked' anstelle von 'break' / 'brach'). Dies wurde mit mehr Training korrigiert. Es ist interessant festzustellen, dass Kinder bekanntermaßen die gleiche Tendenz zur Überregulierung während des Sprachenlernens aufweisen. Es gibt jedoch eine heiße Debatte darüber, ob Rumelhart und McClelland ein gutes Modell dafür sind, wie Menschen Verbendungen tatsächlich lernen und verarbeiten. Zum Beispiel weisen Pinker & Prince (1988) darauf hin, dass das Modell schlecht auf einige neuartige reguläre Verben verallgemeinert. Sie glauben, dass dies ein Zeichen für ein grundlegendes Versagen in verbindungsorientierten Modellen ist. Netze können gut Assoziationen und passende Muster herstellen. Sie haben jedoch grundlegende Einschränkungen bei der Beherrschung allgemeiner Regeln wie der Bildung der regulären Vergangenheitsform. Diese Beschwerden werfen für verbindungsorientierte Modellierer ein wichtiges Problem auf, nämlich ob Netze richtig verallgemeinern können, um kognitive Aufgaben mit Regeln zu meistern. Trotz der Einwände von Pinker und Prince glauben viele Konnektionisten, dass eine Verallgemeinerung der richtigen Art immer noch möglich ist (Niklasson und van Gelder 1994).

Elmans Arbeit von 1991 über Netze, die die grammatikalische Struktur schätzen können, hat wichtige Auswirkungen auf die Debatte darüber, ob neuronale Netze lernen können, Regeln zu beherrschen. Elman trainierte ein einfaches wiederkehrendes Netzwerk, um das nächste Wort in einem großen Korpus englischer Sätze vorherzusagen. Die Sätze wurden aus einem einfachen Vokabular von 23 Wörtern unter Verwendung einer Teilmenge der englischen Grammatik gebildet. Die Grammatik war zwar einfach, stellte jedoch einen harten Test für das Sprachbewusstsein dar. Es ermöglichte die unbegrenzte Bildung von Relativsätzen und forderte gleichzeitig eine Einigung zwischen dem Hauptnomen und dem Verb. So zum Beispiel im Satz

Jeder Mann, der Hunde jagt, die Katzen jagen … rennt s.

Der singuläre ' Mann ' muss mit dem Verb 'run s ' übereinstimmen'trotz der dazwischenliegenden Pluralnomen (' Hunde ',' Katzen '), die die Auswahl von' Laufen 'verursachen könnten. Eines der wichtigen Merkmale von Elmans Modell ist die Verwendung wiederkehrender Verbindungen. Die Werte an den ausgeblendeten Einheiten werden in einer Reihe von sogenannten Kontexteinheiten gespeichert, um für die nächste Verarbeitungsrunde an die Eingabeebene zurückgesendet zu werden. Diese Rückschleife von versteckten zu Eingabeebenen bietet dem Netz eine rudimentäre Form der Erinnerung an die Folge von Wörtern im Eingabesatz. Elmans Netze zeigten eine Wertschätzung der grammatikalischen Struktur von Sätzen, die nicht im Trainingssatz enthalten waren. Der Syntaxbefehl des Netzes wurde folgendermaßen gemessen. Das nächste Wort in einem englischen Satz vorherzusagen, ist natürlich eine unmögliche Aufgabe. Diese Netze waren jedoch zumindest durch die folgende Maßnahme erfolgreich. An einem bestimmten Punkt in einem Eingabesatz,Die Ausgabeeinheiten für Wörter, die zu diesem Zeitpunkt grammatikalische Fortsetzungen des Satzes sind, sollten aktiv sein, und die Ausgabeeinheiten für alle anderen Wörter sollten inaktiv sein. Nach intensivem Training war Elman in der Lage, Netze herzustellen, die bei dieser Maßnahme eine perfekte Leistung zeigten, einschließlich Sätzen, die nicht im Trainingssatz enthalten waren.

Obwohl diese Leistung beeindruckend ist, ist es noch ein langer Weg, Trainingsnetze zu trainieren, die Sprache verarbeiten können. Darüber hinaus wurden Zweifel an der Bedeutung der Ergebnisse von Elman geäußert. Zum Beispiel argumentiert Marcus (1998, 2001), dass Elmans Netze diese Leistung nicht auf Sätze verallgemeinern können, die aus einem neuartigen Vokabular gebildet wurden. Dies sei ein Zeichen dafür, dass verbindungsorientierte Modelle lediglich Instanzen assoziieren und abstrakte Regeln nicht wirklich beherrschen können. Andererseits argumentiert Phillips (2002), dass klassische Architekturen in dieser Hinsicht nicht besser dran sind. Die angebliche Unfähigkeit verbindungsorientierter Modelle, die Leistung auf diese Weise zu verallgemeinern, ist zu einem wichtigen Thema in der Systematikdebatte geworden. (Siehe Abschnitt 7 unten.)

Ein etwas anderes Anliegen hinsichtlich der Angemessenheit der verbindungsorientierten Sprachverarbeitung konzentriert sich auf Aufgaben, die das Lernen einfacher künstlicher Grammatiken durch Säuglinge nachahmen. Daten zur Reaktionszeit bestätigen, dass Säuglinge lernen können, wohlgeformte von schlecht geformten Sätzen in einer neuartigen Sprache zu unterscheiden, die von Experimentatoren erstellt wurde. Shultz und Bale (2001) berichten über Erfolge beim Training neuronaler Netze für dieselbe Aufgabe. Vilcu und Hadley (2005) beanstanden, dass diese Arbeit keinen echten Erwerb der Grammatik demonstriert, siehe jedoch Shultz und Bale (2006) für eine detaillierte Antwort.

4. Stärken und Schwächen neuronaler Netzwerkmodelle

Philosophen interessieren sich für neuronale Netze, weil sie möglicherweise einen neuen Rahmen für das Verständnis der Natur des Geistes und seiner Beziehung zum Gehirn bieten (Rumelhart und McClelland 1986, Kapitel 1). Konnektionistische Modelle scheinen besonders gut auf das abgestimmt zu sein, was wir über Neurologie wissen. Das Gehirn ist in der Tat ein neuronales Netz, das aus massiv vielen Einheiten (Neuronen) und ihren Verbindungen (Synapsen) besteht. Darüber hinaus legen verschiedene Eigenschaften neuronaler Netzwerkmodelle nahe, dass der Konnektionismus ein besonders genaues Bild der Natur der kognitiven Verarbeitung liefern kann. Neuronale Netze weisen angesichts der Herausforderungen der realen Welt eine robuste Flexibilität auf. Eine verrauschte Eingabe oder Zerstörung von Einheiten führt zu einer geringfügigen Verschlechterung der Funktion. Die Antwort des Netzes ist immer noch angemessen, wenn auch etwas ungenauer. Im Gegensatz,Rauschen und Schaltkreisverlust in klassischen Computern führen typischerweise zu einem katastrophalen Ausfall. Neuronale Netze eignen sich auch besonders gut für Probleme, bei denen viele widersprüchliche Einschränkungen parallel gelöst werden müssen. Es gibt zahlreiche Belege aus der Forschung zur künstlichen Intelligenz, dass kognitive Aufgaben wie Objekterkennung, Planung und sogar koordinierte Bewegung Probleme dieser Art darstellen. Obwohl klassische Systeme in der Lage sind, mehrere Einschränkungen zu erfüllen, argumentieren Konnektionisten, dass neuronale Netzwerkmodelle viel natürlichere Mechanismen für die Behandlung solcher Probleme bieten. Es gibt zahlreiche Belege aus der Forschung zur künstlichen Intelligenz, dass kognitive Aufgaben wie Objekterkennung, Planung und sogar koordinierte Bewegung Probleme dieser Art darstellen. Obwohl klassische Systeme in der Lage sind, mehrere Einschränkungen zu erfüllen, argumentieren Konnektionisten, dass neuronale Netzwerkmodelle viel natürlichere Mechanismen für die Behandlung solcher Probleme bieten. Es gibt zahlreiche Belege aus der Forschung zur künstlichen Intelligenz, dass kognitive Aufgaben wie Objekterkennung, Planung und sogar koordinierte Bewegung Probleme dieser Art darstellen. Obwohl klassische Systeme in der Lage sind, mehrere Einschränkungen zu erfüllen, argumentieren Konnektionisten, dass neuronale Netzwerkmodelle viel natürlichere Mechanismen für die Behandlung solcher Probleme bieten.

Im Laufe der Jahrhunderte hatten Philosophen Schwierigkeiten zu verstehen, wie unsere Konzepte definiert sind. Es ist mittlerweile allgemein anerkannt, dass der Versuch, gewöhnliche Begriffe mit notwendigen und ausreichenden Bedingungen zu charakterisieren, zum Scheitern verurteilt ist. Ausnahmen von fast jeder vorgeschlagenen Definition warten immer in den Startlöchern. Zum Beispiel könnte man vorschlagen, dass ein Tiger eine große schwarz-orange Katze ist. Aber was ist dann mit Albino-Tigern? Philosophen und kognitive Psychologen haben argumentiert, dass Kategorien auf flexiblere Weise abgegrenzt werden, beispielsweise durch den Begriff der Familienähnlichkeit oder Ähnlichkeit mit einem Prototyp. Connectionist-Modelle scheinen besonders gut geeignet zu sein, um abgestufte Vorstellungen einer solchen Kategoriemitgliedschaft zu berücksichtigen. Netze können lernen, subtile statistische Muster zu schätzen, die sich nur schwer als feste Regeln ausdrücken lassen. Der Konnektionismus verspricht, die in der menschlichen Intelligenz gefundene Flexibilität und Einsicht mit Methoden zu erklären, die nicht einfach in Form von ausnahmefreien Prinzipien ausgedrückt werden können (Horgan und Tienson 1989, 1990), wodurch die Sprödigkeit vermieden wird, die sich aus Standardformen der symbolischen Darstellung ergibt.

Trotz dieser faszinierenden Merkmale gibt es einige Schwächen in verbindungsorientierten Modellen, die erwähnt werden müssen. Erstens abstrahiert die meiste neuronale Netzwerkforschung von vielen interessanten und möglicherweise wichtigen Merkmalen des Gehirns. Zum Beispiel versuchen Konnektionisten normalerweise nicht, die Vielfalt verschiedener Arten von Gehirnneuronen oder die Auswirkungen von Neurotransmittern und Hormonen explizit zu modellieren. Darüber hinaus ist es alles andere als klar, dass das Gehirn die Art von umgekehrten Verbindungen enthält, die erforderlich wären, wenn das Gehirn durch einen Prozess wie Backpropagation lernen würde, und die immense Anzahl von Wiederholungen, die für solche Trainingsmethoden erforderlich sind, scheint alles andere als realistisch. Die Beachtung dieser Fragen wird wahrscheinlich notwendig sein, wenn überzeugende verbindungsorientierte Modelle der menschlichen kognitiven Verarbeitung konstruiert werden sollen. Ein schwerwiegenderer Einwand muss ebenfalls erfüllt werden. Insbesondere unter Klassikern ist weit verbreitet, dass neuronale Netze nicht besonders gut in der Art der regelbasierten Verarbeitung sind, von der angenommen wird, dass sie Sprache, Argumentation und höhere Formen des Denkens untermauert. (Für eine bekannte Kritik dieser Art siehe Pinker und Prince 1988.) Wir werden die Angelegenheit weiter diskutieren, wenn wir uns der Systematikdebatte zuwenden.

5. Die Form der Kontroverse zwischen Connectionists und Classicists

Die letzten vierzig Jahre waren geprägt von der klassischen Ansicht, dass (zumindest höhere) menschliche Wahrnehmung analog zur symbolischen Berechnung in digitalen Computern ist. In der klassischen Darstellung werden Informationen durch Zeichenfolgen dargestellt, genauso wie wir Daten im Computerspeicher oder auf Papier darstellen. Der Konnektionist behauptet andererseits, dass Informationen nicht symbolisch in den Gewichten oder Verbindungsstärken zwischen den Einheiten eines neuronalen Netzes gespeichert sind. Der Klassiker glaubt, dass das Erkennen der digitalen Verarbeitung ähnelt, bei der Zeichenfolgen nach den Anweisungen eines (symbolischen) Programms nacheinander erzeugt werden. Der Konnektionist betrachtet die mentale Verarbeitung als die dynamische und abgestufte Entwicklung der Aktivität in einem neuronalen Netz, wobei die Aktivierung jeder Einheit von den Verbindungsstärken und der Aktivität ihrer Nachbarn abhängt.entsprechend der Aktivierungsfunktion.

Auf den ersten Blick scheinen diese Ansichten sehr unterschiedlich zu sein. Viele Konnektionisten betrachten ihre Arbeit jedoch nicht als Herausforderung für den Klassizismus und einige unterstützen offen das klassische Bild. Sogenannte Implementierungskonnektionisten suchen eine Unterkunft zwischen den beiden Paradigmen. Sie behaupten, dass das Netz des Gehirns einen symbolischen Prozessor implementiert. Der Geist ist zwar ein neuronales Netz; Es ist aber auch ein symbolischer Prozessor auf einer höheren und abstrakteren Beschreibungsebene. Die Rolle der verbindungsorientierten Forschung laut dem Implementationalisten besteht also darin, herauszufinden, wie die für die symbolische Verarbeitung erforderlichen Maschinen aus neuronalen Netzwerkmaterialien geschmiedet werden können, so dass die klassische Verarbeitung auf das Konto des neuronalen Netzwerks reduziert werden kann.

Viele Konnektionisten widersetzen sich jedoch dem Implementierungsgesichtspunkt. Solche radikalen Konnektionisten behaupten, dass die symbolische Verarbeitung eine schlechte Vermutung darüber war, wie der Geist funktioniert. Sie beklagen, dass die klassische Theorie die anmutige Verschlechterung der Funktion, die ganzheitliche Darstellung von Daten, die spontane Verallgemeinerung, die Wertschätzung des Kontexts und viele andere Merkmale der menschlichen Intelligenz, die in ihren Modellen erfasst werden, schlecht erklärt. Das Versagen der klassischen Programmierung, die Flexibilität und Effizienz der menschlichen Kognition zu erreichen, ist für sie ein Symptom für die Notwendigkeit eines neuen Paradigmas in der Kognitionswissenschaft. So würden radikale Konnektionisten die symbolische Verarbeitung für immer aus der Kognitionswissenschaft streichen.

6. Connectionist Vertretung

Konnektionistische Modelle bieten ein neues Paradigma für das Verständnis, wie Informationen im Gehirn dargestellt werden können. Eine verführerische, aber naive Idee ist, dass einzelne Neuronen (oder winzige neuronale Bündel) der Darstellung jeder Sache gewidmet sein könnten, die das Gehirn aufzeichnen muss. Zum Beispiel können wir uns vorstellen, dass es ein Großmutterneuron gibt, das feuert, wenn wir an unsere Großmutter denken. Eine solche lokale Vertretung ist jedoch nicht wahrscheinlich. Es gibt gute Beweise dafür, dass das Denken unserer Großmutter komplexe Aktivitätsmuster beinhaltet, die über relativ große Teile des Kortex verteilt sind.

Es ist interessant festzustellen, dass verteilte und nicht lokale Darstellungen auf den verborgenen Einheiten die natürlichen Produkte verbindungsorientierter Trainingsmethoden sind. Als Beispiel dienen die Aktivierungsmuster, die auf den ausgeblendeten Einheiten angezeigt werden, während NETtalk Text verarbeitet. Die Analyse zeigt, dass das Netz gelernt hat, Kategorien wie Konsonanten und Vokale darzustellen, indem es nicht eine Einheit für Konsonanten und eine andere für Vokale erstellt hat, sondern zwei unterschiedliche charakteristische Aktivitätsmuster für alle verborgenen Einheiten entwickelt hat.

Angesichts der Erwartungen, die sich aus unseren Erfahrungen mit der lokalen Darstellung auf der gedruckten Seite ergeben, erscheint die verteilte Darstellung sowohl neuartig als auch schwer verständlich. Die Technik weist jedoch wichtige Vorteile auf. Beispielsweise bleiben verteilte Darstellungen (im Gegensatz zu Symbolen, die an separaten festen Speicherorten gespeichert sind) relativ gut erhalten, wenn Teile des Modells zerstört oder überladen werden. Noch wichtiger ist, dass, da Repräsentationen eher in Mustern als in Zündungen einzelner Einheiten codiert sind, die Beziehungen zwischen Repräsentationen in den Ähnlichkeiten und Unterschieden zwischen diesen Mustern codiert sind. Die internen Eigenschaften der Darstellung enthalten also Informationen darüber, worum es geht (Clark 1993, 19). Im Gegensatz dazu ist die lokale Darstellung konventionell. Keine intrinsischen Eigenschaften der Darstellung (eine Einheit 's feuern) bestimmen ihre Beziehungen zu den anderen Symbolen. Diese Selbstberichterstattung über verteilte Darstellungen verspricht, ein philosophisches Rätsel um die Bedeutung zu lösen. In einem symbolischen Repräsentationsschema bestehen alle Repräsentationen aus symbolischen Atomen (wie Wörter in einer Sprache). Die Bedeutung komplexer Symbolketten kann durch die Art und Weise definiert werden, wie sie aus ihren Bestandteilen aufgebaut sind. Aber was legt die Bedeutung der Atome fest?aber was legt die Bedeutung der Atome fest?aber was legt die Bedeutung der Atome fest?

Konnektionistische Repräsentationsschemata bieten einen Endlauf um das Rätsel, indem sie einfach auf Atome verzichten. Jede verteilte Darstellung ist ein Aktivitätsmuster über alle Einheiten hinweg, daher gibt es keine prinzipielle Möglichkeit, zwischen einfachen und komplexen Darstellungen zu unterscheiden. Darstellungen setzen sich allerdings aus den Aktivitäten der einzelnen Einheiten zusammen. Aber keines dieser "Atome" kodiert für ein Symbol. Die Darstellungen sind sub-symbolisch in dem Sinne, dass die Analyse ihrer Komponenten die symbolische Ebene hinter sich lässt.

Die sub-symbolische Natur der verteilten Repräsentation bietet eine neuartige Möglichkeit, die Informationsverarbeitung im Gehirn zu verstehen. Wenn wir die Aktivität jedes Neurons mit einer Zahl modellieren, kann die Aktivität des gesamten Gehirns durch einen riesigen Vektor (oder eine Liste) von Zahlen angegeben werden, einen für jedes Neuron. Sowohl die Eingabe des Gehirns von sensorischen Systemen als auch die Ausgabe an einzelne Muskelneuronen können als Vektoren derselben Art behandelt werden. Das Gehirn ist also ein Vektorprozessor, und das Problem der Psychologie wird in Fragen umgewandelt, welche Operationen an Vektoren die verschiedenen Aspekte der menschlichen Kognition erklären.

Die sub-symbolische Darstellung hat interessante Implikationen für die klassische Hypothese, dass das Gehirn symbolische Darstellungen enthalten muss, die Sätzen einer Sprache ähnlich sind. Diese Idee, die oft als Sprache des Denkens (oder LOT) bezeichnet wird, kann durch die Natur verbindungsorientierter Darstellungen in Frage gestellt werden. Es ist nicht leicht, genau zu sagen, was die LOT-These bedeutet, aber van Gelder (1990) bietet einen einflussreichen und weithin akzeptierten Maßstab für die Bestimmung, wann das Gehirn satzartige Darstellungen enthalten soll. Wenn eine Darstellung mit einem Token versehen ist, werden die Bestandteile dieser Darstellung mit einem Token versehen. Wenn ich zum Beispiel "John liebt Mary" schreibe, habe ich damit die Bestandteile des Satzes geschrieben: "John", "liebt" und "Mary". Es können verteilte Darstellungen für komplexe Ausdrücke wie "John liebt Mary" konstruiert werden, die keine explizite Darstellung ihrer Teile enthalten (Smolensky 1991). Die Informationen über die Bestandteile können aus den Darstellungen extrahiert werden, aber neuronale Netzwerkmodelle müssen diese Informationen nicht explizit selbst extrahieren, um sie korrekt zu verarbeiten (Chalmers 1990). Dies legt nahe, dass neuronale Netzwerkmodelle als Gegenbeispiele für die Idee dienen, dass die Sprache des Denkens eine Voraussetzung für die menschliche Wahrnehmung ist. Die Angelegenheit ist jedoch immer noch Gegenstand lebhafter Debatten (Fodor 1997). Neuronale Netzwerkmodelle müssen diese Informationen jedoch nicht explizit selbst extrahieren, um sie korrekt zu verarbeiten (Chalmers 1990). Dies legt nahe, dass neuronale Netzwerkmodelle als Gegenbeispiele für die Idee dienen, dass die Sprache des Denkens eine Voraussetzung für die menschliche Wahrnehmung ist. Die Angelegenheit ist jedoch immer noch Gegenstand lebhafter Debatten (Fodor 1997). Neuronale Netzwerkmodelle müssen diese Informationen jedoch nicht explizit selbst extrahieren, um sie korrekt zu verarbeiten (Chalmers 1990). Dies legt nahe, dass neuronale Netzwerkmodelle als Gegenbeispiele für die Idee dienen, dass die Sprache des Denkens eine Voraussetzung für die menschliche Wahrnehmung ist. Die Angelegenheit ist jedoch immer noch Gegenstand lebhafter Debatten (Fodor 1997).

Die Neuheit der verteilten und überlagerten verbindungsorientierten Informationsspeicherung lässt natürlich über die Realisierbarkeit klassischer Begriffe der symbolischen Berechnung bei der Beschreibung des Gehirns nachdenken. Ramsey (1997) argumentiert, dass wir zwar neuronalen Netzen symbolische Darstellungen zuschreiben können, diese Zuschreibungen jedoch keine legitimen Erklärungen für das Verhalten des Modells darstellen. Diese Behauptung ist wichtig, weil die klassische Darstellung der kognitiven Verarbeitung (und der Volksintuitionen) davon ausgeht, dass Repräsentationen eine erklärende Rolle für das Verständnis des Geistes spielen. Es wurde allgemein angenommen, dass die Kognitionswissenschaft von Natur aus Erklärungen erfordert, die Repräsentationen ansprechen (Von Eckardt 2003). Wenn Ramsey Recht hat, kann der Punkt auf zwei verschiedene Arten geschnitten werden. Einige mögen es benutzen, um für ein neues und nicht klassisches Verständnis des Geistes zu argumentieren,während andere damit argumentieren würden, dass der Konnektionismus unzureichend ist, da er nicht erklären kann, was er muss. Haybron (2000) argumentiert jedoch gegen Ramsey, dass es in radikalen konnektionistischen Architekturen genügend Raum für Darstellungen mit erklärender Rolle gibt. Roth (2005) weist darauf hin, dass es im Gegensatz zu ersten Eindrücken durchaus sinnvoll sein kann, das Verhalten eines Netzes anhand eines Computerprogramms zu erklären, auch wenn es keine Möglichkeit gibt, eine Abfolge von Berechnungsschritten über die Zeit zu unterscheiden. Es kann auch durchaus sinnvoll sein, das Verhalten eines Netzes anhand eines Computerprogramms zu erklären, selbst wenn es keine Möglichkeit gibt, eine Abfolge von Berechnungsschritten über die Zeit zu unterscheiden. Es kann auch durchaus sinnvoll sein, das Verhalten eines Netzes anhand eines Computerprogramms zu erklären, selbst wenn es keine Möglichkeit gibt, eine Abfolge von Berechnungsschritten über die Zeit zu unterscheiden.

Die Debatte über das Vorhandensein klassischer Repräsentationen und einer Sprache des Denkens wurde durch mangelnde Klarheit bei der Definition dessen getrübt, was in verteilten neuronalen Modellen als repräsentative „Vehikel“gelten soll. Shea (2007) weist darauf hin, dass die Individuation verteilter Darstellungen durch die Art und Weise definiert werden sollte, wie sich Aktivierungsmuster auf den verborgenen Einheiten zusammenballen. Es sind die Beziehungen zwischen Clustering-Regionen im Raum möglicher Aktivierungsmuster, die repräsentativen Inhalt enthalten, nicht die Aktivierungen selbst oder die Sammlung von Einheiten, die für die Aktivierung verantwortlich sind. Nach diesem Verständnis werden die Aussichten für die Lokalisierung von Repräsentationsinhalten in neuronalen Netzen verbessert, die in Netzen unterschiedlicher Architekturen verglichen werden können, die kausal an der Verarbeitung beteiligt sind.und die einige Einwände gegen ganzheitliche Bedeutungsberichte überwindet.

In einer Reihe von Arbeiten haben Horgan und Tienson (1989, 1990) eine Ansicht vertreten, die als Darstellungen ohne Regeln bezeichnet wird. Nach dieser Ansicht denken Klassiker zu Recht, dass das menschliche Gehirn (und gute verbindungsorientierte Modelle davon) erklärungssichere Darstellungen enthalten; aber sie sind falsch zu glauben, dass diese Darstellungen in feste Regeln wie die Schritte eines Computerprogramms eingehen. Die Idee, dass verbindungsorientierte Systeme abgestuften oder ungefähren Regelmäßigkeiten folgen können („weiche Gesetze“, wie Horgan und Tienson sie nennen), ist intuitiv und ansprechend. Aizawa (1994) argumentiert jedoch, dass es bei einem beliebigen neuronalen Netz mit einer Beschreibung auf Repräsentationsebene immer möglich ist, es mit harten und schnellen Regeln auf Repräsentationsebene auszustatten. Guarini (2001) antwortet, dass, wenn wir auf Begriffe der folgenden Regel achten, die für die kognitive Modellierung nützlich sind,Aizawas Konstruktionen werden nebensächlich erscheinen.

7. Die Systematikdebatte

Die Hauptstreitpunkte in der philosophischen Literatur zum Konnektionismus haben damit zu tun, ob Konnektionisten ein tragfähiges und neuartiges Paradigma für das Verständnis des Geistes darstellen. Eine Beschwerde ist, dass verbindungsorientierte Modelle nur gut darin sind, Assoziationen zu verarbeiten. Aufgaben wie Sprache und Argumentation können jedoch nicht allein mit assoziativen Methoden erledigt werden. Daher ist es unwahrscheinlich, dass Konnektionisten die Leistung klassischer Modelle bei der Erklärung dieser kognitiven Fähigkeiten auf höherer Ebene erreichen. Es ist jedoch einfach zu beweisen, dass neuronale Netze alles können, was symbolische Prozessoren können, da Netze aufgebaut werden können, die die Schaltkreise eines Computers nachahmen. Der Einwand kann also nicht sein, dass verbindungsorientierte Modelle keine höhere Erkenntnis berücksichtigen; es ist vielmehr so, dass sie dies nur tun können, wenn sie den Klassiker umsetzen.s symbolische Verarbeitungswerkzeuge. Implementierungskonnektionismus mag erfolgreich sein, aber radikale Konnektionisten werden niemals in der Lage sein, den Verstand zu erklären.

Das oft zitierte Papier von Fodor und Pylyshyn (1988) leitet eine solche Debatte ein. Sie identifizieren ein Merkmal der menschlichen Intelligenz, das als Systematik bezeichnet wird und das ihrer Meinung nach die Konnektionisten nicht erklären können. Die Systematik der Sprache bezieht sich auf die Tatsache, dass die Fähigkeit, einige Sätze zu produzieren / verstehen / denken, untrennbar mit der Fähigkeit verbunden ist, andere Sätze verwandter Strukturen zu produzieren / verstehen / denken. Zum Beispiel kann niemand mit Englischkenntnissen, der "John liebt Mary" versteht, "Mary liebt John" nicht verstehen. Aus klassischer Sicht kann der Zusammenhang zwischen diesen beiden Fähigkeiten leicht erklärt werden, indem angenommen wird, dass Meister des Englischen die Bestandteile ("John", "liebt" und "Mary") von "John liebt Mary" darstellen und ihre Bedeutung daraus berechnen die Bedeutungen dieser Bestandteile. Wenn dies so ist,Dann kann das Verstehen eines neuartigen Satzes wie „Mary liebt John“als ein weiteres Beispiel für denselben symbolischen Prozess angesehen werden. In ähnlicher Weise würde die symbolische Verarbeitung die Systematik des Denkens, Lernens und Denkens erklären. Es würde erklären, warum es keine Menschen gibt, die in der Lage sind, P aus P & (Q & R) zu schließen, aber nicht in der Lage sind, P aus P & Q zu schließen, warum es keine Menschen gibt, die lernen können, einen roten Würfel dem grünen Quadrat vorzuziehen Ich kann nicht lernen, einen grünen Würfel dem roten Quadrat vorzuziehen, und warum gibt es niemanden, der denken kann, dass John Mary liebt, der nicht auch denken kann, dass Mary John liebt. Es würde erklären, warum es keine Menschen gibt, die in der Lage sind, P aus P & (Q & R) zu schließen, aber nicht in der Lage sind, P aus P & Q zu schließen, warum es keine Menschen gibt, die lernen können, einen roten Würfel dem grünen Quadrat vorzuziehen Ich kann nicht lernen, einen grünen Würfel dem roten Quadrat vorzuziehen, und warum gibt es niemanden, der denken kann, dass John Mary liebt, der nicht auch denken kann, dass Mary John liebt. Es würde erklären, warum es keine Menschen gibt, die in der Lage sind, P aus P & (Q & R) zu schließen, aber nicht in der Lage sind, P aus P & Q zu schließen, warum es keine Menschen gibt, die lernen können, einen roten Würfel dem grünen Quadrat vorzuziehen Ich kann nicht lernen, einen grünen Würfel dem roten Quadrat vorzuziehen, und warum gibt es niemanden, der denken kann, dass John Mary liebt, der nicht auch denken kann, dass Mary John liebt.

Fodor und McLaughlin (1990) argumentieren ausführlich, dass Konnektionisten die Systematik nicht berücksichtigen. Obwohl verbindungsorientierte Modelle trainiert werden können, um systematisch zu sein, können sie auch trainiert werden, um beispielsweise "John liebt Mary" zu erkennen, ohne "Mary liebt John" erkennen zu können. Da der Konnektionismus keine Systematik garantiert, erklärt er nicht, warum Systematik in der menschlichen Erkenntnis so allgegenwärtig ist. Systematik mag in verbindungsorientierten Architekturen existieren, aber wo sie existiert, ist es nicht mehr als ein glücklicher Zufall. Die klassische Lösung ist viel besser, weil in klassischen Modellen die allgegenwärtige Systematik kostenlos ist.

Die Behauptung, dass verbindungsorientierte Netze bei der Erklärung der Systematik benachteiligt sind, hat großes Interesse geweckt. Chalmers (1993) weist darauf hin, dass die Argumentation von Fodor und Pylyshyn zu viel beweist, da alle neuronalen Netze, auch diejenigen, die eine klassische Architektur implementieren, keine Systematik aufweisen. Angesichts der unumstrittenen Schlussfolgerung, dass das Gehirn ein neuronales Netz ist, würde sich daraus ergeben, dass Systematik im menschlichen Denken unmöglich ist. Ein weiterer häufig genannter Widerlegungspunkt (Aizawa 1997; Matthews 1997; Hadley 1997b) ist, dass klassische Architekturen die Systematik nicht besser erklären können. Es gibt auch klassische Modelle, die so programmiert werden können, dass sie "John liebt Mary" erkennen, ohne "Mary liebt John" erkennen zu können.„Der Punkt ist, dass weder die Verwendung der verbindungsorientierten Architektur allein noch die Verwendung der klassischen Architektur allein eine ausreichend starke Einschränkung erzwingt, um die allgegenwärtige Systematik zu erklären. In beiden Architekturen müssen weitere Annahmen über die Art der Verarbeitung getroffen werden, um sicherzustellen, dass auch „Mary liebt John“verarbeitet wird.

Eine Diskussion dieses Punktes sollte die Forderung von Fodor und McLaughlin erwähnen, dass Systematik als eine Frage der nominellen Notwendigkeit, dh als eine Frage des Naturrechts, erklärt werden muss. Die Beschwerde gegen Konnektionisten lautet, dass sie zwar systematische Systeme implementieren können, diese jedoch nicht erklärt haben, es sei denn, dies ergibt sich aus ihren Modellen als nomische Notwendigkeit. Die Nachfrage nach nomischer Notwendigkeit ist jedoch sehr hoch und eine, die klassische Architekturen eindeutig auch nicht erfüllen können. Die einzige Taktik, um einen aussagekräftigen Einwand gegen Konnektionisten in dieser Richtung zu erwirken, besteht darin, die Anforderung an die Erklärung der Systematik gegenüber einer zu schwächen, die klassische Architekturen erfüllen können und Konnektionisten nicht erfüllen können. Ein überzeugender Fall dieser Art muss noch gemacht werden.

Im Zuge der Entwicklung der Systematikdebatte wurde das Augenmerk darauf gerichtet, die Benchmarks zu definieren, die die Herausforderung von Fodor und Pylyshyn beantworten würden. Hadley (1994a, 1994b) unterscheidet drei Marken der Systematik. Konnektionisten haben die schwächsten davon deutlich gezeigt, indem sie gezeigt haben, dass neuronale Netze lernen können, neuartige Wortfolgen (z. B. „Mary liebt John“), die nicht im Trainingssatz enthalten waren, richtig zu erkennen. Hadley behauptet jedoch, dass eine überzeugende Widerlegung eine starke Systematik oder besser eine starke semantische Systematik aufweisen muss. Eine starke Systematik würde (zumindest) erfordern, dass "Mary liebt John" anerkannt wird, selbst wenn "Mary" in keinem Satz des Trainingssatzes in der Subjektposition erscheint. Eine starke semantische Systematik würde auch erfordern, dass das Netz Fähigkeiten zur korrekten semantischen Verarbeitung der neuartigen Sätze zeigt, anstatt nur grammatikalische von ungrammatischen Formen zu unterscheiden. Niklasson und van Gelder (1994) haben Erfolg bei starker Systematik behauptet, obwohl Hadley sich darüber beschwert, dass dies bestenfalls ein Grenzfall ist. Hadley und Hayward (1997) befassen sich mit einer starken semantischen Systematik, aber nach Hadleys eigenen Angaben ist nicht klar, dass sie die Verwendung einer klassischen Architektur vermieden haben. Boden und Niklasson (2000) behaupten, ein Modell konstruiert zu haben, das zumindest dem Geist einer starken semantischen Systematik entspricht, aber Hadley (2004) argumentiert, dass dort selbst eine starke Systematik nicht nachgewiesen wurde. Ob man diese Versuche positiv oder negativ beurteilt,Man kann mit Sicherheit sagen, dass sich niemand der Herausforderung gestellt hat, ein neuronales Netz bereitzustellen, das komplexe semantische Verarbeitungen lernen kann, die sich auf eine ganze Reihe wirklich neuartiger Eingaben verallgemeinern lassen.

Kent Johnson (2004) argumentiert, dass die gesamte Systematikdebatte falsch ist. Versuche, die Systematik der Sprache oder des Denkens sorgfältig zu definieren, lassen uns entweder Kleinigkeiten oder Unwahrheiten zurück. Konnektionisten haben sicherlich Erklärungen zu tun, aber Johnson empfiehlt, dass es vergeblich ist, ihre Last unter der Rubrik Systematik zu betrachten. Stattdessen wird die Entwicklung neuronaler Netzmodelle benötigt, die eine Sprache mit rekursiver Syntax verarbeiten können und sofort auf die Einführung neuer Elemente im Lexikon reagieren. Die Debatte über die "Systematik" mag bereits verlaufen sein, wie Johnson rät, denn das, was Hadley als starke semantische Systematik bezeichnet, scheint ein gutes Maß für den Erfolg in dieser Richtung zu sein.

8. Konnektionismus und semantische Ähnlichkeit

Eine der Attraktionen verteilter Darstellungen in verbindungsorientierten Modellen besteht darin, dass sie eine Lösung für das Problem der Bestimmung der Bedeutung von Gehirnzuständen vorschlagen. Die Idee ist, dass die Ähnlichkeiten und Unterschiede zwischen Aktivierungsmustern entlang verschiedener Dimensionen neuronaler Aktivität semantische Informationen aufzeichnen. Auf diese Weise liefern die Ähnlichkeitseigenschaften neuronaler Aktivierungen intrinsische Eigenschaften, die die Bedeutung festlegen. Fodor und Lepore (1992, Kap. 6) stellen jedoch Ähnlichkeitsberichte an zwei Fronten in Frage. Das erste Problem ist, dass das menschliche Gehirn vermutlich in der Anzahl und den Verbindungen zwischen seinen Neuronen erheblich variiert. Obwohl es einfach ist, Ähnlichkeitsmaße für zwei Netze zu definieren, die die gleiche Anzahl von Einheiten enthalten, ist es schwieriger zu erkennen, wie dies erreicht werden kann, wenn sich die grundlegenden Architekturen zweier Netze unterscheiden. Das zweite Problem, das Fodor und Lepore anführen, ist, dass Ähnlichkeitsmaße für Bedeutungen, selbst wenn sie erfolgreich hergestellt werden können, nicht für die Aufgabe geeignet sind, die Desiderata zu erfüllen, die eine Bedeutungstheorie erfüllen muss.

Churchland (1998) zeigt, dass der erste dieser beiden Einwände erfüllt werden kann. Unter Berufung auf die Arbeit von Laakso und Cottrell (2000) erklärt er, wie Ähnlichkeitsmaße zwischen Aktivierungsmustern in Netzen mit radikal unterschiedlichen Strukturen definiert werden können. Nicht nur das, Laakso und Cottrell zeigen, dass Netze mit unterschiedlichen Strukturen, die für dieselbe Aufgabe trainiert wurden, Aktivierungsmuster entwickeln, die gemäß den von ihnen empfohlenen Maßnahmen stark ähnlich sind. Dies gibt Hoffnung, dass empirisch gut definierte Maßstäbe für die Ähnlichkeit von Konzepten und Gedanken zwischen verschiedenen Individuen gefälscht werden könnten.

Andererseits steht die Entwicklung einer traditionellen, auf Ähnlichkeit basierenden Bedeutungstheorie vor schwerwiegenden Hindernissen (Fodor und Lepore 1999), da eine solche Theorie erforderlich wäre, um Satzwahrheitsbedingungen zuzuweisen, die auf einer Analyse der Bedeutung ihrer Teile beruhen, und Es ist nicht klar, dass Ähnlichkeit allein solchen Aufgaben wie der Festlegung der Bezeichnung in der Weise entspricht, wie es eine Standardtheorie verlangt. Die meisten Konnektionisten, die auf Ähnlichkeit basierende Bedeutungsberichte fördern, lehnen jedoch viele der Voraussetzungen von Standardtheorien ab. Sie hoffen, eine funktionierende Alternative zu entwickeln, die diese Voraussetzungen entweder ablehnt oder modifiziert, während sie den Daten über die sprachlichen Fähigkeiten des Menschen treu bleiben.

Calvo Garzon (2003) beschwert sich darüber, dass es Gründe gibt zu glauben, dass Konnektionisten scheitern müssen. Die Antwort von Churchland hat keine Antwort auf die Herausforderung der Sicherheiteninformation. Dieses Problem besteht darin, dass die gemessenen Ähnlichkeiten zwischen Aktivierungsmustern für ein Konzept (z. B. Großmutter) in zwei menschlichen Gehirnen garantiert sehr gering sind, da die (Sicherheiten) Informationen von zwei Personen über ihre Großmütter (Name, Aussehen, Alter, Charakter) vorliegen werden ganz anders sein. Wenn Konzepte durch alles definiert werden, was wir wissen, müssen die Maßnahmen für Aktivierungsmuster unserer Konzepte weit voneinander entfernt sein. Dies ist ein wirklich tiefes Problem in jeder Theorie, die darauf hofft, die Bedeutung durch funktionale Beziehungen zwischen Gehirnzuständen zu definieren. Philosophen vieler Streifen müssen mit diesem Problem kämpfen. Angesichts des Fehlens einer erfolgreich ausgearbeiteten Konzepttheorie in traditionellen oder verbindungsorientierten Paradigmen ist es nur fair, die Frage für die zukünftige Forschung zu belassen.

9. Konnektionismus und die Beseitigung der Volkspsychologie

Eine weitere wichtige Anwendung der konnektionistischen Forschung auf die philosophische Debatte über den Geist betrifft den Status der Volkspsychologie. Die Volkspsychologie ist die konzeptuelle Struktur, die wir spontan anwenden, um menschliches Verhalten zu verstehen und vorherzusagen. Wenn wir zum Beispiel wissen, dass John ein Bier wünscht und glaubt, dass es eines im Kühlschrank gibt, können wir erklären, warum John gerade in die Küche gegangen ist. Dieses Wissen hängt entscheidend von unserer Fähigkeit ab, sich vorzustellen, dass andere Wünsche und Ziele haben, Pläne, sie zu befriedigen, und Überzeugungen, die diese Pläne leiten. Die Vorstellung, dass Menschen Überzeugungen, Pläne und Wünsche haben, ist eine Selbstverständlichkeit des gewöhnlichen Lebens; Aber liefert es eine genaue Beschreibung dessen, was tatsächlich im Gehirn zu finden ist?

Ihre Verteidiger werden argumentieren, dass die Volkspsychologie zu gut ist, um falsch zu sein (Fodor 1988, Kapitel 1). Was können wir mehr für die Wahrheit einer Theorie verlangen, als dass sie einen unverzichtbaren Rahmen für erfolgreiche Verhandlungen mit anderen bietet? Auf der anderen Seite werden Eliminativisten antworten, dass die nützliche und weit verbreitete Verwendung eines konzeptuellen Schemas nicht für seine Wahrheit spricht (Churchland 1989, Kap. 1). Alte Astronomen fanden den Begriff der Himmelskugeln nützlich (sogar wesentlich) für das Verhalten ihrer Disziplin, aber jetzt wissen wir, dass es keine Himmelskugeln gibt. Aus der Sicht der Eliminativisten steht eine Treue zur Volkspsychologie ebenso wie eine Treue zur Volksphysik (aristotelische Physik) dem wissenschaftlichen Fortschritt im Wege. Eine lebensfähige Psychologie kann eine ebenso radikale Revolution in ihren konzeptuellen Grundlagen erfordern wie die Quantenmechanik.

Eliminativisten interessieren sich für Konnektionismus, weil er verspricht, eine konzeptionelle Grundlage zu schaffen, die die Volkspsychologie ersetzen könnte. Zum Beispiel haben Ramsey et al. (1991) haben argumentiert, dass bestimmte Feed-Forward-Netze zeigen, dass einfache kognitive Aufgaben ausgeführt werden können, ohne Merkmale zu verwenden, die Überzeugungen, Wünschen und Plänen entsprechen könnten. Unter der Annahme, dass solche Netze der Funktionsweise des Gehirns treu bleiben, schneiden Konzepte der Volkspsychologie nicht besser ab als Himmelskugeln. Ob verbindungsorientierte Modelle die Volkspsychologie auf diese Weise untergraben, ist immer noch umstritten. Es gibt zwei Hauptreaktionslinien auf die Behauptung, dass verbindungsorientierte Modelle eliminativistische Schlussfolgerungen unterstützen. Ein Einwand ist, dass die von Ramsey et al. sind Feed-Forward-Netze, die zu schwach sind, um einige der grundlegendsten Merkmale der Wahrnehmung wie das Kurzzeitgedächtnis zu erklären. Ramsey et al. haben nicht gezeigt, dass Überzeugungen und Wünsche in einer Klasse von Netzen fehlen müssen, die für die menschliche Erkenntnis geeignet sind. Eine zweite Gegenargumentation stellt die Behauptung in Frage, dass Merkmale, die Überzeugungen und Wünschen entsprechen, selbst in den fraglichen Feed-Forward-Netzen notwendigerweise fehlen (Von Eckardt 2005).

Die Frage wird durch Meinungsverschiedenheiten über die Natur der Volkspsychologie noch komplizierter. Viele Philosophen behandeln die von der Volkspsychologie postulierten Überzeugungen und Wünsche als Gehirnzustände mit symbolischen Inhalten. Zum Beispiel wird angenommen, dass der Glaube, dass sich ein Bier im Kühlschrank befindet, ein Gehirnzustand ist, der Symbole enthält, die Bier und einem Kühlschrank entsprechen. Unter diesem Gesichtspunkt ist das Schicksal der Volkspsychologie stark mit der symbolischen Verarbeitungshypothese verbunden. Wenn Konnektionisten also feststellen können, dass die Verarbeitung des Gehirns im Wesentlichen nicht symbolisch ist, werden eliminativistische Schlussfolgerungen folgen. Andererseits glauben einige Philosophen nicht, dass die Volkspsychologie im Wesentlichen symbolisch ist, und einige würden sogar die Idee in Frage stellen, dass die Volkspsychologie überhaupt als Theorie zu behandeln ist. Nach dieser AuffassungEs ist viel schwieriger, Verbindungen zwischen Ergebnissen in der verbindungsorientierten Forschung und der Ablehnung der Volkspsychologie herzustellen.

Literaturverzeichnis

  • Aizawa, K., 1994, „Repräsentationen ohne Regeln, Konnektionismus und das syntaktische Argument“, Synthese, 101: 465–492.
  • Aizawa, K., 1997, „Erklärung der Systematik“, Mind and Language, 12: 115–136.
  • Aizawa, K., 1997, „Ausstellen versus Erklären von Systematik: Eine Antwort auf Hadley und Hayward“, Minds and Machines, 7: 39–55.
  • Bechtel, W., 1987, „Konnektionismus und die Philosophie des Geistes: ein Überblick“, The Southern Journal of Philosophy, 26 (Beilage): 17–41.
  • Bechtel, W., 1988, „Konnektionismus und Regeln und Repräsentationssysteme: Sind sie kompatibel?“, Philosophical Psychology, 1: 5–15.
  • Bechtel, W. und Abrahamsen, A., 1990, Connectionism and the Mind: Eine Einführung in die Parallelverarbeitung in Netzwerken, Cambridge, Mass.: Blackwell.
  • Boden, M. und Niklasson, L., 2000, „Semantische Systematik und Kontext in verbindungsorientierten Netzwerken“, Connection Science, 12: 111–142.
  • Butler, K., 1991, „Auf dem Weg zu einer verbindungsorientierten kognitiven Architektur“, Mind and Language, 6: 252–272.
  • Calvo Garzon, F., 2003, „Connectionist Semantics and the Collateral Information Challenge“, Mind and Language, 18: 77–94.
  • Chalmers, D., 1990, „Syntaktische Transformationen auf verteilten Repräsentationen“, Connection Science, 2: 53–62.
  • Chalmers, D., 1993, „Warum Fodor und Pylyshyn falsch lagen: Die einfachste Widerlegung“, Philosophical Psychology, 6 (3): 305–319.
  • Christiansen, M. und Chater, N., 1994, „Generalization and Connectionist Language Learning“, Mind and Language, 9: 273–287.
  • Churchland, PM, 1995, Der Motor der Vernunft, der Sitz der Seele: eine philosophische Reise ins Gehirn, Cambridge, Mass.: MIT Press.
  • Churchland, PM, 1998, „Konzeptionelle Ähnlichkeit zwischen sensorischer und neuronaler Vielfalt: Die Fodor / Lepore-Herausforderung beantwortet“, Journal of Philosophy, 95: 5–32.
  • Churchland, PM, 1989, Eine neurocomputationale Perspektive: Die Natur des Geistes und die Struktur der Wissenschaft, Cambridge, Mass.: MIT Press.
  • Clark, A., 1989, Microcognition, Cambridge, Mass.: MIT Press.
  • Clark, A., 1993, Associative Engines, Cambridge, Mass.: MIT Press.
  • Clark, A., 1995, "Connectionist Minds", in McDonald (1995), 339–356.
  • Clark, A. und Lutz, R. (Hrsg.), 1992, Connectionism in Context, Springer.
  • Cotrell G. und Small, S., 1983, „Ein verbindungsorientiertes Schema zur Modellierung der Begriffsklärung“, Cognition and Brain Theory, 6: 89–120.
  • Cummins, R., 1991, „Die Rolle der Repräsentation in verbindungsorientierten Erklärungen kognitiver Fähigkeiten“, in Ramsey, Stich und Rumelhart (1991), 91–114.
  • Cummins, R., 1996, "Systematicity", Journal of Philosophy, 93 (22): 561–614.
  • Cummins, R. und Schwarz, G., 1991, "Connectionism, Computation and Cognition", in T. Horgan und J. Tienson (1991), 60–73.
  • Davies, M., 1989, „Connectionism, Modularity and Tacit Knowledge“, Britisches Journal für Wissenschaftstheorie, 40: 541–555.
  • Davies, M., 1991, "Konzepte, Verbindungismus und die Sprache des Denkens", in Ramsey et al. (1991), 229–257.
  • Dinsmore, J. (Hrsg.), 1992, The Symbolic and Connectionist Paradigms: Closing the Gap, Hillsdale, NJ: Erlbaum.
  • Elman, JL, 1991, „Verteilte Darstellungen, einfache wiederkehrende Netzwerke und grammatikalische Struktur“, in Touretzky (1991), 91–122.
  • Fodor, J., 1988, Psychosemantics, Cambridge, Mass.: MIT Press.
  • Fodor, J., 1997, „Konnektionismus und das Problem der Systematik: Warum Smolenskys Lösung immer noch nicht funktioniert“, Cognition, 62: 109–119.
  • Fodor, J. und Lepore, E., 1992, Holism: A Shopper's Guide, Cambridge: Blackwell.
  • Fodor, J. und Lepore, E., 1999, „Alle auf See im semantischen Raum: Churchland über Bedeutungsähnlichkeit“, Journal of Philosophy, 96: 381–403.
  • Fodor, J. und McLaughlin, B., 1990, „Konnektionismus und das Problem der Systematik: Warum Smolenskys Lösung nicht funktioniert“, Cognition, 35: 183–204.
  • Fodor, J. und Pylyshyn, Z., 1988, „Connectionism and Cognitive Architecture: a Critical Analysis“, Cognition, 28: 3–71.
  • Garfield, J., 1997, „Mentalese, die hier nicht gesprochen wird: Berechnungskognition und -ursache“, Philosophical Psychology, 10: 413–435.
  • Garson, J., 1991, „Was Konnektionisten nicht können: Die Bedrohung der klassischen KI“, in T. Horgan und J. Tienson (1991), 113–142.
  • Garson, J., 1994, „Erkenntnis ohne klassische Architektur“, Synthese, 100: 291–305.
  • Garson, J., 1997, „Syntax in a Dynamic Brain“, Synthese, 110: 343–355.
  • Guarini, M., 2001, „Eine Verteidigung des Konnektionismus gegen das syntaktische Argument“, Synthese, 128: 287–317.
  • Hadley, R., 1994a, „Systematik beim Lernen verbindungsorientierter Sprachen“, Mind and Language, 9: 247–271.
  • Hadley, R., 1994b, „Systematicity Revisited“, Mind and Language, 9: 431–444.
  • Hadley, R., 1997a, „Erklärung der Systematik: Eine Antwort auf Kenneth Aizawa“, Minds and Machines, 7: 571–579.
  • Hadley, R., 1997b, „Erkenntnis, Systematik und nomische Notwendigkeit“, Mind and Language, 12: 137–153.
  • Hadley, R., 2004, „Zur richtigen Behandlung der semantischen Systematik“, Minds and Machines, 14: 145–172.
  • Hadley, R. und Hayward, M., 1997, „Starke semantische Systematik durch hebräisch-verbindungsorientiertes Lernen“, Minds and Machines, 7: 1–37.
  • Hanson, J. und Kegl, J., 1987, "PARSNIP: Ein verbindungsorientiertes Netzwerk, das die Grammatik natürlicher Sprache durch die Exposition gegenüber Sätzen natürlicher Sprache lernt", 9. Jahreskonferenz der Cognitive Science Society, Hillsdale, NJ: Erlbaum, S. 106 –119.
  • Hatfield, G., 1991, "Repräsentation in Wahrnehmung und Erkenntnis: Connectionist Affordances", in Ramsey et al. (1991), 163–195.
  • Hatfield, G., 1991, „Repräsentation und Regelinstanziierung in verbindungsorientierten Systemen“, in T. Horgan und J. Tienson (1991), 90–112.
  • Hawthorne, J., 1989, „Über die Kompatibilität von verbindungsorientierten und klassischen Modellen“, Philosophical Psychology, 2: 5–15.
  • Haybron, D., 2000, „Die kausale und erklärende Rolle von Informationen, die in verbindungsorientierten Netzwerken gespeichert sind“, Minds and Machines, 10: 361–380.
  • Hinton, G., 1992, „Wie neuronale Netze aus Erfahrungen lernen“, Scientific American, 267 (3): 145–151.
  • Hinton, G. (Hrsg.), 1991, Connectionist Symbol Processing, Cambridge, Mass.: MIT Press.
  • Hinton, G., 1991a, „Mapping Part-Whole Hierarchies in Connectionist Networks“, in Hinton (1991), 47–76.
  • Hinton, G., McClelland, J. und Rumelhart, D., 1986, "Distributed Representations", Kapitel 3 von Rumelhart, McClelland, et al. (1986).
  • Horgan, T. und Tienson, J., 1989, „Repräsentationen ohne Regeln“, Philosophical Topics, 17: 147–174.
  • Horgan, T. und Tienson, J., 1990, „Soft Laws“, Midwest Studies in Philosophy, 15: 256–279.
  • Horgan, T. und Tienson, J. (Hrsg.), 1991, Connectionism and the Philosophy of Mind, Dordrecht: Kluwer.
  • Horgan, T. und Tienson, J., 1996, Connectionism and the Philosophy of Psychology, Cambridge, Mass.: MIT Press.
  • Johnson, K., 2004, „Über die Systematik von Sprache und Denken“, Journal of Philosophy, 101: 111–139.
  • Laakso, A. und Cotrell, G., 2000, „Inhalts- und Clusteranalyse: Bewertung der repräsentativen Ähnlichkeit in neuronalen Systemen“, Philosophical Psychology, 13: 47–76.
  • Macdonald, C. (Hrsg.), 1995, Connectionism: Debates on Psychological Explanation, Oxford: Blackwell.
  • Matthews, R., 1997, "Können Konnektionisten die Systematik erklären?" Geist und Sprache, 12: 154–177.
  • Marcus, G., 1998, „Eliminative Connectionism neu denken“, Cognitive Psychology, 37: 243–282.
  • Marcus, G., 2001, The Algebraic Mind, Cambridge, Mass.: MIT Press.
  • McClelland, J. und Elman, J., 1986, „Das TRACE-Modell der Sprachwahrnehmung“, Cognitive Psychology, 18: 1–86.
  • J. McClelland, D. Rumelhart et al., 1986, Parallel Distributed Processing, Band II, Cambridge, Mass.: MIT Press.
  • McLaughlin, B., 1993, „Der Kampf zwischen Konnektionismus und Klassizismus, um Seelen zu gewinnen“, Philosophical Studies, 71: 163–190.
  • Miikkulainen, T., 1993, Subsymbolische Verarbeitung natürlicher Sprache: Ein integriertes Modell von Skripten, Lexikon und Gedächtnis, Cambridge, Mass.: MIT Press.
  • Niklasson, L. und van Gelder, T., 1994, „Über das systematische Verbinden“, Mind and Language, 9: 288–302.
  • Phillips, S., 2002, "Erklärt der Klassizismus die Universalität?" Minds and Machines, 12: 423–434.
  • Pinker, S. und Mehler, J. (Hrsg.), 1988, Connections and Symbols, Cambridge, Mass.: MIT Press.
  • Pinker, S. und Prince, A., 1988, „Über Sprache und Konnektionismus: Analyse eines parallelen verteilten Verarbeitungsmodells des Spracherwerbs“, Cognition, 23: 73–193.
  • Pollack, J., 1989, „Implikationen rekursiver verteilter Darstellungen“, in Touretzky (1989), 527–535.
  • Pollack, J., 1991a, „Induction of Dynamical Recognizers“, in Touretzky (1991), 123–148.
  • Pollack, J., 1991b, "Recursive Distributed Representation", in Hinton (1991), 77–106.
  • Port, Robert, F., 1990, „Repräsentation und Erkennung zeitlicher Muster“, Connection Science, 2: 151–176.
  • Port, R. und van Gelder, T., 1991, "Representing Aspects of Language", Proceedings of the 13th Annual Conference der Cognitive Science Society, Hillsdale, NJ: Erlbaum.
  • Ramsey, W., 1997, "Verdienen verbindungsorientierte Repräsentationen ihren erklärenden Unterhalt?" Geist und Sprache, 12: 34–66.
  • Ramsey, W., Stich, S. und Rumelhart, D., 1991, Philosophy and Connectionist Theory, Hillsdale, NJ: Erlbaum.
  • Ramsey, W., Stich, S. und Garon, J., 1991, „Connectionism, Eliminativism and the Future of Folk Psychology“, in Ramsey, Rumelhart und Stich (1991), 199–228.
  • Roth, M., 2005, „Programmausführung in verbindungsorientierten Netzwerken“, Mind and Language, 20: 448–467.
  • Rumelhart, D. und McClelland, J., 1986, "On Learning the Past Tenses of English Verbs", in McClelland und Rumelhart et al. (1986), 216–271.
  • D. Rumelhart, J. McClelland et al., 1986, Parallel Distributed Processing, vol. I, Cambridge, Mass.: MIT Press.
  • Schwarz, G., 1992, „Connectionism, Processing, Memory“, Connection Science, 4: 207–225.
  • Sejnowski, T. und Rosenberg, C., 1987, „Parallele Netzwerke, die lernen, englischen Text auszusprechen“, Complex Systems, 1: 145–168.
  • Servan-Schreiber, D., Cleeremans, A. und McClelland, J., 1991, "Graded State Machines: Die Darstellung zeitlicher Eventualitäten in einfachen wiederkehrenden Netzwerken", in Touretzky (1991), 57–89.
  • Shastri, L. und Ajjanagadde, V., 1993, „Von einfachen Assoziationen zu systematischem Denken: Eine verbindungsorientierte Darstellung von Regeln, Variablen und dynamischen Bindungen unter Verwendung zeitlicher Synchronität“Behavioral and Brain Sciences, 16: 417–494.
  • Shea, N., 2007, „Inhalt und seine Fahrzeuge in verbindungsorientierten Systemen“, Mind and Language, 22: 246–269.
  • Shultz T. und Bale, A., 2001, „Neuronale Netzwerksimulation der Vertrautheit von Säuglingen mit künstlichen Sätzen“, Infancy, 2: 501–536.
  • Shultz T. und Bale, A., 2006, „Neuronale Netze entdecken eine identitätsnahe Beziehung zur Unterscheidung einfacher syntaktischer Formen“, Minds and Machines, 16: 107–139.
  • Smolensky, P., 1987, „Die konstituierende Struktur verbindungsorientierter Geisteszustände: Eine Antwort auf Fodor und Pylyshyn“, The Southern Journal of Philosophy, 26 (Beilage): 137–161.
  • Smolensky, P., 1988, „Über die richtige Behandlung des Konnektionismus“, Behavioral and Brain Sciences, 11: 1–74.
  • Smolensky, P., 1991, „Bindung von Tensorproduktvariablen und Darstellung symbolischer Strukturen in verbindungsorientierten Systemen“, in Hinton (1991), 159–216.
  • Smolensky, P., 1995, "Konstituierende Struktur und Erklärung in einer integrierten verbindungsorientierten / symbolischen kognitiven Architektur", in MacDonald (1995).
  • St. John, M. und McClelland, J., 1991, „Lernen und Anwenden von Kontextbeschränkungen beim Satzverständnis“, in Hinton (1991), 217–257.
  • Tomberlin, J. (Hrsg.), 1995, Philosophical Perspectives 9: AI, Connectionism and Philosophical Psychology, Atascadero: Ridgeview Press.
  • Touretzky, D., 1989, Fortschritte in neuronalen Informationsverarbeitungssystemen I, San Mateo, CA: Kaufmann.
  • Touretzky, D., 1990, Fortschritte in neuronalen Informationsverarbeitungssystemen II, San Mateo, CA: Kaufmann.
  • Touretzky, D., 1991, Connectionist Approaches to Language Learning, Dordrecht: Kluwer.
  • Touretzky, D., Hinton, G. und Sejnowski, T., 1988, Proceedings of the 1988 Connectionist Models Summer School, San Mateo: Kaufmann.
  • van Gelder, T., 1990, „Kompositionalität: Eine verbindungsorientierte Variation eines klassischen Themas“, Cognitive Science, 14: 355–384.
  • van Gelder, T., 1991, "Was ist das 'D' in PDP?" in Ramsey et al. (1991), 33–59.
  • van Gelder, T und Port, R., 1993, "Beyond Symbolic: Prolegomena to a Kama-Sutra of Compositionality", in V. Honavar und L. Uhr (Hrsg.), Symbolverarbeitung und verbindungsorientierte Modelle in KI und Kognition: Schritte Auf dem Weg zur Integration, Boston: Academic Press.
  • Vilcu, M. und Hadley, R., 2005, „Zwei offensichtliche Gegenbeispiele“zu Marcus: Ein genauerer Blick “, Minds and Machines, 15: 359–382.
  • Von Eckardt, B., 2003, „Das erklärende Bedürfnis nach mentalen Repräsentationen in der Kognitionswissenschaft“, Mind and Language, 18: 427–439.
  • Von Eckardt, B., 2005, "Connectionism and the Propositional Attitudes", in C. Erneling und D. Johnson (Hrsg.), Der Geist als wissenschaftliches Objekt: Zwischen Gehirn und Kultur, New York: Oxford University Press.
  • Waltz, D. und Pollack, J., 1985, „Massively Parallel Parsing: Ein stark interaktives Modell der Interpretation natürlicher Sprache“, Cognitive Science, 9: 51–74.

Andere Internetquellen

  • Bibliographie zum Konnektionismus, zusammengestellt von David Chalmers (University of Arizona).
  • Connectionism: Eine kurze Leseliste, die von Ezra van Everbroeck (Universität von Kalifornien-San Diego) geführt wird.