Inhaltsverzeichnis:
- Standardeinstellungen in Semantik und Pragmatik
- 1. Standardinterpretationen in Semantik und Pragmatik
- 2. Definitionsmerkmale von Standardinterpretationen
- 3. Standardeinstellungen und Salience
- 4. Schlussbemerkungen und Zukunftsaussichten
- Andere Internetquellen

Video: Standardeinstellungen In Semantik Und Pragmatik

2023 Autor: Noah Black | [email protected]. Zuletzt bearbeitet: 2023-11-26 16:05
Eintragsnavigation
- Eintragsinhalt
- Literaturverzeichnis
- Akademische Werkzeuge
- Freunde PDF Vorschau
- Autor und Zitierinfo
- Zurück nach oben
Standardeinstellungen in Semantik und Pragmatik
Erstveröffentlichung am 30. Juni 2006; inhaltliche Überarbeitung Montag, 23. April 2018
Der Sinn und die Rolle von Standardwerten in der Semantik- / Pragmatiklandschaft ändern sich schnell und dynamisch. Erstens ändert sich dies aufgrund des Fortschritts in den Debatten über die Abgrenzung expliziter Inhalte (Jaszczolt 2009a, 2016a). Zweitens wird es durch die Debatten über die wörtliche / nicht wörtliche Unterscheidung zwischen hervorstechender und nicht hervorstechender Unterscheidung vorangetrieben (Giora & Givoni 2015; Ariel 2016). Als nächstes wird es von der Computerlinguistik beeinflusst, die statistische Modelle zum Erlernen der kompositorischen Bedeutung unter Verwendung von „Big Data“entwickelt (Jurafsky & Martin 2017 [Andere Internetquellen]; Liang & Potts 2015). Im Folgenden konzentriere ich mich auf zwei Hauptaspekte der Standardität in der Semantik und Pragmatik: (i) unterschiedliche Konzeptualisierungen der Standardität, ihre Herkunft und ihre relativen Vorzüge;sowie (ii) Versäumnis gegenüber den Semantik / Pragmatik-Grenzstreitigkeiten.
Der Begriff "Standardbedeutung" wird in der Literatur auf verschiedene Arten verwendet, einschließlich statistisch gebräuchlicher Interpretation, vorhersagbarer Bedeutung, hervorstechender Bedeutung oder automatisch abgerufener Bedeutung. Um mit einer Definition des gesunden Menschenverstandes zu beginnen, wird unter Standardinterpretation der Äußerung des Sprechers normalerweise eine hervorstechende Bedeutung verstanden, die vom Sprecher beabsichtigt oder vom Adressaten als beabsichtigt angenommen und wiederhergestellt (a), ohne dass der Sprecher darauf schließen kann Absichten oder (b) ohne bewussten Inferenzprozess insgesamt.
In der postgricäischen Pragmatik wurde akzeptiert, dass Kommunikatoren mehr Informationen vermitteln, als in den von ihnen ausgesprochenen Ausdrücken enthalten sind. Zum Beispiel vermitteln die Sätze (1a) - (2a) normalerweise (1b) - (2b).
(1a) Tom hat ein Papier fertig geschrieben und ist Schlittschuh gefahren.
(1b) Tom hat ein Papier fertig geschrieben und ist dann Schlittschuh gefahren.
(2a) Picassos Gemälde zeigt eine weinende Frau.
(2b) Das von Picasso ausgeführte Gemälde zeigt eine weinende Frau.
Solche Ergänzungen zum Inhalt des ausgesprochenen Satzes wurden von Grice (1975) als generalisierte Konversationsimplikaturen (GCIs) bezeichnet, dh als Beispiele für kontextunabhängige pragmatische Folgerungen. In der Folge ist der Status solcher kontextunabhängigen Ergänzungen Gegenstand hitziger Debatten geworden. Einige Post-Griceaner bleiben Grices Geist nahe und schlagen vor, dass es hervorstechende, nicht markierte, vermutete Bedeutungen gibt, die unabhängig vom Kontext auftreten (Horn, z. B. 2004, 2012; Levinson 1995, 2000; Recanati 2004). Einige identifizieren Standardbedeutungen als solche, die sich automatisch in einer bestimmten Diskurssituation ergeben (Jaszczolt, z. B. 2005, 2010, 2016b; Elder & Jaszczolt 2016). Andere lehnen Standardwerte vor Gericht ab und fassen solche herausragenden Bedeutungen unter einer unnatürlich erweiterten Kategorie kontextabhängiger pragmatischer Schlussfolgerungen zusammen (Sperber & Wilson 1986; Carston 2002).
Als nächstes betrachten einige, die Grice folgen, solche pragmatischen Beiträge zur Äußerungsbedeutung als verallgemeinerte Konversationsimplikaturen (Levinson), andere klassifizieren sie als pragmatische Eingabe für das Gesagte, obwohl sie eine Vielzahl von theoretenspezifischen Bezeichnungen verwenden (Recanati, Carston) der Begriff "Implikatur" für Bedeutungen, die durch eine separate logische Form dargestellt werden können und die unabhängig vom Inhalt der Hauptäußerung in der Argumentation funktionieren. Andere definieren sie als Beiträge zu primären Bedeutungen, wobei letztere die explizite / implizite Kluft (Jaszczolt) überschreiten. Eine weitere Möglichkeit besteht darin, sie als eine separate Ebene dessen zu betrachten, was in dem Gesagten impliziert ist (Bach 1994, 2007; Horn 2006). Kurz gesagt, der Status solcher "Standard" -Bedeutungen ist noch lange nicht klar. Zumindest allgemein jedochEs gibt einen Grund, zwischen hervorstechenden, automatischen Anreicherungen und kostspieligen pragmatischen Schlussfolgerungen zu unterscheiden, da einige dieser pragmatischen Beiträge selbstverständlich normal ablaufen. Wie Horn (2004: 4–5) es ausdrückt,
Unabhängig vom theoretischen Status der Unterscheidung ist es offensichtlich, dass einige Implikaturen nur in einem speziellen Kontext induziert werden (…), während andere durchlaufen werden, sofern kein spezieller Kontext vorliegt (…).
Oben bestehen die Unterschiede bei der Verwendung des Begriffs "Standard" in der Annahme oder Ablehnung von mindestens den folgenden Eigenschaften:
- Stornierbarkeit (auch als Defeasibility bezeichnet) bevorzugter Interpretationen;
- Verfügbarkeit bevorzugter Interpretationen ohne bewusste Folgerung;
- kürzere Zeit, die für ihre Bildung durch den Sprecher und ihre Anerkennung durch den Adressaten erforderlich ist, verglichen mit der Zeit, die für die durch Inferenz induzierten Bedeutungen erforderlich ist;
- die Verfügbarkeit bevorzugter Interpretationen vor Abschluss der Verarbeitung des gesamten Satzes (lokale Standardeinstellungen vor dem Satz).
Standardeinstellungen sind auch in der Diskussion über den konventionellen Import von lexikalischen Elementen wie Expressiven insofern relevant, als ihre standardmäßige expressive (oft anstößige) Bedeutung in bestimmten Arten von Kontext nicht auftritt. Die Ansicht über ihre Wahrheitsbewertbarkeit (oder zumindest darüber, welche Aspekte ihrer Bedeutung wahrheitsbewertbar sind) hängt dann eng mit dem Wert zusammen, den man dieser Kontextabhängigkeit beimisst (Potts 2005; Richard 2008; Sileo 2017). Eine separate Tradition der Verwendung von Standardwerten in der lexikalischen Standardvererbung, einschließlich der rechnerischen Semantik, wird in Abschnitt 1.5 kurz angesprochen.
Der Überblick über die in Abschnitt 1 vorgestellten Hauptperspektiven macht deutlich, dass es in der Literatur keinen Konsens darüber gibt, welche einzigartigen Eigenschaften Standardinterpretationen aufweisen sollten, was die Diskussion darüber eröffnet, ob der Begriff nur einen intra-theoretischen Nutzen hat.
-
1. Standardinterpretationen in Semantik und Pragmatik
- 1.1. Standardeinstellungen, das Gesagte und das Ungesagte
- 1.2. Standard-Argumentation
- 1.3. Vermutliche Bedeutungen und Stornierbarkeit
- 1.4. Rhetorische Strukturregeln
- 1.5. Computational Semantics Landscape
- 1.6. Standardeinstellungen in der Pragmatik der Optimalitätstheorie
- 1.7. Standardeinstellungen in der wahrheitsbedingten Pragmatik
- 1.8. Arten von Standardwerten in der Standardsemantik
- 2. Definitionsmerkmale von Standardinterpretationen
- 3. Standardeinstellungen und Salience
- 4. Schlussbemerkungen und Zukunftsaussichten
- Literaturverzeichnis
- Akademische Werkzeuge
- Andere Internetquellen
- Verwandte Einträge
1. Standardinterpretationen in Semantik und Pragmatik
1.1. Standardeinstellungen, das Gesagte und das Ungesagte
Standardinterpretationen, Interpretationen, die den Standardinhalt erzeugen, werden unterschiedlich definiert, je nachdem, wie "Standard" definiert ist: als Standard für das lexikalische Element, als Standard für die syntaktische Struktur, als Standard für eine bestimmte Konstruktion oder sogar als Standard für eine bestimmte Kontext (wo zusätzlich eine notwendige Korrelation mit der angenommenen Definition von „Kontext“besteht). Die Abgrenzung solcher Standardwerte kann nach verschiedenen Methoden erfolgen, die wiederum die Ergebnisse beeinflussen und als solche weiter zur Definition von Standardwerten beitragen können. Zum Beispiel ist der psychologische Weg mit automatischen, inferenzfreien Interpretationen verbunden, während der statistische Weg quantitative Analysen von Daten anspricht, wobei letzterer sich auf Korpora von Gesprächen oder große Datenbanken des Wort-Co-Auftretens beziehen kann, wie sie in der Statistik verwendet werden. Verteilungsansätze in der Computersemantik.
Bei der Analyse in einer standardmäßigen wahrheitsbedingten Semantik können Standardwerte zum wahrheitsbedingten Inhalt beitragen oder das Implizite beeinflussen - vorausgesetzt oder impliziert (siehe z. B. Potts 2015). Die Seite, auf der wir bei dieser Unterscheidung Standardeinstellungen finden, wird weitgehend von der Ausrichtung auf die Grenze zwischen Semantik und Pragmatik bestimmt, wobei die Auswahl vom traditionellen semantischen Minimalismus bis zu radikalen Versionen des Kontextualismus reicht. Ich werde diese in den folgenden Abschnitten ausführlicher behandeln. Es muss jedoch beachtet werden, dass die Kategorie tangential zu Konzepten wie Konversationsimplikatur, konventioneller Implikatur, Voraussetzung oder, um einen allgemeineren Begriff zu verwenden, projektivem Inhalt ist (zu Universalien in projektivem Inhalt siehe Tonhauser et al. 2013)). Zum Beispiel sind Voraussetzungen stärker als Standardeinstellungen:Voraussetzungsauslöser wie "wissen", "bedauern", "wieder" oder "verwalten" geben dem Hörer nicht viel Interpretationsmöglichkeit, außer dass er irgendeine Form von metallsprachlichem oder zitativem Lesen zulässt, wenn diese wie in (3) negiert werden.
(3) Ich habe deinen Geburtstag nicht wieder vergessen. Es ist das erste Mal, dass es passiert ist.
Was gesagt wird, kann sich auf verschiedene Arten von Standardwerten (Abschnitt 2) und kontextbezogene Interpretationen (Abschnitt 3) stützen, aber es kann sich auch auf mühsame pragmatische Schlussfolgerungen aus einer Vielzahl von Quellen stützen, die in der Diskurslage verfügbar sind. Relevante Implikaturen können konventionell (Grice 1975; Potts 2005) und konversationsverallgemeinert sein, wobei letztere entweder als grammatikalisch (Chierchia 2004) oder lockerer als sprachsystemgesteuert (Levinson 2000 und Abschnitt 1.3) verstanden werden, Implikaturen jedoch auch vollständig kontextabhängig sein (insbesondere). Um diese Mehrdimensionalität zu ergänzen, können in einigen Fällen automatisch kontextabhängige Implikaturen auftreten. Wenn also unsere Definition von Standardwerten auf dem oben diskutierten Definitionskriterium der Automatizität des Prozesses beruht, dann durch diese Definition,Solche Implikaturen können auch als "Standardwerte" bezeichnet werden (Giora & Givoni 2015; Jaszczolt 2016a). Kurz gesagt, wenn wir den Standardweg für die Analyse der Inhaltstypen verfolgen, kommen wir mit der Analyse der Standardeinstellungen nicht weit. Diese / implizierten, fraglichen oder diskussionsgesteuerten Analysen (z. B. Roberts 2004) werden auf beiden Seiten der relevanten Dichotomien auf Standardwerte stoßen.
Eine weitere Komplikation bei der Verknüpfung der Zahlungsunfähigkeit mit den Kategorien des Gesagten oder des Ungesagten ist die Tatsache, dass selbst schwache Implikaturen oder Voraussetzungen, die durch die Unterbringung angenommen werden, einen der beiden Status genießen können. In (4) können wir die Voraussetzung in (5) global berücksichtigen - entweder durch Inferenz oder automatisch.
(4) Tom sagt, dass Ian noch keinen Roman geschrieben hat.
(5) Ian schreibt einen Roman.
Infolgedessen kann (5) den Standardstatus gemäß einigen der Standardverständnisse von Standardwerten als automatische oder häufigere, hervorstechendere oder sogar "wörtlichere" Interpretationen genießen, oder alternativ kann es einfach eine Interpretation sein, die ist einfacher zu verarbeiten - wohl an sich ein plausibles Kriterium für "Standard".
Als nächstes haben konventionelle Implikaturen, dh lexikalische Bedeutungen, die nach Grice (1975) nicht zu dem Gesagten beitragen, auf den ersten Blick weniger mit Verzug zu tun: Sie sind verankert, nicht stornierbar und formabhängig (abnehmbar), und sie können nicht aus Maximen, Prinzipien oder Heuristiken berechnet werden (Horn 1988: 123). Neuere Untersuchungen zu der entsprechenden Kategorie von Ausdrucksmitteln bieten jedoch mehr Spielraum für die Verfolgung von Zahlungsunfähigkeit. Bögen sind wohl standardmäßig beleidigend, aber ihre abfällige Bedeutung überträgt sich nicht auf den Kontext von Scherz und Kameradschaft. Ob der expressive Inhalt eine Implikatur oder ein Teil dessen ist, was gesagt wird, wird immer noch heiß diskutiert (siehe z. B. Richard 2008; Sileo 2017). Im Folgenden wirdIch versuche, diesem unhandlichen Begriff eine gewisse Ordnung gegenüber der Unterscheidung zwischen Semantik und Pragmatik zu verleihen, und schließe mit einigen Überlegungen zu seiner Nützlichkeit für Semantik und Pragmatik.
1.2. Standard-Argumentation
Wie dem auch sei, Standardbedeutungen stammen aus Standardargumenten. Nach Kent Bach (1984) verwenden wir bei der Interpretation von Äußerungen "Springen zu Schlussfolgerungen" oder "Standardargumentation". Mit anderen Worten, die Sprecher wissen, wann eine kontextabhängige Folgerung aus dem Inhalt des Satzes erforderlich ist und wann nicht. Wenn es nicht erforderlich ist, gelangen sie unbewusst zur ersten verfügbaren und unangefochtenen Alternative. Dieser Schritt kann abgebrochen werden, wenn dem Adressaten klar wird, dass die resultierende Bedeutung nicht der Absicht des Sprechers entspricht. Was in dieser Sichtweise wichtig ist, ist die vorgeschlagene Unterscheidung zwischen (bewusster) Folgerung und dem unbewussten Akt des "Schrittmachens", wie Bach (1984: 40) es nennt, hin zur angereicherten Standardinterpretation. Einer solchen Umstellung auf die Standardbedeutung geht keine bewusste Überlegung voraus, ob diese Bedeutung tatsächlich vom Sprecher beabsichtigt war. Vielmehr geht es nur durch, es sei denn, es wird durch einige kontextbezogene oder andere Faktoren gestoppt, die es unplausibel machen.
Bach gründet seinen Bericht auf der griceanischen Theorie der absichtlichen Kommunikation und hat daher eine Erklärung dafür, dass unterschiedliche Bedeutungen unterschiedliche Bedeutung haben. Er geht davon aus, dass Absichten unterschiedliche Stärken zulassen (Bach 1987). Er fügt hinzu, dass Salience viel mit Standardisierung zu tun hat (Bach 1995; 1998), die darin besteht, eine Äußerung nach einem Muster zu interpretieren, das durch vorherige Verwendung festgelegt wurde, und als solches den Prozess der (bewussten) Folgerung kurzschließt. Kurz gesagt, das „Springen zu Schlussfolgerungen“wird unbewusst und mühelos durchgeführt.
Für Bach sind solche Standardbedeutungen weder Implikaturen noch das Gesagte (oder Explikaturen): Sie sind implizit in dem Gesagten oder Impliziten enthalten. Sie sind das Ergebnis der "Ausarbeitung" der Bedeutung des Satzes, um zum beabsichtigten Satz zu gelangen, oder des "Ausfüllens" einiger konzeptioneller Lücken in der semantischen Darstellung, die erst nach diesem Ausfüllen zu einem vollständigen Satz werden. Ein Beispiel für "Ausarbeiten" ist in (6b) angegeben, wo der minimale Satz erweitert wird. Das Ausfüllen wird in (7b) veranschaulicht, wo ein sogenanntes Satzradikal vervollständigt wird.
(6a) Tom ist zu jung.
(6b) Tom ist zu jung, um Auto zu fahren.
(7a) Jeder mag Philosophie.
(7b) Jeder, der die SEP liest, mag Philosophie.
Standardbedeutungen erschöpfen jedoch nicht die Kategoriemitgliedschaft des Implizits: Impliziten können ein Ergebnis von Standardargumenten sowie eines kontextabhängigen Inferenzprozesses sein. Analog zu den zuvor diskutierten Unterscheidungen sind Standardbedeutungen orthogonal zur Unterscheidung zwischen Gesagtem, Implizitem und Implikatur: Die Standard- / Inferenzunterscheidung erstreckt sich über alle drei.
1.3. Vermutliche Bedeutungen und Stornierbarkeit
Stephen Levinson (1995, 2000) argumentiert für Standardinterpretationen, die er als vermutliche Bedeutungen bezeichnet und als Implikaturen klassifiziert. Er verwendet den von Grice entlehnten Begriff Generalized Conversational Implicatures (GCIs), schreibt ihnen jedoch einige Eigenschaften zu, die sie von Grices GCIs unterscheiden. Für Levinson sind GCIs weder richtig semantisch noch richtig pragmatisch. Sie sollten nicht als Teil der Semantik betrachtet werden, wie beispielsweise in der Diskursrepräsentationstheorie (Kamp und Reyle 1993), und sie sollten auch nicht als Ergebnis einer kontextabhängigen Folgerung gesehen werden, die der Hörer im Prozess der Wiederherstellung der Absicht des Sprechers. Stattdessen „sitzen sie auf halbem Weg und beeinflussen systematisch Grammatik und Semantik einerseits und Sprecherbedeutung andererseits.“(Levinson 2000: 25).
Solche vermuteten Bedeutungen sind das Ergebnis rationalen, kommunikativen Verhaltens und ergeben sich aus drei angenommenen Heuristiken: (1) "Was nicht gesagt wird, ist nicht"; (2) "Was einfach ausgedrückt wird, ist stereotyp beispielhaft" und (3) "Was auf abnormale Weise gesagt wird, ist nicht normal", genannt Q-, I- und M-Heuristik (Prinzipien). Levinsons GCIs können im Gegensatz zu ihren griceanischen Vorläufern in verschiedenen Stadien der Äußerungsverarbeitung auftreten: Der Hörer muss nicht den gesamten Satz verarbeitet haben, bevor er zu einigen vermuteten Bedeutungen gelangt ist. Im Gegensatz zu Grices GCIs, die als beabsichtigte Bedeutungen des Sprechers angesehen werden, scheinen Levinsons vermutliche Bedeutungen die Bedeutungen des Hörers zu sein, die der Hörer aufgrund der Annahmen erhält, die er oder sie im Prozess der Äußerungsinterpretation getroffen hat (siehe Saul 2002 und Horn 2006) zur Diskussion). Andererseits,Wie die GCIs von Grice können sie ohne Widerspruch storniert werden.
Wenn nun die Standardeinstellungen durch die kontextbezogene Bedeutung begrenzt sind, kann es wahrscheinlich sein, dass die Stornierung nur in Fällen von Missverständnissen erfolgt. Mit anderen Worten, wenn die Bedeutung in einem bestimmten Kontext hervorstechend ist, ist es wahrscheinlich, dass sie vom Sprecher gemeint wurde, es sei denn, der Sprecher hat die Gemeinsamkeiten falsch eingeschätzt. Wenn sie jedoch als sprachsystemgesteuerte Bedeutungen à la Levinson-GCIs verstanden werden, ist die Stornierbarkeit ein direkter Beweis für eine solche Versäumnis. Wesentliche Bedeutungskomponenten, die dem offen zum Ausdruck gebrachten Inhalt hinzugefügt werden (in Form zusätzlicher Informationen oder Interpretationsmöglichkeiten), sind in der Regel fest verankert und daher schwer zu löschen. Aber wie Jaszczolt (2009a, 2016a) zeigt, ist die Stornierbarkeit eine Eigenschaft, die nicht mit impliziten, sondern mit expliziten Inhalten, sondern mit herausragenden Aspekten einhergeht. Wenn die beabsichtigte Hauptnachricht indirekt übermittelt wird,wie in (8b) ist es dann die Implikatur (8c), die schwer aufzuheben ist.
(8) (Fred und Wilma sprechen über Wilmas Klavierabend)
(8a) Fred: War der Auftritt ein Erfolg?
(8b) Wilma: Viele Leute sind vor dem Ende gegangen.
(8c) Der Erwägungsgrund war kein Erfolg.
Das Vorhandensein oder Nichtvorhandensein einer Stornierung bei der Interpretation von Äußerungen ist immer noch umstritten. Gegenwärtig ist es schwierig, zwischen den konkurrierenden Ansichten (i) zu entscheiden, dass ein bestimmter GCI entstanden ist und anschließend annulliert wurde, oder (ii) dass er überhaupt nicht entstanden ist, weil er durch den Kontext blockiert wurde. Es gibt nicht genügend experimentelle Beweise, um eine der beiden Standpunkte zu stützen. Die Antwort auf diese Frage hängt stark von der Antwort auf den sogenannten Globalismus-Lokalismus-Streit ab. Wenn, wie Levinson behauptet, Standardinterpretationen "lokal" aus der Verarbeitung einer vorsatzartigen Einheit wie eines Wortes oder einer Phrase entstehen, müssen sie nach der Verarbeitung des Satzes häufig storniert werden. Wenn sie jedoch trotz der Inkrementalität des Interpretationsprozesses post-propositional oder "global" auftreten,In Übereinstimmung mit Grices ursprünglicher Annahme kann die Interpretation der Äußerungen ohne kostspieliges Zurückverfolgen erfolgen (siehe Geurts 2009; Jaszczolt 2008, 2009a, 2016a; Noveck & Sperber 2004).
1.4. Rhetorische Strukturregeln
Gricean Pragmatik ist nicht der einzige Ansatz, in dem Standardeinstellungen diskutiert werden. Standardeinstellungen und nichtmonotones Denken sind auch in der Computerlinguistik gut verankert. Dort werden Standardeinstellungen in Bezug auf verschiedene Bedeutungseinheiten unterschieden, von Morphemen und Wörtern bis zu multisententiellen Einheiten (Asher & Lascarides 1995; Lascarides & Copestake 1998). In diesem Abschnitt konzentriere ich mich auf intersentielle Standardverknüpfungen und im nächsten Abschnitt stelle ich die 'Klebelogik' in den Kontext einiger anderer Verständnisse von Standardwerten in der rechnerischen Semantik.
Die Tradition der Standardeinstellungen im nichtmonotonen Denken lässt sich auf Humboldt, Jespersen und Cassirer und in jüngerer Zeit auf Reiters (1980) Standardlogik und seine Standardregeln der Form zurückführen:
A: B
C.
wobei C geschlossen werden kann, wenn A abgeschlossen wurde und B angenommen werden kann (und nicht B nicht nachgewiesen werden kann). Solche Standardeinstellungen können in die Standardlogik integriert werden:
Es ist genauso gültig zu schließen, dass 'Vermutlich x ist B' aus 'x ist A' und 'A' sind normalerweise B ', als zu schließen, dass' x ist B 'aus' x ist A 'und' Alle A 'ist. s sind B '. Man muss sich nicht auf eine andere Art des Denkens konzentrieren, um die erstere zu erhalten. Veltman (1996: 257).
Die resultierende Logik wird jedoch nicht monoton, da die Sprache Standardregeln und Standardoperatoren enthält. Die Literatur zu diesem Thema ist umfangreich und wird am besten als ein von unserem aktuellen Anliegen getrenntes Thema betrachtet (siehe z. B. Thomason (1997) für eine Übersicht).
Das beste Beispiel dafür, wie Standardinterpretationen in der formalen semantischen Theorie berücksichtigt werden können, ist die Segmented Discourse Representation Theory (SDRT, z. B. Asher & Lascarides 2003). SDRT ist ein Ableger der Diskursrepräsentationstheorie, einer dynamischen semantischen Herangehensweise an die Bedeutung, nach der die Bedeutung schrittweise durch Kontextänderung entsteht. In SDRT werden Standardwerte als sehr wahrscheinliche Wege angesehen, die eine Interpretation eines Satzes in einer bestimmten Diskurssituation einschlagen kann. Es gibt Diskursregeln, sogenannte rhetorische Strukturregeln, die solche Standardinterpretationen erzeugen. Diese Regeln formulieren die allgemeine Annahme, dass der Diskurs kohärent ist und dass diese Kohärenz weiter ausgearbeitet werden kann, indem eine Reihe von Regelmäßigkeiten vorgeschlagen werden. Beispielsweise,Es wird angenommen, dass zwei Ereignisse, die als zwei aufeinanderfolgende Äußerungen dargestellt werden, in der Beziehung der Erzählung stehen, wobei das in der ersten Äußerung beschriebene Ereignis demjenigen der zweiten Äußerung vorausgeht. Wenn die zweite Äußerung einen Zustand beschreibt, steht sie im Verhältnis des Hintergrunds zum ersten. Es gibt viele andere Arten solcher Beziehungen, darunter Erklärung und Ausarbeitung. Axiome verhindern, dass eine Beziehung gleichzeitig zwei inkompatible Typen aufweist. Die Beziehungen zwischen Zuständen und Ereignissen werden als starke Wahrscheinlichkeiten berechnet, was als nicht durchführbares Denken bezeichnet wird. Die Gesetze des Denkens sind in dem Sinne „durchführbar“, dass, wenn die Vorgeschichte einer Standardregel erfüllt ist, ihre Konsequenz normalerweise, aber nicht immer, erfüllt ist. Die Folgerung ergibt normalerweise, aber nicht immer: ceteris paribus,die vom Gesetz vorhergesagte Beziehung erhält, aber unter bestimmten Umständen kann es nicht. Es ist auch nicht monoton, dass die Beziehung mit dem Wachstum von Informationen verschwinden kann.
SDRT enthält die folgenden Komponenten: (i) die Semantik von Sätzen allein, dh die unterbestimmte Ausgabe der syntaktischen Verarbeitung der Sätze; (ii) die Semantik des Informationsgehalts, dh eine weitere Ergänzung zu diesen unbestimmten Bedeutungen, einschließlich Standardadditionen, die durch rhetorische Strukturregeln zusammengefasst werden; und (iii) die Semantik der Informationsverpackung, die solche angereicherten Darstellungen anhand der Regeln der rhetorischen Struktur des Diskurses „klebt“. Dieses "Zusammenkleben" ist insofern nicht durchführbar, als die Regeln zu der Abhängigkeit A> B führen, dh "wenn A, dann normalerweise B", wobei A und B für die angereicherten Aussagenrepräsentationen zweier Sätze stehen. Mit anderen Worten, sie stehen für die Bedeutung zweier aufeinanderfolgender Äußerungen.
Die Hauptstärke dieses Ansatzes besteht darin, dass er vollständig formalisiert ist und eine rechnergestützte Modellierung des Diskurses ermöglicht, bei der pragmatische Verknüpfungen zwischen Äußerungen ernst genommen und in die Semantik einbezogen werden. Als nächstes strebt es auch die kognitive Realität an, und obwohl die kognitive Realität der jeweiligen Regeln umstritten sein kann, ist die Ansicht der Diskursverarbeitung, die sie gemeinsam produzieren, höchst plausibel. Wie die Autoren oft betonen, können sie mit SDRT den Diskurs größtenteils modellieren, ohne auf die Absichten der Redner zurückgreifen zu müssen. Ein direkter Vergleich mit griceanischen Standardkonten wird jedoch durch die Tatsache ausgeschlossen, dass wir Gleiches nicht mit Gleichem vergleichen würden. In SDRT sind die Standardinterpretationen die Standardeinstellungen, die in Bezug auf den tatsächlich auftretenden Diskurs formalisiert werden:Es gibt Regeln, die uns sagen, wie zwei Ereignisse in zwei aufeinanderfolgenden Sätzen dargestellt werden sollen. Es gibt auch Regeln, die die Beziehung zwischen ihnen in Abhängigkeit von einigen Merkmalen ihres Inhalts festlegen. Gricean-Standardeinstellungen sind im Gegenteil Standardeinstellungen für den allgemeinen Wissensstand der Sprecher: Sie können auftreten, weil der Sprecher nichts gesagt hat, was er oder sie hätte sagen können, oder weil der Sprecher angenommen hat, dass einige kulturelle oder soziale Informationen gemeinsames Wissen sind. Zum Beispiel können wir die Interpretation von (9a) als (9b) nicht durch rhetorische Strukturregeln formalisieren. Die Interpretation von (9a) als (9b) passt eher unter die SDRT-Komponente (ii) als unter (iii), dh eher unter die Semantik des Informationsgehalts als auf die Verpackung. Es gibt auch Regeln, die die Beziehung zwischen ihnen in Abhängigkeit von einigen Merkmalen ihres Inhalts festlegen. Gricean-Standardeinstellungen sind im Gegenteil Standardeinstellungen für den allgemeinen Wissensstand der Sprecher: Sie können auftreten, weil der Sprecher nichts gesagt hat, was er oder sie hätte sagen können, oder weil der Sprecher angenommen hat, dass einige kulturelle oder soziale Informationen gemeinsames Wissen sind. Zum Beispiel können wir die Interpretation von (9a) als (9b) nicht durch rhetorische Strukturregeln formalisieren. Die Interpretation von (9a) als (9b) passt eher unter die SDRT-Komponente (ii) als unter (iii), dh eher unter die Semantik des Informationsgehalts als auf die Verpackung. Es gibt auch Regeln, die die Beziehung zwischen ihnen in Abhängigkeit von einigen Merkmalen ihres Inhalts festlegen. Gricean-Standardeinstellungen sind im Gegenteil Standardeinstellungen für den allgemeinen Wissensstand der Sprecher: Sie können auftreten, weil der Sprecher nichts gesagt hat, was er oder sie hätte sagen können, oder weil der Sprecher angenommen hat, dass einige kulturelle oder soziale Informationen gemeinsames Wissen sind. Zum Beispiel können wir die Interpretation von (9a) als (9b) nicht durch rhetorische Strukturregeln formalisieren. Die Interpretation von (9a) als (9b) passt eher unter die SDRT-Komponente (ii) als unter (iii), dh eher unter die Semantik des Informationsgehalts als auf die Verpackung. Sie können entstehen, weil der Sprecher nichts gesagt hat, was er oder sie hätte sagen können, oder weil der Sprecher angenommen hat, dass einige kulturelle oder soziale Informationen als gemeinsames Wissen gelten. Zum Beispiel können wir die Interpretation von (9a) als (9b) nicht durch rhetorische Strukturregeln formalisieren. Die Interpretation von (9a) als (9b) passt eher unter die SDRT-Komponente (ii) als unter (iii), dh eher unter die Semantik des Informationsgehalts als auf die Verpackung. Sie können entstehen, weil der Sprecher nichts gesagt hat, was er oder sie hätte sagen können, oder weil der Sprecher angenommen hat, dass einige kulturelle oder soziale Informationen als gemeinsames Wissen gelten. Zum Beispiel können wir die Interpretation von (9a) als (9b) nicht durch rhetorische Strukturregeln formalisieren. Die Interpretation von (9a) als (9b) passt eher unter die SDRT-Komponente (ii) als unter (iii), dh eher unter die Semantik des Informationsgehalts als auf die Verpackung.
(9a) Pablos Gemälde zeigt eine weinende Frau.
(9b) Picassos Gemälde zeigt eine weinende Frau.
Abschließend muss erwähnt werden, dass die Diskursbeziehungen, die für Asher und Lascarides zur „Leimlogik“gehören, alternativ als Teil der eigentlichen Grammatik aufgefasst werden können: Lepore & Stone (2015) integrieren beispielsweise Konventionen in minimalistisch verstandenes, grammatikalisch gesteuerte Semantik und erst recht die eigentliche Grammatik; In Anlehnung an Lewis '(1979) Ideen zu Konventionen und „Scorekeeping“schlagen sie vor, dass „die Semantik die soziale Kompetenz der Gesprächspartner bei der Koordinierung der Konversationsaufzeichnungen beschreibt“(Lepore & Stone 2015: 256). Es ist jedoch nicht leicht, Konventionen in die Grammatik zu integrieren (für eine Übersicht siehe Jaszczolt 2016b).
1.5. Computational Semantics Landscape
Die rechnergestützte Semantiklandschaft enthält einige Orientierungspunkte, in denen das Konzept einer Standardfigur eine herausragende Rolle spielt, wenn auch unter verschiedenen Bezeichnungen. Ich habe bereits die Rolle von Standardwerten und Vererbungsgründen in der Forschung mit künstlicher Intelligenz am Beispiel von SDRT erörtert. Diese Art der Forschung in der Computerlinguistik kommt der theoretischen linguistischen Semantik und Pragmatik wohl am nächsten, da sie die menschlichen Denkpraktiken direkt anspricht. Pelletier & Elio (2005) bezeichnen dieses Merkmal als den Psychologismus der nichtmonotonen Logik und damit als eine Eigenschaft, die von Frege als Form eines „korrumpierenden Eindringens“so heftig aus der Logik verbannt wurde, dass „wahr sein ganz anders ist als sein als wahr gehalten '(Frege 1893: 202). Pelletier und Elio schreiben:
Im Gegensatz zu den meisten anderen Argumentationsformalismen ist nichtmonotones oder Standard-Denken, einschließlich Vererbungsdenken, „psychologisch“- das heißt, es wird nur als das definiert, was Menschen unter Umständen tun, in denen sie sich mit „vernünftigem Denken“beschäftigen. Daraus folgt, dass grundlegende Fragen wie „Was sind die guten nichtmonotonen Schlussfolgerungen?“oder „Was zählt als„ Relevanz “für eine Standardregel?“usw. können nur durch Betrachten von Personen und deren Verhalten festgestellt werden. Es ist weder eine formale Übung, die durch Betrachtung mathematischer Systeme entdeckt werden kann, noch durch formale Überlegungen wie „Einfachheit“oder „Berechenbarkeit“usw. zu entscheiden. Pelletier & Elio (2005: 30).
Weitere Meilensteine sind Untersuchungen zur Standardmerkmalsspezifikation in der syntaktischen Theorie und zur lexikalischen Standardvererbung (z. B. Gazdar et al. 1985; Boguraev & Pustejovsky 1990; Lascarides et al. 1996), bei denen die Standardvererbung von einer einfachen Idee stammt, die alle Taxonomien betrifft: reguläre Merkmale Zugehörigkeit zu einer Entität eines bestimmten Typs werden von den Kategorien geerbt, die weiter oben in der taxonomischen Hierarchie stehen, dh einfach aufgrund der Zugehörigkeit zu einem bestimmten ontologischen Typ. Infolgedessen müssen nur die nicht standardmäßigen Funktionen berücksichtigt werden (in verschiedenen semantischen Netzwerken in der Computerlinguistik siehe auch Stone 2016). Um es zu verallgemeinern: Diese Forschungsrichtung kann zur Einbeziehung von Informationen in logische Formen führen, einschließlich, wie am Beispiel von SDRT zu sehen ist, dynamischer logischer Formen von Diskursen. In einem anderen Lager gibt es statistische, verteilte Bedeutungsansätze, bei denen die Bedeutung aus Informationen über das gleichzeitige Auftreten von Gegenständen abgeleitet wird, die aus Korpora gewonnen und dann quantitativ analysiert wurden. Diese Ausrichtung führte zu aktuellen vektorbasierten Ansätzen (siehe z. B. Jurafsky & Martin 2017 [Andere Internetquellen]; Coecke et al. 2010 und zur Diskussion Liang & Potts 2015). Die Vektorsemantik nutzt die Erkenntnis, die zumindest auf Harris (1954) und Firth (1957) zurückgeht, dass die Bedeutung eines Wortes aus der Verteilung der Wörter in seinem unmittelbaren Kontext berechnet werden kann. Der Begriff "Vektorsemantik" leitet sich aus der Darstellung der quantitativen Werte in dieser Verteilung ab, die als "Vektor" bezeichnet wird, wobei letzterer als Verteilungsmodell definiert ist, das Informationen in Form einer Koexistenzmatrix darstellt. Vektoren gibt es seit den 1950er Jahren, aber erst in jüngster Zeit wurden solche Verteilungsmethoden mit logikbasierten Bedeutungsansätzen kombiniert (siehe Liang & Potts 2015). Vektoren können die Ähnlichkeit von Texten in Bezug auf ein lexikalisches Element, die Ähnlichkeit von lexikalischen Elementen in Bezug auf Quellen oder, was uns am meisten interessiert, das gleichzeitige Auftreten ausgewählter Wörter in einer Auswahl von Kontexten messen (unter Verwendung zusätzlicher Methoden, um dies auszuschließen zufälliges Zusammentreffen). In der Verteilungssemantik ist daher die hervorstechende oder Standardbedeutung die Bedeutung, die durch das beobachtete hohe gleichzeitige Auftreten gegeben oder mit anderen Worten durch die hohe bedingte Wahrscheinlichkeit ihres Auftretens im Kontext anderer Wörter begrenzt wird.
Die gegenwärtige kompositorische Semantik beginnt, die semantische Theorie der Komposition (oben diskutierte logikbasierte Ansätze) mit statistischen Modellen zu kombinieren, was der Standardansicht der Komposition entspricht, bei der komplexe Bedeutungen eine Funktion der lexikalischen Bedeutungen und der Art der Kombination sind, die durch eine rekursive Methode erreicht wird Prozess, aber gleichzeitig darauf abzielen, die Verallgemeinerung aus (endlichen) Erfahrungen der Vergangenheit zu erfassen, die das maschinelle Lernen beeinflussen würden. Standardwerte treten in diesem Zusammenhang in verschiedenen Formen auf: (i) als Abkürzungen zu Standardbedeutungen semantisch vorhersagbarer Kategorien, dh zu Wörtern geschlossener Klassen wie Determinatoren, Pronomen oder sententialen Konnektiven. (Dies kann möglicherweise auf Arten vorhersehbarer projektiver Inhalte wie verschiedene Arten von Implikaturen oder Voraussetzungen ausgedehnt werden; siehe Tonhauser et al. 2013);(ii) als vorhersehbare übergreifende Diskursbeziehungen; (iii) als vorhersehbare diskursanaphorische Verbindungen; (iv) als Bedeutung, die sich aus häufigen syntagmatischen Assoziationen ergibt; (v) als Bedeutung, die sich aus häufigen Gesprächsszenarien ergibt, um nur einige herausragende Konzepte zu nennen. In dieser neuen, positiv vielseitigen Ausrichtung in der Computerlinguistik, die logische und statistische Ansätze kombiniert, führt die Bezeichnung "Standard" wahrscheinlich zu mehr Verwirrung als Nützlichkeit, da sie sich auf eine der beiden beitragenden Ausrichtungen beziehen kann. Auf der anderen Seite kann die Verwirrung nur von methodischer als von ontologischer Bedeutung sein, wenn die Ergebnisse zu denselben Zusammenhängen führen, die wir als "Abkürzungen durch mögliche Interpretationen" bezeichnen können.(iv) als Bedeutung, die sich aus häufigen syntagmatischen Assoziationen ergibt; (v) als Bedeutung, die sich aus häufigen Gesprächsszenarien ergibt, um nur einige herausragende Konzepte zu nennen. In dieser neuen, positiv vielseitigen Ausrichtung in der Computerlinguistik, die logische und statistische Ansätze kombiniert, führt die Bezeichnung "Standard" wahrscheinlich zu mehr Verwirrung als Nützlichkeit, da sie sich auf eine der beiden beitragenden Ausrichtungen beziehen kann. Auf der anderen Seite kann die Verwirrung nur von methodischer als von ontologischer Bedeutung sein, wenn die Ergebnisse zu denselben Zusammenhängen führen, die wir als "Abkürzungen durch mögliche Interpretationen" bezeichnen können.(iv) als Bedeutung, die sich aus häufigen syntagmatischen Assoziationen ergibt; (v) als Bedeutung, die sich aus häufigen Gesprächsszenarien ergibt, um nur einige herausragende Konzepte zu nennen. In dieser neuen, positiv vielseitigen Ausrichtung in der Computerlinguistik, die logische und statistische Ansätze kombiniert, führt die Bezeichnung "Standard" wahrscheinlich zu mehr Verwirrung als Nützlichkeit, da sie sich auf eine der beiden beitragenden Ausrichtungen beziehen kann. Auf der anderen Seite kann die Verwirrung nur von methodischer als von ontologischer Bedeutung sein, wenn die Ergebnisse zu denselben Zusammenhängen führen, die wir als "Abkürzungen durch mögliche Interpretationen" bezeichnen können. Positiv eklektische Orientierung in der Computerlinguistik, die logische und statistische Ansätze kombiniert. Die Bezeichnung „Standard“führt wahrscheinlich zu mehr Verwirrung als Nützlichkeit, da sie sich auf eine der beiden beitragenden Orientierungen beziehen kann. Auf der anderen Seite kann die Verwirrung nur von methodischer als von ontologischer Bedeutung sein, wenn die Ergebnisse zu denselben Zusammenhängen führen, die wir als "Abkürzungen durch mögliche Interpretationen" bezeichnen können. Positiv eklektische Orientierung in der Computerlinguistik, die logische und statistische Ansätze kombiniert. Die Bezeichnung „Standard“führt wahrscheinlich zu mehr Verwirrung als Nützlichkeit, da sie sich auf eine der beiden beitragenden Orientierungen beziehen kann. Auf der anderen Seite kann die Verwirrung nur von methodischer als von ontologischer Bedeutung sein, wenn die Ergebnisse zu denselben Zusammenhängen führen, die wir als "Abkürzungen durch mögliche Interpretationen" bezeichnen können.
1.6. Standardeinstellungen in der Pragmatik der Optimalitätstheorie
Die Pragmatik der Optimalitätstheorie (OT Pragmatics, Blutner 2000; Blutner und Zeevat 2004;) ist ein weiterer Versuch einer rechnergestützten Modellierung des Diskurses, verwendet jedoch im Gegensatz zum SDRT eine postgriceanische, absichtsbasierte Darstellung der Diskursinterpretation. Der Interpretationsprozess wird in einer Reihe von pragmatischen Einschränkungen erfasst. Die pragmatischen Ergänzungen der unterbestimmten Ausgabe der Syntax werden durch ein Rationalitätsprinzip geregelt, das als Optimierungsverfahren bezeichnet wird und als eine Reihe von Einschränkungen formuliert wird. Diese Einschränkungen werden nach ihrer Stärke eingestuft und sind nicht durchführbar, dh sie können verletzt werden (siehe Zeevat 2000, 2004). Die resultierende Interpretation einer Äußerung ist das Ergebnis der Arbeit solcher Einschränkungen. Die OT-Pragmatik formalisiert und erweitert die griceanischen Prinzipien des kooperativen Kommunikationsverhaltens, wie sie in Horn (1984) und Levinson (1995, 2000) zu finden sind. Zum Beispiel bedeutet STÄRKE Präferenz für Lesungen, die informativ stärker sind, KONSISTENZ bedeutet Präferenz für Interpretationen, die nicht mit dem vorhandenen Kontext in Konflikt stehen. FAITH-INT steht für "getreue Interpretation", dh Interpretation der Äußerung, ohne irgendeinen Aspekt dessen auszulassen Sprecher sagt. Die Reihenfolge dieser Einschränkungen ist FAITH-INT, CONSISTENCY, STRENGTH. Das Zusammenspiel solcher Einschränkungen, das auf Levinsons Heuristiken beruht, erklärt, wie der Hörer zu der beabsichtigten Interpretation gelangt. Gleichzeitig kann dieses Modell als Standard für interpretierte Interpretationen angesehen werden. In Bezug auf das Finden eines Vorgängers für eine Anapher zum Beispiel,Das Zusammenspiel der Einschränkungen erklärt die allgemeine Tendenz, im unmittelbar vorhergehenden Diskurs nach dem Referenten zu suchen, anstatt in den entfernteren Fragmenten oder, anstatt einen Referenten ad hoc zu konstruieren. Mit anderen Worten, es erklärt die Präferenz für die Bindung gegenüber der Unterbringung (van der Sandt 1992, 2012).
Standardeinstellungen in der OT-Pragmatik kombinieren die Präzision einer formalen Darstellung mit der psychologischen Realität griceanischer absichtsbasierter Erklärungen. Der Hauptunterschied besteht darin, dass sie nicht durchführbar zu sein scheinen: Die OT-Pragmatik sagt uns, wie eine tatsächliche Interpretation entstanden ist und nicht, wie die Standardinterpretation aussehen könnte. Einschränkungen werden sozusagen post hoc eingestuft: Sie erklären, was tatsächlich passiert ist und warum, anstatt was nach den Regeln des rationalen Kommunikationsverhaltens geschehen sollte. Mit anderen Worten, der Kontext wird noch früher in den Prozess der Äußerungsinterpretation einbezogen als in griceanischen Konten und ermöglicht nicht durchführbare, wenn auch standardmäßige Standardinterpretationen. In Bezug auf diese Funktion ähneln sie den in Abschnitt 1.8 beschriebenen Standardeinstellungen der Standardsemantik.
1.7. Standardeinstellungen in der wahrheitsbedingten Pragmatik
In der wahrheitsbedingten Pragmatik (Recanati, z. B. 2004, 2010) besteht die Bedeutung einer Äußerung aus der Ausgabe der syntaktischen Verarbeitung in Kombination mit der Ausgabe der pragmatischen Verarbeitung. Pragmatische Verarbeitung wird jedoch nicht unbedingt durch bewusste Folgerung erfüllt: Prozesse, die die Ausgabe der Syntax bereichern, sind sub-doxastisch, direkt und automatisch. Die resultierende Darstellung der Äußerungsbedeutung ist die einzige Darstellung, die kognitive Realität hat, und sie unterliegt einer wahrheitsbedingten Analyse. Aus diesem Grund wird der Inhalt einer Äußerung direkt ermittelt, ähnlich wie bei der Wahrnehmung eines Objekts. Recanati nennt diese Ansicht anti-inferentialistisch, da „Kommunikation so direkt wie Wahrnehmung ist“(Recanati 2002: 109): Die Verarbeitung der Absichten des Sprechers ist (zumindest normalerweise) direkt, automatisch und unreflektiv. Solche Prozesse, die den tatsächlich geäußerten Inhalt bereichern, werden als primäre pragmatische Prozesse bezeichnet. Einige von ihnen verwenden Kontextinformationen, andere sind kontextunabhängig. Sie umfassen also einige Fälle von Grices GCIs sowie einige spezielle Implikaturen (PCIs; zu impliziten Inhalten siehe auch Tonhauser et al. 2013) - aber nur diejenigen, die die logische Form des ausgesprochenen Satzes weiterentwickeln. Wenn die pragmatische Addition einen separaten Gedanken darstellt, handelt es sich aus diesem Grund um eine eigentliche Implikatur, die durch einen sekundären, bewussten und reflektierenden pragmatischen Prozess erreicht wird.zu impliziten Inhalten siehe auch Tonhauser et al. 2013) - aber nur diejenigen, die die logische Form des ausgesprochenen Satzes weiterentwickeln. Wenn die pragmatische Addition einen separaten Gedanken darstellt, handelt es sich aus diesem Grund um eine eigentliche Implikatur, die durch einen sekundären, bewussten und reflektierenden pragmatischen Prozess erreicht wird.zu impliziten Inhalten siehe auch Tonhauser et al. 2013) - aber nur diejenigen, die die logische Form des ausgesprochenen Satzes weiterentwickeln. Wenn die pragmatische Addition einen separaten Gedanken darstellt, handelt es sich aus diesem Grund um eine eigentliche Implikatur, die durch einen sekundären, bewussten und reflektierenden pragmatischen Prozess erreicht wird.
Es gibt zwei Arten der Anreicherung des Inhalts, die durch die syntaktische Verarbeitung erhalten werden: (i) Vervollständigung eines semantisch unvollständigen Satzes wie in (10b), genannt Sättigung, und (ii) weitere Ausarbeitung der Bedeutung des Satzes, der nicht von geleitet wird jegliche syntaktischen oder konzeptuellen Lücken, sondern wird lediglich durch die Meinung des Hörers ausgelöst, dass etwas anderes als die bloße Bedeutung des Satzes beabsichtigt war, wie in (11b). Der letztere Prozess wird als freie Anreicherung bezeichnet.
(10a) Der Zaun ist nicht stark genug.
(10b) Der Zaun ist nicht stark genug, um den Stürmen standzuhalten.
(11a) John hat nichts gegessen.
(11b) John hat noch nicht zu Abend gegessen.
Standardinterpretationen sind hier Standardwerte für die Verarbeitung einer Äußerung in einem bestimmten Kontext. Die automatische und unbewusste Anreicherung führt zu einer Standardinterpretation der Äußerung. „Nur wenn etwas nicht stimmt, setzt der Hörer den automatischen Übergang aus oder hemmt ihn, der die normalen Fälle sprachlicher Kommunikation kennzeichnet.“(Recanati 2002: 109). Zusammenfassend lässt sich sagen, dass solche Standardeinstellungen automatisch und direkt ohne Rückschluss erfolgen. Sie sind stornierbar, sie können kontextbezogene Hinweise verwenden, aber sie sind keine „Prozesse“in einem kognitiv interessanten Sinne des Begriffs: Sie beinhalten keine bewusste Folgerung, obwohl sie in Recanatis Terminologie Folgerungen im weiteren Sinne beinhalten:Der Agent ist sich nicht bewusst, dass er eine Schlussfolgerung zieht, ist sich jedoch der Konsequenzen dieser pragmatischen Bereicherung des interpretierten Satzes bewusst.
1.8. Arten von Standardwerten in der Standardsemantik
Eine der Hauptfragen zu jeder Theorie der Äußerungsinterpretation ist, aus welchen Quellen Informationen über die Bedeutung stammen. In der Standardsemantik ist in der überarbeiteten Version der Theorie (Jaszczolt, z. B. 2009, 2010, 2016a) die Äußerungsbedeutung das Ergebnis der Zusammenführung von Informationen, die aus fünf Quellen stammen: (i) Wortbedeutung und Satzstruktur (WS); (ii) Diskurslage (SD); (iii) Eigenschaften des menschlichen Inferenzsystems (IS); (iv) Stereotypen und Vermutungen über Gesellschaft und Kultur (SC); und Weltwissen (WK). WS ist die Ausgabe der syntaktischen Verarbeitung des Satzes oder seiner logischen Form. SD steht für den allgemein verstandenen Kontext, in den der Diskurs eintaucht. IS bezieht sich auf Eigenschaften von mentalen Zuständen, die bestimmte Arten von Interpretationen auslösen. Beispielsweise,Die Eigenschaft der Intentionalität stellt sicher, dass wir normalerweise verweisende Ausdrücke mit einer referenziellen Absicht verwenden, die für den gegebenen Kontext am stärksten ist. SC bezieht sich auf das Hintergrundwissen über gesellschaftliche Normen, Bräuche und kulturelles Erbe. WK umfasst Informationen zu physikalischen Gesetzen, Natur, Umwelt usw. Es ist wichtig zu betonen, dass die vier Quellen, die WS begleiten, nicht nur dessen Ergebnisse bereichern. Alle Quellen sind gleich leistungsfähig und können die Ausgabe des anderen überschreiben. Dies stellt eine wesentliche Abkehr von der festgelegten Grenze zwischen explizitem und implizitem Inhalt dar. WK umfasst Informationen zu physikalischen Gesetzen, Natur, Umwelt usw. Es ist wichtig zu betonen, dass die vier Quellen, die WS begleiten, nicht nur dessen Ergebnisse bereichern. Alle Quellen sind gleich leistungsfähig und können die Ausgabe des anderen überschreiben. Dies stellt eine wesentliche Abkehr von der festgelegten Grenze zwischen explizitem und implizitem Inhalt dar. WK umfasst Informationen zu physikalischen Gesetzen, Natur, Umwelt usw. Es ist wichtig zu betonen, dass die vier Quellen, die WS begleiten, nicht nur dessen Ergebnisse bereichern. Alle Quellen sind gleich leistungsfähig und können die Ausgabe des anderen überschreiben. Dies stellt eine wesentliche Abkehr von der festgelegten Grenze zwischen explizitem und implizitem Inhalt dar.
Die Identifizierung der Quellen ermöglicht es uns auch, ein Verarbeitungsmodell in der Standardsemantik vorzuschlagen, in dem drei Arten von Beiträgen zur Äußerungsinterpretation unterschieden werden: (i) Verarbeitung des Satzes (Kombination aus Wortbedeutung und Satzstruktur genannt, WS); (ii) bewusste pragmatische Folgerung (CPI) aus drei der oben genannten Quellen: SD, SC und WK; und (iii) zwei Arten von automatischen Standardbedeutungen: kognitive Standardwerte (CD), die vom Quell-IS ausgelöst werden, und soziale, kulturelle und Weltwissen-Standardwerte (SCWD).
Die primäre Bedeutung wird durch das Zusammenspiel dieser Prozesse erreicht und muss daher der logischen Form des Satzes nicht sehr ähnlich sein; Die Ausgabe von WS kann im Vergleich zur Ausgabe anderer Prozesstypen von unterschiedlicher Bedeutung sein. Um beispielsweise Bachs (1994) Szenario auszuleihen, stellen wir uns vor, der kleine Johnny schneidet sich den Finger und weint, worauf seine Mutter mit einer Äußerung reagiert (12a).
(12a) Du wirst nicht sterben.
Das Gesagte / Erklärende von (12a) hat etwas mit der Wirkung von (12b) zu tun. Es kann auch andere kommunizierte Bedeutungen geben, aber diese fallen in den Bereich der Implikaturen.
(12b) Du wirst nicht an diesem Schnitt sterben.
In der Standardsemantik ist der Hauptinhalt einer Äußerung ihre hervorstechendste Bedeutung. Dies ist auch dann der Fall, wenn diese Bedeutung keine Ähnlichkeit mit der logischen Form hat, die sich aus der syntaktischen Struktur des ausgesprochenen Satzes ergibt. Mit anderen Worten, CPI kann WS überschreiben und beispielsweise (12c) als Äußerungsbedeutung (als primäre Bedeutung bezeichnet, dargestellt in einer Fusionsdarstellung) für den gegebenen Kontext erzeugen. Der explizite Inhalt der Äußerung muss nicht einmal teilweise isomorph zur Bedeutung des ausgesprochenen Satzes sein: Er muss nicht der Entwicklung der logischen Form des Satzes gleichkommen.
(12c) Es gibt nichts, worüber man sich Sorgen machen müsste.
CDs und SCWDs sind Standardinterpretationen. Ähnlich wie bei der automatischen freien Anreicherung von Recanati durchschneiden diese Standardbedeutungen die GCI / PCI-Kluft von Grice. Einige von ihnen entstehen aufgrund der Eigenschaften der verwendeten Wörter oder Konstruktionen und sind standardmäßig unabhängig vom Kontext der Äußerung vorhanden, während andere Standardbedeutungen für die jeweilige Diskurssituation sind. CDs sind Standardinterpretationen, die durch die Eigenschaften mentaler Zustände ausgelöst werden. Wenn Sprecher beispielsweise eine bestimmte Beschreibung in einer Äußerung verwenden, verwenden sie diese normalerweise eher referenziell (über eine bestimmte, bekannte, intersubjektiv erkennbare Person) als attributiv (über denjenigen, der zur Beschreibung passt). Diese standardmäßige referenzielle Verwendung kann sowohl eine funktionale als auch eine kognitive Erklärung erhalten. Zuerst,es kann mit der Stärke der referentiellen Absicht erklärt werden, die mit dem Akt der Äußerung verbunden ist: ceteris paribus, Menschen liefern die stärksten Informationen, die für sie relevant und verfügbar sind. Gleichzeitig kann es kognitiv durch die Eigenschaft von mentalen Zuständen erklärt werden, die dem Sprechakt des Sprechers zugrunde liegen: Dies ist die Eigenschaft von Intentionalität oder Überlegenheit, in dem Sinne, in dem es sich bei dem mentalen Zustand um ein bestimmtes Objekt handelt es ist eine Person, eine Sache oder eine Situation. Wie die stärkste Bezugnahme ist auch die stärkste Überlegenheit die Norm, die Standardeinstellung. Zum Beispiel wird die Beschreibung "der Architekt, der die St. Pauls Kathedrale entworfen hat" in (13a) wahrscheinlich als "Christopher Wren" interpretiert, wie in (13b). Menschen liefern die stärksten relevanten und verfügbaren Informationen. Gleichzeitig kann es kognitiv durch die Eigenschaft von mentalen Zuständen erklärt werden, die dem Sprechakt des Sprechers zugrunde liegen: Dies ist die Eigenschaft von Intentionalität oder Überlegenheit, in dem Sinne, in dem es sich bei dem mentalen Zustand um ein bestimmtes Objekt handelt es ist eine Person, eine Sache oder eine Situation. Wie die stärkste Bezugnahme ist auch die stärkste Überlegenheit die Norm, die Standardeinstellung. Zum Beispiel wird die Beschreibung "der Architekt, der die St. Pauls Kathedrale entworfen hat" in (13a) wahrscheinlich als "Christopher Wren" interpretiert, wie in (13b). Menschen liefern die stärksten relevanten und verfügbaren Informationen. Gleichzeitig kann es kognitiv durch die Eigenschaft von mentalen Zuständen erklärt werden, die dem Sprechakt des Sprechers zugrunde liegen: Dies ist die Eigenschaft von Intentionalität oder Überlegenheit, in dem Sinne, in dem es sich bei dem mentalen Zustand um ein bestimmtes Objekt handelt es ist eine Person, eine Sache oder eine Situation. Wie die stärkste Bezugnahme ist auch die stärkste Überlegenheit die Norm, die Standardeinstellung. Zum Beispiel wird die Beschreibung "der Architekt, der die St. Pauls Kathedrale entworfen hat" in (13a) wahrscheinlich als "Christopher Wren" interpretiert, wie in (13b).in dem Sinne, in dem es im mentalen Zustand um ein bestimmtes Objekt geht, sei es eine Person, ein Ding oder eine Situation. Wie die stärkste Bezugnahme ist auch die stärkste Überlegenheit die Norm, die Standardeinstellung. Zum Beispiel wird die Beschreibung "der Architekt, der die St. Pauls Kathedrale entworfen hat" in (13a) wahrscheinlich als "Christopher Wren" interpretiert, wie in (13b).in dem Sinne, in dem es im mentalen Zustand um ein bestimmtes Objekt geht, sei es eine Person, ein Ding oder eine Situation. Wie die stärkste Bezugnahme ist auch die stärkste Überlegenheit die Norm, die Standardeinstellung. Zum Beispiel wird die Beschreibung "der Architekt, der die St. Pauls Kathedrale entworfen hat" in (13a) wahrscheinlich als "Christopher Wren" interpretiert, wie in (13b).
(13a) Der Architekt, der die St. Pauls Kathedrale entwarf, war ein Genie.
(13b) Sir Christopher Wren war ein Genie.
Als nächstes sind SCWDs Standardinterpretationen, die sich aufgrund des gemeinsamen kulturellen und sozialen Hintergrunds der Gesprächspartner ergeben. Um ein abgenutztes Beispiel in (14a) zu verwenden, ist es die gemeinsame Annahme, dass Babys von ihren eigenen Müttern aufgezogen werden, die es dem Adressaten ermöglicht, zu (14b) zu gelangen.
(14a) Das Baby weinte und die Mutter hob es auf.
(14b) Das Baby weinte und die Mutter des Babys hob es auf.
Bei CDs und SCWDs ist keine bewusste Folgerung beteiligt. Die natürliche Begleiterscheinung, die Rolle der logischen Form (WS) auf einen von vier gleich wirksamen Bestandteilen der Äußerungsbedeutung zu reduzieren, ist eine überarbeitete Sicht der Kompositionalität. Die kompositorische Natur der Bedeutung wird als methodische Annahme beibehalten, aber diese Kompositionalität wird nun auf der Ebene der Zusammenführung von Informationen aus den fünf Quellen angestrebt, die durch das Zusammenspiel der vier identifizierten Prozesse erreicht werden. Die Ausgabe dieser Prozesse wird als Fusionsdarstellung bezeichnet und es wird erwartet, dass es sich um eine Kompositionsstruktur handelt. Aktuelle Forschungsschwerpunkte sind die Bereitstellung eines Algorithmus für die Interaktion der Ausgabe der identifizierten Prozesse.
2. Definitionsmerkmale von Standardinterpretationen
Aus der oben vorgestellten Stichprobe von Ansätzen geht hervor, dass der Begriff der Standardbedeutung in jedem von ihnen leicht unterschiedlich verwendet wird. Wir können die folgenden Unterschiede im Verständnis von Standardinterpretationen extrahieren:
[1a] Standardwerte gehören zur Kompetenz.
vs.
[1b] Defaults gehört Leistung.
[2a] Die Standardeinstellungen sind kontextunabhängig.
vs.
[2b] Defaults kann von Kontextinformationen machen.
[3a] Standardeinstellungen sind leicht umsetzbar.
vs.
[3b] Defaults sind normalerweise nicht defeasible.
[4a] Standardeinstellungen sind das Ergebnis eines subdoxastischen, automatischen Prozesses.
vs.
[4b] Defaults kann bewusst pragmatische Inferenz beinhalten.
[5a] Standardwerte sind Entwicklungen der logischen Form des ausgesprochenen Satzes.
vs.
[5b] Defaults müssen nicht die logische Form des Satzes bereichern, sondern kann sie außer Kraft setzen.
[6a] Standardwerte können alle als eine Art pragmatischer Prozesse klassifiziert werden.
vs.
[6b] Defaults kommen aus verschiedenen Quellen in qualitativ Äußerungsverarbeitung.
Es gibt auch Meinungsverschiedenheiten hinsichtlich der folgenden Eigenschaften, die nachstehend erörtert werden sollen:
[7a] Standardeinstellungen basieren immer auf einem vollständigen Vorschlag.
vs.
[7b] Defaults kann 'lokal', 'sub-propositionaler', bezogen auf ein Wort oder eine Phrase.
[8a] Standardwerte treten notwendigerweise schneller auf als Nicht-Standardbedeutungen. Daher können sie experimentell getestet werden, indem die Zeit der Verarbeitung der Äußerung gemessen wird.
vs.
[8b] Defaults nicht notwendigerweise entstehen schneller als Nicht-Standard - Bedeutungen, da beide Arten von Bedeutung kann auf bewusste, effortful Folgerung basieren. Daher kann das Vorhandensein von Standardwerten nicht experimentell getestet werden, indem die Zeit der Verarbeitung der Äußerung gemessen wird.
Dies sind die am häufigsten akzeptierten Merkmale von Standardinterpretationen in der theoretischen Semantik und Pragmatik. Wir werden hier keine Definitionsmerkmale von Standardwerten in der Computerlinguistik aufnehmen, da diese Gegenstand einer separaten Studie sind. Einige der Eigenschaften in [1] - [8] hängen miteinander zusammen, andere treten nur zusammen auf. Levinsons vermutliche Bedeutungen sind beispielsweise nicht realisierbar, dh erfüllen [3a], lokal [7b], beziehen sich auf Kompetenz [1a] und sind schneller zu verarbeiten als inferentielle Bedeutungen [8a]. Sie sind Kompetenzvorgaben des Typs [1a], da sie unabhängig von der Diskurslage entstehen und allein durch die Konstruktion aufgrund des vermuteten Ausfallszenarios ausgelöst werden. Zum Beispiel ist die skalare Inferenz von "vielen" zu "nicht allen" ein Fall von kompetenzbasiertem,kontextunabhängiger lokaler Standard. In ähnlicher Weise führen die rhetorischen Strukturregeln von SDRT zu Kompetenzausfällen. (15b) ist ein Ergebnis des gemeinsamen Wissens, dass das Drücken normalerweise zu einem Sturz führt.
(15a) Du hast mich geschubst und ich bin gefallen.
(15b) Du hast mich geschubst und infolgedessen bin ich gefallen.
Nach Levinsons Ansicht treten solche Vorgaben auf, sobald das betreffende Wort oder der betreffende Ausdruck verarbeitet wird und sobald dem Adressaten die Situation klar ist. Solche Bedeutungen können später aufgehoben werden, wenn weitere Kontextzeugen gegen sie sprechen.
In Bezug auf Merkmal 7 ist es zumindest denkbar, dass vermutete Bedeutungen auftreten, sobald das auslösende Wort oder die auslösende Konstruktion vom Hörer verarbeitet wurde. Für Levinson (1995, 2000) haben herausragende Bedeutungen die Eigenschaft, dass sie entstehen, noch bevor die Verarbeitung des Satzes abgeschlossen ist. Mit anderen Worten, sie entstehen präpropositionell oder lokal. Die Diskursinterpretation erfolgt inkrementell und in ähnlicher Weise erfolgt die Zuweisung von Standardbedeutungen zu den verarbeiteten Segmenten inkrementell. Zum Beispiel löst der Skalarterm viele in (16a) die vermutete Bedeutung nicht alle aus, sobald er verarbeitet wurde. Der Index d in (16b) steht für die Standardbedeutung und wird unmittelbar nach der auslösenden Konstruktion platziert.
(16a) Viele Leute mochten Peter Careys neuen Roman.
(16b) Viele (d viele, aber nicht alle) mochten Peter Careys neuen Roman.
In ähnlicher Weise führen "Pappbecher" und "Teetasse" lokal zu vermuteten Bedeutungen, wie in (17b) bzw. (18b).
(17a) Diese Pappbecher sind nicht für heiße Getränke geeignet.
(17b) Diese Pappbecher (d Becher aus Papier) sind nicht für heiße Getränke geeignet.
(18a) Ich möchte bitte drei Teetassen, drei Untertassen und drei Löffel.
(18b) Ich möchte bitte drei Teetassen (d Tassen zum Trinken von Tee), drei Untertassen und drei Löffel.
Schlussfolgerungen wie in (17b) und (18b) sind sehr häufig. Sie unterscheiden sich jedoch wesentlich von der Folgerung in (16b) darin, dass die resultierende Bedeutung die lexikalische Bedeutung der Kollokation ist, ähnlich der einer Verbindung. Andere Beispiele sind "Taschenmesser" gegen "Brotmesser" und "Kaffeelöffel" gegen "Silberlöffel". Es sei daran erinnert, dass nach Levinsons Ansicht vermutete, hervorstechende Interpretationen durch die Prinzipien des rationalen Kommunikationsverhaltens erklärt werden können, die als seine Q-, I- und M-Heuristiken zusammengefasst werden (siehe Abschnitt 1.2 und Levinson 1995, 2000). (16b) entsteht durch die Q-Heuristik "Was nicht gesagt wird, ist nicht", während (17b) und (18b) durch die I-Heuristik entstehen: "Was einfach ausgedrückt wird, ist stereotyp beispielhaft". Am allgemeinsten istDie Standardeinstellungen, die durch die Q-Heuristik entstehen, nutzen einen Vergleich mit dem, was nicht gesagt wurde, aber hätte sein können. Zum Beispiel löst 'most' einen Rückschluss auf die Ablehnung eines stärkeren Gegenstands 'all' aus; 'glauben' löst eine Folgerung aus, nicht zu wissen. Gleichzeitig sind sie alle leicht stornierbar, wie (16c) zeigt.
(16c) Viele und möglicherweise alle mochten Peter Careys neuen Roman.
Die I-Heuristik nutzt nur das aus, was der Satz enthält: Sie ist eine Folgerung auf ein Stereotyp und als solche nicht so leicht aufzuheben. Zum Beispiel scheinen (19) und (20) ziemlich bizarr.
(19) Diese Pappbecher, ich meine Becher, in denen Papier aufbewahrt wird, sind voll.
(20) Ich möchte drei Teetassen, ich meine Tassen, in denen Teeblätter aufbewahrt werden.
Vielleicht liegt die Tatsache, dass diese Standardeinstellungen nicht so leicht aufzuheben sind, an ihrer Eigenschaft, lexikalischen Verbindungen zu ähneln, und wie im Fall von Verbindungen ist die Verbindung zwischen den nebeneinander angeordneten Lexemen in ihrem Fall sehr stark. Wenn es tatsächlich plausibel ist, sie mit Verbindungen gleichzusetzen, sind sie als Argument für lokale Standardwerte nicht sehr nützlich: Anstelle von Standardwerten haben wir die lexikalische Bedeutung von Verbindungen.
Lokale Standardeinstellungen ermöglichen es uns, über die Ebene einer nicht spezifizierten Aussagenrepräsentation in der semantischen Theorie zu verfügen. Da die Schlussfolgerungen inkrementell ablaufen, gibt es, sobald der auslösende Ausdruck angetroffen wird, keine Ebene eines minimalen Satzes, die eine Grundlage für weitere Schlussfolgerungen bilden würde. Wenn es eine gibt, ist es nur ein Zufall, dass der auslösende Gegenstand zufällig am Ende des Satzes steht, zum Beispiel "Teetassen" in der ersten Klausel von (20) oben. Es ist jedoch auch wichtig anzumerken, dass der Status solcher Standardeinstellungen noch lange nicht klar ist. Zum Beispiel sind Levinsons Standardeinstellungen lokal, aber gleichzeitig „stornierbar“, sofern der Kontext verhindert, dass sie auftreten. Dies führt zu einer Schwierigkeit in Beispielen wie (21) - (22).
(21) Sie dürfen fünf Mal versuchen, den Preis zu erhalten.
(22) Sie dürfen heute fünf Minuten Klavier üben, weil es spät ist.
Es ist klar, dass in (21) "fünf" als "höchstens fünf" zu verstehen ist. Wie sollen wir den Prozess der Äußerungsinterpretation für diesen Fall modellieren? Sollen wir vorschlagen, dass die Folgerung von "mindestens fünf" auf "genau fünf" stattfindet und dann aufgehoben wird? Oder sollen wir vorschlagen, dass "fünf" standardmäßig "mindestens fünf" ist (oder je nach Ausrichtung unterbestimmt fünf oder "genau fünf" (siehe Horn 1992; Koenig 1993; Bultinck 2005) und sich dabei ändert? pragmatische Folgerung auf "höchstens fünf" im Zusammenhang mit "erlauben"? Aber dann ist "erlauben" auch in (22) vorhanden, und die Folgerung auf "höchstens" ist überhaupt nicht auffällig: eine längere Klavierübung ist im Allgemeinen bevorzugt, aber möglicherweise nicht das, was der Adressat gerne tut, und "fünf" kann in diesem Zusammenhang "nur fünf" oder "fünf oder mehr" bedeuten. Hervorheben, dass mehr als fünf nicht erwartet, aber erlaubt sind. In (23) ist das Problem noch ausgeprägter. Wenn 'fünf' lokal die 'genau' Bedeutung auslöst, muss die Standardeinstellung unmittelbar danach abgebrochen werden, wenn 'benötigt' verarbeitet wurde und die 'mindestens' Interpretation offensichtlich wird.
(23) Für die Annahme des Vorschlags sind fünf Stimmen erforderlich.
Alternativ können wir festlegen, dass die erste Folgerung nach dem Wort "benötigt" erfolgt. Es ist klar, dass viel getan werden muss, um den Begriff der lokalen Standardeinstellungen zu klären: Am wichtigsten ist, (i) was als auslösende Einheit gilt, (ii) in welchem Umfang der Kontext konsultiert wird und (iii) wie häufig die Stornierung erfolgt. Es scheint jedoch, dass Standardeinstellungen, die sich als so lokal herausstellen, dass sie aus Wörtern oder sogar Morphemen entstehen, Teil der Rechenleistung der Grammatik sind und eher zur Grammatik und zum Lexikon als zur Semantik und Pragmatik gehören. Chierchia (2004) und Landman (2000) vertreten diese Ansicht. Chierchia argumentiert, dass, da skalare Implikaturen nicht in abwärts gerichteten Kontexten auftreten (Kontexte, die Rückschlüsse von einer Menge auf ihre Teilmenge lizenzieren), eine klare syntaktische Einschränkung ihres Verhaltens besteht (siehe jedoch Chemla et al. 2011). Jaszczolt (2012) nennt solche Einheiten, die zu Standardwerten oder inferentiellen Modifikationen führen, "fließende Zeichen", wobei Kaplans (1989) Unterscheidung zwischen Inhaltszeichen verwendet wird, um die Tatsache hervorzuheben, dass die Bedeutungseinheit, die zu Inferenz oder zu einer Standardbedeutung führt, von abweicht Kontext zu Kontext und von Sprecher zu Sprecher: Zeichen sind "fließend", weil sie "flexiblen Inferenzbasen" oder "flexiblen Standardbasen" entsprechen. Es sind jedoch viel mehr Theorien und umfangreiche empirische Unterstützung erforderlich, um die genaue Größe solcher lokaler Domänen und die entsprechenden fließenden Charaktere zu bestimmen.um die Tatsache hervorzuheben, dass die Bedeutungseinheit, die zu Inferenz oder zu einer Standardbedeutung führt, von Kontext zu Kontext und von Sprecher zu Sprecher unterschiedlich ist: Zeichen sind „fließend“, weil sie „flexiblen Inferenzbasen“oder „flexiblen Standardbasen“entsprechen. Es sind jedoch viel mehr Theorien und umfangreiche empirische Unterstützung erforderlich, um die genaue Größe solcher lokaler Domänen und die entsprechenden fließenden Charaktere zu bestimmen.um die Tatsache hervorzuheben, dass die Bedeutungseinheit, die zu Schlussfolgerungen oder zu einer Standardbedeutung führt, von Kontext zu Kontext und von Sprecher zu Sprecher unterschiedlich ist: Zeichen sind „fließend“, weil sie „flexiblen Inferenzbasen“oder „flexiblen Standardbasen“entsprechen. Es sind jedoch viel mehr theoretische und substanzielle empirische Unterstützung erforderlich, um die genaue Größe solcher lokaler Domänen und die entsprechenden fließenden Charaktere zu bestimmen.
In Bezug auf Merkmal [8] wurden einige experimentelle Arbeiten durchgeführt, um die Entscheidung zwischen [8a] und [8b] zu erleichtern und die Wiederherstellungszeit für die Standardbedeutung im Gegensatz zur nicht standardmäßigen Bedeutung zu messen. Die Entwicklung der Fähigkeit, skalare Inferenzen zu verwenden, wurde ebenfalls getestet (Noveck 2001; Papafragou & Musolino 2003; Musolino 2004; Noveck und Sperber 2004; Geurts 2010). Es wurde auf der Grundlage einiger Beweise argumentiert, dass Standardinterpretationen nicht schneller zu erstellen sind und bei fünfjährigen Probanden bei der Verarbeitung insgesamt fehlen können. Noveck (2004) liefert die folgenden Beweise gegen Levinsons automatische und schnelle Standardeinstellungen. Den Kindern wurden einige Beschreibungen von Situationen präsentiert, in denen die Reihenfolge der Ereignisse in der Erzählung umgekehrt war. Sie mussten beurteilen, ob die Beschreibung wahr oder falsch war. Das Ergebnis war, dass die Kinder, die der umgekehrten Beschreibung zustimmten, schneller reagierten als diejenigen, die nicht einverstanden waren. Es wurde dann der Schluss gezogen, dass die Anreicherung von 'und' zu 'und dann' nicht automatisch erfolgt: Es braucht Zeit. Und wenn pragmatisch angereicherte Antworten länger dauern, können sie nicht die Standardantworten sein (siehe Noveck 2004: 314). In ähnlicher Weise hätte man mit skalaren Begriffen starke Beweise für die Standardeinstellungen, wenn man nachweisen könnte, dass die angereicherten Messwerte, wie "einige, aber nicht alle" für "einige", schneller als "einige, aber nicht unbedingt nicht alle" auftreten Aussicht.dann können sie nicht die Standard sein (siehe Noveck 2004: 314). In ähnlicher Weise hätte man mit skalaren Begriffen starke Beweise für die Standardeinstellungen, wenn man nachweisen könnte, dass die angereicherten Messwerte, wie "einige, aber nicht alle" für "einige", schneller als "einige, aber nicht unbedingt nicht alle" auftreten Aussicht.dann können sie nicht die Standard sein (siehe Noveck 2004: 314). In ähnlicher Weise hätte man mit skalaren Begriffen starke Beweise für die Standardeinstellungen, wenn man nachweisen könnte, dass die angereicherten Messwerte, wie "einige, aber nicht alle" für "einige", schneller als "einige, aber nicht unbedingt nicht alle" auftreten Aussicht.
Das Problem ist, dass alle diese Experimente Levinsons Vorstellung eines schnellen und inferenzfreien Ausfalls annehmen, während dies, wie wir gesehen haben, keineswegs das einzige Verständnis von Standardinterpretationen ist und wohl nicht einmal das am häufigsten angenommene. Die Experimentatoren sprechen von Argumenten für und gegen 'die Standardansicht', 'das Standardmodell' (siehe auch Bezuidenhout und Morris 2004, Breheny et al 2006), während es tatsächlich kein solches einzigartiges Modell gibt, das gefälscht werden könnte: Es gibt sehr viele Unterschiedliches Verständnis von Standardität auch in der postgricäischen Pragmatik allein, wie aus Abschnitt 1 hervorgeht. Die Liste möglicher definierender Merkmale von Standardinterpretationen in [1] - [8] zeigt, dass man nicht über die Standardbedeutung sprechen kann. Gleichzeitig,Es ist viel schwieriger, experimentelle Beweise für oder gegen herausragende Bedeutungen zu liefern, die sich auf einige Kontextinformationen stützen, spät in der Äußerungsverarbeitung auftreten und normalerweise nicht stornierbar sind. Letztere erscheinen auch viel intuitiver plausibel als Levinsons starre Standardeinstellungen, da sie lediglich Abkürzungen durch kostspielige pragmatische Folgerungen sind und als solche eher durch die Situation selbst als durch die Eigenschaften eines lexikalischen Gegenstands oder einer Konstruktion im Allgemeinen ausgelöst werden können. Sie sind nur normale, nicht markierte Bedeutungen für den jeweiligen Kontext, und es ist nicht unwahrscheinlich, dass solche standardmäßigen, hervorstechenden Interpretationen nur das polare Ende einer Skala von Inferenzgraden darstellen und keine qualitativ anderen Eigenschaften als Nicht-Standard haben Inferenzbasierte Interpretationen. Sie werden den Bereich gegen das Null-Ende der Inferenzskala einnehmen, aber nicht die Dichotomie "Standard vs. Inferenzinterpretation" auslösen. Da es jedoch fraglich ist, ob Salience überhaupt mit Zahlungsunfähigkeit gleichgesetzt werden sollte, kommt unser terminologisches Dilemma mit voller Kraft zurück (siehe Abschnitt 3).
Es ist auch schwierig, die Grenze zwischen Standard- und Nicht-Standardinterpretationen zu bestimmen, wenn wir zulassen, dass Kontext und Inferenz eine Rolle bei Standardbedeutungen spielen, dh wenn wir [2b] und [8b] zulassen. Dies bedeutet jedoch nicht, dass wir sie mit dem Badewasser ausschütten und bei jeder einzelnen im Diskurs erzeugten Äußerung darauf zurückgreifen sollten, keine Schlussfolgerung zu ziehen. Wenn die Kontextabhängigkeit von Standardwerten zulässig ist, ist das Hauptkriterium für solche Bedeutungen ihre subdoxastische Ankunft. Wenn bewusste Folgerungen zulässig sind, ist das Hauptkriterium die Tatsache, dass nur minimale kontextbezogene Eingaben zulässig sind, wie beispielsweise der Co-Text in (24). In (24) hat die definitive Beschreibung "die erste Tochter" eher die attributive als die referenzielle Lesart.
(24) Die erste Tochter von Herrn und Frau Brown heißt Scarlett.
In einer traditionellen griceanischen Sichtweise der post-propositionalen, satzbasierten pragmatischen Folgerung haben wir hier die standardmäßige attributive Lesart: Der Ausdruck "geboren werden" und das zukünftige Hilfsmittel "signalisieren", dass auf kein bestimmtes, vorhandenes, bekanntes Individuum Bezug genommen wird. Dies ist auch die Ansicht in der Standardsemantik (Abschnitt 1.8), in der sowohl Inferenz als auch Standardwerte als global angenommen werden - angenommen im Sinne einer methodischen Annahme, die eingeführt wird, bis wir die Mittel haben, die tatsächliche Länge von zu testen fließende Zeichen und der Inhalt der entsprechenden Standardbasen. Mit anderen Worten, Informationen, die über WS erhalten wurden, werden mit denen von CPI, CD und SCWD zusammengeführt, wenn der gesamte WS bereit ist. In der Standardsemantik gibt es jedoch keinen Standard in (24): Wir haben WS mit CPI zusammengeführt, um den attributiven Messwert zu erzeugen. In Bezug auf Levinsons Konto für vermutete Bedeutungen (Abschnitt 1.3) kann festgelegt werden, dass (24) zwischen GCIs und PCIs liegen würde: Der einzige Kontext, der erforderlich ist, ist der Satz selbst, sodass sich das Beispiel nicht von anderen Fällen von GCIs unterscheidet. Die Lokalität des GCI ist jedoch das Problem: Je nachdem, wie wir die Länge des auslösenden Ausdrucks konstruieren, erhalten wir einen GCI oder einen PCI. Wenn wir es als "die erste Tochter", den Unterteil der bestimmten Nominalphrase, interpretieren, erhalten wir die Referenzlesung als Standard, die durch "geboren werden" annulliert wird. Kurz gesagt, wir wissen zum gegenwärtigen Stand des Theoretisierens und Experimentierens noch nicht, welche der potenziellen definierenden Merkmale von Standardwerten verwendet werden sollen. Wir sind auch nicht bereit, die Abgrenzungslinie zwischen Standard- und Nicht-Standardinterpretationen vorzuschlagen. Wir können uns die erste als Abkürzung durch Inferenz vorstellen, aber eine solche Definition reicht nicht aus, um eine Kategorie abzugrenzen. Wir können jedoch zugeben, dass Standardinterpretationen von Prinzipien rationalen Verhaltens in der Kommunikation bestimmt werden, sei es von griceanischen Maximen, neo-griceanischen Prinzipien oder Heuristiken, der Logik der Informationsstrukturierung von SDRT oder einer Version der oben dargestellten defeasiblen Logik.
Alles in allem scheint die Vielfalt der Standardinterpretationen nicht nur auf ihre in [1] - [8] aufgeführten Merkmale zurückzuführen zu sein, sondern auch auf ihre Herkunft. Diese abwechslungsreiche Verwendung macht den Begriff stark theoretisch abhängig.
3. Standardeinstellungen und Salience
In der pragmatischen Theorie wird der Begriff "Standard" häufig in Verbindung mit dem Begriff "Salience" verwendet, daher ist es wichtig, die Ähnlichkeiten und Unterschiede zwischen ihnen zu klären. Für Giora (z. B. 2003; Giora & Givoni 2015) ist Salience unabhängig von der Literalität einer Interpretation und hängt lediglich von der „Zugänglichkeit im Gedächtnis aufgrund von Faktoren wie Nutzungshäufigkeit oder Erfahrungsvertrautheit“ab (Giora 2003: 33). Sie unterscheidet Salience klar von Defaultness darin, dass ihr Salience Bedeutungen betrifft, während Defaultness Interpretationen betrifft:
Die Definition der Zahlungsunfähigkeit in Bezug auf eine automatische Reaktion auf einen Stimulus sagt die Überlegenheit der Zahlungsunfähigkeit gegenüber nicht standardmäßigen Gegenstücken voraus, unabhängig vom Grad der Nicht-Salienz, der Bildlichkeit, der Kontextstärke… Giora & Givoni (2015: 291).
Dies kann jedoch in bestimmten Fällen zu einem Problem bei der Vereinbarkeit von Zahlungsunfähigkeit mit Salience führen, was dazu führt, dass sie Standarditätsgrade vorschlägt (ebenda), und zu einer eher kontraintuitiven Verwässerung des Konzepts eines Zahlungsausfalls. Zum Beispiel kann Sarkasmus auf einer nicht hervorstechenden, aber standardmäßigen Interpretation beruhen - nicht hervorstechend, wenn die Interpretation kompositorisch zusammengestellt wird, anstatt als konventionelle Einheit verarbeitet zu werden.
Andererseits beruht für Jaszczolt (z. B. 2016a) die Standardität genau auf der Bedeutung, die zum automatischen Abrufen von Bedeutungen führt. Sie nennt diese Sichtweise Salience-Based Contextualism: Die Bedeutung einer Äußerung wird durch eine Vielzahl von Interaktionsprozessen abgeleitet, von denen einige auf automatischen Interpretationen wie kognitiven Standardwerten oder soziokulturellen und Weltwissen-Standardwerten beruhen, die in der Theorie der Standardsemantik und identifiziert wurden in Abschnitt 1.8 besprochen. Solche Standardeinstellungen sind Standardeinstellungen für den Kontext und für den Sprecher, aber Salience, die sie vorhersagt, ist dies nicht. Laut Salience-Based Contextualism können Wörter und Strukturen hervorstechende, automatisch abgerufene Bedeutungen auslösen. Dies wird durch die Tatsache garantiert, dass Sprache sowohl ein soziokulturelles als auch ein kognitives Phänomen ist und als solches durch ihre gemeinsame Verwendung im Diskurs einerseits geprägt ist.und durch die Struktur und Funktionsweise des Gehirns auf der anderen Seite (siehe Jaszczolt 2016a: 50). Salience ist situationsfrei (obwohl nicht immer co-textfrei - siehe oben zu fließenden Charakteren), Standardität nicht: Es ist leicht vorstellbar, dass ein Sprecher die verfügbare herausragende Interpretation nicht nutzt, weil ihm die notwendige soziokulturelle fehlt Hintergrund, Kenntnis der Gesetze der Physik oder wird vom Kontext zu einer anderen Interpretation geführt. Standardwert gilt für eine flexible Einheit, auf deren Grundlage eine Interpretation gebildet wird (ein fließender Charakter). Standardwerte im Gespräch resultieren aus aufkommender Intentionalität (Haugh 2008, 2011): Sie stützen sich auf den Prozess der gemeinsamen Bedeutungskonstruktion. Konversationsstandards fassen also herausragende Bedeutungen zusammen - wörtlich oder nicht, wie Gioras hervorstechende Bedeutungen, die als konventionell, prototypisch verstanden werden.vertraut oder häufig.
Eine der wichtigen Folgerungen dieser auf Salience basierenden Standardität ist die mögliche Redundanz der wörtlichen / nichtliteralen Unterscheidung. Wenn Wörter in einer Zeichenfolge starke Einflüsse aufeinander haben sowie Einflüsse aus der Diskurssituation (manchmal als "laterale" bzw. "Top-down-Einflüsse" bezeichnet - siehe z. B. Recanati 2012), dann haben wir wenig Grund, wörtlich zu postulieren Bedeutung. Zum Beispiel haben wir in (25) wenig Grund, 'wörtliche' Bedeutungen von 'Stadt' oder 'Schlaf' zu postulieren: Jedes der Wörter kann sich an das andere anpassen, und die entsprechende Interpretation wird folgen.
(25) Die Stadt schläft. (aus Recanati 2012: 185).
Wenn "Stadt" "Einwohner der Stadt" bedeutet, bezieht sich "Schlafen" direkt darauf. Wenn es sich um den Ort mit seiner Infrastruktur handelt, muss sich „schlafen“anpassen, um etwas zu bewirken, das den Effekt „ruhig“, „dunkel“oder „keine Bewegung zeigen“hat. Aber keiner der Prozesse hat einen klaren Ausgangspunkt: Es gibt keinen offensichtlichen, klar definierbaren Übergang von wörtlich zu nicht wörtlich. Ein solches gleichzeitiges Auftreten ist mit einem gewissen Grad an Bedeutung verbunden. Solche Optionen können auch als "probabilistische Bedeutungen" angesehen werden, die "kontextuell bestätigt" werden, um Allans (2011: 185) Terminologie durch nichtmonotone Schlussfolgerungen entweder im Co-Text oder durch einen anderen Faktor in der Gemeinsamkeit zu verwenden.
Probabilistische Bedeutungen setzen jedoch Mehrdeutigkeit voraus, während die Salience- und Standard-orientierte Semantik und Pragmatik im Allgemeinen von der Annahme einer Unterspezifikation abhängt. Während im Fall von (26) - (27) ein Mehrdeutigkeitskonto aus der Perspektive der Bestandsaufnahme des Lexikons in einem Sprachsystem gerechtfertigt erscheint (in diesem Fall würde man eine Analogie von "Leopard" und "Fuchs" zu "erwarten"). Lamm 'und' Ziege ', während im Zusammenhang mit dem Satz diese Analogie nicht vorhanden ist, wie in (26a) und (27a) gezeigt, können die meisten Fälle der lexikalischen Anpassung nicht auf Eigenschaften von Einträgen im lexikalischen Inventar zurückgeführt werden.
(26) Jacqueline zieht den Leoparden dem Fuchs vor.
(27) Harry zieht Lamm der Ziege vor.
(26a) Jacqueline zieht Leopardenfell Fuchsfell vor.
(27a) Harry isst lieber Lamm als Ziege.
(von Allan 2011: 180). Laut Allan sollte die probabilistische Bedeutung in das Lexikon aufgenommen werden: Ein Lexem sollte im Lexikon mit unterschiedlichen Interpretationen aufgeführt und mit Anmerkungen zu ihrer Wahrscheinlichkeit und den Umständen versehen sein, unter denen diese Bedeutung wahrscheinlich auftritt. Er nennt solche probabilistischen Bedeutungen "Grade of Salience".
Es ist offensichtlich, dass dieser Vorschlag uns auf das Gebiet der vektorbasierten Semantik in der Computerlinguistik bringt, während er andererseits auf absichts- und kontextabhängigen Anpassungen wie Recanatis und Jaszczolts Zug in Richtung Post-Gricean basiert Pragmatik. Wie die Abschnitte 1.1-1.8 zeigen, sind die beiden Traditionen jedoch nicht unbedingt unvereinbar. Lexikalische Bedeutung und radikaler Kontextualismus über das Lexikon weisen in die gleiche Richtung wie Verteilungsberichte in der Computersemantik: Wir haben Wahrscheinlichkeiten für bestimmte Bedeutungen, da dies Bedeutungen sind, die aus dem „Unternehmen, das ein Wort hält“abgeleitet sind, um Firths (1957: 11) berühmtes Diktum anzupassen. Alles in allem,Inhaltswörter sind stark kontextabhängig - in dem Maße, dass Indexikalität möglicherweise nicht als definierendes Merkmal einiger lexikalischer Elemente, sondern als benotbares Merkmal des gesamten Lexikons angesehen werden sollte. Was jedoch als Indexikalität gilt, ist eine separate theoretische Frage, die hier nicht weiter verfolgt werden kann.
Als nächstes gibt es noch einen weiteren Grund, warum Salience klar von Defaultness unterschieden werden muss. Betrachten wir Demonstrative. Das Objekt, auf das mit "das" Bezug genommen wird, kann mit Hilfe von (i) dem Erkennen der Absicht des Sprechers oder (ii) dem Zeigen oder sogar (iii) dem Vorhandensein eines bestimmten herausragenden Objekts im Bild lokalisiert werden Bereich der Gesprächspartner. All dies zusammen begrenzt das Konzept der Salienz: Ein solches Objekt muss hervorstechend gemacht werden, damit die sprachliche Demonstration erfolgreich ist. Hier wird die hervorstechende Bedeutung ganz oder fast vollständig (unter Berücksichtigung der grammatikalischen Wiedergabe von z. B. der proximalen / distalen Unterscheidung) durch den gegebenen Kontext und durch das Wissen des Sprechers bestimmt, dass es sich um den relevanten Kontext handelt (siehe Lewis 1979 zur Scorekeeping; Cappelen und Dever 2016) für eine Diskussion). Für uns ist hier wichtig, dass Salience durch die Verwendung eines kontextabhängigen Begriffs erzeugt werden kann: Objekte werden durch die Verwendung eines Indexikals zur Salience gebracht. Die so verstandene Salience ist immer noch mit dem oben diskutierten situationsunabhängigen Konzept der Salience vereinbar (um sie von der Standardität zu unterscheiden), da es die semantische Bedeutung ist, der Charakter (Kaplan 1989) des Demonstrativs, der den Prozess des Bring-to-Salience auslöst.
Einerseits zeigt uns die Sprachforschung, dass Ausdrücke mit dünnem semantischem Inhalt wie anaphorisch verwendete Demonstrativpronomen oder Personalpronomen für Referenten verwendet werden, deren kognitiver Status hoch ist. Mit anderen Worten, sie werden verwendet, wenn das Objekt im Fokus der Aufmerksamkeit steht oder zumindest im Gedächtnis aktiviert ist (Gundel et al. 1993; siehe Jaszczolt 2002: 140–149 für eine Diskussion). Andererseits kann das Objekt in Kombination mit einem Demonstrationsakt hervorgehoben werden. Cappelen und Dever (2016) diskutieren hier zwei Arten erfolgreicher Verweise durch Demonstrative: Zeigen und Absichten (dh (i) und (ii) oben), im Gegensatz zu Prominenz (dh (iii) oben). Das erste schafft Salience, während das letztere das vorhandene Salience betrifft; Die erste bringt Entitäten in den Fokus, während die letztere ihren kognitiven Status im Fokus ausnutzt. Für Semantiker (beide hier diskutierten Orientierungen, Gricean und Computational) von besonderem Interesse ist, dass der erste Typ eine Anpassung ermöglicht (Lewis 1979): Objekte werden hervorstechender, wenn die Kommunikation dies erfordert.
Zusammenfassend lässt sich sagen, dass sich Salience deutlich von Standardität unterscheidet, aber für Ausdrücke (Wörter, Phrasen, Sätze), für die die Abgrenzung von Standardinterpretationen sinnvoll ist, kann Salience eine Erklärung liefern.
4. Schlussbemerkungen und Zukunftsaussichten
Dieser Vergleich verschiedener ausgewählter Ansätze für Standardinterpretationen in Semantik und Pragmatik ermöglicht einige Verallgemeinerungen. Erstens geht aus der untersuchten Literatur hervor, dass es entgegen den Annahmen einiger experimenteller Pragmatiker kein einziges „Standardmodell“für die Interpretation von Äußerungen gibt. Stattdessen werden Standardbedeutungen (und hervorstechende Bedeutungen) in vielen Ansätzen zur Interpretation von Äußerungen erkannt, aber sie werden durch verschiedene Sätze charakteristischer Merkmale definiert. Als nächstes wird im gegenwärtigen Stand der Theoretisierung alt = "sep man icon" /> Zitieren dieses Eintrags.

Vorschau der PDF-Version dieses Eintrags bei den Freunden der SEP-Gesellschaft.

Schlagen Sie dieses Eintragsthema im Internet Philosophy Ontology Project (InPhO) nach.

Erweiterte Bibliographie für diesen Eintrag bei PhilPapers mit Links zu seiner Datenbank.
Andere Internetquellen
Empfohlen:
Dynamische Semantik

Eintragsnavigation Eintragsinhalt Literaturverzeichnis Akademische Werkzeuge Freunde PDF Vorschau Autor und Zitierinfo Zurück nach oben Dynamische Semantik Erstveröffentlichung Montag, 23. August 2010; inhaltliche Überarbeitung Di 12.
Montague Semantik

Eintragsnavigation Eintragsinhalt Literaturverzeichnis Akademische Werkzeuge Freunde PDF Vorschau Autor und Zitierinfo Zurück nach oben Montague Semantik Erstveröffentlichung Montag, 7. November 2011; inhaltliche Überarbeitung Do 25.
Beweis-theoretische Semantik

Eintragsnavigation Eintragsinhalt Literaturverzeichnis Akademische Werkzeuge Freunde PDF Vorschau Autor und Zitierinfo Zurück nach oben Beweis-theoretische Semantik Erstveröffentlichung Mi 5. Dezember 2012; inhaltliche Überarbeitung Do 1.