Protokoll: Sitzung 5

Motivation

In dieser Sitzung haben wir Inkonsistenz-adaptive Logiken kennengelernt. Mithilfe dieser Logiken versuchen wir einen Mittelweg zu gehen zwischen den beiden Extremen:

  1. Klassische Logik: keinerlei Widersprüche werden toleriert. Die Konsistenz Anforderung schränkt die interpretativen Möglichkeiten radikal ein.
  2. Monotone parakonsistente Logiken (wie LP, CLuN, etc.): Widersprüche werden toleriert ohne Wenn und Aber. Hier gibt es keine Konsistenz Anforderung.

Inkonsistenz-adaptive Logiken situieren sich dazwischen, da in ihnen Widersprüche zwar toleriert werden, aber in den Interpretationen vermieden werden soweit möglich hinsichtlich der gegebenen Prämissen. In diesem Sinne folgen diese Logiken dem Slogan:

Interpretiere so konsistent wie möglich!

Der Name adaptiv kommt daher, da sich die Logiken interpretativ an die Prämissen im Sinne des Slogans anpassen.

Technisch wird diese Idee in zweierlei Hinsicht umgesetzt:

  1. in einer dynamischen Beweistheorie
  2. in einer sogenannten Selektionssemantik (auch oft: Präferentielle Semantik)

Wir haben im Seminar nur den zweiten Punkt diskutiert, auf den ich im Folgenden näher eingehen werde.

Inkonsistenz-adaptive Logiken bauen immer auf einer monotonen Logik auf: in unserem Fall kommen etwa in Frage: LP, CLuN, oder CLuNs. Aber, was ist eine monotone Logik?

In den Logiken, die wir bis jetzt kennengelernt haben, gehen Konsequenzen nicht verloren, wenn wir neue Informationen zu den Prämissen hinzufügen. In anderen Worten, in solchen Logiken \(L\) gilt:

Falls \(A_1, \ldots, A_n \vDash_{L} B\), dann auch \(A_1, \ldots, A_n, C \vDash_L B\).

Eine Logik, die diese Eigenschaft erfüllt, wird monoton genannt. Nicht-monotone Logiken sind dann entsprechend Logiken bei denen diese Eigenschaft im allgemeinen nicht mehr erfüllt ist. (Für spezifische Formeln \(A_1, \ldots, A_n\), \(B\), und \(C\) mag die Eigenschaften zwar gelten, aber es gibt für nicht-monotone Logiken Situationen in denen die Eigenschaft nicht gilt.)

Wenn wir unserem obigen Slogan folgen, macht es Sinn eine nicht-monotone Logik zu verwenden. Ein einfaches motivierendes Beispiel ist gegeben wie folgt:

  • Falls unsere Prämissenmenge nur \(p\) und \(\neg p \vee q\) umfasst, sie wäre eine konsistente Interpretation, dass \(p\) und \(\neg p \vee q\) nicht-widersprüchlich wahr sind. In dem Falle wäre auch \(q\) wahr. In LP wäre das die Belegung \(v(p) = 1 = v(q)\).
  • Wenn wir nun aber dazu lernen, dass auch \(\neg p\) gilt und wir entsprechend unsere Prämissenmenge um \(\neg p\) erweitern, so sind wir gezwungen \(p\) als widersprüchlich zu interpretieren. Nun wird \(\neg p \vee q\) bereits wegen \(\neg p\) wahr und es könnte sein, dass \(q\) falsch ist. Den gegebenen Informationen nach ist \(q\) nicht mehr zwingend wahr. Das heißt, nach Hinzufügen einer neuen Prämisse, ist disjunktiver Syllogismus nicht mehr auf \(p\) und \(\neg p \vee q\) anwendbar und wir verlieren einen Schluss, den wir vorher noch ziehen konnten.

Die Nicht-Monotone Logik LP\(^m\)

Wir diskutieren nun, wie wir auf der Grundlage von LP Prämissenmengen so konsistent wie möglich interpretieren können.

Dazu definieren wir zunächst den inkonsistenten Teil eines LP Modells \(M\) als die Menge aller widersprüchlichen Atome in der \(M\) zugrundeliegenden Belegung \(v\): \[!M =_{\mathrm{def}}\lbrace p \mid v(p) = i\rbrace.\]

Ein LP-Modell \(M\) ist besser als ein LP-Modell \(M^\prime\) genau dann wenn der inkonsistente Teil von \(M\) im inkonsistenten Teil von \(M^{\prime}\) strikt enthalten ist: \[M \prec M^{\prime} \mathit{~gdw.~} {!}M \subset {!}M^{\prime}.\]

Wir definieren nun die Konsequenzrelation für unsere neue nicht-monotone Logik LP\(^m\) auf der Grundlage der besten Modelle einer Prämissenmenge:

\(\Gamma \vDash_{LP}^m A\) gdw in allen \(\prec\)-minimalen LP-Modellen \(M\) von \(\Gamma\) gilt: \(M \models A\).

Ein Modell \(M\) ist \(\prec\)-minimales LP-Modell von \(\Gamma\) gdw.

  • \(M\) ein LP-Modell von \(\Gamma\) ist und
  • für alle LP-Modelle \(M^{\prime}\) von \(\Gamma\) gilt: nicht \(M^{\prime} \prec M\) (\(M^{\prime}\) ist nicht besser als \(M\)).

Wir sehen also, woher der Name “Selektionssemantik” kommt: wir selektieren aus den LP-Modellen einer gegebenen Prämissenmenge die besten heraus, nämlich diejenigen, die die Prämissen in minimal inkonsistent interpretieren. Der Name “Präferenzsemantik” speist sich daraus, dass wir die Modelle mit einer besser-als-Relation \(\prec\) anordnen.

Wir betrachten nochmal unser Beispiel mit \(\Gamma = {p, \neg p \vee q}\). Es gibt folgende LP-Modelle von \(\Gamma\):

p q Modell
i 0 \(M_1\)
i i \(M_2\)
i 1 \(M_3\)
1 i \(M_4\)
1 1 \(M_5\)

Es gilt bzgl. der besser-als Relation: \(M_5 \prec M_i\) für alle \(i \in {1, \ldots, 4}\). Damit ist \(M_5\) das \(\prec\)-minimale LP-Modell von \(\Gamma\). Da in \(M_5\), \(q\) gilt ist \(q\) eine LP\(^m\)-Konsequenz aus \(\Gamma\). In Zeichen: \(\Gamma \vDash_{LP}^m q\).

Wenn wir nun \(\neg p\) zur Prämissenmenge hinzufügen und \(\Gamma^{\prime} = {p, \neg p \vee q, \neg p}\) betrachten, haben wir noch folgende Modelle:

p q Modell
i 0 \(M_1\)
i i \(M_2\)
i 1 \(M_3\)

Die beiden \(\prec\)-minimalen LP-Modelle von \(\Gamma^{\prime}\) sind nun \(M_1\) und \(M_3\). Da \(q\) in \(M_1\) nicht gilt, ist \(q\) auch keine Konsequenz aus \(\Gamma^{\prime}\). Also \(\Gamma^{\prime} \nvDash_{LP}^m q\) obwohl \(\Gamma \vDash_{LP}^m q\). Das zeigt, dass wir es mit einer nicht-monotonen Logik zu tun haben.

Schwächere Formen von Monotonität

LP\(^m\) ist nicht-monoton. Dies besagt lediglich, dass in spezifischen Situtationen zusätzliche Information für den Verlust von Schlüssen sorgt (wie in obigen Beispiel demonstriert). Nun würde man aber für bestimmte Arten von zusätzlichen Informationen keinen Verlust von Schlüssen erwarten, etwa:

  1. wenn die zusätzliche Information bereits aus der vorhanden Information folgt,
  2. oder wenn die zusätzliche Information konsistent ist mit der vorhandenen Information.

Im ersteren Fall spricht man von Cautious Monotony. Es lässt sich formal wie folgt ausdrücken. Eine Logik \(L\) ist cautiously monotonic falls sie folgende Eigenschaft erfüllt:

Falls \(\Gamma \vDash_L A\) und \(\Gamma \vDash_L B\), dann auch \(\Gamma \cup {A} \vDash_L B\).

Im zweiten Fall spricht man von Rational Monotony. Eine Logik \(L\) ist rationally monotonic, falls sie folgende Eigenschaft erfüllt:

Falls \(\Gamma \vDash_L B\) und es nicht der Fall ist dass \(\Gamma \vDash_L \neg A\), dann \(\Gamma \cup {A} \vDash_L B\).

Man kann zeigen, dass LP\(^m\) cautiously monotonic ist. Hier ist der Beweis:

  • Vorausgesetzt \(\Gamma \vDash_{LP}^m A\) und \(\Gamma \vDash_{LP}^m B\).
  • Wir nehmen nun an, dass nicht gilt \(\Gamma \cup {A} \vDash_{LP}^m B\) und führen anschließend diese Annahme zu einem Widerspruch.
  • Mit unserer Annahme gibt es ein minimal inkonsistentes LP-Modell \(M\) von \(\Gamma \cup {A}\) in dem \(B\) nicht gilt.
  • Da \(M\) auch ein LP-Modell von \(\Gamma\) ist und \(\Gamma \vDash_{LP}^m B\), kann \(M\) kein minimal inkonsistentes Modell von \(\Gamma\) sein. Das heißt, es gibt ein besseres LP-Modell \(M^{\prime}\) (d.h. \(M^{\prime} \prec M\)) von \(\Gamma\).
  • Wir gehen nun davon aus dass \(M^{\prime}\) selbst ein minimal inkonistentes LP-Modell von \(\Gamma\) ist.1
  • Damit gilt \(M^{\prime} \models A\) weil \(\Gamma \vDash_{LP}^m A\). Deshalb ist \(M^{\prime}\) auch ein LP-Modell von \(\Gamma \cup {A}\).
  • Aber da \(M^{\prime} \prec M\) ist dies ein Widerspruch zur Annahme dass \(M\) ein minimal inkonistentes Modell von \(\Gamma \cup {A}\) ist.

Die Eigenschaft Rational Monotony gilt übrigens nicht für LP\(^m\). Auf den Vorlesungsfolien findet sich ein Gegenbeispiel.

In der Übung gilt es zu zeigen, dass in LP\(^m\) auch die Eigenschaft cautious cut gilt:

Falls \(\Gamma \vDash_{LP}^m A\) und \(\Gamma \cup {A} \vDash_{LP}^m B\), so auch \(\Gamma \vDash_{LP}^m B\).


  1. Diese Annahme ist nicht trivial: man muss dafür zeigen, dass für jedes LP-Modell \(M\) von \(\Gamma\) gilt: entweder ist \(M\) minimal inkonsistent oder es gibt ein minimal inkonistentes Modell \(M^{\prime}\) so dass \(M^{\prime} \prec M\). Diese Eigenschaft heißt strong reassurance und sie gilt für \(LP^m\) in der Sprache der Aussagenlogik. ↩︎