.myP {}

Protokoll: Sitzung 5


Motivation

In dieser Sitzung haben wir Inkonsistenz-adaptive Logiken kennengelernt. Mithilfe dieser Logiken versuchen wir einen Mittelweg zu gehen zwischen den beiden Extremen:

  1. Klassische Logik: keinerlei Widersprüche werden toleriert. Die Konsistenz Anforderung schränkt die interpretativen Möglichkeiten radikal ein.
  2. Monotone parakonsistente Logiken (wie LP, CLuN, etc.): Widersprüche werden toleriert ohne Wenn und Aber. Hier gibt es keine Konsistenz Anforderung.

Inkonsistenz-adaptive Logiken situieren sich dazwischen, da in ihnen Widersprüche zwar toleriert werden, aber in den Interpretationen vermieden werden soweit möglich hinsichtlich der gegebenen Prämissen. In diesem Sinne folgen diese Logiken dem Slogan:

Interpretiere so konsistent wie möglich!

Der Name adaptiv kommt daher, da sich die Logiken interpretativ an die Prämissen im Sinne des Slogans anpassen.

Technisch wird diese Idee in zweierlei Hinsicht umgesetzt:

  1. in einer dynamischen Beweistheorie
  2. in einer sogenannten Selektionssemantik (auch oft: Präferentielle Semantik)

Wir haben im Seminar nur den zweiten Punkt diskutiert, auf den ich im Folgenden näher eingehen werde.

Inkonsistenz-adaptive Logiken bauen immer auf einer monotonen Logik auf: in unserem Fall kommen etwa in Frage: LP, CLuN, oder CLuNs. Aber, was ist eine monotone Logik?

In den Logiken, die wir bis jetzt kennengelernt haben, gehen Konsequenzen nicht verloren, wenn wir neue Informationen zu den Prämissen hinzufügen. In anderen Worten, in solchen Logiken LL gilt:

Falls A1,,AnLBA_1, \ldots, A_n \vDash_{L} B, dann auch A1,,An,CLBA_1, \ldots, A_n, C \vDash_L B.

Eine Logik, die diese Eigenschaft erfüllt, wird monoton genannt. Nicht-monotone Logiken sind dann entsprechend Logiken bei denen diese Eigenschaft im allgemeinen nicht mehr erfüllt ist. (Für spezifische Formeln A1,,AnA_1, \ldots, A_n, BB, und CC mag die Eigenschaften zwar gelten, aber es gibt für nicht-monotone Logiken Situationen in denen die Eigenschaft nicht gilt.)

Wenn wir unserem obigen Slogan folgen, macht es Sinn eine nicht-monotone Logik zu verwenden. Ein einfaches motivierendes Beispiel ist gegeben wie folgt:

  • Falls unsere Prämissenmenge nur pp und ¬pq\neg p \vee q umfasst, sie wäre eine konsistente Interpretation, dass pp und ¬pq\neg p \vee q nicht-widersprüchlich wahr sind. In dem Falle wäre auch qq wahr. In LP wäre das die Belegung v(p)=1=v(q)v(p) = 1 = v(q).
  • Wenn wir nun aber dazu lernen, dass auch ¬p\neg p gilt und wir entsprechend unsere Prämissenmenge um ¬p\neg p erweitern, so sind wir gezwungen pp als widersprüchlich zu interpretieren. Nun wird ¬pq\neg p \vee q bereits wegen ¬p\neg p wahr und es könnte sein, dass qq falsch ist. Den gegebenen Informationen nach ist qq nicht mehr zwingend wahr. Das heißt, nach Hinzufügen einer neuen Prämisse, ist disjunktiver Syllogismus nicht mehr auf pp und ¬pq\neg p \vee q anwendbar und wir verlieren einen Schluss, den wir vorher noch ziehen konnten.

Die Nicht-Monotone Logik LPm^m

Wir diskutieren nun, wie wir auf der Grundlage von LP Prämissenmengen so konsistent wie möglich interpretieren können.

Dazu definieren wir zunächst den inkonsistenten Teil eines LP Modells MM als die Menge aller widersprüchlichen Atome in der MM zugrundeliegenden Belegung vv: !M=def{pv(p)=i}.!M =_{\mathrm{def}}\lbrace p \mid v(p) = i\rbrace.

Ein LP-Modell MM ist besser als ein LP-Modell MM^\prime genau dann wenn der inkonsistente Teil von MM im inkonsistenten Teil von MM^{\prime} strikt enthalten ist: MM gdw. !M!M.M \prec M^{\prime} \mathit{~gdw.~} {!}M \subset {!}M^{\prime}.

Wir definieren nun die Konsequenzrelation für unsere neue nicht-monotone Logik LPm^m auf der Grundlage der besten Modelle einer Prämissenmenge:

ΓLPmA\Gamma \vDash_{LP}^m A gdw in allen \prec-minimalen LP-Modellen MM von Γ\Gamma gilt: MAM \models A.

Ein Modell MM ist \prec-minimales LP-Modell von Γ\Gamma gdw.

  • MM ein LP-Modell von Γ\Gamma ist und
  • für alle LP-Modelle MM^{\prime} von Γ\Gamma gilt: nicht MMM^{\prime} \prec M (MM^{\prime} ist nicht besser als MM).

Wir sehen also, woher der Name “Selektionssemantik” kommt: wir selektieren aus den LP-Modellen einer gegebenen Prämissenmenge die besten heraus, nämlich diejenigen, die die Prämissen in minimal inkonsistent interpretieren. Der Name “Präferenzsemantik” speist sich daraus, dass wir die Modelle mit einer besser-als-Relation \prec anordnen.

Wir betrachten nochmal unser Beispiel mit Γ=p,¬pq\Gamma = {p, \neg p \vee q}. Es gibt folgende LP-Modelle von Γ\Gamma:

p q Modell
i 0 M1M_1
i i M2M_2
i 1 M3M_3
1 i M4M_4
1 1 M5M_5

Es gilt bzgl. der besser-als Relation: M5MiM_5 \prec M_i für alle i1,,4i \in {1, \ldots, 4}. Damit ist M5M_5 das \prec-minimale LP-Modell von Γ\Gamma. Da in M5M_5, qq gilt ist qq eine LPm^m-Konsequenz aus Γ\Gamma. In Zeichen: ΓLPmq\Gamma \vDash_{LP}^m q.

Wenn wir nun ¬p\neg p zur Prämissenmenge hinzufügen und Γ=p,¬pq,¬p\Gamma^{\prime} = {p, \neg p \vee q, \neg p} betrachten, haben wir noch folgende Modelle:

p q Modell
i 0 M1M_1
i i M2M_2
i 1 M3M_3

Die beiden \prec-minimalen LP-Modelle von Γ\Gamma^{\prime} sind nun M1M_1 und M3M_3. Da qq in M1M_1 nicht gilt, ist qq auch keine Konsequenz aus Γ\Gamma^{\prime}. Also ΓLPmq\Gamma^{\prime} \nvDash_{LP}^m q obwohl ΓLPmq\Gamma \vDash_{LP}^m q. Das zeigt, dass wir es mit einer nicht-monotonen Logik zu tun haben.

Schwächere Formen von Monotonität

LPm^m ist nicht-monoton. Dies besagt lediglich, dass in spezifischen Situtationen zusätzliche Information für den Verlust von Schlüssen sorgt (wie in obigen Beispiel demonstriert). Nun würde man aber für bestimmte Arten von zusätzlichen Informationen keinen Verlust von Schlüssen erwarten, etwa:

  1. wenn die zusätzliche Information bereits aus der vorhanden Information folgt,
  2. oder wenn die zusätzliche Information konsistent ist mit der vorhandenen Information.

Im ersteren Fall spricht man von Cautious Monotony. Es lässt sich formal wie folgt ausdrücken. Eine Logik LL ist cautiously monotonic falls sie folgende Eigenschaft erfüllt:

Falls ΓLA\Gamma \vDash_L A und ΓLB\Gamma \vDash_L B, dann auch ΓALB\Gamma \cup {A} \vDash_L B.

Im zweiten Fall spricht man von Rational Monotony. Eine Logik LL ist rationally monotonic, falls sie folgende Eigenschaft erfüllt:

Falls ΓLB\Gamma \vDash_L B und es nicht der Fall ist dass ΓL¬A\Gamma \vDash_L \neg A, dann ΓALB\Gamma \cup {A} \vDash_L B.

Man kann zeigen, dass LPm^m cautiously monotonic ist. Hier ist der Beweis:

  • Vorausgesetzt ΓLPmA\Gamma \vDash_{LP}^m A und ΓLPmB\Gamma \vDash_{LP}^m B.
  • Wir nehmen nun an, dass nicht gilt ΓALPmB\Gamma \cup {A} \vDash_{LP}^m B und führen anschließend diese Annahme zu einem Widerspruch.
  • Mit unserer Annahme gibt es ein minimal inkonsistentes LP-Modell MM von ΓA\Gamma \cup {A} in dem BB nicht gilt.
  • Da MM auch ein LP-Modell von Γ\Gamma ist und ΓLPmB\Gamma \vDash_{LP}^m B, kann MM kein minimal inkonsistentes Modell von Γ\Gamma sein. Das heißt, es gibt ein besseres LP-Modell MM^{\prime} (d.h. MMM^{\prime} \prec M) von Γ\Gamma.
  • Wir gehen nun davon aus dass MM^{\prime} selbst ein minimal inkonistentes LP-Modell von Γ\Gamma ist.1
  • Damit gilt MAM^{\prime} \models A weil ΓLPmA\Gamma \vDash_{LP}^m A. Deshalb ist MM^{\prime} auch ein LP-Modell von ΓA\Gamma \cup {A}.
  • Aber da MMM^{\prime} \prec M ist dies ein Widerspruch zur Annahme dass MM ein minimal inkonistentes Modell von ΓA\Gamma \cup {A} ist.

Die Eigenschaft Rational Monotony gilt übrigens nicht für LPm^m. Auf den Vorlesungsfolien findet sich ein Gegenbeispiel.

In der Übung gilt es zu zeigen, dass in LPm^m auch die Eigenschaft cautious cut gilt:

Falls ΓLPmA\Gamma \vDash_{LP}^m A und ΓALPmB\Gamma \cup {A} \vDash_{LP}^m B, so auch ΓLPmB\Gamma \vDash_{LP}^m B.


  1. Diese Annahme ist nicht trivial: man muss dafür zeigen, dass für jedes LP-Modell MM von Γ\Gamma gilt: entweder ist MM minimal inkonsistent oder es gibt ein minimal inkonistentes Modell MM^{\prime} so dass MMM^{\prime} \prec M. Diese Eigenschaft heißt strong reassurance und sie gilt für LPmLP^m in der Sprache der Aussagenlogik. [return]