Sitzung 8: Fuzzy Logiken 2, (Modallogiken)
In dieser Sitzung haben wir uns mit Fuzzy Implikationen auseinandergesetzt. Diese werden generell in Abhängigkeit von gegebenen t-Normen charakterisiert. Es gilt attraktive Beziehungen zwischen Konjunktionen und Implikationen herzustellen. Eine solche Beziehung ist etwa die zwischen: \[ p \rightarrow (q \rightarrow v) \] und \[ (p \wedge q) \rightarrow v\] Intuitiverweise könnten man erwarten, dass beide Aussagen in einer gegebenen Interpretation denselben Wahrheitswert haben sollten:
- Falls \(p\) dann, falls (auch noch) \(q\) dann \(v\).
- Falls \(p\) und \(q\), dann \(v\).
Um solche Zusammenhänge herzustellen, wird in Fuzzylogiken die (Wahrheitsfunktion der) Implikation \(\Rightarrow\) als sogennantes Residuum einer gegebenen t-Norm \(\star\) definiert. Diese ist eine Funktion \(\Rightarrow\), die folgendes Bikonditional erfüllt: für alle \(x,y,z \in [0,1]\)
\[ z \le x \Rightarrow y \quad\mathit{ gdw. }\quad x \star z \le y \]
Interessanterweise, gibt es für eine bestimmte Klasse von t-Normen (nämlich links-stetigen zu der etwa die Gödel, die Lukasiewicz und die Produktnorm gehören) eine eindeutige Funktion, die das Bikonditional erfüllt, nämlich:
\[ x \Rightarrow y = \max(\lbrace z \in [0,1] \mid x \star z \le y\rbrace)\]
Aus dieser Definition folgt sogleich, dass für den Fall in dem \(x \le y\), der Wert von \(x \Rightarrow y = 1\) ist. Der Grund ist, dass in diesem Fall das maximale \(z \in [0,1]\) für das \(x \star z \le y\) die 1 ist, da \(x \star 1 = x\) und \(x \le y\) (Beachte, dass mit der Monotonität von t-Normen, \(x \star w \le x \star 1\) für alle \(w \in [0,1]\).) Damit gilt etwa auch \(0 \Rightarrow x = 1\) für alle \(x \in [0,1]\).
Diese Definition von \(x \Rightarrow y\) stellt auch sicher, dass \(x \Rightarrow (y \Rightarrow z) = x \star y \Rightarrow z\) wie anfangs angekündigt.
- Es sei \(w^{\prime} = \max({ w \in [0,1] \mid x \star w \le (y \Rightarrow z))}= x \Rightarrow (y \Rightarrow z)\).
- Damit \(x \star w^{\prime} \le \max(\lbrace w \in [0,1] \mid y \star w \le z\rbrace) = y \Rightarrow z\).
- Damit \(y \star (x \star w^{\prime}) \le z\) und somit \((x \star y) \star w^{\prime} \le z\).2
- Es sei \(w^{\prime\prime} = \max(\lbrace w \in [0,1] \mid (x \star y) \star w \le z \rbrace) = x \star y \Rightarrow z\).
- Damit \((x \star y) \star w^{\prime\prime} \le z\) und somit \(y \star (x \star w^{\prime\prime}) \le z\).
- Angenommen \(w^{\prime\prime} < w^{\prime}\).
- Aber dann, weil \((x \star y) \star w^{\prime} \le z\) gilt \(w^{\prime\prime} < \max(\lbrace w \in [0,1] \mid (x \star y) \star w \le z \rbrace)\). Widerspruch!
- Angenommen \(w^{\prime} < w^{\prime\prime}\).
- Aber dann gilt auch \(x \star w^{\prime\prime} \le \max(\lbrace w \in [0,1] \mid y \star w \le z \rbrace)\) weil \(y \star (x \star w^{\prime\prime} ) \le z\).
- Also war \(w^{\prime}\) nicht maximal. Widerspruch.
Für nicht alle t-Normen existiert eine Zahl \(\max(\lbrace z \in [0,1] \mid x \star z \le y \rbrace)\) für alle \(x,y \in [0,1]\). Ein Beispiel ist die drastische oder radikale t-Norm: \(x \star_R y = x\) falls \(y = 1\), \(x \star_R y\) = y falls \(x = 1\) und sonst \(x \star_R y = 0\). Man nehme etwa \(y = 0.5\) und \(x = 0.6\). Wir haben etwa:
- \(x \star_R 0 = 0 \le y\)
- \(x \star_R 0.5 = 0 \le y\)
- \(x\star_R 0.9 = 0 \le y\)
- \(x \star_R 0.99 = 0 \le y\)
- etc.
- aber: \(x \star_R 1 = 0.6 > y\).
Keine Zahl \(z\) ist maximal mit der Eigenschaft, dass \(0.6 \star_R z \le 0.5\).
Die gute Nachricht ist, dass dies kein Problem darstellt für unsere üblichen t-Normen, die Gödel t-Norm (\(\min\)), die Lukasiewicz t-Norm und die Produkt t-Norm. Der Grund ist, dass diese stetig sind. Eine Funktion ist stetig, falls ihr Graph keine Sprünge aufweist: man kann den Graph mit einem Stift nachzeichnen, ohne dabei absetzen zu müssen.1
Für unsere t-Normen ergeben sich dann folgende Wahrheitsfunktionen für Implikationen:
\(x \Rightarrow _G y\) | \(x \Rightarrow_{L} y\) | \(x \Rightarrow_{P} y\) | |
---|---|---|---|
\(x \le y\) | 1 | 1 | 1 |
\(x > y\) | \(y\) | \(y + 1 - x\) | \(\frac{y}{x}\) |
Übung: Prüfen Sie dies nach!
Negationen und Implikationen stehen in Fuzzy-Logiken in der üblichen Beziehung:
- \(n_G(x) = x \Rightarrow_G 0 = x \Rightarrow_P 0\)
- \(n_L(x) = x \Rightarrow_L 0\)
Übung: prüfen Sie dies nach.
Am Ende der Sitzung haben wir uns noch einmal abschließend mit dem Sorites Szenario beschäftigt. Folgende Tabelle zeigt Wahrheitswerte für die verschiedenen Wahrheitsfunktionen unserer drei Fuzzy-Logiken.
\(v(g_i)\) | 1 | \(\rightarrow\) | 0.8 | \(\rightarrow\) | 0.6 | \(\rightarrow\) | 0.4 | \(\rightarrow\) | 0.2 | \(\rightarrow\) | 0 |
---|---|---|---|---|---|---|---|---|---|---|---|
L-Neg | 0 | 0.2 | 0.4 | 0.6 | 0.8 | 1 | |||||
G-Neg | 0 | 0 | 0 | 0 | 0 | 1 | |||||
L-Imp | 0.8 | 0.8 | 0.8 | 0.8 | 0.8 | ||||||
G-Imp | 0.8 | 0.6 | 0.4 | 0.2 | 0 | ||||||
P-Imp | 0.8 | 0.75 | 0.66 | 0.5 | 0 | ||||||
0.8 | 0.79 | 0.3 | 0.29 | ||||||||
L-Imp | 0.99 | 0.99 | |||||||||
G-Imp | 0.79 | 0.29 | |||||||||
P-Imp | 0.98 | 0.96 |
Es ist etwa Interessant zu beobachten wie der Implikationswert für die Lukasiewicz Negation sich konstant an die Distanz der beiden Input-Wahrheitswerte hält, während die Gödel-Implikation mit fallenden Wahrheitswert das Implikats abnimmt. Die Produkt-Implikation fällt weniger drastisch ab. Vor allem bei Fällen, die nahe beieinander liegen (zweiter Teil der Tabelle) hat die Lukasiewicz Implikation fast den Wahrheitswert 1, während trotz der Nähe der beiden Werte die Gödel-Implikation weiter mit dem Wahrheitswert des Implikats abfällt.
Zu Ende der Sitzung haben wir mit dem nächsten Großabschnitt, den Modallogiken begonnen. Dazu mehr beim nächsten mal! :-)
-
Präziser: eine Funktion \(f: [0,1] \rightarrow [0,1]\) ist stetig in einem Punkt \(x \in [0,1]\), falls für jede beliebig kleine Umgebung \(f(x) \pm \epsilon\) von \(f(x)\) es eine Umgebung \(x \pm \delta\) gibt in der nur Werte im Bereich \(f(x) \pm \epsilon\) angenommen werden. In der Logik erster Stufe lässt sich dies etwa wie folgt formulieren: \(\forall \epsilon > 0 ~ \exists \delta > 0 ~ \forall y (| x - y | < \delta \rightarrow | f(x) - f(y) | < \epsilon)\). Wir sagen, dass eine t-Norm stetig ist, wenn sie in beiden Parametern stetig ist: also für einen fixierten Wert \(y\) sind \(f(x) = x \star y\) und \(f(x) = y \star x\) stetig. Für die Existenz des Residuums reicht es bereits aus, dass die t-Norm linksstetig ist: für die Umgebung von \(x\) müssen wir bei der links-Stetigkeit lediglich Punkte links (also kleiner als) \(x\) beachten. ↩︎