.myP {}

Sitzung 8: Fuzzy Logiken 2, (Modallogiken)


In dieser Sitzung haben wir uns mit Fuzzy Implikationen auseinandergesetzt. Diese werden generell in Abhängigkeit von gegebenen t-Normen charakterisiert. Es gilt attraktive Beziehungen zwischen Konjunktionen und Implikationen herzustellen. Eine solche Beziehung ist etwa die zwischen: p(qv) p \rightarrow (q \rightarrow v) und (pq)v (p \wedge q) \rightarrow v Intuitiverweise könnten man erwarten, dass beide Aussagen in einer gegebenen Interpretation denselben Wahrheitswert haben sollten:

  • Falls pp dann, falls (auch noch) qq dann vv.
  • Falls pp und qq, dann vv.

Um solche Zusammenhänge herzustellen, wird in Fuzzylogiken die (Wahrheitsfunktion der) Implikation \Rightarrow als sogennantes Residuum einer gegebenen t-Norm \star definiert. Diese ist eine Funktion \Rightarrow, die folgendes Bikonditional erfüllt: für alle x,y,z[0,1]x,y,z \in [0,1]

zxygdw.xzy z \le x \Rightarrow y \quad\mathit{ gdw. }\quad x \star z \le y

Interessanterweise, gibt es für eine bestimmte Klasse von t-Normen (nämlich links-stetigen zu der etwa die Gödel, die Lukasiewicz und die Produktnorm gehören) eine eindeutige Funktion, die das Bikonditional erfüllt, nämlich:

xy=max({z[0,1]xzy}) x \Rightarrow y = \max(\lbrace z \in [0,1] \mid x \star z \le y\rbrace)

Aus dieser Definition folgt sogleich, dass für den Fall in dem xyx \le y, der Wert von xy=1x \Rightarrow y = 1 ist. Der Grund ist, dass in diesem Fall das maximale z[0,1]z \in [0,1] für das xzyx \star z \le y die 1 ist, da x1=xx \star 1 = x und xyx \le y (Beachte, dass mit der Monotonität von t-Normen, xwx1x \star w \le x \star 1 für alle w[0,1]w \in [0,1].) Damit gilt etwa auch 0x=10 \Rightarrow x = 1 für alle x[0,1]x \in [0,1].

Diese Definition von xyx \Rightarrow y stellt auch sicher, dass x(yz)=xyzx \Rightarrow (y \Rightarrow z) = x \star y \Rightarrow z wie anfangs angekündigt.

  • Es sei w=max(w[0,1]xw(yz))=x(yz)w^{\prime} = \max({ w \in [0,1] \mid x \star w \le (y \Rightarrow z))}= x \Rightarrow (y \Rightarrow z).
  • Damit xwmax({w[0,1]ywz})=yzx \star w^{\prime} \le \max(\lbrace w \in [0,1] \mid y \star w \le z\rbrace) = y \Rightarrow z.
  • Damit y(xw)zy \star (x \star w^{\prime}) \le z und somit (xy)wz(x \star y) \star w^{\prime} \le z.2
  • Es sei w=max({w[0,1](xy)wz})=xyzw^{\prime\prime} = \max(\lbrace w \in [0,1] \mid (x \star y) \star w \le z \rbrace) = x \star y \Rightarrow z.
  • Damit (xy)wz(x \star y) \star w^{\prime\prime} \le z und somit y(xw)zy \star (x \star w^{\prime\prime}) \le z.
  • Angenommen w<ww^{\prime\prime} < w^{\prime}.
    • Aber dann, weil (xy)wz(x \star y) \star w^{\prime} \le z gilt w<max({w[0,1](xy)wz})w^{\prime\prime} < \max(\lbrace w \in [0,1] \mid (x \star y) \star w \le z \rbrace). Widerspruch!
  • Angenommen w<ww^{\prime} < w^{\prime\prime}.
    • Aber dann gilt auch xwmax({w[0,1]ywz})x \star w^{\prime\prime} \le \max(\lbrace w \in [0,1] \mid y \star w \le z \rbrace) weil y(xw)zy \star (x \star w^{\prime\prime} ) \le z.
    • Also war ww^{\prime} nicht maximal. Widerspruch.

Für nicht alle t-Normen existiert eine Zahl max({z[0,1]xzy})\max(\lbrace z \in [0,1] \mid x \star z \le y \rbrace) für alle x,y[0,1]x,y \in [0,1]. Ein Beispiel ist die drastische oder radikale t-Norm: xRy=xx \star_R y = x falls y=1y = 1, xRyx \star_R y = y falls x=1x = 1 und sonst xRy=0x \star_R y = 0. Man nehme etwa y=0.5y = 0.5 und x=0.6x = 0.6. Wir haben etwa:

  • xR0=0yx \star_R 0 = 0 \le y
  • xR0.5=0yx \star_R 0.5 = 0 \le y
  • xR0.9=0yx\star_R 0.9 = 0 \le y
  • xR0.99=0yx \star_R 0.99 = 0 \le y
  • etc.
  • aber: xR1=0.6>yx \star_R 1 = 0.6 > y.

Keine Zahl zz ist maximal mit der Eigenschaft, dass 0.6Rz0.50.6 \star_R z \le 0.5.

Die gute Nachricht ist, dass dies kein Problem darstellt für unsere üblichen t-Normen, die Gödel t-Norm (min\min), die Lukasiewicz t-Norm und die Produkt t-Norm. Der Grund ist, dass diese stetig sind. Eine Funktion ist stetig, falls ihr Graph keine Sprünge aufweist: man kann den Graph mit einem Stift nachzeichnen, ohne dabei absetzen zu müssen.1

Für unsere t-Normen ergeben sich dann folgende Wahrheitsfunktionen für Implikationen:

xGyx \Rightarrow _G y xLyx \Rightarrow_{L} y xPyx \Rightarrow_{P} y
xyx \le y 1 1 1
x>yx > y yy y+1xy + 1 - x yx\frac{y}{x}

Übung: Prüfen Sie dies nach!

Negationen und Implikationen stehen in Fuzzy-Logiken in der üblichen Beziehung:

  • nG(x)=xG0=xP0n_G(x) = x \Rightarrow_G 0 = x \Rightarrow_P 0
  • nL(x)=xL0n_L(x) = x \Rightarrow_L 0

Übung: prüfen Sie dies nach.

Am Ende der Sitzung haben wir uns noch einmal abschließend mit dem Sorites Szenario beschäftigt. Folgende Tabelle zeigt Wahrheitswerte für die verschiedenen Wahrheitsfunktionen unserer drei Fuzzy-Logiken.

v(gi)v(g_i) 1 \rightarrow 0.8 \rightarrow 0.6 \rightarrow 0.4 \rightarrow 0.2 \rightarrow 0
L-Neg 0 0.2 0.4 0.6 0.8 1
G-Neg 0 0 0 0 0 1
L-Imp 0.8 0.8 0.8 0.8 0.8
G-Imp 0.8 0.6 0.4 0.2 0
P-Imp 0.8 0.75 0.66 0.5 0
0.8 0.79 0.3 0.29
L-Imp 0.99 0.99
G-Imp 0.79 0.29
P-Imp 0.98 0.96

Es ist etwa Interessant zu beobachten wie der Implikationswert für die Lukasiewicz Negation sich konstant an die Distanz der beiden Input-Wahrheitswerte hält, während die Gödel-Implikation mit fallenden Wahrheitswert das Implikats abnimmt. Die Produkt-Implikation fällt weniger drastisch ab. Vor allem bei Fällen, die nahe beieinander liegen (zweiter Teil der Tabelle) hat die Lukasiewicz Implikation fast den Wahrheitswert 1, während trotz der Nähe der beiden Werte die Gödel-Implikation weiter mit dem Wahrheitswert des Implikats abfällt.

Zu Ende der Sitzung haben wir mit dem nächsten Großabschnitt, den Modallogiken begonnen. Dazu mehr beim nächsten mal! :-)


  1. Präziser: eine Funktion f:[0,1][0,1]f: [0,1] \rightarrow [0,1] ist stetig in einem Punkt x[0,1]x \in [0,1], falls für jede beliebig kleine Umgebung f(x)±ϵf(x) \pm \epsilon von f(x)f(x) es eine Umgebung x±δx \pm \delta gibt in der nur Werte im Bereich f(x)±ϵf(x) \pm \epsilon angenommen werden. In der Logik erster Stufe lässt sich dies etwa wie folgt formulieren: ϵ>0 δ>0 y(xy<δf(x)f(y)<ϵ)\forall \epsilon > 0 ~ \exists \delta > 0 ~ \forall y (| x - y | < \delta \rightarrow | f(x) - f(y) | < \epsilon). Wir sagen, dass eine t-Norm stetig ist, wenn sie in beiden Parametern stetig ist: also für einen fixierten Wert yy sind f(x)=xyf(x) = x \star y und f(x)=yxf(x) = y \star x stetig. Für die Existenz des Residuums reicht es bereits aus, dass die t-Norm linksstetig ist: für die Umgebung von xx müssen wir bei der links-Stetigkeit lediglich Punkte links (also kleiner als) xx beachten. [return]