Mercurial > latex
view bayesian_networks/presentation.tex @ 168:cc6bb3ca79fb default tip
6/4 is not 2
author | Markus Kaiser <markus.kaiser@in.tum.de> |
---|---|
date | Fri, 28 Nov 2014 01:41:50 +0100 |
parents | 13661d2aeda0 |
children |
line wrap: on
line source
\documentclass[compress, german]{beamer} %,hyperref={pdfpagelabels=false} \usepackage[ngerman,english]{babel} \uselanguage{German} \languagepath{German} \usepackage[T1]{fontenc} \usepackage[utf8]{inputenc} \usepackage{helvet} \usepackage{url} \usepackage{listings} \usepackage{xcolor} \usepackage{xspace} % Abstand hinter Variablennamen \usepackage{fix-cm} \usepackage{tikz} \usepackage{pgfplots} \usepackage{tabu} %\usepackage[square, sort, numbers, authoryear]{natbib} \usepackage{todonotes} \presetkeys{todonotes}{inline}{} \usepackage{beamerthemeLEA2} %\bibliographystyle{plainnat} \newcommand{\N} {\mathbb{N}} % natürliche Zahlen \newcommand{\Z} {\mathbb{Z}} % ganze Zahlen \newcommand{\R} {\mathbb{R}} % reelle Zahlen \newcommand{\Prob} {\mathrm{P}} % Wahrscheinlichkeit \newcommand{\inter} {\cap} % Schnittmenge \newcommand{\union} {\cup} % Vereinigung \newcommand{\Oh} {\mathcal{O}} % O-Notation (Landau-Symbole) \newcommand{\mycite}[1]{\textcolor{tumgreen}{[#1]}} \newenvironment{changemargin}[2]{% \begin{list}{}{% \setlength{\topsep}{0pt}% \setlength{\leftmargin}{#1}% \setlength{\rightmargin}{#2}% \setlength{\listparindent}{\parindent}% \setlength{\itemindent}{\parindent}% \setlength{\parsep}{\parskip}% }% \item[]}{\end{list}} \usetikzlibrary{calc} \usetikzlibrary{shapes.geometric} \tikzstyle{edge} = [draw,very thick,->,>=latex] \tikzstyle{selected edge} = [edge, tumred] \tikzstyle{circular node} = [circle,thick,draw,fill=tumblue!20,minimum size=12pt,inner sep=0pt,font=\bfseries] \tikzstyle{net node} = [ellipse, draw, thick, fill=tumblue!20, minimum width=6em, minimum height=2.5em, node distance=10em, inner sep = 0] \tikzstyle{selected net node} = [net node, fill=tumred!20] \def \netvspace {8em} \tikzstyle{net cpt} = [draw, thick, fill = tumgreen!20, font=\scriptsize, node distance=3em, inner sep = 2pt] \title{Bayesnetze} \subtitle{Seminar ``Kognitive Robotik''} \author{\href{mailto:markus.kaiser@in.tum.de}{Markus Kaiser}} %\date{\today} \date{12-12-12} \institute{Technische Universität München} %Inhaltsverzeichnis zu Begin von jedem Abschnitt einblenden? %\AtBeginSection[]{ % \begin{frame} % \frametitle{Outline} % \tableofcontents[currentsection] % \end{frame} %} %\AtBeginSection[]{ % \begin{frame}[plain] % \begin{center} \LARGE\insertsectionhead \end{center} % \end{frame} %} \begin{document} \begin{frame} \titlepage \end{frame} % Inhaltsverzeichnis %\begin{frame} % \frametitle{Inhalt} % \tableofcontents %\end{frame} \begin{frame}[t] \frametitle{Motivation} Wissen ist selten \alert{sicher} oder vollständig. \vspace{1em} \begin{example} [Medizinische Diagnose] Software soll mögliche Ursachen für Beschwerden finden. \begin{center} \begin{columns}[c] \begin{column}{.35\textwidth} \begin{itemize} \item Vorgeschichte \item Symptome \item Testergebnisse \end{itemize} \end{column} \begin{column}{.10\textwidth} \begin{tikzpicture}[auto] \useasboundingbox (0, 0.5) rectangle (1, -0.5); \draw[->, >=latex, line width=.35em, black!75] (0,0) -- (1,0); \end{tikzpicture} \end{column} \begin{column}{.35\textwidth} \begin{itemize} \item Diagnose \item Therapie \end{itemize} \end{column} \end{columns} \end{center} \end{example} Mögliche Unsicherheiten \begin{itemize} \item Vorgeschichte \alert{unvollständig}, Symptome \alert{vage} \item Symptome und Tests lassen mehrere \alert{Alternativen} zu \item Das Wissen ist \alert{fehlerbehaftet} \end{itemize} \end{frame} \begin{frame}[c] \frametitle{Wahrscheinlichkeitstheorie} \begin{definition}[Wahrscheinlichkeitsraum] Ein \alert{Wahrscheinlichkeitsraum} $P$ besteht aus einer Menge von \alert{Elementarereignissen} $\Omega$, \alert{Ereignissen} $A$ und einem \alert{Wahrscheinlichkeitsmaß} $\Pr$. \begin{itemize} \item $A$ ist $\sigma$-Algebra über $\Omega$ \item $\Pr : A \mapsto [0,1]$ \item $P = (\Omega, A, \Pr)$ \vspace{1em} \item $\Pr[\Omega] = 1$ \item $A \cap B = \emptyset \Rightarrow \Pr[A \cup B] = \Pr[A] + \Pr[B]$ \end{itemize} \end{definition} \end{frame} \begin{frame} \frametitle{Wahrscheinlichkeitstheorie} \begin{definition}[Bedingte Wahrscheinlichkeit] A und B seien Ereignisse mit $\Pr[B] > 0$. Die \alert{bedingte Wahrscheinlichkeit} von A unter der Bedingung B ist dann $$\Pr[A\mid B] = \frac{\Pr[A \cap B]}{\Pr[B]}$$ \end{definition} \begin{definition}[Unabhängigkeit] Zwei Ereignisse A und B sind \alert{unabhängig} wenn gilt $$\Pr[A \cap B] = \Pr[A] \cdot \Pr[B] = \Pr[A \mid B] \cdot \Pr[B]$$ \end{definition} \end{frame} \begin{frame}[c] \frametitle{Wahrscheinlichkeitstheorie} \begin{theorem}[Produktsatz] Für unabhängige Ereignisse $A_i$ gilt $$\Pr\left[\, \bigcap_{i=1}^n A_i \right] = \prod_{i=1}^n \Pr \left[ A_i \left| \bigcap_{k=1}^{i-1}A_k \right.\right]$$ \end{theorem} Also zum Beispiel $$\Pr[A,B,C] = \Pr[A \mid B, C] \cdot \Pr[B \mid C] \cdot \Pr[B]$$ und $$\Pr[A \mid B] = \frac{\Pr[A, B]}{\Pr[B]} = \alert{\alpha} \cdot \Pr[A,B]$$ \end{frame} \begin{frame}[c] \frametitle{Wahrscheinlichkeitstheorie} \begin{theorem}[Satz über die totale Wahrscheinlichkeit] Sind die Ereignisse $A_i$ paarweise disjunkt und möglich, dann gilt für ein Ereignis $B$ mit $\Pr[B] > 0$ $$\Pr[B] = \sum_{i=1}^n \Pr[B \mid A_i] \cdot \Pr[A_i]$$ \end{theorem} \begin{theorem} [Satz von Bayes] Für zwei Ereignisse $A$ und $B$ mit $\Pr[B] > 0$ ist $$\Pr[A \mid B] = \frac{\Pr[B \mid A] \cdot \Pr[A]}{\Pr[B]}$$ \end{theorem} \end{frame} \begin{frame} \frametitle{Nachmittagsplanung} \begin{example}[Nachmittagsplanung] Ich habe einen Nachmittag lang Zeit. Ich könnte \alert{Lebensmittel kaufen}, \alert{Sport machen} oder \alert{Lernen}. Ich habe genug Zeit für alle drei. Da ich ein sehr unentschlossener Mensch bin \alert{würfle} ich mittags mit einem \alert{W20}. \end{example} \vspace{2em} \begin{center} \begin{tikzpicture} \node [net node] (sport) {Sport}; \node [net cpt] [below of = sport] {\begin{tabu}{c} $\Pr[S]$ \\ \tabucline{-} $0.4$ \\ \end{tabu}}; \node [net node] (kaufen) [left of = sport] {Kaufen}; \node [net cpt] [below of = kaufen] {\begin{tabu}{c} $\Pr[K]$ \\ \tabucline{-} $0.5$ \\ \end{tabu}}; \node [net node] (lernen) [right of = sport] {Lernen}; \node [net cpt] [below of = lernen] {\begin{tabu}{c} $\Pr[L]$ \\ \tabucline{-} $0.2$ \\ \end{tabu}}; \end{tikzpicture} \end{center} \end{frame} \begin{frame}[t] \frametitle{Nachmittagsplanung} \begin{center} \begin{tikzpicture} \node [net node] (sport) {Sport}; \node [net cpt] [below of = sport] {\begin{tabu}{c} $\Pr[S]$ \\ \tabucline{-} $0.4$ \\ \end{tabu}}; \node [net node] (kaufen) [left of = sport] {Kaufen}; \node [net cpt] [below of = kaufen] {\begin{tabu}{c} $\Pr[K]$ \\ \tabucline{-} $0.5$ \\ \end{tabu}}; \node [net node] (lernen) [right of = sport] {Lernen}; \node [net cpt] [below of = lernen] {\begin{tabu}{c} $\Pr[L]$ \\ \tabucline{-} $0.2$ \\ \end{tabu}}; \end{tikzpicture} \end{center} \vspace{1em} \only<1>{ Wie groß ist die Wahrscheinlichkeit, \vspace{1em} \begin{itemize} \item dass ich \alert{lerne}, \alert{einkaufen} gehe, aber \alert{keinen Sport} mache? $$\Pr[K, \neg S, L] = \Pr[K] \cdot \Pr[\neg S] \cdot \Pr[L] = 0.5 \cdot 0.6 \cdot 0.2 = 0.06$$ \item dass ich \alert{nicht lerne}, aber \alert{Sport mache}? $$\Pr[S, \neg L] = \sum_k \Pr[k] \cdot \Pr[S] \cdot \Pr[\neg L] = \Pr[S] \cdot \Pr[\neg L] = 0.32$$ \end{itemize} } \only<2>{ \begin{itemize} \item Alle möglichen Belegungen lassen sich in einer gemeinsamen Verteilung (\alert{joint distribution}) darstellen. \item Für \alert{$n$} binäre Zufallsgrößen hat diese aber \alert{$2^n$} Einträge. \end{itemize} \begin{center} \begin{tabu}{|ccc|[1.2pt]c||ccc|[1.2pt]c|} \hline K & S & L & $\Pr$ & K & S & L & $\Pr$ \\ \tabucline[1.2pt]{-} F & F & F & 0.24 & T & F & F & 0.24 \\ \hline F & F & T & 0.06 & T & F & T & 0.06 \\ \hline F & T & F & 0.16 & T & T & F & 0.16 \\ \hline F & T & T & 0.04 & T & T & T & 0.04 \\ \hline \end{tabu} \end{center} } \end{frame} \begin{frame} \frametitle{Abhängigkeiten} \begin{example}[Erweiterte Nachmittagsplanung] Ich möchte das Haus nicht verlassen müssen, wenn es regnet. Deshalb halbiere ich bei \alert{Regen} die Wahrscheinlichkeit für Aktivitäten außer Haus.\\ Wenn ich weder Sport mache noch lerne bekomme ich ein \alert{schlechtes Gewissen}. Nach meinem Würfelergebnis möchte ich wissen, wie groß die Wahrscheinlichkeit ist, am Abend schlecht gelaunt zu sein. \end{example} \vspace{1em} Probleme: \begin{itemize} \item $\Pr[R, S] \neq \Pr[R] \cdot \Pr[S]$ \item Alle Sätze brauchen \alert{Unabhängigkeit} \end{itemize} \end{frame} \begin{frame} \frametitle{Bayesnetze} Es sind immernoch Unabhängigkeiten vorhanden: \begin{itemize} \item \alert{Regen} beeinflusst das \alert{Lernen} nicht \item \alert{Einkaufen} und \alert{Sport} beeinflussen sich nicht \end{itemize} \vfill \begin{definition}[Bedingte Unabhängigkeit] Zwei Ereignisse A und B sind \alert{bedingt unabhängig} unter einem Ereignis C wenn gilt $$\Pr[A, B \mid C] = \Pr[A \mid C] \cdot \Pr[B \mid C]$$ \end{definition} Einkaufen und Sport sind \alert{bedingt unabhängig} unter Regen. \end{frame} \begin{frame} \frametitle{Bayesnetze} \begin{tikzpicture} \node [net node] (sport) {Sport}; \node [net node] (kaufen) [left of = sport] {Kaufen}; \node [net node] (lernen) [right of = sport] {Lernen}; \node [net node] (gewissen) at ($0.5*(sport.center) + 0.5*(lernen.center) - (0,\netvspace)$) {Gewissen}; \node [net node] (regen) at ($0.5*(sport.center) + 0.5*(kaufen.center) + (0,\netvspace)$) {Regen}; \node<2,3> [selected net node] (sport) {Sport}; \node<2> [selected net node] (kaufen) [left of = sport] {Kaufen}; \node<3> [selected net node] (lernen) [right of = sport] {Lernen}; \node<3> [selected net node] (gewissen) at ($0.5*(sport.center) + 0.5*(lernen.center) - (0,\netvspace)$) {Gewissen}; \node<2,4> [selected net node] (regen) at ($0.5*(sport.center) + 0.5*(kaufen.center) + (0,\netvspace)$) {Regen}; \node<4> [selected net node] (gewissen) at ($0.5*(sport.center) + 0.5*(lernen.center) - (0,\netvspace)$) {Gewissen}; \foreach \src/\dest in {regen/kaufen, regen/sport, sport/gewissen, lernen/gewissen} \path [edge] (\src) -- (\dest); \foreach \i/\src/\dest in {2/regen/kaufen, 2/regen/sport, 3/sport/gewissen, 3/lernen/gewissen} \path<\i> [selected edge] (\src) -- (\dest); \end{tikzpicture} \end{frame} \begin{frame}[t] \frametitle{d-Separation} \begin{definition}[d-Separation] Zwei Knotenmengen $X$ und $Y$ sind in einem DAG $G$ durch $Z$ \alert{d-separiert} $\langle X \mid Z \mid Y \rangle_G$ wenn es \alert{keinen} (ungerichteten) Pfad zwischen $X$ und $Y$ gibt für den gilt \begin{enumerate} \item Jeder Knoten an dem Kanten \alert{zusammenlaufen} ist selbst in $Z$ oder hat einen Nachfahren in $Z$ \item Jeder \alert{andere Knoten} ist nicht in $Z$ \end{enumerate} \end{definition} \vfill \uncover<2-5> { \begin{center} \begin{tikzpicture} \tikzstyle {dag node} = [circular node, font=\normalfont, inner sep = 2pt, node distance = 4em] \tikzstyle {bad dag node} = [dag node, fill=tumred!20] \tikzstyle {good dag node} = [dag node, fill=tumgreen!20] \def \xdist {4em} \def \ydist {3em} \useasboundingbox ($(-3*\xdist, -\ydist)$) rectangle ($(\xdist, \ydist)$); \node [dag node] (C) at (0,0) {C}; \node [dag node] (A) at ($(C.center) + (-\xdist, \ydist)$) {A}; \node [dag node] (B) at ($(C.center) + (\xdist, \ydist)$) {B}; \node [dag node] (E) at ($(C.center) + (-\xdist, -\ydist)$) {E}; \node [dag node] (F) at ($(C.center) + (\xdist, -\ydist)$) {F}; \node [dag node] (D) at ($(C.center) + (2 * \xdist, 0)$) {D}; \foreach \src/\dest in {A/C, B/C, B/D, C/F, D/F, C/E} \path [edge] (\src) -- (\dest); \foreach \i/\Node in {3/A, 3/B, 4/A, 4/B, 5/A, 5/E} \node<\i> [good dag node] at ($(\Node.center)$) {\Node}; \foreach \i/\Node in {4/C, 5/C} \node<\i> [bad dag node] at ($(\Node.center)$) {\Node}; \foreach \i/\src/\dest in {4/A/C, 4/B/C} \path<\i> [selected edge] (\src) -- (\dest); \foreach \i/\Cap in {3/$\langle A \mid \emptyset \mid B \rangle$, 4/$\neg \langle A \mid F \mid B \rangle$, 5/$\langle A \mid C \mid E \rangle$} \node<\i> at ($(C.center) + (-3*\xdist, 0)$) {\Cap}; \end{tikzpicture} \end{center} } \end{frame} \begin{frame} \frametitle{Bayesnetze} \begin{theorem}[Unabhängigkeiten in Bayes-Netzen] Zufallsvariablen $X$ und $Y$ sind in einem Bayes-Netz \alert{bedingt unabhängig} unter $E$ wenn $\langle X \mid E \mid Y \rangle$.\\ Speziell ist jeder Knoten bedingt unabhängig von \begin{itemize} \item \alert{allen nicht-Nachfahren} gegeben seine Eltern \item \alert{allen Knoten} gegeben seine Markov-Einbettung \end{itemize} \end{theorem} \begin{definition}[Markov-Einbettung] Die \alert{Markov-Einbettung} (Markov blanket) eines Knotens ist die Menge all seiner \alert{Eltern}, \alert{Kinder} und den \alert{Eltern aller Kinder}. \end{definition} \end{frame} \begin{frame} \frametitle{Bayesnetze} \begin{tikzpicture} \node [net node] (sport) {Sport}; \node [net node] (kaufen) [left of = sport] {Kaufen}; \node [net node] (lernen) [right of = sport] {Lernen}; \node [net node] (gewissen) at ($0.5*(sport.center) + 0.5*(lernen.center) - (0,\netvspace)$) {Gewissen}; \node [net node] (regen) at ($0.5*(sport.center) + 0.5*(kaufen.center) + (0,\netvspace)$) {Regen}; \foreach \src/\dest in {regen/kaufen, regen/sport, sport/gewissen, lernen/gewissen} \path [edge] (\src) -- (\dest); \only<2> { \node [net cpt] at ($(regen.center)-(5em,0)$) {\begin{tabu}{c} $\Pr[R]$ \\ \tabucline{-} $0.1$ \\ \end{tabu}}; \node [net cpt] at ($(lernen.center)+(0,3em)$) {\begin{tabu}{c} $\Pr[L]$ \\ \tabucline{-} $0.2$ \\ \end{tabu}}; \node [net cpt] at ($(kaufen.center)-(0,3em)$) {\begin{tabu}{c|c} R & $\Pr[K]$ \\ \tabucline{-} F & $0.5$ \\ T & $0.25$ \\ \end{tabu}}; \node [net cpt] at ($(sport.center)-(2em,3em)$) {\begin{tabu}{c|c} R & $\Pr[S]$ \\ \tabucline{-} F & $0.4$ \\ T & $0.2$ \\ \end{tabu}}; \node [net cpt] at ($(gewissen.center)+(7em,1.1em)$) {\begin{tabu}{cc|c} S & L & $\Pr[G]$ \\ \tabucline{-} F & F & $0.8$ \\ F & T & $0.25$ \\ T & F & $0.5$ \\ T & T & $0.1$ \\ \end{tabu}}; } \end{tikzpicture} \end{frame} \begin{frame} \frametitle{Gemeinsame Verteilung} \begin{theorem}[Gemeinsame Verteilung] Für einen Eintrag $\Pr[x_1,\ldots,x_n]$ in der gemeinsamen Verteilung eines Bayesnetzes gilt $$\Pr[x_1,\ldots,x_n] = \prod_{i=1}^n \Pr[x_i \mid \mathsf{parents}(X_i)]$$ \end{theorem} Was ist die Wahrscheinlichkeit, dass ich ein \alert{schlechtes Gewissen} bei \alert{schönem Wetter} habe, obwohl ich \alert{Sport gemacht} habe nachdem ich \alert{einkaufen} war? \begin{align*} \Pr[G, S, \neg L, K, \neg R] &= \Pr[G \mid S, \neg L, K, \neg R] \cdot \Pr[S \mid \neg L, K, \neg R] \cdot \ldots\\ &= \Pr[G \mid S, \neg L] \cdot \Pr[S \mid \neg R] \\&\qquad \cdot Pr[\neg L] \cdot \Pr[K \mid \neg R] \cdot \Pr[\neg R]\\ &= 0.5 \cdot 0.8 \cdot 0.4 \cdot 0.5 \cdot 0.9 = 0.072 \end{align*} \end{frame} \begin{frame}[t] \frametitle{Konstruktion} \begin{block}{} Wie konstruiert man zu einer Domäne ein möglichst \alert{kompaktes}, \alert{lokal strukturiertes} und \alert{natürliches} Netz? \end{block} \begin{itemize} \item \alert{Expertenwissen} notwendig \vfill \item Knoten modellieren \alert{quantifizierbare} Ereignisse \begin{itemize} \item Unbekanntes in Verteilungen \item Einfachheit vs. Genauigkeit \end{itemize} \vspace{.2em} \item \alert{Lokale Struktur} schaffen \begin{itemize} \item Direkte Einflüsse \item Kleine Einflüsse ignorieren \end{itemize} \vspace{.2em} \item \alert{Kausale Reihenfolge} abbilden \end{itemize} \end{frame} \begin{frame} \frametitle{Knotenrepräsentation} \begin{itemize} \item Grundsätzlich \alert{beliebige} Verteilungen möglich \item Abwägung zwischen \alert{effizient} und \alert{exakt} \vspace{1em} \item Logische Verknüpfungen \item \alert{Kanonische} Verteilungen \end{itemize} \uncover<2>{ \begin{example}[Noisy Or] Ein Patient hat Fieber, wenn er eine Erkältung oder Grippe hat. Hat er aber eine Krankheit, könnte er auch kein Fieber haben. $$\Pr[\neg B \mid E, \neg G] = 0.6,\quad \Pr[\neg B \mid \neg E, G] = 0.2$$ \begin{center} \begin{tabu}{|cc|[1.2pt]cc||cc|[1.2pt]cc|} \hline E & G & $\Pr[B]$ & $\Pr[\neg B]$ & E & G & $\Pr[B]$ & $\Pr[\neg B]$ \\ \tabucline[1.2pt]{-} F & F & 0 & 1 & T & F & 0.4 & \alert{0.6} \\ \hline F & T & 0.8 & \alert{0.2} & T & T & 0.88 & 0.12 \\ \hline \end{tabu} \end{center} \end{example} } \end{frame} \begin{frame} \frametitle{Hotdogs} \begin{example}[Hotdog zum Mittagessen] Im MI-Gebäude gibt es jeden Dienstag Hotdogs. Um genau 12 Uhr werfe ich einen Blick auf die \alert{Schlange} und entscheide allein anhand ihrer Länge ob ich auf mein Mittagessen \alert{verzichte}.\\ Die Länge der Schlange ist abhängig davon, ob es in der \alert{Mensa} akzeptables Essen gibt und wieviele Studenten \alert{verschlafen} haben. \end{example} \begin{itemize} \item Der Anteil der schlafenden Studenten ist \alert{gleichverteilt}. \item Die Länge der Schlange ist \alert{normalverteilt}. \end{itemize} \end{frame} \begin{frame} \frametitle{Hotdogs} \begin{tikzpicture} \node [net node] (schlange) {Schlange}; \node [net node] (mensa) at ($(schlange.center) + (-4em,\netvspace)$) {Mensa}; \node [net node] (schlafen) at ($(schlange.center) + (4em,\netvspace)$) {Schlafen}; \node [net node] (hotdog) at ($(schlange.center) - (0,\netvspace)$) {Hotdog}; \foreach \src/\dest in {mensa/schlange, schlafen/schlange, schlange/hotdog} \path [edge] (\src) -- (\dest); \node [net cpt] at ($(schlafen.center)-(-3em,2.2em)$) {$V \sim GV(0,100)$}; \node [net cpt] at ($(mensa.center)-(1em,3em)$) {\begin{tabu}{c} $\Pr[M]$ \\ \tabucline{-} $0.4$ \\ \end{tabu}}; \node [net cpt] at ($(schlange.center)-(5em,3em)$) {\begin{tabu}{c|c} M & $S$ \\ \tabucline{-} F & $S \sim N(\mu_t(v),\sigma_t)$ \\ T & $S \sim N(\mu_f(v),\sigma_f)$ \\ \end{tabu}}; \node [net cpt] at ($(hotdog.center)-(-1em,2.2em)$) {$\Pr[h \mid S = s] = \Phi(\frac{-s + \mu}{\sigma})$}; \only<2> { \def\sdiv{3.2} \begin{axis}[label style=sloped,xlabel=Schlange,ylabel=\% schlafend, xshift=.225\textwidth,yshift=-6em,width=0.55\textwidth, colormap={tum}{color(0cm)=(tumblue); color(1cm)=(yellow); color(2cm)=(tumorange); color(3cm)=(tumred)}] \addplot3[surf,domain=0:40,domain y=0:100] {0.6 * exp(-0.5*((x-(30-0.25*y))/\sdiv)^2 )/(2.5*\sdiv) + 0.4 * exp(-0.5*((x-(15-0.1*y))/\sdiv)^2 )/(2.5*\sdiv)}; \end{axis} \begin{axis}[ticks=none,very thick, width=0.3\textwidth, yshift=-10em, xshift=-8.5em] \addplot[domain=0:10,smooth] {1/(1+ exp(-2*((-x+5)/1.3)))}; \end{axis} } \end{tikzpicture} \end{frame} \begin{frame} \frametitle{Inferenz} \begin{definition}[Inferenz] Für ein Netz mit Knotenmenge $K = \{X\} \cup E \cup Y$ soll die \alert{Wahrscheinlichkeit} ermittelt werden, dass eine \alert{Variable} $X$ einen Wert annimmt, unter der Bedingung, dass für die \alert{Evidenzvariablen} $E$ die Werte $e$ \alert{beobachtet} werden und die \alert{versteckten Variablen} $Y$ unbekannt sind. $$\Pr[X \mid e] = \Pr[X = x \mid E_1 = e_1, \ldots, E_n = e_n] = \;?$$ \end{definition} Wenn ich abends ein \alert{schlechtes Gewissen} habe, wie groß ist die Wahrscheinlichkeit, dass ich \alert{nicht gelernt} habe? $$\Pr[\neg L \mid G] \approx 0.936$$ \end{frame} \begin{frame} \frametitle{Inferenz durch Aufzählen} \only<1>{% \begin{example}[Bekämpfung des schlechten Gewissens] Wenn ich ein \alert{schlechtes Gewissen} habe werde ich unglücklich. Unglück kann man bekämpfen, indem man sich mit einem \alert{Film} ablenkt oder passend zur Jahreszeit Schokolade aus dem \alert{Adventskalender} isst.\\ Zur Vereinfachung soll der Einfluss des Regens nun \alert{nicht mehr} beachtet werden. \end{example} } \only<2>{% \begin{center} \begin{tikzpicture} \node [net node] (sport) {Sport}; \node [net node] (lernen) [right of = sport] {Lernen}; \node [net node] (gewissen) at ($0.5*(sport.center) + 0.5*(lernen.center) - (0,\netvspace)$) {Gewissen}; \node [net node] (film) at ($(sport.center) - (0,2*\netvspace)$) {Film}; \node [net node] (advent) at ($(lernen.center) - (0,2*\netvspace)$) {Advent}; \foreach \src/\dest in {sport/gewissen, lernen/gewissen, gewissen/film, gewissen/advent} \path [edge] (\src) -- (\dest); \node [net cpt] at ($(lernen.center)+(6em,0)$) {\begin{tabu}{c} $\Pr[L]$ \\ \tabucline{-} $0.2$ \\ \end{tabu}}; \node [net cpt] at ($(film.center)-(7em,0)$) {\begin{tabu}{c|c} G & $\Pr[M]$ \\ \tabucline{-} F & $0.4$ \\ T & $0.75$ \\ \end{tabu}}; \node [net cpt] at ($(advent.center)+(7em,0)$) {\begin{tabu}{c|c} G & $\Pr[A]$ \\ \tabucline{-} F & $0.6$ \\ T & $0.9$ \\ \end{tabu}}; \node [net cpt] at ($(sport.center)-(6em,0)$) {\begin{tabu}{c} $\Pr[S]$ \\ \tabucline{-} $0.4$ \\ \end{tabu}}; \node [net cpt] at ($(gewissen.center)+(7em,0)$) {\begin{tabu}{cc|c} S & L & $\Pr[G]$ \\ \tabucline{-} F & F & $0.8$ \\ F & T & $0.25$ \\ T & F & $0.5$ \\ T & T & $0.1$ \\ \end{tabu}}; \end{tikzpicture} \end{center} } \end{frame} \begin{frame} \frametitle{Inferenz durch Aufzählen} \begin{example} Wie groß ist die Wahrscheinlichkeit, dass ich \alert{ohne Sport} einen \alert{Film} schaue und dabei \alert{Schokolade} esse? \end{example} Aus dem Satz der totalen Wahrscheinlichkeit erhalten wir $$\Pr[X \mid e] = \alpha \Pr[X, e] = \alpha \sum_y \Pr[X, e, y]$$ also \begin{align*} \Pr[\neg S \mid M, A] &= \alpha \sum_g \sum_l \Pr[\neg S, M, A, g, l]\\ &=\alpha \cdot \Pr[\neg S] \cdot \sum_l \Pr[l]\\ &\qquad \cdot \sum_g \Pr[g \mid \neg S, l] \cdot \Pr[M \mid g] \cdot \Pr[A \mid g]\\ &\approx 0.585 \end{align*} \end{frame} \begin{frame}[t] \frametitle{Berechnungsbaum} \begin{tikzpicture}[grow=down] \tikzstyle{every node} = [font=\scriptsize] \tikzstyle{op} = [circular node] \tikzstyle{edge from parent} = [edge] \tikzstyle{level 2} = [sibling distance = 14em] \tikzstyle{level 3} = [sibling distance = 7em] \node[op] {} child { node[op] {+} child { node[op] {+} child { node[op] {} child { node[op] {} child { node [op] {} edge from parent node[left] {$\Pr[A \mid g]$} } edge from parent node[left] {$\Pr[M \mid g]$} } edge from parent node[left] {$\Pr[g \mid \neg S, l]$} } child { node[op] {} child { node[op] {} child { node [op] {} edge from parent node[left] {$\Pr[A \mid \neg g]$} } edge from parent node[left] {$\Pr[M \mid \neg g]$} } edge from parent node[right] {$\Pr[\neg g \mid \neg S, l]$} } edge from parent node[above left] {$\Pr[l]$} } child { node[op] {+} child { node[op] {} child { node[op] {} child { node [op] {} edge from parent node[left] {$\Pr[A \mid g]$} } edge from parent node[left] {$\Pr[M \mid g]$} } edge from parent node[left] {$\Pr[g \mid \neg S, \neg l]$} } child { node[op] {} child { node[op] {} child { node [op] {} edge from parent node[left] {$\Pr[A \mid \neg g]$} } edge from parent node[left] {$\Pr[M \mid \neg g]$} } edge from parent node[right] {$\Pr[\neg g \mid \neg S, \neg l]$} } edge from parent node[above right] {$\Pr[\neg l]$} } edge from parent node[left] {$\Pr[\neg S]$} }; \end{tikzpicture} \end{frame} \begin{frame} \frametitle{Alternative Algorithmen} \begin{itemize} \item Inferenz durch Aufzählen hat \alert{exponentielle} Laufzeit \item Mit dynamischer Programmierung \alert{linear} auf Polytrees \item Aber: Exakte Interferenz ist \alert{NP-vollständig} \end{itemize} \vspace{3em} Alternative: \alert{Approximative Algorithmen} \begin{itemize} \item Direct/Rejection Sampling \item Likelihood weighting \item Markov chain Monte Carlo (MCMC) \end{itemize} \end{frame} \begin{frame} \frametitle{Anwendungen} \begin{itemize} \item Nachmittagsplanung \vspace{.2em} \item Krankheitsdiagnose \vspace{.2em} \item Kriminalitätsbekämpfung \vspace{.2em} \item Genanalyse \vspace{.2em} \item Entscheidungsfindung \end{itemize} \end{frame} \begin{frame} \frametitle{Zusammenfassung} Bayesnetze \ldots \begin{itemize} \item repräsentieren \alert{mehrdimensionale Zufallsvariablen} \item haben eine kompakte Darstellung \item benötigen \alert{Expertenwissen} \item modellieren \alert{Kausalitätszusammenhänge} \item sparen Speicher \item erlauben Inferenz \end{itemize} \end{frame} \end{document}