changeset 58:861587bd5759

add introduction
author Markus Kaiser <markus.kaiser@in.tum.de>
date Sat, 08 Dec 2012 21:41:32 +0100
parents d4c60e26369b
children 564988e2790c
files bayesian_networks/presentation.tex
diffstat 1 files changed, 207 insertions(+), 29 deletions(-) [+]
line wrap: on
line diff
--- a/bayesian_networks/presentation.tex	Sat Dec 08 17:51:32 2012 +0100
+++ b/bayesian_networks/presentation.tex	Sat Dec 08 21:41:32 2012 +0100
@@ -1,12 +1,13 @@
-\documentclass[compress]{beamer}
+\documentclass[compress, german]{beamer}
 %,hyperref={pdfpagelabels=false}
 
 \usepackage[ngerman,english]{babel}
+\uselanguage{German}
+\languagepath{German}
+
 \usepackage[T1]{fontenc}
 \usepackage[utf8]{inputenc}
-\usepackage{amsmath}
-\usepackage{amsthm}
-\usepackage{amsfonts}
+
 \usepackage{helvet}
 \usepackage{url}
 \usepackage{listings}
@@ -14,6 +15,8 @@
 \usepackage{xspace} % Abstand hinter Variablennamen
 \usepackage{fix-cm}
 \usepackage{tikz}
+\usepackage{tabu}
+
 %\usepackage[square, sort, numbers, authoryear]{natbib}
 \usepackage{todonotes}
 \presetkeys{todonotes}{inline}{}
@@ -47,9 +50,6 @@
 \pgfdeclarelayer{background}
 \pgfdeclarelayer{midground}
 \pgfsetlayers{background,midground,main}
-\tikzstyle{vertex}=[circle,draw,fill=blue!25,minimum size=20pt,inner sep=0pt]
-\tikzstyle{selected vertex} = [vertex, fill=red!50]
-\tikzstyle{small vertex} = [vertex, minimum size=12pt]
 \tikzstyle{edge} = [draw,thick,-]
 \tikzstyle{tree edge} = [draw,very thick,->]
 \tikzstyle{left edge} = [draw,thick,->, blue]
@@ -57,6 +57,12 @@
 \tikzstyle{back edge} = [draw,dashed,arrows={-latex}]
 \tikzstyle{selected edge} = [draw,line width=5pt,-,red!50]
 
+\tikzstyle{net node} = [ellipse, draw, thick, fill=tumblue!20,
+						minimum width=6em, minimum height=2em,
+						node distance=9em]
+\tikzstyle{net cpt} = [draw, thick, fill = tumgreen!20,
+						font=\scriptsize, node distance=3em,
+					 	inner xsep = 0, inner ysep = 2pt]
 
 \title{Bayesnetze}
 \subtitle{Seminar ``Kognitive Robotik''}
@@ -89,49 +95,221 @@
 %  \tableofcontents
 %\end{frame}
 
-\begin{frame}
+\begin{frame}[t]
 	\frametitle{Motivation}
-	\todo{Unsicheres Wissen}
-	\todo{Aussagenlogik}
-	\todo{Einführen von Wahrscheinlichkeiten}
-	\todo{Medizinbeispiel}
+	Wissen ist selten \alert{sicher} oder vollständig.
+	
+	\vspace{1em}
+
+	\begin{example} [Medizinische Diagnose]
+		Software soll mögliche Ursachen für Beschwerden finden.
+		\begin{center}
+		\begin{columns}[c]
+		\begin{column}{.35\textwidth}
+		\begin{itemize}
+			\item Vorgeschichte
+			\item Symptome
+			\item Testergebnisse
+		\end{itemize}		
+		\end{column}
+		\begin{column}{.10\textwidth}
+		\begin{figure}
+			\begin{tikzpicture}[auto]
+				\useasboundingbox (0, 0.5) rectangle (1, -0.5);
+				\draw[->, >=latex, line width=.35em, black!75] (0,0) -- (1,0);
+			\end{tikzpicture}
+		\end{figure}	
+		\end{column}
+		\begin{column}{.35\textwidth}
+		\begin{itemize}
+			\item Diagnose
+			\item Therapie
+		\end{itemize}		
+		\end{column}				
+		\end{columns}
+		\end{center}
+	\end{example}
+	
+	Mögliche Unsicherheiten
+	\begin{itemize}
+		\item Vorgeschichte \alert{unvollständig}, Symptome \alert{vage}
+		\item Symptome und Tests lassen mehrere \alert{Alternativen} zu
+		\item Das Wissen ist \alert{fehlerbehaftet}
+	\end{itemize}
 \end{frame}
 
 \begin{frame}
+	\frametitle{Aussagenlogik}
+	
+	\todo{Erschlagen durch Aussagenlogik}
+	\todo{Klappt nicht mit Unsicherheit}
+\end{frame}
+
+\begin{frame}[c]
 	\frametitle{Wahrscheinlichkeitstheorie}
-	\todo{Wahrscheinlichkeitsraum, Ereignisse, Dichtefunktion}
-	\todo{Bedingte Wahrscheinlichkeit, "Alpha"}
-	\todo{Unabhängigkeit, Bedingte Unabhängigkeit}
+	
+	\begin{definition}[Wahrscheinlichkeitsraum]
+	Ein \alert{Wahrscheinlichkeitsraum} $P$ besteht aus einer Menge von \alert{Elementarereignissen} $\Omega$, \alert{Ereignissen} $A$ und einem \alert{Wahrscheinlichkeitsmaß} $\Pr$.
+	
+	\begin{itemize}
+		\item $A$ ist $\sigma$-Algebra über $\Omega$
+		\item $\Pr : A \mapsto [0,1]$
+		\item $P = (\Omega, A, \Pr)$
+		
+		\vspace{1em}
+		
+ 		\item $\Pr[\Omega] = 1$
+ 		\item $A \cap B = \emptyset \Rightarrow \Pr[A \cup B] = \Pr[A] + \Pr[B]$
+	\end{itemize}
+	\end{definition}
 \end{frame}
 
 \begin{frame}
 	\frametitle{Wahrscheinlichkeitstheorie}
-	\todo{Produktsatz}
-	\todo{Satz über die vollständige Wahrscheinlichkeit}
+	
+	\begin{definition}[Bedingte Wahrscheinlichkeit]
+		A und B seien Ereignisse mit $\Pr[B] > 0$. Die \alert{bedingte Wahrscheinlichkeit} von A unter der Bedingung B ist dann
+			$$\Pr[A\mid B] = \frac{\Pr[A \cap B]}{\Pr[B]}$$
+	\end{definition}
+	
+	\begin{definition}[Unabhängigkeit]
+		Zwei Ereignisse A und B sind \alert{unabhängig} wenn gilt
+		$$\Pr[A \cap B] = \Pr[A] \cdot \Pr[B] = \Pr[A \mid B] \cdot \Pr[B]$$
+	\end{definition}
 \end{frame}
 
-\begin{frame}
-	\frametitle{Satz von Bayes}
-	\todo{Satz von Bayes}
-	\todo{Beispiel}
+\begin{frame}[c]
+	\frametitle{Wahrscheinlichkeitstheorie}
+	
+	\begin{theorem}[Produktsatz]
+		Für unabhängige Ereignisse $A_i$ gilt
+		
+		$$\Pr\left[ \bigcap_{i=1}^n A_i \right] =
+		 \prod_{i=1}^n \Pr \left[ A_i \left| \bigcup_{k=1}^{i-1} \right.\right]$$
+	\end{theorem}
+	Also zum Beispiel
+	$$\Pr[A,B,C] = \Pr[A \mid B, C] \cdot \Pr[B \mid C] \cdot \Pr[B]$$
+	und
+	$$\Pr[A \mid B] = \frac{\Pr[A, B]}{\Pr[B]} = \alert{\alpha} \cdot \Pr[A,B]$$
 \end{frame}
 
-\begin{frame}
-	\frametitle{Mehrdimensionales}
-	\todo{Allgemeine Dichtefunktion}
-	\todo{Joint Distribution (+ Probleme)}
-	\todo{Mit Unabhängigkeit}
+\begin{frame}[c]
+	\frametitle{Wahrscheinlichkeitstheorie}
+	
+	\begin{theorem}[Satz über die totale Wahrscheinlichkeit]
+		Sind die Ereignisse $A_i$ paarweise disjunkt und möglich, dann gilt für ein Ereignis $B$ mit $\Pr[B] > 0$
+		$$\Pr[B] = \sum_{i=1}^n \Pr[B \mid A_i] \cdot \Pr[A_i]$$
+	\end{theorem}
+	
+	\begin{theorem} [Satz von Bayes]
+		Für zwei Ereignisse $A$ und $B$ mit $\Pr[B] > 0$ ist
+		$$\Pr[A \mid B] = \frac{\Pr[B \mid A] \cdot \Pr[A]}{\Pr[B]}$$
+	\end{theorem}
 \end{frame}
 
 \begin{frame}
 	\frametitle{Unabhängiges Beispiel}
-	\todo{Beispiel: Tagesablauf}
-	\todo{Situationsbeschreibung, Medizin?}
-	\todo{Beispielrechnung}
+	
+	\begin{example}[Nachmittagsplanung]
+		Ich habe einen Nachmittag lang Zeit. Ich könnte \alert{Lebensmittel kaufen}, \alert{Sport machen} oder \alert{Lernen}. Ich habe genug Zeit für alle drei. Da ich ein sehr unentschlossener Mensch bin \alert{würfle} ich mittags - als echter Informatiker - mit einem \alert{W20}.
+	\end{example}
+	
+	\vspace{2em}	
+	
+	\begin{figure}
+	\begin{tikzpicture}
+		\node [net node] (sport) {Sport};	
+		\node [net cpt] [below of = sport]
+		{\begin{tabu}{c}
+		$\Pr[S]$ \\ 	\tabucline{-} 
+		$0.4$ \\ 
+		\end{tabu}};
+		
+		\node [net node] (kaufen) [left of = sport] {Kaufen};
+		\node [net cpt] [below of = kaufen]
+		{\begin{tabu}{c}
+		$\Pr[K]$ \\ 	\tabucline{-} 
+		$0.5$ \\ 
+		\end{tabu}};
+				
+		\node [net node] (lernen) [right of = sport] {Lernen};
+		\node [net cpt] [below of = lernen]
+		{\begin{tabu}{c}
+		$\Pr[L]$ \\ 	\tabucline{-} 
+		$0.2$ \\ 
+		\end{tabu}};	
+	\end{tikzpicture}	
+	\end{figure} 
+\end{frame}
+
+\begin{frame}[t]
+	\frametitle{Unabhängiges Beispiel}
+	
+	\begin{figure}
+	\begin{tikzpicture}
+		\node [net node] (sport) {Sport};	
+		\node [net cpt] [below of = sport]
+		{\begin{tabu}{c}
+		$\Pr[S]$ \\ 	\tabucline{-} 
+		$0.4$ \\ 
+		\end{tabu}};
+		
+		\node [net node] (kaufen) [left of = sport] {Kaufen};
+		\node [net cpt] [below of = kaufen]
+		{\begin{tabu}{c}
+		$\Pr[K]$ \\ 	\tabucline{-} 
+		$0.5$ \\ 
+		\end{tabu}};
+				
+		\node [net node] (lernen) [right of = sport] {Lernen};
+		\node [net cpt] [below of = lernen]
+		{\begin{tabu}{c}
+		$\Pr[L]$ \\ 	\tabucline{-} 
+		$0.2$ \\ 
+		\end{tabu}};	
+	\end{tikzpicture}	
+	\end{figure}
+
+	\vspace{1em}	
+	\only<1>{
+	Wie groß ist die Wahrscheinlichkeit,
+	\vspace{1em}
+	\begin{itemize}
+	\item dass ich \alert{lerne}, \alert{einkaufen} gehe, aber \alert{keinen Sport} mache?
+	$$\Pr[K, \neg S, L] = \Pr[K] \cdot \Pr[\neg S] \cdot \Pr[L] = 0.5 \cdot 0.6 \cdot 0.2 = 0.06$$
+	
+	\item dass ich \alert{nicht lerne}, aber \alert{Sport mache}?
+	$$\Pr[S, \neg L] = \sum_k \Pr[k] \cdot \Pr[S] \cdot \Pr[\neg L] = \Pr[S] \cdot \Pr[\neg L] = 0.32$$
+	\end{itemize}
+	}
+	
+	\only<2>{
+	\begin{itemize}
+	\item Alle möglichen Belegungen lassen sich in einer gemeinsamen Verteilung (joint distribution) darstellen.
+	\item Für \alert{$n$} binäre Zufallsgrößen hat diese aber \alert{$2^n$} Einträge.
+	\end{itemize}
+	
+	\begin{center}
+	\begin{tabu}{|ccc|[2pt]c||ccc|[2pt]c|}
+	\hline
+	K & S & L & $\Pr$ & K & S & L & $\Pr$ \\
+	\tabucline[2pt]{-}
+	f & f & f & 0.24 & t & f & f & 0.24 \\  
+	\hline 
+	f & f & t & 0.06 & t & f & t & 0.06 \\
+	\hline 
+	f & t & f & 0.16 & t & t & f & 0.16 \\ 
+	\hline 
+	f & t & t & 0.04 & t & t & t & 0.04 \\ 
+	\hline 
+	\end{tabu} 
+	\end{center}
+	}
 \end{frame}
 
 \begin{frame}
 	\frametitle{Abhängigkeiten}
+	
 	\todo{Eine weitere Größe die alles kaputt macht}
 	\todo{Bedingte Unabhängigkeit}
 \end{frame}