mirror of
https://github.com/MartinThoma/LaTeX-examples.git
synced 2025-04-19 11:38:05 +02:00
The commands find . -type f -name '*.md' -exec sed --in-place 's/[[:space:]]\+$//' {} \+ and find . -type f -name '*.tex' -exec sed --in-place 's/[[:space:]]\+$//' {} \+ were used to do so.
147 lines
5.9 KiB
TeX
147 lines
5.9 KiB
TeX
\documentclass[a5paper,9pt]{scrartcl}
|
|
\usepackage{amssymb, amsmath} % needed for math
|
|
\usepackage[utf8]{inputenc} % this is needed for umlauts
|
|
\usepackage[ngerman]{babel} % this is needed for umlauts
|
|
\usepackage[T1]{fontenc} % this is needed for correct output of umlauts in pdf
|
|
% \usepackage[margin=2.5cm]{geometry} %layout
|
|
\usepackage{hyperref} % links im text
|
|
\usepackage{color}
|
|
\usepackage{framed}
|
|
\usepackage{parskip}
|
|
\usepackage{braket} % needed for \Set
|
|
\usepackage{enumerate} % for advanced numbering of lists
|
|
\usepackage{minted} % needed for the inclusion of source code
|
|
\clubpenalty = 10000 % Schusterjungen verhindern
|
|
\widowpenalty = 10000 % Hurenkinder verhindern
|
|
|
|
\hypersetup{
|
|
pdfauthor = {Martin Thoma},
|
|
pdfkeywords = {ASR},
|
|
pdftitle = {Entropie-Distanz von Martin Thoma}
|
|
}
|
|
|
|
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
|
|
% Custom definition style, by %
|
|
% http://mathoverflow.net/questions/46583/what-is-a-satisfactory-way-to-format-definitions-in-latex/58164#58164
|
|
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
|
|
\makeatletter
|
|
\newdimen\errorsize \errorsize=0.2pt
|
|
% Frame with a label at top
|
|
\newcommand\LabFrame[2]{%
|
|
\fboxrule=\FrameRule
|
|
\fboxsep=-\errorsize
|
|
\textcolor{FrameColor}{%
|
|
\fbox{%
|
|
\vbox{\nobreak
|
|
\advance\FrameSep\errorsize
|
|
\begingroup
|
|
\advance\baselineskip\FrameSep
|
|
\hrule height \baselineskip
|
|
\nobreak
|
|
\vskip-\baselineskip
|
|
\endgroup
|
|
\vskip 0.5\FrameSep
|
|
\hbox{\hskip\FrameSep \strut
|
|
\textcolor{TitleColor}{\textbf{#1}}}%
|
|
\nobreak \nointerlineskip
|
|
\vskip 1.3\FrameSep
|
|
\hbox{\hskip\FrameSep
|
|
{\normalcolor#2}%
|
|
\hskip\FrameSep}%
|
|
\vskip\FrameSep
|
|
}}%
|
|
}}
|
|
\definecolor{FrameColor}{rgb}{0.25,0.25,1.0}
|
|
\definecolor{TitleColor}{rgb}{1.0,1.0,1.0}
|
|
|
|
\newenvironment{contlabelframe}[2][\Frame@Lab\ (cont.)]{%
|
|
% Optional continuation label defaults to the first label plus
|
|
\def\Frame@Lab{#2}%
|
|
\def\FrameCommand{\LabFrame{#2}}%
|
|
\def\FirstFrameCommand{\LabFrame{#2}}%
|
|
\def\MidFrameCommand{\LabFrame{#1}}%
|
|
\def\LastFrameCommand{\LabFrame{#1}}%
|
|
\MakeFramed{\advance\hsize-\width \FrameRestore}
|
|
}{\endMakeFramed}
|
|
\newcounter{definition}
|
|
\newenvironment{definition}[1]{%
|
|
\par
|
|
\refstepcounter{definition}%
|
|
\begin{contlabelframe}{Definition \thedefinition:\quad #1}
|
|
\noindent\ignorespaces}
|
|
{\end{contlabelframe}}
|
|
\makeatother
|
|
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
|
|
% Begin document %
|
|
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
|
|
\begin{document}
|
|
\section{Entropie-Distanz}
|
|
|
|
\begin{definition}{Entropie}
|
|
Sei $\Omega := \Set{z_1, z_2, \dots, z_n}$ eine endliche Zeichenmenge und
|
|
$X: Z \rightarrow \mathbb{R}$ eine Zufallsvariable über dem Wahrscheinlichkeitsraum
|
|
$(\Omega, \mathbb{P})$. Dann heißt
|
|
\[H_1 = - \sum_{z \in \Omega} \mathbb{P}(z) \log_2 (\mathbb{P}(z))\]
|
|
\textbf{Entropie}.
|
|
\end{definition}
|
|
|
|
Die Entropie wird maximal bei Gleichverteilung, also bei $P(z_i) = \frac{1}{|\Omega|}$.
|
|
Dann gilt: $H = \log_2 |\Omega|$. Entsprechend wird die Entropie normiert,
|
|
indem durch $\log_2 |\Omega|$ geteilt wird:
|
|
\[H_{Norm} = \frac{H}{\log_2 |\Omega|}\]
|
|
Der Wertebereich der normierten Entropie $H_{Norm}$ ist $[0, 1]$.
|
|
|
|
\begin{definition}{Gewichtete Entropiedistanz}
|
|
Seien $d_1, d_2$ disktrete Wahrscheinlichkeitsverteilung über $(\Omega, P)$,
|
|
die mit $n_1, n_2 \in \mathbb{N}_0$ Daten geschätzt wurden.
|
|
|
|
Dann ist die \textbf{gewichtete Entropiedistanz} von $d_1$ und $d_2$ definiert durch
|
|
\[H_{dist}(d_1, d_2) := \left |\frac{n_1}{n_1+n_2} H(d_1) - \frac{n_2}{n_1+n_2} H(d_2) \right|\]
|
|
\end{definition}
|
|
|
|
Die folgenden Zeilen erstellen folgende Objekte:
|
|
\begin{itemize}
|
|
\item \verb+FeatureSet+: Das FeatureSet macht die Signalverarbeitung im
|
|
Janus Spracherkenner. Das FeatureSet beinhaltet Objekte vom Typ
|
|
\verb+SVector+ oder \verb+FMatrix+.
|
|
\item \verb+CodebookSet+: Eine Menge von Codebooks. Jedes Codebook stellt
|
|
eine Gauß-Verteilung dar. Ein Codebook wird vollständig durch seine
|
|
Kovarianzmatrix und den Mittelwertsvektor beschrieben.
|
|
\item \verb+DistribSet+: Eine Menge von Gauß-Mixturen. Jede Mixtur verweist
|
|
auf eine Menge von $n$ Codebooks (Gauß-Verteilungen) und gewichtet diese
|
|
mit reelen Zahlen $c_i \in \mathbb{R}$. Damit dies wiederum eine
|
|
Gauß-Verteilung ergibt, muss jedes Gewicht nicht-negativ sein und die
|
|
Summe $\sum_{i=1}^n c_i = 1$ ergeben.
|
|
\end{itemize}
|
|
\inputminted[linenos, numbersep=5pt, tabsize=4]{tcl}{step1.tcl}
|
|
|
|
Der Befehl in Zeile~1 erzeugt das \verb+CodebookSet+ und fügt ein Codebook mit
|
|
dem Namen \verb+cb+, dem Feature-Space namen \verb+dummy+, 2~Referenzvektoren
|
|
in einem 1-dimensionalen Feature-Raum hinzu.
|
|
|
|
Die Gauß-Mixtur \verb+ds1+ gewichtet den ersten Referenzvektor mit $c_1 = 0.3$
|
|
und den zweiten mit $c_2 = 0.7$. Für diese Gauß-Mixtur gibt es 2~Trainingsdaten
|
|
|
|
Die Entropie der Verteilungen ist:\nobreak
|
|
\begin{align*}
|
|
H_1(ds1) &= -(0.3 \cdot \log_2 0.3 + 0.7 \cdot \log_2 0.7) \approx 0.88\\
|
|
H_1(ds2) &= -(0.4 \cdot \log_2 0.4 + 0.6 \cdot \log_2 0.6) \approx 0.97\\
|
|
H_1(ds3) &= -(0.8 \cdot \log_2 0.8 + 0.2 \cdot \log_2 0.2) \approx 0.72
|
|
\end{align*}
|
|
|
|
Nun gilt:
|
|
|
|
\begin{align*}
|
|
H_{dist}(ds1, ds2) &\approx |\frac{2}{5} \cdot 0.88 - \frac{3}{5} \cdot 0.97| = 0.23\\
|
|
H_{dist}(ds1, ds3) &\approx |\frac{2}{5} \cdot 0.88 - \frac{3}{5} \cdot 0.72| = 0.08\\
|
|
H_{dist}(ds2, ds3) &\approx |\frac{1}{2} \cdot 0.97 - \frac{1}{2} \cdot 0.72| = 0.125\\
|
|
\end{align*}
|
|
|
|
Da \verb+ds1+ und \verb+ds3+ die geringste Distanz haben, sind sie sich nach
|
|
dem Entropiedistanzmaß am Ähnlichsten. Die Zusammenlegung dieser beiden
|
|
Verteilungen richtet also den geringsten Schaden an.
|
|
|
|
\textbf{Antwort für Teilaufgabe c}: Das Modell \verb+E(S|Y)-b+ ist sich selbst
|
|
am ähnlichsten.
|
|
|
|
\end{document}
|