2
0
Fork 0
mirror of https://github.com/MartinThoma/LaTeX-examples.git synced 2025-04-19 11:38:05 +02:00
LaTeX-examples/documents/handout-art-in-ml/handout-art-in-ml.tex
2016-03-07 12:43:10 +01:00

153 lines
5.7 KiB
TeX

\documentclass[a4paper,9pt]{scrartcl}
\usepackage{amssymb, amsmath} % needed for math
\usepackage[utf8]{inputenc} % this is needed for umlauts
\usepackage[ngerman]{babel} % this is needed for umlauts
\usepackage[T1]{fontenc} % this is needed for correct output of umlauts in pdf
\usepackage[margin=2.0cm]{geometry} %layout
\usepackage{hyperref} % links im text
\usepackage{enumerate} % for advanced numbering of lists
\usepackage{color}
\usepackage{framed}
\usepackage{float}
\usepackage{caption}
\usepackage{csquotes}
\usepackage[hang]{subfigure}
\usepackage[pdftex,final]{graphicx}
\usepackage{pgfplots}
\usepackage{tikz}
\usepackage{tikzscale}
\usetikzlibrary{shapes, calc, shapes, arrows}
\DeclareMathOperator{\sigmoid}{sigmoid}
\newcommand\titleText{Kreativität im maschinellen Lernen}
\title{\vspace{-5ex}\titleText\vspace{-7ex}}
\author{}
\date{}
\hypersetup{
pdfauthor = {Martin Thoma},
pdfkeywords = {Machine Learning, Art, Creativity},
pdftitle = {\titleText}
}
\usepackage{fancyhdr}
\pagestyle{fancy}
\fancyhead{}
\fancyfoot{}
\fancyhead[L]{Referat vom 15.01.2016}
\fancyhead[R]{Martin Thoma}
\renewcommand{\headrulewidth}{0.4pt}
\makeatletter
\let\ps@plain\ps@fancy
\makeatother
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Custom definition style, by %
% http://mathoverflow.net/questions/46583/what-is-a-satisfactory-way-to-format-definitions-in-latex/58164#58164
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\makeatletter
\newdimen\errorsize \errorsize=0.2pt
% Frame with a label at top
\newcommand\LabFrame[2]{%
\fboxrule=\FrameRule
\fboxsep=-\errorsize
\textcolor{FrameColor}{%
\fbox{%
\vbox{\nobreak
\advance\FrameSep\errorsize
\begingroup
\advance\baselineskip\FrameSep
\hrule height \baselineskip
\nobreak
\vskip-\baselineskip
\endgroup
\vskip 0.5\FrameSep
\hbox{\hskip\FrameSep \strut
\textcolor{TitleColor}{\textbf{#1}}}%
\nobreak \nointerlineskip
\vskip 1.3\FrameSep
\hbox{\hskip\FrameSep
{\normalcolor#2}%
\hskip\FrameSep}%
\vskip\FrameSep
}}%
}}
\definecolor{FrameColor}{rgb}{0.25,0.25,1.0}
\definecolor{TitleColor}{rgb}{1.0,1.0,1.0}
\newenvironment{contlabelframe}[2][\Frame@Lab\ (cont.)]{%
% Optional continuation label defaults to the first label plus
\def\Frame@Lab{#2}%
\def\FrameCommand{\LabFrame{#2}}%
\def\FirstFrameCommand{\LabFrame{#2}}%
\def\MidFrameCommand{\LabFrame{#1}}%
\def\LastFrameCommand{\LabFrame{#1}}%
\MakeFramed{\advance\hsize-\width \FrameRestore}
}{\endMakeFramed}
\newcounter{definition}
\newenvironment{definition}[1]{%
\par
\refstepcounter{definition}%
\begin{contlabelframe}{Definition \thedefinition:\quad #1}
\noindent\ignorespaces}
{\end{contlabelframe}}
\makeatother
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
% Begin document %
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{document}
\maketitle
\begin{definition}{Machine Learning (ML) nach Tom Mitchell}
A computer program is said to learn from \textbf{experience}~$\mathbf{E}$ with
respect to some class of \textbf{tasks}~$\mathbf{T}$ and \textbf{performance
measure}~$\mathbf{P}$, if its performance at tasks in~$T$, as measured by~$P$,
improves with experience~$E$.
\end{definition}
\begin{figure}[H]
\centering
\subfigure[Aufbau eines künstlichen Neurons. Die Eingabesignale werden mit $x_i \in \mathbb{R}$ bezeichnet; $w_i \in \mathbb{R}$ heißen \textit{Gewichte} und müssen gelernt werden. Jedes Eingabesignal wird mit seinem Gewicht multipliziert. Die Produkte werden aufsummiert. Dann wird die sog. \textit{Aktivierungsfuntkion} $i$ angewendet.]{
\label{fig:artificial-neuron}
\includegraphics[width=0.45\linewidth]{neuron.tikz}
}%
\subfigure[Eine einfaches Feed-Forward Neuronales Netz. Die 5~Eingabeneuronen sind rot, die 2~Bias-Neuronen sind Grau, die 3~Hidden-Neuronen sind Grün und das einzelne Ausgabeneuron ist Blau. Dieses 3-schichtige Modell hat $6 \cdot 4 + 4 \cdot 1 = 28$ Kanten. Für jede Kante muss ein Gewicht $w_{ij} \in \mathbb{R}$ gelernt werden.]{
\label{fig:feed-forward-nn}
\includegraphics[width=0.45\linewidth]{feed-forward-nn.tikz}
}
\subfigure[Beispiele für Aktivierungsfuntkionen $\varphi: \mathbb{R} \rightarrow \mathbb{R}$]{
\label{fig:artificial-neuron}
\includegraphics[width=0.9\linewidth]{activation-functions.tikz}
}%
\caption{Neuronale Netze basieren auf einfachen Einheiten, welche zu komplexen Netzwerken verschaltet werden können. Diese können mittels \textit{Gradientenabstieg} automatisch trainiert werden.}
\label{fig:neural-style}
\end{figure}
\begin{definition}{Convolutional Neural Network (CNN)}
Ein CNN ist ein neuronales Netz, welches keine vollverbundenen Schichten hat
sondern die Gewichte von Bildfiltern lernt.
\end{definition}
\begin{definition}{Rekurrentes Neuronale Netz (RNN)}
Ein RNN ist ein neuronales Netz, welches Kanten hat, die zeitlich versetzt
wieder als Eingabe genutzt werden.
\end{definition}
CNNs können sehr effektiv für Bilder eingesetzt werden, RNNs können zur
Behandlung von Sequenzen verwendet werden. Insbesondere können beliebig lange
Eingabesequenzen genutzt werden und unabhängig von der Eingabe beliebig lange
Ausgaben erzeugt werden.
\begin{definition}{Google DeepDream}
Google DeepDream ist eine Abwandlung einer Technik zur Analyse der gelernten
Gewichte.
\end{definition}
\section*{Quellen}
Alle Quellen und eine detailierte Beschreibung der Verfahren sind unter\\
\url{https://github.com/MartinThoma/seminar-art-in-machine-learning} sowie im arXiv unter\\
\enquote{Creativity in Machine Learning} --- \url{http://arxiv.org/abs/1601.03642} ---
zu finden.
\end{document}