mirror of
https://github.com/MartinThoma/LaTeX-examples.git
synced 2025-04-19 11:38:05 +02:00
153 lines
5.7 KiB
TeX
153 lines
5.7 KiB
TeX
\documentclass[a4paper,9pt]{scrartcl}
|
|
\usepackage{amssymb, amsmath} % needed for math
|
|
\usepackage[utf8]{inputenc} % this is needed for umlauts
|
|
\usepackage[ngerman]{babel} % this is needed for umlauts
|
|
\usepackage[T1]{fontenc} % this is needed for correct output of umlauts in pdf
|
|
\usepackage[margin=2.0cm]{geometry} %layout
|
|
\usepackage{hyperref} % links im text
|
|
\usepackage{enumerate} % for advanced numbering of lists
|
|
\usepackage{color}
|
|
\usepackage{framed}
|
|
\usepackage{float}
|
|
\usepackage{caption}
|
|
\usepackage{csquotes}
|
|
\usepackage[hang]{subfigure}
|
|
\usepackage[pdftex,final]{graphicx}
|
|
\usepackage{pgfplots}
|
|
\usepackage{tikz}
|
|
\usepackage{tikzscale}
|
|
\usetikzlibrary{shapes, calc, shapes, arrows}
|
|
\DeclareMathOperator{\sigmoid}{sigmoid}
|
|
|
|
\newcommand\titleText{Kreativität im maschinellen Lernen}
|
|
\title{\vspace{-5ex}\titleText\vspace{-7ex}}
|
|
\author{}
|
|
\date{}
|
|
\hypersetup{
|
|
pdfauthor = {Martin Thoma},
|
|
pdfkeywords = {Machine Learning, Art, Creativity},
|
|
pdftitle = {\titleText}
|
|
}
|
|
|
|
\usepackage{fancyhdr}
|
|
\pagestyle{fancy}
|
|
\fancyhead{}
|
|
\fancyfoot{}
|
|
\fancyhead[L]{Referat vom 15.01.2016}
|
|
\fancyhead[R]{Martin Thoma}
|
|
\renewcommand{\headrulewidth}{0.4pt}
|
|
|
|
\makeatletter
|
|
\let\ps@plain\ps@fancy
|
|
\makeatother
|
|
|
|
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
|
|
% Custom definition style, by %
|
|
% http://mathoverflow.net/questions/46583/what-is-a-satisfactory-way-to-format-definitions-in-latex/58164#58164
|
|
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
|
|
\makeatletter
|
|
\newdimen\errorsize \errorsize=0.2pt
|
|
% Frame with a label at top
|
|
\newcommand\LabFrame[2]{%
|
|
\fboxrule=\FrameRule
|
|
\fboxsep=-\errorsize
|
|
\textcolor{FrameColor}{%
|
|
\fbox{%
|
|
\vbox{\nobreak
|
|
\advance\FrameSep\errorsize
|
|
\begingroup
|
|
\advance\baselineskip\FrameSep
|
|
\hrule height \baselineskip
|
|
\nobreak
|
|
\vskip-\baselineskip
|
|
\endgroup
|
|
\vskip 0.5\FrameSep
|
|
\hbox{\hskip\FrameSep \strut
|
|
\textcolor{TitleColor}{\textbf{#1}}}%
|
|
\nobreak \nointerlineskip
|
|
\vskip 1.3\FrameSep
|
|
\hbox{\hskip\FrameSep
|
|
{\normalcolor#2}%
|
|
\hskip\FrameSep}%
|
|
\vskip\FrameSep
|
|
}}%
|
|
}}
|
|
\definecolor{FrameColor}{rgb}{0.25,0.25,1.0}
|
|
\definecolor{TitleColor}{rgb}{1.0,1.0,1.0}
|
|
|
|
\newenvironment{contlabelframe}[2][\Frame@Lab\ (cont.)]{%
|
|
% Optional continuation label defaults to the first label plus
|
|
\def\Frame@Lab{#2}%
|
|
\def\FrameCommand{\LabFrame{#2}}%
|
|
\def\FirstFrameCommand{\LabFrame{#2}}%
|
|
\def\MidFrameCommand{\LabFrame{#1}}%
|
|
\def\LastFrameCommand{\LabFrame{#1}}%
|
|
\MakeFramed{\advance\hsize-\width \FrameRestore}
|
|
}{\endMakeFramed}
|
|
\newcounter{definition}
|
|
\newenvironment{definition}[1]{%
|
|
\par
|
|
\refstepcounter{definition}%
|
|
\begin{contlabelframe}{Definition \thedefinition:\quad #1}
|
|
\noindent\ignorespaces}
|
|
{\end{contlabelframe}}
|
|
\makeatother
|
|
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
|
|
% Begin document %
|
|
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
|
|
\begin{document}
|
|
\maketitle
|
|
\begin{definition}{Machine Learning (ML) nach Tom Mitchell}
|
|
A computer program is said to learn from \textbf{experience}~$\mathbf{E}$ with
|
|
respect to some class of \textbf{tasks}~$\mathbf{T}$ and \textbf{performance
|
|
measure}~$\mathbf{P}$, if its performance at tasks in~$T$, as measured by~$P$,
|
|
improves with experience~$E$.
|
|
\end{definition}
|
|
|
|
\begin{figure}[H]
|
|
\centering
|
|
\subfigure[Aufbau eines künstlichen Neurons. Die Eingabesignale werden mit $x_i \in \mathbb{R}$ bezeichnet; $w_i \in \mathbb{R}$ heißen \textit{Gewichte} und müssen gelernt werden. Jedes Eingabesignal wird mit seinem Gewicht multipliziert. Die Produkte werden aufsummiert. Dann wird die sog. \textit{Aktivierungsfuntkion} $i$ angewendet.]{
|
|
\label{fig:artificial-neuron}
|
|
\includegraphics[width=0.45\linewidth]{neuron.tikz}
|
|
}%
|
|
\subfigure[Eine einfaches Feed-Forward Neuronales Netz. Die 5~Eingabeneuronen sind rot, die 2~Bias-Neuronen sind Grau, die 3~Hidden-Neuronen sind Grün und das einzelne Ausgabeneuron ist Blau. Dieses 3-schichtige Modell hat $6 \cdot 4 + 4 \cdot 1 = 28$ Kanten. Für jede Kante muss ein Gewicht $w_{ij} \in \mathbb{R}$ gelernt werden.]{
|
|
\label{fig:feed-forward-nn}
|
|
\includegraphics[width=0.45\linewidth]{feed-forward-nn.tikz}
|
|
}
|
|
|
|
\subfigure[Beispiele für Aktivierungsfuntkionen $\varphi: \mathbb{R} \rightarrow \mathbb{R}$]{
|
|
\label{fig:artificial-neuron}
|
|
\includegraphics[width=0.9\linewidth]{activation-functions.tikz}
|
|
}%
|
|
|
|
\caption{Neuronale Netze basieren auf einfachen Einheiten, welche zu komplexen Netzwerken verschaltet werden können. Diese können mittels \textit{Gradientenabstieg} automatisch trainiert werden.}
|
|
\label{fig:neural-style}
|
|
\end{figure}
|
|
|
|
\begin{definition}{Convolutional Neural Network (CNN)}
|
|
Ein CNN ist ein neuronales Netz, welches keine vollverbundenen Schichten hat
|
|
sondern die Gewichte von Bildfiltern lernt.
|
|
\end{definition}
|
|
|
|
\begin{definition}{Rekurrentes Neuronale Netz (RNN)}
|
|
Ein RNN ist ein neuronales Netz, welches Kanten hat, die zeitlich versetzt
|
|
wieder als Eingabe genutzt werden.
|
|
\end{definition}
|
|
|
|
CNNs können sehr effektiv für Bilder eingesetzt werden, RNNs können zur
|
|
Behandlung von Sequenzen verwendet werden. Insbesondere können beliebig lange
|
|
Eingabesequenzen genutzt werden und unabhängig von der Eingabe beliebig lange
|
|
Ausgaben erzeugt werden.
|
|
|
|
\begin{definition}{Google DeepDream}
|
|
Google DeepDream ist eine Abwandlung einer Technik zur Analyse der gelernten
|
|
Gewichte.
|
|
\end{definition}
|
|
|
|
\section*{Quellen}
|
|
Alle Quellen und eine detailierte Beschreibung der Verfahren sind unter\\
|
|
\url{https://github.com/MartinThoma/seminar-art-in-machine-learning} sowie im arXiv unter\\
|
|
\enquote{Creativity in Machine Learning} --- \url{http://arxiv.org/abs/1601.03642} ---
|
|
zu finden.
|
|
|
|
\end{document}
|