diff --git a/doc/Grundlagen_des_maschinellen_lernens.log b/doc/Grundlagen_des_maschinellen_lernens.log index 6cf54b7..e987508 100644 --- a/doc/Grundlagen_des_maschinellen_lernens.log +++ b/doc/Grundlagen_des_maschinellen_lernens.log @@ -1,4 +1,4 @@ -This is pdfTeX, Version 3.14159265-2.6-1.40.20 (TeX Live 2019/Debian) (preloaded format=pdflatex 2020.1.22) 27 JAN 2020 15:58 +This is pdfTeX, Version 3.14159265-2.6-1.40.20 (TeX Live 2019/Debian) (preloaded format=pdflatex 2020.1.22) 27 JAN 2020 16:04 entering extended mode restricted \write18 enabled. %&-line parsing enabled. @@ -1681,33 +1681,34 @@ Underfull \hbox (badness 10000) in paragraph at lines 449--532 [] [20 <../graphics/MaxpoolSample2.png> <../graphics/Average-pooling-example.png>] - -Package hyperref Warning: Token not allowed in a PDF string (PDFDocEncoding): -(hyperref) removing `\newline' on input line 537. - - -Package hyperref Warning: Token not allowed in a PDF string (PDFDocEncoding): -(hyperref) removing `\newline' on input line 542. - [21 <../graphics/mnist_5/conv_pool/upper_horiz_pooled.png> <../graphics/mnist_5 /conv_pool/left_vert_pooled.png> <../graphics/mnist_5/conv_pool/lower_horiz_poo led.png> <../graphics/mnist_5/conv_pool/right_vert_pooled.png> <../graphics/mni st_5/conv_pool/upper_horiz_avgpooled.png> <../graphics/mnist_5/conv_pool/left_v ert_avgpooled.png> <../graphics/mnist_5/conv_pool/lower_horiz_avgpooled.png> <. -./graphics/mnist_5/conv_pool/right_vert_avgpooled.png>] [22] -Underfull \hbox (badness 10000) in paragraph at lines 559--563 +./graphics/mnist_5/conv_pool/right_vert_avgpooled.png>] + +Package hyperref Warning: Token not allowed in a PDF string (PDFDocEncoding): +(hyperref) removing `\newline' on input line 538. + + +Package hyperref Warning: Token not allowed in a PDF string (PDFDocEncoding): +(hyperref) removing `\newline' on input line 543. + +[22] +Underfull \hbox (badness 10000) in paragraph at lines 560--564 \T1/LinuxBiolinumT-TLF/m/n/10 Quelle: https://towardsdatascience.com/common-los s-functions-in-machine- [] -Underfull \hbox (badness 10000) in paragraph at lines 564--568 +Underfull \hbox (badness 10000) in paragraph at lines 565--569 \T1/LinuxBiolinumT-TLF/m/n/10 https://www.bloomberg.com/news/articles/2019-12-1 1/face-recognition-tech- [] -Underfull \hbox (badness 10000) in paragraph at lines 569--573 +Underfull \hbox (badness 10000) in paragraph at lines 570--574 \T1/LinuxBiolinumT-TLF/m/n/10 https://www.technologyreview.com/f/614986/ai-face -recognition-racist-us- [] @@ -1735,11 +1736,11 @@ p/Max-pooling_/_Pooling \openout7 = `Grundlagen_des_maschinellen_lernens.lof'. [24] -Package atveryend Info: Empty hook `BeforeClearDocument' on input line 575. -Package atveryend Info: Empty hook `AfterLastShipout' on input line 575. +Package atveryend Info: Empty hook `BeforeClearDocument' on input line 576. +Package atveryend Info: Empty hook `AfterLastShipout' on input line 576. (./Grundlagen_des_maschinellen_lernens.aux) -Package atveryend Info: Executing hook `AtVeryEndDocument' on input line 575. -Package atveryend Info: Executing hook `AtEndAfterFileList' on input line 575. +Package atveryend Info: Executing hook `AtVeryEndDocument' on input line 576. +Package atveryend Info: Executing hook `AtEndAfterFileList' on input line 576. Package rerunfilecheck Info: File `Grundlagen_des_maschinellen_lernens.out' has not changed. (rerunfilecheck) Checksum: 6B7BC4D35395A22E712E0049E7FB94ED;2880. @@ -1777,7 +1778,7 @@ hare/texlive/texmf-dist/fonts/type1/urw/times/utmb8a.pfb> -Output written on Grundlagen_des_maschinellen_lernens.pdf (25 pages, 1429823 by +Output written on Grundlagen_des_maschinellen_lernens.pdf (25 pages, 1430366 by tes). PDF statistics: 551 PDF objects out of 1000 (max. 8388607) diff --git a/doc/Grundlagen_des_maschinellen_lernens.pdf b/doc/Grundlagen_des_maschinellen_lernens.pdf index 6f78ff7..c136064 100644 Binary files a/doc/Grundlagen_des_maschinellen_lernens.pdf and b/doc/Grundlagen_des_maschinellen_lernens.pdf differ diff --git a/doc/Grundlagen_des_maschinellen_lernens.synctex.gz b/doc/Grundlagen_des_maschinellen_lernens.synctex.gz index 690915a..2320c74 100644 Binary files a/doc/Grundlagen_des_maschinellen_lernens.synctex.gz and b/doc/Grundlagen_des_maschinellen_lernens.synctex.gz differ diff --git a/doc/Grundlagen_des_maschinellen_lernens.tex b/doc/Grundlagen_des_maschinellen_lernens.tex index a7d9923..c1577f3 100644 --- a/doc/Grundlagen_des_maschinellen_lernens.tex +++ b/doc/Grundlagen_des_maschinellen_lernens.tex @@ -532,6 +532,7 @@ Die Dimension der Submatritzen beträgt meißt $2\times2$. In Abbildung \ref{Poo \section{PyTorch} Pytorch ist ein von der Facebook Research Group entwickeltes Framework für machinelles Lernen in Python. Es ermöglicht Programmierern, maschinelles Lernen einfach und hochoptimiret umzusetzen. Dafür stellt es unter anderem eine Schnittstelle für Grafikkarten bereit und lieferet viele Funktionen, die oft benötigt werden. So muss beispielsweise die Gradientenberechnung oder die Berechnung der Fehlerfunktion nicht in jedem Projekt erneut implementiert werden. Die Grundlage der Pytorch Library ist der Datentyp \glqq Tensor''. Dabei handelt es sich im wesentlichen um eine Matrix, die optimierte Funktionen für maschinelles Lernen aufweist und auf Grafikkarten transferiert werden kann. Alle Daten werden in Form dieser Tensoren gespeichert und verarbeitet. Sollen also Bilder erkannt werden, müssen diese erst zu Tensoren konvertiert werden. Neben den Fehlerfunktionen und der Gradientenberechnung ist besonders die Einfachheit mit der ein Netz in Pytorch definiert werden kann bezeichnend. Pytorch ermöglicht es also, dass die Entwicklung auf die Logik selber fokusiert sein kann und trotzdem komplexe mathematische Funktionen verwendet werden können. Häufig genannte Alternativen zu Pytorch sind die Frameworks \glqq Tensorflow'' oder \glqq Keras''. Tensorflow wird von Google entwickelt und ist auch für andere Sprachen als Python verfügbar. \subsection{Datenvorbereitung} +Wie bereits erwähnt, müssen die Daten erst vorbereitet werden. Dies kann unter Umständen das größte Problem bei einem Projekt, das maschinelles Lernen involviert, darstellen, da die Datenvorbereitung sehr komplex werden kann. In einem einfachen Fall liegt der Datensatz bereitzs in Pytorch vor und muss nur noch geladen werden, im komplexesten Fall, kann es allerdings notwendig werden, mehrere sogenannte \glqq Transforms'' auf die Daten anzuwenden. Das sind kleine Funktionen, die die Daten verändern. Sie schneiden beispielsweise das Eingabebild zu, normalisieren es oder wenden eine vollständig selbst definierte Funktion darauf an. \subsection{Definieren des Netzes} \subsection{Trainieren des Netzes} \section{Fallbeispiel I:\newline Ein Klassifizierungsnetzwerk für handgeschriebene Ziffern}