neuromant.de-Tutorials
neuromant.de-Tutorials copied to clipboard
Tutorials zum Thema Neuronale Netze / Maschinelles Lernen (German / Deutsch)
Tutorials über Maschinelles Lernen, Künstliche Intelligenz und Data Science
Schritt für Schritt zum Mathemagier mit neuromant und Python
Hier finden sich interaktive Tutorials, die in losen Abständen auf dem Blog neuromant.de veröffentlicht werden.
Dort findet sich auch das Impressum für dieses Github-Repository.
Alle Tutorials gibt es zum besseren Lesen online unter https://neuromant.de/tutorials - zum Ausprobieren zu Hause sind die Jupyter Notebooks deutlich besser geeignet ;-)
Systemvoraussetzungen
Für die Tutorials wird eine Installation von Python 3.x mit Jupyter Notebook vorausgesetzt.
Für Einsteiger ist die Distribution von Anaconda Python empfohlen. Diese gibt es für Linux, Windows und Macintosh.
Tutorial-Reihe 1: Das Perzeptron - Neuronale Netze für Einsteiger und Fortgeschrittene
Die erste Tutorial-Reihe motiviert das sogenannte Perzeptron: from scratch wird hier mit Python-Code nach und nach das vollständige mehrschichtige Perzeptron (engl. multilayer perceptron, MLP) motiviert und implementiert. Notwendige Mathematik wird in einfacher Sprache erklärt und vertieft, so dass alle Formeln sowohl gelesen als auch kapiert werden können.
Das Perzeptron - Teil 1

Neuronales Netz selbst entwickeln mit Python
Intuitive Einführung in das Perzeptron - in wenigen Zeilen Code entsteht pure Magie: wir schauen hinter das Geheimnis einfacher neuronaler Netze
Stichwörter: Delta-Regel, Heaviside-Aktivierung, Skalarprodukt
Das Perzeptron - Teil 2

Mit Python und Numpy das Perzeptron verstehen
Eine richtige Anwendung für unser Perzeptron: Wir untersuchen Daten eines Sonars auf wiederkehrende Muster und erarbeiten dazu eine gute Trainingsstrategie
Stichwörter: Overfitting, Überanpassung, Generalisierung
Das Perzeptron - Teil 3

Gradientenabstieg und Herleitung der Delta-Regel - die Mathematik hinter den Neuronalen Netzen
Learn Artificial Intelligence with one weird trick - was steckt wirklich hinter dem Training neuronaler Netze? Anspruchsvolles und umfangreiches Tutorial; die notwendige Mathematik wird aufgefrischt.
Stichwörter: Gradientenabstieg (engl. gradient descent), Verlustfunktionen (engl. loss functions), Kettenregel
Das Perzeptron - Teil 4

Der Lego-Baukasten des Maschinellen Lernens - heute mit sigmoidaler Aktivierungsfunktion
Bevor wir weiter in die Tiefe gehen, schauen wir einmal in die Breite: mit der sigmoiden Aktivierungsfunktion und einer dazu passenden Verlustfunktion verwandelt sich das Perzeptron in eine logistische Regression - die wir gleich für die Klassifikation in gute vs. schlechte Weine einsetzen.
Stichwörter: logistische Regression, log-loss, sigmoide Aktivierung
Feedback erwünscht
Feedback ist gerne gesehen. Hinterlasst einen Github-Stern, schreibt dem Autoren oder startet eine Diskussion - hier oder im Blog.
Fehler gefunden? Dann gerne melden, wer möchte, wird in die neuromant "Hall of Fame" aufgenommen.
Viel Spaß beim Ausprobieren!
Danny Busch | Blog: neuromant.de