Hier finden sich interaktive Tutorials, die in losen Abständen auf dem Blog neuromant.de veröffentlicht werden.
Dort findet sich auch das Impressum für dieses Github-Repository.
Alle Tutorials gibt es zum besseren Lesen online unter https://neuromant.de/tutorials - zum Ausprobieren zu Hause sind die Jupyter Notebooks deutlich besser geeignet ;-)
Für die Tutorials wird eine Installation von Python 3.x mit Jupyter Notebook vorausgesetzt.
Für Einsteiger ist die Distribution von Anaconda Python empfohlen. Diese gibt es für Linux, Windows und Macintosh.
Die erste Tutorial-Reihe motiviert das sogenannte Perzeptron: from scratch wird hier mit Python-Code nach und nach das vollständige mehrschichtige Perzeptron (engl. multilayer perceptron, MLP) motiviert und implementiert. Notwendige Mathematik wird in einfacher Sprache erklärt und vertieft, so dass alle Formeln sowohl gelesen als auch kapiert werden können.
Neuronales Netz selbst entwickeln mit Python
Intuitive Einführung in das Perzeptron - in wenigen Zeilen Code entsteht pure Magie: wir schauen hinter das Geheimnis einfacher neuronaler Netze
Stichwörter: Delta-Regel, Heaviside-Aktivierung, Skalarprodukt
Mit Python und Numpy das Perzeptron verstehen
Eine richtige Anwendung für unser Perzeptron: Wir untersuchen Daten eines Sonars auf wiederkehrende Muster und erarbeiten dazu eine gute Trainingsstrategie
Stichwörter: Overfitting, Überanpassung, Generalisierung
Gradientenabstieg und Herleitung der Delta-Regel - die Mathematik hinter den Neuronalen Netzen
Learn Artificial Intelligence with one weird trick - was steckt wirklich hinter dem Training neuronaler Netze? Anspruchsvolles und umfangreiches Tutorial; die notwendige Mathematik wird aufgefrischt.
Stichwörter: Gradientenabstieg (engl. gradient descent), Verlustfunktionen (engl. loss functions), Kettenregel
Der Lego-Baukasten des Maschinellen Lernens - heute mit sigmoidaler Aktivierungsfunktion
Bevor wir weiter in die Tiefe gehen, schauen wir einmal in die Breite: mit der sigmoiden Aktivierungsfunktion und einer dazu passenden Verlustfunktion verwandelt sich das Perzeptron in eine logistische Regression - die wir gleich für die Klassifikation in gute vs. schlechte Weine einsetzen.
Stichwörter: logistische Regression, log-loss, sigmoide Aktivierung
Feedback ist gerne gesehen. Hinterlasst einen Github-Stern, schreibt dem Autoren oder startet eine Diskussion - hier oder im Blog.
Fehler gefunden? Dann gerne melden, wer möchte, wird in die neuromant "Hall of Fame" aufgenommen.
Viel Spaß beim Ausprobieren!
Danny Busch | Blog: neuromant.de