Skip to content

dannybusch/neuromant.de-Tutorials

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

50 Commits
 
 
 
 
 
 
 
 

Repository files navigation

Tutorials über Maschinelles Lernen, Künstliche Intelligenz und Data Science

Schritt für Schritt zum Mathemagier mit neuromant und Python

Hier finden sich interaktive Tutorials, die in losen Abständen auf dem Blog neuromant.de veröffentlicht werden.

Dort findet sich auch das Impressum für dieses Github-Repository.

Alle Tutorials gibt es zum besseren Lesen online unter https://neuromant.de/tutorials - zum Ausprobieren zu Hause sind die Jupyter Notebooks deutlich besser geeignet ;-)

Systemvoraussetzungen

Für die Tutorials wird eine Installation von Python 3.x mit Jupyter Notebook vorausgesetzt.

Für Einsteiger ist die Distribution von Anaconda Python empfohlen. Diese gibt es für Linux, Windows und Macintosh.

Tutorial-Reihe 1: Das Perzeptron - Neuronale Netze für Einsteiger und Fortgeschrittene

Die erste Tutorial-Reihe motiviert das sogenannte Perzeptron: from scratch wird hier mit Python-Code nach und nach das vollständige mehrschichtige Perzeptron (engl. multilayer perceptron, MLP) motiviert und implementiert. Notwendige Mathematik wird in einfacher Sprache erklärt und vertieft, so dass alle Formeln sowohl gelesen als auch kapiert werden können.

Neuronales Netz selbst entwickeln mit Python

Intuitive Einführung in das Perzeptron - in wenigen Zeilen Code entsteht pure Magie: wir schauen hinter das Geheimnis einfacher neuronaler Netze

Stichwörter: Delta-Regel, Heaviside-Aktivierung, Skalarprodukt

Mit Python und Numpy das Perzeptron verstehen

Eine richtige Anwendung für unser Perzeptron: Wir untersuchen Daten eines Sonars auf wiederkehrende Muster und erarbeiten dazu eine gute Trainingsstrategie

Stichwörter: Overfitting, Überanpassung, Generalisierung

Gradientenabstieg und Herleitung der Delta-Regel - die Mathematik hinter den Neuronalen Netzen

Learn Artificial Intelligence with one weird trick - was steckt wirklich hinter dem Training neuronaler Netze? Anspruchsvolles und umfangreiches Tutorial; die notwendige Mathematik wird aufgefrischt.

Stichwörter: Gradientenabstieg (engl. gradient descent), Verlustfunktionen (engl. loss functions), Kettenregel

Der Lego-Baukasten des Maschinellen Lernens - heute mit sigmoidaler Aktivierungsfunktion

Bevor wir weiter in die Tiefe gehen, schauen wir einmal in die Breite: mit der sigmoiden Aktivierungsfunktion und einer dazu passenden Verlustfunktion verwandelt sich das Perzeptron in eine logistische Regression - die wir gleich für die Klassifikation in gute vs. schlechte Weine einsetzen.

Stichwörter: logistische Regression, log-loss, sigmoide Aktivierung

Feedback erwünscht

Feedback ist gerne gesehen. Hinterlasst einen Github-Stern, schreibt dem Autoren oder startet eine Diskussion - hier oder im Blog.

Fehler gefunden? Dann gerne melden, wer möchte, wird in die neuromant "Hall of Fame" aufgenommen.

Viel Spaß beim Ausprobieren!

Danny Busch | Blog: neuromant.de