In diesem kompakten 2-Tages-Intensivkurs wird ein praxisnaher Einstieg in die Welt des maschinellen Lernens mit Python, dem führenden Ökosystem für Data Science und KI vermittelt.
Was Sie erwartet:
- Klarer, strukturierter Aufbau: Von den Grundlagen bis zu fortgeschrittenen ML-Modellen
- Hands-on statt Theorie: Direkte Umsetzung mit realen Datensätzen
- Aktuelle Tools und Best Practices: Scikit-Learn, Pandas, Keras u.v.m.
- Übertragbarkeit auf den Berufsalltag: Klassifikation, Prognosemodelle, Segmentierungen
Ziel ist nicht nur das Verstehen, sondern die sichere Anwendung: Sie lernen, Daten vorzubereiten, passende Modelle auszuwählen, diese zu trainieren, zu evaluieren und in eine produktionsnahe Form zu bringen.
1 Einführung in Machine Learning & Setup
Ziel: Verstehen, was ML ist, und das technische Setup vorbereiten
Inhalte:
- Was ist Machine Learning? (Supervised, Unsupervised, Reinforcement)
- Praxisnahe Anwendungsbeispiele (Bilderkennung, Textklassifikation, Empfehlungssysteme)
- Überblick über Scikit-Learn, Pandas, Numpy
- Setup: Jupyter Notebook, Python-Umgebung, scikit-learn, matplotlib, seaborn
- Erste Datenexploration mit Pandas
2 Datenaufbereitung & Feature Engineering
Ziel: Daten analysieren, säubern und vorbereiten
Inhalte:
- Explorative Datenanalyse (EDA) mit Pandas, Seaborn
- Fehlende Werte, Ausreisserbehandlung
- Datentypen, Encoding (One-Hot, Label)
- Feature Scaling: StandardScaler, MinMaxScaler
- Einführung in Train/Test-Splits und Cross-Validation
3 Lineare Modelle & Klassifikation
Ziel: Einführung in supervised learning mit Fokus auf Klassifikation
Inhalte:
- Lineare Regression kurz zum Verständnis
- Logistic Regression für Klassifikation
- Performance-Metriken: Accuracy, Precision, Recall, F1, Confusion Matrix
- Praxis: Klassifikationsaufgabe mit Titanic-Datensatz
4 Entscheidungsbäume & Random Forest
Ziel: Verständnis von Entscheidungsstrukturen und Ensemble-Methoden
Inhalte:
- Entscheidungsbäume: Aufbau, Tiefe, Überfitting
- Random Forests: Bagging, Feature Importance
- Vergleich mit Logistic Regression
- Praxis: Vorhersage mit realem Datensatz (z.B. Kreditwürdigkeitsprüfung)
5 Modellvergleich & Hyperparameter Tuning
Ziel: Modelle systematisch verbessern
Inhalte:
- Wiederholung: Bias-Variance-Tradeoff
- Cross-Validation (K-Fold)
- GridSearchCV und RandomizedSearchCV
- Vergleich mehrerer Modelle: Logistic Regression, Decision Tree, Random Forest, SVM
- Praxis: Wettbewerbs-Setup mit Scikit-Learn Pipeline
6 Unsupervised Learning & Clustering
Ziel: Datenmuster ohne Labels erkennen
Inhalte:
- K-Means Clustering
- Vergleich mit Hierarchical Clustering
- PCA (Principal Component Analysis) zur Dimensionsreduktion
- Visualisierung: 2D/3D-Scatterplots mit Labels
- Praxis: Kundensegmentierung
7 Einführung in neuronale Netze
Ziel: Verständnis für Grundlagen von Deep Learning
Inhalte:
- Wahrnehmungseinheit (Perzeptron) & Aktivierungsfunktionen
- Feedforward-Netze mit Keras / Tensorflow
- Overfitting vermeiden: Dropout, Regularisierung
- Praxis: Einfache Klassifikation (z.B. MNIST)
8 Mini-Abschlussprojekt & Best Practices
Ziel: Erlerntes anwenden und reflektieren
Inhalte:
- Miniprojekt: Eigenständige ML-Aufgabe (z.B. Spam-Klassifikation, Housing Prices)
- Schritt-für-Schritt: EDA, Modellauswahl, Optimierung, Bewertung