Kurs
AWSM02
Machine Learning Engineering on AWS – Intensive Training («AWSM02»)
Kurs-Facts
- Erläutern der ML-Grundlagen und ihrer Anwendungen in der AWS Cloud
- Verarbeiten, Umwandeln und Engineering von Daten für ML-Aufgaben mithilfe von AWS-Services
- Auswählen geeigneter ML-Algorithmen und Modellierungsansätze auf der Grundlage von Problem-Anforderungen und Modell-Interpretierbarkeit
- Entwerfen und Implementieren skalierbarer ML-Pipelines unter Verwendung von AWS-Services für Modelltraining, Bereitstellung und Orchestrierung
- Erstellen automatisierter kontinuierlicher Integrations- und Bereitstellungspipelines (CI/CD) für ML-Arbeitsabläufe
- Erörtern geeigneter Sicherheitsmassnahmen für ML-Ressourcen auf AWS
- Implementieren von Überwachungsstrategien für bereitgestellte ML-Modelle, einschliesslich Techniken zur Erkennung von Datendrift
Die Teilnehmenden werden praktische Erfahrungen mit AWS-Services wie Amazon SageMaker AI und Analysetools wie Amazon EMR sammeln, um robuste, skalierbare und produktionsreife Anwendungen für maschinelles Lernen zu entwickeln.
Kursübersicht
Tag 1
Modul 0: Kurseinführung
Modul 1: Einführung in maschinelles Lernen (ML) auf AWS
- Thema A: Einführung in ML
- Thema B: Amazon SageMaker AI
- Thema C: Verantwortliches ML
Modul 2: Analysieren von Herausforderungen des maschinellen Lernens (ML)
- Thema A: Evaluierung von ML-Geschäftsherausforderungen
- Thema B: ML-Trainingsansätze
- Thema C: ML-Trainingsalgorithmen
Modul 3: Datenverarbeitung für maschinelles Lernen (ML)
- Thema A: Datenaufbereitung und Datentypen
- Thema B: Explorative Datenanalyse
- Thema C: AWS-Speicheroptionen und Auswahl des Speichers
Modul 4: Datenumwandlung und Feature Engineering
- Thema A: Umgang mit fehlerhaften, duplizierten und fehlenden Daten
- Thema B: Feature-Engineering-Konzepte
- Thema C: Techniken zur Auswahl von Merkmalen
- Thema D: AWS-Datentransformationsdienste
- Lab 1: Analysieren und Vorbereiten von Daten mit Amazon SageMaker Data Wrangler und Amazon EMR
- Lab 2: Datenverarbeitung mit SageMaker Processing und dem SageMaker Python SDK
Tag 2
Modul 5: Auswahl eines Modellierungsansatzes
- Thema A: Integrierte Algorithmen von Amazon SageMaker AI
- Thema B: Auswahl von integrierten Trainingsalgorithmen
- Thema C: Amazon SageMaker Autopilot
- Thema D: Überlegungen zur Modellauswahl
- Thema E: Überlegungen zu ML-Kosten
Modul 6: Training von Modellen für maschinelles Lernen (ML)
- Thema A: Konzepte der Modellschulung
- Thema B: Training von Modellen in Amazon SageMaker AI
- Lab 3: Trainieren eines Modells mit Amazon SageMaker AI
Modul 7: Bewerten und Abstimmen von Modellen des maschinellen Lernens (ML)
- Thema A: Evaluierung der Modellleistung
- Thema B: Techniken zur Reduzierung der Trainingszeit
- Thema C: Techniken zur Abstimmung von Hyperparametern
- Lab 4: Modellabstimmung und Hyperparameter-Optimierung mit Amazon SageMaker AI
Modul 8: Modell-Einsatz-Strategien
- Thema A: Einsatzüberlegungen und Zieloptionen
- Thema B: Einsatzstrategien
- Thema C: Auswahl einer Modellinferenzstrategie
- Thema D: Container- und Instanztypen für die Inferenz
- Lab 5: Traffic-Verlagerung A/B
Tag 3
Modul 9: Absicherung von AWS-Ressourcen für maschinelles Lernen (ML)
- Thema A: Zugriffskontrolle
- Thema B: Netzwerkzugriffskontrollen für ML-Ressourcen
- Thema C: Sicherheitsüberlegungen für CI/CD-Pipelines
Modul 10: Machine Learning Operations (MLOps) und automatisierte Bereitstellung
- Thema A: Einführung in MLOps
- Thema B: Automatisiertes Testen in CI/CD-Pipelines
- Thema C: Kontinuierliche Bereitstellungsdienste
- Lab 6: Verwenden von Amazon SageMaker Pipelines und der Amazon SageMaker Model Registry mit Amazon SageMaker Studio
Modul 11: Überwachung der Modellleistung und Datenqualität
- Thema A: Erkennen von Drift in ML-Modellen
- Thema B: SageMaker Model Monitor
- Thema C: Überwachung von Datenqualität und Modellqualität
- Thema D: Automatisierte Abhilfe und Fehlerbehebung
- Lab 7: Überwachung eines Modells auf Datendrift
Modul 12: Nachbereitung des Kurses
- Vertrautheit mit grundlegenden Konzepten des maschinellen Lernens
- Grundlegende Kenntnisse der Programmiersprache Python und gängiger Data-Science-Bibliotheken wie NumPy, Pandas und Scikit-learn
- Grundlegendes Verständnis von Cloud-Computing-Konzepten und Vertrautheit mit AWS
- Erfahrung mit Versionskontrollsystemen wie Git (von Vorteil, aber nicht erforderlich)