Kurs
Digicomp Code H36446
Natural Language Processing und generative Modelle mit Python und Transformern («H36446»)
Kurs-Facts
- Erhalten von vertieftem Wissen über Konzepte und Methoden für den Einsatz von sprachbasierter Artificial Intelligence
- Kennenlernen der grundlegenden Technologien und Erarbeiten eines umfassenden Wissens über die Transformator-Architektur als Schlüsseltechnologie für die moderne generative AI
- Erlernen der praktischen Arbeit mit den wichtigsten Python-Frameworks und vortrainierten Modellen auf Hugging Face und Wissen, wie diese in eigenen Projekten eingesetzt werden können
- Besitzen von fundierten theoretischen Kenntnissen im Bereich der Sprachverarbeitung mit Artificial Intelligence und praktischer Erfahrung in der Anwendung von Methoden und Frameworks
- Entwickeln, Anpassen und produktives Einsetzen eigener Sprachsysteme und -modelle, die auf Machine Learning basieren
- Lernen, die Technologien in eigenen Projekten einzusetzen
1 Python-Techniken für das Text Processing
- Python-Basics für die Textverarbeitung
- Text- und PDF-Dateien verarbeiten
- Die wichtigsten Regular Expressions
2 Einführung in Natural Language Processing (NLP)
- Konzepte des Natural Language Processings
- Einsatz der Bibliothek SpaCy zur Textanalyse
- Tokenization, Stemming und Lemmatization
- Part-of-speech und Named Entity Recognition
- Zerlegung von Texten mit Sentence Segmentation
3 Textklassifikation und Textanalyse
- Einführung in scikit-learn
- Evaluierung von Klassifikationsmodellen mit Präzision, Recall und F1-Score
- Semantisches Verständnis und Sentiment Analysis
- Vektorbasierte Textrepräsentationen mit Word Vectors
- Sentiment Analysis mit der Bibliothek NLTK
4 Topic Modelling und Long Short-Term Memory
- Einführung in das Topic Modelling
- Klassifizierung mit Latent Dirichlet Allocation (LDA)
- Strukturen erkennen mit Non-negative Matrix Factorization (NMF)
- Long Short-Term Memory, GRU und Text Generation
- Implementierung eines LSTM zur Texterstellung mit Keras
5 Transformer und Attention
- Das Konzept der Selbstaufmerksamkeit
- Multihead Attention und Bedeutung in NLP-Modellen
- Encoder und Decoder für maschinelle Übersetzung und Sprachverständnis
- Architekturkonzepte gängiger Transformer-Modelle: GPT-2/3/4, BERT
- Erstellen einer Transformer-Struktur mit Python und Keras
- Training und Evaluation eines Seq2Seq-Transformers
6 Transfer Learning und Finetuning mit Hugging Face
- Einführung in Hugging Face und Vorstellung vortrainierter Modelle
- Auswahl geeigneter Modelle und Tokenizer
- Transfer Learning und Finetuning vortrainierter Modelle
- Automatische Konfiguration und Anpassung von Modellen
7 Praxisprojekt: Trainieren eines eigenen Chatbots
Dieses Online-Seminar wird in einer Gruppe von maximal 12 Teilnehmenden mit der Videokonferenz-Software Zoom durchgeführt. Individuelle Betreuung durch die Referenten ist garantiert.
Die Praxisübungen werden in Form von Jupyter Notebooks bereitgestellt, die Sie lokal auf dem eigenen Rechner installieren können. Das rechenintensive Trainieren der Datenmodelle wird auf frei verfügbaren Cloud-GPUs durchgeführt.
Bei der Durchführung der praktischen Übungen stehen Ihnen die Referenten zur Seite – im virtuellen Klassenraum oder individuell in Break-out-Sessions.
In Ihrer Online-Lernumgebung finden Sie nach der Anmeldung alle Informationen, Downloads und Extra-Services zu dieser Qualifizierungsmassnahme.
Dieses Training richtet sich an alle, die Machine Learning, maschinelle Sprachverarbeitung und generative AI im Detail verstehen und im Rahmen von eigenen Projekten einsetzen möchten. Dieser Kurs ist ein wertvoller Baustein in der Qualifizierung zum Data Scientist, Data Engineer und Machine Learning Engineer.
Grundlegende Kenntnisse in der Programmierung mit Python werden vorausgesetzt. Weitergehendes technisches, mathematisches und statistisches Vorwissen ist hilfreich, aber nicht erforderlich.
Damit Sie mögliche Unterlagen rechtzeitig per Post zugestellt bekommen können, empfehlen wir eine Buchung mindestens 14 Tage vor Seminar-Termin.