Kurs
digicode: AI296
Develop, Test, and Run Granite Family LLMs with RHEL AI
Kurs-Facts
Als PDF herunterladen- Verstehen, wie man generative KI-Modelle, die auf spezifische Geschäftsanforderungen zugeschnitten sind, feinabstimmt, bereitstellt und nutzt
- Aufbauen von Kernkompetenzen zum Trainieren von Modellen in einer sicheren und vertraulichen Umgebung
- Definieren von generativer KI, einschliesslich ihrer Bedeutung, Vorteile und Herausforderungen
- Auswählen geeigneter GenAI- und LLM-Modelle und -Techniken auf der Grundlage von Fähigkeiten, Anwendungsfällen und Einschränkungen
- Beschreiben von Granite-Modellen und ihrer Fähigkeiten zur Lösung von Anwendungsfällen in Unternehmen im Vergleich zu grösseren, geschlossenen Modellen
- Befähigen technischer und nicht-technischer Stakeholder zur Zusammenarbeit bei der Erstellung, dem Training und der Bereitstellung optimierter LLMs unter Verwendung von Red Hat Enterprise Linux AI und IBM Granite
- Bereitstellen, Betreiben und Verwalten generativer KI-Modelle, die mit Red Hat Enterprise Linux AI trainiert wurden
Dieser Kurs vermittelt Teilnehmenden grundlegende Kenntnisse zu Fine Tuning, Bereitstellung und Verwendung generativer KI-Modelle, die an spezifische geschäftliche Anforderungen angepasst sind. In diesem Kurs lernen Teilnehmende grundlegende Kompetenzen zum Training von Modellen in einer sicheren und privaten Umgebung.
Grundlagen der generativen KI: Fähigkeiten, Herausforderungen, Modelle und Techniken
Generative KI, ihre Bedeutung, Vorteile und Herausforderungen beschreiben. Auswahl geeigneter GenAI- und LLM-Modelle und -Techniken erlernen unter Berücksichtigung ihrer Funktionen, Use Cases und Einschränkungen
Granite-Modelle für generative KI in Unternehmen
Granite-Modelle und ihre Fähigkeiten zur Lösung von Use Cases in Unternehmen im Vergleich zu grösseren, geschlossenen Modellen beschreiben und verstehen
Training von LLMs (Large Language Models) mit Red Hat Enterprise Linux AI
Die Zusammenarbeit technischer und nicht-technischer Stakeholder beim Erstellen, Trainieren und Bereitstellen von LLMs, die für spezifische geschäftliche Anforderungen optimiert sind, unter Verwendung von Red Hat Enterprise Linux AI und IBM Granite ermöglichen
Deployment trainierter Modelle mit Red Hat Enterprise Linux AI
Mit Red Hat Enterprise Linux AI trainierte generative KI-Modelle bereitstellen und betreiben
- Data Scientists und KI-Fachkräfte, die mehr über Granite-Modelle und den Trainings- und Anpassungsprozess von GenAI-Modellen für spezifische Geschäftsanforderungen erfahren möchten.
- Entwicklerinnen und Entwickler mit grundlegenden KI/ML-Kenntnissen oder Machine Learning Engineers, die lernen möchten, wie KI-basierte Unternehmensanwendungen in einer sicheren Unternehmensumgebung entwickelt, getestet und ausgeführt werden.
- Systemadministrationsteams, die mehr über das Management der Hybrid-Cloud-Infrastruktur des Unternehmens erfahren möchten, um die Einführung generativer KI und LLMs zu fördern und gleichzeitig Sicherheitsrichtlinien durchzusetzen.
- Andere Fachleute, wie beispielsweise SMEs und Domain-Fachkräfte, die erfahren möchten, wie sie zum Training von sicheren Modellen beitragen können, die auf ihre geschäftlichen Anforderungen abgestimmt sind.
- Grundlegende Kenntnisse in KI und ML werden empfohlen, sind jedoch nicht erforderlich
- Vertrautheit mit der Linux-Befehlszeile