In diesem Kurs werden die leistungsstarken Funktionen von Apache Spark für die verteilte Datenverarbeitung und die grundlegenden Techniken für effiziente Datenverwaltung, Versionsverwaltung und Zuverlässigkeit durch die Arbeit mit Delta-Lake-Tabellen untersucht. In diesem Kurs wird auch die Datenerfassung und Orchestrierung mithilfe von Dataflows Gen2- und Data-Factory-Pipelines untersucht. Dieser Kurs umfasst eine Kombination aus Vorträgen und praktischen Übungen, die Sie auf die Arbeit mit Lakehouses in Microsoft Fabric vorbereiten.
Modul 1: Einführung in End-to-End-Analysen mit Microsoft Fabric
Modul 2: Erste Schritte mit Lakehouses in Microsoft Fabric
Modul 3: Verwenden von Apache Spark in Microsoft Fabric
Modul 4: Arbeiten mit Delta-Lake-Tabellen in Microsoft Fabric
Modul 5: Erfassen von Daten mit Gen2-Dataflows in Microsoft Fabric
Modul 6: Verwenden von Data-Factory-Pipelines in Microsoft Fabric
Digicomp Flexible-Learning-Ansatz:
Die primäre Zielgruppe für diesen Kurs sind Datenexpertinnen und -experten, die mit der Datenmodellierung, -extraktion und -analyse vertraut sind. Er richtet sich an Fachleute, die Wissen über die Lakehouse-Architektur, die Microsoft-Fabric-Plattform und die Möglichkeit der umfassenden Analyse mithilfe dieser Technologien erwerben möchten.
Sie sollten mit den grundlegenden Datenkonzepten und der Terminologie vertraut sein. Wir empfehlen die Teilnahme an dem folgenden Kurs oder gleichwertige Kenntnisse:
Dieser Workshop ist in den Kurs DP-600: Microsoft Fabric Analytics Engineer integriert.
Aber ein freundliches Ohr. Wir beraten Sie gerne individuell bei Ihrer Kursplanung.
Kontaktieren Sie uns