Der Inhalt dieses Intensive Trainings leitet sich aus der Prüfung «DP-203: Data Engineering on Microsoft Azure» ab. Beginnen Sie schon jetzt auf Microsoft Learn mit der Vorbereitung auf den Kurs und nutzen Sie den Learning Support, wenn Sie Fragen haben. Während den intensiven Trainingstagen mit unseren Trainern arbeiten Sie mit den offiziellen Microsoft-Kursunterlagen (mehr Informationen unter «Methodik & Didaktik»).
Modul 1: Untersuchen von Rechen- und Speicheroptionen für Daten-Engineering-Workloads
Dieses Modul bietet einen Überblick über die Optionen der Azure-Computer- und Speichertechnologie, die Dateningenieuren zur Verfügung stehen, die analytische Workloads erstellen. In diesem Modul erfahren Sie, wie man das Datenmeer strukturiert und die Dateien für Explorations-, Streaming- und Batch-Workloads optimieren kann. Die Teilnehmer lernen, wie man das Datenmeer in Ebenen der Datenverfeinerung organisiert, während Dateien durch Stapel- und Stream-Verarbeitung transformiert werden. Anschliessend lernen sie, wie man Indizes für ihre Datensets wie CSV-, JSON- und Parkettdateien erstellen und diese für eine mögliche Beschleunigung von Abfragen und Workloads verwenden kann.
Lektionen
Lab: Erkunden Sie die Rechen- und Speicheroptionen für Daten-Engineering-Workloads
Modul 2: Entwerfen und Implementieren der Ausgabeebenen
In diesem Modul erfahren Sie, wie man Datenspeicher in einem modernen Daten-Warehouse entwerfen und implementieren kann, um analytische Workloads zu optimieren. Die Teilnehmer lernen, wie man ein mehrdimensionales Schema zum Speichern von Fakten- und Dimensionsdaten entwirft. Anschliessend lernen die Teilnehmer, wie langsam ändernde Dimensionen durch inkrementelles Laden von Daten aus Azure Data Factory gefüllt werden.
Lektionen
Lab: Entwerfen und Implementieren der Ausgabeebene
Modul 3: Überlegungen zum Daten-Engineering für Quelldateien
Dieses Modul befasst sich mit Überlegungen zur Datentechnik, die beim Laden von Daten in ein modernes analytisches Data Warehouse aus Dateien, die in einem Azure Datensee gespeichert sind, üblich sind, und mit den Sicherheitsüberlegungen, die mit der Speicherung von Dateien im Datensee verbunden sind.
Lektionen
Lab: Überlegungen zum Daten-Engineering
Modul 4: Führen Sie interaktive Abfragen mit serverlosen SQL-Pools von Azure Synapse Analytics aus
In diesem Modul lernen die Teilnehmer anhand von T-SQL-Anweisungen, die von einem serverlosen SQL-Pool in Azure Synapse Analytics ausgeführt werden, wie man mit Dateien arbeitet, die im Datenmeer und in externen Dateiquellen gespeichert sind. Die Teilnehmer fragen Parkettdateien ab, die in einem Datenmeer gespeichert sind, sowie CSV-Dateien, die in einem externen Datenspeicher gespeichert sind. Als Nächstes erstellen sie Azure Active Directory-Sicherheitsgruppen und erzwingen den Zugriff auf Dateien im Datenmeer über die rollenbasierte Zugriffssteuerung (RBAC) und Zugriffssteuerungslisten (ACLs).
Lektionen
Lab: Führen Sie interaktive Abfragen mit serverlosen SQL-Pools aus
Modul 5: Durchsuchen, Transformieren und Laden von Daten in das Daten-Warehouse mit Apache Spark
In diesem Modul erfahren Sie, wie man in einem Datenmeer gespeicherte Daten untersucht, die Daten transformiert und Daten in einen relationalen Datenspeicher lädt. Die Teilnehmer werden Parkett- und JSON-Dateien untersuchen und Techniken verwenden, um JSON-Dateien mit hierarchischen Strukturen abzufragen und zu transformieren. Anschliessend verwenden die Teilnehmer Apache Spark, um Daten in das Daten-Warehouse zu laden und Parkettdaten im Datenmeer mit Daten im dedizierten SQL-Pool zu verknüpfen.
Lektionen
Lab: Durchsuchen, transformieren und laden Sie Daten mit Apache Spark in das Daten-Warehouse
Modul 6: Datenexploration und -transformation in Azure Databricks
In diesem Modul erfahren Sie, wie man mit verschiedenen Apache Spark Data Frame-Methoden Daten in Azure Databricks untersuchen und transformieren kann. Die Teilnehmer lernen, wie man Standard-Data Frame-Methoden zum Erkunden und Transformieren von Daten ausführen kann.Sie lernen auch, wie man erweiterte Aufgaben ausführen, z. B. doppelte Daten entfernen, Datums- / Zeitwerte bearbeiten, Spalten umbenennen und Daten aggregieren kann.
Lektionen
Lab: Datenexploration und -transformation in Azure Databricks
Modul 7: Daten aufnehmen und in das Daten-Warehouse laden
In diesem Modul lernen die Teilnehmer, wie man Daten über T-SQL-Skripte und Synapse Analytics-Integrationspipelines in das Daten-Warehouse aufnimmt. Die Teilnehmer lernen, wie Daten mit PolyBase und COPY mit Hilfe von T-SQL in dedizierte Synapse-SQL-Pools geladen werden. Die Teilnehmer werden ausserdem lernen, wie das Workload-Management, zusammen mit einer Kopieraktivität in einer Azure Synapse-Pipeline für die Datenaufnahme im Petabyte-Bereich verwendet wird.
Lektionen
Lab: Daten aufnehmen und in das Daten-Warehouse laden
Modul 8: Transformieren von Daten mit Azure Data Factory- oder Azure Synapse-Pipelines
In diesem Modul lernen die Teilnehmer, wie man Datenintegrations-Pipelines erstellt, um sie aus mehreren Datenquellen aufzunehmen, Daten mit Hilfe von Mapping-Datenflüssen zu transformieren und Daten in eine oder mehrere Datensenken zu verschieben.
Lektionen
Lab: Transformieren Sie Daten mit Azure DataFactory-oder Azure Synapse-Pipelines
Modul 9: Verschieben und Verschieben von Daten in Azure-Synapse-Pipelines orchestrieren
In diesem Modul erfahren Sie, wie man verknüpfte Services erstellt und die Datenverschiebung und -transformation mit Hilfe von Notebooks in Azure Synapse-Pipelines koordiniert.
Lektionen
Lab: Orchestrieren der Datenverschiebung und -transformation in Azure Synapse-Pipelines
Modul 10: Optimieren Sie die Abfrageleistung mit dedizierten SQL-Pools in Azure Synapse
In diesem Modul lernen die Teilnehmer Strategien zur Optimierung der Datenspeicherung und -verarbeitung bei Verwendung dedizierter SQL-Pools in Azure Synapse Analytics. Die Teilnehmer lernen zu verstehen, wie Entwicklerfunktionen wie Fenster- und HyperLogLog-Funktionen, bewährte Methoden zum Laden von Daten verwendet werden und die Abfrageleistung optimiert und verbessert wird.
Lektionen
Lab : Optimieren der Abfrageleistung mit dezidierten SQL Pools in Azure Synapse
Module 11: Analyse und Optimierung der Daten-Warehouse-Speicherung
In diesem Modul lernen die Teilnehmer, wie man die Datenspeicherung von Azure Synapse dezidiertem SQL analysiert und optimiert. Die Teilnehmer werden Techniken erlernen, um die Verwendung des Tabellenbereichs und die Speicherdetails des Spaltenspeichers zu verstehen. Als Nächstes werden die Teilnehmer die Speicheranforderungen zwischen identischen Tabellen vergleichen, die unterschiedliche Datentypen verwenden. Schliesslich werden die Teilnehmer beobachten, welche Auswirkungen materialisierte Ansichten haben, wenn sie anstelle komplexer Abfragen ausgeführt werden und lernen, wie durch Optimierung der Löschvorgänge eine umfangreiche Protokollierung vermieden werden kann.
Lektionen
Lab: Analysieren und Optimieren des Daten-Warehouse-Speichers
Modul 12: Unterstützung von HTAP (Hybrid Transactional Analytical Processing ) mit Azure Synapse Links
In diesem Modul erfahren die Teilnehmer, wie Azure Synapse Link die nahtlose Verbindung eines Azure Cosmos DB-Kontos mit einem Synapse-Arbeitsbereich ermöglicht. Die Teilnehmer lernen zu verstehen, wie man die Synapse-Verknüpfung aktiviert und konfiguriert und wie der Azure Cosmos DB-Analysespeicher mit Apache Spark und serverlosem SQL abgefragt wird.
Lektionen
Lab: Unterstützung von HTAP (Hybrid Transactional Analytical Processing ) mit dem Azure Synapse Link
Modul 13: End-to-End-Sicherheit mit Azure Synapse Analytics
In diesem Modul lernen die Teilnehmer, wie man einen Synapse Analytics-Arbeitsbereich und seine unterstützende Infrastruktur sichert. Der Schüler beobachtet den SQL Active Directory-Administrator, verwaltet IP-Firewall-Regeln, verwaltet Geheimnisse mit Azure Key Vault und greift über einen mit Key Vault verknüpften Service und Pipeline-Aktivitäten auf diese Geheimnisse zu. Die Teilnehmer werden verstehen, wie Sicherheit auf Spaltenebene, Sicherheit auf Zeilenebene und dynamische Datenmaskierung implementiert wird, wenn dedizierte SQL-Pools verwendet werden.
Lektionen
Lab: End-to-End-Sicherheit mit Azure Synapse Analytics
Modul 14: Echtzeit-Stream-Verarbeitung mit Stream Analytics
In diesem Modul lernen die Teilnehmer, wie man Streaming-Daten mit Azure Stream Analytics verarbeitet. Die Teilnehmer nehmen Fahrzeugtelemetriedaten in Event Hubs auf und verarbeiten diese Daten dann in Echtzeit mit Hilfe verschiedener Fensterfunktionen in Azure Stream Analytics. Sie geben die Daten an Azure Synapse Analytics aus. Schliesslich lernen die Teilnehmer, wie man den Stream-Analytics-Job skaliert, um den Durchsatz zu erhöhen.
Lektionen
Lab: Echtzeit-Stream-Verarbeitung mit Stream Analytics
Modul 15: Erstellen einer Stream-Verarbeitungslösung mit Event Hubs und Azure Databricks
In diesem Modul lernen die Teilnehmer, wie man Streaming-Daten mit Event Hubs und Spark Structured Streaming in Azure Databricks massstabsgetreu erfassen und verarbeiten kann. Die Teilnehmer lernen die wichtigsten Funktionen und Verwendungszwecke von Structured Streaming kennen. Die Teilnehmer implementieren Schiebefenster, um Datenblöcke zu aggregieren und wenden Wasserzeichen an, um veraltete Daten zu entfernen. Schliesslich stellen die Teilnehmer eine Verbindung zu Event Hubs her, um Streams zu lesen und zu schreiben.
Lektionen
Lab: Erstellen Sie eine Stream-Verarbeitungslösung mit Event Hubs und Azure Databricks
Modul 16: Erstellen von Berichten mit Hilfe der Power BI-Integration mit Azure Synapse Analytics
In diesem Modul lernen die Teilnehmer, wie man Power BI in einen Synapse-Arbeitsbereich integriert, um Berichte in Power BI zu erstellen. Die Teilnehmer erstellen eine neue Datenquelle und einen neuen Power BI-Bericht in Synapse Studio. Anschliessend lernen die Teilnehmer, wie man die Abfrageleistung durch materialisierte Ansichten und Zwischenspeichern von Ergebnismengen verbessern kann. Schliesslich werden die Teilnehmer das Datenmeer mit serverlosen SQL-Pools erkunden und Visualisierungen für diese Daten in Power BI erstellen.
Lektionen
Lab: Erstellen Sie Berichte mit Hilfe der PowerBI-Integration mit Azure Synapse Analytics
Modul 17: Integrierte maschinelle Lernprozesse in Azure Synapse Analytics ausführen
In diesem Modul wird die integrierte, durchgängige Erfahrung mit Azure maschinellem Lernen und Azure kognitiven Services in Azure Synapse Analytics erläutert. Sie erfahren, wie Sie einen Azure Synapse Analytics-Arbeitsbereich mithilfe eines verknüpften Services mit einem Azure Machine Learning-Arbeitsbereich verbinden und anschliessend ein automatisiertes ML-Experiment auslösen, das Daten aus einer Spark-Tabelle verwendet. Ausserdem erfahren Sie, wie man trainierte Modelle aus Azure-maschiniertem Lernen oder Azure kognitiven Services verwenden, um Daten in einer SQL-Pooltabelle anzureichern und anschliessend mit Hilfe von Power BI Prognoseergebnisse bereitzustellen.
Lektionen
Lab: Durchführen integrierter maschineller Lernprozesse in Azure Synapse Analytics
Digicomp Flexible-Learning-Ansatz:
Die primäre Zielgruppe für diesen Kurs sind Datenexperten, Datenarchitekten und Business-Intelligence-Experten, die etwas über Data Engineering und den Aufbau analytischer Lösungen mit Datenplattform-Technologien auf Microsoft Azure lernen möchten.
Die sekundäre Zielgruppe für diesen Kurs sind Datenanalysten und Datenwissenschaftler, die mit analytischen Lösungen arbeiten, die auf Microsoft Azure aufgebaut sind.
Erfolgreiche Teilnehmer beginnen diesen Kurs mit Kenntnissen über Cloud Computing und Kerndatenkonzepte sowie Berufserfahrung mit Datenlösungen.
Empfohlen wird das in folgenden Kursen erlangte Grundwissen:
Dieses Flexible Training bereitet Sie vor auf:
Aber ein freundliches Ohr. Wir beraten Sie gerne individuell bei Ihrer Kursplanung.
Kontaktieren Sie uns