Kurs
digicode: DP311
Implement a Data Analytics Solution with Azure Databricks – Intensive Training (DP-3011)
DP-3011
Kurs-Facts
- Identifizieren von Kernarbeitslasten und Bereitstellen eines Azure Databricks-Arbeitsbereichs
- Verwenden der Data Governance-Tools Unity Catalog und Microsoft Purview
- Beschreiben der Schlüsselkonzepte einer Azure Databricks-Lösung
- Verwenden der verschiedenen Datenexplorationswerkzeuge in Azure Databricks
- Analysieren von Daten mit DataFrame APIs
- Beschreiben der Schlüsselelemente der Apache Spark-Architektur
- Erstellen und Konfigurieren eines Spark-Clusters
- Verwenden von Spark zur Verarbeitung und Analyse von in Dateien gespeicherten Daten und zur Visualisierung von Daten
- Verwenden von Datenpipelines für die Datenverarbeitung in Echtzeit
- Bereitstellen von Arbeitslasten mit Azure Databricks Workflows
1 Erkunde Azure Databricks
Azure Databricks ist ein Cloud-Dienst, der eine skalierbare Plattform für die Datenanalyse mit Apache Spark bietet.
2 Durchführen von Datenanalysen mit Azure Databricks
Lerne, wie du mit Azure Databricks Datenanalysen durchführen kannst. Lerne verschiedene Methoden zur Datenaufnahme kennen und erfahre, wie du Daten aus Quellen wie Azure Data Lake und Azure SQL Database integrierst. Dieses Modul führt dich durch die Verwendung von kollaborativen Notebooks zur Durchführung von explorativen Datenanalysen (EDA), damit du Daten visualisieren, bearbeiten und untersuchen kannst, um Muster, Anomalien und Korrelationen aufzudecken.
3 Verwende Apache Spark in Azure Databricks
Azure Databricks basiert auf Apache Spark und ermöglicht es Dateningenieuren und -analysten, Spark-Aufträge auszuführen, um Daten in grossem Umfang zu transformieren, zu analysieren und zu visualisieren.
4 Verwalte Daten mit Delta Lake
Delta Lake ist eine Datenverwaltungslösung in Azure Databricks, die Funktionen wie ACID-Transaktionen, Schemaerzwingung und Zeitreisen zur Gewährleistung der Datenkonsistenz, Integrität und Versionierung bietet.
5 Erstellen von Datenpipelines mit Delta Live Tables
Der Aufbau von Datenpipelines mit Delta Live Tables ermöglicht eine skalierbare und zuverlässige Datenverarbeitung in Echtzeit unter Verwendung der erweiterten Funktionen von Delta Lake in Azure Databricks.
6 Bereitstellen von Workloads mit Azure Databricks Workflows
Die Bereitstellung von Workloads mit Azure Databricks Workflows umfasst die Orchestrierung und Automatisierung komplexer Datenverarbeitungspipelines, Workflows für maschinelles Lernen und Analyseaufgaben. In diesem Modul erfährst du, wie du Workloads mit Databricks Workflows bereitstellen kannst.
- Die Teilnehmenden sollten über grundlegende Kenntnisse von Datenanalysekonzepten verfügen.
- Die Teilnehmenden sollten die Azure Data Fundamentals-Zertifizierung erwerben, bevor sie mit diesem Kurs beginnen.