Cours
Data Engineering on Microsoft Azure – Formation flexible («DP203V»)
DP-203
Description de la formation
- Concevoir et implémenter le stockage des données
- Développer le traitement des données
- Sécuriser, superviser et optimiser le stockage des données et le traitement des données
Ce cours est une formation flexible (6 à 8 sessions virtuelles de 3 heures sur max. 4 semaines), si vous préférez suivre cette formation au format intensif (bloc de sessions journalières), cliquez ici.
Contenu de la formation :
Module 1 : Bien démarrer avec l'ingénierie des données dans Azure
Dans la plupart des organisations, un ingénieur Données est le rôle principal responsable de l’intégration, de la transformation et du regroupement des données de divers systèmes de données structurés et non structurés dans des structures adaptées à la création de solutions d’analytique. Les Ingénieurs Données Azure veillent également à ce que les pipelines de données et les magasins de données restent très performants, efficaces, organisés et fiables, en fonction d’un ensemble spécifique d’exigences et de contraintes stratégiques.
Chapitres
- Présentation de l'ingénierie des données dans Azure
- présentation d'Azure data Lake Storage Gen2
- Présentation d'Azure Synapse Analytics
Module 2 : Créer des solutions d’analytique données avec des pools SQL serverless Azure Synapse
Si vous avez de grands volumes de données stockés en tant que fichiers dans un lac de données, vous aurez besoin d’un moyen pratique pour explorer et analyser les données qu’ils contiennent. Azure Synapse Analytics vous permet d’appliquer les compétences SQL que vous utilisez dans une base de données relationnelle aux fichiers d’un lac de données.
Chapitres
- Utiliser un pool SQL serverless Azure Synapse pour interroger des fichiers dans un lac de données
- Utiliser des pools SQL serverless Azure Synapse pour transformer les données dans un lac de données
- Créer une base de données Data Lake dans Azure Synapse Analytics
- Sécuriser les données et gérer les utilisateurs dans les pools SQL serverless Azure Synapse
Module 3 : Appliquer l'ingénierie des données avec des pools Azure Synapse Apache Spark
Apache Spark est une solution de traitement distribué hautement scalable pour l’analytique et la transformation du Big Data. Vous pouvez tirer parti de sa puissance dans Azure Synapse Analytics par le biais de pools Spark.
Chapitres
- Analyser des données avec Apache Spark dans Azure Synapse Analytics
- Transformer des données avec Spark dans Azure Synapse Analytics
- Utiliser Delta Lake dans Azure Synapse Analytics
Module 4 : Utiliser des entrepôts de données avec Azure Synapse Analytics
Les entrepôts de données relationnels sont au cœur de nombreuses solutions de business intelligence et d’analytique d’entreprise. Vous pouvez utiliser Azure Synapse Analytics pour implémenter des entrepôts de données hautement scalables dans le cloud.
Chapitres
- Analyser les données dans un entrepôt de données relationnelles
- Charger des données dans un entrepôt de données relationnel
- Gérer et superviser les activités d'un entrepôt de données dans Azure Synapse Analytics
- Analyser et optimiser le stockage de l'entrepôt de données dans Azure Synapse Analytics
- Sécuriser un entrepôt de données dans Azure Synapse Analytics
Module 5 : Transférer et transformer des données avec des pipelines Azure Synapse Analytics
Azure Synapse Analytics permet d’intégrer des données en utilisant des pipelines, que vous pouvez utiliser pour automatiser et orchestrer des activités de transfert et de transformation de données.
Chapitres
- Créer un pipeline de données dans Azure synapse Analytics
- Utiliser des notebooks Spark dans un pipeline Azure Synapse
Module 6 : Utiliser des solutions de traitement transactionnel et analytique hybrides avec Azure Synapse Analytics
Le traitement transactionnel et analytique hybride (HTAP) est une technique pour l’analytique en temps quasi réel sans solution ETL complexe. Dans Azure Synapse Analytics, HTAP est pris en charge via Azure Synapse Link.
Chapitres
- Planifier un traitement transactionnel et analytique hybride avec Azure Synapse Analytics
- Implémenter Azure synapse Link avec Azure Cosmos DB
- Implémenter Azure Synapse Link pour SQL
Module 7 : Implémenter une solution de streaming de données avec Azure Stream Analytics
Le traitement de flux vous permet de capturer et d’analyser des données en temps réel. Azure Stream Analytics est un moteur de traitement de flux basé sur le cloud que vous pouvez utiliser pour créer des solutions d’analytique en temps réel hautement scalables.
Chapitres
- Bien démarrer avec Azure Stream Analytics
- Intégrer des données de streaming à l'aide d'Azure Stream Analytics et Azure Synapse Analytics
- Visualiser des données en temps réel avec Azure Stream Analytics et Power BI
Module 8 : Gérer les données dans une entreprise
Utilisez Microsoft Purview pour inscrire et analyser des données, des artefacts de données de catalogue, rechercher des données pour la création de rapports et gérer artefacts Power BI afin d’améliorer la gouvernance des données dans votre organisation.
Chapitres
- Présentation de Microsoft Purview
- Découvrir les données approuvées avec Microsoft Puview
- Artefacts de données de catalogue à l'aide de Microsoft Purview
- Gérer les ressources Power BI avec Microsoft Purview
- intégrer Microsoft Purview et Azure Synapse Analytics
Module 9 : Ingénierie des données avec Azure Databricks
Apprenez à tirer parti de la puissance des clusters Apache Spark exécutés sur la plateforme Azure Databricks pour traiter de grandes charges de travail d’engineering données dans le cloud.
Chapitres
- Explorer Azure Databricks
- Utiliser Apache Spark dans Azure Databricks
- Utiliser Delta Lake dans Azure Databricks
- Utiliser les entrepôts SQL dans Azure Databricks
- Exécuter des notebooks Azure Databricks avec Azure Data Factory
Fait partie des cours suivants
- Data Engineering on Microsoft Azure – Formation flexible
Ce cours est une formation flexible (6 à 8 sessions virtuelles de 3 heures sur max. 4 semaines), si vous préférez suivre cette formation au format intensif (bloc de sessions journalières), cliquez ici.
Formule d’apprentissage mixte de Digicomp :
- Pre-study : dès l’inscription à la formation, vous recevez un accès à Microsoft Learn et vous pouvez dès lors commencer individuellement à vous familiariser avec la matière. Pendant maximum 4 semaines, 6 à 8 sessions virtuelles de 3 heures se tiendront avec nos experts MCT. Les sessions sont déjà agendées et sont compatibles avec votre quotidien professionnel ou privé. Entre les différentes sessions, vous disposez de suffisamment de temps pour réviser vos nouvelles connaissances et vous entrainer.
- After-study : après la formation, vous continuez à avoir accès à Microsoft Learn. Vous pouvez ainsi continuer à apprendre et à vous exercer selon vos besoins afin de permettre un apprentissage plus durable et de vous préparer idéalement à l’examen de certification.
- Plan de session détaillé : veuillez cliquer sur « Horaires » dans l’encadré du cours en bas de page pour consulter le détail des dates et horaires.
Il s’adresse également aux analystes de données et aux chercheurs de données qui travaillent avec des solutions analytiques basées sur Microsoft Azure.
Les participantes et participants doivent commencer ce cours avec une connaissance des concepts élémentaires sur les données et le cloud computing et avoir une expérience professionnelle dans le domaine des solutions de données.
Ils doivent également avoir de solides connaissances des langages de traitement des données tels que SQL, Python et Scala.
Nous recommandons de suivre les cours suivants au préalable ou de vous assurer de posséder des connaissances équivalentes :
Cette formation marque la première étape de préparation à l'examen :
« DP-203: Data Engineering on Microsoft Azure »
La réussite de cet examen permet de décrocher la certification :
« Microsoft Certified: Azure Data Engineer Associate »
ATTENTION : L’examen ne se déroule pas dans le cadre de la formation, vous devrez vous y inscrire séparément. Pratiquer vos nouvelles connaissances en situation réelle augmente considérablement vos chances de réussite à l’examen, c’est pourquoi nous vous conseillons de ne pas passer l’examen tout de suite après votre formation, mais de prendre votre temps et de vous y inscrire lorsque vous serez prêt.
Inscription à l’examen
Vous avez la possibilité de vous inscrire à un examen que vous passerez soit dans un de nos centres de formation Digicomp, agréés centre de test Pearson Vue, à Lausanne ou Genève, soit depuis chez vous.
Chez Digicomp : Inscrivez-vous à l’examen directement sur le site de Pearson VUE et sélectionnez l’un de nos centres de formation Digicomp (Lausanne ou Genève). Vous pourrez ensuite choisir parmi les créneaux d’examen proposés dans nos centres.
Chez vous : Pour passer un examen depuis chez vous, vous devez vous inscrire en passant par ce lien.
Le prix de l’examen est de CHF 216.- (sous réserve de modification par l’éditeur).