Cours
Building Data Analytics Solutions Using Amazon Redshift – Formation intensive («AWSB06»)
Description de la formation
- Comparer les fonctionnalités et les avantages des entrepôts de données, des lacs de données et des architectures de données modernes
- Créer et mettre en œuvre une solution d’analytique de données d’entrepôt
- Identifier et appliquer des techniques appropriées, y compris la compression, pour optimiser le stockage des données
- Sélectionner et déployer les options appropriées pour ingérer, transformer et stocker des données
- Choisir l’instance, les types de nœud, le cluster, la mise à l’échelle automatique et le type de réseau pour un cas commercial en particulier
- Comprendre l’impact du stockage et du traitement des données sur les mécanismes d’analyse et de visualisation de données nécessaires pour tirer des visions commerciales précieuses
- Sécuriser les données au repos et en transit
- Surveiller les charges de travail d’analyse pour identifier et résoudre des problèmes
- Appliquer les bonnes pratiques de gestion des coûts
Cette formation met l’accent sur la collecte, l’ingestion, le stockage et le traitement de données dans le pipeline d’analyse. Vous apprendrez à intégrer Amazon Redshift dans un lac de données pour soutenir des charges de travail d’analyse et de machine learning. Vous apprendrez également comment intégrer les bonnes pratiques de sécurité, performance et gestion des coûts à Amazon Redshift.
Contenu :
Module A : Aperçu de l’analytique de données et du pipeline de données
- Les cas d’utilisation de l’analytique de données
- Utiliser un pipeline de données pour l’analyse
Module 1 : Utiliser Amazon Redshift dans le pipeline d’analytique de données
- Pourquoi utiliser Amazon Redshift pour l’entreposage de données ?
- Aperçu d’Amazon Redshift
Module 2 : Introduction à Amazon Redshift
- L’architecture d’Amazon Redshift
- Démonstration interactive 1 : Explorer la console d’Amazon Redshift
- Les fonctionnalités d’Amazon Redshift
- Exercice pratique 1 : Charger et rechercher des données dans un cluster Amazon Redshift
Module 3 : Ingestion et stockage
- Ingestion
- Démonstration interactive 2 : Connecter votre cluster Amazon Redshift en utilisant un Jupiter notebook avec Data API
- Distribution et stockage des données
- Démonstration interactive 3 : Analyser des données semi-structurées avec le type de données SUPER
- Rechercher des données dans Amazon Redshift
- Exercice pratique 2 : L’analytique de données avec Amazon Redshift Spectrum
Module 4 : Traiter et optimiser des données
- Transformation des données
- Recherche avancée
- Exercice pratique 3 : La transformation et la recherche de données dans Amazon Redshift
- Gestion des ressources
- Démonstration interactive 4 : Appliquer une gestion mixe des charges de travail sur Amazon Redshift
- Automatisation et optimisation
- Démonstration interactive 5 : Redimensionner un cluster Amazon Redshift de dc2.large à ra3.xplus
Module 5 : Sécuriser et surveiller les clusters Amazon Redshift
- Sécuriser un cluster Amazon Redshift
- Surveiller et résoudre des problèmes de clusters Amazon Redshift
Module 6 : Créer des solutions d’analytique de données d’entrepôts de données
- L’utilisation pratique d’entrepôt de données
- Activité : Créer des flux de travail d’analyse de données d’entrepôts de données
Module B : Développer des architectures modernes de données sur AWS
- Les architectures modernes de données
Fait partie des cours suivants
- Building Data Analytics Solutions Using Amazon Redshift – Formation intensive
Cette formation comprend des présentations, des démos interactives, des exercices pratiques, des discussions et des exercices en classe.
Ce cours s'adresse aux personnes qui assument le rôle professionnel suivant :
- Data Engineer
Ce cours s’adresse aux ingénieurs en entrepôt de données, aux ingénieurs en plateforme de données et aux architectes et opérateurs qui créent et gèrent des pipelines d’analytique de données.
- Les participantes et participants devraient avoir un minimum d’une année d’expérience en gestion d’entrepôts de données
- Les participantes et participants doivent avoir au préalable :
- Suivi le cours AWS Technical Essentials ou Architecting on AWS
- Suivi le cours Building Data Lakes on AWS
Cette formation marque une étape essentielle vers la certification « AWS Certified Data Analytics - Specialty » pour laquelle il faut passer l'examen « AWS Certified Data Analytics – Specialty » (DAS-C01).
Afin d'être pleinement préparé à l'examen de certification, nous vous conseillons de suivre également les formations suivantes :
L’examen, dont l’inscription se fait directement auprès d’AWS, dure 180 minutes et coûte USD 300.
Matériel
- Support de cours : Environ une semaine avant le début de votre formation, vous recevrez vos données d’accès (code voucher) aux supports de cours électroniques par e-mail directement de l’adresse noreply@gilmore.ca. Tous les supports de cours sont hébergés sur la plateforme evantage.gilmoreglobal.com. Veuillez suivre les instructions contenues dans l’e-mail et créer un compte avec votre adresse e-mail professionnelle (si vous n’avez pas encore de compte) pour accéder aux supports de cours.
- Labs : Tous les exercices des formations techniques sont hébergés sur la plateforme d’exercice officielle d’AWS digicomp.qwiklabs.com. Au début de leur formation, les participantes et participants devront créer leur propre compte sur digicomp.qwiklabs.com avec leur adresse e-mail professionnelle pour avoir accès aux labs officiels d’AWS et pouvoir effectuer les exercices pratiques.
- Plateforme de formation : Si vous participez à une formation virtuelle, vous recevrez l’accès à la plateforme de formation de Digicomp un jour avant le début de votre formation.
- Pour accéder aux supports de cours et exercices pendant le cours, pensez à les télécharger et à apporter votre propre tablette ou ordinateur portable.