En este curso, aprenderás sobre la ingeniería de datos en Google Cloud, los roles y responsabilidades de los ingenieros de datos y cómo se relacionan con las soluciones ofrecidas por Google Cloud. También aprenderás formas de abordar los desafíos de la ingeniería de datos.
Objetivos
En este curso, los participantes aprenderán las siguientes habilidades:
- Comprender el rol de un ingeniero de datos.
- Identificar las tareas de ingeniería de datos y los componentes principales utilizados en Google Cloud.
- Entender cómo crear e implementar pipelines de datos con diferentes patrones en Google Cloud.
- Identificar y utilizar diversas técnicas de automatización en Google Cloud.
Público objetivo
Esta clase está dirigida al siguiente público:
- Ingenieros de datos
- Administradores de bases de datos
- Administradores de sistemas
Requisitos previos
Para aprovechar al máximo este curso, los participantes deben cumplir con los siguientes criterios:
- Experiencia previa con Google Cloud a nivel fundamental, utilizando Cloud Shell y accediendo a productos desde la consola de Google Cloud.
Conocimientos básicos de un lenguaje de consulta común, como SQL.
Experiencia en modelado de datos y actividades de ETL (extracción, transformación y carga).
Experiencia desarrollando aplicaciones utilizando un lenguaje de programación común, como Python.
Duración
1 dia
Inversión
Vea el valor actualizado y los próximos cierres para las clases abiertas en nuestra página de registro.
Si está interesado en una clase cerrada para su empresa, contáctenos.
Resumen del curso
- Explain the role of a data engineer.
- Understand the differences between a data source and a data sink.
- Explain the different types of data formats.
- Explain the storage solution options on Google Cloud.
- Learn about the metadata management options on Google Cloud.
- Understand how to share datasets with ease using Analytics Hub.
- Understand how to load data into BigQuery using the Google Cloud console and/or the gcloud CLI.
- Describe roles and user attributes in Looker.
- Explain how to connect your Looker instance to a database
- Explain the baseline Google Cloud data replication and migration architecture.
- Understand the options and use cases for the gcloud command line tool.
- Explain the functionality and use cases for Storage Transfer Service.
- Explain the functionality and use cases for Transfer Appliance.
- Understand the features and deployment of Datastream.and advantages of native derived tables.
- Maintain derived tables in Looker.
- Describe performance implications of different PDT options.
- Explain the baseline extract and load architecture diagram.
- Understand the options of the bq command line tool.
- Explain the functionality and use cases for BigQuery Data Transfer Service.
- Explain the functionality and use cases for BigLake as a non-extract-load pattern.
- Explain the baseline extract, load, and transform architecture diagram.
- Understand a common ELT pipeline on Google Cloud.
- Learn about BigQuery’s SQL scripting and scheduling capabilities.
- Explain the functionality and use cases for Dataform.
- Explain the baseline extract, transform, and load architecture diagram.
- Learn about the GUI tools on Google Cloud used for ETL data pipelines.
- Explain batch data processing using Dataproc.
- Learn how to use Dataproc Serverless for Spark for ETL.
- Explain streaming data processing options.
- Explain the role Bigtable plays in data pipelines.
- Explain the automation patterns and options available for pipelines.
- Learn about Cloud Scheduler and Workflows.
- Learn about Cloud Composer.
- Learn about Cloud Run functions.
- Explain the functionality and automation use cases for Eventarc.