- Level Expert
- Course by Google Cloud
-
Offered by
About
En esta segunda parte de la serie de cursos sobre Dataflow, analizaremos en profundidad el desarrollo de canalizaciones con el SDK de Beam. Comenzaremos con un repaso de los conceptos de Apache Beam. A continuación, analizaremos el procesamiento de datos de transmisión con ventanas, marcas de agua y activadores. Luego, revisaremos las opciones de fuentes y receptores en sus canalizaciones, los esquemas para expresar datos estructurados y cómo realizar transformaciones con estado mediante las API de State y de Timer. Después, revisaremos las prácticas recomendadas que ayudan a maximizar el rendimiento de las canalizaciones. Al final del curso, presentaremos SQL y Dataframes para representar su lógica empresarial en Beam y cómo desarrollar canalizaciones de forma iterativa con notebooks de Beam.Modules
Descripción general
1
Videos
- Introducción al curso
2
Readings
- Cómo descargar recursos
- Nota importante sobre los laboratorios prácticos
Comentarios del curso
1
Readings
- Cómo enviar comentarios
Revisión de conceptos de Beam
3
Videos
- Conceptos básicos de Beam
- Transformaciones de utilidad
- Ciclo de vida de DoFn
Lab: Cómo escribir una canalización de ETL con Apache Beam y Cloud Dataflow
2
External Tool
- Lab: Cómo escribir una canalización de ETL con Apache Beam y Cloud Dataflow (Java)
- Lab: Cómo escribir una canalización de ETL con Apache Beam y Cloud Dataflow (Python)
1
Videos
- Empezar a usar Google Cloud y Qwiklabs
Cuestionario
1
Assignment
- Revisión de conceptos de Beam
Recursos Adicionales
1
Readings
- Recursos del módulo
Ventanas, marcas de agua y activadores
3
Videos
- Ventanas
- Marcas de agua
- Activadores
Lab: Canalizaciones de análisis por lotes con Cloud Dataflow
2
External Tool
- Lab: Canalizaciones de análisis por lotes con Cloud Dataflow (Java)
- Lab: Canalizaciones de análisis por lotes con Cloud Dataflow (Python)
Lab: Canalización de análisis de transmisiones con Cloud Dataflow
2
External Tool
- Lab: Canalización de análisis de transmisiones con Cloud Dataflow (Java)
- Lab: Canalización de análisis de transmisiones con Cloud Dataflow (Python)
Cuestionario
1
Assignment
- Ventanas, marcas de agua y activadores
Recursos Adicionales
1
Readings
- Recursos del módulo
Fuentes y receptores
8
Videos
- Fuentes y receptores
- E/S de Text y de File
- E/S de BigQuery
- E/S de PubSub
- E/S de Kafka
- E/S de BigTable
- E/S de Avro
- DoFn divisible
Cuestionario
1
Assignment
- Fuentes y receptores
Recursos Adicionales
1
Readings
- Recursos del módulo
Esquemas
2
Videos
- Esquemas de Beam
- Ejemplos de código
Lab: Canalizaciones de ramificación y plantillas flexibles personalizadas de Dataflow
2
External Tool
- Lab: Canalizaciones de ramificación y plantillas flexibles personalizadas de Dataflow (Java)
- Lab: Canalizaciones de ramificación y plantillas flexibles personalizadas de Dataflow (Python)
Cuestionario
1
Assignment
- Esquemas
Recursos Adicionales
1
Readings
- Recursos del módulo
Estado y Temporizadores
3
Videos
- API de State
- API de Timer
- Resumen
Cuestionario
1
Assignment
- Estado y Temporizadores
Recursos Adicionales
1
Readings
- Recursos del módulo
Prácticas Recomendadas
7
Videos
- Esquemas
- Manejo de los datos que no se pueden procesar
- Manejo de errores
- Generador de código AutoValue
- Manejo de datos JSON
- Utilización del ciclo de vida de DoFn
- Optimizaciones para canalizaciones
Lab: Canalización avanzada de análisis de transmisiones con Cloud Dataflow
2
External Tool
- Lab: Canalización avanzada de análisis de transmisiones con Cloud Dataflow (Java)
- Lab: Canalización avanzada de análisis de transmisiones con Cloud Dataflow (Python)
Cuestionario
1
Assignment
- Prácticas Recomendadas
Recursos Adicionales
1
Readings
- Recursos del módulo
Dataflow SQL y DataFrames
3
Videos
- Dataflow y SQL de Beam
- Sistema de ventanas en SQL
- Dataframes de Beam
Lab: Canalizaciones de SQL de análisis por lotes con Cloud Dataflow
2
External Tool
- Lab: Canalizaciones de SQL de análisis por lotes con Cloud Dataflow (Java)
- Lab: Canalizaciones de SQL de análisis por lotes con Cloud Dataflow (Python)
Lab: Cómo usar Dataflow SQL para el análisis de transmisiones
2
External Tool
- Lab: Cómo usar Dataflow SQL para el análisis de transmisiones (Java)
- Lab: Cómo usar Dataflow SQL para el análisis de transmisiones (Python)
Cuestionario
1
Assignment
- Dataflow SQL y DataFrames
Recursos Adicionales
1
Readings
- Recursos del módulo
Notebooks de Beam
1
Videos
- Notebooks de Beam
Cuestionario
1
Assignment
- Notebooks de Beam
Recursos Adicionales
1
Readings
- Recursos del módulo
Resumen
1
Videos
- Resumen del curso
Auto Summary
**Serverless Data Processing with Dataflow: Develop Pipelines en Español** Delve into the world of data science and AI with this expert-level course that focuses on developing data pipelines using the Beam SDK. Building upon foundational concepts of Apache Beam, this course offers an in-depth exploration of stream data processing, including windows, watermarks, and triggers. You will also learn about various sources and sinks, structured data schemas, and stateful transformations using State and Timer APIs. The course emphasizes best practices to enhance pipeline performance, and introduces SQL and Dataframes for business logic representation in Beam. Additionally, it covers iterative pipeline development using Beam notebooks. This Spanish-language course is available through Coursera and offers flexible subscription options, including Starter and Professional plans, catering to advanced learners looking to enhance their data processing skills in a serverless environment.

Google Cloud Training