Gracias por enviar su consulta! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Gracias por enviar su reserva! Uno de los miembros de nuestro equipo se pondrá en contacto con usted en breve.
Programa del Curso
Introducción:
- Apache Spark en el ecosistema Hadoop
- Breve introducción para python, scala
Conceptos básicos (teoría):
- Arquitectura
- RDD
- Transformación y Acciones
- Etapa, tarea, dependencias
Uso del entorno Databricks comprender los conceptos básicos (taller práctico):
- Ejercicios con RDD API
- Funciones básicas de acción y transformación
- PairRDD
- Juntar
- Estrategias de almacenamiento en caché
- Ejercicios con la API de DataFrame
- ChispaSQL
- DataFrame: seleccionar, filtrar, agrupar, ordenar
- UDF (Función definida por el usuario)
- Examinando la API de DataSet
- Streaming
Uso del entorno de AWS Comprender la implementación (taller práctico):
- Conceptos básicos de AWS Glue
- Comprender las diferencias entre AWS EMR yAWS Glue
- Ejemplos de trabajos en ambos entornos
- Comprender los pros y los contras
Extra:
- Introducción a laorquestación Apache Airflow
Requerimientos
Habilidades de programación (preferiblemente python, scala)
SQL Conceptos básicos
21 Horas
Testimonios (3)
Sesión práctica / tareas
Poornima Chenthamarakshan - Intelligent Medical Objects
Curso - Apache Spark in the Cloud
Traducción Automática
1. Equilibrio adecuado entre conceptos de alto nivel y detalles técnicos. 2. András es muy conocedor sobre su enseñanza. 3. Ejercicio
Steven Wu - Intelligent Medical Objects
Curso - Apache Spark in the Cloud
Traducción Automática
Aprende sobre Spark Streaming, Databricks y AWS Redshift
Lim Meng Tee - Jobstreet.com Shared Services Sdn. Bhd.
Curso - Apache Spark in the Cloud
Traducción Automática