Capacitación en Apache Hadoop - una implementación de código abierto de dos soluciones Google BigData: GFS (Google File System) y el paradigma de programación MapReduce.
Es un marco completo destinado a almacenar y procesar grandes conjuntos de datos. Hadoop es utilizado por la mayoría de los proveedores del servicio de nube global como Yahoo, Facebook o LinkedIn. Los cursos de capacitación local en vivo de Apache Hadoop demuestran a través de la discusión y la práctica manual los componentes principales del ecosistema de Hadoop y cómo estas tecnologías se pueden utilizar para resolver problemas a gran escala.
La capacitación en Hadoop está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en Ecuador o en los centros de capacitación corporativa de NobleProg en Ecuador, la segunda se lleva a cabo a través de un escritorio remoto interactivo.
Python es un lenguaje de programación escalable, flexible y ampliamente utilizado para la ciencia de datos y el aprendizaje por máquina. Spark es un motor de procesamiento de datos utilizado en la búsqueda, análisis y transformación de datos grandes, mientras que Hadoop es un marco de biblioteca de software para almacenamiento y procesamiento de datos de gran escala.
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a desarrolladores que desean utilizar y integrar Spark, Hadoop, y Python para procesar, analizar y transformar grandes y complejos conjuntos de datos.
Al final de este curso, los participantes podrán:
Configure el entorno necesario para comenzar el procesamiento de datos grandes con Spark, Hadoop, y Python.
Comprender las características, los componentes centrales y la arquitectura de Spark y Hadoop.
Aprende cómo integrar Spark, Hadoop, y Python para el procesamiento de datos grandes.
Explora las herramientas en el ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, y Flume).
Construye sistemas de recomendación de filtros colaborativos similares a Netflix, YouTube, Amazon, Spotify y Google.
Utilice Apache Mahout para escalar algoritmos de aprendizaje de máquina.
Formato del curso
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Datameer es una plataforma de inteligencia de negocios y análisis construida en Hadoop. Permite a los usuarios finales acceder, explorar y correlacionar datos a gran escala, estructurados, semiestructurados y no estructurados de una manera fácil de usar.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Datameer para superar la pronunciada curva de aprendizaje de Hadoop a medida que avanzan en la configuración y el análisis de una serie de grandes fuentes de datos.
Al final de esta capacitación, los participantes podrán:
Crea, selecciona e interactivamente explora un lago de datos empresariales
Acceda a almacenes de datos de inteligencia empresarial, bases de datos transaccionales y otras tiendas analíticas
Use una interfaz de usuario de hoja de cálculo para diseñar las tuberías de procesamiento de datos de extremo a extremo
Acceda a funciones preconstruidas para explorar relaciones de datos complejas
Utilice asistentes de arrastrar y soltar para visualizar datos y crear paneles
Use tablas, cuadros, gráficos y mapas para analizar los resultados de las consultas
Audiencia
Analistas de datos
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Alexio es un sistema de almacenamiento distribuido virtual de código abierto que unifica sistemas de almacenamiento dispares y permite que las aplicaciones interactúen con datos a la velocidad de la memoria. Es utilizado por compañías como Intel, Baidu y Alibaba.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Alexio para unir diferentes marcos de computación con sistemas de almacenamiento y administrar de manera eficiente los datos de escala de varios petabytes mientras avanzan en la creación de una aplicación con Alluxio.
Al final de esta capacitación, los participantes podrán:
Desarrolle una aplicación con Alluxio
Conecte aplicaciones y sistemas de big data mientras conserva un espacio de nombres
Extrae de manera eficiente el valor de los grandes datos en cualquier formato de almacenamiento
Mejorar el rendimiento de la carga de trabajo
Implemente y administre Alluxio de forma independiente o en clúster
Audiencia
Científico de datos
Desarrollador
Administrador de sistema
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Audiencia:
El curso está dirigido a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en un entorno de sistema distribuido
Gol:
Conocimiento profundo sobre administración de clúster de Hadoop.
Este curso está dirigido a desarrolladores, arquitectos, científicos de datos o cualquier perfil que requiera acceso a los datos de forma intensiva o regular.
El enfoque principal del curso es la manipulación y transformación de datos.
Entre las herramientas del ecosistema de Hadoop, este curso incluye el uso de Pig y Hive, que se utilizan mucho para la transformación y manipulación de datos.
Esta capacitación también aborda las métricas de rendimiento y la optimización del rendimiento.
El curso es completamente práctico y está marcado por presentaciones de los aspectos teóricos.
El análisis de Big Data implica el proceso de examinar grandes cantidades de conjuntos de datos variados para descubrir correlaciones, patrones ocultos y otras ideas útiles. La industria de la salud tiene cantidades masivas de datos clínicos y médicos heterogéneos complejos. La aplicación de análisis de big data en datos de salud presenta un enorme potencial para obtener información para mejorar la prestación de servicios de salud. Sin embargo, la magnitud de estos conjuntos de datos plantea grandes desafíos en los análisis y aplicaciones prácticas en un entorno clínico. En esta capacitación en vivo (remota) dirigida por un instructor, los participantes aprenderán cómo realizar análisis de big data en salud a medida que realizan una serie de ejercicios prácticos de laboratorio en vivo. Al final de esta capacitación, los participantes podrán:
Instale y configure herramientas de análisis de big data como Hadoop MapReduce y Spark
Comprender las características de los datos médicos.
Aplicar técnicas de big data para manejar datos médicos.
Estudiar los sistemas y algoritmos de big data en el contexto de las aplicaciones de salud.
Audiencia
Desarrolladores
Científicos de datos
Formato del curso
Conferencia en parte, discusión en parte, ejercicios y práctica práctica.
Nota
Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
El curso está dedicado a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en entornos de sistemas distribuidos
Objetivo del curso:
Obtención de conocimientos sobre la administración de clúster de Hadoop
Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. En este curso de tres (opcionalmente, cuatro) días, los asistentes aprenderán sobre los beneficios empresariales y los casos de uso de Hadoop y su ecosistema, cómo planificar el despliegue y crecimiento del clúster, cómo instalar, mantener, monitorear, solucionar y optimizar Hadoop. También practicarán la carga de datos a granel del clúster, se familiarizarán con varias distribuciones de Hadoop y practicarán la instalación y administración de herramientas del ecosistema de Hadoop. El curso finaliza con la discusión sobre la seguridad del clúster con Kerberos.
"... Los materiales estaban muy bien preparados y cubiertos a fondo. El laboratorio fue muy servicial y bien organizado "
- Andrew Nguyen, Ingeniero Principal de Integración DW, Microsoft Online Advertising
Audiencia
Administradores de Hadoop
Formato
Conferencias y laboratorios prácticos, balance aproximado 60% conferencias, 40% laboratorios.
Apache Hadoop es el marco más popular para el procesamiento de Big Data. Hadoop proporciona una capacidad analítica rica y profunda, y está haciendo in-roads en el mundo analítico de BI tradicional. Este curso presentará a un analista a los componentes principales del sistema Hadoop eco y sus análisis
Audiencia
Analistas de Negocios
Duración
tres días
Formato
Conferencias y manos sobre laboratorios.
Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. Este curso presentará un desarrollador a varios componentes (HDFS, MapReduce, Pig, Hive y HBase) Hadoop ecosistema.
Apache Hadoop es uno de los frameworks más populares para procesar Big Data en clusters de servidores. Este curso profundiza en el manejo de datos en HDFS, Pig, Hive y HBase. Estas técnicas avanzadas de programación serán beneficiosas para los desarrolladores experimentados de Hadoop.
Audiencia: desarrolladores
Duración: tres días
Formato: conferencias (50%) y laboratorios prácticos (50%).
A medida que más y más proyectos de software y TI migran de procesamiento local y administración de datos a procesamiento distribuido y almacenamiento de big data, los Gerentes de Proyecto encuentran la necesidad de actualizar sus conocimientos y habilidades para comprender los conceptos y prácticas relevantes para proyectos y oportunidades de Big Data.
Este curso presenta a los Project Managers al marco de procesamiento de Big Data más popular: Hadoop.
En esta capacitación dirigida por un instructor, los participantes aprenderán los componentes principales del ecosistema de Hadoop y cómo estas tecnologías pueden usarse para resolver problemas a gran escala. Al aprender estas bases, los participantes también mejorarán su capacidad de comunicarse con los desarrolladores e implementadores de estos sistemas, así como con los científicos y analistas de datos que involucran muchos proyectos de TI.
Audiencia
Project Managers que desean implementar Hadoop en su infraestructura de TI o desarrollo existente
Los gerentes de proyectos necesitan comunicarse con equipos multifuncionales que incluyen grandes ingenieros de datos, científicos de datos y analistas de negocios
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Hadoop es un popular marco de procesamiento Big Data. Python es un lenguaje de programación de alto nivel famoso por su claridad de sintaxis y código.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo trabajar con Hadoop, MapReduce, Pig y Spark utilizando Python, ya que pasan por múltiples ejemplos y casos de uso.
Al final de esta capacitación, los participantes podrán:
Comprender los conceptos básicos detrás de Hadoop, MapReduce, Pig y Spark
Utilice Python con Hadoop Distributed File System (HDFS), MapReduce, Pig y Spark
Utilice Snakebite para acceder mediante programación a HDFS dentro de Python
Usa mrjob para escribir trabajos de MapReduce en Python
Escribir programas Spark con Python
Extienda la funcionalidad del cerdo usando las UDF de Python
Administrar trabajos de MapReduce y scripts Pig utilizando Luigi
Audiencia
Desarrolladores
Profesionales de TI
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Apache Hadoop es un marco de procesamiento de datos popular para el procesamiento de grandes conjuntos de datos en muchos ordenadores.
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a los administradores de sistemas que desean aprender cómo configurar, implementar y gestionar Hadoop clusters dentro de su organización.
Al final de este curso, los participantes podrán:
Instalar y configurar Apache Hadoop.
Comprender los cuatro componentes principales del ecosistema: HDFS, MapReduce, YARN y Hadoop Common.
Utilice Hadoop Sistema de archivos distribuidos (HDFS) para escalar un cluster a cientos o miles de nodos. •
Instalar HDFS para operar como motor de almacenamiento para los despachos de Spark en prisión.
Instalar Spark para acceder a soluciones de almacenamiento alternativas como Amazon S3 y NoSQL sistemas de datos como Redis, Elasticsearch, Couchbase, Aerospike, etc.
Realizar tareas administrativas como proporcionar, gestionar, monitorear y asegurar un cluster de Apache.
Formato del curso
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Este curso introduce HBase - un almacén NoSQL en la parte superior de Hadoop. El curso está dirigido a desarrolladores que usarán HBase para desarrollar aplicaciones y administradores que administrarán los clústeres de HBase.
Vamos a recorrer un desarrollador a través de la arquitectura de HBase y modelado de datos y desarrollo de aplicaciones en HBase. También discutirá el uso de MapReduce con HBase y algunos temas de administración relacionados con la optimización del rendimiento. El curso es muy práctico con muchos ejercicios de laboratorio.
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo.
Al final de esta capacitación, los participantes podrán:
Instalar y configurar Apachi NiFi
Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes.
Automatice los flujos de datos
Habilitar análisis de transmisión
Aplicar varios enfoques para la ingestión de datos
Transformar Big Data y en conocimientos empresariales
Audiencia
Administradores del sistema
Ingenieros de datos
Desarrolladores
DevOps
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi.
Al final de esta capacitación, los participantes podrán:
Comprender los conceptos de arquitectura y flujo de datos de NiFi
Desarrollar extensiones utilizando NiFi y API de terceros
Desarrolla a medida su propio procesador Apache Nifi
Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos
Audiencia
Desarrolladores
Ingenieros de datos
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Apache Samza es un marco computacional asíncrono de código abierto casi en tiempo real para el procesamiento de flujos. Utiliza Apache Kafka para mensajería y Apache Hadoop YARN para tolerancia a fallas, aislamiento de procesador, seguridad y administración de recursos.
Esta capacitación en vivo dirigida por un instructor presenta los principios detrás de los sistemas de mensajería y el procesamiento distribuido de flujo, mientras acompaña a los participantes a través de la creación de un proyecto basado en Samza y la ejecución de trabajos.
Al final de esta capacitación, los participantes podrán:
Usa Samza para simplificar el código necesario para producir y consumir mensajes
Desacoplar el manejo de los mensajes de una aplicación
Utilice Samza para implementar cálculos asincrónicos casi en tiempo real
Utilice el procesamiento de flujo para proporcionar un mayor nivel de abstracción en los sistemas de mensajería
Audiencia
Desarrolladores
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Sqoop es una herramienta de software de código abierto para transferir datos entre Hadoop y bases de datos relacionales o mainframes Se puede usar para importar datos desde un sistema de administración de bases de datos relacionales (RDBMS) como MySQL u Oracle o un mainframe al Sistema de archivos distribuidos de Hadoop (HDFS) A partir de entonces, los datos se pueden transformar en Hadoop MapReduce, y luego se pueden volver a exportar a un RDBMS En esta capacitación en vivo con instructor, los participantes aprenderán a usar Sqoop para importar datos de una base de datos relacional tradicional al almacenamiento de Hadoop, como HDFS o Hive y viceversa Al final de esta capacitación, los participantes podrán: Instalar y configurar Sqoop Importar datos de MySQL a HDFS y Hive Importar datos de HDFS y Hive a MySQL Audiencia Administradores del sistema Ingenieros de datos Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica manual Nota Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos .
Tigon es un marco de procesamiento de flujo de fuente abierta, en tiempo real, de baja latencia y alto rendimiento, nativo, que se asienta sobre HDFS y HBase para la persistencia. Las aplicaciones de Tigon abordan casos de uso tales como detección y análisis de intrusiones de red, análisis de mercado de redes sociales, análisis de ubicación y recomendaciones en tiempo real para los usuarios.
Este curso presencial, dirigido por un instructor, presenta el enfoque de Tigon para combinar el procesamiento en tiempo real y por lotes a medida que guía a los participantes a través de la creación de una aplicación de muestra.
Al final de esta capacitación, los participantes podrán:
Cree aplicaciones potentes de procesamiento de flujo para manejar grandes volúmenes de datos
Fuentes de flujo de procesos como Twitter y registros de servidor web
Utilice Tigon para unir, filtrar y agregar secuencias rápidamente
Audiencia
Desarrolladores
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Cloudera Impala es un motor de consulta SQL de procesamiento masivo paralelo (MPP) de código abierto para clústeres Apache Hadoop.
Impala permite a los usuarios emitir consultas SQL de baja latencia a los datos almacenados en Hadoop Distributed File System y Apache Hbase sin necesidad de movimiento o transformación de datos.
Audiencia
Este curso está dirigido a analistas y científicos de datos que realizan análisis sobre datos almacenados en Hadoop a través de herramientas de Business Intelligence o SQL.
Después de este curso, los delegados podrán
Extraer información significativa de los clústeres de Hadoop con Impala.
Escriba programas específicos para facilitar la Inteligencia de Negocios en Impala SQL Dialect.
Apache Ambari es una plataforma de administración de código abierto para el aprovisionamiento, la administración, el monitoreo y la seguridad de los clústeres de Apache Hadoop.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán las herramientas y prácticas de administración proporcionadas por Ambari para administrar con éxito los clústeres de Hadoop.
Al final de esta capacitación, los participantes podrán:
Configure un clúster de Big Data en tiempo real usando Ambari
Aplicar las características y funcionalidades avanzadas de Ambari a varios casos de uso
Agregue y elimine nodos sin problemas según sea necesario
Mejore el rendimiento de un clúster de Hadoop a través de ajustes y ajustes
Audiencia
DevOps
Administradores del sistema
DBAs
Profesionales de prueba de Hadoop
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Hortonworks Data Platform es una plataforma de soporte de Apache Hadoop de código abierto que proporciona una base estable para el desarrollo de soluciones de big data en el ecosistema de Apache Hadoop.
Esta capacitación en vivo dirigida por un instructor presenta a Hortonworks y guía a los participantes a través del despliegue de la solución Spark + Hadoop.
Al final de esta capacitación, los participantes podrán:
Use Hortonworks para ejecutar confiablemente Hadoop a gran escala
Unifique las capacidades de seguridad, gobierno y operaciones de Hadoop con los flujos de trabajo analíticos ágiles de Spark.
Use Hortonworks para investigar, validar, certificar y dar soporte a cada uno de los componentes en un proyecto Spark
Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo.
Audiencia
Administradores de Hadoop
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Cursos de Fin de Semana de Hadoop, Capacitación por la Tarde de Apache Hadoop, Hadoop boot camp, Clases de Apache Hadoop, Capacitación de Fin de Semana de Hadoop, Cursos por la Tarde de Hadoop, Hadoop coaching, Instructor de Apache Hadoop, Capacitador de Apache Hadoop, Apache Hadoop con instructor, Cursos de Formación de Apache Hadoop, Apache Hadoop en sitio, Cursos Privados de Apache Hadoop, Clases Particulares de Hadoop, Capacitación empresarial de Hadoop, Talleres para empresas de Apache Hadoop, Cursos en linea de Hadoop, Programas de capacitación de Apache Hadoop, Clases de Hadoop
Promociones
No hay descuentos de cursos por ahora.
Descuentos en los Cursos
Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas. En cualquier momento puede cambiar sus preferencias o cancelar su suscripción por completo.
is growing fast!
We are looking to expand our presence in Ecuador!
As a Business Development Manager you will:
expand business in Ecuador
recruit local talent (sales, agents, trainers, consultants)
recruit local trainers and consultants
We offer:
Artificial Intelligence and Big Data systems to support your local operation
high-tech automation
continuously upgraded course catalogue and content
good fun in international team
If you are interested in running a high-tech, high-quality training and consulting business.