Cursos de Hadoop

Cursos de Hadoop

Capacitación en Apache Hadoop - una implementación de código abierto de dos soluciones Google BigData: GFS (Google File System) y el paradigma de programación MapReduce. Es un marco completo destinado a almacenar y procesar grandes conjuntos de datos. Hadoop es utilizado por la mayoría de los proveedores del servicio de nube global como Yahoo, Facebook o LinkedIn. Los cursos de capacitación local en vivo de Apache Hadoop demuestran a través de la discusión y la práctica manual los componentes principales del ecosistema de Hadoop y cómo estas tecnologías se pueden utilizar para resolver problemas a gran escala. La capacitación en Hadoop está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en Ecuador o en los centros de capacitación corporativa de NobleProg en Ecuador, la segunda se lleva a cabo a través de un escritorio remoto interactivo.

NobleProg -- Su Proveedor Local de Capacitación

Testimonios

★★★★★
★★★★★

Algunos de nuestros clientes

Programas de los cursos Hadoop

Nombre del Curso
Duración
Descripción General
Nombre del Curso
Duración
Descripción General
21 horas
Python es un lenguaje de programación escalable, flexible y ampliamente utilizado para la ciencia de datos y el aprendizaje por máquina. Spark es un motor de procesamiento de datos utilizado en la búsqueda, análisis y transformación de datos grandes, mientras que Hadoop es un marco de biblioteca de software para almacenamiento y procesamiento de datos de gran escala. Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a desarrolladores que desean utilizar y integrar Spark, Hadoop, y Python para procesar, analizar y transformar grandes y complejos conjuntos de datos. Al final de este curso, los participantes podrán:
    Configure el entorno necesario para comenzar el procesamiento de datos grandes con Spark, Hadoop, y Python. Comprender las características, los componentes centrales y la arquitectura de Spark y Hadoop. Aprende cómo integrar Spark, Hadoop, y Python para el procesamiento de datos grandes. Explora las herramientas en el ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, y Flume). Construye sistemas de recomendación de filtros colaborativos similares a Netflix, YouTube, Amazon, Spotify y Google. Utilice Apache Mahout para escalar algoritmos de aprendizaje de máquina.
Formato del curso
    Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
    Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
7 horas
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
14 horas
Datameer es una plataforma de inteligencia de negocios y análisis construida en Hadoop Permite a los usuarios finales acceder, explorar y correlacionar datos a gran escala, estructurados, semiestructurados y no estructurados de una manera fácil de usar En este entrenamiento en vivo con instructor, los participantes aprenderán a utilizar Datameer para superar la pronunciada curva de aprendizaje de Hadoop a medida que avanzan en la configuración y el análisis de una serie de grandes fuentes de datos Al final de esta capacitación, los participantes podrán: Crea, selecciona e interactivamente explora un lago de datos empresariales Acceda a almacenes de datos de inteligencia empresarial, bases de datos transaccionales y otras tiendas analíticas Use una interfaz de usuario de hoja de cálculo para diseñar las tuberías de procesamiento de datos de final de serie Acceda a las funciones preconstruidas para explorar relaciones complejas de datos Utilice asistentes de draganddrop para visualizar datos y crear paneles Use tablas, cuadros, gráficos y mapas para analizar los resultados de las consultas Audiencia Analistas de datos Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica manual .
21 horas
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration
35 horas
Audiencia: El curso está dirigido a especialistas de TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en un entorno de sistema distribuido. Go al Profundo conocimiento sobre la administración de clusters de Hadoop .
28 horas
Audience: This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
28 horas
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.  
21 horas
Apache Hadoop es uno de los marcos más populares para el procesamiento de Big Data en grupos de servidores. Este curso profundiza en la gestión de datos en HDFS, Advanced Pig, Hive y HBase. Estas técnicas de programación avanzadas serán beneficiosas para los desarrolladores experimentados de Hadoop . Audiencia : desarrolladores Duración: tres días Formato: conferencias (50%) y laboratorios prácticos (50%).
21 horas
This course introduces HBase – a NoSQL store on top of Hadoop.  The course is intended for developers who will be using HBase to develop applications,  and administrators who will manage HBase clusters. We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course  is very  hands-on with lots of lab exercises.
Duration : 3 days Audience : Developers  & Administrators
21 horas
Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. En este curso de tres (opcionalmente, cuatro) días, los asistentes conocerán los beneficios empresariales y los casos de uso de Hadoop y su ecosistema, cómo planificar la implementación y el crecimiento del clúster, cómo instalar, mantener, monitorear, solucionar problemas y optimizar Hadoop . También practicarán la carga de datos en grupo, se familiarizarán con varias distribuciones de Hadoop y practicarán la instalación y administración de las herramientas del ecosistema de Hadoop . El curso termina con una discusión sobre la seguridad del clúster con Kerberos. “... Los materiales estaban muy bien preparados y cubiertos a fondo. El laboratorio fue muy útil y bien organizado ”
- Andrew Nguyen, Ingeniero de Integración Principal de DW, Microsoft Online Advertising Audiencia Administradores de Hadoop Formato Conferencias y laboratorios prácticos, balance aproximado de 60% de conferencias, 40% de laboratorios.
21 horas
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics Audience Business Analysts Duration three days Format Lectures and hands on labs.
21 horas
Hadoop es el marco de procesamiento de Big Data más popular .
14 horas
Audience
  • Developers
Format of the Course
  • Lectures, hands-on practice, small tests along the way to gauge understanding
21 horas

Este curso está destinado a desarrolladores, arquitectos, científicos de datos o cualquier perfil que requiera acceso a los datos de manera intensiva o regular. El enfoque principal del curso es la manipulación y transformación de datos. Entre las herramientas en el ecosistema de Hadoop este curso incluye el uso de Pig y Hive los cuales son muy utilizados para la transformación y manipulación de datos. Esta capacitación también aborda las métricas de rendimiento y la optimización del rendimiento. El curso es totalmente práctico y está marcado por presentaciones de los aspectos teóricos.
14 horas
In this instructor-led training in Ecuador, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will  improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve. Audience
  • Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
  • Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
14 horas
Apache Samza es un marco computacional asíncrono de código abierto casi en tiempo real para el procesamiento de flujo. Utiliza Apache Kafka para mensajería y Apache Hadoop YARN para tolerancia a fallas, aislamiento de procesador, seguridad y administración de recursos. Esta capacitación en vivo dirigida por un instructor presenta los principios detrás de los sistemas de mensajería y el procesamiento de flujo distribuido, mientras guía a los participantes a través de la creación de un proyecto de muestra basado en Samza y la ejecución del trabajo. Al final de esta capacitación, los participantes podrán:
  • Use Samza para simplificar el código necesario para producir y consumir mensajes.
  • Desacoplar el manejo de mensajes desde una aplicación.
  • Use Samza para implementar el cálculo asincrónico casi en tiempo real.
  • Utilice el procesamiento continuo para proporcionar un mayor nivel de abstracción sobre los sistemas de mensajería.
Audiencia
  • Desarrolladores
Formato del curso
  • Conferencia parcial, discusión parcial, ejercicios y práctica práctica.
7 horas
Alexio es un sistema de almacenamiento distribuido virtual de código abierto que unifica sistemas de almacenamiento dispares y permite que las aplicaciones interactúen con datos a la velocidad de la memoria Es utilizado por compañías como Intel, Baidu y Alibaba En esta capacitación en vivo con instructor, los participantes aprenderán a usar Alexio para unir diferentes marcos de cálculo con sistemas de almacenamiento y administrar de manera eficiente los datos de escala multipetabyte a medida que avanzan en la creación de una aplicación con Alluxio Al final de esta capacitación, los participantes podrán: Desarrolle una aplicación con Alluxio Conecte aplicaciones y sistemas de big data mientras conserva un espacio de nombres Extrae de manera eficiente el valor de los grandes datos en cualquier formato de almacenamiento Mejorar el rendimiento de la carga de trabajo Implemente y administre Alluxio de forma independiente o en clúster Audiencia Científico de datos Desarrollador Administrador de sistema Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica manual .
14 horas
Tigon es un framework de procesamiento de flujo abierto, en tiempo real, de baja latencia, de alto rendimiento, YARN nativo, que se encuentra en la parte superior de HDFS y HBase para la persistencia Las aplicaciones de Tigon abordan casos de uso como la detección y análisis de intrusiones en la red, análisis de mercados de medios sociales, análisis de ubicación y recomendaciones en tiempo real para los usuarios Esta capacitación presencial, instrumentada, presenta el enfoque de Tigon para combinar el procesamiento en tiempo real y por lotes a medida que guía a los participantes a través de la creación de una aplicación de muestra Al final de esta capacitación, los participantes podrán: Cree aplicaciones potentes de procesamiento de flujo para manejar grandes volúmenes de datos Fuentes de flujo de procesos como Twitter y registros de servidor web Utilice Tigon para unir, filtrar y agregar secuencias rápidamente Audiencia Desarrolladores Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica manual .
21 horas
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar datos entre sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real. En esta capacitación en vivo dirigida por un instructor (en el sitio o remota), los participantes aprenderán cómo implementar y administrar Apache NiFi en un entorno de laboratorio en vivo. Al final de esta capacitación, los participantes podrán:
  • Instalar y configurar Apachi NiFi.
  • Obtenga, transforme y gestione datos de fuentes de datos distribuidas y dispares, incluidas bases de datos y grandes lagos de datos.
  • Automatizar flujos de datos.
  • Habilite el análisis de transmisión.
  • Aplicar varios enfoques para la ingestión de datos.
  • Transforme Big Data y en conocimientos empresariales.
Formato del curso
  • Conferencia interactiva y discusión.
  • Muchos ejercicios y práctica.
  • Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
  • Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
7 horas
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar datos entre sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en el flujo a medida que desarrollan una serie de extensiones de demostración, componentes y procesadores que usan Apache NiFi . Al final de esta capacitación, los participantes podrán:
  • Comprender la arquitectura de NiFi y los conceptos de flujo de datos.
  • Desarrolle extensiones con NiFi y API de terceros.
  • Desarrollar a medida su propio procesador Apache Nifi.
  • Ingesta y procesa datos en tiempo real desde formatos de archivos y fuentes de datos dispares y poco comunes.
Formato del curso
  • Conferencia interactiva y discusión.
  • Muchos ejercicios y práctica.
  • Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
  • Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
28 horas
Hadoop es un popular marco de procesamiento Big Data Python es un lenguaje de programación de alto nivel famoso por su claridad de sintaxis y código En esta capacitación en vivo con instructor, los participantes aprenderán cómo trabajar con Hadoop, MapReduce, Pig y Spark usando Python mientras pasan por múltiples ejemplos y casos de uso Al final de esta capacitación, los participantes podrán: Comprender los conceptos básicos detrás de Hadoop, MapReduce, Pig y Spark Utilice Python con Hadoop Distributed File System (HDFS), MapReduce, Pig y Spark Utilice Snakebite para acceder mediante programación a HDFS dentro de Python Usa mrjob para escribir trabajos de MapReduce en Python Escribir programas Spark con Python Extienda la funcionalidad del cerdo usando las UDF de Python Administrar trabajos de MapReduce y scripts Pig utilizando Luigi Audiencia Desarrolladores Profesionales de TI Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica manual .
14 horas
Sqoop es una herramienta de software de código abierto para transferir datos entre Hadoop y bases de datos relacionales o mainframes Se puede usar para importar datos desde un sistema de administración de bases de datos relacionales (RDBMS) como MySQL u Oracle o un mainframe al Sistema de archivos distribuidos de Hadoop (HDFS) A partir de entonces, los datos se pueden transformar en Hadoop MapReduce, y luego se pueden volver a exportar a un RDBMS En esta capacitación en vivo con instructor, los participantes aprenderán a usar Sqoop para importar datos de una base de datos relacional tradicional al almacenamiento de Hadoop, como HDFS o Hive y viceversa Al final de esta capacitación, los participantes podrán: Instalar y configurar Sqoop Importar datos de MySQL a HDFS y Hive Importar datos de HDFS y Hive a MySQL Audiencia Administradores del sistema Ingenieros de datos Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica manual Nota Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos .
21 horas
El análisis de Big Data implica el proceso de examinar grandes cantidades de conjuntos de datos variados para descubrir correlaciones, patrones ocultos y otras ideas útiles. La industria de la salud tiene cantidades masivas de datos clínicos y médicos heterogéneos complejos. La aplicación de análisis de big data en datos de salud presenta un enorme potencial para obtener información para mejorar la prestación de servicios de salud. Sin embargo, la magnitud de estos conjuntos de datos plantea grandes desafíos en los análisis y aplicaciones prácticas en un entorno clínico. En esta capacitación en vivo (remota) dirigida por un instructor, los participantes aprenderán cómo realizar análisis de big data en salud a medida que realizan una serie de ejercicios prácticos de laboratorio en vivo. Al final de esta capacitación, los participantes podrán:
  • Instale y configure herramientas de análisis de big data como Hadoop MapReduce y Spark
  • Comprender las características de los datos médicos.
  • Aplicar técnicas de big data para manejar datos médicos.
  • Estudiar los sistemas y algoritmos de big data en el contexto de las aplicaciones de salud.
Audiencia
  • Desarrolladores
  • Científicos de datos
Formato del curso
  • Conferencia en parte, discusión en parte, ejercicios y práctica práctica.
Nota
  • Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
35 horas
Apache Hadoop es un marco de procesamiento de datos popular para el procesamiento de grandes conjuntos de datos en muchos ordenadores. Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a los administradores de sistemas que desean aprender cómo configurar, implementar y gestionar Hadoop clusters dentro de su organización. Al final de este curso, los participantes podrán:
    Instalar y configurar Apache Hadoop. Comprender los cuatro componentes principales del ecosistema: HDFS, MapReduce, YARN y Hadoop Common. Utilice Hadoop Sistema de archivos distribuidos (HDFS) para escalar un cluster a cientos o miles de nodos. •   Instalar HDFS para operar como motor de almacenamiento para los despachos de Spark en prisión. Instalar Spark para acceder a soluciones de almacenamiento alternativas como Amazon S3 y NoSQL sistemas de datos como Redis, Elasticsearch, Couchbase, Aerospike, etc. Realizar tareas administrativas como proporcionar, gestionar, monitorear y asegurar un cluster de Apache.
Formato del curso
    Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
    Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
21 horas
Cloudera Impala es un motor de consulta SQL de procesamiento paralelo masivo de código abierto (MPP) para los clústeres de Apache Hadoop Impala permite a los usuarios emitir consultas SQL de baja latencia a los datos almacenados en Hadoop Distributed File System y Apache Hbase sin necesidad de movimiento o transformación de datos Audiencia Este curso está dirigido a analistas y científicos de datos que realizan análisis de datos almacenados en Hadoop a través de Business Intelligence o herramientas SQL Después de este curso, los delegados podrán Extraiga información significativa de los clústeres Hadoop con Impala Escribir programas específicos para facilitar Business Intelligence en Impala SQL Dialect Solucionar problemas de Impala .
21 horas
Apache Ambari es una plataforma de administración de código abierto para el aprovisionamiento, la administración, el monitoreo y la seguridad de los clústeres de Apache Hadoop . En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán las herramientas y prácticas de administración proporcionadas por Ambari para administrar con éxito los clústeres de Hadoop . Al final de esta capacitación, los participantes podrán:
  • Configure un clúster de Big Data vivo con Ambari
  • Aplique las características y funcionalidades avanzadas de Ambari a varios casos de uso
  • Agregue y elimine nodos sin problemas según sea necesario
  • Mejore el rendimiento de un clúster Hadoop través de ajustes y ajustes
Audiencia
  • DevOps
  • Administradores del sistema
  • DBA
  • Profesionales de pruebas de Hadoop
Formato del curso
  • Conferencia parcial, discusión parcial, ejercicios y práctica práctica.
21 horas
Hortonworks Data Platform (HDP) es una plataforma de soporte Apache Hadoop código abierto que proporciona una base estable para desarrollar soluciones de big data en el ecosistema Apache Hadoop . Esta capacitación en vivo dirigida por un instructor (en el sitio o remota) presenta Hortonworks Data Platform (HDP) y guía a los participantes a través del despliegue de la solución Spark + Hadoop . Al final de esta capacitación, los participantes podrán:
  • Use Hortonworks para ejecutar Hadoop manera confiable a gran escala.
  • Unifique las capacidades de seguridad, gobernanza y operaciones de Hadoop con los ágiles flujos de trabajo analíticos de Spark.
  • Use Hortonworks para investigar, validar, certificar y respaldar cada uno de los componentes en un proyecto de Spark.
  • Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo.
Formato del curso
  • Conferencia interactiva y discusión.
  • Muchos ejercicios y práctica.
  • Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
  • Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.

Last Updated:

Próximos Cursos Hadoop

Cursos de Fin de Semana de Hadoop, Capacitación por la Tarde de Apache Hadoop, Hadoop boot camp, Clases de Apache Hadoop, Capacitación de Fin de Semana de Hadoop, Cursos por la Tarde de Hadoop, Hadoop coaching, Instructor de Apache Hadoop, Capacitador de Apache Hadoop, Apache Hadoop con instructor, Cursos de Formación de Apache Hadoop, Apache Hadoop en sitio, Cursos Privados de Apache Hadoop, Clases Particulares de Hadoop, Capacitación empresarial de Hadoop, Talleres para empresas de Apache Hadoop, Cursos en linea de Hadoop, Programas de capacitación de Apache Hadoop, Clases de Hadoop

Promociones

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas.
En cualquier momento puede cambiar sus preferencias o cancelar su suscripción por completo.

is growing fast!

We are looking to expand our presence in Ecuador!

As a Business Development Manager you will:

  • expand business in Ecuador
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

Este sitio en otros países / regiones