
Capacitación en Apache Hadoop - una implementación de código abierto de dos soluciones Google BigData: GFS (Google File System) y el paradigma de programación MapReduce.
Es un marco completo destinado a almacenar y procesar grandes conjuntos de datos. Hadoop es utilizado por la mayoría de los proveedores del servicio de nube global como Yahoo, Facebook o LinkedIn. Los cursos de capacitación local en vivo de Apache Hadoop demuestran a través de la discusión y la práctica manual los componentes principales del ecosistema de Hadoop y cómo estas tecnologías se pueden utilizar para resolver problemas a gran escala.
La capacitación en Hadoop está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en Ecuador o en los centros de capacitación corporativa de NobleProg en Ecuador, la segunda se lleva a cabo a través de un escritorio remoto interactivo.
NobleProg -- Su Proveedor Local de Capacitación
Testimonios
El hecho de que todos los datos y el software estaban listos para usar en una máquina virtual ya preparada, proporcionada por el capacitador en discos externos.
vyzVoice
Curso: Hadoop for Developers and Administrators
Machine Translated
En general, me gustó que el entrenador diera ejemplos en vivo.
Simon Hahn
Curso: Administrator Training for Apache Hadoop
Machine Translated
Realmente disfruté de las grandes competencias de Trainer.
Grzegorz Gorski
Curso: Administrator Training for Apache Hadoop
Machine Translated
Realmente disfruté las muchas sesiones prácticas.
Jacek Pieczątka
Curso: Administrator Training for Apache Hadoop
Machine Translated
Me gustó mucho la forma interactiva de aprender.
Luigi Loiacono
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Fue un entrenamiento muy práctico, me gustaron los ejercicios prácticos.
Proximus
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Me beneficié de la buena visión general, un buen equilibrio entre la teoría y los ejercicios.
Proximus
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Disfruté de la interacción dinámica y "manos a la obra" del tema, gracias a la Máquina Virtual, ¡muy estimulante !.
Philippe Job
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Me beneficié de la competencia y el conocimiento del entrenador.
Jonathan Puvilland
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Fue muy práctico, pasamos la mitad del tiempo haciendo cosas en Clouded / Hardtop, ejecutando comandos diferentes, revisando el sistema, etc. Los materiales adicionales (libros, sitios web, etc.) fueron realmente apreciados, tendremos que seguir aprendiendo. Las instalaciones fueron bastante divertidas y muy prácticas, la configuración del clúster desde cero fue realmente buena.
Ericsson
Curso: Administrator Training for Apache Hadoop
Machine Translated
El entrenador fue fantástico y realmente sabía lo que hacía. ¡Aprendí mucho sobre el software que no conocía anteriormente que ayudará mucho en mi trabajo !.
Steve McPhail - Alberta Health Services - Information Technology
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Los principios de alto nivel sobre Hive, HDFS ...
Geert Suys - Proximus Group
Curso: Data Analysis with Hive/HiveQL
Machine Translated
El handson La práctica de la mezcla / theroy
Proximus Group
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Fulvio pudo comprender el caso de negocios de nuestra empresa y pudo correlacionarse con el material del curso, casi al instante.
Samuel Peeters - Proximus Group
Curso: Data Analysis with Hive/HiveQL
Machine Translated
Muchos ejercicios prácticos.
Ericsson
Curso: Administrator Training for Apache Hadoop
Machine Translated
Herramienta de gestión de Ambari. Capacidad para discutir experiencias prácticas de Hadoop de otros casos de negocios que no sean telecomunicaciones.
Ericsson
Curso: Administrator Training for Apache Hadoop
Machine Translated
Pensé que hizo un gran trabajo de adaptar la experiencia a la audiencia. Esta clase está diseñada principalmente para cubrir el análisis de datos con HIVE, pero yo y mi compañero de trabajo estamos haciendo la administración de HIVE sin responsabilidades reales de análisis de datos.
ian reif - Franchise Tax Board
Curso: Data Analysis with Hive/HiveQL
Machine Translated
La VM me gustó mucho El profesor estaba muy bien informado sobre el tema, así como otros temas, era muy agradable y amable Me gustó la instalación en Dubai.
Safar Alqahtani - Elm Information Security
Curso: Big Data Analytics in Health
Machine Translated
Temas de entrenamiento y participación del entrenador
Izba Administracji Skarbowej w Lublinie
Curso: Apache NiFi for Administrators
Machine Translated
Comunicación con personas que asisten a la formación.
Andrzej Szewczuk - Izba Administracji Skarbowej w Lublinie
Curso: Apache NiFi for Administrators
Machine Translated
Cosas prácticas de hacer, también la teoría fue servida bien por Ajay.
Dominik Mazur - Capgemini Polska Sp. z o.o.
Curso: Hadoop Administration on MapR
Machine Translated
Ceremonias
Capgemini Polska Sp. z o.o.
Curso: Hadoop Administration on MapR
Machine Translated
utilidad de los ejercicios
Algomine sp.z.o.o sp.k.
Curso: Apache NiFi for Administrators
Machine Translated
Me pareció que la capacitación era buena, muy informativa ... pero podría haberse extendido durante 4 o 5 días, lo que nos permite profundizar más en diferentes aspectos.
Veterans Affairs Canada
Curso: Hadoop Administration
Machine Translated
Realmente disfruté el entrenamiento. Anton tiene mucho conocimiento y expuso la teoría necesaria de una manera muy accesible. Es genial que el entrenamiento haya sido una gran cantidad de ejercicios interesantes, por lo que hemos estado en contacto con la tecnología que conocemos desde el principio.
Szymon Dybczak - Algomine sp.z.o.o sp.k.
Curso: Apache NiFi for Administrators
Machine Translated
Encontré que este curso ofreció una excelente visión general y rápidamente toqué algunas áreas que ni siquiera estaba considerando.
Veterans Affairs Canada
Curso: Hadoop Administration
Machine Translated
Realmente me gustaron los ejercicios de trabajo con clúster para ver el rendimiento de los nodos en el clúster y la funcionalidad extendida.
CACI Ltd
Curso: Apache NiFi for Developers
Machine Translated
Ajay era un consultor muy experimentado y pudo responder a todas nuestras preguntas e incluso hizo sugerencias sobre las mejores prácticas para el proyecto en el que estamos comprometidos actualmente.
CACI Ltd
Curso: Apache NiFi for Administrators
Machine Translated
Parte práctica. Las tareas fueron bien elegidas para las cuestiones debatidas.
Rossmann SDP
Curso: HBase for Developers
Machine Translated
Algunos de nuestros clientes


















































Apache Hadoop Subcategorías
Programas de los cursos Hadoop
-
Configure el entorno necesario para comenzar el procesamiento de datos grandes con Spark, Hadoop, y Python.
Comprender las características, los componentes centrales y la arquitectura de Spark y Hadoop.
Aprende cómo integrar Spark, Hadoop, y Python para el procesamiento de datos grandes.
Explora las herramientas en el ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, y Flume).
Construye sistemas de recomendación de filtros colaborativos similares a Netflix, YouTube, Amazon, Spotify y Google.
Utilice Apache Mahout para escalar algoritmos de aprendizaje de máquina.
-
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
-
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Duration : 3 days Audience : Developers & Administrators
- Andrew Nguyen, Ingeniero de Integración Principal de DW, Microsoft Online Advertising Audiencia Administradores de Hadoop Formato Conferencias y laboratorios prácticos, balance aproximado de 60% de conferencias, 40% de laboratorios.
- Developers
- Lectures, hands-on practice, small tests along the way to gauge understanding
Este curso está destinado a desarrolladores, arquitectos, científicos de datos o cualquier perfil que requiera acceso a los datos de manera intensiva o regular. El enfoque principal del curso es la manipulación y transformación de datos. Entre las herramientas en el ecosistema de Hadoop este curso incluye el uso de Pig y Hive los cuales son muy utilizados para la transformación y manipulación de datos. Esta capacitación también aborda las métricas de rendimiento y la optimización del rendimiento. El curso es totalmente práctico y está marcado por presentaciones de los aspectos teóricos.
- Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
- Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
- Use Samza para simplificar el código necesario para producir y consumir mensajes.
- Desacoplar el manejo de mensajes desde una aplicación.
- Use Samza para implementar el cálculo asincrónico casi en tiempo real.
- Utilice el procesamiento continuo para proporcionar un mayor nivel de abstracción sobre los sistemas de mensajería.
- Desarrolladores
- Conferencia parcial, discusión parcial, ejercicios y práctica práctica.
- Instalar y configurar Apachi NiFi.
- Obtenga, transforme y gestione datos de fuentes de datos distribuidas y dispares, incluidas bases de datos y grandes lagos de datos.
- Automatizar flujos de datos.
- Habilite el análisis de transmisión.
- Aplicar varios enfoques para la ingestión de datos.
- Transforme Big Data y en conocimientos empresariales.
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
- Comprender la arquitectura de NiFi y los conceptos de flujo de datos.
- Desarrolle extensiones con NiFi y API de terceros.
- Desarrollar a medida su propio procesador Apache Nifi.
- Ingesta y procesa datos en tiempo real desde formatos de archivos y fuentes de datos dispares y poco comunes.
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
- Instale y configure herramientas de análisis de big data como Hadoop MapReduce y Spark
- Comprender las características de los datos médicos.
- Aplicar técnicas de big data para manejar datos médicos.
- Estudiar los sistemas y algoritmos de big data en el contexto de las aplicaciones de salud.
- Desarrolladores
- Científicos de datos
- Conferencia en parte, discusión en parte, ejercicios y práctica práctica.
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
-
Instalar y configurar Apache Hadoop.
Comprender los cuatro componentes principales del ecosistema: HDFS, MapReduce, YARN y Hadoop Common.
Utilice Hadoop Sistema de archivos distribuidos (HDFS) para escalar un cluster a cientos o miles de nodos. •
Instalar HDFS para operar como motor de almacenamiento para los despachos de Spark en prisión.
Instalar Spark para acceder a soluciones de almacenamiento alternativas como Amazon S3 y NoSQL sistemas de datos como Redis, Elasticsearch, Couchbase, Aerospike, etc.
Realizar tareas administrativas como proporcionar, gestionar, monitorear y asegurar un cluster de Apache.
-
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
-
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
- Configure un clúster de Big Data vivo con Ambari
- Aplique las características y funcionalidades avanzadas de Ambari a varios casos de uso
- Agregue y elimine nodos sin problemas según sea necesario
- Mejore el rendimiento de un clúster Hadoop través de ajustes y ajustes
- DevOps
- Administradores del sistema
- DBA
- Profesionales de pruebas de Hadoop
- Conferencia parcial, discusión parcial, ejercicios y práctica práctica.
- Use Hortonworks para ejecutar Hadoop manera confiable a gran escala.
- Unifique las capacidades de seguridad, gobernanza y operaciones de Hadoop con los ágiles flujos de trabajo analíticos de Spark.
- Use Hortonworks para investigar, validar, certificar y respaldar cada uno de los componentes en un proyecto de Spark.
- Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo.
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
Last Updated: