Cursos de Big Data

Cursos de Big Data

Big Data es un término que se refiere a soluciones destinadas a almacenar y procesar grandes conjuntos de datos. Desarrollado inicialmente por Google, estas soluciones han evolucionado e inspirado otros proyectos, de los cuales muchos están disponibles como código abierto. Según los informes de Gartner, Big Data es el próximo gran paso en TI justo después del Cloud Computing y será una tendencia líder en los próximos años.
Los cursos locales dirigidos por instructor en vivo de capacitación en Big Data comienzan con una introducción a conceptos elementales, luego avanzan hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de Datos. Las herramientas y la infraestructura para habilitar el almacenamiento de Big Data, el Procesamiento Distribuido y la Escalabilidad se discuten, comparan e implementan en sesiones demostrativas de práctica. La capacitación en Big Data está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en Ecuador o en los centros de capacitación corporativa de NobleProg en Ecuador, la segunda se lleva a cabo a través de un escritorio remoto interactivo.

NobleProg -- The World's Local Trainer Provider

Testimonios

★★★★★
★★★★★

Algunos de nuestros clientes

Programas de los cursos Big Data

Nombre del Curso
Duración
Descripción General
Nombre del Curso
Duración
Descripción General
21 horas
Descripción General
Apache Accumulo es un almacén de claves / valores ordenados y distribuidos que proporciona almacenamiento y recuperación de datos robustos y escalables. Está basado en el diseño de BigTable de Google y está impulsado por Apache Hadoop, Apache Zookeeper y Apache Thrift.

Este curso cubre los principios de trabajo detrás de Accumulo y guía a los participantes a través del desarrollo de una aplicación de muestra en Apache Accumulo.

Audiencia

Desarrolladores de aplicaciones
Ingenieros de software
Consultores técnicos

Formato del curso

Conferencia de parte, parte de discusión, desarrollo e implementación práctica, pruebas ocasionales para medir comprensión
21 horas
Descripción General
El descubrimiento de conocimiento en bases de datos (KDD) es el proceso de descubrir conocimiento útil de una colección de datos. Las aplicaciones de la vida real para esta técnica de minería de datos incluyen marketing, detección de fraude, telecomunicaciones y fabricación.

En este curso, presentamos los procesos involucrados en KDD y llevamos a cabo una serie de ejercicios para practicar la implementación de esos procesos.

Audiencia

- Analistas de datos o cualquier persona interesada en aprender a interpretar datos para resolver problemas

Formato del curso

- Después de una discusión teórica sobre KDD, el instructor presentará casos de la vida real que requieren la aplicación de KDD para resolver un problema. Los participantes prepararán, seleccionarán y limpiarán conjuntos de datos de muestra y utilizarán sus conocimientos previos sobre los datos para proponer soluciones basadas en los resultados de sus observaciones.
28 horas
Descripción General
MonetDB es una base de datos de código abierto que fue pionera en el enfoque de la tecnología columna-tienda.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo usar MonetDB y cómo sacar el máximo provecho de ella.

Al final de esta capacitación, los participantes podrán:

- Comprender MonetDB y sus características
- Instalar y comenzar con MonetDB
- Explora y realiza diferentes funciones y tareas en MonetDB
- Acelere la entrega de su proyecto maximizando las capacidades de MonetDB

Audiencia

- Desarrolladores
- Expertos técnicos

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
7 horas
Descripción General
This instructor-led, live training (online or onsite) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data.

By the end of this training, participants will:

- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
28 horas
Descripción General
MemSQL es un sistema de administración de bases de datos SQL distribuidas y en memoria para la nube y las instalaciones. Es un almacén de datos en tiempo real que brinda información de forma inmediata a partir de datos históricos y en vivo.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los elementos esenciales de MemSQL para el desarrollo y la administración.

Al final de esta capacitación, los participantes podrán:

- Comprender los conceptos clave y las características de MemSQL
- Instalar, diseñar, mantener y operar MemSQL
- Optimizar esquemas en MemSQL
- Mejorar las consultas en MemSQL
- Rendimiento de referencia en MemSQL
- Construya aplicaciones de datos en tiempo real usando MemSQL

Audiencia

- Desarrolladores
- Administradores
- Ingenieros de operación

Formato del curso

- Conferencia de parte, discusiaón en parte, ejercicios y práctica práctica
21 horas
Descripción General
MATLAB es un entorno de computación numérica y un lenguaje de programación desarrollado por MathWorks.
7 horas
Descripción General
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los conceptos básicos detrás de MapR Stream Architecture mientras desarrollan una aplicación de transmisión en tiempo real.

Al final de esta capacitación, los participantes podrán construir aplicaciones para productores y consumidores para el procesamiento de datos de flujo en tiempo real.

Audiencia

- Desarrolladores
- Administradores

Formato de la carrera

- Parte de lectura, parte de discusión, ejercicios y práctica práctica

Nota

- Para solicitar un entrenamiento personalizado para esta carrera, contáctenos para organizarlo.
14 horas
Descripción General
Magellan es un motor de ejecución distribuida de código abierto para el análisis geoespacial en big data. Implementado sobre Apache Spark, amplía Spark SQL y proporciona una abstracción relacional para el análisis geoespacial.

Esta capacitación en vivo dirigida por un instructor presenta los conceptos y enfoques para implementar el análisis geospacial y guía a los participantes a través de la creación de una aplicación de análisis predictivo utilizando Magellan en Spark.

Al final de esta capacitación, los participantes podrán:

- Consultar, analizar y unir datos geoespaciales de manera eficiente a escala
- Implementar datos geoespaciales en inteligencia empresarial y aplicaciones de análisis predictivo
- Utilice el contexto espacial para ampliar las capacidades de dispositivos móviles, sensores, registros y dispositivos portátiles

Audiencia

- Desarrolladores de aplicaciones

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Apache Kylin es un motor de análisis extremo y distribuido para Big Data.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Apache Kylin para configurar un depósito de datos en tiempo real.

Al final de esta capacitación, los participantes podrán:

- Consume datos de transmisión en tiempo real usando Kylin
- Utilice las potentes funciones de Apache Kylin, incluido el soporte del esquema de copos de nieve, una rica interfaz de SQL, cubicación de chispa y latencia de consulta de segundo plano

Nota

- Usamos la última versión de Kylin (al momento de escribir esto, Apache Kylin v2.0)

Audiencia

- Grandes ingenieros de datos
- Analistas de Big Data

Formato del curso

Conferencia de parte, discusión en parte, ejercicios y práctica práctica
7 horas
Descripción General
Confluent KSQL is a stream processing framework built on top of Apache Kafka. It enables real-time data processing using SQL operations.

This instructor-led, live training (online or onsite) is aimed at developers who wish to implement Apache Kafka stream processing without writing code.

By the end of this training, participants will be able to:

- Install and configure Confluent KSQL.
- Set up a stream processing pipeline using only SQL commands (no Java or Python coding).
- Carry out data filtering, transformations, aggregations, joins, windowing, and sessionization entirely in SQL.
- Design and deploy interactive, continuous queries for streaming ETL and real-time analytics.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
35 horas
Descripción General
KNIME is a free and open-source data analytics, reporting and integration platform. KNIME integrates various components for machine learning and data mining through its modular data pipelining concept. A graphical user interface and use of JDBC allows assembly of nodes blending different data sources, including preprocessing (ETL: Extraction, Transformation, Loading), for modeling, data analysis and visualization without, or with only minimal, programming. To some extent as advanced analytics tool KNIME can be considered as a SAS alternative.

Since 2006, KNIME has been used in pharmaceutical research, it also used in other areas like CRM customer data analysis, business intelligence and financial data analysis.
21 horas
Descripción General
KNIME Analytics Platform es una opción de código abierto líder para la innovación basada en datos, que le ayuda a descubrir el potencial oculto en sus datos, extraer nuevas ideas o predecir nuevos futuros. Con más de 1000 módulos, cientos de ejemplos listos para ejecutar, una amplia gama de herramientas integradas y la más amplia variedad de algoritmos avanzados disponibles, KNIME Analytics Platform es la caja de herramientas perfecta para cualquier científico de datos y analista de negocios.

Este curso para KNIME Analytics Platform es una oportunidad ideal para que los principiantes, usuarios avanzados y expertos de KNIME se presenten a KNIME , aprendan cómo usarlo de manera más efectiva y cómo crear informes claros y completos basados en los flujos de trabajo de KNIME
7 horas
Descripción General
Kafka Streams es una biblioteca del lado del cliente para la creación de aplicaciones y microservicios cuyos datos se transmiten desde y hacia un sistema de mensajería Kafka. Tradicionalmente, Apache Kafka ha confiado en Apache Spark o Apache Storm para procesar datos entre productores de mensajes y consumidores. Al llamar a Kafka Streams API desde dentro de una aplicación, los datos se pueden procesar directamente dentro de Kafka, pasando por alto la necesidad de enviar los datos a un clúster separado para su procesamiento.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo integrar Kafka Streams en un conjunto de aplicaciones Java de muestra que pasan datos desde y hacia Apache Kafka para el procesamiento de flujo.

Al final de esta capacitación, los participantes podrán:

- Comprenda las características y ventajas de Kafka Streams frente a otros marcos de procesamiento de flujos
- Procesar datos de flujo directamente dentro de un clúster de Kafka
- Escriba una aplicación Java o Scala o microservicio que se integre con Kafka y Kafka Streams
- Escribe un código conciso que transforme los temas de entrada de Kafka en temas de salida de Kafka
- Construye, empaqueta y despliega la aplicación

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Notas

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
21 horas
Descripción General
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo.

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar Apachi NiFi
- Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes.
- Automatice los flujos de datos
- Habilitar análisis de transmisión
- Aplicar varios enfoques para la ingestión de datos
- Transformar Big Data y en conocimientos empresariales

Audiencia

- Administradores del sistema
- Ingenieros de datos
- Desarrolladores
- DevOps

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
Descripción General
El procesamiento de flujo se refiere al procesamiento en tiempo real de "datos en movimiento", es decir, realizar cálculos sobre datos a medida que se reciben. Dichos datos se leen como flujos continuos de fuentes de datos tales como eventos de sensores, actividad de usuarios de sitios web, transacciones financieras, transferencias de tarjetas de crédito, transmisiones de clics, etc. Los marcos de procesamiento de flujos pueden leer grandes volúmenes de datos entrantes y proporcionar información valiosa casi instantáneamente.

En este entrenamiento en vivo dirigido por un instructor (in situ o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos de Procesamiento de Stream con los sistemas de almacenamiento de big data existentes y aplicaciones de software y microservicios relacionados.

Al final de esta capacitación, los participantes podrán:

- Instale y configure diferentes marcos de procesamiento de flujo, como Spark Streaming y Kafka Streaming
- Comprender y seleccionar el marco más adecuado para el trabajo
- Proceso de datos de forma continua, concurrente y de forma récord por registro
- Integre soluciones de procesamiento de flujo con bases de datos existentes, almacenes de datos, lagos de datos, etc.
- Integración de la biblioteca de procesamiento de flujo más apropiada con aplicaciones empresariales y microservicios

Audiencia

- Desarrolladores
- Arquitectos de software

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Notas

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
14 horas
Descripción General
Este curso es para

- Desarrolladores

Formato del curso

- Conferencias, práctica práctica, pequeñas pruebas en el camino para medir la comprensión
21 horas
Descripción General
Cloudera Impala es un motor de consulta SQL de procesamiento masivo paralelo (MPP) de código abierto para clústeres Apache Hadoop.

Impala permite a los usuarios emitir consultas SQL de baja latencia a los datos almacenados en Hadoop Distributed File System y Apache Hbase sin necesidad de movimiento o transformación de datos.

Audiencia

Este curso está dirigido a analistas y científicos de datos que realizan análisis sobre datos almacenados en Hadoop a través de herramientas de Business Intelligence o SQL.

Después de este curso, los delegados podrán

- Extraer información significativa de los clústeres de Hadoop con Impala.
- Escriba programas específicos para facilitar la Inteligencia de Negocios en Impala SQL Dialect.
- Solucionar problemas de Impala.
7 horas
Descripción General
Este curso cubre cómo usar el lenguaje Hive SQL (AKA: Hive HQL, SQL en Hive, HiveQL) para personas que extraen datos de Hive
21 horas
Descripción General
Hortonworks Data Platform es una plataforma de soporte de Apache Hadoop de código abierto que proporciona una base estable para el desarrollo de soluciones de big data en el ecosistema de Apache Hadoop.

Esta capacitación en vivo dirigida por un instructor presenta a Hortonworks y guía a los participantes a través del despliegue de la solución Spark + Hadoop.

Al final de esta capacitación, los participantes podrán:

- Use Hortonworks para ejecutar confiablemente Hadoop a gran escala
- Unifique las capacidades de seguridad, gobierno y operaciones de Hadoop con los flujos de trabajo analíticos ágiles de Spark.
- Use Hortonworks para investigar, validar, certificar y dar soporte a cada uno de los componentes en un proyecto Spark
- Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo.

Audiencia

- Administradores de Hadoop

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
Descripción General
Este curso introduce HBase - un almacén NoSQL en la parte superior de Hadoop. El curso está dirigido a desarrolladores que usarán HBase para desarrollar aplicaciones y administradores que administrarán los clústeres de HBase.

Vamos a recorrer un desarrollador a través de la arquitectura de HBase y modelado de datos y desarrollo de aplicaciones en HBase. También discutirá el uso de MapReduce con HBase y algunos temas de administración relacionados con la optimización del rendimiento. El curso es muy práctico con muchos ejercicios de laboratorio.
28 horas
Descripción General
Hadoop es un popular marco de procesamiento Big Data. Python es un lenguaje de programación de alto nivel famoso por su claridad de sintaxis y código.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo trabajar con Hadoop, MapReduce, Pig y Spark utilizando Python, ya que pasan por múltiples ejemplos y casos de uso.

Al final de esta capacitación, los participantes podrán:

- Comprender los conceptos básicos detrás de Hadoop, MapReduce, Pig y Spark
- Utilice Python con Hadoop Distributed File System (HDFS), MapReduce, Pig y Spark
- Utilice Snakebite para acceder mediante programación a HDFS dentro de Python
- Usa mrjob para escribir trabajos de MapReduce en Python
- Escribir programas Spark con Python
- Extienda la funcionalidad del cerdo usando las UDF de Python
- Administrar trabajos de MapReduce y scripts Pig utilizando Luigi

Audiencia

- Desarrolladores
- Profesionales de TI

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
28 horas
Descripción General
Audiencia:

Este curso está destinado a desmitificar la tecnología de big data / hadoop y mostrar que no es difícil de entender.
14 horas
Descripción General
A medida que más y más proyectos de software y TI migran de procesamiento local y administración de datos a procesamiento distribuido y almacenamiento de big data, los Gerentes de Proyecto encuentran la necesidad de actualizar sus conocimientos y habilidades para comprender los conceptos y prácticas relevantes para proyectos y oportunidades de Big Data.

Este curso presenta a los Project Managers al marco de procesamiento de Big Data más popular: Hadoop.

En esta capacitación dirigida por un instructor, los participantes aprenderán los componentes principales del ecosistema de Hadoop y cómo estas tecnologías pueden usarse para resolver problemas a gran escala. Al aprender estas bases, los participantes también mejorarán su capacidad de comunicarse con los desarrolladores e implementadores de estos sistemas, así como con los científicos y analistas de datos que involucran muchos proyectos de TI.

Audiencia

- Project Managers que desean implementar Hadoop en su infraestructura de TI o desarrollo existente
- Los gerentes de proyectos necesitan comunicarse con equipos multifuncionales que incluyen grandes ingenieros de datos, científicos de datos y analistas de negocios

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
Descripción General
Hadoop es el marco de procesamiento de Big Data más popular .
21 horas
Descripción General
Apache Spark is a distributed processing engine for analyzing very large data sets. It can process data in batches and real-time, as well as carry out machine learning, ad-hoc queries, and graph processing. .NET for Apache Spark is a free, open-source, and cross-platform big data analytics framework that supports applications written in C# or F#.

This instructor-led, live training (online or onsite) is aimed at developers who wish to carry out big data analysis using Apache Spark in their .NET applications.

By the end of this training, participants will be able to:

- Install and configure Apache Spark.
- Understand how .NET implements Spark APIs so that they can be accessed from a .NET application.
- Develop data processing applications using C# or F#, capable of handling data sets whose size is measured in terabytes and pedabytes.
- Develop machine learning features for a .NET application using Apache Spark capabilities.
- Carry out exploratory analysis using SQL queries on big data sets.

Format of the Course

- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.

Course Customization Options

- To request a customized training for this course, please contact us to arrange.
7 horas
Descripción General
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi.

Al final de esta capacitación, los participantes podrán:

- Comprender los conceptos de arquitectura y flujo de datos de NiFi
- Desarrollar extensiones utilizando NiFi y API de terceros
- Desarrolla a medida su propio procesador Apache Nifi
- Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos

Audiencia

- Desarrolladores
- Ingenieros de datos

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Teradata es un popular sistema de Management Database Management Database relacionales para crear aplicaciones de almacenamiento de datos a gran escala. Teradata logra esto a través del paralelismo.

Esta capacitación en vivo dirigida por un instructor (en el sitio o remota) está dirigida a desarrolladores e ingenieros de aplicaciones que desean dominar usos más sofisticados de la base de datos de Teradata .

Al final de esta capacitación, los participantes podrán:

- Administra el espacio de Teradata .
- Proteger y distribuir datos en Teradata .
- Leer Explicar el plan.
- Mejora el dominio de SQL .
- Utiliza las principales utilidades de Teradata .

Formato del curso

- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.

Opciones de personalización del curso

- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
7 horas
Descripción General
Spark SQL es Apache Spark módulo de Apache Spark para trabajar con datos estructurados y no estructurados. Spark SQL proporciona información sobre la estructura de los datos, así como el cálculo que se realiza. Esta información se puede usar para realizar optimizaciones. Dos usos comunes para Spark SQL son:
- para ejecutar consultas SQL .
- para leer datos de una instalación de Hive existente.

En esta capacitación en vivo dirigida por un instructor (en el sitio o remota), los participantes aprenderán cómo analizar varios tipos de conjuntos de datos usando Spark SQL .

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar Spark SQL .
- Realizar análisis de datos usando Spark SQL .
- Consultar conjuntos de datos en diferentes formatos.
- Visualizar datos y resultados de consultas.

Formato del curso

- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.

Opciones de personalización del curso

- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
14 horas
Descripción General
Apache Zeppelin es un portátil basado en web para capturar, explorar, visualizar y compartir datos basados en Hadoop y Spark.

Esta capacitación en vivo dirigida por un instructor presenta los conceptos detrás del análisis interactivo de datos y guía a los participantes a través de la implementación y el uso de Zeppelin en un entorno de usuario único o multiusuario.

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar Zeppelin
- Desarrollar, organizar, ejecutar y compartir datos en una interfaz basada en navegador
- Visualice resultados sin consultar la línea de comando o los detalles del clúster
- Ejecute y colabore en flujos de trabajo largos
- Trabaja con cualquiera de los lenguajes de plug-in / back-end de procesamiento de datos, como Scala (con Apache Spark), Python (con Apache Spark), Spark SQL, JDBC, Markdown y Shell.
- Integra Zeppelin con Spark, Flink y Map Reduce
- Asegure las instancias multiusuario de Zeppelin con Apache Shiro

Audiencia

- Ingenieros de datos
- Analistas de datos
- Científicos de datos
- Desarrolladores de software

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Vespa, un motor de procesamiento y publicación de grandes volúmenes de código abierto creado por Yahoo. Se utiliza para responder a las consultas de los usuarios, hacer recomendaciones y proporcionar contenido personalizado y publicidades en tiempo real.

Este entrenamiento en vivo, dirigido por un instructor, presenta los desafíos de servir datos a gran escala y guía a los participantes a través de la creación de una aplicación que puede calcular las respuestas a las solicitudes de los usuarios, en grandes conjuntos de datos en tiempo real.

Al final de esta capacitación, los participantes podrán:

- Use Vespa para calcular rápidamente los datos (almacenar, buscar, clasificar, organizar) en el momento de servir mientras un usuario espera
- Implementar Vespa en aplicaciones existentes que involucran búsqueda de funciones, recomendaciones y personalización
- Integre e implemente Vespa con los sistemas de big data existentes, como Hadoop y Storm.

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Próximos Cursos Big Data

Cursos de Fin de Semana de Big Data, Capacitación por la Tarde de Big Data, Big Data boot camp, Clases de Big Data, Capacitación de Fin de Semana de Big Data, Cursos por la Tarde de Big Data, Big Data coaching, Instructor de Big Data, Capacitador de Big Data, Big Data con instructor, Cursos de Formación de Big Data, Big Data en sitio, Cursos Privados de Big Data, Clases Particulares de Big Data, Capacitación empresarial de Big Data, Talleres para empresas de Big Data, Cursos en linea de Big Data, Programas de capacitación de Big Data, Clases de Big Data

Promociones

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas.
En cualquier momento puede cambiar sus preferencias o cancelar su suscripción por completo.

is growing fast!

We are looking to expand our presence in Ecuador!

As a Business Development Manager you will:

  • expand business in Ecuador
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

Este sitio en otros países / regiones