Cursos de Big Data

Cursos de Big Data

Big Data es un término que se refiere a soluciones destinadas a almacenar y procesar grandes conjuntos de datos. Desarrollado inicialmente por Google, estas soluciones han evolucionado e inspirado otros proyectos, de los cuales muchos están disponibles como código abierto. Según los informes de Gartner, Big Data es el próximo gran paso en TI justo después del Cloud Computing y será una tendencia líder en los próximos años.
Los cursos locales dirigidos por instructor en vivo de capacitación en Big Data comienzan con una introducción a conceptos elementales, luego avanzan hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de Datos. Las herramientas y la infraestructura para habilitar el almacenamiento de Big Data, el Procesamiento Distribuido y la Escalabilidad se discuten, comparan e implementan en sesiones demostrativas de práctica. La capacitación en Big Data está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en Ecuador o en los centros de capacitación corporativa de NobleProg en Ecuador, la segunda se lleva a cabo a través de un escritorio remoto interactivo.

NobleProg -- The World's Local Trainer Provider

Testimonios

★★★★★
★★★★★

Algunos de nuestros clientes

Programas de los cursos Big Data

Nombre del Curso
Duración
Descripción General
Nombre del Curso
Duración
Descripción General
14 horas
Descripción General
Gol:

Aprender a trabajar con SPSS a nivel de independencia

Los destinatarios:

Analistas, investigadores, científicos, estudiantes y todos aquellos que quieran adquirir la capacidad de utilizar el paquete SPSS y aprender técnicas de minería de datos populares.
28 horas
Descripción General
MonetDB es una base de datos de código abierto que fue pionera en el enfoque de la tecnología columna-tienda.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo usar MonetDB y cómo sacar el máximo provecho de ella.

Al final de esta capacitación, los participantes podrán:

- Comprender MonetDB y sus características
- Instalar y comenzar con MonetDB
- Explora y realiza diferentes funciones y tareas en MonetDB
- Acelere la entrega de su proyecto maximizando las capacidades de MonetDB

Audiencia

- Desarrolladores
- Expertos técnicos

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
7 horas
Descripción General
Spark SQL es Apache Spark módulo de Apache Spark para trabajar con datos estructurados y no estructurados. Spark SQL proporciona información sobre la estructura de los datos, así como el cálculo que se realiza. Esta información se puede usar para realizar optimizaciones. Dos usos comunes para Spark SQL son:
- para ejecutar consultas SQL .
- para leer datos de una instalación de Hive existente.

En esta capacitación en vivo dirigida por un instructor (en el sitio o remota), los participantes aprenderán cómo analizar varios tipos de conjuntos de datos usando Spark SQL .

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar Spark SQL .
- Realizar análisis de datos usando Spark SQL .
- Consultar conjuntos de datos en diferentes formatos.
- Visualizar datos y resultados de consultas.

Formato del curso

- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.

Opciones de personalización del curso

- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
7 horas
Descripción General
El objetivo del curso es permitir a los participantes obtener un dominio de los fundamentos de R y cómo trabajar con los datos.
14 horas
Descripción General
Objetivo: Este curso de capacitación tiene como objetivo ayudar a los asistentes a entender por qué Big Data está cambiando nuestras vidas y cómo está alterando la forma en que las empresas nos ven como consumidores. De hecho, los usuarios de Big Data en las empresas encuentran que los grandes datos liberan una gran cantidad de información y conocimientos que se traducen en mayores ganancias, menores costos y menos riesgos. Sin embargo, la desventaja era la frustración a veces cuando se hacía demasiado hincapié en las tecnologías individuales y no se prestaba suficiente atención a los pilares de la gestión de big data.

Los asistentes aprenderán durante este curso cómo administrar los big data utilizando sus tres pilares de integración de datos, control de datos y seguridad de datos para convertir big data en valor comercial real. Diferentes ejercicios realizados en un estudio de caso de la gestión de clientes ayudarán a los asistentes a comprender mejor los procesos subyacentes.
14 horas
Descripción General
Apache Hama es un marco basado en el modelo informático Bulk Synchronous Parallel (BSP) y se utiliza principalmente para el análisis de Big Data.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de Apache Hama a medida que avanzan en la creación de una aplicación basada en BSP y un programa centrado en vértices utilizando los marcos de Apache Hama.

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar Apache Hama
- Comprender los fundamentos de Apache Hama y el modelo de programación Bulk Synchronous (BSP)
- Construya un programa basado en BSP usando el marco Apache Hama BSP
- Construya un programa centrado en vértices usando Apache Hama Graph Framework
- Cree, pruebe y depure sus propias aplicaciones Apache Hama

Audiencia

- Desarrolladores

Formato del curso

- Parte de lectura, parte de discusión, ejercicios y práctica práctica

Nota

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
14 horas
Descripción General
Esta sesión de capacitación basada en el aula explorará Big Data . Los delegados tendrán ejemplos basados en computadora y ejercicios de estudio de casos para llevar a cabo con herramientas relevantes de big data
7 horas
Descripción General
Kafka Streams es una biblioteca del lado del cliente para la creación de aplicaciones y microservicios cuyos datos se transmiten desde y hacia un sistema de mensajería Kafka. Tradicionalmente, Apache Kafka ha confiado en Apache Spark o Apache Storm para procesar datos entre productores de mensajes y consumidores. Al llamar a Kafka Streams API desde dentro de una aplicación, los datos se pueden procesar directamente dentro de Kafka, pasando por alto la necesidad de enviar los datos a un clúster separado para su procesamiento.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo integrar Kafka Streams en un conjunto de aplicaciones Java de muestra que pasan datos desde y hacia Apache Kafka para el procesamiento de flujo.

Al final de esta capacitación, los participantes podrán:

- Comprenda las características y ventajas de Kafka Streams frente a otros marcos de procesamiento de flujos
- Procesar datos de flujo directamente dentro de un clúster de Kafka
- Escriba una aplicación Java o Scala o microservicio que se integre con Kafka y Kafka Streams
- Escribe un código conciso que transforme los temas de entrada de Kafka en temas de salida de Kafka
- Construye, empaqueta y despliega la aplicación

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Notas

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
21 horas
Descripción General
Dremio es una plataforma de datos de autoservicio de código abierto que acelera la consulta de diferentes tipos de fuentes de datos. Dremio se integra con bases de datos relacionales, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch y otras fuentes de datos. Es compatible con SQL y proporciona una interfaz de usuario web para generar consultas.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo instalar, configurar y usar Dremio como una capa unificadora para las herramientas de análisis de datos y los repositorios de datos subyacentes.

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar Dremio
- Ejecutar consultas en múltiples fuentes de datos, independientemente de la ubicación, el tamaño o la estructura
- Integre Dremio con BI y fuentes de datos como Tableau y Elasticsearch

Audiencia

- Científicos de datos
- Analistas comerciales
- Ingenieros de datos

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Notas

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
7 horas
Descripción General
Apache Drill es un motor de consulta SQL sin columnas, distribuido y en memoria para Hadoop, NoSQL y otros sistemas de almacenamiento en la nube y en la nube. El poder de Apache Drill radica en su capacidad para unir datos de múltiples almacenes de datos con una sola consulta. Apache Drill admite numerosas bases de datos y sistemas de archivos NoSQL, incluidos HBase, MongoDB, MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS y archivos locales. Apache Drill es la versión de código abierto del sistema Dremel de Google, que está disponible como un servicio de infraestructura llamado Google BigQuery.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a optimizar y depurar Apache Drill para mejorar el rendimiento de las consultas en conjuntos de datos de gran tamaño. El curso comienza con una descripción general de la arquitectura y una comparación de características entre Apache Drill y otras herramientas interactivas de análisis de datos. Luego, los participantes pasan por una serie de sesiones de práctica interactivas y prácticas que incluyen instalación, configuración, evaluación del rendimiento, optimización de consultas, partición de datos y depuración de una instancia de Apache Drill en un entorno de laboratorio en vivo.

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar el Apache Drill
- Comprender la arquitectura y las características de Apache Drill
- Comprender cómo Apache Drills recibe y ejecuta consultas
- Optimizar consultas de exploración para la ejecución de SQL distribuido
- Debug Drilling de depuración

Audiencia

- Desarrolladores
- Administradores de sistemas
- Analistas de datos

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Notas

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
7 horas
Descripción General
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los conceptos básicos detrás de MapR Stream Architecture mientras desarrollan una aplicación de transmisión en tiempo real.

Al final de esta capacitación, los participantes podrán construir aplicaciones para productores y consumidores para el procesamiento de datos de flujo en tiempo real.

Audiencia

- Desarrolladores
- Administradores

Formato de la carrera

- Parte de lectura, parte de discusión, ejercicios y práctica práctica

Nota

- Para solicitar un entrenamiento personalizado para esta carrera, contáctenos para organizarlo.
21 horas
Descripción General
Apache Drill es un motor de consulta SQL sin columnas, distribuido y en memoria para Hadoop, NoSQL y otros sistemas de almacenamiento en la nube y en la nube. El poder de Apache Drill radica en su capacidad para unir datos de múltiples almacenes de datos con una sola consulta. Apache Drill admite numerosas bases de datos y sistemas de archivos NoSQL, incluidos HBase, MongoDB, MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Google Cloud Storage, Swift, NAS y archivos locales. Apache Drill es la versión de código abierto del sistema Dremel de Google, que está disponible como un servicio de infraestructura llamado Google BigQuery.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de Apache Drill, luego aprovecharán el poder y la conveniencia de SQL para consultar de manera interactiva big data en múltiples fuentes de datos, sin escribir código. Los participantes también aprenderán a optimizar sus consultas de exploración para la ejecución de SQL distribuido.

Al final de esta capacitación, los participantes podrán:

- Realizar exploración de "autoservicio" en datos estructurados y semiestructurados en Hadoop
- Consultar datos conocidos y desconocidos mediante consultas SQL
- Comprender cómo Apache Drills recibe y ejecuta consultas
- Escribir consultas SQL para analizar diferentes tipos de datos, incluidos datos estructurados en Hive, datos semiestructurados en tablas HBase o MapR-DB, y datos guardados en archivos como Parquet y JSON.
- Utilice Apache Drill para realizar el descubrimiento de esquemas sobre la marcha, evitando la necesidad de complejas operaciones ETL y esquemas
- Integre Apache Drill con herramientas de BI (Business Intelligence) como Tableau, Qlikview, MicroStrategy y Excel

Audiencia

- Analistas de datos
- Científicos de datos
- Programadores de SQL

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
28 horas
Descripción General
MemSQL es un sistema de administración de bases de datos SQL distribuidas y en memoria para la nube y las instalaciones. Es un almacén de datos en tiempo real que brinda información de forma inmediata a partir de datos históricos y en vivo.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los elementos esenciales de MemSQL para el desarrollo y la administración.

Al final de esta capacitación, los participantes podrán:

- Comprender los conceptos clave y las características de MemSQL
- Instalar, diseñar, mantener y operar MemSQL
- Optimizar esquemas en MemSQL
- Mejorar las consultas en MemSQL
- Rendimiento de referencia en MemSQL
- Construya aplicaciones de datos en tiempo real usando MemSQL

Audiencia

- Desarrolladores
- Administradores
- Ingenieros de operación

Formato del curso

- Conferencia de parte, discusiaón en parte, ejercicios y práctica práctica
21 horas
Descripción General
Amazon Redshift es un servicio de almacén de datos basado en la nube petabyte en AWS.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de Amazon Redshift.

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar el Redshift de Amazon
- Cargar, configurar, implementar, consultar y visualizar datos con Amazon Redshift

Audiencia

- Desarrolladores
- Profesionales de TI

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Nota

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
28 horas
Descripción General
Hadoop es un popular marco de procesamiento Big Data. Python es un lenguaje de programación de alto nivel famoso por su claridad de sintaxis y código.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo trabajar con Hadoop, MapReduce, Pig y Spark utilizando Python, ya que pasan por múltiples ejemplos y casos de uso.

Al final de esta capacitación, los participantes podrán:

- Comprender los conceptos básicos detrás de Hadoop, MapReduce, Pig y Spark
- Utilice Python con Hadoop Distributed File System (HDFS), MapReduce, Pig y Spark
- Utilice Snakebite para acceder mediante programación a HDFS dentro de Python
- Usa mrjob para escribir trabajos de MapReduce en Python
- Escribir programas Spark con Python
- Extienda la funcionalidad del cerdo usando las UDF de Python
- Administrar trabajos de MapReduce y scripts Pig utilizando Luigi

Audiencia

- Desarrolladores
- Profesionales de TI

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
Descripción General
Python es un lenguaje de programación de alto nivel famoso por su claridad de sintaxis y código. Spark es un motor de procesamiento de datos utilizado para consultar, analizar y transformar big data. PySpark permite a los usuarios interactuar con Spark con Python.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Python y Spark juntos para analizar los datos grandes mientras trabajan en ejercicios prácticos.

Al final de esta capacitación, los participantes podrán:

- Aprenda a usar Spark con Python para analizar Big Data
- Trabajar en ejercicios que imitan las circunstancias del mundo real
- Utilice diferentes herramientas y técnicas para el análisis de Big Data utilizando PySpark

Audiencia

- Desarrolladores
- Profesionales de TI
- Científicos de datos

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
35 horas
Descripción General
Los avances en las tecnologías y la creciente cantidad de información están transformando la forma en que se lleva a cabo la aplicación de la ley. Los desafíos que plantea Big Data son casi tan desalentadores como la promesa de Big Data. Almacenar datos de manera eficiente es uno de estos desafíos; analizarlo efectivamente es otro.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán la mentalidad con la cual abordarán las tecnologías de Big Data, evaluarán su impacto en los procesos y políticas existentes, e implementarán estas tecnologías con el propósito de identificar la actividad delictiva y prevenir el delito. Se examinarán estudios de casos de organizaciones de orden público de todo el mundo para obtener información sobre sus enfoques, desafíos y resultados de adopción.

Al final de esta capacitación, los participantes podrán:

- Combine la tecnología Big Data con procesos tradicionales de recopilación de datos para armar una historia durante una investigación
- Implementar soluciones industriales de almacenamiento y procesamiento de big data para el análisis de datos
- Preparar una propuesta para la adopción de las herramientas y procesos más adecuados para permitir un enfoque basado en datos para la investigación criminal

Audiencia

- Especialistas en aplicación de la ley con experiencia técnica

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Para cumplir con el cumplimiento de los reguladores, los CSP (proveedores de servicios de comunicación) pueden acceder a Big
Análisis de datos que no solo los ayuda a cumplir con el cumplimiento, sino que están dentro del alcance de los mismos
proyecto pueden aumentar la satisfacción del cliente y así reducir el abandono. De hecho desde
el cumplimiento está relacionado con la calidad del servicio vinculada a un contrato, cualquier iniciativa para cumplir
cumplimiento, mejorará la "ventaja competitiva" de los CSP. Por lo tanto, es importante que
Los reguladores deberían ser capaces de asesorar / orientar un conjunto de prácticas analíticas de Big Data para los CSP que
ser de beneficio mutuo entre los reguladores y los CSP.

2 días de curso: 8 módulos, 2 horas cada uno = 16 horas
28 horas
Descripción General
Una gran cantidad de problemas del mundo real se pueden describir en términos de gráficos. Por ejemplo, el gráfico web, el gráfico de red social, el gráfico de red de tren y el gráfico de lenguaje. Estos gráficos tienden a ser extremadamente grandes; su procesamiento requiere un conjunto especializado de herramientas y procesos; estas herramientas y procesos se pueden denominar Computación de Gráficos.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán sobre las diversas ofertas de tecnología e implementaciones para procesar datos de gráficos. El objetivo es identificar los objetos del mundo real, sus características y relaciones, luego modelar estas relaciones y procesarlas como datos utilizando enfoques de computación gráfica. Comenzamos con una amplia visión general y nos limitamos a herramientas específicas a medida que avanzamos en una serie de estudios de casos, ejercicios prácticos e implementaciones en vivo.

Al final de esta capacitación, los participantes podrán:

- Comprender cómo se conservan y atraviesan los datos de gráfico
- Seleccione el mejor marco para una tarea determinada (desde bases de datos de gráficos hasta marcos de procesamiento por lotes)
- Implemente Hadoop, Spark, GraphX ​​y Pregel para llevar a cabo la computación gráfica en muchas máquinas en paralelo
- Ver problemas de Big Data en el mundo real en términos de gráficos, procesos y recorridos

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
7 horas
Descripción General
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi.

Al final de esta capacitación, los participantes podrán:

- Comprender los conceptos de arquitectura y flujo de datos de NiFi
- Desarrollar extensiones utilizando NiFi y API de terceros
- Desarrolla a medida su propio procesador Apache Nifi
- Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos

Audiencia

- Desarrolladores
- Ingenieros de datos

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
Descripción General
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo.

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar Apachi NiFi
- Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes.
- Automatice los flujos de datos
- Habilitar análisis de transmisión
- Aplicar varios enfoques para la ingestión de datos
- Transformar Big Data y en conocimientos empresariales

Audiencia

- Administradores del sistema
- Ingenieros de datos
- Desarrolladores
- DevOps

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Apache SolrCloud es un motor de procesamiento de datos distribuidos que facilita la búsqueda y la indexación de archivos en una red distribuida.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a configurar una instancia de SolrCloud en Amazon AWS.

Al final de esta capacitación, los participantes podrán:

- Comprender las características de SolCloud y cómo se comparan con las de los clústeres maestros-esclavos convencionales
- Configurar un clúster centralizado de SolCloud
- Automatice procesos como la comunicación con fragmentos, agregue documentos a los fragmentos, etc.
- Utilice Zookeeper junto con SolrCloud para automatizar aún más los procesos
- Use la interfaz para administrar informes de errores
- Balance de carga una instalación de SolrCloud
- Configure SolrCloud para un procesamiento continuo y conmutación por error

Audiencia

- Desarrolladores de Solr
- Gerentes de proyecto
- Administradores del sistema
- Analistas de búsqueda

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
28 horas
Descripción General
El modelado de bóvedas de datos es una técnica de modelado de bases de datos que proporciona almacenamiento histórico a largo plazo de datos que provienen de múltiples fuentes. Una bóveda de datos almacena una única versión de los hechos, o "todos los datos, todo el tiempo". Su diseño flexible, escalable, consistente y adaptable abarca los mejores aspectos de la tercera forma normal (3NF) y el esquema de estrella.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a construir una Bóveda de datos.

Al final de esta capacitación, los participantes podrán:

- Comprender los conceptos de arquitectura y diseño detrás de Data Vault 2.0 y su interacción con Big Data, NoSQL y AI.
- Utilice las técnicas de bóvedas de datos para habilitar la auditoría, el seguimiento y la inspección de datos históricos en un almacén de datos
- Desarrollar un proceso ETL consistente (consistente) y repetible (Extraer, Transformar, Cargar)
- Construya y despliegue almacenes altamente escalables y repetibles

Audiencia

- Modeladores de datos
- Especialista en almacenamiento de datos
- Especialistas en inteligencia empresarial
- Ingenieros de datos
- Administradores de bases

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Datameer es una plataforma de inteligencia de negocios y análisis construida en Hadoop. Permite a los usuarios finales acceder, explorar y correlacionar datos a gran escala, estructurados, semiestructurados y no estructurados de una manera fácil de usar.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Datameer para superar la pronunciada curva de aprendizaje de Hadoop a medida que avanzan en la configuración y el análisis de una serie de grandes fuentes de datos.

Al final de esta capacitación, los participantes podrán:

- Crea, selecciona e interactivamente explora un lago de datos empresariales
- Acceda a almacenes de datos de inteligencia empresarial, bases de datos transaccionales y otras tiendas analíticas
- Use una interfaz de usuario de hoja de cálculo para diseñar las tuberías de procesamiento de datos de extremo a extremo
- Acceda a funciones preconstruidas para explorar relaciones de datos complejas
- Utilice asistentes de arrastrar y soltar para visualizar datos y crear paneles
- Use tablas, cuadros, gráficos y mapas para analizar los resultados de las consultas

Audiencia

- Analistas de datos

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
Descripción General
El procesamiento de flujo se refiere al procesamiento en tiempo real de "datos en movimiento", es decir, realizar cálculos sobre datos a medida que se reciben. Dichos datos se leen como flujos continuos de fuentes de datos tales como eventos de sensores, actividad de usuarios de sitios web, transacciones financieras, transferencias de tarjetas de crédito, transmisiones de clics, etc. Los marcos de procesamiento de flujos pueden leer grandes volúmenes de datos entrantes y proporcionar información valiosa casi instantáneamente.

En este entrenamiento en vivo dirigido por un instructor (in situ o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos de Procesamiento de Stream con los sistemas de almacenamiento de big data existentes y aplicaciones de software y microservicios relacionados.

Al final de esta capacitación, los participantes podrán:

- Instale y configure diferentes marcos de procesamiento de flujo, como Spark Streaming y Kafka Streaming
- Comprender y seleccionar el marco más adecuado para el trabajo
- Proceso de datos de forma continua, concurrente y de forma récord por registro
- Integre soluciones de procesamiento de flujo con bases de datos existentes, almacenes de datos, lagos de datos, etc.
- Integración de la biblioteca de procesamiento de flujo más apropiada con aplicaciones empresariales y microservicios

Audiencia

- Desarrolladores
- Arquitectos de software

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Notas

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
28 horas
Descripción General
Pentaho Open Source BI Suite Community Edition (CE) es un paquete de inteligencia empresarial que proporciona integración de datos, creación de informes, cuadros de mando y capacidades de carga.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo maximizar las características de Pentaho Open Source BI Suite Community Edition (CE).

Al final de esta capacitación, los participantes podrán:

- Instalar y configurar Pentaho Open Source BI Suite Community Edition (CE)
- Comprender los fundamentos de las herramientas Pentaho CE y sus características
- Genere informes usando Pentaho CE
- Integrar datos de terceros en Pentaho CE
- Trabaja con big data y análisis en Pentaho CE

Audiencia

- Programadores
- Desarrolladores de BI

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Nota

- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
14 horas
Descripción General
Apache Ignite es una plataforma informática en memoria que se encuentra entre la aplicación y la capacidad de datos para mejorar la velocidad, la escala y la disponibilidad.

En este entrenamiento en vivo dirigido por un instructor, los participantes aprendieron los principios detrás del almacenamiento persistente y puro en la memoria a medida que avanzan en la creación de un proyecto de ejemplo de computación en memoria.

Al final de esta capacitación, los participantes podrán:

- Utilice Ignite para la memoria en la memoria, la persistencia en disco y una base de datos en memoria puramente distribuida
- Logre la persistencia sin sincronizar los datos a una base de datos relacionales
- Use Ignite para llevar a cabo SQL y Uniones Distribuidas
- Mejore el rendimiento moviendo los datos más cerca de la CPU, usando la RAM como almacenamiento
- Extienda conjuntos de datos en un clúster para lograr la escalabilidad horizontal
- Integre Ignite con RDBMS, NoSQL, Hadoop y procesadores de aprendizaje automático

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
Descripción General
Scala es una versión condensada de Java para programación funcional y orientada a objetos a gran escala. Apache Spark Streaming es un componente extendido de la API de Spark para procesar grandes conjuntos de datos como transmisiones en tiempo real. Juntos, Spark Streaming y Scala permiten la transmisión de big data.

Esta capacitación en vivo dirigida por un instructor (en el sitio o remota) está dirigida a ingenieros de software que desean transmitir grandes datos con Spark Streaming y Scala .

Al final de esta capacitación, los participantes podrán:

- Cree aplicaciones Spark con el lenguaje de programación Scala .
- Use Spark Streaming para procesar flujos continuos de datos.
- Procese flujos de datos en tiempo real con Spark Streaming.

Formato del curso

- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.

Opciones de personalización del curso

- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
7 horas
Descripción General
This instructor-led, live training in Ecuador (online or onsite) is aimed at data engineers, data scientists, and programmers who wish to use Apache Kafka features in data streaming with Python.

By the end of this training, participants will be able to use Apache Kafka to monitor and manage conditions in continuous data streams using Python programming.
28 horas
Descripción General
This instructor-led, live training in Ecuador (online or onsite) is aimed at technical persons who wish to deploy Talend Open Studio for Big Data to simplifying the process of reading and crunching through Big Data.

By the end of this training, participants will be able to:

- Install and configure Talend Open Studio for Big Data.
- Connect with Big Data systems such as Cloudera, HortonWorks, MapR, Amazon EMR and Apache.
- Understand and set up Open Studio's big data components and connectors.
- Configure parameters to automatically generate MapReduce code.
- Use Open Studio's drag-and-drop interface to run Hadoop jobs.
- Prototype big data pipelines.
- Automate big data integration projects.

Próximos Cursos Big Data

Cursos de Fin de Semana de Big Data, Capacitación por la Tarde de Big Data, Big Data boot camp, Clases de Big Data, Capacitación de Fin de Semana de Big Data, Cursos por la Tarde de Big Data, Big Data coaching, Instructor de Big Data, Capacitador de Big Data, Big Data con instructor, Cursos de Formación de Big Data, Big Data en sitio, Cursos Privados de Big Data, Clases Particulares de Big Data, Capacitación empresarial de Big Data, Talleres para empresas de Big Data, Cursos en linea de Big Data, Programas de capacitación de Big Data, Clases de Big Data

Promociones

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas.
En cualquier momento puede cambiar sus preferencias o cancelar su suscripción por completo.

is growing fast!

We are looking to expand our presence in Ecuador!

As a Business Development Manager you will:

  • expand business in Ecuador
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

Este sitio en otros países / regiones