Este taller entrega los fundamentos necesarios para procesar grandes volúmenes de datos, estructurados o no estructurados, de forma batch o en streaming con Apache Hadoop. Estos conocimientos permiten implementar soluciones escalables en todo tipo de industrias para el almacenamiento y procesamiento distribuido de datos.
Antecedentes
¿Quiénes deben participar?
- Profesionales de TI con conocimientos en el área de sistemas de información que deseen interiorizarse en el mundo de Big Data y las plataformas de almacenamiento y procesamiento distribuido.
Pre-requisitos
- No tiene.
Objetivos
Al término del curso, los participantes estarán en condiciones de:
- Iniciar la implementación de grandes volúmenes de datos con las principales herramientas open-source del mercado
- Descubrir oportunidades de creación de valor para sus negocios a través del análisis de sus datos.
Contenidos
- Fundamentos de Big Data
- Arquitectura Hadoop
- Introducción a la Plataforma de gestión de datos empresarial Hortonworks.
- Procesamiento de datos batch con Sqoop, Flume, Hive y Pig
- Introducción a Apache Spark y Zeppelin
- Procesamiento de datos en streaming con Kafka y Spark
Curso
Duración del programa:
8 horas
Incluye:
- Instancias AWS para realizar laboratorios.
- Certificado digital de asistencia.