Programa del Curso

Introducción

  • Por qué y cómo los equipos de proyecto adoptan Hadoop
  • Cómo empezó todo
  • El papel del director de proyecto en Hadoop proyectos

Comprender la arquitectura y los conceptos clave de Hadoop

  • HDFS
  • MapReduce
  • Otras piezas del ecosistema Hadoop

¿Qué constituye Big Data?

Diferentes enfoques para el almacenamiento Big Data

HDFS (Hadoop Sistema de archivos distribuido) como base

Cómo se procesa Big Data

  • El poder del procesamiento distribuido

Procesamiento de datos con MapReduce

  • Cómo se separan los datos paso a paso

El papel de la agrupación en clústeres en el procesamiento distribuido a gran escala

  • Visión general de la arquitectura
  • Enfoques de agrupación en clústeres

Agrupación de datos y procesos con YARN

El papel de lo no relacional Database en el almacenamiento de Big Data

Trabajar con la base de datos no relacional de Hadoop: HBase

Información general sobre la arquitectura de almacenamiento de datos

Administración de su almacén de datos con Hive

Ejecución Hadoop desde Shell-Scripts

Trabajar con Hadoop Streaming

Otras Hadoop Herramientas y utilidades

Primeros pasos en un proyecto Hadoop

  • Desmitificando la complejidad

Migración de un proyecto existente a Hadoop

  • Consideraciones sobre la infraestructura
  • Escalar más allá de los recursos asignados

Hadoop Partes interesadas del proyecto y sus herramientas

  • Desarrolladores, científicos de datos, analistas de negocio y gestores de proyectos

Hadoop como base para nuevas tecnologías y enfoques

Palabras finales

Requerimientos

  • Una comprensión general de la programación
  • Comprensión de las bases de datos
  • Conocimientos básicos de Linux
  14 horas
 

Número de participantes


Comienza

Termina


Las fechas están sujetas a disponibilidad y tienen lugar entre 09:30 y 16:30.
Los cursos de formación abiertos requieren más de 5 participantes.

Testimonios (4)

Cursos Relacionados

Categorías Relacionadas