Duración

30 horas
Objetivos

La persona asistente practicará con ecosistemas Big Data ampliamente utilizados (Hadoop y Spark), aprenderá a trabajar con grafos en la base de datos líder (Neo4J), aplicará machine learning en el datawarehouse de Google en la nube (BigQuery) y realizará laboratorios con los algoritmos esenciales del aprendizaje automático.

Temario

  1. Introducción a Big Data
    • Tendencias
    • Internet de las Cosas
    • Economía del Dato
    • ¿Qué es Big Data?
    • Ecosistema Big Data
    • Características de Big Data
    • Tipos de Datos
    • Big Data en la Nube
    • Servicios IaaS / PaaS / SaaS
    • Top players en la Nube
    • Herramientas usadas en Big Data
  2. Hadoop
    • ¿Qué es Hadoop?
    • ¿Por qué es importante Hadoop?
    • HDFS
    • Hbase
    • Map/Reduce
    • Yarn
    • Zookeeper
    • Sqoop
    • Hive
    • Kafka
    • Hue, Flume, Pig, Impala
    • Lab Hadoop. Proceso de Negocio Completo
  3. Spark
    • ¿Qué es Spark?
    • Características
    • Spark vs Map / Reduce
    • DAG Gráfico Acíclico Dirigido
    • RDD Dataset Distribuído Resiliente
    • Acciones y transformaciones
    • Etapas de un proceso Spark
    • Modelo de programación
    • Trabajo por lotes / tiempo real
    • Ecosistema Spark
  4. NoSQL Neo4J
    • Bases de datos NoSQL
    • Bases de datos de Grafos: Neo4J
    • ¿Qué es y cómo funciona Neo4J?
    • Modelo de datos de un Grafo
  5. Google Big Query
    • La nube de Google
    • Comparativa Cloud top players
    • Google Big Query. El Datawarehouse de Google
  6. Machine Learning
    • Preparación de datos para Machine Learning
    • Introducción a Inteligencia Artificial
    • Algoritmos

Solicita  información

    Política de Privacidad