MÁSTER EXPERTO en Arquitectura BIG DATA

AVANZA EN TU CARRERA PROFESIONAL EN 15 SEMANAS

Titulación propia
Intensivo | Fin de semana
Duración: 120h

Octubre 20

Modalidad: Connected Learning Live
20% Descuento

Nuestro Máster Experto en Arquitectura Big Data te especializará al máximo nivel, ofreciéndote la posibilidad de convertirte en uno de los profesionales más relevantes.

15

AVANZA EN TU CARRERA PROFESIONAL EN 15 SEMANAS

El perfil de Big Data Architect se ha convertido en una de las piezas clave en el desarrollo de las estructuras de datos en las compañías. Este perfil, cuenta con un profundo conocimiento de las últimas tecnologías, comprende los sistemas de integración tecnológicos, además de resolver de manera efectiva cualquier problema que pueda surgir dentro de las estructuras de datos.

En Datahack te especializarás en el diseño de sistemas de procesamiento de datos a gran escala, proporcionando información sobre las decisiones arquitectónicas, incluido el hardware y el software. También tendrás un conocimiento profundo de los sistemas y modelos para el manejo de distintos tipos de datos (estructurado, semiestructurado, no estructurado). Abordarás de manera eficaz los desafíos de seguridad y gobernanza de la información asociadas con el sistema. 

El Máster Experto en Arquitectura Big Data de Datahack es un programa de formación dirigido a profesionales del sector del Big Data. Una oferta formativa única y altamente especializada con la que podrás avanzar en tu carrera profesional.

QUÉ VAS A APRENDER

  • Sistemas de procesamiento Big Data (+)
  • Conocerás en profundidad los diferentes sistemas de procesamiento en sistemas Big Data.
  • Arquitecturas escalables (+)
  • Dominarás las principales tecnologías para el diseño de arquitecturas escalables.
  • Almacenamiento de datos (+)
  • Sabrás cómo gestionar y almacenar datos, con el objetivo de generar conocimiento para el negocio.
  • Paradigmas de procesamiento (+)
  • Aprenderás a trabajar en los diferentes paradigmas de procesamiento de datos como batch, streaming (tiempo real) y modelos mixtos. Sabrás cómo almacenar esos datos en sistemas NoSQL.

SALIDAS PROFESIONALES

Nuestro Máster Experto en Arquitectura Big Data te capacitará para trabajar como:

  • Big Data Architect
  • Database Administrator
  • Database Developer
  • Data Modeler
  • Data Engineer
  • Technical Manager
  • Líder de proyectos en sistemas intensivos de datos
  • Gestor de infraestructuras de Big Data

DIRIGIDO A

Nuestro Máster Experto en Arquitectura Big Data está recomendado para todas está dirigido a cualquier profesional con formación técnica en informática, telecomunicaciones o similar.

Te llevamos la clase a donde tú quieras gracias a nuestro sistema Connected Learning Live, la alternativa ideal a las aulas presenciales.

100%
digital

  • Asiste desde cualquier punto del planeta y con cualquier dispositivo.
  • Interactúa con el tutor y con el resto de tus compañeros.
  • Experiencia de aprendizaje integral
  • Aprende en la pantalla del profesor, compartiendo tu pantalla con él/ella y en la pizarra electrónica.
  • Campus virtual, para intercambio de material de clase, proyectos y calificaciones. 

Siempre con la metodología exclusiva de Datahack, Learning by Doing. El aprendizaje de esta manera es como subir una escalera:

  • Aprende en Clases Prácticas interactuando con el profesor
  • Aprende investigando y buscando respuestas sobre lo trabajado cada día en los principales foros y comunidades de Big Data & Analytics que todo profesional debe conocer
  • Aprende colaborando con tus compañeros para llegar más lejos de lo q harías por ti mismo
  • Déjate guiar (y exigir) por tu Tutor asignado
  • Completa el aprendizaje mediante la realización de proyectos por los q serás evaluado

  • Conocerás los fundamentos de las Bases de Datos NoSql. Aprenderás a diferenciar el  Almacenamiento Big Data, ya sea en procesamiento Batch o en Streaming. Descubrirás los principios del Streaming y event sourcing.
  • Tras un repaso a las bases de datos relacionales (ACID y Transacciones) te aproximarás al mundo NoSQL (BASE, CAP), sus tipos de almacenamiento, estrategias y conocerás casos de uso. 
  • Utilizarás las principales BBDD NoSQL del mercado: Apache Cassandra, Mongo Db, Neo4J.
  • En el módulo de Elastic search estudiaremos el funcionamiento interno del motor de indexación basado en Lucen y su sistema de almacenamiento.
  • Aprenderemos a diseñar los índices para que cumplan las necesidades de diseño del modelo de datos y realizar consultas para realizar búsquedas facetadas (aquellas en las que los datos están estructurados),  full text,  ‘search as you type’.
  • También investigaremos problemas comunes con Elasticsearch como utilizar diferentes idiomas en el mismo índice…. sin olvidarnos de conocer los demás productos esenciales del ELK Stack(Kibana, Beats y Logstash )
  • Basics: Desarrollo de conceptos básicos, HDFS, map-reduce, yarn y administración del clúster.
  • Ecosistema: Arquitectura, uso y aplicación práctica del ecosistema: Pig, Hive, Impala, Flume, Sqoop y Ozzie. 

  • Despliegue de un cluster en Cloud.
  • Empezaremos viendo una introducción a la Arquitectura, Topología, Configuración y principales características de las APIS que Apache Kafka pone a nuestra disposición (Producer, Consumer, Streams, Connect, KSQL) mediante la realización de ejercicios prácticos.
  • Para a continuación desarrollar un caso de uso donde, con Kafka como base, veremos su potencia como plataforma de Streaming en Tiempo Real y backbone de comunicación en sistemas distribuidos.

  • Spark Core, Spark SQL (procesamiento de datos estructurados y semi-estructurados), Spark Streaming (Ingesta de datos en tiempo real), Spark MLLib (Librería con numerosos algoritmos de Machine Learning), Spark Graph (Crear operaciones con grafos, con sus nodos y aristas)
  • Tras una revisión de las características y la arquitectura, se procederá a la instalación y comprobación del entorno de desarrollo.
  • Definiremos contenedores (con Dockerfile) y aprenderás a construir la aplicación y otros comandos. Ampliaremos conocimientos con servicios, Swarms y Docker Compose.
  • Escalaremos la aplicación y entenderemos, configuraremos y desplegaremos la aplicación en el clúster del swarm. Para acabar limpiando y reiniciando……
  • Aprenderás qué es y en qué consiste y porque (y cuando) usarlo. Veras los Conceptos básicos, la Arquitectura y algunos Conceptos avanzados.
  • Instalarás en local un entorno de kubernetes (minikube). Verás cómo se organiza el clúster y como se comunican los contenedores.
  • Te acercarás a la exposición de servicios a internet, conocerás como monitorizar y aprenderás a usar las “Tools” para acabar realizando la configuración y despliegue de aplicaciones reales en el clúster localLas bases de Kubernetes y cómo trabajar con este orquestador de contenedores para gestionar Clústers
  • Los alumnos serán evaluados por la realización de proyectos de los diferentes módulos del Máster que se entregan incrementalmente durante el máster para consolidar el aprendizaje práctico de cada módulo y maximizar el aprovechamiento de los módulos.
  • Realización de analíticas (descriptivas y predictivas)
  • En la práctica de Docker, los alumnos pondrán en práctica los principios básicos de los contenedores, deberán implementar el aislamiento, escalabilidad e idempotencia en el cluster usable de elastic stack que tendrán que crear. En él la ingesta, el almacenamiento y el consumo de datos estarán completamente separados y deberán ser altamente escalables.
  • En la práctica de Kafka, sobre el cluster instalado en clase los alumnos deberán: resolver un problema sobre la correcta distribución y consumo de mensajes en un topic (eligiendo la mejor politica para ello); trabajar la agregación de información de distintos topics y la búsqueda en tiempo real en el topic agregado.
  • Integración datos estructurados, semi-estructurados y no-estructurados en Clústers NoSQL y Hadoop
  • Funcionalidades de procesamiento de datos de Spark

Al FINALIZAR este MASTER:

  • Entenderás los componentes clave en una arquitectura Big Data:
    • Qué es la Arquitectura de Datos
    • Que es la Arquitectura de Infraestructura
    • Qué es la Arquitectura de Plataforma
    • Que es la Ingeniería de Procesos
  • Trabajarás en Arquitecturas On-Premise, Cloud, Virtuales y basadas en contenedores
  • Conocerás las distintas Arquitecturas de Bases de Datos NoSQL de acuerdo con el teorema de CAP y trabajarás con una Base de Datos NoSQL de cada una de las tipologías
  • Entenderás los núcleos de Hadoop y de Spark, así como las herramientas de sus ecosistemas 
  • Serás evaluado por la realización de analíticas (descriptivas y predictivas) integrando datos estructurados, semi-estructurados y no-estructurados en clústers NoSQL y Hadoop, utilizando las funcionalidades de procesamiento de datos de Spark

Los profesores que te acompañarán por este trepidante mundo del Big Data son profesionales en activo con una gran experiencia dentro del sector.

Mario Renau

Alstom

Profesor
Spark 

Ignacio González

Orange

Profesor
Hadoop 

Rafael Garrote

MonoM

Profesor
Kafka

Antoni Munar

GFI

Profesor
Hadoop

Marcos Peñate

ING

Profesor Docker/K8s 

Miguel A. Sotomayo

GFT

Profesor Docker/Spark

Miguel García

Telefónica

Profesor
Spark

Oscar
Gómez

ING

Profesor
Kafka

No te preocupes, si no te encuentras fuerte en alguna de las áreas, nosotros te la ofreceremos opciones para que lo consigas.

Te capacitaremos para que estés al mismo nivel del resto de alumnos.

  • Programación en Python: tener soltura resolviendo problemas básicos de programación con Python (obligatorio) 
  • SQL: tener soltura realizando sentencias select para consulta de datos a una base de datos relacional (obligatorio) 
  • Linux/Shell: tener soltura manejando el árbol de directorios de Linux (obligatorio) 
  • Analytics: tener claros los conceptos básicos de la analítica de datos (obligatorio) 
  • Machine Learning: conocer los conceptos clave de ML (que es?, Tipos, Ppales Algoritmos de cada tipo, Algunos casos de Uso). (recomendable) 
  • IT: conocer los conceptos básicos en IT (HW, SW, S.O., Redes/Comunicaciones/Protocolos, Apps, BBDD, etc.) (obligatorio)

Tu satisfacción es nuestro indicador fundamental para mediar la eficacia de nuestra formación.

+70%

ALUMNOS CONSIGUE MEJOR TRABAJO

+1000

ALUMNOS

GRADUADOS

+41%

ALUMNOS AMPLÍA FORMACIÓN

4

CAMPUS EN TODA ESPAÑA

40%

NOS ELIGE POR RECOMENDACIÓN

99%

TASA DE EMPLEABILIDAD

9/10
*Valoración global media de nuestros profesores.

Asociación Alumni

En Datahack cuidamos y estamos en permanente contacto con nuestros alumnos antes, durante y después de las clases. Gracias a la asociación de antiguos alumnos, conseguimos darles todas las ventajas que se merecen.
Nuestra asociación es flexible y evoluciona constantemente para adaptarse a las necesidades de los alumnos, estando abierta a todas sus sugerencias.

Nuestros Training Consultant te ayudarán a elegir la ruta formativa que más se adecue a tus necesidades formativas, guiándote y acompañándote durante todo el proceso.

Si deseas cursar nuestro Máster Big Data & Analytics éste será el proceso de admisión que seguirás:

Sesión de coaching Personal con nuestro Director Académico
Cumplimentación de todos los campos de la solicitud de admisión
Envío de documentación de trayectoria laboral y/o académica.
Pago de la Matrícula
Formación Previa (si fuera necesario)

Datahack logo