Te brindamos un programa que se encarga de cubrir las aspectos esenciales que se relacionan con el almacenamiento de grandes volúmenes de datos. Cada uno de los estudiantes aprenderá de distintas tecnologías de almacenamiento, como sistemas de archivos distribuidos, bases de datos NoSQL, almacenamiento en la nube, entre otros.
Se ha destinado la formación para que la lleven a cabo todas aquellas personas que deseen expandir sus conocimientos y habilidades en el sector tecnológico.
TEMA 1. APACHE HADOOP
1.1. ¿Qué es Hadoop?
1.2. Distribuciones Hadoop
TEMA 2. EL ECOSISTEMA HADOOP
2.1. ¿Qué es el ecosistema Hadoop?
2.2. Descripción de las aplicaciones del ecosistema Hadoop
TEMA 3. APACHE SPARK
3.1. ¿Qué es apache Spark
3.2. Introducción a Scala
3.3. Spark con Scala con dataframes
3.4. Datasets con Scala
3.5. Spark SQL y dataframes
3.6. Spark SQL y conexiones a fuentes externas
3.7. Spark con Python
3.8. Optimización de aplicaciones en Spark
TEMA 4. TECNOLOGÍAS PARA STREAMING
4.1. Conceptos de batch y streaming
4.2. Apache Kafka
4.3. Apache Kafka y Apache Spark
4.4. Streaming en la nube
TEMA 5. SISTEMAS DE FICHEROS Y PLATAFORMAS PARA BIG DATA EN CLOUD
5.1. Organización del dato: Data Lake
5.2. Plataformas en la nube
5.3. Plataformas de big data como servicio en la nube
5.4. Sistemas de almacenamiento en la nube
Nos encargaremos de hacer el proceso de Apostilla de La Haya para su reconocimiento internacional en los países acogidos en el Convenio de La Haya.
En caso de no cumplir con ninguna de las condiciones, podrás contactarnos y el departamento de admisiones valorará tu caso particular.