dossier-master-big-data-engineering-ucm

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 37

ntic master

Máster de Formación Permanente en

BIG DATA &


DATA
ENGINEERING


EDICIÓN

Facultad de Estudios Estadísticos


Universidad Complutense de Madrid
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

Módulo • Python para Desarrolladores

Módulo • Programación en Scala

Módulo • Arquitecturas de datos

Módulo • Diseño de Bases de Datos


relacionales
Módulo • Bases de datos NoSQL
Módulo • Apache Kafka y
procesamiento en tiempo
real
Módulo • Apache Spark
Módulo • Ingestas y Lagos de datos
Módulo • Pipelines de datos en cloud

Módulo • Arquitecturas basadas en


contenedores

Módulo • Machine Learning y Deep


Learning

Módulo • Productivizar un modelo


TFM • Trabajo Final de Máster
PROGRAMA
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

La importancia del
Data Engineering
NECESIDAD DEL MERCADO
Las empresas y organismos están adoptando
rápidamente la transformación digital para
aprovechar el valor de los datos masivos en la
toma de decisiones. El Big Data se ha convertido en EL ROL DEL DATA ENGINEER
un recurso valioso para la gestión empresarial, y Las metodologías de la Ciencia de Datos para
lo que comenzó como una ventaja competitiva se extraer valor de los datos, basadas en Machine
ha vuelto esencial para mantenerse relevante. El Learning e Inteligencia Artificial, requieren que,
dato es considerado como el petróleo del siglo XXI, primero, se hayan definido infraestructuras y
y aquellos que puedan aprovechar su potencial arquitecturas que les permitan acceder a estos
estarán en una posición privilegiada para innovar datos. Los Ingenieros de Datos son los encargados
y liderar en sus respectivos mercados. de crear flujos de datos con los que proveer a
los Científicos de Datos que los analizarán, y
definir procesos y estándares para desplegar en
producción dichos modelos predictivos y explotar
ECOSISTEMA BIG DATA sus resultados, cerrando el ciclo de aporte de valor
El impacto de la información a gran escala va más en la empresa. Para ello utilizan herramientas
allá del ámbito matemático o estadístico, ya que especializadas en datos masivos y tecnologías
tiene aplicaciones prácticas en diversos campos cloud.
empresariales, gubernamentales, científicos y
sociales. El Big Data se ha convertido en un recurso
fundamental para afrontar situaciones complejas OPTIMIZACIÓN EN LA EXPERIENCIA
en tiempo real, permitiendo tomar decisiones DEL CLIENTE
informadas y generar conocimiento valioso en
áreas como la medicina, la seguridad, el marketing, La labor de los Data Engineers permite a las
entre otros. El Big Data es una herramienta organizaciones optimizar la experiencia del
imprescindible en el mundo actual que ayuda a cliente de manera más precisa. A través de la
resolver problemas y aprovechar oportunidades estructuración y procesamiento eficiente de
en diversos entornos y sectores. grandes volúmenes de datos, los ingenieros de datos
pueden identificar patrones de comportamiento y
preferencias, lo que facilita la creación de modelos
y sistemas que mejoren productos y servicios. Esto
INNOVACIÓN IMPULSADA POR LA ayuda a alinear mejor la oferta con las expectativas
INGENIERÍA DE DATOS del consumidor, aumentando tanto la satisfacción
Los Data Engineers no solo contribuyen a la como la lealtad.
eficiencia operativa, sino que también juegan
un papel clave en impulsar la innovación. Su
capacidad para gestionar y organizar grandes
volúmenes de datos permite descubrir patrones
ocultos y nuevas oportunidades de negocio,
lo que se traduce en productos y servicios más
competitivos y alineados con las demandas del
mercado actual.
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

¿Por qué estudiar un


Máster de
Data Engineering?
Los ingenieros de datos son la base para construir equipos de analítica avanzada. Crean la
infraestructura para que los científicos de datos trabajen, configuran sus entornos, evangelizan a
los equipos de analítica y a los analistas de BI para que sigan las buenas prácticas en el uso de los
datos, y definen y monitorizan los flujos adecuados para suministrarles datos curados y de calidad
a todos los demás usuarios de una organización.

Esto incluye el uso de herramientas cloud (orquestar flujos y bases de datos diversas) y también la
implementación de procesos específicos de ingestas y tratamientos, puesto que los datos en crudo
habitualmente distan aún de ser útiles para perfiles analíticos.

Asimismo, los ingenieros de datos, en conjunción con los equipos de analítica, determinan las
prácticas de ingeniería que deben seguirse para desplegar y llevar a producción los modelos analíticos,
y se encargan de su mantenimiento y monitorización operativa - esto es, que permanezcan vivos
y funcionales - al mismo tiempo que los científicos de datos monitorizan las métricas que se van
obteniendo.

Alta Demanda Laboral Actualización Constante


El campo de los datos está en constante expansión. Las El campo del Data Engineering está en continua evolución
empresas de todos los sectores buscan profesionales con nuevas herramientas, tecnologías y enfoques. Un
capaces de gestionar, analizar y transformar grandes máster te permitirá mantenerte actualizado en las últimas
volúmenes de datos en información valiosa para la toma de novedades y aprender a adaptarte rápidamente a las
decisiones. Especializarte en Big Data y Data Engineering te tendencias emergentes en la industria de los datos.
posicionará en un mercado con alta demanda y numerosas
oportunidades. Desarrollo de Proyectos Reales
Oportunidades Profesionales Un máster en Data Engineering te ofrecerá la oportunidad
de trabajar en proyectos reales, aplicando tus conocimientos
Las salidas profesionales en Big Data y Data Engineering a situaciones del mundo empresarial. Estas experiencias
son muy diversas, abarcando roles como analista de datos, prácticas serán clave para fortalecer tus habilidades y
ingeniero de datos, arquitecto de datos y científico de datos, mejorar tu empleabilidad.
entre otros. Un máster te preparará para enfrentar estos
desafíos y desarrollar habilidades técnicas avanzadas. Ventaja Competitiva
Networking Tener un máster en Data Engineering te dará una ventaja
competitiva en el mercado laboral, diferenciándote como
Estudiar un máster en Big Data y Data Engineering te un profesional preparado para abordar los complejos
brindará la oportunidad de conectar con profesionales desafíos de la gestión y análisis de grandes volúmenes de
del sector, compañeros de clase, profesores expertos y datos.
empresas. Este entorno te permitirá generar relaciones clave
para tu desarrollo profesional y acceder a oportunidades Flexibilidad Laboral
laborales.
El conocimiento en Big Data ofrece flexibilidad en el tipo de
Mayor Potencial de Ingresos empresas para las que puedes trabajar, desde startups hasta
grandes corporaciones. Además, muchos roles relacionados
Los profesionales en Big Data y Data Engineering suelen con los datos permiten trabajar de forma remota, lo que te
tener un alto potencial de ingresos debido a la demanda da mayor control sobre tu vida profesional.
de personas con habilidades técnicas avanzadas. Las
empresas están dispuestas a pagar más por aquellos que
puedan transformar datos en información estratégica que
impulse la toma de decisiones.
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

Duración
1 año académico
Modalidades
Presencial, Semipresencial y Online
Creditos ECTS
60

Modalidad
Presencial
Viernes tarde y sábados
mañana en la universidad

Modalidad
Semipresencial
INFORMACIÓN

3 Semanas en presencial
en la universidad y en la
plataforma online

Modalidad
Online
100% desde nuestra
plataforma online
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

¿Por qué estudiar


en la Universidad
Complutense
de Madrid?
La Universidad Complutense de Madrid (UCM) es
una de las instituciones educativas más destacadas
de Europa, reconocida por el prestigioso QS World
Ranking como la mejor de España. Ofrece una
amplia gama de oportunidades y beneficios para
los estudiantes, así como una excelencia académica
reconocida, una calidad docente de primer nivel.
Ofrece alrededor de 90 títulos de grado y más
de 30 dobles grados, más de 200 programas
máster, además de estudios de formación
permanente. La UCM tiene más de 500 años de
historia y reconocimiento social. La Universidad
Complutense de Madrid es la universidad española
de referencia en 5 continentes.

El prestigio de la universidad está avalado por


7 Premios Nobel, 20 Príncipes de Asturias, 7
Premios Cervantes, Premios Nacionales de
Investigación y a la Excelencia. La Universidad
Complutense de Madrid tiene estudiantes de más
de 90 países y convenios con universidades de los
5 continentes.
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

¿Por qué estudiar un


Máster en Formación
Permanente?

Nuestros módulos formativos combinan una base teórica


con ejercicios prácticos basados en situaciones reales
de las empresas. Además, todos los módulos se evalúan
Si hay algo que afianza los con tareas prácticas, no con exámenes, tratándose de
conceptos teóricos de un programa un programa de configuración eminentemente práctica.
educativo es la práctica.
La preparación del Trabajo Final de Máster (TFM) garantiza
la puesta en práctica de todos los conceptos adquiridos a
lo largo del curso, capacitando definitivamente al alumno
para asumir responsabilidades dentro de un entorno
laboral real.
PROGRAMA

Los módulos de aprendizaje


de Data Engineering más
completos enseñados de
forma eficaz para el alumno.

U N I V E R S I D A D
COMPLUTENSE
M A D R I D
ntic master
U N I V E R S I D A D
COMPLUTENSE ntic master

MÓDULO
M A D R I D

Python para
Desarrolladores

Siendo el primer módulo del máster, se profundiza en la utilización del


lenguaje Python para desarrollo de software. Python es el lenguaje que
mayor auge ha experimentado en los últimos años, tanto en el área de
la Ciencia de Datos como de la Ingeniería de Datos, por su versatilidad
y sencillez. De hecho, se utilizará en varios de los módulos posteriores,
dado que dispone de paquetes específicos para integrarse con distintas
tecnologías.

Dado que el alumno ya tiene experiencia programando en algún lenguaje,


aquí se repasarán los conceptos aplicados a Python y se profundizará
en aspectos concretos que debe conocer bien un Ingeniero de Datos en
su día a día, ligados a los estándares del Desarrollo de Software.

Índice de contenidos:
• Compiladores, intérpretes, lenguajes • Programación Orientada a Objetos.
interpretados y compilados.
• Versionado de código con Git.
• Flujo de control, estructuras de datos básicas
• Desarrollo de un paquete de Python.
(listas, diccionarios).
• Tests unitarios y paquetes específicos.
• Manejo de DataFrames de Pandas.

• Control de excepciones:

• Expresiones regulares.
U N I V E R S I D A D
COMPLUTENSE ntic master

MÓDULO
M A D R I D

Programación
en Scala

El lenguaje Scala se ha impuesto como uno de los estándares


para la creación de flujos de datos, motores de ingesta y
preparación del dato.

Se trata de un lenguaje con características avanzadas que


combina el paradigma orientado a objetos, habitual en la
industria del desarrollo de software desde hace años, con el
paradigma funcional, algo novedoso y que da lugar a códigos
elegantes, concisos y muy expresivos.

Se introducirá al alumno en los conceptos tradicionales de la


programación orientada a objetos y funcional en el lenguaje
Scala, así como a las construcciones habituales de este
lenguaje y sus características funcionales fundamentales,
apoyándonos en el IDE más popular entre los ingenieros de
datos.

Índice de contenidos:
• Introducción a Scala. Relación con Java y la JVM.

• Construcciones para flujo de control propias de Scala.

• Programación Orientada a Objetos en Scala. Clases, traits,


objects. Similitudes y diferencias con Java.

• Pattern matching y características funcionales avanzadas.

• Introducción al desarrollo en IntelliJ.

• Creación de proyectos basados en sbt.


U N I V E R S I D A D
COMPLUTENSE ntic master

MÓDULO
M A D R I D

Arquitecturas
de datos

Hoy en día se están generando más datos que nunca y, para


seguir siendo competitivas, las empresas deben recopilarlos,
Índice de contenidos:
almacenarlos, procesarlos y analizarlos de manera eficaz.
Ahí es donde entran en juego las arquitecturas de datos. • Introducción a las arquitecturas de datos.

En este módulo, se introducirán y explicarán los componentes • Fuentes de datos actuales.


clave de las arquitecturas de datos modernas, incluyendo las
• Capa de ingesta.
fuentes de datos, la capa de ingesta, la capa de almacenamiento,
la capa de procesamiento, capa de servicio y la capa de • Capa de almacenamiento.
presentación. Se presentará su evolución a lo largo de los
años, los principales patrones arquitectónicos actuales y su • Capa de procesamiento.
implementación en los distintos proveedores cloud. El alumno
• Capa de servicio.
podrá descubrir cómo estas arquitecturas permiten a las
organizaciones manejar y procesar grandes volúmenes de • Capa de presentación.
datos de manera eficiente, proporcionando información en
• Patrones arquitectónicos de arquitecturas de datos.
tiempo real sobre sus operaciones.

Al final de este curso, el alumno tendrá conocimiento general


para diseñar e implementar arquitecturas de datos modernas
que permitan a cualquier empresa, gestionar y analizar sus
datos de manera efectiva y tomar mejores decisiones basadas
en datos.
U N I V E R S I D A D
COMPLUTENSE ntic master

MÓDULO
M A D R I D

Diseño de Bases de
Datos Relacionales

Las Bases de Datos relacionales, aquellas en las que la Índice de contenidos:


información está almacenada en forma de tabla, siguen
siendo las más frecuentes en gran cantidad de empresas. • Concepto de base de datos relacional.
Por razones históricas estas empresas almacenan en ellas
los datos de su negocio. • El lenguaje de consulta SQL:

También en muchas de las tecnologías más recientes del • Sentencias DDL.


ecosistema Big Data existe la posibilidad de definir tablas y
• Clave primaria, externa y restricciones
modelos de datos que se basan en el lenguaje SQL. Por esto,
un ingeniero de datos frecuentemente debe llevar a cabo • Sentencias DML.
migraciones y definiciones o redefiniciones de modelos de
datos basados en tablas, para lo cual necesita conocimientos • Ejemplos de queries con SELECT, FROM, WHERE,
clásicos de Diseño de bases de datos. GROUP BY, HAVING, agregaciones, subquerie, etc.

Durante los procesos de desarrollo de flujos de datos también • Diseño de bases de datos relacionales:
es necesario consultar frecuentemente bases de datos
• Modelo Entidad-Relación.
utilizando el lenguaje de consulta SQL, el más extendido en
la actualidad. • Modelo relacional.

En la primera parte del módulo se revisará el lenguaje • Normalización de bases de datos.


SQL, desde las consultas más básicas a las más avanzadas.
A continuación, se presentarán los principios de diseño • Modelos de datos: en estrella, en copo de nieve,
concepto de maestros.
habituales para definir modelos de datos. Esto incluye
conceptos como maestros, modelos en estrella, copo de nieve,
claves primarias y externas, restricciones, índices, etc.
U N I V E R S I D A D
COMPLUTENSE ntic master

MÓDULO
M A D R I D

Bases de
Datos NoSQL

El módulo de Bases de Datos NoSQL está diseñado para Índice de contenidos


proporcionar un conocimiento práctico de las bases de datos
NoSQL. El programa aborda conceptos fundamentales como la • Bases de datos documentales: MongoDB
distribución de datos, la escalabilidad, la consistencia eventual
• Inserción, actualización, consulta y borrado de
y las operaciones CRUD, utilizando diferentes tipos de bases
documentos.
de datos NoSQL como documentales, clave-valor, columna
y grafo. También cubre las bases de datos más populares en • Bases de datos clave-valor: Redis
cada categoría, incluyendo MongoDB, Cassandra, Redis y
Neo4j. Con una combinación de teoría, ejemplos prácticos • Persistencia de datos en RAM.
y proyectos, los estudiantes aprenderán cómo implementar
soluciones de bases de datos NoSQL de manera efectiva. • Sistema caché y message broker.

Las bases de datos NoSQL se están convirtiendo en una • Bases de datos de grafos: Neo4J
opción cada vez más popular para las organizaciones debido
• Nodos, relaciones y atributos.
a su capacidad para manejar grandes cantidades de datos
y su flexibilidad para adaptarse a los cambios de datos, lo • Visualización de grafos.
que las hace ideales para big data y aplicaciones en tiempo
real. Al adquirir estas habilidades, como ingeniero de datos
contarás con conocimientos para afrontar los desafios del
futuro en la gestión de datos no estructurados. En una era en
la que los datos son el nuevo petróleo, aprender sobre bases
de datos NoSQL puede ser una pieza clave para abrir nuevas
oportunidades en una amplia gama de industrias, desde la
tecnología hasta la salud, las finanzas y más allá.
U N I V E R S I D A D
COMPLUTENSE ntic master

MÓDULO
M A D R I D

Apache Kafka y
procesamiento
en tiempo real
Apache Kafka es una plataforma de paso de mensajes en Índice de contenidos
near real time, empleada para comunicar instantáneamente
distintas aplicaciones conectadas a él, al estilo de un gran • Arquitectura y Conceptos Básicos:
bus de datos común por el que circula la información de • KRAFT (bye bye Zookeeper).
una empresa para ser procesada y utilizada por distintos • Kafka Admin API.
departamentos de maneras muy diferentes. Es capaz de
procesar billones de mensajes al día en near real time. • El LOG distribuido y sus conceptos básicos.
Podríamos definir su arquitectura como un sistema de logs
• Producer/Consumer API:
distribuido. Kafka sólo tiene una tarea: escribir mensajes en
forma de log cumpliendo siempre sus dos grandes razones de • Conceptos básicos Producer.
ser: rapidez y fiabilidad en la entrega y proceso de mensajes • Conceptos básicos Kafka Consumer.

Sobre esta idea, se desarrolla un ecosistema en forma de • Console Producer/Consumer.

APIs y clientes caracterizado por su ligereza y sencillez que • Semánticas de entrega.


permiten el escalado dinámico y elástico de la aplicación, que
• Java/Scala/Python Producer/Consumer.
no depende necesariamente del escalado del propio cluster de
máquinas en las que se está ejecutando Kafka. Estos son los • Kafka Connect.
motivos por los que el ecosistema Kafka se ha convertido en el
estándar de facto para numerosos casos de uso alrededor de • Kstreams.
las arquitecturas de dato que van desde el paso de mensajes
• KSQL.
en tiempo real para comunicar sistemas heterogéneos, hasta
el “sistema nervioso central” del dato de una compañía, que • Pipelines de Datos pensadas en tiempo real.
permite que todos los departamentos vean siempre dato
actual y habilita estrategias de gobierno de datos. Incluso
se aplica para la comunicación entre microservicios en
aplicaciones descentralizadas. En definitiva, Kafka facilita
la implementación de cualquier solución orientada a Eventos
(EDA o Event Driven Architecture).

En este curso revisaremos la Arquitectura Kafka y su


ecosistema, profundizando en temas como el escalado o las
distintas estrategias de despliegue, pero sobre todo en sus
distintas APIs y abstracciones (desde consumer producer
a KSQLDB pasando por Kafka Connect), el desarrollo de
aplicaciones clientes para el streaming de datos en los
lenguajes más usados (Python, Java/Scala) y el diseño de
pipelines de datos eficientes y sencillas en (near) tiempo real.
U N I V E R S I D A D
COMPLUTENSE ntic master

MÓDULO
M A D R I D

Apache
Spark

Este módulo introduce las tecnologías Big Data y su Los estudiantes también aprenderán acerca de clasificación
motivación en el contexto actual de la era digital y las no supervisada y análisis de clusters, y cómo construir
necesidades de las empresas. Proporciona a los estudiantes scorecards
una comprensión profunda de cómo funcionan estos
Índice de contenidos
sistemas de procesamiento de datos distribuidos y cómo
aprovecharlos para procesar grandes cantidades de datos • Introducción a las tecnologías Big Data.
de manera eficiente y efectiva.
• HDFS.
Tras describir brevemente el manejo de la tecnología de
• Apache Spark:
almacenamiento HDFS (Hadoop Distributed File System), el
curso se centrará en Apache Spark, sin duda la tecnología más • Arquitectura de Spark.
demandada para procesamiento de grandes volúmenes de
datos, que constituye el día a día de los equipos de ingenieros • Módulos de Spark: Spark SQL, Spark MLlib, Structured
de datos de todo el mundo. Describiremos su filosofía basada Streaming.
en un grafo de ejecución (DAG) y sus implicaciones.
• Grafos con el paquete GraphFrames.
A continuación, el alumno profundizará en el estudio de
cada uno de los módulos, en especial Spark SQL, MLlib y
Structured Streaming. Se desplegará un cluster de Spark
en la plataforma de Databricks sobre Azure, actualmente
una de las combinaciones más extendidas en la empresa
privada, y sobre él se mostrará la aplicación de cada uno
de los conceptos.
U N I V E R S I D A D
COMPLUTENSE ntic master

MÓDULO
M A D R I D

Ingestas y
Lagos de datos

Prepárate para sumergirte y bucear en el apasionante mundo


de los lagos de datos. En el mundo actual, las empresas
necesitan como parte de su arquitectura de datos, un
componente que les permita almacenar, procesar y analizar Índice de Contenidos
grandes cantidades de datos. Estos componentes son los data
• Formatos de almacenamiento.
lakes (o lagos de datos), y su última evolución, los lakehouses.
• Patrones de ingesta en batch y en tiempo real.
Los data lakes son repositorios centralizados para almacenar
cualquier tipo de dato sin requerir una estructura previa. • Capas lógicas de un lago.
Los lakehouses son una evolución de los lagos de datos que
• Construcción de lagos de datos con herramientas cloud.
combinan la escalabilidad y flexibilidad de los datalakes
con el rendimiento y la fiabilidad de los data warehouses
tradicionales. Sin embargo, administrarlos y operarlos de
forma óptima es un desafío que requiere planificación y
diseño para garantizar una organización adecuada de los
datos en el mismo.

Al realizar este curso, tendrás los conocimientos necesarios


para diseñar, implementar, organizar y administrar
estos componentes. Además, aprenderás sobre formatos
de almacenamiento, incluyendo el manejo de formatos
de fichero específicos para lagos y la funcionalidad que
ofrecen; estudiaremos los patrones de ingesta y lo relativo a
la promoción de datos entre las distintas capas lógicas
U N I V E R S I D A D
COMPLUTENSE ntic master

MÓDULO
M A D R I D

Pipelines de
datos en cloud

El curso se centra en el diseño y desarrollo de soluciones de


procesamiento de datos en la plataforma Microsoft Azure. Índice de Contenidos
Exploraremos en detalle las herramientas específicas de
• Introducción.
Azure empleadas por los ingenieros de datos, tanto en la
• Fundamentos y mejores prácticas en pipelines de datos.
fase de ingesta como en las etapas posteriores. El enfoque
principal será lograr un aprendizaje significativo a través de • Arquitecturas y servicios de Azure para ingenieros de
proyectos personales guiados por el tutor de manera directa datos.
y evaluación basada en la adquisición de competencias. • Ingesta y orquestación con Azure Data Factory.

Los estudiantes aprenderán los fundamentos y las mejores • Procesamiento de eventos en tiempo real con Azure Event
prácticas para construir pipelines de datos eficientes y Hubs.
escalables, que permitan la ingesta, transformación, • Almacenamiento escalable y seguro con Storage Account
almacenamiento y análisis de grandes volúmenes de datos. Gen2.

El curso cubre conceptos esenciales como el almacenamiento • Análisis de datos masivos con Azure Databricks y Azure
y procesamiento de datos en la nube, la arquitectura de Synapse Analytics.
pipelines de datos y las herramientas disponibles en el • Bases de datos relacionales y no relacionales: Azure SQL
proveedor Microsoft Azure para su implementación. También Database y Azure Cosmos DB.
se hará hincapié en la seguridad y monitorización de los
• Seguridad, monitorización y optimización de pipelines
pipelines, así como en la optimización del rendimiento y la
de datos.
escalabilidad de las soluciones implementadas.
• Servicios transversales que complementan la formación
El alumno se familiarizará con los servicios de Azure para en la nube de Azure.
cada etapa del ciclo de vida de los datos: ingesta, orquestación
y coordinación de flujos de datos desde diversas fuentes
mediante Azure Data Factory. Además, podrán gestionar
la ingesta de datos en tiempo real y procesar eventos a
gran escala utilizando Azure Event Hubs. Se profundiza en
Storage Account Gen2 para administrar y proteger grandes
volúmenes de datos. Explorarán el análisis de datos a gran
escala, creando flujos de trabajo colaborativos y analizando
datos masivos con Azure Databricks.

Podrán utilizar diferentes lenguajes de programación o


emplear Azure Synapse Analytics como herramienta integral
para el análisis y procesamiento de datos de alto rendimiento.

Tendrán asimismo la oportunidad de trabajar con diversas


bases de datos relacionales y no relacionales, como Azure
SQL Database y Azure Cosmos DB, así como otros servicios
transversales relevantes.
U N I V E R S I D A D
COMPLUTENSE ntic master

MÓDULO
M A D R I D

Arquitecturas basadas
en contenedores

El curso proporcionará a los participantes los conocimientos y


habilidades necesarios para comprender, diseñar, desarrollar
y desplegar arquitecturas basadas en microservicios
utilizando API REST, así como una introducción a las
herramientas Docker y Kubernetes. Las arquitecturas
basadas en microservicios son una estrategia que permite enfoques arquitectónicos.
desarrollar sistemas escalables, flexibles y fáciles de • Estudio de casos y ejemplos prácticos.
mantener. En este curso, los participantes aprenderán los
2. Diseño y desarrollo de microservicios de API Rest:
principios de las arquitecturas basadas en microservicios
y API REST, las mejores prácticas para su diseño, desarrollo • Principios de diseño para microservicios de API Rest.
y despliegue, y cómo utilizar Docker y Kubernetes para • Descomposición de aplicaciones monolíticas en
gestionar eficientemente los microservicios. microservicios de API Rest.

• Tecnologías y herramientas para el desarrollo de


Los objetivos del módulo incluyen: microservicios de API Rest.

• Comprender los conceptos fundamentales de las • Gestión de la comunicación y la interacción entre


microservicios de API Rest.
arquitecturas basadas en microservicios.
• Implementación y despliegue de microservicios de API
• Diseñar y desarrollar una arquitectura basada en Rest utilizando Docker.
microservicios de API Rest utilizando buenas prácticas.
3. Despliegue y gestión de microservicios de API Rest con
• Utilizar Docker para crear y gestionar contenedores de Kubernetes:
microservicios. • Introducción a Kubernetes y la orquestación de
contenedores.
• Utilizar Kubernetes para desplegar, escalar y gestionar
• Despliegue de microservicios en clústeres de
microservicios en entornos de producción. Kubernetes.

• Implementar estrategias de comunicación y gestión de • Escalado y gestión de microservicios utilizando


Kubernetes.
datos entre microservicios.
• Configuración y gestión de la comunicación entre
• Aplicar prácticas recomendadas para garantizar microservicios en Kubernetes.
la seguridad y la fiabilidad en una arquitectura de
4. Seguridad, monitorización y mantenimiento de
microservicios.
microservicios de API Rest:
• Realizar la monitorización y el mantenimiento de una • Consideraciones de seguridad para las arquitecturas
arquitectura basada en microservicios. basadas en microservicios de API Rest.

• Implementación de autenticación y autorización de


microservicios de API Rest.
Índice de contenidos: • Monitorización y registro de microservicios en
Kubernetes.
1. Introducción a las arquitecturas basadas en
• Estrategias de escalado y gestión de la carga en
microservicios y API Rest: Kubernetes.
• ¿Qué son las arquitecturas basadas en microservicios? • Pruebas, depuración y mantenimiento de microservicios.
¿Qué es un API REST?

• Principios y características de las arquitecturas basadas


en microservicios de API Rest. Comparación con otros
U N I V E R S I D A D
COMPLUTENSE ntic master

MÓDULO
M A D R I D

Machine Learning
y Deep Learning

Uno de los objetivos de la ingeniería de datos es dar soporte


a la creación de modelos de aprendizaje automático que
extraigan valor a los datos de una empresa y ayuden al
negocio. Esto ocurre tanto antes de que se diseñe un modelo
predictivo, suministrando los datos adecuados, como en el
momento de ponerlo en producción.
Índice de contenidos:
Por ello, es necesario que un ingeniero de datos esté
familiarizado con las técnicas que aplican los científicos • Introducción al Machine Learning.
de datos, con el fin de comprender las necesidades de estos,
lo cual favorece la sinergia entre equipos de ambos perfiles • Aprendizaje supervisado con Python.
y acelera la entrega de valor.
• Aprendizaje no supervisado con Python.
En este módulo, se presentan los fundamentos del Machine
• Utilización del paquete scikit-learn.
Learning, las técnicas principales que lo componen en el
ámbito del aprendizaje supervisado, no supervisado y por • Evaluación de un modelo entrenado.
refuerzo, así como las fortalezas, limitaciones y métricas
• Redes neuronales: forward y backpropagation.
necesarias para evaluar el funcionamiento de cada modelo.
• Autoencoders. Transformers. Redes generativas. Ejemplos
El módulo se plantea desde un punto de vista eminentemente
utilizando Keras.
práctico, con una orientación específica a lo que el ingeniero
de datos necesita entender. • Large Language Models (LLMs) actuales.

Se complementa con una introducción al Deep Learning,


el conjunto de técnicas basadas en redes neuronales que
actualmente constituyen una verdadera tendencia, en
especial en lo que respecta a procesamiento de lenguaje
natural con LLM (Large Language Models) y redes generativas
de contenidos de tipo textual e imagen.
U N I V E R S I D A D
COMPLUTENSE ntic master

MÓDULO
M A D R I D

Productivizar
un modelo

La productivización se refiere al proceso de llevar los modelos


de Inteligencia Artificial (IA) y sus resultados a un entorno
de producción para que puedan ser utilizados de manera
efectiva y generar valor en el mundo empresarial. Los Índice de contenidos:
modelos de IA tienen un ciclo de vida que nace en su fase
de desarrollo, pero es en la implementación, versionado • Ciclo de vida de modelos AI y MLOps.
y mantenimiento donde necesita convivir dentro de una
• Arquitecturas de implementación y despliegue en
infraestructura tecnológica.
infraestructuras escalables.
Desde la recolección de datos y entrenamiento inicial, hasta
• Versionado de modelos, linaje y trazabilidad.
la evaluación y monitorización, linaje, iteración y eventual
reentrenamiento para mantener su rendimiento óptimo a • Monitorización y métricas de rendimiento.
lo largo del tiempo existen herramientas y técnicas que nos
• Reentrenamiento automático y despliegue gradual de
permiten cumplir con directrices de buenas prácticas que
modelos.
requiere el mercado.

En este curso estudiaremos la automatización y


estandarización de todo el ciclo de vida de modelos de IA
siguiendo estándares de MLOps. Al aplicar MLOps, los
equipos de Data Science y desarrollo pueden colaborar
de manera efectiva para acelerar la implementación de
modelos en producción, facilitar la auditoría y garantizar la
reproducibilidad de los resultados
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

TFM
Trabajo Fin de Máster

Asimilados todos los conceptos previos, llega el momento de poner a prueba todos
los conocimientos adquiridos en el máster.

El alumno planteará una estrategia global de inteligencia de datos para una empresa,
basándose en diferentes técnicas y softwares de apoyo de entre los existentes en el
mercado.

El trabajo de fin de máster es una parte crucial del programa, ya que permite a los
estudiantes aplicar todos los conocimientos adquiridos en el curso en un proyecto
práctico y relevante en el mundo real.

El trabajo de fin de máster proporciona una oportunidad para que los estudiantes
demuestren su capacidad para analizar, procesar y utilizar datos de manera efectiva
para resolver problemas complejos y tomar decisiones informadas. También les
permite desarrollar habilidades de presentación y comunicación al presentar sus
hallazgos y resultados a una audiencia de expertos.

Además, el trabajo de fin de máster puede ser una oportunidad para que los estudiantes
trabajen en colaboración con empresas u organizaciones, lo que les permite obtener
experiencia práctica en un entorno profesional y crear conexiones valiosas para su
carrera.
EQUIPO
DOCENTE
Clases y tutorías con grandes
profesionales del sector del Big
Data y Data Engineering.

U N I V E R S I D A D
COMPLUTENSE
M A D R I D
ntic master
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

EQUIPO DOCENTE
Directivos

Cristóbal Jose Carlos


Pareja Flores Soto Gómez
Director. Catedrático EU en la UCM. Co-Director del Máster. Socio Fundador
Con más de 30 años como docente, de NTIC Master y Aplimovil. Amplia
Cristóbal es matemático especializado experiencia en proyectos nacionales
en Ciencias de la Computación, e internacionales en IT y analítica en
Doctor en Informática. Además, es empresas como Banco de España, NEC,
Decano de la Facultad de Estudios Telefónica, Vodafone, Orange, medios
Estadísticos y Vicedecano de Postgrado de comunicación…
e Investigación.

Coordinadores

David Cristóbal
del Ser Martínez Martínez
Coordinador Máster Coordinador Máster

David es Lic. en Marketing por Cristóbal es Ingeniero informático.


ESIC, Honours Degree in Business Director de IT en Aplimovil y Ntic
Administration por Humberside Master. Profesor máster marketing
University, MBA por UNED, Máster digital de la UCM, UNED, Cámara
Di rección F i na nciera, Máster de Comercio y CEEIC. Experto en
Marketing Digital, Máster en Big sistemas y procesos informáticos. Gran
Data. Especialista en el desarrollo de experiencia profesional trabajando en
negocio y transformación digital en Ntic empresas referentes como NEC, BNP
Master. Gran experiencia profesional Paribas, Banco de España, Vodafone.
trabajando en Grupo Iberostar, Grupo
Avintia, entre otras.
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

EQUIPO DOCENTE
Docentes

Cristóbal José Javier Pablo J.


Pareja Flores Galán Hernández Villacorta
Catedrático EU en la UCM Responsable de Sistemas Data Scientist & ML Engineer en
Seguros Santalucía

Con más de 30 años como docente, José Javier es Ingeniero Informático y Pablo es Doctor en Ciencias de
Cristóbal es matemático especializado trabaja como Responsable de Sistemas la Computación e IA, Ingeniero
en Ciencias de la Computación, CED. Además es profesor asociado UCM. Informático y Lic. en Estadística por
Doctor en Informática. Además, es Ha trabajado en proyectos de sistemas la Univ. de Granada. Desarrollador
Decano de la Facultad de Estudios en El Corte Inglés y Comel, entre otros. certificado en Spark por Databricks,
Estadísticos y Vicedecano de Postgrado trabaja desde hace 8 años como Data
e Investigación. Scientist / ML Engineer especializado
en la creación y puesta en producción
de modelos basados en Spark.

David Marlon Alberto


Alonso García Cárdenas Bonett González
Profesor en la UCM Líder de Data Science en Arquitecto Cloud en Minsait
Sopra Steria

David es Doctor en Geografía e Historia. Marlon es responsable de Data Science Alberto es Ingeniero en Informática
Experto en gestión y desarrollo de la en Sopra Steria, liderando varias experto en arquitectura de datos, y
innovación y emprendimiento. Ha iniciativas de proyectos en el área de la soluciones tanto cloud como on-premise.
sido director de Compluemprende- analítica avanzada en sectores diversos. Certificado como Solutions Architect
Universidad Complutense de Madrid. Además, es arquitecto de soluciones Expert y Data Engineer Associate en
especializado en bases de datos. cloud de Microsoft Azure. Actualmente
diseña e implementa arquitecturas de
datos cloud para diversos sectores.
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

EQUIPO DOCENTE
Docentes

Jorge Elena del Carmen Óscar


Centeno Gavilán García Gómez Soriano
Head of Data en Docente en la UCM Senior Solutions Architect
Inditext Logistics SA en Confluent

Jorge es ingeniero de software con Elena del Carmen es docente en la Óscar es Ingeniero y Arquitecto
más de 15 años de experiencia. Ha Universidad Complutense de Madrid. Software con casi 20 años de
desarrollado arquitecturas de datos experiencia, especializado en el diseño
en múltiples industrias como redes de soluciones basadas en tecnologías
sociales, viajes, sector público y descentralizadas, de procesamiento
seguros, como arquitecto de soluciones masivo.
y liderando equipos de Ingenieros de
datos.

Eduardo Armando Álvaro


Fernández Carrión Heras Bravo Acosta
Data Scientist, PhD. Chief Digital Officer Ingeniero Técnico Informático
en Sistemas

Eduardo es ingeniero informático Armando es Licenciado en Economía Experto en Tecnologías Big Data,
y doctor en métodos estadísticos por CUNEF. Experto en finanzas, BI y Analítica. Gran experiencia en
matemáticos para el tratamiento auditorías y financiación, especialmente consultoras como Minsait, Sopra Steria,
computacional de la información. Data en ecosistemas emprendedores a través Everis o NTT, para externos como
Scientist & ML Engineer en Santalucia de la inversión, creación de empresas y ISBAN y BBVA. Actualmente, DevOps
seguros. Experto Data Sciencist desarrollo de proyectos. en equipo de producto Frameworks en
habiendo desarrollado su carrera Strato.
profesional en StratioBD, Visavet, Everis,
etc.
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

EQUIPO DOCENTE
Docentes

Alberto Pedro Pablo Yolanda


Ezpondaburu Malagon Amor García Ruiz
NLP Specialist Principal Architect en Google Docente en la UCM

A lber to es i ngen iero de Pedro Pablo es ingeniero de sistemas. Licenciada en C.C. Matemáticas en la
telecomu n ic ac iones, L ic . en Experto en Big Data, Data Science, Data especialidad de C.C. de la Computación
Matemáticas. Experto en NLP y en la Engineer. Tiene una gran experiencia por la Universidad Complutense de
aplicación de técnicas de deep learning profesional de más de 23 años en Madrid desde el año 1995 y doctora en
e inteligencia artificial. Ha trabajado Microsoft como principal architect y Informática. Hasta su incorporación
como Data Scientist en varias empresas actualmente en Google. al mundo académico ha desarrollado
y creado empresas del ámbito AI. su carrera profesional en el área de la
informática en diferentes compañías.

Daniel Gabriel Charles


Martín García Marín Díaz Flores Espinoza
Docente en la UCM PhD, Análisis de Datos Big Data Engineer en
Mercedes-Benz AG

Daniel es graduado en estadística y Gabriel es Licenciado en Matemáticas Charles es Ingeniero informático y


doctorado en Data sSience. Trabaja y Doctor en Análisis de Datos, Data experto Data Engineer & Data Architect,
como docente en la UCM, donde también Science. Tiene una amplia experiencia Scala, ML. Gran experiencia en el sector
forma parte de grupos de investigación. en el sector empresarial siendo en empresas como StratioBD, Oliver
consultor data Science, actividad que Wyman, Vass o Bayes.
compatibiliza actualmente con la de
profesor en la UCM
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

EQUIPO DOCENTE
Docentes

Pablo Arcadio Luis Fernando Olga


Flores Vidal Llana Díaz Marroquín Alonso
Docente en la UCM Docente en la UCM Docente en la UCM

Pablo A. Flores es licenciado en Luis Fernando es doctor por la UCM. Olga es licenciada y doctora en
Estadística y doctor en Análisis y Ciencia Docente en la UCM y forma parte de mátemáticas por la UCM. Docente en
de Datos. Actualmente es profesor en la grupos de investigación: Design and la UCM y forma parte de grupos de
Universidad Complutense de Madrid y Testing of Reliable Systems. Experto investigación. Experta en Data Science.
desempeña el cargo de Delegado del en Computer Science.
Decano para Erasmus y Movilidad.

Futuro experto en Big Data y


Data Engineer

Porque con nosotros aprenderás Big


Data, Data Engineering, Programación
orientada al dato, Arquitectura de datos,
etc. Pero al final el camino tienes que
recorrerlo tú y quizás muy pronto estés
aquí como profesor nuestro.
SALIDAS
PROFESIONALES
El sector de Tecnologías de
la Información continuará
siendo el motor principal
del crecimiento laboral,
encabezando el top de empleos
más demandados y mejor
remunerados por las empresas.

U N I V E R S I D A D
COMPLUTENSE
M A D R I D
ntic master
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

Salidas Profesionales
El Big Data y el Data Engineering ofrece una amplia variedad de salidas profesionales debido
a su creciente relevancia en la estrategia empresarial moderna. Estas son solo algunas
de las muchas oportunidades profesionales que podrás explorar dentro de este ámbito:

Gestor y auditor de Responsable de planificar, gestionar y auditar los


Con el avance de la tecnología infraestructuras para sistemas que permiten almacenar y procesar grandes
y la evolución constante del Big Data volúmenes de datos de manera eficiente.
entorno digital, es probable
que sigan surgiendo nuevas Ingeniero de Desarrolla y optimiza algoritmos de machine learning
especialidades y roles. aprendizaje para que los sistemas puedan aprender y mejorar
automático automáticamente a partir de datos.

Especialista en Se enfoca en analizar datos y generar informes para


inteligencia de datos y ayudar en la toma de decisiones estratégicas basadas
de BI en la inteligencia empresarial.

Chief Data Officer Ejecutivo responsable de la estrategia de datos de una


organización, asegurando su correcta gestión y uso
para impulsar los objetivos de negocio.

Data Analyst Analiza conjuntos de datos grandes y complejos para


extraer conclusiones útiles que apoyen la toma de
decisiones en las empresas.

Data Consultant Proporciona asesoramiento experto en la gestión,


análisis y uso estratégico de los datos para mejorar el
rendimiento empresarial.

Data Scientist Utiliza estadísticas, machine learning y otras


herramientas avanzadas para interpretar datos
complejos y ofrecer soluciones a problemas
empresariales.

Data Mining Especialista en técnicas de minería de datos que busca


patrones, tendencias y relaciones ocultas en grandes
bases de datos para extraer información útil.

Arquitecto de datos Diseña y gestiona la infraestructura que permite


almacenar y procesar grandes volúmenes de datos
de manera eficiente. Elige las tecnologías adecuadas
y garantiza que los datos sean accesibles, seguros y
ADMISIONES

Tanto la preinscripción como la


pre matrícula quedan abiertas
hasta comenzar el curso
académico o completar plazas.

U N I V E R S I D A D
COMPLUTENSE
M A D R I D
ntic master
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

Proceso de admisión

Preinscripción Evaluación Pre-admisión Admisión


Envío de solicitud para Evaluación de Confirmación como Confirmación de plaza y
evaluar candidaturas. candidaturas. alumno del candidato. formalización de la ma-
trícula.

1. Preinscribirse cumplimentando el formulario Tanto la preinscripción como la pre matrícula quedan abiertas
ubicado en la pestaña “Preinscripción” de la web hasta comenzar el curso académico o completar plazas,
www.masterdataengineeringucm.com estableciéndose lista de espera si procede. Los alumnos
2. Enviar la documentación requerida a fin de deberán ingresar 600 euros en concepto de pago inicial para
evaluar la candidatura. el Máster Presencial y 500 euros en concepto de pago inicial
para el Máster Semipresencial y el Máster Online, los cuales
3. Entrevista con el solicitante.
les serán descontados del importe total de la matrícula. En
4. Confirmación de selección. ningún caso se tendrá derecho a devolución de dicha cantidad,
5. Realización de un pago inicial. a excepción de que no se llegara a celebrar el curso.

Documentación
requerida
Alumnos con titulación Alumnos con titulación
de España de Unión Europea

Los documentos identificativos requeridos para la • Currículum Vitae.


inscripción en el Máster son: • Pasaporte/NIE (no válidas las cédulas de
• Fotocopia del documento de identidad/pasaporte. identificación de fuera de España).
• Certificado de notas oficial. • Título universitario (no es valido el certificado del
• Título universitario o resguardo de solicitud de título).
título. • Certificado oficial de notas.
• Currículum Vitae.
*La documentación debe estar traducida al castellano por un
traductor jurado homologado. (Solicitar listado oficial)

Alumnos con titulación


de Fuera de la Unión Europea
• Currículum Vitae.
• Pasaporte/NIE (no válidas las cédulas de
identificación de fuera de España).
• Título universitario legalizado con la Apostilla de
la Haya (no es valido el certificado del título).
• Certificado oficial de notas.

*La documentación debe estar traducida al castellano por un


traductor jurado homologado. (Solicitar listado oficial)
MODALIDADES

La evaluación de los alumnos


se realizará a lo largo de todo el
programa a través de ejercicios
y casos prácticos.

U N I V E R S I D A D
COMPLUTENSE
M A D R I D
ntic master
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

Máster Presencial

Duración Lugar Precio


1 Año / 520 horas Facultad de Estudios 6.700 €
Estadísticos + 40 € de tasas de
60 ECTS
Ciudad Universitaria Avenida secretaría
Inicio: febrero de 2025
Puerta de Hierro, s/n, 28040 Pregunta por nuestras becas,
Fin: febrero de 2026
Madrid facilidades de pago, prácticas en
Viernes: de 16:00 a 21:00 h
empresas y bolsa de trabajo.
Sábados: de 09:00 a 14:00 h

Una vez finalizados y superados estos estudios,


la Universidad Complutense de Madrid emitirá
el título, conforme a las normas de admisión
y matriculación de los títulos de Formación
Permanente de la UCM

Metodología
Presencial
El curso se impartirá en aulas de la Universidad Complutense de Madrid, en la Facultad de
Estudios Estadísticos los viernes y sábados con masterclasses impartidas por diferentes
expertos. La formación se realizará de forma tutorizada por los profesores. También se
utilizará una plataforma de formación virtual para la comunicación entre los alumnos y
profesores, creando una comunidad virtual de trabajo. Los distintos profesores de cada
módulo, guiarán a los alumnos proponiendo actividades adicionales dependiendo del
temario que se esté cubriendo en cada momento.

Características
plataforma On-line
La plataforma actuará como vía de comunicación entre La plataforma cuenta con:
el alumno y el entorno global de formación.
• Mensajería individualizada para cada alumno.
El estudiante tendrá información actualizada sobre los • Vídeos de las clases y de casos prácticos.
conceptos que se estén estudiando en cada momento,
como enlaces a contenidos adicionales incluyendo • Tutorías online con el profesorado.
noticias, artículos, etc. • Documentación, noticas y contenidos.
Los alumnos deberán realizar y aprobar todas las • Foro de los módulos del máster.
prácticas de los distintos módulos, y realizar el trabajo • Comunicación con los profesores vía
fin de máster para poder aprobar el máster. mensajería.
• Chat entre alumnos.
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

Máster Semipresencial

Duración Lugar Precio


1 Año / 520 horas Online con 5.650 €
presencialidad de 3
60 ECTS + 40 € de tasas de
semanas
secretaría
Inicio: febrero de 2025 Facultad de Estudios
Fin: febrero de 2026 Estadísticos Pregunta por nuestras becas,
facilidades de pago, prácticas en
Jueves y viernes: de 16:00 a 21:00 h Ciudad Universitaria Avenida empresas y bolsa de trabajo.
Sábados: de 09:00 a 14:00 h Puerta de Hierro, s/n, 28040
Madrid

Una vez finalizados y superados estos estudios,


la Universidad Complutense de Madrid emitirá
el título, conforme a las normas de admisión
y matriculación de los títulos de Formación
Permanente de la UCM

Metodología
Semipresencial
La formación se realizará de forma tutorizada por los profesores. Se utilizará una plataforma
de formación virtual para la comunicación entre los alumnos y profesores, creando una
comunidad virtual de trabajo. Los distintos profesores de cada módulo, guiarán a los alumnos
proponiendo actividades adicionales dependiendo del temario que se esté cubriendo
en cada momento. La modalidad semipresencial contempla la realización de 3 semanas
presenciales con masterclasses impartidas por diferentes expertos para preparar los TFM
y hacer networking.

Características
plataforma On-line
La plataforma actuará como vía de comunicación entre La plataforma cuenta con:
el alumno y el entorno global de formación.
• Mensajería individualizada para cada alumno.
El estudiante tendrá información actualizada sobre los • Vídeos de las clases y de casos prácticos.
conceptos que se estén estudiando en cada momento,
como enlaces a contenidos adicionales incluyendo • Tutorías online con el profesorado.
noticias, artículos, etc. • Documentación, noticas y contenidos.
Los alumnos deberán realizar y aprobar todas las • Foro de los módulos del máster.
prácticas de los distintos módulos, y realizar el trabajo • Comunicación con los profesores vía
fin de máster para poder aprobar el máster. mensajería.
• Chat entre alumnos.
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

Máster Online

Duración Lugar Precio


1 Año / 520 horas Plataforma Online 4.600€
60 ECTS + 40€ de tasas de
secretaría
Inicio: febrero de 2025
Fin: febrero de 2026 Pregunta por nuestras becas,
facilidades de pago, prácticas en
empresas y bolsa de trabajo.

Una vez finalizados y superados estos estudios,


la Universidad Complutense de Madrid emitirá
el título, conforme a las normas de admisión
y matriculación de los títulos de Formación
Permanente de la UCM

Metodología
100% Online
La formación se realizará de forma tutorizada por los profesores. Se utilizará una plataforma
de formación virtual para la comunicación entre los alumnos y profesores, creando una
comunidad virtual de trabajo. Los distintos profesores de cada módulo, guiarán a los alumnos
proponiendo actividades adicionales dependiendo del temario que se esté cubriendo en
cada momento.

Características
plataforma On-line
La plataforma actuará como vía de comunicación entre La plataforma cuenta con:
el alumno y el entorno global de formación.
• Mensajería individualizada para cada alumno.
El estudiante tendrá información actualizada sobre los • Vídeos de las clases y de casos prácticos.
conceptos que se estén estudiando en cada momento,
como enlaces a contenidos adicionales incluyendo • Tutorías online con el profesorado.
noticias, artículos, etc. • Documentación, noticas y contenidos.
Los alumnos deberán realizar y aprobar todas las • Foro de los módulos del máster.
prácticas de los distintos módulos, y realizar el trabajo • Comunicación con los profesores vía
fin de máster para poder aprobar el máster. mensajería.
• Chat entre alumnos.
U N I V E R S I D A D
COMPLUTENSE ntic master
M A D R I D

Contacto
Teléfono de información

+34 687 30 04 04

Teléfono de admisiones

+34 667 89 05 83

Correo electrónico

[email protected]

Sitio Web

www.masterdataengineeringucm.com

*La dirección del máster se reserva el derecho de modificar, suprimir y actualizar los profesores, la información y el programa del máster.
U N I V E R S I D A D
COMPLUTENSE
M A D R I D
ntic master

También podría gustarte