Libro de Data Science

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 148

STARTUP

YOUR LIFE!
04

Ofrecer información útil e interesante, proveniente de


fuentes confiables e influyentes, a través de la atracción
que genera el arte de Ricardo Cavolo; es una excelente
manera de promover la digitalización.
Por eso estamos aquí. Para motivarte a descubrir lo más
importante acerca de Data Science. Una disciplina que
mueve al mundo y que ahora te movilizará a ti.
Sobre
nosotros

Nuclio
Digital School
Nace de la incubadora de startups Nuclio Venture
Builder, con la necesidad de formar a perfiles
especializados en el sector tecnológico, con una
metodología práctica y centrada en el alumno.
Nuclio Digital School

Creación
En 2018, el principal Business Angels de España y pre- Para la mayor Venture de España, tenía todo el sentido
sidente de Nuclio, Carlos Blanco, junto al experto en la crear una escuela de másteres con metodología boot-
innovación de modelos educativos, Jared Gil, tuvieron camp especializada en perfiles digitales, no solo para
una serie de reuniones que los llevarían a tomar una gran proveer de estos a las startups del grupo, sino a toda
decisión: crear Nuclio Digital School. Una escuela digital la industria.
enfocada en cubrir la alta demanda de perfiles TIC que
tiene la industria.

07
Nuclio Digital School

“Todos los inicios son complicados y siempre


inunda la incertidumbre los primeros meses/
años. Pero nosotros hemos contado con
un ecosistema y socios que hicieron que el
camino sea más seguro” - Palabras de Jared Gil,
CEO y Co-Fundador de Nuclio Digital School.

08
Nuclio Digital School

Desarrollo
Establecer una nueva empresa en el mercado y con- La clave del desarrollo fue ofrecer un upskilling y reski-
seguir que sea la #1 no es fácil. ¡Para ello tienes que lling de los perfiles profesionales, en tan solo 5 meses.
rodearte de los mejores! Tanto socios como compañeros Con un gran aporte de valor: networking con profesores
de trabajo. Y puede que la parte más difícil sea esa: en- en activo de compañías top del mercado.
contrar a las personas adecuadas para llevar a cabo
el proyecto con éxito. En NDS preparamos a los estudiantes para generar
un gran impacto en las empresas o emprendimientos
En Nuclio Digital School lo logramos y nos converti- propios. Dotándolos de conocimientos que no se pueden
mos rápidamente en una escuela referente en España. adquirir en las carreras tradicionales.
Creando los programas de formación más innovadores
y nutriendo a las empresas de perfiles técnicos de alto
rendimiento.

09
Nuclio Digital School

Expansión
En solo algunos años, nos hemos posicionado como Bajos, Portugal, y EAU). Sin dejar de lado las ciudades
la principal escuela de negocios digitales de España. que la vieron nacer y donde se ubican sus tech centers:
Y ya ha sido galardonada con premios como “European Barcelona y Madrid.
Technology Awards” y “Educational Excellence Awards”.
Nuestra escuela ha logrado también ampliar su oferta de
Con el objetivo claro de digitalizar a todos los profesio- formaciones, y actualmente ofrece másteres especia-
nales del mundo, hacia 2022 logramos afirmar la expan- lizados en digitalización, en áreas como programación,
sión, aterrizando en mercados como Latam (México, marketing, diseño, negocios, finanzas y recursos huma-
Brasil, y Chile, entre otros), y Europa (Alemania, Países nos. Brindando las modalidades presencial y streaming.

10
Dime tu fuente
y te diré quién eres
El mundo ya no habla, grita. Cada día escuchamos miles
de voces que dicen ser la voz de la verdad. Mientras tanto,
tú necesitas estar informado sobre los temas que más te
interesan, pero te cuesta decidir en quién confiar.
Lo sabemos y por eso queremos presentarte a nuestros 11
colaboradores.
Hemos seleccionado a un grupo de profesionales líde-
res del sector para que escriban sobre Data Science, tal
y como nos hubiera gustado leer tantas veces. Además,
mientras te dejas llevar por sus palabras, encontrarás
Inteligencia Artificial gracias a las imágenes generadas
junto a DALL·E.
Esta es tu oportunidad de escuchar en primera persona a
distintos expertos que viven en contacto día y noche con
esta disciplina. Perfiles con experiencia de trabajo en re-
conocidas empresas y emprendimientos propios, que han
formado parte de la comunidad de Nuclio Digital School y
quieren que también te unas a la revolución digital.
Al igual que ellos, tú puedes hacer la diferencia.
¿Nos acompañas?
Espartaco Camero _ Responsable de Data Science & Analytics Carlos Pérez _ Responsable de Data Science
Jesús Prada _ Responsable de Machine Learning Toni Badia _ Data Scientist Senior
Massimiliano Brevini _ Data Analyst Senior

12
15
(I)Big Data
31
(II)Inteligencia
Artificial

54
(III)Machine
Learning

70
(IV)Deep
Learning

93
(V)Data
Science
110
El equipo
soñado

124
Máster en
Data Science

128
Glosario
Data Science

136
Ricardo
Cavolo
(I)Big Data

Estamos de acuerdo en que hoy los datos son


extremadamente grandes y complejos como para
ser procesados y analizados utilizando las técni-
cas tradicionales.
Pero, ¿qué tan confiable es tomar decisiones con
las predicciones obtenidas del Big Data?

POR TONI BADIA


Big Data

QUÉ ES?
?
Se conoce como la recopilación, selección, filtrado y Y las siguientes personalidades han declarado:
análisis de gran cantidad de datos utilizando algoritmos
informáticos. El objetivo es obtener información relevan- “Sin análisis de Big Data las
te de forma rápida y dinámica, de manera tal que pueda
ser mostrada de forma organizada y preferiblemente corporaciones son ciegas y sordas.
visual, a la parte interesada. Perdidos en la web como un ciervo
El origen de los datos y la relevancia de los mismos es
en la carretera”
parte fundamental en la obtención de resultados real- - Geoffrey Moore
mente relevantes, que ayuden a extrapolar resultados
futuros o ayuden a inferir tendencias de diferente índole. “El mundo es un problema de
La definición de Big Data parece haber llegado a un con- Big Data”
senso, pero muchas personalidades han realizado sus
propias definiciones o comentarios al respecto, y nos - Andrew Mc Afee. Refiriéndose a que el mundo es como
ayudarán a entender mejor el concepto: un enorme algoritmo que solo el Big Data es capaz de 17
hacer visible.
En la conferencia de Techonomy de California de 2010,
Eric Schmidt pronunció la famosa frase (1):
“Sin Big Data solo eres otra persona
con su opinión”
- W. Edwards

(1)
“Hubo 5 exabytes de información creada
por el mundo entero entre los albores de
la civilización y 2003. Ahora esa misma
cantidad se crea en dos días”
Big Data

“La información es el petróleo del El Big Data se utiliza en una amplia variedad de campos,
como la ciencia de datos, la investigación empresarial,
S. XXI, y el Big Data es el motor de la publicidad en línea, la salud y el gobierno, entre otros.
combustión” Algunas de las características comunes del Big Data son:

- Peter Sondergaard VOLUMEN: el Big Data se caracteriza por tener un gran


volumen de datos, que pueden ser de diversos tipos
Con el crecimiento exponencial del volumen de datos (estructurados, semi-estructurados o no estructurados)
disponibles, los métodos utilizados para el almacena- y proceder de diferentes fuentes (transacciones, senso-
miento y procesamiento de datos han quedado ob- res, redes sociales, etc.).
soletos, siendo sustituidos por otras herramientas y
tecnologías, que permiten manejar y procesar grandes VELOCIDAD: el Big Data se genera y se recopila a una
cantidades de datos de manera eficiente. velocidad muy alta, por lo que es necesario contar con
herramientas y tecnologías que permitan procesar y
analizar los datos de manera rápida y eficiente.
18
VARIEDAD: el Big Data incluye una gran variedad de
datos, que pueden ser de diferentes tipos y proceder de
diferentes fuentes.

Estas características forman parte de las llamadas 7 V


del Big Data: volumen, variedad, velocidad, veracidad,
viabilidad, valor y visualización. Para trabajar con Big Data
se suelen utilizar técnicas de análisis de datos como el
aprendizaje automático, el procesamiento de lenguaje
natural y el análisis de redes sociales, entre otras. Ade-
más, se utilizan herramientas y tecnologías de almace-
namiento y procesamiento de datos como Hadoop, Spark
y NoSQL, que permiten manejar y procesar grandes
cantidades de datos de manera eficiente.
Big Data

NACIMIENTO

1937
A pesar de que no ha sido hasta hoy en día cuando el Big
Data ha obtenido mucha importancia, es algo con lo que
convivimos desde tiempos inmemoriales. A medida que
ha ido avanzando la tecnología se ha convertido en uno Ya en el año 1937, Franklyn D. Roosvelt decidió realizar
de los mayores atractivos para aquellas instituciones el seguimiento de 29 millones de contribuyentes, el
que quieran conseguir o preservar el poder, y para las responsable de realizarlo sería precisamente IBM, la cual
empresas que simplemente buscan encontrar a su públi- fue contratada para desarrollar una máquina lectora de
co objetivo en un mercado muy diverso. tarjetas perforadas.

La humanidad lleva 7000 años recopilando datos de la

1943
población para controlar e investigar negocios, inicial-
mente se trataba solo de registros contables introdu-
cidos en Mesopotamia, pero ha habido grandes saltos
tecnológicos que han cambiado esa básica recopilación En el año 1943, en plena segunda guerra mundial, los bri- 19
de datos en un sofisticado sistema para obtener e inter- tánicos inventaron la primera máquina de procesamiento
pretar información. de datos, dispositivo conocido como “Colossus”, creado
para interceptar mensajes del bando nazi, que era capaz
de interpretar 5.000 caracteres por segundo, haciendo

1663
que el trabajo que antes suponía semanas de esfuerzo,
pasara a ser cuestión de horas

En 1663, John Graunt, considerado padre de la estadís-

1952
tica y pionero dentro de la historia del Big Data, debe su
título al libro “Observaciones naturales y políticas”, en
el que realizó un análisis exhaustivo de los boletines de
mortalidad en Londres, con el objetivo de crear un siste- Posteriormente, en 1952 se crea la NSA, que en los
ma de alerta para la peste bubónica que los asolaba. siguientes 10 años contrataría a 12.000 criptólogos por
la sobrecarga de información que recibían debido a la
guerra fría con Rusia.

1887
El siguiente avance se produjo en 1887, con la entrada 1965
a la era de la información, gracias al invento de Herman
Hollerith, una máquina tabuladora que permitía organizar Pero es en 1965 cuando se puede hablar de almacena-
los datos censales. Ese invento le llevó a crear la empre- miento de datos digitales, teniendo EEUU, en un solo es-
sa que cambiaría en unos años su nombre a IBM. pacio, almacenados 175 millones de huellas dactilares y
742 millones de declaraciones de impuestos, algo que la
población estadounidense rechazó por los paralelismos
con el personaje de George Orwell “Big Brother”.
Big Data

1989 Con la aparición de las redes sociales y el despegue de la


web 2.0, la generación de datos pasa a ser abismal. Una
Poco después, en 1989, Tim Berners-Lee inventó la World gran oportunidad para pequeñas empresas y startups,
Wide Web (WWW). Este científico británico consiguió pero también para los gobiernos que han emprendido
facilitar el intercambio de información a un nuevo nivel, proyectos relacionados con el Big Data. Un ejemplo es
sin saber el impacto en la sociedad que eso tendría a par- el gobierno indio, que en 2009 decide tomar fotografías,
tir de los 90, momento en el que cada vez más disposi- escanear el iris y tomar la huella digital de toda su pobla-
tivos se enlazaban de manera orgánica a internet. Esto, ción (1.200 M de habitantes entonces). Lo que supuso
traería un desarrollo tecnológico solo visto en períodos un punto de inflexión en la historia del Big Data, ya que
de guerra, apareciendo en 1995 la primera supercompu- comportó la creación de la base de datos biométrica más
tadora, capaz de hacer cálculos que llevarían años a una grande del mundo.
persona, en tan solo medio segundo.
Para el 2022 se estimaba que solo en EEUU hacían falta
unos 150.000 Data Scientists, además de unos 1,5 millo-

2005
nes de administradores de datos.

Unos años más tarde, en 2005, se acuñó por primera


vez el término Big Data. Fue Roger Mougalas, Director
de O’Reilly Media (una importante editorial americana),
y lo hizo tan solo un año después de que se hablara de
Web 2.0, siendo el Big Data una consecuencia de esta. 20
Mougalas se refería al Big Data como un gran conjunto de
datos prácticamente imposibles de procesar y adminis-
trar con la tecnología de la que disponían.
Big Data

FUNCIONAMIENTO

Para poder trabajar con Big Data se utilizan diversas Integración de los datos
técnicas y herramientas de análisis de datos y tecnolo-
gías de almacenamiento y procesamiento, que permiten La integración del big data es el proceso de combinar
manipular y analizar estos grandes grupos de datos. datos de diferentes fuentes y en diferentes formatos,
para obtener una visión más completa y precisa de
El Big Data es un proceso totalmente automatizado. El una situación o problema en particular. Esto puede ser
cual trabaja en conjunto con herramientas que buscan especialmente útil en el análisis de grandes conjuntos de
una solución a una serie datos que emiten información datos, que pueden ser difíciles de analizar y procesar de
de relevancia. Se hace uso de aplicaciones analíticas, otra manera.
de aprendizaje, e inclusive, de inteligencia artificial. Sin
embargo, es necesario conocer detenidamente cómo La integración del big data puede incluir la recopilación
funciona, siempre contando con las estructuras necesa- de datos de diversas fuentes, como bases de datos, 21
rias para que sea efectiva. archivos de registro, sensores, redes sociales y dispo-
sitivos móviles. También puede involucrar la limpieza de
Según sean las características de la empresa, se tomará datos para eliminar redundancias y errores, así como la
en cuenta la integración del tipo de sistema a aplicar. En transformación de datos para que puedan ser utilizados
algunos casos los servidores a automatizar deberán ser de manera más efectiva.
bastantes, lo que puede resultar costoso para la mis-
ma. Así que determinar el funcionamiento correcto es Una vez que se han integrado los datos, se pueden utili-
imprescindible para realizar los debidos presupuestos zar herramientas de análisis y visualización de datos para
con antelación. obtener insights y tomar decisiones basadas en los re-
sultados. La integración del Big Data puede ser utilizada
Para entender el funcionamiento del Big Data, debemos en una amplia variedad de campos, como la publicidad, la
explicar en qué consiste la integración, gestión, análisis salud, la financiación y la industria.
de datos, así como las herramientas que se utilizan.
El Big Data, como ya hemos mencionado, proviene de
gran cantidad de fuentes y el volumen de datos es consi-
derable. Por ende, es necesario el uso de aplicaciones y
herramientas tecnológicas que permitan gestionar tales
cantidades. Al generar tanta información, es impres-
cindible recibir los datos, lograr procesarlos y formatear
adecuadamente, con el fin de que puedan llegar a ser
comprendidos por los profesionales y usuarios.
Big Data

Gestión Big Data Visualización de datos


La gestión eficaz de Big Data es un aspecto importante Presentar datos en un formato visual, como cuadros o
de los negocios modernos, ya que puede proporcionar in- gráficos, para que sea más fácil de entender e interpretar
formación valiosa y permitir que las organizaciones tomen para las personas.
decisiones más inteligentes. Hay varios aspectos clave a
considerar cuando se trata de la gestión de Big Data:
Seguridad de los datos
RECOPILACIÓN DE DATOS: Juntar y almacenar datos
de una variedad de fuentes, incluidas las redes sociales, Garantizar la seguridad y la privacidad de los grandes
sensores, bases de datos transaccionales y más. datos es fundamental, ya que a menudo contienen
información confidencial. Esto incluye la implementación 22
ALMACENAMIENTO DE DATOS: Big Data requiere sis- de medidas y protocolos de seguridad apropiados para
temas de almacenamiento especializados, como bases proteger contra violaciones de datos.
de datos Hadoop o NoSQL, para almacenar y procesar
grandes volúmenes de datos de manera eficiente. En general, la gestión eficaz de Big Data requiere una
combinación de experiencia técnica, toma de decisiones

Procesamiento de datos basada en datos y medidas de seguridad sólidas.

Organizar y analizar datos para extraer información


valiosa y hacerlos más accesibles para los usuarios
comerciales.
Big Data

Análisis de los datos:


Al analizar todos los datos que han sido almacenados, se
determinan las respuestas que estos dan. Tanto aquellas
relacionadas con las búsquedas que hacen los clientes,
como las necesidades que estos requieren. Lo ideal
es sacar el máximo provecho a estos datos al ingresar
recursos para el análisis de estos, tanto en infraestruc-
tura como en profesionales. Es por esto que el uso de la
información es indispensable.
23
Hay varias formas de analizar Big Data, según los obje-
tivos y necesidades específicas del análisis. Algunos
métodos comunes incluyen:

VISUALIZACIÓN DE DATOS: Creación de tablas, gráfi-


cos y otras representaciones visuales de los datos, para
ayudar a identificar patrones y tendencias.

ANÁLISIS ESTADÍSTICO: Uso de técnicas estadísticas


para analizar los datos e identificar patrones y tendencias.

APRENDIZAJE AUTOMÁTICO: Uso de algoritmos y


modelos para analizar los datos y hacer predicciones o
identificar patrones.

MINERÍA DE TEXTO: Analizar grandes cantidades de


datos de texto para identificar tendencias y opiniones.

ANÁLISIS DE RED:Analizar datos de redes, como redes


sociales o redes de transporte, para identificar patrones
y conexiones.

En general, el objetivo de analizar Big Data es extraer


información y conocimientos útiles que puedan cola-
borar con la toma de decisiones, mejorar los procesos e
impulsar la innovación.
Big Data

Si te intriga cada vez más el mundo del Big Data, te


interesarán también estas herramientas de análisis:

Motor de procesamiento de datos de código abierto


Hadoop para usar a gran escala.

Motor de procesamiento de datos de código abierto


Spark para el procesamiento de datos a gran escala.

Bases de datos diseñadas para manejar grandes can-


Bases de datos NoSQL tidades de datos no estructurados, como MongoDB y
Cassandra.

Herramientas de Herramientas como Tableau y QlikView que le permiten


crear visualizaciones de sus datos para ayudar a identi-
24

visualización de datos ficar patrones y tendencias.

Plataformas de aprendizaje Herramientas como TensorFlow y Scikit-learn que le


permiten crear y entrenar modelos de aprendizaje auto-
automático mático en grandes conjuntos de datos.

Herramientas de minería Herramientas como NLTK y GATE que le permiten ana-


lizar y extraer información de grandes cantidades de
de texto datos de texto.

Herramientas de análisis Herramientas como Gephi y NodeXL que le permiten ana-


lizar datos de redes e identificar patrones y conexiones.
de red

En general, la elección de la herramienta dependerá de


las necesidades específicas de análisis y del tipo de
datos con los que se esté trabajando.
Big Data
Big Data

BENEFICIOS
EMPRESARIALES

26
El uso de Big Data en las empresas comporta un conjunto En el caso de Dragon Corp Games, el Big Data sirve sobre
de beneficios para estas, entre los cuales cabe destacar: todo para identificar patrones en el mercado de los vi-
deojuegos, entender de dónde provienen sus fuentes de
• Mejora la toma de decisiones y el diseño de estrate- ingresos, segmentar por países y edades a los usuarios
gias en una empresa, a partir del análisis de grandes de un determinado juego, y comprobar si la información
cantidades de datos que proporcionan información que deciden proporcionar es veraz y encaja con nuestros
valiosa. datos. Eso nos ha permitido mejorar mucho la toma de
decisiones, ya que somos capaces de detectar oportuni-
• Incrementa la eficiencia, ayudando a identificar dades de negocio y disponer de un equipo que compren-
áreas de una compañía, donde se pueden hacer de el mercado.
ahorros de tiempo y dinero a través del análisis de
patrones y tendencias en los datos.

• Personaliza el servicio al cliente, colaborando con


las empresas para conocerlos mejor y ofrecerles
productos y servicios de alta calidad, acorde a lo que
necesitan.

• Innova y le da herramientas a las empresas, para


identificar nuevas oportunidades de negocio y com-
prensión del mercado, que impulsen el éxito a largo
plazo.

• Incrementa la seguridad a la hora de identificar


y prevenir posibles riesgos y amenazas sobre la infor-
mación.
Big Data

DESAFÍOS SOCIALES

El Big Data puede ser útil para mejorar la toma de decisio-


nes y para entender mejor ciertos fenómenos y tenden-
cias. Sin embargo, también plantea algunos desafíos
sociales y éticos:

PRIVACIDAD: La recopilación y el análisis de grandes


cantidades de datos puede implicar el riesgo de violación
de la privacidad de las personas. Es importante garanti-
zar que se respeten las leyes y regulaciones en materia
de privacidad y que se adopten medidas de seguridad
adecuadas para proteger los datos personales.

DISCRIMINACIÓN: El análisis de datos puede utilizarse


para discriminar de manera sutil a ciertos grupos de per-
sonas, por ejemplo, en el ámbito laboral o en el acceso a
servicios. Es importante asegurarse de que el análisis de
datos no se utilice de manera injusta o discriminatoria.

DESIGUALDAD: El acceso a los datos y a las herramien-


tas para analizarlos puede generar o perpetuar desigual-
dades. Es importante asegurarse de que todas las perso-
nas tengan acceso a la información y a las herramientas
necesarias para beneficiarse del análisis de datos.

FALTA DE TRANSPARENCIA: A veces, el análisis de datos


se realiza de manera opaca y es difícil comprender cómo
se están tomando las decisiones basadas en esos datos.
Es importante garantizar la transparencia y la claridad en
el proceso de análisis de datos.

RESPONSABILIDAD: Es importante establecer quién es


responsable de los posibles errores o consecuencias
indeseables del análisis de datos.

En resumen, es importante abordar estos desafíos de


manera proactiva y garantizar que el análisis de datos se
utilice de manera ética y responsable, para el beneficio
de todos.
Big Data

BUENAS Y MALAS
PR CTICAS
Cuando se está en frente de algo disruptivo, es difícil SANIDAD: Una de las mayores aplicaciones a día de hoy
definir cuáles de los efectos que esto genera son buenos del Big Data se da en la sanidad. Cruzando datos del
y cuáles malos. La disrupción conlleva cambios y suelen historial de los pacientes y sus características físicas,
afectar de manera negativa e injusta a mucha gente, a estamos llegando a una sanidad personalizada. Has-
pesar de que a largo plazo puedan ser positivos para el ta ahora siempre se ha tratado a la salud como unos
conjunto global de la población. mantras aplicables al conjunto de la población. No fumar,
hacer ejercicio, dormir 8 horas, etc. Pero ahora sabemos
Hay ciertos eventos e hitos que nos hacen imaginar lo que hay gente que necesita dormir solo 6 horas para
que puede acabar aconteciendo: estar bien, que si sale a correr se lesionará, que tiene una
esperanza de vida X, entre otros datos determinados por
PREDICCIÓN LOTERÍA: A pesar de que a día de hoy no un conjunto inmenso de información.
podemos saber el número de la lotería que será pre- 28
miado, gracias al uso de Big Data se puede determinar *Contra: Si actualmente ya muchos rechazan a las per-
cuáles son los números con más probabilidades de salir sonas por lo que piensan, imaginemos cómo se puede
premiados. llegar a discriminar en el futuro, en función de paráme-
tros biométricos.
*Contra: Aquellos que disponen de la información ten-
drán cada vez más poder sobre aquellos que no la tienen. ASEGURADORAS: Las ciencias actuariales se ocupan de
las repercusiones financieras de riesgo e incertidumbre.
CHAT GPT: Hasta ahora hemos buscado la informa- Los actuarios proporcionan evaluaciones de sistemas de
ción desde fuentes como YouTube o Google, que nos garantía financiera, con especial atención a su comple-
indexan contenidos para ayudarnos a encontrar lo que jidad, sus matemáticas y sus mecanismos. Y la buena
buscamos. Aunque por otro lado, herramientas como noticia para ellos es que ahora es más fácil y certero de-
Alexa y Siri, han comenzado a responder preguntas más terminar las posibilidades de fraude de un asegurado, su
concretas y a tener incluso personalidad. El Chat GPT es posible siniestralidad, etc. Beneficiando a los asegura-
la evolución de estos últimos. Su inteligencia es abruma- dos que no dan problemas y perjudicando a los posibles
dora, hasta el nivel de poder escribir un poema, hacer los estafadores.
deberes, o detectar y corregir los errores de código de
un programador. *Contra: Habrá consumidores que pagarán más por
ser prejuzgados por motivos discriminatorios, incluso
*Contra: Hasta hace poco se creía que los trabajos de teniendo un historial de tráfico sin antecedentes.
transporte serían prácticamente los únicos afectados
por la IA a corto plazo, pero ahora vemos que trabajos
como el de programador, escritor, dibujante y un sin fin
de ejemplos más, están bajo la necesidad de transfor-
marse para perdurar.
Big Data

29
Big Data

FUTURO

El Big Data ha tenido un gran impacto en diversos cam- MAYOR USO DE DATOS EN LA TOMA DE DECISIONES
pos y ha revolucionado la forma en que se recopilan, EMPRESARIALES: Se espera que el análisis de datos
almacenan y analizan los datos. En el futuro, se espera se convierta en una parte cada vez más importante en
que el Big Data continúe siendo una herramienta valiosa la toma de decisiones empresariales, permitiendo a las
para mejorar la toma de decisiones y entender mejor empresas tomar decisiones más informadas y adaptarse
ciertos fenómenos y tendencias. El Big Data será integra- mejor a los cambios en el mercado.
do dentro de nuestra vida cotidiana, de forma que cada
actividad que llevemos a cabo podrá ser contabilizada Sin duda alguna, el futuro del Big Data es muy prome-
dentro de un sistema, que manteniendo la privacidad de tedor, al punto de que todas las universidades están
los usuarios, permita llevar un registro de actividades adaptando el pénsum o incluyendo alguna materia al
o preferencias; y que traslade esta información a las respecto. Aunque la necesidad sigue en crecimiento y la 30
instituciones y/o compañías, para la mejora de produc- velocidad con que se cubre la demanda no va al mismo
tos o servicios, beneficiando siempre a la mayoría de los ritmo, posiblemente sea el momento más idóneo de
compradores o usuarios. aprender y especializarse en el tema.

Algunas de las tendencias futuras del Big Data son:

MAYOR ÉNFASIS EN LA CALIDAD DE LOS DATOS: A me-


dida que se recopilan y analizan más datos, es importan-
te asegurar que estos datos sean precisos y relevantes.
Esto puede requerir un mayor énfasis en la limpieza y
el procesamiento de los datos para eliminar errores y
redundancias.

MAYOR USO DE TECNOLOGÍAS DE ANÁLISIS DE DATOS:


Se espera que el uso de tecnologías como la inteligencia
artificial, el aprendizaje automático y el análisis de datos
en tiempo real, continúen creciendo en el futuro. Esto
puede permitir un análisis más rápido y preciso de los
datos y ayudar a tomar decisiones más efectivas.

MAYOR IMPORTANCIA EN LA PRIVACIDAD Y LA SEGURI-


DAD DE LOS DATOS: A medida que se recopilan y anali-
zan más datos, es importante garantizar que se respeten
las leyes y regulaciones en materia de privacidad y se
adopten medidas de seguridad adecuadas para proteger
los datos personales.
(II)Inteligencia
Artificial

Seguro que has oído hablar de computadoras que


juegan al ajedrez, conducen y producen textos e
imágenes. La IA permite que las máquinas realicen
tareas y aprendan de la experiencia, como si fuesen
seres humanos.
Pero, ¿sabes de qué más son capaces?

POR CARLOS PÉREZ


Inteligencia Artificial

QUÉ ES?
?
La Inteligencia Artificial (IA) es la simulación de la inte- La IA aún está en época
ligencia humana mediante máquinas y sistemas com-
putacionales. El término fue acuñado en 1956 por John de crecimiento y necesita
McCarthy, que la definió como “la ciencia y la ingeniería madurar, y aunque en algunos
de hacer máquinas inteligentes”. La IA nos puede sonar
lejana y misteriosa, pero está presente en nuestro día
sectores parece haberse
a día desde hace muy poco tiempo, y la pregunta que consolidado, en otros está
muchos se hacen es ¿hasta dónde es capaz de llegar? apenas apareciendo.
Prácticamente todas las industrias están incorporando
algún componente de IA, ya que les ayuda a apoyar y
justificar sus decisiones, a transformarse digitalmente, o
a sacar partido a los datos. Pues si la data es el petróleo
del siglo XXI, la inteligencia artificial es quien refina estos
datos y los convierte en productos muy valiosos.
Inteligencia Artificial

TIPOS DE IA
A continuación te contaremos los distintos tipos
de Inteligencia Artificial, según su funcionalidad:

Máquinas reactivas Memoria limitada


Este tipo de inteligencia se caracteriza porque no tiene ca- Estas máquinas aprenden lo sucedido en el pasado para
pacidad de formar recuerdos y no puede utilizar experien- adivinar el futuro siendo las que más popularidad han
cias pasadas de las que ayudarse para tomar decisiones. tenido en los últimos años.

Deep Blue, una supercomputadora creada por IBM, fue Su IA puede almacenar patrones de información de datos
capaz de vencer en ajedrez al gran maestro ruso Gary del pasado (aunque de manera limitada y temporal) y dar 34
Kasparov a finales de la década de los 90. Pudiendo iden- respuesta a eventos para un futuro no lejano.
tificar las piezas del tablero y conocer los movimientos
de cada una, para escoger las mejores futuras posibilida- El ejemplo más claro son los coches autónomos, que uti-
des que tenía. lizan datos recogidos (imágenes y vídeos) en los instan-
tes previos, para tomar decisiones.
Las máquinas reactivas son capaces de simular millones
de combinaciones a una velocidad alucinante.

Teoría de la mente Autoconsciencia


¿Has visto películas como Una Odisea en el Espacio En esta última fase la IA tiene su propia consciencia y
(1968), Blade Runner (1982) o Ex-Machina (2014)? percibe sus emociones, pensamientos y sensaciones,
La industria del cine nos ha mostrado cómo podría ser y las de los demás. Aún queda tiempo para que se haga
el futuro con esta IA. realidad, pero no descartamos poder verla más temprano
de lo que esperamos, en algún formato.
Según esta teoría, los sistemas serán capaces de enten-
der que las personas tienen emociones, pensamientos y
sensaciones que afectan la toma de decisiones. Y serán
capaces de ajustar su comportamiento para poder con-
vivir con nosotros, pudiendo razonar y entender patro-
nes de conducta. Alucinante, ¿cierto?
Inteligencia Artificial

RAMAS
Por su parte, la Inteligencia Artificial abarca otros
dominios como el Machine Learning o el Deep Learning.
Estas son las principales ramas:

Clasificación

Regresión
Aprendizaje
supervisado
Ranking
MACHINE
LEARNING
Clustering
Aprendizaje
no supervisado
35
Reducir la
dimensionalidad

REINFORCEMENT
LEARNING

Natural Language
Processing (NLP)

DEEP
LEARNING
Computer
Vision (CV)

ROBÓTICA
Inteligencia Artificial

Machine Learning
El Machine Learning (ML) se sirve de algoritmos para
identificar patrones en los datos, que permitan elabo-
rar predicciones e inferencias. Existen dos categorías
importantes:
36

1. Aprendizaje supervisado 2. Aprendizaje no supervisado


Estos algoritmos trabajan con datos etiquetados. Su En este tipo de aprendizaje no se dispone de datos eti-
propósito es encontrar relaciones y funciones que aso- quetados. El objetivo es encontrar algún tipo de organi-
cian los datos de entrada con los de salida. El algoritmo zación que simplifique el análisis e interpretación de los
se entrena con un histórico de datos y aprende a asignar datos de entrada. Sus funciones principales son:
la etiqueta de salida. El aprendizaje supervisado suele
usarse en: AGRUPAR LOS DATOS EN GRUPOS CON CARACTERÍS-
TICAS SIMILARES (CLUSTERING): Por ejemplo, identifi-
PROBLEMAS DE CLASIFICACIÓN: La variable a predecir car qué clientes tienen un comportamiento similar para
es una variable discreta. Por ejemplo, detectar qué email poder impactar con el mismo mensaje.
es spam o no, o la detección de fraude de identidad.
REDUCIR LA DIMENSIONALIDAD: Disminuir el número de
PROBLEMAS DE REGRESIÓN: La variable objetivo es variables que definen los datos de entrada, de manera
una variable continua. Por ejemplo, predecir el precio del que eliminamos las variables irrelevantes, reduciendo
Bitcoin o el precio de venta de un inmueble. así la complejidad de futuros modelos de predicción y el
rendimiento computacional. Pues, más datos no siempre
PROBLEMAS DE RANKING: Este último problema es una es mejor (pese a que digan lo contrario).
combinación de clasificación y regresión. Por ejemplo,
ordenar los productos a recomendar en Amazon en
función de las preferencias y compras pasadas, ordenar Nota: Si este tema realmente te interesa, no te preocu-
los sitios publicados en Google tras una búsqueda, de la pes, que en el capítulo III - Machine Learning, profundiza-
manera correcta. remos con más información.
Inteligencia Artificial

Reinforcement learning Robótica


Este tipo de aprendizaje se basa en mejorar la toma de Esta rama estudia el diseño y construcción de máqui- 37
decisiones de un agente en un ambiente, maximizando nas capaces de desempeñar tareas que realiza el ser
el número de aciertos o recompensas acumuladas en el humano y que requieran cierto uso de inteligencia.
tiempo. El modelo aprende a base de castigos y premios, Cada día vemos más procesos automatizados gracias
es decir el sistema aprende a base de ensayo-error. Este a la robótica.
tipo de aprendizaje no necesita de datos etiquetados.

Deep Learning Los recientes avances y popularidad de la Inteligencia


Artificial se deben principalmente a la evolución de los
Esta rama utiliza estructuras lógicas que se asemejan ordenadores y microprocesadores. Como dicta la Ley
al sistema nervioso de los seres humanos, simulando de Moore, aproximadamente cada 2 años se duplica el
su componente principal, las neuronas. El DL es espe- número de transistores en un microprocesador. Esto ha
cialista en detectar características existentes en los permitido poder realizar mayor cantidad de cálculos y
objetos o datos percibidos, tal y como lo haría la mente cálculos de mayores dimensiones a un menor coste.
humana. Los campos donde el Deep Learning ha tenido
más éxito son: Hace ya 40 años, por allá en los ochenta, las compañías
más valiosas estaban principalmente en el sector del pe-
NATURAL LANGUAGE PROCESSING (NLP): Las redes tróleo y el gas, un par de ellas en informática, telecomu-
neuronales (Neural Networks en inglés) entienden el nicaciones e incluso alguna fotografía. En el 2020, la lista
lenguaje humano, tienen en cuenta el contexto, saben es encabezada por una empresa del sector petrolífero,
construir frases o responder a nuestras preguntas. pero la siguen empresas tecnológicas estadouniden-
ses como Apple, Microsoft, Amazon, Google, Facebook
COMPUTER VISION (CV). Las redes neuronales iden- o la china Alibaba. Empresas que han impulsado y han
tifican patrones y señales en imágenes, lo que permite crecido gracias a la inteligencia artificial y el tratamiento
distinguir un perro de un gato. de los datos.
NACIMIENTO

1950
La primera noción de la Inteligencia Artificial surge en los
años 50, poco después de la Segunda Guerra Mundial. El
matemático Alan Turing, quien con su trabajo acortó la
duración de la guerra entre dos y cuatro años tras des- Entre 1964 y 1966 en el Massachusetts Institute of Tech-
encriptar los mensajes cifrados de los nazis alemanes, nology (MIT) se desarrolló ELIZA, un programa capaz de
redactó el conocido Test de Turing en su ensayo “Com- procesar el lenguaje natural e interactuar vía texto.
puting Machinery and Intelligence”.
ELIZA era un proyecto embrionario aunque prometedor.
Este test evalúa la capacidad de una máquina para Tanto es así que el gobierno de Estados Unidos fundó la 38
exhibir un comportamiento similar al de un ser humano. Agencia de Proyectos de Investigación Avanzados de De-
La máquina pasa exitosamente el test, luego de que fensa (Defense Advanced Research Projects Agency en
una persona (el entrevistador), tras una conversación inglés, DARPA) para promocionar y fomentar investiga-
con una máquina y otra conversación con una persona, ciones en este nuevo mundo. En 1970 Marvin Minsky dijo
no sepa distinguir cuál fue con el humano y cuál con la en la revista Life: “De aquí a 3 u 8 años, tendremos una
máquina. máquina con la inteligencia media de un ser humano”. Sin
embargo, la capacidad de los ordenadores aún estaba a
Cinco años después del ensayo de Turing, en Dartmouth años luz de poder exhibir tal inteligencia, y durante los
(Estados Unidos) se presentó el primer programa de siguientes años la IA dejó de estar en boca de todos. El
Inteligencia Artificial organizado por John McCarthy y hype se desvaneció y la gente perdió el entusiasmo por
Marvin Minsky en 1956. En la conferencia de Dartmouth esta nueva tecnología.
se reunieron los principales investigadores de varias

1980
disciplinas para discutir sobre la Inteligencia Artificial.
Fue aquí donde se acuñó por primera vez el término
Inteligencia Artificial.
Hay que esperar a los inicios de los ochenta, cuando la

1960
IA vuelve a renacer gracias a las aportaciones de Edward
Feigenbaum. Edward se doctoró en la Universidad de
Carnegie Mellon, y en esta misma universidad en 1979
Con el desarrollo de los ordenadores, surgió la capacidad otro profesor creó un programa informático que con-
de almacenar información y ejecutar procesos más rápi- siguió vencer al campeón de Backgammon, e introdujo
do y barato; convirtiéndose con el tiempo en un producto el concepto “Sistemas Expertos” que imita el proceso
más accesible para el público general. de decisión de los humanos más expertos. El programa
preguntaba a un experto cómo responder ante ciertas
¿Pero cómo se puede avanzar a pasos tan agigantados? situaciones y el sistema era capaz de memorizar y res-
Te lo contamos: ponder a peticiones de personas no tan expertas.
Si recordamos a ELIZA, aquel programa con el que se po-
día hablar con tu ordenador a través de una pantalla y un
teclado, en 1996 Richard Wallace desarrolló un chatbot
Los Sistemas Expertos fueron utilizados ampliamente en ALICE (Artificial Linguistic Internet Computer Entity).
varias industrias, tanto es así que en Japón, los nipones ALICE mejoraba a ELIZA porque añadía un gran corpus
decidieron hacer una fuerte inversión en revolucionar el de texto (datos) de los que aprender y replicar patrones,
procesamiento por computador, la lógica programática tenía una estructura más sencilla y sabía satisfacer limi- 39
y mejorar la Inteligencia Artificial. Aunque sus objetivos taciones que ELIZA tenía.
fueron demasiado ambiciosos y no llegaron a cumplirse,

2000
estos esfuerzos inspiraron a muchos ingenieros y cientí-
ficos jóvenes.

1990
La década de los 2000 destaca por el boom de la robóti-
ca y su aparición en el mundo del cine:

Los nuevos intentos frustrados hicieron que la IA deje En el 2000, Honda lanza ASIMO, un robot humanoide
de estar, de nuevo, en el foco de atención. Los gobier- inteligente. La compañía japonesa creó este robot para
nos dejaron de invertir en ella y el hype del público se ayudar a personas que carecen de movilidad completa
desvaneció. Irónicamente, fue en la década de los 90 y en sus cuerpos.
los 2000 cuando más prosperó. En 1997, el gran maestro
mundial de ajedrez Gary Kasparov fue derrotado por En 2004, Will Smith protagonizó la película Yo, Robot.
Deep Blue, un programa de ordenador desarrollado por La película se sitúa en Chicago en el año 2035, donde
IBM. La primera partida en 1996, la perdió la máquina, existen robots humanoides que sirven a las personas.
pero una versión mejorada venció al ajedrecista ruso el Del Spooner, un detective del departamento de Policía
siguiente año. de Chicago, investiga el caso del supuesto suicidio del
co-fundador de US Robotics. Del Spooner teme que haya
En los noventa destacan las evoluciones en el Deep Lear- sido un robot humanoide el autor del crimen.
ning y la consolidación de las redes neuronales. En 1997,
Sepp Hochreiter y Jürgen Schmidhuber desarrollan Long No hay que irse al 2035, para ver convivir algunos robots
Short-Term Memory (LSTM), un tipo de red neuronal en nuestro día a día, pues en el 2002, iRobot lanzó
recurrente (Recurrent Neural Network en inglés - RNN). Roomba. Este robot no será capaz de huir de Will Smith,
Esta arquitectura se volverá muy popular para el recono- pero sí de aspirar y barrer nuestra casa evitando sillas y
cimiento del texto y la voz. muebles..
Inteligencia Artificial

2010 2018
Desde 2010 hasta hoy, la IA está en nuestro día a día. En 2018 Google desarrolló BERT, la primera representa-
Cada día utilizamos smartphones con asistentes de voz, ción bidireccional del lenguaje no supervisado, que se
ordenadores y aplicaciones con funciones inteligentes puede usar en una variedad de tareas de lenguaje natu-
con las que ahora no podríamos vivir. ral mediante el aprendizaje por transferencia. En 2019,
OpenAI, un laboratorio de investigación impulsado por
En 2011 Watson, un ordenador de lenguaje natural crea- Elon Musk, lanzó GPT-2 un modelo de redes neuronales 40
do por IBM, respondió preguntas y venció a 2 ganadores formado por 1.5 billones de parámetros que generan tex-
de Jeopardy (un concurso de televisión sobre numero- to prediciendo palabra a palabra. Pero sin duda es GPT-3
sos temas como historia, lenguas, cultura popular, bellas el producto que más revuelos ha causado en el público.
artes, ciencia, geografía y deportes). Sin embargo, el El New York Times dijo que GPT-3 no es solo asombrosa,
mayor hito hasta la fecha en términos de juegos de es- espeluznante y aleccionadora, sino también un poco
trategia y concursos, lo ha alcanzado AlphaGo de Google más que aterradora.
DeepMind, un programa de computadora que compite
en el juego de mesa Go, que derrotó a varios campeones GPT-3 se entrenó con un corpus de más de 1000 millones
entre 2015 y 2017. Si el ajedrez puede parecer un juego de palabras y puede generar texto con una precisión en
complicado, Go es inmensamente más complejo. el nivel de los caracteres. Por el momento está en versión
beta y no se vende al público, pero ha dejado a muchos
En 2011, Apple lanzó Siri, un asistente virtual que utiliza expertos con la boca abierta. Tecnologías como esta
lenguaje natural para entender, responder y recomendar permitirán grandes avances, pero también abrirán las
cosas al usuario. Otras empresas en Silicon Valley no tar- puertas a nuevas maneras para cometer fraude, terroris-
darían, y en 2014 Microsoft lanzaría Cortana y Amazon a mo o suplantación de identidad (deep fake).
Alexa. El procesamiento del lenguaje natural ha evolucio-

2021
nado con creces en la última década.

Recientemente, OpenAI también ha publicado una


versión más ligera de GPT-3 con ChatGPT. Esta IA está
entrenada para tener conversaciones, para cualquier
tipo de pregunta, la IA te da una respuesta elaborada y
acertada. Existen expertos que dicen que podría acabar
con Google, reemplazando a Google como buscador si
OpenAI se lo propone.
Inteligencia Artificial

En el ámbito de los coches autónomos, en 2009 Google


desarrolló secretamente un coche autónomo, y no mu-
cho más tarde, en 2016 Tesla puso a la venta el suyo. Por
el momento, el piloto automático de Tesla permite que su
coche gire, acelere y frene automáticamente dentro del
carril, y la capacidad de conducción autónoma total se ha
diseñado para realizar viajes de corta y larga distancia sin
necesitar ninguna acción por parte de la persona en el
asiento del conductor. Tesla aún tiene aspectos legales
que vencer y en muchos lugares del mundo, este nuevo
feature no está disponible. Tesla ha invertido mucho
en visión por computador para poder llevar a cabo un
proyecto de esta envergadura. La visión por computador
es otra disciplina donde el Deep Learning ha ayudado
mucho.

Sin duda, Tesla no habría conseguido estos avances, si


no fuera por el proyecto de ImageNet en 2010 y de Jeff
Dean y Andrew Ng (investigadores de Google) en 2012, 41
que entrenaron una gran red neuronal de 16,000 proce-
sadores para reconocer imágenes de gatos al mostrarle
10 millones de imágenes sin etiquetar de videos de
YouTube. Actualmente convivimos con la IA y esto se puede ob-
servar en múltiples industrias. La IA nos está ofreciendo
mucho valor en campos como el lenguaje natural, visión
por computador, reconocimiento de voz, automatización
de procesos, reconocimiento de imágenes, Machine
Learning, redes peer-to-peer o agentes virtuales, entre
muchos otros.

La historia no acabará aquí y en los próximos años


continuarán apareciendo nuevos hitos que superarán lo
vivido hasta la fecha. Actualmente, existe un interés en
los chatbots y asistentes virtuales, y tienen mucho por
avanzar en la experiencia de usuario. Con la aparición de
productos como GPT-3, el procesamiento del lenguaje
natural ha visto un mundo nuevo de oportunidades;
los coches autónomos se consolidarán entre nosotros
por los beneficios que ofrecen y tarde o temprano se
impondrán a las restricciones legales; y en términos de
Machine Learning, ahora se está hablando mucho del
AutoML (Automated Machine Learning), y con él, los de-
sarrolladores no tendrán que preocuparse en la creación
de los modelos, pudiendo centrarse más en el valor que
estos modelos ofrecen al negocio.
Inteligencia Artificial

FUNCIONAMIENTO

Los sistemas de IA funcionan combinando grandes Los principales retos a la hora de entrenar un modelo son
conjuntos de datos con algoritmos de procesamien- el underfitting y el overfitting:
to inteligentes e iterativos para aprender patrones y
características en los datos que analizan. Cada vez que El UNDERFITTING ocurre cuando el modelo construido
un sistema de IA ejecuta una ronda de procesamiento falla en capturar los patrones tanto en train como en
de datos, prueba y mide el rendimiento, y genera una test. El modelo desarrollado es demasiado simple y/o a
experiencia adicional. las variables generadas les falta capacidad predictiva. 42
Para combatir el underfitting, la solución está en optar
El procedimiento usual en la generación de modelos de por modelos más complejos y aumentar la cantidad de
ML sigue una secuencia de pasos: partición de los datos registros, de modo que el modelo pueda estar expuesto
en entrenamiento y validación, definición de las métricas a más casos y/o añadir más y mejores variables.
y selección del modelo.
El OVERFITTING ocurre cuando el modelo ha memoriza-
El primer paso consiste en la partición de los datos. Los do los datos de entrenamiento y falla en las predicciones
datos se dividen en tres bloques: train, test y validación. en test. Su rendimiento en entrenamiento es excelente,
Con los datos de train, se entrena el modelo de ML o DL. pero cuando se evalúa en test, los resultados son muy
Con los datos de test, se comprueba que el modelo ha inferiores. Para combatir el overfitting, se puede reducir
aprendido los patrones adecuados en los datos y que no la complejidad del modelo utilizado (reduciendo el núme-
ha memorizado los datos de train. Y finalmente, compro- ro de hiperparámetros, seleccionado así un modelo más
bamos nuestro modelo con los datos de validación. simple), aumentar la cantidad de registros, reducir el
número de variables que describen los datos o utilizar la
Las particiones suelen hacerse de manera aleatoria, por validación cruzada. La cross validation divide los regis-
defecto el train-test corresponde al 90% del cual train tros en varias piezas, cada pieza tiene registros selec-
corresponde al 80% de los datos existentes y el test al cionados de manera aleatoria. El modelo será entrenado
20%, y la validación al 10%. Aunque si existe algún com- y evaluado en cada una de estas piezas, ya que de esta
ponente temporal en los datos, las particiones de train y manera el modelo generaliza mejor y se evita el sobreen-
test pertenecen al pasado, y los de validación correspon- trenamiento.
den a los registros más recientes de las últimas semanas
o el último mes. Recordar que el objetivo principal es po- El underfitting se produce cuando se tiene mucho sesgo
ner en producción un modelo que capte los patrones del y poca varianza. Y el overfitting cuando se tiene poco
mercado y tendencias actuales. Un modelo que funciona sesgo y mucha varianza. Existe una batalla entre el
bien en el pasado pero falla en el presente, no es un buen sesgo (bias) y la varianza, y el objetivo es encontrar un
modelo a poner en producción. ¿No lo creen? balance entre ambos.
Inteligencia Artificial

El segundo paso es la elección de la métrica y la función 2. MODELOS A BASE DE ÁRBOLES DE DECISIÓN: Este
de coste. Los modelos se entrenan iterativamente con tipo de modelos basan su estructura en los árboles
el objetivo de reducir el error que se computa en una de decisión. Un árbol de decisión define una serie de
variable generalizada que viene definida por la función de consultas o pruebas con respuestas de sí o no, que se
coste. realizan de manera adaptativa. Los resultados de estas
consultas permiten inferir un resultado.
La métrica depende del tipo de problema a resolver: Los modelos más populares son combinaciones de
varios árboles de decisión. Destacan Random Forest, y
CLASIFICACIÓN: Podemos querer maximizar la exactitud los modelos de Gradient Boosting (CatBoost, LightGBM o
(accuracy), la precisión (precision), la exhaustividad XGBoost). Estos últimos modelos se volvieron populares
(recall) o el valor-F (F1-score) que es un balance entre en las competiciones de Kaggle por su gran rendimiento. 43
precision y recall.
3. REDES NEURONALES: Este último tipo de modelos
REGRESIÓN: La métrica más popular es el error cuadráti- emulan el funcionamiento de las neuronas. Su arquitec-
co medio (RMSE). Pero en otras ocasiones, dependiendo tura consiste en nodos de entrada y salida. Entre los no-
del tipo de problema o de la distribución de los datos, dos de entrada y salida, existen unas capas ocultas con
nos interesa minimizar el error absoluto medio (MAE) o otros nodos en los que se producen sumas y multiplica-
alguna otra expresión de error ponderada. ciones. Las redes neuronales son el tipo de modelo más
complejo, requieren el uso de GPU (si se desea que el
RANKING: La métrica más popular es el Discounted Cu- entrenamiento se agilice y no dure una eternidad), pero
mulative Gain (DCG). La lógica detrás de esta métrica es en su contra, son capaces de detectar patrones no linea-
premiar la aparición de recomendaciones en los primeros les y ocultos en los datos y son el tipo de modelos que
puestos y penalizar la aparición de recomendaciones mejores resultados han dado en el campo de la Visión por
irrelevantes. Computador, el procesamiento del Lenguaje Natural y las
secuencias de Series Temporales.
Tras seleccionar la métrica más adecuada, el siguiente
paso es escoger el modelo más adecuado. Los modelos La elección del modelo no suele ser una tarea fácil. A
podrían clasificarse en 3 grandes grupos: menudo, el modelo más preciso no suele ser el mejor si la
predicción tarda mucho tiempo en realizarse o si el coste
1. MODELOS GEOMÉTRICOS: Este tipo de modelos de poner este modelo en producción es alto. A veces es
encuentra combinaciones entre las variables de entrada recomendable combinar el resultado de varios modelos
que permiten obtener el valor de salida. Los modelos más más simples (ensemble). Un tipo de modelo será bueno
populares son Support Vector Machine (SVM), Logistic identificando un tipo de categoría pero quizás flaquee
Regression, Linear Regression o K-Nearest Neighbors en otra, y otro tipo puede ser bueno generalizando en
(KNN). Estos modelos son simples, fáciles de entrenar y ambos. La opinión de varios tipos de modelos suele ser lo
almacenar, pero fallan al capturar relaciones no lineales y que da el mejor resultado.
necesitan que los datos vengan normalizados.
BENEFICIOS
EMPRESARIALES

La Inteligencia Artificial ofrece multitud de beneficios a El Machine Learning y la Inteligencia Artificial dan
las empresas y aplicar bien IA se traduce en una venta- resultados sorprendentes cuando:
ja competitiva. Las empresas más valiosas y que más
han crecido en los últimos años han confiado en algún • El problema es demasiado complejo para ser resuel- 44
tipo de IA en alguno de sus procesos y estrategias de to mediante reglas y condiciones. El conocimiento
negocio. Algunas empresas están más avanzadas y otras ganado tras años de experiencia en un campo podría
menos, pero lo que parece claro es que si no incorporas permitir conocer los factores determinantes que lide-
la IA quedarás obsoleto más pronto que tarde. ran en el mercado, pero este proceso puede ser muy
complicado o incluso imposible. El ML permite captu-
Sin embargo, recientemente hemos visto que la IA y la rar estos patrones.
tecnología aún tienen que encontrar su rol, pues tienen
muchas virtudes, pero algunos defectos. Empresas • El problema está cambiando constantemente. Esto
como Twitter, Shopify, Meta (Facebook), Netflix o Uber lleva a que el trabajo realizado hoy, deje de ser útil
han tenido que hacer un ajuste en el personal, despi- mañana.
diendo hasta al 50% de su plantilla en algunos casos,
porque han visto que se estaban dedicando muchos • Se trata de un fenómeno sin estudiar. Si existen datos
recursos a productos y avances tecnológicos que no sobre este fenómeno, la IA puede llegar a predecir
estaban reportando un impacto económico positivo. cuándo volverá a ocurrir este fenómeno y poder ac-
tuar antes de que pase.
Invertir en IA porque nuestros competidores lo hacen
o para no quedarse atrás, no debería ser la principal • El problema tiene un objetivo simple. Nuestra variable
palanca que active a las empresas a actuar. A menudo objetivo es única, no existe ambigüedad.
soluciones tecnológicas ya existentes, menos complejas
y costosas, ya ofrecen una solución bastante buena a • Los costes de la alternativa son muy altos. Los costes
nuestro problema. Otro punto a destacar es que muchas de contratar a un profesional experto en la materia
industrias necesitan una transformación digital previa pueden ser muy altos, y construir un modelo de pre-
antes siquiera de querer construir un modelo de predic- dicción es la opción más viable económicamente.
ción con la última tecnología del mercado. La realidad
es que la IA no es la gallina de los huevos de oro y para
algunos propósitos no es la mejor herramienta.
Inteligencia Artificial

Sin embargo, no se recomienda utilizar IA cuando: Algorithmia comentaba en uno de sus estudios que el
55% de las compañías tenía problemas para poner en
• Cada acción del sistema debe ser explicable. producción sus modelos de predicción, y es que incor-
porarlos a los procesos actuales de una empresa para
• El coste de un error del sistema es muy alto. que den soporte o incluso actúen como decisores en
negocio, sigue siendo una tarea complicada.
• Obtener los datos adecuados es muy complicado o
imposible. La IA bien usada tiene grandes beneficios porque: 45

• El desarrollo de software tradicional ya ofrece una • Automatiza los procesos. La IA permite realizar aná-
solución muy buena y a un coste mucho menor. lisis y tareas repetitivas, optimizando procesos de
manera automática, sin la necesidad de la interven-
• Una simple heurística funciona razonablemente bien. ción humana.

• El fenómeno a predecir tiene muchos posibles resulta- • Reduce el sesgo y el error humano. Al reducir la inter-
dos y existe mucha ambigüedad. vención de los humanos, se reduce la posibilidad de
cometer errores. Un algoritmo no tiene sentimientos,
Lanzar proyectos de Inteligencia Artificial depende de la no está enfadado, triste o contento, por lo que no
situación de cada empresa y no es una tarea fácil. Para dudará en tomar una decisión difícil si así lo dicen sus
que todo funcione a la perfección, los sistemas deben estimaciones y predicciones.
ser robustos y adaptarse a la necesidad de los usuarios,
los datos deben ser de calidad y el equipo de desarrollo • Aporta precisión. Las máquinas pueden llegar a un
debe tener las capacidades suficientes como para poder detalle mayor que el del ser humano, lo que también
poner en producción la solución. El trabajo no acaba reduce el error.
ahí, pues habrá que hacer seguimiento e iterar nuestra
solución, ya sea entrenando de nuevo los modelos para • Agiliza la toma de decisiones. La IA es capaz de
capturar las nuevas tendencias o añadiendo nuevas analizar miles de datos en poco tiempo y ofrecer una
variables predictoras. recomendación con la que el negocio pueda tomar
una decisión.

• En consecuencia, potencia la creatividad. Libera a


las personas de trabajos más repetitivos y a menudo
pesados, para que sean más creativas y tengan más
tiempo para idear.
Inteligencia Artificial

DESAFÍOS SOCIALES
Las empresas y gobiernos que utilizan IA aún tienen
varios desafíos a resolver. Hemos podido ver ya varios
casos donde empresas que han lanzado proyectos con
una alta dependencia en IA se han visto involucradas en
polémicas y escándalos, experimentado algún que otro
desastre y viviendo grandes pérdidas económicas. Otra de las incógnitas es qué pasará con los traba-
jos actuales si la Inteligencia Artificial se impone. Los
En 2016 Microsoft publicó Tay, un bot de conversación nuevos avances de la robótica o lanzamientos como
que se comunicaba a través de Twitter. En menos de GPT-3, DALL·E o ChatGPT pueden reemplazar el trabajo
24 horas, los usuarios de Twitter educaron a este bot de personal administrativo, desarrolladores y creadores
para que se convirtiera en una persona que comentaba de contenidos; lo que podría llevar a la desaparición de
mensajes xenófobos, racistas o con contenido sexual muchos puestos de trabajo.
inapropiado. Tay empezó con tweets mencionando lo
cool que eran los humanos, pero acabó publicando que Sin embargo, como ocurrió en la revolución industrial 46
Hitler tenía razón sobre los judíos. En tan solo 16 horas, cuando las máquinas reemplazaron el trabajo manual y
Microsoft dio de baja su creación. repetitivo de millones de personas, se espera que surjan
nuevos puestos de trabajo.
No es el primer caso en el que la IA actúa con comporta-
mientos racistas, machistas y xenófobos. Corregir estos La automatización y la IA harán que nuestros traba-
comportamientos y deshacerse del sesgo es un reto aún jos sean más eficientes y rápidos, pero la interacción
por resolver. Cabe mencionar que la IA no ha aprendido humana por el momento parece necesaria. Para que la IA
estos comportamientos porque decida ser así, sino por- funcione correctamente se necesita que los datos estén
que ha sido expuesta a datos e interacciones de muchas bien recogidos y sean de calidad, que personas con
otras personas que denotan este comportamiento, y la criterio, entendimiento y experiencia monitoricen qué
IA ha interpretado este comportamiento como normal. decisiones está tomando la IA. Tareas como estandariza-
ción de los datos, manejo de la seguridad y la integridad,
La existencia de estos sesgos genera dudas en temas entrenamiento de los modelos, y perfiles como diseña-
mucho más delicados como la salud o el acceso a la dor de sistema de IA, expertos en IA o seguridad de los
financiación que ofrecen los bancos. Este sesgo puede sistemas, serán necesarios en el futuro.
denegar un préstamo a una persona simplemente por
pertenecer a cierta etnia. Otro gran dilema aparece con los coches autónomos. En
caso de accidente con peatones o ciclistas, ¿el sistema
En algunas ocasiones, tener total confianza en la IA debe ser diseñado para proteger la vida de los individuos
también puede llevar a grandes pérdidas económicas. En dentro del vehículo o debería proteger a los peatones?
2021, la empresa inmobiliaria estadounidense Zillow de-
claraba que había perdido 881 millones de dólares debido La pregunta clave está en cómo programar el algoritmo
a su nueva línea de negocio de House Flipping. El House que tome la decisión “adecuada” en cada situación.
Flipping consiste en un algoritmo de IA y ML que compra ¿Podrá la IA diferenciar entre lo que está bien y lo que
inmuebles para venderlos más tarde a un precio más alto. está mal? ¿Y si llega el momento en que no podemos
El proyecto resultó ser un completo desastre. controlar qué decisiones toma la IA?
El estado de completa autonomía se llama
Singularidad. Elon Musk, Bill Gates o Stephen
Hawking han hablado sobre este momento
cuando no podemos manejar a la IA, hasta el
punto en que pueda ser una amenaza para la
humanidad. Es posible que la IA decida actuar
de forma armada ante un conflicto o actuar en
contra de nuestros intereses.

47

Redactar leyes y regularizar la IA parece necesario antes


de que sea demasiado tarde. Varias organizaciones tam-
bién están usando la data para hacer el bien y combatir
aquellos casos en los que empresas que emplean IA
están siendo injustas.
Inteligencia Artificial

Los 5 principios de la ética de la IA


según la Universidad de Helsinki son
los siguientes:
Utilizar la IA para causar el bien y no el mal.

Quién es el responsable cuando la IA causa el mal.


48
La IA debe ser transparente y debemos entender
qué hace y por qué lo hace.

La IA debería ser justa y no debería discriminar.

La IA debería promover y respetar los derechos


humanos.
Inteligencia Artificial

ÉTICA Y
LEGALIDAD

La Inteligencia Artificial actuará mal en el pasado, pre- La ley actual no abarca todos los casos y existen huecos
sente y lo hará en el futuro, por esto la sociedad y los donde empresas o la misma IA puede operar realizan-
gobiernos se han visto forzados a redactar leyes que do acciones en contra de la moralidad común. Es en
limitan la actuación de la IA. este punto donde la ética debe imperar. La IA debe ser
transparente, no malévola, respetar los derechos huma-
La IA suele ser un sistema opaco, con sesgo e intrusivo, nos, ser justa y en caso de mala actuación, debe haber
que puede llegar a infringir la privacidad de las personas. responsables de esta mala praxis, ya sean personas,
La Unión Europea lanzó el Reglamento General de Pro- gobiernos o empresas.
tección de Datos (RGPD) el 25 de mayo de 2018. Su obje-
tivo principal es dar control a los ciudadanos y residentes Para que la IA sea transparente debe ser explicable. 49
sobre sus datos personales y simplificar el entorno Las personas deberían poder entender qué factores
regulador de los negocios internacionales, unificando la se han tenido en cuenta para determinar la aproba-
regulación dentro de la UE. ción del crédito a un cliente. Sin embargo, los modelos
más efectivos y que mejor rendimiento dan suelen ser
El RGPD prohíbe la utilización de información personal “cajas negras”. A una caja negra se le entran unos datos
como puede ser la etnia, orientación sexual, conviccio- y devuelve un resultado, pero se desconoce qué se ha
nes religiosas u opiniones políticas, y pide el consenti- razonado para llegar a esta solución.
miento del usuario para poder utilizar información como
la dirección, los ingresos o el documento nacional de Los sistemas de IA también tienen que ser robustos,
identidad. justos y defender la privacidad de los usuarios. Los
sistemas deberían estar operativos, evitar el acceso a
El RGPD debería evitar casos como el escándalo de ataques cibernéticos, ser justos y no tener sesgo que
Cambridge Analytica. En la década de 2010, la consul- favorece a los grupos privilegiados y que penaliza a los
tora británica Cambridge Analytica recopiló datos de grupos discriminados. Ya existen librerías de programa-
millones de usuarios de Facebook sin su consentimiento, ción que mitigan este sesgo y proporcionan interpretabi-
principalmente para utilizarlos con un fin de propaganda lidad a los modelos de ML y DL.
política. Este tipo de información se utilizó para asisten-
cia analítica a las campañas de Ted Cruz y Donald Trump De esta manera, la IA será más utilizada, porque además
para las elecciones presidenciales de 2016, para interfe- de dar resultados geniales, se puede confiar en ella y es
rir en el referéndum del Brexit y en algunas elecciones de posible justificar qué razones han llevado al sistema a
otros países. tomar esa decisión.

Otro aspecto a discutir está en el impacto que puede


tener la IA en sectores como el militar, la salud o la edu-
cación. LA IA DEBERÍA HACER EL BIEN Y NO EL MAL, sin
embargo la línea del bien y el mal es muy difusa.
Inteligencia Artificial

APLICACIONES
PR CTICAS

En muchas ocasiones, pese a que la IA, el ML o el DL sean Otro punto a considerar es el ROI (Return of Investment).
herramientas muy potentes, otra alternativa más tradi- ¿Puede la IA añadir valor, aumentar los ingresos y reducir
cional puede dar resultados similares o incluso mejores, los costes? La primera comparativa siempre debe reali-
siendo además una opción mucho menos costosa en zarse con la de un ser humano medio realizando la misma
términos económicos, de esfuerzo o tiempo. tarea. ¿Da mejores resultados que tener una persona
trabajando y resolviendo ese problema? Si la respuesta
La gran mayoría de modelos de ML que se utilizan son es no, no tiene sentido utilizar IA.
de aprendizaje supervisado, es decir, necesitan datos
etiquetados. Cuando no existen datos etiquetados, Esta misma pregunta también se traslada a solucio- 50
los humanos deben categorizar miles de registros con nes que ofrece un software normal. Frecuentemente
el fin de tener una muestra de la que el modelo pueda productivizar soluciones complejas resulta tan costoso,
aprender patrones. Por ejemplo, compañías que desa- que soluciones mucho más sencillas son más fáciles de
rrollan coches autónomos tienen a cientos de personas lanzar al mercado.
anotando manualmente objetos, vehículos y señales en
horas y horas de vídeo. No cometer ninguno de los errores anteriores ya te evi-
tará muchos fracasos y decepciones. Esta es la mejor de
Aun así puede ocurrir que no se disponga de datos sufi- las recomendaciones. ¡Aunque no acaba aquí! Desarro-
cientes. En especial, los modelos de DL necesitan miles, llar un modelo de predicción para un caso de uso es el
incluso millones, de registros para tener un rendimiento primer paso. Hay más trabajo en el despliegue del modelo
similar al del ser humano. Obtener una muestra amplia y en la monitorización. Productivizar el modelo, es decir,
de datos sobre eventos fortuitos, eventos que ocurren hacerlo accesible a nuestros usuarios, tiene mucha
una vez cada miles de casos, puede ser prácticamente interferencia con el mundo del desarrollo de software.
imposible.
Otro punto importante es conocer qué rendimiento va
La otra limitación a tener en cuenta es la EXPLICABILI- teniendo el modelo, pues “lo que no se define no se
DAD. Los modelos que mejores resultados ofrecen acos- puede medir. Lo que no se mide, no se puede mejorar. Y
tumbran a ser complejos, y encontrar la razón que lleva lo que no se mejora, se degrada siempre”. Conocer que
a tomar esa decisión se ha vuelto complicado. Recien- nuestro modelo falla, que la tendencia de los usuarios ha
temente se ha ido avanzando en este aspecto y muchas cambiado o que los datos de entrada tienen otro forma-
librerías pretenden encontrar qué variables son las más to, es vital. Es importante desarrollar un plan de con-
significativas, aplicando permutaciones. Un modelo se tingencia para mitigar cualquier riesgo y responder con
entrena con todas las variables menos una y se estudia una alerta para los responsables, volver a una versión
el efecto que tiene considerar o no esta variable. Sin anterior que funcionaba o reentrenar los modelos.
embargo, seguirá habiendo áreas donde la explicabilidad
total sea necesaria, lo que limitará el uso de la IA.
Inteligencia Artificial

51

En palabras de William Thomson, lo que no


se define no se puede medir. Lo que no se
mide, no se puede mejorar. Y lo que no se
mejora, se degrada siempre.
FUTURO
El futuro de la IA es incierto, con frentes abiertos e incóg-
nitas por resolver. Existen campos en los que la IA aún no
ha demostrado su efectividad y otros donde la IA domina.
Los productos que surgen a partir de la IA no dejan de
sorprendernos. La gran mayoría de veces para bien, pero
en algunas ocasiones para mal.

La evolución de los ordenadores, la mejora en los micro-


procesadores y los avances en las GPUs y TPUs, que tan
potentes son para el entreno de redes neuronales, harán
que la IA evolucione a un ritmo más acelerado de lo que
lo hace ahora. Si finalmente la computación cuántica se
consolida y se vuelve accesible al público general a un
coste razonable, este nuevo descubrimiento dispararía
los avances en la IA. La computación cuántica permitiría 52
agilizar muchos procesos actuales y resolver problemas
mucho más complejos. Industrias como la financiera,
logística, transporte, biomedicina y retail, son algunas Los productos end-to-end de MLOps están aún por lle-
de las que más se beneficiarían con la aplicación de esta gar. Existen herramientas, pero no parece haber un claro
tecnología. referente que domine el mercado. El MLOps consiste
en el despliegue de modelos de ML o DL en producción
El Deep Learning tiene mucho potencial por explorar y mediante software, con el objetivo de poner a disposi-
tiene muchas cosas por enseñarnos, como se ha podido ción del usuario el modelo, monitorizar el rendimiento y
ver con el procesamiento del Lenguaje Natural con la mantener los modelos existentes. El MLOps sigue siendo
aparición de Chat GPT. En otros campos como la Visión un problema para las empresas, ya que los conocimien-
por Computador, el procesamiento de voz o el audio tos necesarios para poner un modelo en producción
también se ha avanzado, pero estos avances no han escapan de las competencias de los Data Scientists. Es
tenido tanto revuelo mediático. Algunas startups se han por eso que serán necesarios roles más específicos en
especializado en algunos de estos campos y comercia- este aspecto.
lizan soluciones a empresas y usuarios mediante el uso
del Deep Learning. El Deep Learning ha dejado de estar Algunos sectores están al inicio de su transformación
completamente ligado al mundo de la academia y en la gracias a la IA, otros ya son veteranos. En ambos casos,
última década la empresa nos ha traído varios productos la IA tiene aún avances que explorar. Los campos donde
que se sirven del DL. parece que la IA va a explotar son:

En el Machine Learning tradicional, los avances no pare- TRANSPORTE. Los vehículos autónomos se van a
cen ser tanto en la mejora del rendimiento, pues los mo- perfeccionar y tarde o temprano serán parte de nuestra
delos de ensemble y combinaciones de varios modelos realidad.
dan resultados sorprendentes, sino en la explicabilidad
de los modelos. Algunas librerías open source pretenden SALUD. La IA permitirá descubrir medicamentos para
ya solucionar este problema. enfermedades nuevas y existentes.
Inteligencia Artificial

El futuro es incierto porque la IA puede ofrecer grandes


beneficios sociales y económicos, aunque mal usada
también puede causar mucho daño. Y es que existe un
temor global de que no seamos capaces de entender y
controlar las decisiones que tome la IA.

Los primeros indicios de AGI (Artificial Generative Intelli-


gence) ya han llegado. Este tipo de inteligencia artificial
iguala o excede la inteligencia humana promedio. Esta
máquina puede realizar con éxito cualquier tarea intelec- 53
EDUCACIÓN. La IA podrá ser capaz de identificar qué tual de cualquier ser humano. Los productos de OpenAI
alumnos se aburren o a cuáles les cuesta más, en fun- (GPT 3, Whisper, DALL·E o ChatGPT) son lo más parecido
ción de sus expresiones faciales y resultados académi- a AGI que hemos experimentado hasta ahora. La singula-
cos, y así adaptar el nivel y la velocidad a sus necesida- ridad parece que llegará más pronto de lo que se espera
des. Mejorando así la educación, algo que parece que y no estamos preparados para ella.
sigue en el siglo anterior.
Para intentar mitigar estos riesgos se deberá avanzar en
ARTE Y PRENSA. Herramientas como DALL·E o ChatGPT aspectos legales para poner límites a la IA. Seguimos sin
de OpenAI son capaces de entender e incluso generar saber si la IA protegerá la privacidad de los usuarios, si
texto o imágenes. Estas herramientas permitirán generar actuará a nuestro favor o al suyo propio o cómo actua-
contenido de manera ilimitada, pero quedará pendiente rá en situaciones de peligro. Recientemente, hemos
ver si es material de calidad. vivido casos de violación de la privacidad con Cambridge
Analytica con Facebook o Alexa de Amazon, escuchando
SERVICIO AL CLIENTE. Los sistemas serán capaces de conversaciones que no debían. La captación de este
entender las peticiones de los usuarios y elaborar una tipo de datos puede ser utilizado para predecir nuestro
respuesta en sintonía a los valores y ofertas de las insti- comportamiento, pero inflige nuestra privacidad. Límites
tuciones, tal y como hacen los humanos actualmente. legales y establecer unos principios éticos comunes
entre todos, son fundamentales en este momento.
La IA tiene mucho que aportar, si finalmente el metaverso
se convierte en una realidad y el público general empie- La Inteligencia Artificial aún tiene mucho que decidir,
za a utilizarlo asiduamente. La IA será capaz de generar lo que hemos visto hasta ahora es un 1% de lo que la IA
avatares que podrán interactuar con nosotros de manera puede ofrecernos. La realidad supera la ficción. El hype
perfecta, hasta el punto en que no sabremos quién está es real. Existen muchas expectativas exageradas, pero
detrás de la pantalla, si se trata de otro ser humano o de lo que la IA necesita es tiempo para consolidarse, para
la IA (superando así el test de Turing, aunque este ya ha volverse una commodity en nuestro día a día y que no
sido superado en 2014). sepamos vivir sin ella.
(III)Machine
Learning

Recomendaciones de películas, reconocimiento


por voz y asistentes virtuales, son solo algunas
de las capacidades de las máquinas para apren-
der de los seres humanos. Machine Learning
está revolucionando la vida que conocemos.
Pero, ¿será la clave para el futuro?

POR MASSIMILIANO BREVINI


Machine Learning

QUÉ ES?
?

56

Para empezar, el aprendizaje automático es una subárea El proceso de aprendizaje automático comienza con la
central de la Inteligencia Artificial (IA). Las aplicaciones introducción de datos de entrenamiento en el algoritmo
de ML aprenden de la experiencia (para ser exactos, de seleccionado. Estos pueden ser conocidos o desconoci-
los datos) como lo hacen los humanos, sin necesidad dos. El tipo de datos de entrenamiento (training) que se
de programación directa. Cuando se exponen a nuevos introduce, influye y es la pieza clave para que el resulta-
datos, estas aplicaciones aprenden, crecen, cambian do del algoritmo se acerque al resultado esperado.
y se desarrollan por sí mismas. En otras palabras, el
aprendizaje automático consiste en que los ordenadores Los nuevos datos de entrada (test) se introducen para
encuentren información útil sin que se les diga dónde comprobar si funciona correctamente o no. La predicción
buscar, y es justo aquí donde está la innovación. Por eso y los resultados se comparan entre sí. ¿Y entonces qué
sabemos que cuanto más datos mejor, porque lo que sucede? Si la predicción y los resultados no coinciden, el
hacen estos algoritmos es aprender de los datos en un algoritmo se vuelve a entrenar con los mismos o diferen-
proceso iterativo. tes parámetros, varias veces hasta que se obtienen los
valores esperados.
Las aplicaciones aprenden de cálculos y operaciones an-
teriores, y utilizan el “reconocimiento de patrones” para Esto permite que el algoritmo de aprendizaje automático,
producir resultados fiables y fundamentados. aprenda continuamente por sí mismo y produzca la res-
puesta óptima, aumentando gradualmente su precisión
¿Crees que el aprendizaje automático es una de las par- con el tiempo.
tes más apasionantes de la Inteligencia Artificial? Noso-
tros también. Ahora veamos lo siguiente: es importante
entender qué es lo que hace que el Aprendizaje Automá-
tico funcione y cómo se podrá utilizar en el futuro.
Machine Learning

¿Cómo se elige el algoritmo


óptimo para un determinado
proyecto?

Hay docenas diferentes entre los que elegir, pero no


hay una opción mejor ni una que se adapte a todas
las situaciones. En muchos casos, hay que recurrir al
método científico de prueba y error y entrenar los datos
con múltiples algoritmos para establecer cuál de todos
ha tenido una mejor performance. Sin embargo, hay 57
algunas preguntas que pueden ayudarnos a reducir
las opciones:

¿Cuál es el tamaño de los datos ¿Cuál es el tipo de datos con


con los que vamos a trabajar? los que vamos a trabajar?

¿Qué tipo de información bus- ¿Cómo se utilizarán estos datos?


camos a partir de los datos?
Machine Learning

NACIMIENTO
Hoy en día los algoritmos de aprendizaje automático per- ambulantes, comenzando en una ciudad al azar, pero
miten a los ordenadores comunicarse con los humanos, asegurándose de que visitaran todas las ciudades du-
conducir coches de forma autónoma, escribir y publicar rante un breve recorrido.
informes de partidos deportivos y encontrar sospecho-
sos de terrorismo. Creo firmemente que el aprendizaje 1979: Los estudiantes de la Universidad de Stanford
automático tendrá un gran impacto en la mayoría de los inventan el “carrito de Stanford”, que puede sortear los
sectores y en los puestos de trabajo dentro de ellos, por obstáculos de una habitación por sí solo.
lo que todo directivo debería tener al menos una idea de

1980-1990
lo que es el aprendizaje automático y cómo está evolu-
cionando.

A partir de aquí es cuando empezamos un rápido viaje en


el tiempo para examinar los orígenes del Machine Lear- 1981: Gerald Dejong introduce el concepto de aprendiza-
ning, así como los hitos más recientes. je basado en explicaciones (EBL), en el que un ordena-
dor analiza los datos de entrenamiento y crea una regla
general que puede seguir descartando los datos sin
importancia.
58

1950
1985: Terry Sejnowski inventa NetTalk, que aprende a
pronunciar las palabras del mismo modo que un bebé.

1950: Alan Turing crea el “Test de Turing” para determi- LOS 90: El trabajo sobre el aprendizaje automático pasa
nar si un ordenador tiene inteligencia real. ¿Recuerdas de un enfoque basado en el conocimiento a otro basado
que te lo contamos en detalle en el capítulo de en los datos. Los científicos empiezan a crear programas
Inteligencia Artificial? para que los ordenadores analicen grandes cantidades
de datos y saquen conclusiones, o aprendan de los
1952: Arthur Samuel escribió el primer programa de resultados.
aprendizaje para ordenadores. El programa era el juego
de las damas y el ordenador de IBM mejoraba en el juego 1997: Deep Blue de IBM vence al campeón mundial de
cuanto más jugaba, estudiando qué jugadas constituían ajedrez (como te contamos en el capítulo anterior).
estrategias ganadoras e incorporándolas a su programa.

1957: Frank Rosenblatt diseña la primera red neuronal


para ordenadores (el perceptrón), que simula los proce-
2000-2014
sos de pensamiento del cerebro humano.
2006: Geoffrey Hinton acuña el término “aprendizaje
profundo” para explicar los nuevos algoritmos que permi-

1960-1970
ten a los ordenadores ver y distinguir objetos y texto, en
imágenes y vídeos.

1967: Se escribe el algoritmo del “vecino más cercano” o 2010: El Microsoft Kinect puede seguir 20 rasgos
KNN, que permite a los ordenadores empezar a utilizar un humanos a una velocidad de 30 veces por segundo, lo
reconocimiento de patrones muy básico. Este algoritmo que permite a las personas interactuar con el ordenador
podía utilizarse para trazar una ruta para los vendedores mediante movimientos y gestos.
Machine Learning

2011: Watson, de IBM, vence a sus competidores huma- Además, más de 3.000 investigadores de IA y robótica,
nos en Jeopardy (lee nuestro Glosario para saber más). respaldados por Stephen Hawking, Elon Musk y Steve
Wozniak (entre muchos otros), firman una carta abierta
También se desarrolla Google Brain, permitiendo a su red en la que advierten del peligro de las armas autónomas
neuronal profunda aprender a descubrir y categorizar que seleccionan y atacan objetivos sin intervención
objetos de forma similar a como lo hace un gato. humana.

2012: El X Lab de Google desarrolla un algoritmo de 2016:El algoritmo de inteligencia artificial de Google ven-
aprendizaje automático que es capaz de explorar de ce a un jugador profesional en el juego de mesa chino Go.
forma autónoma los vídeos de YouTube para identificar
los que contienen gatos. 2020: La publicación del sistema BERT de Google
aceleró las técnicas avanzadas de procesamiento del
2014: Facebook desarrolla DeepFace, un algoritmo de lenguaje natural (PNL). El modelo viene acompañado de
software que es capaz de reconocer o verificar a los una extraordinaria red de PNL que permite comprender
individuos en las fotos al mismo nivel que pueden hacerlo lenguajes más sofisticados y compatibles. El modelo de
los humanos. IA de Google está ampliamente difundido y abierto al uso
público.

2015-2021 2021: La red neuronal DALL·E es un avance en visión por


ordenador (Computer Vision) desarrollado por OpenAI en
59

2021 que consiste en crear imágenes a partir de conteni-


2015: Amazon lanza su propia plataforma de aprendizaje do textual. Curiosamente, no se basa en las GAN que se
automático. utilizan habitualmente para entrenar redes neuronales
para la generación de imágenes, lo que lo convierte en un
Ese mismo año, Microsoft crea el kit de herramientas de enfoque increíblemente nuevo. Produce versiones antro-
ML distribuido, que permite repartir de manera eficien- pomorfizadas de diversos objetos, incluidos los animales.
te los problemas de aprendizaje automático, en varios
ordenadores.

El impacto del Machine Learning es evidente en todo el


mundo. Desde las startups hasta las empresas de Fortu-
ne 500 han abrazado esta tecnología. El mercado de ML
se valoró en 8.000 millones de dólares en 2021, y estas
cifras alcanzarán los 117.000 millones de dólares en 2027,
con una CAGR del 39%.
Machine Learning

FUNCIONAMIENTO
El aprendizaje automático (ML) consiste en codificar pro- de clasificación más comunes son los clasificadores
gramas que ajustan automáticamente su rendimiento, a lineales, las máquinas de vectores de soporte (SVM),
partir de la exposición a la información codificada en los los árboles de decisión, los vecinos más cercanos y los
datos. Este aprendizaje se consigue mediante un modelo bosques aleatorios, que se describen con más detalle a
basado en parámetros sintonizables, que se ajustan continuación.
automáticamente según un criterio de rendimiento.
La regresión se utiliza para comprender la relación entre
Mucha información, ¿verdad? Iremos por partes. variables dependientes e independientes. Se suele
utilizar para hacer proyecciones, como por ejemplo de
El aprendizaje automático puede considerarse un sub- los ingresos por ventas de una empresa determinada.
campo de la inteligencia artificial (IA). Hay tres clases La regresión lineal, la regresión logística y la regresión
principales de ML: polinómica, son algoritmos de regresión populares.

Se denomina regresión lineal cuando la función es lineal,


1. Aprendizaje supervisado
60
es decir, requiere la determinación de dos parámetros:
la pendiente y la ordenada en el origen de la recta de
Algoritmos que aprenden de un conjunto de entrena- regresión. La fórmula de la regresión lineal simple es la
miento de ejemplos etiquetados (ejemplares) para gene- siguiente:
ralizar todas las entradas posibles. Algunos ejemplos de
técnicas de aprendizaje supervisado son la regresión y y=ax+b
las máquinas de vectores de apoyo.

El aprendizaje supervisado utiliza un conjunto de datos


de entrenamiento para enseñar a los modelos a obte-
ner los resultados deseados. Este grupo de datos de
entrenamiento incluye entradas y salidas correctas,
que permiten al modelo aprender a lo largo del tiempo.
El algoritmo mide su precisión a través de la función de
pérdida (loss function), ajustándose hasta que el error
se haya minimizado lo suficiente.

El aprendizaje supervisado puede dividirse en dos tipos


de problemas a la hora de extraer datos: clasificación y
regresión.

La clasificación utiliza un algoritmo para asignar con


precisión los datos de prueba a categorías específicas.
Reconoce entidades dentro del conjunto de datos e
intenta sacar algunas conclusiones sobre cómo deben Ejemplo de una regresión lineal con una variable dependiente y
etiquetarse o definirse esas entidades. Los algoritmos una variable independiente.
Machine Learning

2. Aprendizaje no supervisado 3. Aprendizaje por refuerzo


Algoritmos que aprenden a partir de un conjunto de
(Reinforcement Learning)
entrenamiento de ejemplos no etiquetados, utilizando
las características de las entradas para categorizarlas Algoritmos que aprenden por refuerzo, basado en re-
juntas según algún criterio estadístico. Algunos ejem- compensar los comportamientos deseados y/o castigar
plos de aprendizaje no supervisado son la agrupación de los no deseados. En general, un agente de aprendizaje
K-means y el Kernel Density Estimation. por refuerzo es capaz de percibir e interpretar su entor-
no, emprender acciones y aprender por ensayo y error. 61
Para hacer un ejemplo concreto, el K-means es un algo-
ritmo de clasificación no supervisada (clusterización) El Aprendizaje por refuerzo propone un nuevo enfoque
que agrupa objetos basándose en sus características. para hacer que nuestra máquina aprenda, para ello, pos-
El agrupamiento se realiza minimizando la suma de dis- tula los siguientes 2 componentes:
tancias entre cada objeto y el centroide de su grupo
o clúster. Se suele usar la distancia cuadrática. AGENTE: será el modelo que queremos entrenar para
que aprenda a tomar decisiones.

AMBIENTE: será el entorno en donde interactúa y “se


mueve” el agente. El ambiente contiene las limitaciones y
reglas posibles a cada momento.

Entre ellos hay una relación que se retroalimenta y cuen-


ta con los siguientes nexos:

ACCIÓN: las posibles acciones que puede tomar en un


momento determinado el agente.

ESTADO (DEL AMBIENTE): son los indicadores del


ambiente, de cómo están los diversos elementos que lo
componen en ese momento.

RECOMPENSAS (¡O CASTIGOS!): a raíz de cada acción


Ejemplo algoritmo K-Means (www.unioviedo.es) tomada por el agente, podremos obtener un premio o
una penalización que orientará al agente en la dirección
correcta.
Machine Learning

62
Machine Learning

BENEFICIOS
EMPRESARIALES

Los innumerables usos del aprendizaje automático indi- PERSONALIZACIÓN DEL COMPROMISO CON EL CLIENTE:
can lo beneficiosa que puede ser esta tecnología para La personalización también se ha convertido en una es- 63
empresas de todo tipo. Las compañías describen sus trategia crítica para competir en el mercado actual. Con
beneficios de aprendizaje automático en términos de las plataformas de aprendizaje automático que analizan
ganancias y mejoras en los diferentes procesos empre- el comportamiento del usuario y sugieren productos
sariales exponenciales. Te contamos cuáles son algunas adicionales en función del historial de compras, los
de las más comunes: minoristas online interactúan con los clientes de forma
más personalizada y consiguen más ventas. El gigante
TOMA DE DECISIONES MÁS RÁPIDA: Al permitir que las mundial Amazon es un buen ejemplo, ya que utiliza el
empresas procesen y analicen los datos con más rapidez aprendizaje automático para crear listas de productos
que nunca, el aprendizaje automático permite una toma recomendados y ofrecer sugerencias a los clientes.
de decisiones rápida, incluso en fracciones de segun-
dos. Por ejemplo, un software basado en el aprendizaje AUMENTO DE LA EFICIENCIA: El uso del aprendizaje
automático entrenado para identificar anomalías en el automático permite a las empresas acelerar las tareas
entorno de seguridad de una empresa puede detectar repetitivas y desplazar los recursos humanos a activida-
automáticamente una violación de datos al instante y des de mayor valor. Por ejemplo, la tecnología de apren-
notificar al equipo técnico de la organización. dizaje automático puede realizar búsquedas exhaustivas
de documentos en una fracción del tiempo que tardan
PREVISIÓN DE LA DEMANDA CON MAYOR PRECISIÓN: las personas en realizar tareas de escaneo y referencias
Para competir en un panorama empresarial que cam- cruzadas. Estas capacidades permiten a las empresas
bia rápidamente, las empresas están sometidas a una reducir los costes de las actividades de recuperación de
presión cada vez mayor para anticipar las tendencias del información relacionadas con el cumplimiento de la nor-
mercado y el comportamiento de los clientes. Al incor- mativa y la investigación jurídica, al tiempo que liberan a
porar modelos de aprendizaje automático a sus análisis los empleados para que puedan centrar sus esfuerzos en
de datos, las empresas obtienen capacidades mucho otros aspectos.
más precisas y potentes para prever la demanda, lo que
se traduce en una gestión más eficaz del inventario y un
gran ahorro de costes.
Machine Learning

DESAFÍOS SOCIALES
Por la misma razón por la que el aprendizaje automático
es valioso, porque impulsa las decisiones operativas con
mayor eficacia, también ejerce su poder en el impacto
que tiene en la vida de millones de personas. Las ame-
nazas a la justicia social surgen cuando ese impacto es
perjudicial, cuando los modelos limitan sistemáticamen-
te las oportunidades de los grupos desfavorecidos o
protegidos.

64
Machine Learning

1. Los modelos abiertamente 2. Inferir atributos sensibles


discriminatorios
El aprendizaje automático predice información sensi-
ble sobre las personas, como la orientación sexual, el
Son modelos predictivos que basan sus decisiones embarazo, si alguien va a dejar su trabajo, y hasta si va
parcial o totalmente en una clase protegida. Las clases a morir. En un caso especialmente extraordinario, los
protegidas incluyen la raza, la religión, el origen nacional, funcionarios de China utilizan el reconocimiento facial
el género, la identidad de género, la orientación sexual, para identificar y seguir a los Uigures, un grupo étnico
el embarazo y el estado de discapacidad. Al tomar una de minoritario sistemáticamente oprimido por el gobierno.
estas características como entrada, los resultados del Se trata del primer caso conocido de un gobierno que
modelo (y las decisiones impulsadas por este) se basan, utiliza el aprendizaje automático para establecer perfiles
al menos en parte, en la pertenencia a una clase protegi- por etnia. Por su parte, una empresa china valorada en
da. Aunque los modelos rara vez lo hacen directamente, más de 1.000 millones de dólares dijo que su software
hay precedentes y apoyo para hacerlo. podía reconocer “grupos sensibles de personas”.

3. Microfocalización
depredadora
La impotencia engendra impotencia, y ese ciclo puede 65
ampliarse para los consumidores, cuando el aprendiza-
je automático aumenta la eficiencia de las actividades
diseñadas, maximizando los beneficios de las empresas.
La mejora de la microfocalización del marketing y la fija-
ción de precios predictivos de los seguros y los créditos,
puede magnificar el ciclo de la pobreza. Por ejemplo, los
anuncios altamente segmentados son más hábiles que
nunca para explotar a los consumidores vulnerables y
separarlos de su dinero.

Y los precios de los seguros pueden llevar al mismo


resultado. En el caso de los seguros, el nombre del
juego es cobrar más a los que corren más riesgo. Si no
se controla, este proceso puede desembocar rápida-
mente en una tarificación depredadora. Por ejemplo, un
modelo de rotación puede descubrir que los asegurados
de edad avanzada no tienden a comparar y a cambiar de
oferta, por lo que hay menos incentivos para mantener
las primas de sus pólizas bajo control. Y la tarificación de
las primas en función de otros factores vitales también
contribuye a un ciclo de pobreza. Por ejemplo, a las per-
sonas con mala calificación crediticia se les cobra más
por el seguro del coche. De hecho, una baja puntuación
crediticia puede aumentar la prima más que un accidente
de coche con culpa.
Machine Learning

APLICACIONES
PR CTICAS

Malas prácticas
ERROR 1. Una solución de aprendizaje automático que
busca un problema.
A menudo se intenta utilizar una solución de Machine
Learning cuando el problema de negocio no lo requiere, 66
gastando así recursos y tiempo innecesarios.

ERROR 2. Si no hay datos, no se identifica el problema.


A veces las empresas, sobre todo las más pequeñas, no
tienen los datos suficientes para abordar un proyecto de
Machine Learning.

ERROR 3. Diseñar una arquitectura monolítica.


La creación de aplicaciones monolíticas provoca el
proceso de desarrollo en cascada. Los diferentes pasos
y partes de una aplicación son muy dependientes unos
de otros.

ERROR 4. Volver a inventar la rueda.


Se han visto muchos ejemplos de proyectos que han
tenido que reiniciarse porque no se había investigado el
trabajo anteriormente.

ERROR 5. No comunicar el progreso.


Por mucho éxito que tenga el ML, habrá contratiempos
en el proyecto a lo largo del camino. Hemos compro-
bado que un informe semanal de 1-2 páginas sobre el
estado del proyecto para el patrocinador y el director
del proyecto del cliente, aunque no lo hayan solicitado,
elimina la mayoría de los problemas de comunicación en
el proyecto.
Machine Learning

Buenas prácticas
MEJOR PRÁCTICA 1: Entender el problema de la empre- MEJOR PRÁCTICA 4: Trabajar en un eje de acción a la
sa, definir la solución de aprendizaje automático. vez.Una vez identificado el problema, proponer una
No contrates a empresas que no tengan o no te permitan solución de Aplicación de Machine Learning (AML). Se
definir una solución viable de aprendizaje automático. pueden poner en marcha otros proyectos de AML des- 67
pués de que el primero tenga éxito.
MEJOR PRÁCTICA 2: El bajo coste significa que la fruta
que cuelga es baja. Tus primeros proyectos deben añadir MEJOR PRÁCTICA 5: Si el primer proyecto ha salido con
capacidades, no sustituir ni mejorar las existentes. éxito y el cliente está satisfecho, entonces se puede
aumentar la inversión poniendo en marcha más proyec-
Te damos un consejo: Hasta que no hayas demostrado tos a la vez.
el valor añadido del aprendizaje automático, evita añadir
aplicaciones de ML al sistema heredado (existente) de Esta mejor práctica (iterativa) es evidente. Lo que no
una organización. Es más fácil decirlo que hacerlo. ¡Lo es tan obvio es que los patrocinadores pueden querer
sabemos! iniciar más proyectos de AML antes de que el primero se
ponga en producción, lo que requeriría una gestión del
MEJOR PRÁCTICA 3: Encontrar e identificar el caso de proyecto distinta (por ejemplo, utilizando la metodología
negocio, el flujo de procesos y/o los diagramas de flujo Kanban, trabajando en paralelo y ayudándonos a tener
de datos. Los KPI (indicadores clave de rendimiento) son una gestión de trabajo más fluida gracias a la visualiza-
un gran indicador de lo que la organización considera ción del trabajo por fases).
importante. La organización puede medir una variedad
de métricas de salud de departamentos, procesos y
proyectos.

Además, hay que encuestar a los interesados y averiguar


qué es lo que más les frustra. Por ejemplo, una cadena
hotelera mide la disponibilidad de habitaciones, o un
restaurante mide la disponibilidad de mesas. El ML puede
predecir las reservas futuras basándose en las pasadas.
Sin embargo, el ML más valioso es el que disminuye la
disponibilidad.
Machine Learning

68
Machine Learning

FUTURO

El futuro del aprendizaje automático es excepcionalmen- tado, el aprendizaje automático se convierte en la mayor
te emocionante. En la actualidad, casi todos los ámbitos bendición de la IA para la humanidad, para la realización
comunes se nutren de aplicaciones de aprendizaje efectiva de los objetivos. Por otra parte, las técnicas de
automático. Por nombrar algunos de ellos: la sanidad, los máquinas autodidactas han cambiado considerablemen-
motores de búsqueda, el marketing digital y la educa- te las pautas de empleo de las grandes empresas.
ción, son los principales beneficiarios.
Últimamente, los vehículos automáticos autodirigidos,
Parece prácticamente imposible trabajar en un dominio los ayudantes computarizados, los miembros del per-
desprovisto de esta nueva tecnología para lograr los sonal mecánico, los robots y las áreas urbanas inteli-
resultados previstos de forma eficiente. El aprendizaje gentes han demostrado que las máquinas inteligentes
automático podría ser un mérito para una empresa o una son concebibles y podrían dar resultados tentadores. 69
organización, ya sea una multinacional o una empresa La inteligencia simulada a semejanza de la mente y el
privada, ya que las tareas que aún se realizan de forma cerebro humano ha cambiado la mayoría de las áreas
manual serán ejecutadas en su totalidad por las máqui- industriales, como el comercio minorista, la producción,
nas, en el futuro. la construcción, la contabilidad, los servicios médicos,
los medios de comunicación y la ingeniería. Y sigue ocu-
Según Gartner, la institución líder mundial en inves- pando nuevas regiones con un vigor cada vez mayor. Las
tigación, asesoramiento y consultoría, el aprendizaje cinco áreas están pensadas como avances futuristas del
automático es recordado por casi todas las últimas ten- aprendizaje automático.
dencias y patrones encontrados en los círculos literarios.
El aprendizaje automático está preparado para cambiar Una de las apuestas para el futuro cercano en este cam-
nuestras vidas de una manera que era imposible déca- po es la computación cuántica. Por ahora no hay aplica-
das atrás. En su resumen de los 10 principales patrones ciones de hardware o algoritmos cuánticos listos para su
de innovación, Gartner afirma que el razonamiento comercialización. Sin embargo, para hacerla despegar,
computarizado y las nuevas técnicas de ML han llegado varias agencias gubernamentales, instituciones acadé-
a un punto de inflexión básico y aumentarán y ampliarán micas y grupos de reflexión, han invertido millones.
progresivamente a todos los efectos cada asistencia,
cosa o aplicación, potenciada por la innovación. La crea- La introducción de la computación cuántica en el apren-
ción de marcos inteligentes avanzados que aprendan, se dizaje automático cambiaría por completo este campo,
ajusten y posiblemente actúen de forma autosuficiente, ya que asistimos a un procesamiento instantáneo, a un
en lugar de limitarse a ejecutar directrices predefinidas, aprendizaje rápido, a una ampliación y mejora de las ca-
es fundamentalmente un hito para los comerciantes de pacidades. Esto implica que en una pequeña fracción de
innovación y los proveedores de tecnología. tiempo, se podrán resolver cuestiones complicadas que
no podemos abordar con los métodos convencionales y
Durante el tiempo de la post-industrialización, los indi- las tecnologías existentes.
viduos han intentado hacer una máquina que actúe y
haga cada actividad igual que un humano. Como resul- ¿Te gustaría ser parte de esto?
(IV)Deep
Learning

Los ordenadores se acercan cada vez más al


funcionamiento del cerebro humano, e incluso en
ciertos aspectos, lo superan.
Pero, ¿cuáles son las ventajas y desventajas de
que aprendan por sí mismos y sean capaces de
tomar decisiones de manera autónoma?

POR JESÚS PRADA


Deep Learning

QUÉ ES?
?

El concepto de aprendizaje profundo, o Deep Learning Sin embargo, la denominación DL también se ha utilizado
(DL por sus siglas en inglés), ha tenido diferentes inter- para referirse a cualquier tipo de marco de modelos de
pretaciones en los últimos años. A menudo DL se emplea Aprendizaje Automático que consista en un esquema de
simplemente para referirse a un subconjunto específico entrenamiento con varias capas de optimización, cada
de Redes Neuronales Artificiales (o ANN por sus siglas en una de las cuales afecta al resultado del modelo final. Un
inglés), una familia de modelos de Aprendizaje Auto- ejemplo de ello son las Deep Belief Networks, un tipo de 72
mático, o Machine Learning (ML), que pueden utilizarse modelos de Aprendizaje Automático que se utiliza para
tanto para tareas de clasificación como de regresión. En el aprendizaje no supervisado y se basa en múltiples
concreto, se utiliza para denominar a las ANN con un gran capas, que presentan diferencias significativas respecto
número de lo que se denominan capas ocultas. Ahora al esquema estándar de una ANN, que hemos descrito
bien, ¿estás dispuesto a entrar en detalle en este mun- anteriormente.
do? Te contaremos lo esencial que debes saber.
No obstante, es cierto que el vínculo entre DL y las ANN
Un modelo de ANN está formado por un conjunto de profundas es fuerte y casi omnipresente en la actuali-
unidades conectadas llamadas neuronas, donde la salida dad. Probablemente han influido en ello varios factores,
de cada neurona se calcula mediante alguna función no entre ellos, el hecho de que el esquema de las ANN se
lineal, llamada función de activación, aplicada a la suma adapta casi a la perfección al concepto de Aprendi-
ponderada de sus entradas. Las conexiones neuronales zaje Profundo, y que algunos de los primeros avances
tienen pesos o coeficientes asociados, por lo que las pioneros en DL corresponden en efecto a este tipo de
activaciones de distintas neuronas pueden tener mayor estructuras.
impacto que otras.

Las neuronas de una capa pueden conectarse a neuro-


nas de las capas anterior y posterior. La capa que recibe
los datos externos es la capa de entrada y la última capa,
la que produce el resultado final, es la de salida. Entre
las de entrada y salida hay cero o más capas ocultas.
Cuando el número de estas capas ocultas es grande, se
habla de Redes Neuronales Artificiales Profundas. ¿Qué
tal esa explicación? Sabemos que no es tan simple de
comprender, así que te mostraremos un ejemplo de este
tipo de modelos (1).
Deep Learning

73

(1) Ejemplo de algoritmo K-Means


Deep Learning

Teniendo en cuenta lo anterior, debemos tener claro que, Potencial Predictivo


aunque a menudo se considera un campo independien-
te, el Aprendizaje Profundo no es ni más ni menos que Hoy en día se dispone de conjuntos de datos cada vez
otra familia de modelos de Aprendizaje Automático. Sin más grandes para su uso en el entrenamiento de mode-
embargo, es una familia de modelos con algunas propie- los de ML. Con el fin de aprovechar al máximo la informa-
dades extremadamente relevantes, destacando las dos ción y el potencial predictivo de estos grandes conjuntos
siguientes: de datos, es necesario utilizar métodos complejos,
capaces de extraer la máxima información posible de
estos datos. Las máquinas de vectores soporte, son uno
de los modelos más complejos entre todas las familias
estándar de modelos de ML, y esa es la razón principal 74
de su dominio en el pasado durante un largo periodo de
tiempo. Sin embargo, presentan importantes problemas
de escalabilidad cuando se trabaja con grandes volúme-
nes de datos.

Con el auge de los marcos de Deep Learning se ha


demostrado que estos modelos DL son capaces de
lograr un rendimiento superior cuando se entrenan con
conjuntos de datos que son suficientemente grandes.
Este hecho es probablemente el principal factor por el
que esta familia de modelos se está convirtiendo en la
elección preferida para resolver una gran variedad de
tareas de aprendizaje supervisado.
Deep Learning

Aprendizaje de extremo
a extremo
En un proyecto de ML estándar, una de las etapas princi- Cuando se utilizan marcos DL, este proceso de múltiples
pales a llevar a cabo es el pre-procesamiento de datos. etapas puede sustituirse directamente por el entrena-
Esta etapa incluye varios pasos, entre ellos lo que suele miento de una Red Neuronal Profunda, lo que permite
denominarse feature engineering, es decir, la creación introducir el clip de audio y obtener directamente la
y selección de variables a usar como valores de entrada transcripción como salida. Sin embargo, es importante
del modelo predictivo. señalar que uno de los retos de la DL de extremo a extre-
mo, es que normalmente se necesitan grandes volúme- 75
Sin embargo, debido a la naturaleza específica de los nes de datos antes de que funcione de forma compara-
marcos de Aprendizaje Profundo, que constan de varias ble a los marcos clásicos de ML con múltiples pasos de
capas que llevan a cabo tareas intermedias necesarias preprocesado, e incluso mayores para poder superar el
para resolver problemas de ML, estos pasos de preproce- rendimiento de sus homólogos.
sado pueden dejar de ser necesarios al aplicar modelos
de DL. Esta propiedad suele denominarse aprendizaje
end-to-end y permite a los investigadores y científicos
de datos evitar pasos complejos y lentos que antes eran
necesarios y que habitualmente requerían de la ayuda
de expertos humanos en el campo correspondiente a la
tarea en cuestión.

Un ejemplo ilustrativo puede encontrarse en el recono-


cimiento de voz, donde el objetivo es tomar una entrada,
como un clip de audio, y asignarla a una salida, que sería
una transcripción del clip de audio. Tradicionalmente,
el reconocimiento de voz requería más de una etapa Estas y otras características especiales han hecho de
de procesamiento. Primero había que extraer algunas ca- los modelos de Aprendizaje Profundo una de las técnicas
racterísticas del audio con métodos de preprocesamien- más populares en los últimos años dentro del campo del
to, como los Coeficientes Cepstrales en las Frecuencias Aprendizaje Automático y, en general, de la Inteligencia
de Mel o MFCCs, que son coeficientes para la repre- Artificial. En particular, este tipo de modelos se ha con-
sentación del habla basados en la percepción auditiva vertido en referencia en problemas en los que se trabaja
humana. Después, una vez extraídas algunas caracte- con datos no estructurados, es decir, datos que no están
rísticas de bajo nivel, se podría aplicar un algoritmo de representados en forma de tablas o estructuras matri-
Aprendizaje Automático para encontrar, por ejemplo, los ciales, como por ejemplo el reconocimiento de imágenes
fonemas básicos del sonido en el clip de audio. o el procesamiento de lenguaje natural.
Deep Learning

NACIMIENTO

1944 2012 76

El primer modelo de red neuronal fue propuesto por En los últimos años la popularidad de los modelos DL ha
primera vez en 1944 por Warren McCullough y Walter aumentado de forma espectacular, debido a la amplia
Pitts. El algoritmo estándar de backpropagation para el disponibilidad de potentes instalaciones informáticas y
cálculo del gradiente durante el entrenamiento de los a los avances en los fundamentos teóricos de los MLP.
modelos básicos de ANN, de una sola capa, fue estable- Especialmente a partir del año 2012, gracias al trabajo de
cido por Frank Rosenblatt en 1958. Por otro lado, la teoría autores como Hinton, Bengio y LeCun, por varias mejoras
básica correspondiente al perceptrón multicapa, o MLP en sus procedimientos de entrenamiento y una mejor
por sus siglas en inglés, la estructura de Deep Learning comprensión de las dificultades relacionadas con las
más estándar, ya estaba bien establecida en los años 80. arquitecturas de muchas capas.
De hecho, pueden considerarse como el primer ejemplo
de algoritmos modernos de aprendizaje automático que Entre los avances, podríamos destacar el desarrollo
podían utilizarse tanto en problemas de regresión como de nuevos métodos de optimización, como Adam, que
de clasificación, con variaciones conceptuales mínimas. han reemplazado a backpropagation como elección
estándar de algoritmo de optimización en modelos DL,
la propuesta de nuevos métodos de inicialización de
Finales 1990 coeficientes, con especial mención a la conocida como
Xavier initialization, o el empleo de nuevas funciones de
Sin embargo, algunos problemas técnicos, debidos activación como la ReLU. A todos estos factores se suma
esencialmente a lagunas de conocimiento sobre el la aparición de múltiples entornos de desarrollo como
entrenamiento de estos modelos, unidos a la falta (en TensorFlow y Keras, ambos en 2015, que han permitido a
aquella época) de la potencia de cálculo necesaria para los usuarios experimentar con diferentes arquitecturas de
manejar grandes volúmenes de datos, provocaron su DL, activaciones no diferenciables, e incluso, funciones de
relativo declive a finales de los 90, y el auge de métodos pérdida no diferenciables.
alternativos, en particular las Máquinas de Vectores
Soporte, para clasificación y regresión.
Deep Learning

“Los modelos DL son


“El primer modelo de red
claramente la opción
neuronal fue propuesto
más recomendable en
por primera vez en 1944
prácticamente cualquier
por Warren McCullough
escenario en el que se empleen
y Walter Pitts.”
datos no estructurados.”

Por otro lado, se ha demostrado que el entrenamiento Las estructuras de DL, por el contrario, no requieren de
de estos modelos es un cálculo en tiempo lineal, lo que esa fase de preprocesado, ya que son las capas iniciales
77
asegura un buen nivel de escalabilidad frente a grandes las que realizarán ese proceso de extracción de patrones
volúmenes de datos. Por último, pero no por ello menos relevantes a ser empleados por las capas posteriores.
importante, se demostró que los modelos DL son capaces Simplificando, el concepto de profundidad en estas
de extraer más poder predictivo que otros marcos estructuras se basa en el hecho de que la estructura del
de ML existentes en esa época, cuando se entrenan modelo debe constar de múltiples capas que representen
con conjuntos de datos suficientemente grandes. el nivel de abstracción, y cada capa debe adaptarse al
Estas características suponen dos de las principales entrenamiento del modelo. Las características de los
necesidades a cubrir que empujaron el auge de las niveles o capas inferiores del modelo, deben combinarse
estructuras de DL: el contar con modelos más escalables progresivamente para formar características de nivel
en términos de coste computacional que las Máquinas superior en las capas posteriores.
de Vectores soporte y que a la vez proporcionaran igual o
mayor potencial predictivo. Como consecuencia de esta aproximación, los modelos
DL sobre datos no estructurados no solo permiten un
A esto hay que añadir otra de las necesidades que enfoque end-to-end, donde no es necesario el empleo
resuelven las estructuras de DL: su aplicación a datos de un preproceso específico de cada área para extraer
no estructurados, como imágenes o audio. Los modelos información en forma de variables estructuradas, sino que
clásicos de ML han demostrado su potencial predictivo han demostrado en múltiples investigaciones proporcionar
desde los años 80 en múltiples áreas y aplicaciones. Sin un mayor potencial predictivo en este tipo de tareas,
embargo, como se describió en la sección anterior, cuando como el reconocimiento de imágenes. Mientras que en los
los datos disponibles no están estructurados, es decir, en problemas que emplean datos estructurados, los modelos
un formato tabular, su uso requiere de un preprocesado DL solo son capaces de sobrepasar el potencial de los
previo que genere una serie de variables a partir de esa modelos ML clásicos cuando se proporcionan grandes
información original no estructurada. Dichas variables se volúmenes de datos, no siendo útil su empleo cuando
estructuran entonces en un formato tabular que pueda las dimensiones no son muy elevadas. Son claramente la
usarse como entrada de los modelos clásicos de ML. opción más recomendable en prácticamente cualquier
escenario en el que se empleen datos no estructurados.
Deep Learning

TIPOS DE ESTRUCTURA

Cuando se trabaja con datos estructurados, la opción


estándar es emplear una Fully Connected Neural Network,
FCNN. Sin embargo, existen distintas estructuras de DL
especializadas en trabajar con distintos tipos de datos no
estructurados, según el problema a resolver:
Deep Learning

Redes Neuronales Convolucionales,


o CNN
Fueron introducidas por primera vez en la década de
1980 por Yann LeCun, un investigador postdoctoral
de informática. Estos modelos están especialmente
diseñados para un funcionamiento óptimo sobre datos
con una estructura espacial, como imágenes. Existen
variaciones de estas estructuras para su uso sobre vídeos.

Redes Neuronales Recurrentes, o RNN


Las redes neuronales recurrentes se basaron en
los trabajos de David Rumelhart en 1986. La famosa 79
arquitectura Long Short-Term Memory, LSTM, que ha sido
durante muchos años una referencia en lo relativo a este
tipo de estructuras, se inventó en 1997. Estos modelos de
DL están especializados en datos temporales, como series
numéricas temporales o tareas de procesamiento de
lenguaje natural (NLP por sus siglas en inglés), como por
ejemplo traducción de un idioma a otro. Pueden emplearse
en combinación con una estructura CNN para su empleo
sobre vídeos.

En resumen, la enorme cantidad de datos de que ya se


dispone y que se prevé que aumente en el futuro, signi-
fica que el Aprendizaje Profundo es la solución óptima
Transformers para muchas tareas de aprendizaje automático, ya que la
mayoría de los demás métodos de aprendizaje automático
Fueron introducidos en 2017 por un equipo de Google Brain aprovechan los datos hasta cierto nivel y luego dejan de
y son cada vez más el modelo de elección para problemas aprender más, además de sufrir de problemas de escalabi-
de NLP, sustituyendo a los modelos de RNN. Además, lidad en algunos casos, como por ejemplo las Máquinas de
aunque inicialmente no se diseñaron con este objetivo, se Vectores Soporte. En segundo lugar, la potencia de cálculo,
ha observado que estas estructuras pueden adaptarse especialmente la computación en la nube, proporciona
a ser empleadas sobre imágenes, donde han mostrado la plataforma para el rápido entrenamiento de modelos
un gran potencial, incluso sobrepasando los resultados de Aprendizaje Profundo. Por último, la investigación o el
obtenidos por las CNNs, la referencia hasta este momento. desarrollo de algoritmos que se está llevando a cabo en el
Sin embargo, su capacidad de reemplazar a las CNNs como ámbito del Deep Learning es ahora fácilmente comercia-
modelo de elección en este tipo de tareas aún requiere de lizable, lo que significa que se invierten más recursos en
una investigación en más profundidad. términos de capital y mano de obra.
Deep Learning

FUNCIONAMIENTO
Existen tres tipos de técnicas de DL:

Aprendizaje supervisado Aprendizaje no supervisado


En el aprendizaje supervisado, la red se alimenta de En el aprendizaje no supervisado, la red recibe datos de
entradas de ejemplo, cada una con su correspondiente entrada no etiquetados; es decir, no existe un target o
etiqueta o target a predecir como salida esperada. Por salida a predecir, y por lo tanto, la red tiene que aprender
ejemplo, la entrada podrían ser ciertas características por sí misma los patrones ocultos de los datos de entra-
de un paciente cuando ingresa al hospital, y la salida o da para producir una salida generalizada. En el aprendi-
etiqueta a predecir, sería si dicho paciente finalmente zaje no supervisado, el modelo o la red tiene como objeti-
padece una determinada patología. El objetivo principal vo encontrar patrones o representaciones en los datos
de este método es obtener un modelo que sea capaz de de entrada. En el Aprendizaje Profundo, las Máquinas de
generalizar la capacidad de predecir cáncer de colon a Boltzmann Restringidas (RBM por sus siglas en inglés),
datos de nuevos pacientes no vistos durante el proceso los autoencoders y las Redes Generativas Adversarias 80
de entrenamiento. En esta área incluiríamos distintas es- (GANs por sus siglas en inglés), son algunos ejemplos de
tructuras DL según el tipo de datos de entrada emplea- técnicas no supervisadas.
dos, como por ejemplo FCNN para datos tabulares, CNN
para imágenes, RNN para series temporales, y Transfor-
mers para texto en lenguaje natural. Aprendizaje por refuerzo
En el aprendizaje por refuerzo, el agente alcanza el
objetivo interactuando con su entorno. Aunque el agente
no tiene un conocimiento exacto del objetivo o salida
óptima, cuenta con una función de recompensa cuyo
valor depende de las acciones llevadas a cabo. De esta
manera, el algoritmo aprenderá a realizar las acciones
que maximizan la recompensa y así alcanzar el objetivo.
Un ejemplo de aprendizaje por refuerzo sería la creación
de un jugador de ajedrez artificial basado en técnicas de
ML, donde la función de recompensa será mayor cuando
las acciones impliquen la victoria del jugador artificial,
pudiendo dar mayores recompensas cuando las victorias
sean por mayor margen.

De este modo, los modelos de aprendizaje por refuerzo


aprenderán a realizar los movimientos de ajedrez que
hayan llevado a victorias, cuánto más claros mejor, en las
partidas empleadas para entrenar al modelo. El Aprendi-
zaje Profundo por Refuerzo, DRL por sus siglas en inglés,
es la técnica de aprendizaje por refuerzo del DL.
Por motivos de espacio, nos centraremos aquí en la precedentes, que también tienen un impacto en la salida
descripción técnica de la versión fully connected de las resultante, y por lo tanto este proceso de optimización
81
Redes Neuronales Profundas, la estructura de Aprendi- tendrá un efecto lejos de ser óptimo.
zaje Profundo empleada en problemas estándar donde
se trabaja con datos tabulares. Sin embargo, como se co- Por lo tanto, necesitamos un algoritmo para propagar ha-
mentó anteriormente, es importante tener en mente que cia atrás el error de las unidades en la capa de salida a las
existen estructuras de Deep Learning especializadas en unidades en las capas anteriores. Este algoritmo se llama
problemas de reconocimiento de imágenes, como las Re- backpropagation y se utiliza para optimizar las ANN.
des Neuronales Convolucionales, o CNNs por sus siglas
en inglés, series temporales, como las Redes Neuronales El objetivo del método de backpropagation es poder ex-
Recurrentes, o RNN, y en tareas de Procesamiento del tender el descenso de gradiente a todas las capas de la
Lenguaje Natural, como los llamados Transformers. red. En backpropagation se define el error generalizado
asociado a una unidad oculta como una media pondera-
En las FCNN, dada una muestra de entrenamiento y un da de los errores de las unidades de la capa adyacente.
target o etiqueta a predecir, una ANN calculará todas De este modo, mediante backpropagation podemos
las funciones de activación, desde la capa de entrada calcular el error de las unidades de salida, luego el error
hasta la capa de salida, obteniendo como resultado una generalizado de las unidades de la última capa oculta,
predicción final. A esto lo llamamos paso hacia delante o y sucesivamente, los de todas las capas ocultas ante-
forward pass. riores. Esto se denomina paso hacia atrás o backward
pass y permite la posibilidad de optimización de las ANN,
Una vez realizado este forward pass, podemos calcu- incluidas sus versiones profundas como las FCNN.
lar un error entre su salida y el target o etiqueta real,
utilizando la función de error seleccionada. Utilizando En la actualidad existen modificaciones y mejoras del
la técnica de descenso por gradiente sobre este error, algoritmo de optimización de descenso por gradiente,
se podrían obtener nuevos valores para los pesos de como el método de optimización Adam comentado ante-
las unidades de la capa de salida, para intentar mejorar riormente, pero la intuición detrás de su funcionamiento
su predicción. Sin embargo, esto solo modificaría los es muy similar a la explicada aquí para la estructura
pesos de la capa de salida y no los de todas las capas clásica basada en descenso por gradiente.
Deep Learning

BENEFICIOS
EMPRESARIALES

Algunas de las áreas de aplicación de éxito del Deep En la actualidad es difícil pensar un área en que no se
Learning son las siguientes: pueda encontrar una problemática en la que aplicar
técnicas de ML, y en concreto, en la que DL no pueda
1. Imágenes: Reconocimiento facial de imágenes, proporcionar claros beneficios empresariales. Dichos
búsqueda de imágenes, visión artificial, creación de beneficios pueden ser de varios tipos:
imágenes artificiales.

2. Texto: Análisis de texto-sentimiento, búsqueda Ahorro de costes 82


aumentada, traducción de un idioma a otro, ayuda
a la programación, chatbots, generación de textos Las técnicas de DL se pueden aplicar para optimizar
automáticos. procesos reduciendo costes, como por ejemplo encon-
trar la ruta de transporte óptima para evitar pérdidas
3. Series temporales: Detección de riesgos, predicción monetarias indeseadas, o a través de la creación de
meteorológica, análisis económico. modelos que detecten las transacciones fraudulentas en
un e-commerce.
4. Audio: Detección de sonido-voz, reconocimiento de
hablantes, análisis de sentimientos.
Optimización de ingresos
5. Vídeo: Detección de vídeo-movimiento, detección de
amenazas en tiempo real. También se pueden aumentar los beneficios de una
empresa mediante el uso de DL atacando a la otra rama
El número de sectores donde el Aprendizaje Profundo ha económica, los ingresos. Existen múltiples ejemplos del
proporcionado beneficios empresariales crece día a día uso de DL para aumentar los ingresos de una compa-
y se espera que vaya a transformar muchas industrias. ñía, que van desde la estimación del precio óptimo de
En algunas de ellas ya lo ha hecho, así como la sociedad un producto, que será aquel que maximice el producto,
misma, a través de desarrollos en la asistencia sanita- multiplicando la probabilidad de compra, dado un precio
ria, la educación y los negocios. El Deep Learning se ha por el ingreso obtenido al aplicar ese precio, hasta la
aplicado en campos como la bioinformática, medicina, recomendación de los productos de mayor interés para
información espacial y predicción meteorológica, educa- un potencial cliente. O por ejemplo, mediante webs
ción, tráfico y transporte, agricultura, robótica y juegos. personalizadas como es el caso de Netflix, o a través de
Y también se ha aplicado ampliamente en redes móviles diferentes campañas de marketing, como puede ser el
e inalámbricas, la clasificación del tráfico, la minería de caso de las campañas de descuentos por email llevadas
registros detallados de llamadas y la calidad de la expe- a cabo por algunas aerolíneas.
riencia, así como en la asistencia a la programación.
Deep Learning

Mejora del producto/servicio Seguridad


En las tareas indicadas en los dos puntos anteriores, los La seguridad de una empresa, especialmente todo
beneficios empresariales obtenidos mediante la aplica- lo relacionado con la ciberseguridad, también puede
ción de técnicas de DL pueden traducirse de una forma verse mejorada mediante el empleo de DL. Por ejemplo,
directa en ganancia monetaria. Sin embargo, esto no algoritmos de reconocimiento facial basados en CNNs
ocurre con la mayoría de las aplicaciones de DL, donde pueden emplearse para controlar el acceso y salida de la
el objetivo es la mejora del producto o servicio ofrecido oficina. En cuanto a la ciberseguridad, las aplicaciones
a los clientes o usado internamente para la mejora del son varias:
funcionamiento de una empresa. Estas aplicaciones
también tienen un impacto positivo en la empresa, la DETECCIÓN de virus y DEFENSA frente a distintos tipos
mayoría llevando también a mayores beneficios, pero en de ataques cibernéticos.
muchos casos la cuantificación de dicha ganancia no
es directa o sencilla. Ejemplos de este tipo de usos de DETECCIÓN DE ANOMALÍAS en los accesos y peticio- 83
los modelos de DL son el reconocimiento facial llevado a nes realizados a una e-commerce, que pueden implicar
cabo para desbloquear un smartphone, la creación de un accesos realizados de forma automática con efectos
chatbot asistencial automático en la app y/o web de un perniciosos para la empresa. Ya sea de forma intencio-
e-commerce, o el desarrollo de un servicio que permite nada, como los llevados a cabo por hackers, o de forma
traducir textos de un idioma a otro de forma automática indirecta como el llevado a cabo mediante web scrapping
en un editor de texto. (técnicas que simulan la navegación de un humano con
el objetivo de extraer información de sitios web).

Mejora del entorno laboral


En la actualidad muchas empresas están llevando a cabo
acciones para mejorar la calidad del entorno laboral y la
salud, tanto física como mental, del trabajador. En este
campo, los métodos de DL también pueden proporcio- Los ejemplos descritos anteriormente no pretenden
nar beneficios significativos. Por ejemplo, se pueden ser una lista exhaustiva de las posibles aplicaciones
entrenar modelos de DL para predecir la probabilidad que pueden proporcionar beneficios a una empresa,
de un trabajador de poder sufrir burnout o agotamiento ya que esto es ilimitado. Sin embargo, proporcionan un
laboral en el futuro, permitiendo llevar a cabo acciones contexto variado que da una perspectiva global de las
preventivas. También puede emplearse para detectar posibles aplicaciones de DL en el mundo empresarial. En
posturas incorrectas y proporcionar alertas automáticas cualquier caso, no debemos perder de vista que este es
cuando el trabajador lleve demasiado tiempo sin realizar solo un subconjunto del panorama completo, y conviene
descanso. Más allá de la salud del trabajador, también tener en mente que prácticamente en cualquier área
podrían ofrecerse formaciones personalizadas según los empresarial un especialista en técnicas de ML y DL podrá
conocimientos e intereses de cada trabajador median- proponer aplicaciones de estas técnicas para la mejora
te sistemas de recomendación entrenados mediante del desempeño y consecución de los objetivos de una
modelos de DL. empresa.
Deep Learning

DESAFÍOS SOCIALES

En las secciones anteriores nos hemos centrado en los área de aplicación, sino por la causa de este tipo de
múltiples beneficios, tanto puramente empresariales sesgos. Es importante clarificar aquí que el sesgo no pro-
como globales para el conjunto de la sociedad, que viene de las tecnologías de DL en sí mismas, sino de los
puede tener la aplicación de técnicas de DL en distintas datos empleados para entrenar dichos modelos. Estos
áreas. Sin embargo, no debemos olvidar que como toda datos pueden estar sesgados, bien por la forma en la que
revolución tecnológica, el auge del ML (incluyendo las fueron recolectados y seleccionados, o bien por reflejar
técnicas de Aprendizaje Profundo), también conlleva una sesgos que ya existen en la sociedad, como puede ocu-
serie de desafíos sociales. Aunque dichos problemas po- rrir por ejemplo cuando se obtienen datos directamente
tenciales no nacen de la tecnología en sí misma, sino del de redes sociales.
uso humano dado a las mismas, como puede ocurrir con 84
otras tecnologías disruptivas como internet o las redes El problema del sesgo en los modelos de DL, si bien
sociales, conviene tenerlas en cuenta para minimizar su puede tener un impacto negativo, puede ser detectado,
posible impacto negativo. mediante un análisis del funcionamiento del modelo para
distintos grupos poblacionales, así como solucionado
En primer lugar, tenemos el potencial problema de crear mediante una correcta selección del dataset de entrena-
aplicaciones basadas en DL que tomen decisiones con miento a emplear.
un bias o sesgo. Este sesgo implicaría que nuestro
modelo dé predicciones con un ajuste mucho menor El problema de los modelos con sesgo suele ser un
para determinados grupos de población. Este efecto efecto no intencionado. Sin embargo, existen también
puede ser especialmente dañino cuando se trata de desafíos sociales relacionados con un uso inadecua-
aplicaciones críticas, como las empleadas para la ayuda do voluntario de estas tecnologías. Cobran especial
a la decisión clínica en hospitales, o para los grupos de relevancia aquí el empleo de aplicaciones de DL en las
población discriminados. Existen múltiples ejemplos de redes sociales, donde estas tecnologías pueden con-
aplicaciones que han sufrido de esta problemática, sien- tribuir a aumentar exponencialmente el impacto de dos
do famoso el empleo en E.E.U.U. de técnicas de ML en un fenómenos ya existentes. Por un lado, el uso abusivo
modelo que estimaba la probabilidad de un delincuente de este tipo de algoritmos para maximizar el tiempo de
de reincidir, para ayudar a la decisión de si proporcionar permanencia en estas aplicaciones, incluyendo el uso de
libertad condicional o no, y que mostró un claro sesgo clickbait o recomendaciones personalizadas para atraer
negativo no justificado hacia la población afroamericana la atención del usuario sin prestar atención al beneficio
debido a un error en la elección de los datos de entrena- de este, que puede dar lugar a comportamientos que
miento del modelo. han sido definidos por expertos como un nuevo tipo de
adicción. Por otro lado, el auge de las fake news se ha
Este ejemplo es bastante interesante porque muestra, visto ayudado por el empleo de estas tecnologías y con-
no solo que las implicaciones de un problema de sesgo tribuye a una sociedad más desinformada, habiendo sido
en este tipo de aplicaciones pueden tener un impacto por ejemplo estudiado su impacto en diversos procesos
negativo de gran entidad sobre el ciudadano según el electorales.
Deep Learning

85

Por último, hemos de mencionar también como un impor-


tante desafío social ligado al empleo de técnicas de DL,
aunque no exclusivo de las mismas, el uso inapropiado
de datos personales. En este aspecto entran en juego
aspectos esenciales como el consentimiento del usuario
para que sus datos sean empleados, la anonimización
de los datos personales, etc. Haremos mención a estos
factores en la siguiente sección, dedicada a los aspectos
legales y éticos de las técnicas de Aprendizaje Profundo.
Deep Learning

ÉTICA Y
LEGALIDAD

Existen actualmente distintas regulaciones que afec- Es interesante indicar que el GDPR contiene un apartado
tan, directa o indirectamente, al empleo de técnicas de que afecta de forma directa a las aplicaciones de ML, in-
Aprendizaje Profundo. En primer lugar, podemos hacer cluido el uso de técnicas de DL. Este reglamento cuenta
mención a la General Data Protection Regulation, RGPD, con el Considerando 71, que proporciona el derecho a
un reglamento de la Unión Europea sobre protección de una explicación sobre la toma de decisiones automatiza-
datos y privacidad en la Unión Europea, UE, y el Espacio das de la Directiva de Protección de Datos de 1995. 86
Económico Europeo, EEE. El RGPD es un componente im- Esto es:
portante de la legislación sobre privacidad de la UE y de
la legislación sobre derechos humanos. También aborda
la transferencia de datos personales fuera de la UE y de
“El interesado debe tener derecho a no
las zonas del EEE. ser objeto de una decisión, que puede
incluir una medida, que evalúe aspectos
El objetivo principal del RGPD es mejorar el control y los personales relativos a él, y que se base
derechos de las personas sobre sus datos personales y
únicamente en el tratamiento automatizado
simplificar el entorno normativo para las empresas inter-
nacionales. Este reglamento, que sustituye a la Directiva
y produzca efectos jurídicos en él o le
95/46/CE sobre protección de datos, contiene disposi- afecte significativamente de modo similar,
ciones y requisitos relacionados con el tratamiento de como la denegación automática de una
los datos personales de quienes se encuentran en el solicitud de crédito en línea o los servicios
EEE, y se aplica a cualquier empresa, independientemen-
de contratación en red en los que no medie
te de su ubicación y de la ciudadanía o residencia de las
personas afectadas, que procese información personal
intervención humana alguna.”
de personas dentro del EEE.
“En cualquier caso, dicho tratamiento debe
estar sujeto a las garantías apropiadas,
entre las que se debe incluir la información
específica al interesado y el derecho a
obtener intervención humana, a expresar
su punto de vista, a recibir una explicación
de la decisión tomada después de tal
evaluación y a impugnar la decisión.”
Deep Learning

ley orgánica aprobada por las Cortes Generales que


“Se impidan, entre otras cosas, efectos
tiene por objeto adaptar el derecho interno español al
discriminatorios en las personas físicas por Reglamento General de Protección de Datos. Esta ley
motivos de raza u origen étnico, opiniones orgánica sustituye a la anterior Ley Orgánica 15/1999
políticas, religión o creencias, afiliación de Protección de Datos de Carácter Personal, conocida
sindical, condición genética o estado de como LOPD.
87
salud u orientación sexual, o que den lugar
Por último, es importante mencionar que el empleo de
a medidas que produzcan tal efecto.” técnicas de ML y DL en el ámbito sanitario cuenta con
su propia regulación, incluida como parte de la Medical
Sin embargo, la medida en que estos reglamentos esta- Device Regulation, MDR, de la Unión Europea. Según
blecen un “derecho a explicación” es objeto de un intenso esta regulación, cuando una aplicación de DL realiza una
debate. Por un lado, existen importantes problemas acción sobre los datos distinta del almacenamiento, el
jurídicos, ya que los considerandos no son vinculantes y el archivo, la comunicación o la búsqueda, y el objetivo es el
derecho a una explicación no se menciona en los artícu- diagnóstico, la prevención, el seguimiento, la predicción,
los vinculantes del texto, ya que se eliminaron durante el el pronóstico, el tratamiento o el alivio de una enferme-
proceso legislativo. Además, existen importantes res- dad, dicha aplicación debe considerarse un dispositivo
tricciones sobre los tipos de decisiones automatizadas médico y ajustarse a lo establecido en dicha regulación.
que están cubiertas, que deben basarse “únicamente” en
el tratamiento automatizado y tener efectos jurídicos o Todas estas aplicaciones requerirán de la obtención de
similares, lo que limita significativamente la gama de sis- un Certificado Europeo, CE, otorgado por organizacio-
temas y decisiones automatizados a los que se aplicaría el nes externas conocidas como organismos notificados.
derecho. En particular, dicha regulación indica distintos tipos de
criticidad, que implicarán tener que pasar por procesos
El RGPD se adoptó el 14 de abril de 2016 y entró en vigor de validación más o menos exigentes.
a partir del 25 de mayo de 2018. Como el RGPD es un re-
glamento, no una directiva, es directamente vinculante y Sin embargo, es importante recalcar que la ley no exige
aplicable, y ofrece flexibilidad para que los Estados miem- el certificado CE para los productos a medida, y los pro-
bros adapten determinados aspectos del reglamento. ductos destinados a la investigación clínica.
Este es el caso de España, donde la Ley Orgánica 3/2018,
de 5 de diciembre, de Protección de Datos Personales
y garantía de los derechos digitales, LOPD-GDD, es una
Deep Learning

BUENAS PRÁCTICAS

Mejora de la atención sanitaria


El uso de modelos de Aprendizaje Profundo para resolver
tareas de reconocimiento de imágenes tiene un gran
potencial en el mundo sanitario. Por ejemplo, se pueden
aplicar modelos de este tipo para el diagnóstico precoz
de enfermedades, estimar la prognosis de un paciente, o
localizar áreas de interés en distintas pruebas de imagen
médica.

Extracción de interpretabilidad
Se suele decir, erróneamente, que los modelos de Apren-
dizaje Profundo, y en general los modelos de ML, son una
“caja negra”. Se sabe lo que entra y lo que sale, pero no
lo que pasa entre medias. Sin embargo, la extracción de
interpretabilidad en este tipo de modelos es una línea
de investigación muy popular y ya se han desarrolla-
do algunos algoritmos que han mostrado muy buenos
resultados en distintas aplicaciones. Esta extracción de
interpretabilidad puede ayudarnos a crear modelos con
menos dudas a nivel ético y a generar una mayor con-
fianza por parte de la población general.
Deep Learning

MALAS PR CTICAS

Uso de datos sesgados


Entrenar modelos con datasets que solo representen
a un subconjunto de la población puede dar lugar a
modelos con un sesgo indeseado, cuyo rendimiento
sea muy inferior para determinados grupos o minorías
poblacionales. Diversos estudios han demostrado que,
por ejemplo, esto era un problema en múltiples aplica- 89
ciones de Aprendizaje Profundo para el mundo sanitario,
dado que se habían utilizado conjuntos de datos con una
sobrerrepresentación de pacientes caucásicos.

Modelos no equitativos
Ya sea por el empleo de datos sesgados o por otro tipo
de problemas en la creación de los modelos de Deep
Learning, las predicciones dadas por estos modelos pue-
den mostrar distintos grados de ajuste para diferentes
grupos de poblaciones. Por ejemplo, podemos encon-
trarnos con modelos con un mayor grado de ajuste, y
por tanto más justos en las predicciones dadas para el
género masculino con respecto al femenino. Existen téc-
nicas para evitar este tipo de desajustes, y su aplicación
debe ser contemplada en el diseño de cualquier modelo
de Aprendizaje Profundo.
Deep Learning

FUTURO

El DL tiene actualmente un alto grado de penetración en Es de esperar que esta tendencia se mantenga, y que la
múltiples áreas, desde aplicaciones sanitarias hasta la “competición” entre estas grandes entidades tecnoló-
optimización de ventas en un e-commerce. Las estruc- gicas contribuya al impulso de las técnicas de DL. Esto
turas de Aprendizaje Profundo son actualmente una sin duda tiene implicaciones positivas muy significativas,
referencia en ML, cuando se emplean datos no estructu- ya que hasta ahora el área del Aprendizaje Profundo se
rados, como imágenes, mientras que los conocidos como ha mantenido en un formato abierto, en el que en la gran
modelos de Boosting, son la referencia en la aplicación mayoría de las nuevas estructuras desarrolladas se ha-
de ML a datos tabulares. cen públicos los detalles teóricos y en muchos casos se
proporcionan librerías que permiten el empleo y entrena-
En los últimos años, los grandes avances en DL han miento de dichos modelos.
estado dominados por su aplicación sobre imágenes,
en primer lugar, y por aplicaciones de procesamiento de Sin embargo, esto último no siempre es así, como el re-
lenguaje natural, tras la aparición de los Transformers en ciente caso de OpenAI con GPT-3, que optó por publicar 90
2017. Este tipo de estructuras ha revolucionado el mundo un artículo científico con detalles teóricos, pero no el
de las aplicaciones de Aprendizaje Automático en NLP, algoritmo propiamente dicho, lo cual ha sido criticado
desde la traducción de texto, la creación de chatbots afirmándose que va en contra de principios científicos
o la generación automática de texto realista. Aunque básicos y hace que las afirmaciones de la empresa sean
no creados inicialmente con ese objetivo, los Transfor- más difíciles de verificar. La justificación de OpenAI para
mers han empezado también recientemente a mostrar tomar esta decisión es, en primer lugar, que esta aplica-
su utilidad en aplicaciones sobre imágenes, donde las ción es demasiado peligrosa para ser difundida, debido
CNNs eran la clara referencia, hasta la irrupción de estas a su capacidad potencial para generar desinformación o
nuevas estructuras. noticias falsas. Por otro lado, también afirmaron que los
algoritmos son demasiado grandes y caros de ejecutar.
La aparición de estructuras de Transformers de gran
complejidad, lideradas por grandes entidades como Goo- Más allá de si estas razones son la verdadera causa de-
gle (BERT), OpenAI (GPT-2/GPT-3), Facebook (RoBERTa) trás de la decisión tomada por OpenAI o es una manera
y Microsoft (DeBERTa), ha empujado no solo el alcance e de justificar una decisión basada únicamente en objeti-
impacto de la aplicación de este tipo de tecnologías, sino vos de negocio y monetización, ya que los servicios son
también su difusión a gran escala; incluso entre segmen- ofrecidos a través de una API de pago, este caso parti-
tos de la población no especializada en el sector. Esto es cular plantea un interesante debate sobre dos posibles
un factor nada desdeñable, que ha contribuido a la po- efectos adversos de la reciente evolución del Aprendiza-
pularidad y desarrollo, aunque quizá también a un cierto je Profundo. Por un lado, tenemos la cada vez mayor pe-
efecto hype asociado, de estas tecnologías. La veloci- ligrosidad de un uso indebido de este tipo de aplicacio-
dad de aparición de nuevas estructuras, sumada a sus nes. Hemos hablado anteriormente de las regulaciones
correspondientes campañas de divulgación y publicidad, que existen actualmente a nivel europeo para proteger
ha alcanzado un ritmo y ha generado un volumen de de este uso indebido, pero, además de existir regiones
noticias inusitado, incluso dentro del campo del Machine con una menor protección regulatoria, es difícil no tener
Learning, un área que ya destacaba en ambos factores. la impresión de que estas regulaciones no evolucionan a
la misma velocidad vertiginosa que las tecnologías.
Deep Learning

Las estructuras de Aprendizaje Profundo son


actualmente el claro estado del arte en ML
cuando se emplean datos no estructurados,
como imágenes, mientras que los conocidos
como modelos de Boosting, son la referencia
en la aplicación de ML a datos tabulares.

91
Deep Learning

Por otro lado, los recientes avances en estas tecnologías para cualquier problema relacionado con NLP tiene un
se están basando en gran parte en el principio de que gran potencial, pero de momento parece que sigue sien-
“cuanto más grande, mejor”. Esto es en el sentido de que, do necesario una especialización de dichos algoritmos
en buena medida, la evolución se está centrando en usar para resolver de manera adecuada ciertos problemas
tecnologías similares, pero en mayores estructuras de concretos.
computación. Lo que permite entrenar modelos con más
datos y más unidades de aprendizaje; y esto nos lleva Si los algoritmos se hicieran públicos, este proceso de
a otro debate: ¿Está el enfoque actual amenazando la especialización de un modelo general a otro específi-
“democratización” de la inteligencia artificial (una idea co podría realizarse mediante un conjunto de técnicas
según la cual el acceso a la Inteligencia Artificial debería llamadas Transfer Learning, sobre un conjunto de datos
estar al alcance de cualquiera)? etiquetados ajustados al problema concreto a resolver,
aunque solo por aquellos que dispusieran de la capaci- 92
Esta democratización implica el acceso a la potencia de dad de computación necesaria. Pero esto se hace impo-
cálculo, los conjuntos de datos y los propios algoritmos. sible cuando solo se puede acceder a la funcionalidad a
Los marcos de código abierto facilitan la creación y el través de una API.
intercambio de algoritmos, y existen muchos conjuntos
de datos de código abierto. Pero la potencia de cálculo Por otro lado, es interesante hacer hincapié en una apli-
procede del hardware, un recurso físico limitado al que cación de DL dentro del NLP: La generación automática
pueden acceder sobre todo grandes empresas y orga- de código. Un ejemplo de ello es Copilot, integrado en
nizaciones bien financiadas. Incluso aunque OpenAI GitHub. Más allá del acierto conseguido por esta herra-
hubiera decidido hacer público su código, solo grandes mienta, la sola posibilidad de crear una aplicación que
entidades que tuvieran acceso a enormes capacidades es capaz de generar código de forma automática podría
de computación habrían sido capaces de usarlo. Si los abrir las puertas a nuevos horizontes teóricos que,
experimentos de OpenAI resultan ser el camino a seguir, aunque lejanos, hasta ahora eran directamente irreali-
y algoritmos más grandes se traducen en un mayor zables. En concreto, estamos hablando del concepto de
rendimiento, entonces el DL de vanguardia se vuelve singularidad, que define un punto en el que un agente
inaccesible para quienes no pueden permitírsela. inteligente mejorable acabará entrando en un proceso
de ciclos de autosuperación, apareciendo cada vez más
Sin embargo, conviene indicar que no todos los expertos rápidamente una nueva generación más inteligente.
están convencidos de que “el método más grande es
mejor” sea lo correcto. Aunque GPT-3 obtuvo buenos En el momento en el que se crea un algoritmo capaz de
resultados en muchas pruebas, se ha descubierto que programar, se abre la puerta, aunque lejana y solo a nivel
no era capaz de captar algunos conceptos sencillos que teórico, de crear un algoritmo que aprendiera a crear
otros algoritmos dominan desde hace décadas, como es mejores versiones de sí mismo. Aún suena algo muy dis-
el caso de una prueba de “imitación”, en la que se pedía tante, pero es la primera vez que esta posibilidad se abre
al algoritmo que identifique patrones en la forma de a nivel teórico y que incluso ha empezado a ser discutida
cambiar determinadas series de letras. La creación de en algunos artículos académicos.
modelos gigantes que intentan usarse de forma general
(V)Data
Science

Es cierto que en un mercado tan competitivo,


aquellos que puedan entender a las personas
y sus necesidades, serán capaces de tomar las
mejores decisiones para sus negocios.
Pero, ¿realmente es posible lograrlo todo a partir
de los datos?

POR ESPARTACO CAMERO


Data Science

QUÉ ES?
?

95
Data Science es un campo muy dinámico, pero si tuvié- CONOCIMIENTOS MATEMÁTICOS Y ESTADÍSTICOS,
ramos que definirlo de una manera sencilla, diríamos que para darle valor a esos datos.
es el conjunto de metodologías para trabajar datos en
cualquier forma que se nos presenten (imágenes, clics HERRAMIENTAS para la resolución de problemas
en una página web, transacciones, etc.), y tomar deci- DE NEGOCIO.
siones basadas en ellos. Estas decisiones pueden ser
para entender el pasado, describir el presente o tratar de No es tarea sencilla conseguir una persona con estas 3
predecir el futuro, siempre con la intención de obtener habilidades. Es por ello que el Data Scientist sea un perfil
valor de los mismos. tan demandado, bien remunerado y que, en ocasiones,
puede llegar a convertirse en un unicornio para muchos
Si bien el Data Science es la intersección de diferentes reclutadores.
disciplinas (1), existen dos tipos de Data Scientist: A y B.

A: ANALYST (ANALISTA): Aquellos que buscan conse-


guir valor e insights en los datos a través de análisis.

B: BUILDING (CONSTRUCTORES): Cuyo foco principal


es la construcción de modelos estadísticos para la reso-
lución de problemas.

Uno de los principales atractivos del científico de datos


es que tiene estas 3 importantes skills:

HABILIDADES TECNOLÓGICAS, ya que deben saber


programar y manipular datos usando herramientas como
Python, R o SQL.
Data Science

MATHS & COMPUTER


STATS SCIENCE

DATA
SCIENCE
96

DOMAIN
KNOWLEDGE

(1) Data Science como actividad multidisciplinaria.


3V
Data Science

NACIMIENTO

97

1962 1990
Aunque el término Data Science empezó a coger auge Posteriormente, durante los años 90 y 2000, se empieza
alrededor de 2012, cuando Tom Davenport y D.J Patil pu- a usar en conferencias, revistas y otros campos como
blicaron en la Harvard Business Review: “Data Scientist: la computación, de la mano del Data Mining, siempre
The Sexiest Job of the 21st Century”, su origen se remon- asociado a la disciplina de usar los datos para generar
ta a 1962 cuando el estadístico John W. Turkey comienza conocimiento e información de valor como se conoce
a comentar sobre el futuro de la estadística como ciencia hoy en día.
empírica en su libro The Future of Data Analysis.

2000
1974
Luego, en 1974, se presenta por primera vez el término Desde la primera década del año 2000, el área de Data
Data Science de la mano de Peter Naur, quien lo definió Science también se ha transformado bastante en fun-
como “La ciencia de tratar con datos, una vez que se han ción de las necesidades y/o cambios de la tecnología.
establecido”. El término venía frecuentemente asociado a lo que se
conoce como Big Data, concepto introducido por Doug
Laney en el 2001, donde se hablaba de las 3 V: Velocidad,
Volumen y Variedad. La primera de ellas hace refe-
rencia a lo rápido que se generaban los datos. Fuentes
como móviles, internet y redes sociales, generaban una
cantidad de datos por segundo nunca antes vista. Esto
ocasionó que se tuvieran que almacenar muchos más
datos que antes: Volumen.
Data Science

Y adicionalmente no eran datos de una sola forma, sino


de muchos tipos: Variedad (imágenes, música, texto,
Actualidad
sensores, entre muchos otros). Y el área que se encar-
gaba de analizarlos era la de la ciencia del dato. De aquí Actualmente, disponer de herramientas tecno-
surgieron herramientas de grandes empresas tecnoló- lógicas como la nube ha hecho que la manera de
gicas como Google y Yahoo! que permitieron manipular procesar esta cantidad de datos tan grandes sea
esa gran cantidad de datos de una forma más eficiente, algo mucho más “trivial” de lo que fue en su momen-
y posteriormente otras empresas se subieron a esta ola to. A su vez, mucho más económico, por disponer
del Big Data y Data Science para explotarlos usando los de almacenaje casi infinito de información a precios
mismos conceptos y herramientas. muy bajos, y cientos de computadoras en la nube
con tan solo hacer unos clics.

Esto ha hecho que el foco en Data Science también


haya cambiado con el paso del tiempo. Cuando
antes el rol principal de un científico de datos era
manipular esta cantidad gigantesca de información 98
de una manera eficiente con el uso de esas tecno-
logías, hoy en día el rol está más orientado a sacar
provecho de esos datos con el fin de obtener un
resultado que pueda añadir valor.

(2) Búsqueda en Google del término “Data Science” a través de los años.
Data Science

FUNCIONAMIENTO

Dentro de esta área existe un framework bastante gene-


ralizado, aunque con matices, según algunos especialis-
tas, que podríamos resumir en los siguientes pasos:

1. Entendimiento del problema/ 2. Recopilación y limpieza


caso de negocio de datos
99
Es la primera fase y la más importante, donde en conjun- Sabiendo cuáles son esas variables de interés para el
to con el experto del área (ya sea del área de negocio o problema, se inicia la extracción de los datos asociados
quien conoce el problema), se analiza el caso a estudiar al mismo. Estos datos pueden venir de distintas fuentes
y cuáles serán las preguntas a responder, así como el como bases de datos relacionales (Data Warehouse,
objetivo del estudio. Será el Data Scientist quien ponga Data Lakes), APIs, ficheros de Excel, Data Marts, etc.,
sobre la mesa los posibles enfoques que se puedan uti- y es tarea del Data Scientist recopilarlos, juntarlos y
lizar de una manera sencilla y práctica, para que puedan analizarlos.
dar respuesta al problema en cuestión.
Previo al análisis, es muy común que los datos vengan
con algún formato indeseado, o con valores perdidos
(missing data) o atípicos (outliers), entre otros, por lo
que se deben limpiar y procesar antes de analizarlos de
forma detallada. De todos los pasos, este puede ser uno
de los que más tiempo le lleve completar.
Data Science

3. Análisis Exploratorio de los 4. Modelado de datos


Datos (EDA) Seguramente una de las partes que más entretiene al
científico de datos es probar y tunear distintos tipos 100
Cuando tenemos recopilado y limpio nuestro set de de algoritmos, según el problema a resolver, y encon-
datos, se inicia la exploración estadística de las distintas trar aquel que tenga la mejor performance. Existen dos
variables (cálculo de medias, medianas, distribuciones, approaches, según el problema a resolver: los modelos
etc.) y la relación que pueda existir entre ellas. Aquí se supervisados y los no supervisados. Si te olvidaste de
juega mucho con la parte artística del científico de datos, qué se tratan, ¡te lo recordamos brevemente!
ya que debe encontrar la forma de visualizarlos de mane-
ra gráfica, para una mejor descripción y entendimiento El primero es un tipo de modelo donde conocemos una
de los mismos, porque como sabemos, una imagen vale variable target que queremos predecir, por ejemplo,
más que mil palabras. la fecha de la próxima compra de un cliente (ejemplo
anterior) o si una transacción es fraudulenta o no. Esta
A su vez, es en esta etapa donde además de utilizar las variable target se conoce como el Ground Truth y puede
variables que extrajimos durante el paso 2, crearemos ser del tipo numérica: ¿Cuántas compras hizo la perso-
nuevas variables en función del conocimiento del nego- na? O del tipo categórica: ¿Compró o no compró? ¿Es
cio y del problema en cuestión. Este proceso se conoce una transacción fraudulenta o no?
como Feature Engineering, y es de los que más valor
aporta al siguiente paso del ciclo de un problema de Data El otro tipo de approach es el modelo no supervisado,
Science. donde no tenemos una variable target, sino que utili-
zamos los mismos datos para generar información de
A modo de ejemplo: una empresa quiere saber cuándo valor. Por ejemplo, si de un grupo de usuarios tenemos
será la próxima compra de un cliente. En nuestro data- información sobre las transacciones que hacen en un
set tenemos solo fechas de transacciones para cada comercio (frecuencia, valor de la compra, antigüedad,
usuario; una variable que surge del Feature Engineering etc.), podríamos utilizar esas variables para segmentar-
es la diferencia en días entre la 1ª y 2ª compra de clientes las en clientes recurrentes, de alto valor, esporádicos,
pasados. Una vez que ambos estos datos sean unidos en etc. Y con ello crear acciones de marketing para impulsar
un mismo gráfico, se podrán explorar sacando conclusio- las ventas, hacer que regresen, consentir a los de alto
nes acordes a las necesidades del negocio. valor, etc.
Data Science

5. Despliegue, evaluación y 6. Comunicación de resultados/


monitorización del modelo outputs
101
Cuando ya sabemos qué algoritmo usaremos, lo normal Tenemos una solución matemática al problema en nues-
es poner el modelo en producción, evaluar si está arro- tra “blackbox” o algoritmo de Machine Learning, pero
jando los resultados esperados y trackear su perfor- debemos traducir esta solución a un lenguaje que sea
mance. Estas tareas se denominan MLOps o Machine fácil de transmitir a los stakeholders.
Learning Operations. Dependiendo del nivel técnico del
Data Scientist, puede ser una tarea que realice él solo, o Por ejemplo, si tenemos un modelo que previene el
donde necesite ayuda de un Machine Learning Engineer fraude en un 80%, ¿qué representa esto en términos de
o de un Data Engineer, si por ejemplo, necesitamos hacer ahorro a la empresa?, ¿cuánto será el ahorro mensual?,
predicciones en tiempo real. ¿de llegar a entrar fraude, cuánto sería? Entre otras pre-
guntas relacionadas con el negocio o problema inicial.
Imaginemos un caso de detección de fraude. La predic-
ción no puede esperar a que la transacción ya se haya Entre las habilidades de un Data Scientist, hemos men-
hecho porque puede ocasionar pérdidas monetarias. cionado el Domain Knowledge o conocimiento de nego-
Aquí la inferencia se debe hacer justo al momento en cio. Es tarea de él transmitir estas ideas y beneficios del
que se está realizando la operación y antes de decir si modelo, de una manera sencilla, práctica y que pueda
fue efectiva o no, por lo que se debe dar respuesta en llegar a cualquier tipo de público.
cuestión de milisegundos.
Data Science

Respecto a este ciclo de Data Science, existen algunas


metodologías bastante conocidas y relacionadas con
este proceso como lo son CRISP-DM de IBM o TSDP
de Microsoft, que como mencionamos anteriormente, 102
pueden tener sus matices en comparación con los pro-
cesos o pasos a realizar, pero en general, son bastantes
parecidos.

Cabe destacar que estos pasos aplican para el Data


Scientist tipo B, quien se encarga de la construcción de
modelos. Para el tipo A, simplemente es omitir los pasos
4 y 5. Adicionalmente, un Data Scientist tipo A puede
desempeñar otro tipo de tareas, como por ejemplo,
realizar A/B test, análisis estadísticos de datos, cálculo
de matrices de cohortes, LifeTime Value del cliente (LTV),
entre otras métricas de interés.
BENEFICIOS
EMPRESARIALES

Son numerosos los beneficios que puede traer el Data Detección y prevención
Science a una organización y es por esto, que ha gene-
rado todo un boom en la industria. Entre algunos de ellos de fraude
se pueden mencionar:
Por ende, ahorro de dinero. 103

Segmentación de clientes
A/B tests
Para la correcta aplicación de campañas de marketing
y/o retención de los mismos: Por ejemplo, identificar Para mejorar la experiencia de usuarios en páginas web:
quiénes son mis clientes VIP, los que están más engan- Dónde y de qué color agregar el botón de “comprar” en
chados con mis productos, los que realizan más compras mi página web para obtener más clics.
de manera frecuente, etc.

Predicción del Lifetime Value


Optimización de precios (LTV)
En servicios y productos (dynamic pricing): Cuál es el
precio que debo asignar a mi producto para sacar el ma- De un cliente, o lo que es lo mismo, cuánto dinero me
yor beneficio del mismo, según demanda y oferta. proporcionará un cliente al contratar un servicio con la
empresa.

Creación de modelos
de recomendación
Para impulsar la venta cruzada (cross-selling o up-se-
lling): El clásico ejemplo de Amazon de quién compró
este artículo, también vio y/o compró estos otros, por
tanto se lo recomendaremos a otros clientes con intere- Entre muchas otras aplicaciones que dependen del
ses similares. sector y empresa que los necesite.
Data Science

DESAFÍOS SOCIALES

operador manual lo podría hacer. Además, puede proce-


No todo ha sido color de rosa con la llegada del Data
sar millones de datos de una forma precisa.
Science a la sociedad. La gran potencia que tiene, unida
al uso masivo de los datos capturados de manera “in-
consciente”, casi que a cualquier nivel de nuestras vidas Otro ejemplo más reciente y que podría tener impacto
(lo que vemos en internet, el aceptar las condiciones de a futuro en el uso de árbitros y asistentes en un partido 104
una app, etc.), ha ocasionado que los gobiernos y entes de fútbol, es el uso de Inteligencia Artificial (IA) en el
sociales hayan tenido que tomar acciones para proteger mundial de Fútbol Qatar 2022, donde un algoritmo de
al usuario, a fin de evitar el uso desinformado de sus Machine Learning desempeñó un papel fundamental
datos personales. para identificar qué jugadores estaban fuera de juego de
una manera mucho más precisa que lo que el ojo humano
Un claro ejemplo de esto es la creación en Europa del Re- podría.
glamento General de Protección de Datos (RGPD o GPDR
por sus siglas en inglés), tal como te hemos comentado Entre otros desafíos sociales, está la adaptación de ca-
en la sección de Inteligencia Artificial. El reglamento rreras universitarias a estas nuevas y demandadas pro-
surgió porque la Unión Europea quería dar más control fesiones asociadas al mundo del Data y en especial del
a los usuarios sobre sus datos para que no sean mani- Data Science. Al día de hoy, ya se han creado carreras de
pulados por las empresas para uso comercial. De igual pregrado y postgrado a fin de cumplir con las necesida-
forma, otros entes gubernamentales han aplicado leyes des que el ámbito profesional y social está necesitando.
similares, como es el caso de California, Estados Unidos,
con su CCPA o Ley de Privacidad del Consumidor de Además de estos, hay muchos otros desafíos, más los
California. nuevos que vendrán a medida que la tecnología avance y
nos enfrentemos a nuevos problemas que la ciencia del
Pero el impacto social no ha sido solo a nivel de cómo dato resolverá de una manera ingeniosa y óptima, con
persistir y usar los datos. También ha sido en la manera sus ciertas desventajas que la sociedad buscará adaptar
en cómo esta ciencia ha desplazado el trabajo manual o regular, de ser necesario.
de operadores por ordenadores que pueden realizar el
mismo trabajo de una manera más óptima y a un coste
mucho menor. Por ejemplo, una máquina con un algorit-
mo de Machine Learning es capaz de detectar y analizar
patrones de fraude en transacciones de un comercio
electrónico mucho más rápido y eficiente de lo que un
Data Science

APLICACIONES
PR CTICAS

Comencemos con las llamadas malas prácticas: Pero no todo ha sido negativo en temas sociales, al
mismo tiempo estas tecnologías han aportado grandes
• Durante 2010, Facebook fue duramente criticado por ideas que son adaptadas a gran escala, muchas veces
todo el escándalo de Cambridge Analytica y la mani- sin saber lo que hay detrás de ellas. Por ejemplo:
pulación de datos de usuarios sin su consentimiento. 105
• La recomendación de texto cuando escribimos un
• En 2018, un algoritmo de Amazon asociado a temas de correo en Google, viene de un modelo que predice la
Recursos Humanos, tenía preferencias para escoger siguiente palabra al escribir.
hombres sobre mujeres para ciertos puestos de la
empresa. • La detección de tumores cancerígenos con mayor
eficacia que como lo hacen los humanos.
• Un año después, la tarjeta de Apple fue criticada por
crear ciertas desventajas al momento de otorgar prés- • La identificación de texto en una foto y su traducción
tamos a mujeres. automática.

• El sistema de reconocimiento de imágenes de Google, • La detección de ataques cibernéticos, tanto en entes


fue clasificado como racista al etiquetar automática- gubernamentales como empresariales.
mente a una persona de piel negra como un gorila.
• El chatbot GPT-3 que simula conversaciones humanas
Como estos, hay muchos otros casos. Esto ocurre con bastante similitud y que puede revolucionar des-
por la manera de entrenar y aplicar el modelo, que no de el sistema educativo hasta el empresarial, ya que
entiende de contexto y que puede tener un conjunto escribe código por sí solo.
de datos erróneos durante su entreno. Aparte de estos
casos, esta tecnología en las manos equivocadas puede
ocasionar actos delictivos como fraude, violación de
sistemas de seguridad, irrupción de datos de usuarios,
entre otros.
Data Science

106

Le dimos a DALL·E estas instrucciones:


“Humanoid machine programming on a
computer, in a pink room”.
¿Notas algún sesgo en su algoritmo?
Data Science

FUTURO

Aún queda mucho que descubrir y explotar dentro de A largo plazo, sería importante que el Data Science no 107
esta área y es por eso que siguen habiendo cientos de solo sea un área donde algunos se especializan, sino que
ofertas laborales, nuevas carreras dedicadas explícita- sea parte básica de la formación de cualquier persona. Ya
mente a esta ciencia y mucho, pero mucho, que aportar que los datos serán las respuestas a muchas de nues-
dentro de las distintas unidades de negocio o a la socie- tras preguntas.
dad en sí.
Por último, siendo los datos el nuevo petróleo, existe
Ya vimos cómo el término Data Science sigue una ten- cada vez más la necesidad de disponer de talento que
dencia creciente a nivel mundial (2) y esto es apenas el no solo se enfoque en el uso de datos, sino que sepa
comienzo. Porque a medida que la tecnología avance y tratarlos y manipularlos de una manera eficiente. Y es
se puedan resolver aún más problemas usando la ciencia aquí donde los Data Engineers jugarán un papel muy
de datos, la proliferación de esta carrera irá a más. importante para poder habilitar esa información, los Data
Analyst sacarán insights de ella y entenderán el pasado
Si hubiera que decantarse por cómo será el Data Scien- de esos datos, y los Data Scientists la utilizarán para
ce a corto plazo, diría que se seguirán abriendo posicio- predecir el futuro.
nes en empresas, tanto tradicionales como startups. Y
que la demanda del Data Scientist tipo A será inmensa
porque ataca el primer problema básico: añadir valor con
insights de los datos, y que luego se dará valor añadido
con lo que pueda resolver y construir el Data Scientist
tipo B con sus modelos de Machine Learning.

A mediano plazo, diría que iremos un paso más allá del


ML, y es aquí donde el Deep Learning será el que tenga
mayor impacto a nivel social y empresarial, por lo que
se espera un mayor foco en esta área de la Inteligencia
Artificial.
“Los datos son el nuevo petróleo”, existe cada vez
más la necesidad de disponer de talento que no
solo se enfoque en el uso de datos, sino que sepa
tratarlos y manipularlos de una manera eficiente.

108
Data Science

AHORA SÍ
!
HAZ MATCH! 109

Ya has tenido una cita con los conocimientos infaltables


del mundo Data Science. Pero... ¿y ahora qué? Es momento
de saber quién hace qué en esta relación y cuáles son las
palabras clave que debes entender para enamorarte por
completo del mundo de los datos.
¿Te animas?
Si te interesa el mundo de los datos, esta será
una gran noticia para ti: hay un inmenso abanico
de roles que se pueden desempeñar, dependiendo
de las habilidades que se desarrollen y la especiali-
zación profesional que se desee elegir.
¡Te contaremos algunas!

EL EQUIPO
SOÑADO
El equipo soñado

“Tortura a los datos


y lo confesarán todo”
- Ronald Coase

Data Analyst
112

Funciones: Herramientas:
Da valor al negocio en función de los insights, tenden- • SQL: Es la “base” de un analista de datos y entonces
cias y patrones que consigue en los datos, así como el esencial para comunicarse con la base de datos empre-
reporte de los mismos para seguimiento y control de las sarial.
diferentes unidades de negocio, buscando darle sentido
y explicaciones. • VISUALIZACIÓN DE DATOS: La mayoría de las empresas
Un analista de datos responde a preguntas sobre el pre- tienen licencias de herramientas de Business Intelligen-
sente como: ¿Qué está pasando ahora? ¿Cuáles son las ce como Power BI, Tableau, Looker, Qlik, etc.
causas? ¿Puede mostrarme XYZ? ¿Qué debemos hacer
para evitar/conseguir ABC? ¿Cuál es la tendencia de las • CONOCIMIENTO DEL DOMINIO: ¿Qué significan las
ventas en los últimos 5 años? métricas? ¿Cómo interactúan entre sí? ¿Qué es lo que
mueve la aguja?
El trabajo de un analista de datos incluye 3 partes princi-
pales: Entender el problema de las métricas del negocio,
es decir, hacer las preguntas correctas; averiguar las
respuestas o conocimientos a partir de los datos; y saber
comunicar. Esto incluye la creación de cuadros de mando
con las visualizaciones adecuadas y la explicación de los
mismos de una manera fácil de entender para las partes
interesadas no tecnológicas o “Business”.
El equipo soñado

“Resolver grandes problemas


es más fácil que resolver
pequeños problemas”
- Sergey Brin

Data Scientist
113

Funciones: Herramientas:
En lugar de responder a preguntas sobre el presente, • SQL: Es esencial en este tipo de roles, para interactuar
tratan de encontrar patrones en los datos y responder con las bases de datos.
a las preguntas sobre el futuro, es decir, la predicción.
• COMUNICACIÓN: La investigación debe transmitirse
Esta técnica existe desde hace mucho tiempo y seguro de forma eficaz, tanto al público técnico como al no
has oído hablar de ella: se llama estadística. El aprendi- técnico.
zaje automático (ML) y el aprendizaje profundo (DL) son
las dos formas más populares de utilizar el poder de los • ESTADÍSTICAS/MATEMÁTICAS: Hay que dominar los
ordenadores para encontrar patrones en los datos. conocimientos de estadística, como las teorías que hay
detrás de cada método de aprendizaje automático, para
Los científicos de datos también construyen productos resolver problemas más complejos.
basados en esas predicciones. Por ejemplo, un sistema
de recomendación predice lo que te gusta, un sistema • HABILIDADES DE PROGRAMACIÓN: Actualmente,
de clasificación predice el orden de popularidad, la NLP Python y R son los lenguajes de programación más
predice lo que significa una frase. Los científicos de populares.
datos construyen estos productos, no para ayudar a
tomar decisiones empresariales, sino para resolver sus • DESARROLLO DE SOFTWARE: El flujo de trabajo de Git,
problemas. CI/CD, DevOps, etc. son básicos en el arsenal de un
científico de datos.
El equipo soñado

“No he fracasado, sino


que he encontrado 1.000
maneras de no fabricar
una bombilla”
- Thomas Edison

Data Engineer
114

Funciones: Herramientas:
Es la persona encargada de desarrollar, implementar • SQL: Debe conocer los entresijos de cada una de las
y mantener sistemas que generan datos (a menudo diferentes bases de datos, cuándo utilizar cada una,
desordenados y en formatos distintos) y producir con cuáles son sus aristas.
ellos información de alta calidad, consistente y fácil de
analizar para otras unidades de negocios. • COMPUTACIÓN EN LA NUBE: AWS (Amazon), Azure
(Microsoft) y GCP (Google) son los tres servicios en la
Los consumidores de datos no pueden realizar su trabajo nube más populares del mercado. Esto también incluye
sin que los ingenieros de datos configuren toda la es- la aplicación de la computación paralela (Hadoop,
tructura. Por decirlo de forma sencilla, los ingenieros de Spark) y el big data.
datos se encargan de todo lo que ocurre con los datos
antes de llegar a la base de datos: • DESARROLLO DE SOFTWARE: Lo mismo que lo anterior,
en el caso de Científico de Datos.
• Asegurarse de que el conducto de datos, el almace-
namiento y la estructura estén optimizados y sean lo • Gran conocimiento sobre el funcionamiento de los
más rentables posible para la empresa. DATA LAKES.

• Asegurarse de que los datos que utilizan los analistas • Extract Transform Load (ETL).
y científicos son los más actualizados, validados y
responsables.
El equipo soñado

“Los ordenadores superarán


a los humanos.
Cuando eso ocurra, tenemos
que asegurarnos de que
tengan objetivos alineados
a los nuestros”
- Stephen Hawking

Machine Learning
Engineer
115

Funciones: Herramientas:
• Lenguajes de programación: PYTHON, JAVA y/o C++.
Es la persona que pone en producción los modelos de-
sarrollados por el Data Scientist, de una manera óptima, • SQL: Esto es esencial para todos los roles relacionados
escalable y mantenible. Son especialistas en mejorar los con los datos.
modelos, encontrando el que mejor rendimiento da. Tie-
ne un perfil más de Software Engineer, pero conoce bien • CONOCIMIENTOS DE INGENIERÍA DE SOFTWARE:
el ciclo de vida de los modelos y su operación (término Escritura de algoritmos que puedan buscar, ordenar y
conocido como MLOps). optimizar, comprensión de las estructuras de datos y
conocimiento de la arquitectura de los ordenadores.
La principal diferencia con otros perfiles es en qué se
centran. Los ingenieros de aprendizaje automático se • CONOCIMIENTOS PROFUNDOS DE APRENDIZAJE
centran exclusivamente en este. Su objetivo es crear PROFUNDO: Programación dinámica, arquitecturas de
componentes de software o productos que puedan redes neuronales, procesamiento del lenguaje natural,
trabajar con un mínimo de supervisión humana y que procesamiento de audio y vídeo, aprendizaje de refuer-
ayuden a obtener información de los datos que se les zo, técnicas avanzadas de procesamiento de señales y
proporcionan. Por eso, un ingeniero de aprendizaje auto- optimización de algoritmos de aprendizaje automático.
mático se centra tanto en los fundamentos de la infor-
mática como en el desarrollo de software, ya que esa es • DESARROLLO DE SOFTWARE: El flujo de trabajo de Git,
su especialización. CI/CD, DevOps, etc. son básicos en el arsenal de un
científico de datos.
El equipo soñado

“La función de un buen


software es hacer que lo
complejo aparente ser simple”
- Grady Booch

MLOps Engineer

Funciones: Los tiempos han cambiado y el flujo de datos que necesita


procesar una empresa a día de hoy, requiere de herramien-
tas que permiten hacerlo de forma automática.
Profesional especialista en el despliegue de los modelos
de ML a producción.
Herramientas:
MLOps son las siglas de Machine Learning Operations,
una extensión de la metodología DevOps que tiene como • MLFLOW: Plataforma de código abierto para administrar
objetivo incluir los procesos de aprendizaje automático el ciclo de vida completo del aprendizaje automático.
y ciencia de datos en la cadena de desarrollo y opera-
ciones, de forma que el Machine Learning resulte más • KUBERNETES: Plataforma portable y extensible de
productivo y confiable. código abierto para administrar cargas de trabajo y
servicios.
Esta área es la encargada de toda la operatividad de un
modelo de Machine Learning que está en producción, • DOCKER: Es un sistema operativo (o runtime) para
asegurando la continuidad y desarrollo del mismo de contenedores.
manera continua.
• AIRFLOW: Es una plataforma para crear, programar y
En un mundo en el que los datos tienen un nivel tan monitorear flujos de trabajo mediante código.
alto de importancia, los modelos MLOps surgen con la
intención de facilitar y agilizar los proyectos de Machine
Learning e Inteligencia Artificial dentro de una empresa.
Gracias a estos modelos entrenados, se ha conseguido
una mayor optimización de procesos.
El equipo soñado

“Los últimos avances ya han


dado lugar a inventos que
antes vivían en el reino de la
ciencia ficción, y solo hemos
arañado la superficie de lo que
es posible”
- Jeff Bezos

Deep Learning Expert

Funciones: Herramientas:
• PROGRAMACIÓN: Python y R. Dentro de Python, las
El perfil de un buen experto en Deep Learning es una librerías más ampliamente utilizadas en este campo son
combinación de tres conjuntos de habilidades. Keras, Tensorflow y Pytorch.

Por un lado, las matemáticas, para entender el funcio- • SISTEMAS OPERATIVOS: Las distribuciones Linux son
namiento de los modelos se requieren ciertas bases de las más utilizadas en los proyectos de Deep Learning.
teoría matemática, con especial énfasis en álgebra, esta-
dística y teoría de optimización. • ARQUITECTURA: Amazon Web Services, Azure y
Google Cloud para computación en la nube. Kuberne-
Además, la informática, para poder implementar los tes y MLflow para la automatización del despliegue, el
modelos de Deep Learning son necesarios altos niveles escalado y la gestión de aplicaciones.
de programación. También son recomendables ciertos
conocimientos de manejo de servidores y arquitectura
de datos.

Y por último, conocimiento de negocios. La teoría de


Deep Learning no es útil si no se es capaz de traducirla
a cómo resolver problemáticas reales de la empresa. Por
ello, es recomendable que el experto en estas técnicas
tenga ciertos conocimientos de negocio, para ser capaz
de “traducir” los problemas existentes, a soluciones de
Deep Learning.
Business Analyst
Funciones:
Profesional capaz de extraer datos y realizar análisis
para satisfacer peticiones de negocio, traducirlas,
interpretarlas y calcular KPIs.

Es quien amplía la productividad de un proceso


empresarial. También actúa como vínculo entre la
dirección de la empresa y el equipo informático.

Herramientas:
• SQL
“En Dios confiamos. Todos los • Excel
• Python
demás deben traer datos”
- Edwards Deming

Visualization Tool
Developer
Funciones:
Profesional especialista en la generación de dash-
boards para la visualización de valores y métricas re-
levantes para el negocio. Tiene conocimientos sobre
Structured Query Language (SQL)y su arquitectura.

Herramientas:
• Tableau
• PowerBI
• Looker “La información solo es útil
cuando es comprendida”
- Muriel Cooper
Deep Learning
Engineer
Funciones:
Profesional especialista en el desarrollo de modelos
de Deep Learning con redes neuronales. Tiene gran
entendimiento sobre la arquitectura del sistema de las
redes neuronales. Son responsables del desarrollo de
modelos para reconocimiento de imágenes, reconoci-
miento de la voz o procesamiento del lenguaje natural.

Herramientas:
“Todo ser humano puede ser, • Python
• Tensorflow
si se lo propone, escultor de • Pytorch
su propio cerebro”
- Ramón y Cajal

Analytics Engineer
Funciones:
Profesional especialista en realizar queries (peti-
ciones precisas para obtener información en una
base de datos o sistema de información) en Data
Lakes, como también del mantenimiento de estas.
Se trata de un rol nuevo y deben tener conocimien-
tos de la arquitectura del Data Lake, como fun-
cionan las ETLs y saber traducir las peticiones de
negocio a queries.

Herramientas:
• Snowflake “Nunca inviertas en un negocio
• Bigquery
• Redshift que no puedes entender”
• DBT
- Warren Buffett
Cloud Engineer
Funciones:
Se trata de un perfil polivalente que se dedica a identi-
ficar e integrar servicios y soluciones de computación
en la nube, con el objetivo de ayudar a las organiza-
ciones a funcionar con mayor eficiencia, seguridad y
atención al detalle.

Herramientas:
• CompTIA A+.
• Systems Security Certified Practitioner (SSCP).
• AWS Certified Solutions Architect Associate.
“Dos cosas dan igualdad en la • Plataformas Cloud: Amazon Web Services, Google
Cloud o Microsoft Azure.
vida: Internet y la educación” • Componentes de redes comunes (firewall, router,
switch).
- John T. Chambers • Lenguajes de programación (Python, Java, Go, R).
• Sistemas operativos (Linux, UNIX, Windows, macOS).
• Protocolos TCP/IP y comunes (DNS, HTTP).

Big Data Architect


Funciones:
Entiende y domina toda la infraestructura de las
bases de datos. Trabaja con los Data Engineers para
optimizar el rendimiento de los workflows de datos y
también debe probar y diseñar nuevos prototipos de
bases de datos para satisfacer las necesidades de la
empresa.

Herramientas:
• Matemáticas, estadística y técnicas de
análisis avanzado
• Python y R “Los arquitectos no inventan
• Structured Query Language (SQL) y NoSQL
• Hadoop nada, solo transforman la
• Apache Spark
• Sistemas Cloud
realidad”
• Looker
- Álvaro Siza
Database Manager
Funciones:
Dirige todo el equipo de “database” y es responsable
de las bases de datos de la empresa. Debe supervi-
sar el presupuesto y las necesidades de personal, y
procesar las solicitudes de datos de la empresa. Su
función es revisar el uso de los datos y evaluar estas
fuentes para su optimización. Por tanto, es un experto
con capacidad de liderazgo y gestión.

Herramientas:
• Power BI
“La acción es la clave • Tableau Public
• Panoply
fundamental de todo éxito” • Excel
• Looker
- Pablo Picasso

Data Warehouse
Manager
Funciones:

Tiene una función similar al del gestor de la base de


datos. También tiene que desarrollar e implementar
nuevas estrategias de gestión de datos. Su misión
es coordinar todas las soluciones de gestión de la
información. Tiene que realizar tareas de sourcing,
migración de datos, diseño e implementación.

Herramientas:
“Si quieres cambiar el futuro,
• Digital Dashboards o paneles de control digital
• OLAP (Procesamiento analítico en línea, por sus empieza a vivir como si ya
siglas en inglés): HOLAP, ROLAP y MOLAP
• Aplicaciones de informes
estuvieras allí”
• Minería de datos
- Lynn Conway
Chief Data Officer
Funciones:
El Chief Data Officer es el responsable de todos los
equipos especializados en Big Data de la organización.
Su función es la de liderar y gestionar datos y analí-
tica asociados con el negocio y asegurarse de que la
empresa sea data-driven. Es decir, es el encargado de
la explotación de los activos de datos para crear valor
de negocio.

Herramientas:
• Apache Hadoop
“La tecnología es importante. • Spark
• Scala
Pero lo único que realmente • Python
importa es qué hacemos con ella” • PySpark
• TensorFlow
- Muhammad Yunus

Data Artist
Funciones:
Son científicos de datos que también son expertos en
el procesamiento gráfico y textual de flujos de datos
grandes y complejos. Analizan las fuentes de datos
y, tras sacar sus propias conclusiones de ellas, las
preparan para la comunicación y gestión corporativa
interna o externa.

Herramientas:
• Visme
• Tableau “Lo más revolucionario que
• Infogram una persona puede hacer, es
• Datapine
• Google Charts decir siempre en voz alta lo que
realmente está ocurriendo”
- Rosa Luxemburgo
El equipo soñado

¿Crees en el amor a primera vista?


Te desafiamos a que elijas el perfil profesional
con el que te hayas sentido más identificado y
luego le pidas a una persona de tu confianza,
que te diga si cree que podrías dedicarte a eso.
¡Ten cuidado! Quizás en el fondo te pareces
a uno de los avatares...

123
El Máster en Data Science de Nuclio Digital School
proporciona a los alumnos una gran variedad de
competencias ajustadas a la realidad del merca-
do laboral, que les permiten mejorar su posición o
buscar nuevas oportunidades en el ámbito del Big
Data y Analytics.

LEARN
[TO BE]
THE FUTURE
Máster en Data Science

125
Máster en Data Science

Máster en Data Science


Data Scientist es uno de los perfiles con más potencial
del presente y será una de las posiciones más demanda-
das del futuro.

Desde Nuclio Digital School hemos diseñado un Máster


en Data Science, teniendo en cuenta la necesidad de los
alumnos de contar con una experiencia práctica comple-
ta de todas las etapas del proceso de análisis de datos.

El programa aborda temas desde la adquisición e integra-


ción de datos hasta la productividad de modelos mate-
máticos basados en técnicas de Inteligencia Artificial,
Machine Learning, y el aprendizaje de programación en
Python y SQL. Además, proporciona a los alumnos una
gran variedad de competencias ajustadas a la realidad
¿Qué sucede si alguien sin 126

del mercado laboral, que les permiten mejorar su posi- conocimientos previos quiere
ción actual o buscar nuevas oportunidades en el ámbito
de los datos. hacer un máster de este nivel?
Gracias a nuestro máster con metodología bootcamp, No sería un problema, porque hemos diseñado un
en solo 5 meses y a través de la modalidad Learning by pre-curso que hace la vía de aprendizaje más fácil para
doing, quien realmente lo quiera, podrá convertirse en aquellos que no han tenido un gran acercamiento con la
un Data Scientist de éxito. programación.

¿Cuánto tiempo de dedicación


supone?
Buscamos adaptarnos al estilo de vida de nuestra
comunidad mediante programas part-time, con un
enfoque 100% hands-on y personalizado.

¿Cuál es la salida laboral?


Tras finalizar el Máster en Data Science, se cuenta con
los conocimientos necesarios para optar por puestos
como Data Analyst, Data Scientist, Business Intelligence
Analyst o Data Translator.
Máster en Data Science

Según nuestras predicciones, esta 127

disciplina te interesa más de lo que


pensabas. ¿Es así?
Te invitamos a que contactes con
nosotros y descubras todo lo que Data
Science le puede dar a tu vida, antes
de tomar la gran decisión.
Si estás aquí es porque ya te has sumergido en el
mundo de los datos, pero tienes dudas sobre algún
concepto. ¡Felicidades! Este es el camino correcto
para el éxito. Vuelve sobre tus pasos cuando sea
necesario y reafirma la información para avanzar
certeramente.

GLOSARIO
C
N
A
Z
S
B
K
JI
Glosario

Bb
Aa Black Box: En ciencia, informática e ingeniería, una caja
negra es un sistema que se puede ver en términos de
A/B Test: Experimento aleatorio con el fin de testear sus entradas y salidas, sin ningún conocimiento de su
diferentes versiones de un mismo contenido, logrando funcionamiento interno.
hacer una comparativa. El resultado será encontrar la
versión que sea más eficiente. Business Analytics: Permite conseguir los objetivos em-
presariales, a partir del análisis de datos. Utilizando los
Algoritmo: Conjunto de instrucciones o reglas definidas modelos predictivos para detectar tendencias, realizar 130
y no-ambiguas, ordenadas y finitas, que permiten solu- pronósticos y optimizar los procesos del negocio.
cionar un problema, realizar un cómputo, procesar datos
y llevar a cabo otras tareas o actividades.​ Business Intelligence: Conjunto de estrategias con las
que se analizan todos los datos que puede manejar un
Análisis Predictivo: Utiliza los datos para determinar negocio, de forma inteligente. Se trata de trabajar a partir
qué puede pasar en el futuro y descubrir relaciones de la información que los datos aportan y aprovecharla
entre los datos que normalmente no son detectadas con para mejorar las estrategias empresariales.
un análisis menos sofisticado.

Aprendizaje Supervisado: Técnica que utiliza un


conjunto de datos etiquetados o conjunto de muestras
Cc
(train), para entrenar un modelo de Machine Learning. Centroide: En el universo del Machine Learning, un cen-
¿El objetivo? Predecir la etiqueta que tendrán nue- troide es la ubicación real o imaginaria que representa el
vas muestras (test), que el modelo no ha visto en su centro del grupo.
entrenamiento.
CI/CD: Prácticas combinadas de integración continua y
Autoencoders: Son un tipo de arquitectura de redes entrega continua o despliegue continuo. ¿No lo has en-
neuronales que pertenece al grupo de métodos de tendido? Estos servicios permiten que el equipo encar-
Aprendizaje No Supervisados. Esta arquitectura extrae gado del desarrollo de software satisfaga los requisitos
las características más importantes del input, eliminando de las empresas y brinde mayor atención al código y la
el resto de poca relevancia. seguridad del mismo.

AWS (Amazon Web Services): Es una plataforma en la Clúster de Servidores: Un servidor en clúster es la unión
nube, que cuenta con un conjunto de productos como de varios sistemas informáticos (servidores) que funcio-
aplicaciones de informática, almacenamiento, bases de nan como si fueran uno solo, con el objetivo de ofrecer
datos, IoT (Internet of Things) y análisis. velocidad y alta disponibilidad ante fallos.
Glosario

Dd
Data-driven: Cuando una empresa toma decisiones es-
tratégicas basadas en análisis e interpretación de datos.
Este enfoque permite que examine y organice sus datos
con el fin de atender mejor a sus clientes.

Data Lake: Es el lago de datos en el que el profesional se Datos Relacionales: Una base de datos relacional alma-
baña para conseguir todas las respuestas a las pregun- cena y proporciona acceso a puntos de datos relaciona-
tas que ofrece el Big Data. Es el almacenamiento de toda dos entre sí. Son una forma intuitiva y directa de repre-
la información recogida en bruto y que trabaja con una sentar datos en tablas.
arquitectura plana.
Data Set: El término hace referencia a una única base de
Data Mart: Es una versión específica del almacén de datos de origen. Representa un conjunto completo de
datos, centrados en un tema o un área de negocio dentro datos, incluyendo las tablas que los contienen, ordenan
de una organización. Son subconjuntos de datos con y restringen, así como las relaciones entre ellas.
el propósito de ayudar a que un área específica pueda
tomar mejores decisiones. Datos Tabulares: Son elementos representados por
marcadores diferentes, donde cada campo de marcas 131
Data Mining: Es el proceso para descubrir patrones representa la presencia o ausencia de un elemento es-
útiles o conocimientos, a partir de fuentes tales como pecífico. Cada registro representa un conjunto completo
bases de datos, textos, imágenes, internet, etc. Los de elementos asociados.
patrones deben ser válidos, potencialmente útiles y
entendibles. Deep Fake: Es un vídeo en el que se muestran imágenes
falsas, habitualmente del rostro de una persona, que
Data Sourcing: Es el conjunto de fuentes utilizadas parecen ser reales y que se han producido utilizando
para obtener información, generalmente de una base de inteligencia artificial.
datos. Se sirve de una serie de conectores hacia diferen-
tes medios, canales o soportes cruzados, para extraer Deep Learning (DL): Marco de modelos de aprendizaje
datos y proporcionar información relevante. automático que consiste en un esquema de entre-
namiento que contiene varias capas de optimización.
Data Warehouse: Repositorio de datos desde distintas Comúnmente está asociado a las ANN con un gran
fuentes, de una manera eficiente y útil, a fin de que sea número de capas ocultas.
utilizado para responder a preguntas de negocio y ayu-
dar a la toma de decisiones. DevOps: Conjunto de prácticas que combina el desarro-
llo de software y las operaciones informáticas. Promueve
Datos Etiquetados: Son los datos para los que el un mejor desarrollo de aplicaciones en menos tiempo y
Aprendizaje Supervisado ya conoce la respuesta de la rápida publicación de nuevas o revisadas funciones de
destino. software y productos.

Datos No Estructurados: Son aquellos que carecen de Discounted Cumulative Gain (DCG): La ganancia acu-
una estructura o arquitectura identificable. Esto significa mulada descontada es una medida de la calidad del ran-
que no se ajustan a un modelo de datos predefinidos, king. En la recuperación de información, a menudo se usa
son más cualitativos y conllevan una administración más para medir la eficacia de los algoritmos de los motores de
complicada (menos convencional). búsqueda web o aplicaciones relacionadas.
Glosario

Ee
Exabytes: Es una unidad de medida de almacenamiento
de datos cuyo símbolo es el EB. Equivale a 1018 bytes.

Extract, Transform and Load (ETL): Es un tipo de inte-


gración de datos que hace referencia a los tres pasos
(extraer, transformar, cargar) que se utilizan para mez- GPT-3 (Generative Pre-Trained Transformer): Modelo
clar datos de múltiples fuentes. Sirven, a menudo, para de lenguaje autorregresivo, de Deep Learning, utilizado
construir un almacén de datos. para producir textos que simulan la redacción humana,
basándose en una entrada de datos recibidos (input).

Ff GPU: Es un procesador formado por muchos núcleos


más pequeños y especializados. Al trabajar conjun-
Fully Connected Neural Network (FCNN): Consta de tamente, los núcleos ofrecen un rendimiento masivo
una serie de capas totalmente conectadas que unen cuando una tarea de procesamiento se puede dividir y es
cada neurona de una capa con cada neurona de la otra procesada por muchos núcleos.
capa. La principal ventaja es que son “independientes de 132

Hh
la estructura”, es decir, no es necesario hacer suposicio-
nes especiales sobre la entrada.

Funciones de Activación: Se utiliza en Deep Learning y Hadoop: Apache Hadoop es una colección de software
significa que en la salida de la neurona, puede existir, un de código abierto que facilita el uso de una red de mu-
filtro, función limitadora o umbral, que modifica el valor chos ordenadores para resolver problemas que implican
resultado o impone un límite que se debe sobrepasar cantidades masivas de datos y cálculos.
para poder proseguir a otra neurona.

Funciones de Pérdida No Diferenciables: Las máquinas


aprenden mediante una función de pérdida. Es un mé-
Ii
todo para evaluar qué tan bien un algoritmo específico Imputación de Datos: Es la sustitución de valores no
modela los datos otorgados. informados en una observación, por otros, para poder
continuar con el análisis. Existen diversas técnicas para

Gg
hacerlo.

Inteligencia Artificial (IA): ¿Una que todos sabemos?


Git: Sistema de control de versiones distribuido y de có- Básicamente es la combinación de algoritmos, con el
digo abierto. Rastrea los cambios en cualquier conjunto propósito de crear máquinas que muestren las mismas
de archivos. Es un clon local del proyecto, un repositorio capacidades que el ser humano.
de control de versiones completo.
Interfaz de Programación de Aplicaciones (APIs): Es un
Google Cloud Platform (GCP): Es un conjunto de ser- conjunto de protocolos que permite desarrollar y comu-
vicios de computación en la nube que se ejecuta en la nicar aplicaciones de software entre ellas. Por ejemplo,
misma infraestructura que Google utiliza internamente un motor de búsqueda que permite integrar en una sola
para sus productos. app, datos de distintas páginas web.
Glosario

Metadatos: Son la mínima información indispensable

Kk
para identificar un recurso, como puede ser un archivo
en el ordenador o una información extra sobre un tipo de
dato.
Kaggle: Kaggle es una comunidad en línea de científicos
de datos y profesionales de la Inteligencia Artificial y el Metodología Kanban: Se trata de un método visual de
Aprendizaje Automático. Esta plataforma hace que el gestión de proyectos que permite a los equipos visuali-
entorno sea competitivo mediante el otorgamiento de zar sus flujos y carga de trabajo, a través de un tablero
premios y rankings para ganadores y participantes. organizado por columnas.

Ll
Microprocesador: Es la unidad de procesamiento princi-
pal de un ordenador, su “cerebro”.

Ley Moore: Esta predicción expresa que aproximada- Microsoft Azure: Es una plataforma de pago por uso que
mente cada 2 años se duplica el número de transistores integra servicios completos en la nube pública para que
en un microprocesador. Teniendo en cuenta que cuantos desarrolladores y equipos de TI administren e implemen-
más transistores o componentes haya en un dispositivo, ten aplicaciones y otros recursos, a través de un gran
el coste por dispositivo se reduce, mientras que el rendi- centro de datos mundial.
miento por dispositivo aumenta.
Migración de datos: Es el proceso de mover datos
Librerías de Python: Proveen soluciones estandariza- de una ubicación, formato o aplicación, a otra. 133
das para los diversos problemas que pueden ocurrir en el Normalmente, esto es resultado de la introducción de un
día a día en la programación. Responden al conjunto de nuevo sistema o ubicación.
implementaciones que permiten codificar este lenguaje,
con el objetivo de crear una interfaz independiente. Missing Data: Término usado cuando la data trae con
ella datos perdidos o no registrados durante la recopi-
Librerías Open Source: Son librerías donde se pueden lación de los mismos. Se debe a fallas en la recopilación
encontrar códigos diseñados de manera que sean ac- o momentos ocasionales en que no se registró, entre
cesibles al público: todos pueden verlos, modificarlos y otras.
distribuirlos de la forma que consideren conveniente.
MLOps: Área encargada de toda la operatividad de un

Mm
modelo de Machine Learning que está en producción,
asegurando la continuidad y desarrollo del mismo, de
manera continua.
Máquinas Boltzmann Restringidas (RBM por sus
siglas en inglés): Es una red neuronal artificial de dos Modelo: Representación matemática de las relaciones
capas (capa de entrada y capa oculta) que aprende una en un conjunto de datos. Es una forma simplificada y ma-
distribución de probabilidad basada en un conjunto de temáticamente formalizada de aproximarse a la realidad
entradas. Ayuda a resolver diferentes problemas basa- y hacer predicciones.
dos en combinaciones.

Máquinas de Vectores Soporte o Apoyo: Son una


técnica de Machine Learning que encuentra la mejor
Nn
separación posible entre clases. Con dos dimensiones Natural Language Processing (NLP): Es una tecnología
es más simple entender lo que está haciendo, ya que de aprendizaje automático que brinda a las computado-
normalmente los problemas de aprendizaje automático ras la capacidad de interpretar, manipular y comprender
tienen muchísimas dimensiones. el lenguaje humano.
Glosario

Neuronas: Unidades de computación de las ANN (Redes


Neuronales Artificiales). La salida de cada neurona se
calcula mediante alguna función no lineal, llamada fun-
ción de activación, aplicada a la suma ponderada de sus Python: Lenguaje de programación de alto nivel y
entradas. propósito general. El lenguaje que básicamente todos
deberían conocer para dar el primer paso en el mundo de
Nodo: Es un punto de intersección, conexión o unión la programación. ¿Has oído hablar de él? Ten cuidado, ¡te
de varios elementos que confluyen en el mismo lugar. puedes enamorar!
Dentro de la informática, puede referirse a conceptos

Rr
diferentes según el ámbito particular.

Nube: Se conoce como computación en la nube (cloud


computing en inglés) o simplemente «la nube», al uso R: Es un entorno y lenguaje de programación con un
de una red de servidores remotos conectados a internet enfoque al cálculo y análisis estadístico. R nació como
para almacenar, administrar y procesar datos, servidores, una reimplementación de software libre del lenguaje S,
bases de datos, redes y software. añadiendo soporte para ámbito estático.

Oo
Raíz del Error Cuadrático Medio (RMSE): Es una medida 134
de uso frecuente de las diferencias entre los valores
(valores de muestra o de población) predichos por un
Open Data: Práctica que dispone de unos tipos de datos modelo o un estimador y los valores observados.
de forma libre para todo el mundo, sin restricciones de
derecho de autor, patentes u otros mecanismos. Su Razonamiento Computarizado: Es trasladar el sistema
objetivo es que estos datos puedan ser consultados, de pensamiento que utilizaría un científico informático a
redistribuidos y reutilizados libremente. la resolución de un problema: aplicar procesos de pensa-
miento lógico, sistémico, algorítmico, para lograr repre-
Outliers: Se dice que un dato es un outlier o dato aislado, sentar las soluciones a un problema como secuencias de
cuando se encuentra fuera de lo que sería la distribución instrucciones y algoritmos.
normal. Estadísticamente, se diría que esto sucede si se
encuentra muy distanciado del resto de datos. Recall: Esta métrica informa sobre la cantidad que un
modelo de Machine Learning es capaz de identificar.

Pp
Por ejemplo: ¿qué porcentaje de los clientes que están
interesados, somos capaces de identificar?

Precisión: Es una métrica para determinar la calidad del Redes Generativas Adversariales (GANs por sus siglas
modelo de Machine Learning en tareas de clasificación. en inglés): Son una nueva forma de utilizar Deep Learning
Por ejemplo: ¿qué porcentaje de los clientes que contac- para generar, por ejemplo, imágenes que parezcan rea-
temos estarán interesados? les, música y predicciones futuras, entre otros.

Procesamiento del Lenguaje Natural (PLN): Hace posi- Redes Neuronales Artificiales (ANN): Familia de mode-
ble la compresión y procesamiento asistidos por orde- los de Aprendizaje Automático formados por un conjunto
nador de información expresada en lenguaje humano, o de unidades conectadas llamadas neuronas. Pueden
lo que es lo mismo, hace posible la comunicación entre utilizarse tanto para tareas de clasificación como de
personas y máquinas. regresión.
Glosario

Redes Peer to Peer: Son redes de ordenadores en las


que todos o algunos aspectos funcionan sin clientes ni
servidores fijos, pero sí con una serie de nodos que se
comportan como iguales entre sí. Las redes P2P permi-
ten el intercambio directo de información, en cualquier
formato, entre los ordenadores interconectados.

Regresión: Problemas de aprendizaje supervisado en


los que las etiquetas o target son numéricas, es decir,
valores continuos, e indican un valor asociado a cada
muestra.

Ss
Spark: Apache Spark es un motor de análisis unificado
de código abierto para el procesamiento de datos que

Uu
permite a los programadores realizar operaciones sobre
un gran volumen de datos en clústeres de forma rápida y
con tolerancia a fallos.
User Experience (UX): Conjunto de factores y ele- 135
Structured Query Language (SQL): Lenguaje especí- mentos que intervienen en la vivencia de una persona
fico de programación, diseñado para gestionar bases y con una empresa, lo cual ayuda a determinar cómo se
flujos de datos. Estos son algunos de los programas que sienten con respecto a la marca desde el primer hasta el
usan SQL: Oracle, MySQL, Microsoft SQL Server, Access, último contacto.
Ingres, etc.

Vv
Tt Valor-F (F1-score): Se utiliza para combinar las medidas
Target: Variable objetivo que se quiere predecir me- de precisión y recall en un solo valor. Esto es práctico
diante el empleo de técnicas de ML. Básicamente lo que porque hace más fácil el poder comparar el rendimiento
todos conocemos por “target”, pero aplicado a las IT. combinado de la precisión y la exhaustividad entre varias
soluciones.
TensorFlow: Biblioteca de código abierto desarrollada

Ww
por Google para llevar a cabo proyectos de Machine
Learning.

Test de Turing: Es un experimento en el que un humano Watson: Es un sistema basado en Inteligencia Artificial
mantiene una conversación con una computadora y otra capaz de responder a preguntas formuladas en lenguaje
persona, pero sin saber quién de los dos conversadores natural, desarrollado por la empresa estadounidense
es realmente una máquina. El objetivo es determinar IBM.
si la inteligencia artificial puede imitar las respuestas
humanas. World Wide Web (WWW): Red informática mundial,
sistema lógico de acceso y búsqueda de la información
Transistor: Es el dispositivo electrónico semiconductor disponible en Internet, cuyas unidades informativas son
que permite el paso de una señal en respuesta a otra. las páginas web.
Hemos querido regalarte una cita entre arte y
tecnología, y para eso elegimos el arte de uno de
los ilustradores españoles más reconocidos a nivel
internacional. Sus creaciones tratan de historias,
personajes y experiencias a lo largo del tiempo; y
se basan en las relaciones con el arte popular, la
cultura del tatuaje tradicional y moderno, el imagi-
nario religioso europeo y las artes tribales.

RICARDO
CAVOLO
Ricardo Cavolo

137
Ricardo Cavolo

El corazón de
Ricardo Cavolo
Nacido en Salamanca en 1982 y bajo la influencia de
la pintura de su padre, Ricardo Cavolo aprendió desde
pequeño a coger bien el lápiz, “para no soltarlo desde
entonces”.

Tras su paso por Bellas Artes, se destacó por su estilo


naïf con colores fuertes y vibrantes, que reflejan variadí-
simas referencias estéticas como videojuegos, cómics,
dibujos animados, superhéroes, tarot, arte popular y
todo tipo de universos místicos. Y, cómo no, por los 4 ojos
de sus personajes, tan potentes por su diseño como por
su historia.

“Un día le pregunté a mi padrastro, que era gitano: ¿cómo


es que sabes tanto, si no sabes ni leer ni escribir? Y él 138
contestó: sé muchas cosas porque he vivido muchas co-
sas. Cuanto más viajas, más ves y más sabes. Es por eso

El amor inclusivo
que los 4 ojos son un mimo que le hago a mis personajes,
para que sean especiales”.

¿Quién mejor que un artista para combinar la fantasía


con una visión crítica de la sociedad? Con un estilo
directo, formas sencillas y una paleta de color llamativa y
cálida, Ricardo Cavolo crea composiciones cargadas de
detalles y simbología, que expresan más cuanto más se
las explora.

Sus diseños abarcan heterogéneos formatos como


pinturas para exposiciones y murales, e ilustraciones
editoriales para campañas publicitarias. Trabajos que
lo han llevado a participar en diversos festivales como
Mural (Canadá), Glastonbury Festival (UK), Cut Out Fest
(México) o Mulafest (España); y exposiciones en galerías
de Madrid, Londres, Nueva York, Montreal, Oporto y Milán.

Por su parte, ofrece talleres de ilustración a lo largo del


mundo, y ya ha colaborado con diversas obras de arte
para marcas como Gucci, Apple, Zara, Starbucks, Alexan-
der McQueen, Bally, Nike, Converse, Coca-Cola, Levi’s y
Circo del Sol, entre otras.
Sun & Moon _ Ricardo Cavolo
Ricardo Cavolo

139
Ricardo Cavolo

La magia de la
singularidad
¿Cómo destacar el encanto de su arte? Sin duda en el
caso de Ricardo Cavolo la respuesta está en el esfuerzo
diario y la fe que tiene en sí mismo.

Es cierto que el mundo está lleno de trampas y fosos, y


la carrera a veces puede ser confusa. Quizás la mayor
magia está en meterse a fondo en lo que uno ama. “Va
a sonar muy cursi, pero el gran hito pasa cada día que
me levanto y voy al estudio a trabajar en lo que más me
gusta en el mundo. Así día tras día, ya hace 12 años”. Y en
estar siempre dispuesto a dar un paso más.

Es el caso de este e-book. Es la primera vez que Cavolo


trabaja en un proyecto cuyo fin principal es ofrecer con-

El poder de la
tenido de actualidad para enseñar a través de la singula- 140
ridad de sus ilustraciones.

diferencia
¿Qué tiene de especial este libro? En todo su proceso
de creación se aplicó Learning by doing. Una metodo-
logía clave para el éxito, que se basa en el desarrollo de
habilidades a través de la experimentación. Aprendiendo
a resolver los verdaderos desafíos y adquiriendo nuevos
conocimientos y habilidades, partiendo de los errores y
aciertos propios.

Esta es la metodología de enseñanza de Nuclio Digital


School y el procedimiento que llevó adelante Cavolo a la
hora de lanzarse a este ambicioso proyecto.

En palabras del artista: “Traté de traducir la idea que


debía desarrollar, a mi lenguaje de fantasía. Una vez que
encontré el lugar en ese universo de inspiraciones, lo
comencé a envolver con detalles y símbolos que lograran
cerrar con el significado”.

Un significado que, fundamentalmente, plasma la íntima


relación entre diseño y tecnología.
Wall of friends _ Ricardo Cavolo
Fantasy _ Ricardo Cavolo
Ricardo Cavolo

141
AGRADECI-
MIENTOS
Agradecimientos

143
Agradecimientos

Toni Badia (I)


desarrollé un gran interés por la tecnología, gracias a las
series de televisión y películas que veía, y a la profesión
de mis padres. Decidí estudiar Ingeniería Aeroespacial
Mi nombre es Toni Badia, soy un joven emprendedor en la Universitat Politècnica de Catalunya, entre otras
de Barcelona apasionado y dedicado a todo aquello en cosas, porque necesitaba responderme cómo es posible
lo que confluyen economía y tecnología. Creo que la que un amasijo de metal consiga volar. Durante la carrera
atracción que siento por el mundo de los datos viene de me acabaron interesando más las materias que tenían
los hábitos de mi familia, que siempre ha compartido los una componente de programación y optimización, y
conocimientos de forma abierta y sin tabúes. A pesar actualmente me fascina cómo puedo experimentar e
de que mi formación académica sea en empresariales y innovar desde mi propio ordenador.
derecho, con cursos especializados y de manera autodi-
dacta, he aprendido todos esos conocimientos que no se Al acabar el máster, después de trabajar como Ingenie-
encuentran en las universidades y que me despertaban ro en SEAT, decidí adentrarme en el Data Science y la
un gran interés. Es el caso del Big Data y la Inteligencia Inteligencia Artificial de la mano de Nuclio Digital School.
Artificial, que llamaron mi atención hace ya muchos años A partir de eso empecé a trabajar como Data Scientist en
cuando diseñaba campañas de SEM para una de mis un grupo hotelero internacional, Grupo Hotusa. Y junto a
startups. nuestro equipo desarrollamos proyectos y herramientas
que sacan partido a los datos. El principal objetivo es
Después de unos años emprendiendo distintos nego- atender las necesidades de nuestros clientes, maximizar
cios, entré por completo en el universo de la blockchain, los ingresos del grupo y optimizar procesos internos.
primero como trader y posteriormente como co-fundador Para ello, necesitamos un gran entendimiento del nego-
de Dragon Corp Games. A partir de esto, hemos recibido cio, obsesión por el detalle y pasión por el análisis.
un montón de información de proyectos NFT Gaming que

Massimiliano Brevini (III)


clasificamos y evaluamos, siendo necesario entrar de
lleno en el apasionante mundo del Big Data y la IA. Aun
así, todavía no he sido capaz de hacerle entender a mi 144
abuela a qué me dedico. Mi nombre es Massimiliano Brevini y soy italiano de
origen, aunque llevo unos 5 años viviendo en España,

Carlos Pérez (II)


principalmente entre Barcelona y Valencia. Trabajo como
Senior Data Analyst para una empresa española del sec-
tor tecnológico y estoy cursando dos másteres afines al
Mi nombre es Carlos Pérez Ricardo, soy hijo de una mundo de la ciencia de datos, uno con especialización en
familia trabajadora de origen cubano y desde pequeño la ingeniería de datos y otro en la ingeniería matemática.

(II)

(I)
Agradecimientos

Mi pasión por la tecnología y los datos se desarrolló mi propia empresa, Horus ML, dedicada al desarrollo de
cuando era pequeño, concretamente cuando me regala- proyectos innovadores de Machine Learning en el ámbito
ron mi primer ordenador, con Windows 95. Aunque estoy sanitario, dado que crear aplicaciones en sanidad siem-
orientado al mundo Data Science/IA, empecé trabajando pre ha sido mi objetivo a nivel laboral por su gran poten-
en el sector de logística y operaciones en Glovo (Barce- cial de impacto positivo.
lona) y luego en el mundo de micromovilidad eléctrica,

Espartaco Camero (V)


de la mano de Voi. Lo que más me gusta del universo
Data Science es que nunca paras de estudiar y aprender
cosas nuevas, además de utilizar múltiples disciplinas
interconectadas como matemáticas, informática y Hola, mi nombre es Espartaco Camero y soy italo-vene-
negocios, para generar valor, extraer conocimiento y dar zolano. Estudié Matemática en la Universidad Central de
respuestas precisas dentro de la organización. Venezuela, y aunque la carrera allí era bastante teórica,
siempre me inclinaba por la parte aplicada de la misma,

Jesús Prada Alonso (IV)


enfocándome en estadística y probabilidad, así como en
programación. Posteriormente hice una Especialización
en Estadística, donde tuve mayor contacto con temas
Mi nombre es Jesús Prada Alonso y soy Doctor en asociados a Machine Learning y Data. Aunque ya sabía
Machine Learning e inconformista por naturaleza. que el mundo de los datos era lo que me apasionaba,
Siempre me han atraído mucho las matemáticas, pero a comencé dando clases de Matemáticas en la universidad
la hora de decidir qué estudiar tenía algo de miedo por por 3 años, hasta que encontré una oferta para aplicar
las reducidas salidas laborales que tenía la carrera en mis conocimientos en el mundo de la investigación de
ese entonces. Por este motivo, y dado que la informática mercados. Fue allí cuando inicié mi carrera como Data
siempre ha estado muy presente en mi casa, decidí estu- Analyst.
diar un plan doble de informática-matemáticas y un do-
ble máster de Inteligencia Computacional y Matemáticas Durante más de una década he pasado por empresas
Aplicadas. Fue en ese momento cuando escuché hablar como eDreams Odigeo, Ymedia y Telefónica, trabajando 145
por primera vez sobre Machine Learning, ¿y qué decir? como Data Scientist en el desarrollo de modelos de Ma-
Creo que fue amor a primera vista. chine Learning que añadieran valor a diferentes unidades
de negocio como marketing, fraude, User Retention,
Desde entonces he cursado un doctorado centrado entre otros. Actualmente lidero el equipo de Data Scien-
en las técnicas de Machine Learning y un máster en ce y Analytics para Mad Collective, donde usamos data
Bioestadística y Biología Computacional. Me convertí en para responder preguntas complejas de la manera más
freelancer y he colaborado con compañías como Iberia acertada, para partners estratégicos de negocio.
Express y en todo tipo de proyectos. Luego emprendí

(III)

(IV)

(V)
Agradecimientos

(I)

(VI)

(III)

(V)
(II)

(IV)
Agradecimientos

Guillem Sánchez (I) Victoria Bonifacino (II)


Responsable de proyectos y comunicación, me he Encargada de la redacción creativa y edición del conteni-
encargado de dar vida a todo lo que rodea a este libro do técnico del e-book. Nací en Argentina, donde estudié
digital. Nacido en Barcelona, el mundo del marketing y la Comunicación Social, Publicidad y Creatividad. En busca
comunicación creativa son lo mío, siempre potenciado de nuevas aventuras y aprendizajes me mudé a España
por un mismo objetivo: romper los esquemas de una y trabajo como Content Manager para Nuclio Digital
construcción social impuesta. School.

Aquí nadie se va a inventar nada La vida es el arte de escribir sin borrar

Sandra Párraga (III) Melina Belén Delgado (IV)


Responsable del diseño editorial y la línea gráfica Encargada de la Traducción y transcreación del e-book.
del libro digital e impreso. Nacida en Barcelona, soy Soy de Argentina, me gradué en traducción y en el 2021
diseñadora gráfica especializada en diseño de interfaz aterricé en Barcelona para estudiar Marketing. Hoy me 147
y experiencia de usuario. Este proyecto ha sido todo un dedico a la comunicación creativa en inglés y español.
reto para mí, ¡y lo he disfrutado mucho!

Ningún proyecto es imposible si te Las palabras son nuestra fuente


rodeas de las personas adecuadas más inagotable de magia

Julieta Pandiani (V) Esther García (VI)


Manager del Departamento Creativo, encargada de la Diseñadora gráfica y creadora audiovisual, he participado
consistencia visual del e-book, coherencia comunicativa como maquetadora y en la estrategia de difusión de redes
visual y escrita, y coordinación del equipo para lograr sociales del libro digital. Nací en Barcelona y llevo más de 4
los objetivos. Nací en Argentina y llevo más de 8 años años trabajando en el mundo creativo.
de experiencia como diseñadora gráfica, especializada
en branding.

La creatividad es la inteligencia
Las cosas pasan por algo divirtiéndose
Si estás aquí es porque tenemos algo en
común. Nos une el fuego imparable de la
revolución digital. No nos basta ser parte,
queremos ser protagonistas, líderes.
El apasionante mundo de los datos tiene
mucho más por explorar.
Dar el siguiente paso depende de ti.
Te invitamos a que conozcas más sobre
Nuclio Digital School. Estaremos a tu lado
asegurando tu impulso.

También podría gustarte