Texto Semana 1

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 31

Tabla de contenido

Algunos antecedentes históricos de la Inteligencia Artificial


¿Qué es la Inteligencia Artificial?
El TEST DE TURING.
LOS AGENTES en Inteligencia Artificial
Machine Learning
Las fases de un proyecto de Machine Learning
Regresión Lineal
Aprendizaje no supervisado.
Desafíos del aprendizaje no supervisado
Aprendizaje por refuerzo
Deep Learning o Aprendizaje Profundo.

Departamento de Educación a Distancia | ucema.edu.ar/on


Algunos antecedentes históricos de la Inteligencia Artificial
Aunque parezca muy extraño, la Inteligencia Artificial no es un concepto nuevo. No surgió
con ChatGPT, no surgió con la aparición de internet. Tampoco surgió con la aparición de la
primera computadora personal (PC) …a decir verdad tiene muchos años más de antigüedad.
No existe un momento particular en la historia, en el que pueda ubicarse el inicio formal de
la Inteligencia Artificial. Algunos autores establecen que el primer concepto sobre
Inteligencia Artificial se remonta al año 1943, cuando 2(dos) científicos llamados Warren
McCulloch y Walter Pitts publican un paper de investigación denominado: “The McCulloch-
Pitts Model of Neuron” donde se hace referencia a ciertas cuestiones técnicas que
emulaban el comportamiento de una neurona humana pero de manera física.

Otros autores, lo remontan al año 1950 cuando un conocido matemático Inglés, llamado
Alan Turing publicó un artículo en la revista Mind, titulado “Computing Machinery and
Intelligence”, en el que reflexionaba sobre el concepto de inteligencia artificial y establecía
lo que luego se conocería como el test de Turing. Un test muy conocido y famoso en el
mundo de la Inteligencia Artificial. 1

Lo cierto es que aún en la década de 1950, el término Inteligencia Artificial (tal como lo
conocemos hoy) no existía. Recién se establece en el año 1956, en una conferencia muy
famosa, donde se abordó formalmente el tema de la “Inteligencia Artificial”. De esa
conferencia que se llamó “Dartmouth Summer Research Project on Artificial Intelligence”
participaron grandes personalidades de la historia de la informática y quienes hoy son
llamados “Los padres de la Inteligencia Artificial”. Algunos de ellos, los mas reconocidos,
sobre todo por los libros y publicaciones que realizaron a lo largo de la historia son los
investigadores: McCarthy, Marvin Minsky, Nathaniel Rochester y Claude E. Shannon. Estos
investigadores fueron muy importantes porque establecieron las bases de la inteligencia
artificial como un campo independiente dentro de la informática.

1 NOTA: Existe una película que se llama “Enigma”, la misma trata sobre la vida de Alan Turing, y justamente
cómo con dispositivos analógicos logró construir durante la segunda guerra mundial, una especie de
inteligencia artificial, para descifrar los mensajes encriptados que se enviaba el ejercito Alemán. Con esa
tecnología logró un gran avance científico pero también un gran avance para la humanidad. La película
tiene algunos años, pero se encuentra fácilmente en las plataformas de películas y series, por si no la vieron.
La vida de Alan Turing es muy interesante.

Departamento de Educación a Distancia | ucema.edu.ar/on


Fuente: foto extraída de internet.

De 1957 a 1974, la Inteligencia Artificial floreció. Las computadoras podían almacenar más
información y ser más rápidas, más baratas y accesibles. Todavía no existían las
computadoras personales, pero sí comenzaron los primeros algoritmos de aprendizaje
automático. De todas formas, cabe acotar que todo lo relacionado a la inteligencia artificial
en los años sesenta, como tal, no tuvo muchos éxitos ya que requería demasiada inversión
de dinero para aquel entonces, y la mayoría de las tecnologías eran propias de grandes
centros de investigación. En los años 70’s a 80’s se lograron algunos avances significativos
en una de sus ramas llamada Sistemas Expertos, con la introducción de algunos lenguajes
de programación como PROLOG o LISP.

Lo que vino despues, con el surgimiento de la computadora personal, los avances


tecnológicos, la nanotecnología, los micro procesadores cada vez mas potentes, el
surgimiento de internet, las grandes velocidades de las redes de datos, en definitiva, todo
lo que hoy nos rodea, creó el entorno propicio para que la investigación y el desarrollo en
el campo de la Inteligencia Artificial, ya no solo esté al alcance de los grandes centros de
investigación, sino que está al alcance de cualquiera que desee investigar el tema.

Departamento de Educación a Distancia | ucema.edu.ar/on


¿Qué es la Inteligencia Artificial?
Si buscamos definiciones formales, por ejemplo, la RAE (Real Academia Española) la define
como:

● Capacidad de entender o comprender.


● Capacidad de resolver problemas.
● Conocimiento, comprensión, acto de entender.

Y brinda una definición: “Disciplina científica que se ocupa de crear programas informáticos
que ejecutan operaciones comparables a las que realiza la mente humana, como el
aprendizaje o el razonamiento”.

Algunos autores reconocidos en el ámbito de la Inteligencia Artificial brindan su propia


definición al respecto:

Marvin L. Minsky: “La IA es la ciencia de hacer máquinas que hagan cosas que realizadas
por el hombre requieran uso de inteligencia”.

• N. Nilsson: “El campo de la IA tiene su principal contenido en aquellos procesos comunes


que reúnen percepción y conocimiento, amén que el proceso pueda ser comprendido y
estudiado científicamente”.

• John McCarthy: “Es la ciencia y la ingeniería para fabricar máquinas inteligentes,


especialmente programas informáticos inteligentes. Está relacionado con la tarea similar de
usar computadoras para comprender la inteligencia humana, pero la IA no tiene que
limitarse a métodos que son biológicamente observables”.

Lo cierto es que la Inteligencia Artificial no es otra cosa que un conjunto de algoritmos


informáticos que son programados para “simular” y parecerse al comportamiento humano.
Estos algoritmos a grandes rasgos son programados para cumplir objetivos específicos, y
por ello serán capaces de aprender por si solos, de razonar, de ser creativos, y por supuesto
tomar decisiones, tal como lo hacen los seres humanos.

Por supuesto, la inteligencia artificial se puede equivocar, como también se pueden


equivocar los humanos al momento de decidir. Los “modelos” no son perfectos. Requieren
tiempo, ensayos, y fundamentalmente algunos de ellos, requieren cierto entrenamiento
para que funcionen de manera correcta. Eso lo veremos más adelante.

Departamento de Educación a Distancia | ucema.edu.ar/on


Departamento de Educación a Distancia | ucema.edu.ar/on
El TEST DE TURING.
Haciendo un poco de historia, y recordando lo que mencionábamos anteriormente sobre el
matemático Ingleés Alan Turing y la Inteligencia Artificial, cabe mencionar un hecho
particular que incluso hasta el día de hoy se sigue aplicando. Este hecho particular se trata
del denominado TEST DE TURING.

Alan Turing, en el año 1950, presentó un trabajo el cual contenía una especie de “Prueba”
que se realizaba con el fin de determinar cuando la inteligencia artificial es comparable con
el razonamiento humano. Esa prueba, es el TEST DE TURING.

Alan Turing sugirió el “juego de imitación”: un interrogador humano remoto, dentro de un


período de tiempo fijo, debe distinguir entre una computadora y un sujeto humano
basándose en sus respuestas a varias preguntas planteadas por el interrogador. Es decir, la
prueba consiste en que un “humano” mantiene una conversación con una computadora y
con otra persona al mismo tiempo, pero sin saber quién de los dos conversadores es
realmente una máquina (con IA). El objetivo de este experimento es determinar si la
inteligencia artificial puede imitar las respuestas humanas. En este sentido, el humano hace
preguntas tanto a la otra persona como al chatbot y si no puede identificar si alguno de los
dos sujetos es o no una máquina, la computadora pasa con éxito la prueba de Turing.2

2 Una cuestión muy curiosa sobre este TEST, es que se realizan en todo el mundo, certámenes donde se

otorgan premios a quienes puedan “pasar” con mayores exigencias este TEST DE TURING. Uno de los
certámenes mas conocidos es el de la Universidad Exeter (https://loebner.exeter.ac.uk).

Departamento de Educación a Distancia | ucema.edu.ar/on


Imagen simbólica del TEST De TURING extraída de internet

LOS AGENTES en Inteligencia Artificial


Un agente es una “Entidad”. Entiéndase entidad, como cualquier cosa que perciba su
entorno a través de sensores y actúa sobre ese entorno por medio de actuadores. En otras
palabras, ejecuta el ciclo de percibir, pensar y actuar.

Este agente ha sido definido como un sistema hardware o software que es autónomo,
interactivo y reactivo a su entorno e incluso a otros agentes. A su vez, puede ser proactivo
al tomar la iniciativa en un comportamiento dirigido hacia objetivos.

Imagen extraída de internet

Departamento de Educación a Distancia | ucema.edu.ar/on


Existen diferentes clases de agentes en función de su comportamiento en diferentes
entornos operativos definidos principalmente por: las tareas que debe realizar, los recursos
que dispone para efectuarlas, las condiciones de contexto que pueden influenciar a su
funcionamiento, y los criterios de evaluación que debe satisfacer.

Un “agente inteligente” es una entidad autónoma que actúa sobre un entorno utilizando
sensores y actuadores para lograr objetivos. Es decir, puede aprender del
entorno para lograr sus objetivos.3

Las siguientes son las cuatro reglas principales para un agente de IA:

● Un agente de IA debe tener la capacidad de percibir el entorno.


● La observación debe usarse para tomar decisiones.
● La decisión debe resultar en una acción.
● La acción realizada por un agente de IA debe ser una acción racional.
Un “agente racional” es un agente que tiene una preferencia clara, modela la incertidumbre
y actúa de manera que maximiza su medida de desempeño con todas las acciones posibles.
Percibe y actúa para cumplir con sus objetivos con base en sus creencias de lo que es
correcto, por lo tanto, se dice que un agente racional realiza las cosas correctamente.

Los agentes se los puede clasificar de diversas formas, una de las clasificaciones
tradicionales es en agentes naturales (biológicos) y los agentes artificiales (creados por el
ser humano).

Dentro de los agentes artificiales, que son los que nos interesan en nuestro caso, se pueden
clasificar en:

● Agente robótico (Robots): un agente robótico puede tener cámaras, telémetro


infrarrojo, y varios motores para actuadores. Ejemplos de estos agentes se
encuentran en las industrias, como un brazo robótico en la automotriz.

3Un “entorno” es todo lo que rodea al agente en el mundo, pero no es parte de un agente
en sí. Se puede describir como una situación en la que está presente un agente.
Es donde el agente vive, opera y le proporciona algo para sentirlo y actuar sobre él.

Departamento de Educación a Distancia | ucema.edu.ar/on


Un agente robótico trabaja a la par de los humanos en la línea de ensable de BMW
Extraído de: https://www.cronista.com/infotechnology/it-business/En-las-fabricas-de-
BMW-los-robots-trabajan-junto-a-las-personas-20140321-0002.html

Por otro lado, tenemos a los Agentes de software (Softbots): el agente de software puede
tener pulsaciones de teclas, el contenido del archivo como entrada sensorial y actuar sobre
esas entradas y mostrar la salida en la pantalla de una computadora. Los softbots son los
que cada día se incorporan más en las actividades diarias, por ejemplo, los chatbots en las
páginas web.

Otro ejemplo que está tomando mucha fuerza, son los softbots que operan realizando
transacciones comprando y/o vendiendo cualquier tipo de especie (acciones, divisas,
criptomonedas, etc).

Departamento de Educación a Distancia | ucema.edu.ar/on


Un Agente de Software, como puede ser un ChatBot, mantiene conversaciones en
lenguaje natural y asiste a las personas en tiempo real, mejorando la calidad de atención,
los tiempos de respuesta y aumentando la satisfacción del cliente.
Fuente: Imagen extraída de internet

Hasta aquí, hemos realizado un pasaje histórico de la Inteligencia Artificial, hemos visto las
definiciones elementales que subyacen al tema y nos dedicamos a brindar definiciones y
contextualizar en términos generales. Lo que seguramente el lector se esté preguntando,
es ¿cómo es posible que los algoritmos aprendan?. De eso nos ocuparemos a continuación.

El campo de la Inteligencia Artificial es tan amplio, que se ha divido en partes específicas.


De hecho, es común haber escuchado términos como Machine Learning, Deep
Learning…Redes Neuronales, entre otros, pero veamos cómo se clasifica la Inteligencia
Artificial para poder adentrarnos a comprender como es que funciona, y cómo es que
finalmente, se puede lograr que las computadoras “aprendan”.

Departamento de Educación a Distancia | ucema.edu.ar/on


Imagen extraída de internet

Como se observa en la imagen, tanto el Machine Learning como el Deep Learning, son parte
(un subconjunto) de la Inteligencia Artificial. La Inteligencia Artificial como vimos
anteriormente, trata de programas que son diseñados con el fin de imitar la forma en la que
aprenden y razonan los seres humanos. Ahora para poder lograr eso, se requiere que se
conozcan y apliquen ciertos algoritmos que son capaces de cumplir con ese objetivo.

Algunos algoritmos basan su funcionamiento y su aprendizaje de forma automática, en


modelos estadísticos y matemáticos (ese es el caso de Machine Learning) y otros algoritmos
más complejos, como el Deep learning, implica lo mismo pero aplicando conceptos, por
ejemplo de redes neuronales (que desarrollaremos un poco más adelante). Deep Learning
también es conocido como el “aprendizaje profundo”.

Digamos que tanto el Machine Learning como el Deep Learning forman parte de lo que
conocemos con Inteligencia Artificial, y dependiendo del problema que debamos resolver,
podremos aplicar algoritmos de Machine Learning, o de Deep Learning (o ambos) para
resolver el problema y cumplir el objetivo. Para poder analizar cada uno es necesario ir por
partes.

Departamento de Educación a Distancia | ucema.edu.ar/on


Machine Learning
El aprendizaje automático es una tecnología en crecimiento que permite a las
computadoras aprender instantáneamente a partir de datos pasados. Este utiliza varios
algoritmos para construir modelos matemáticos y hacer predicciones utilizando
información o datos históricos.

Actualmente, se utiliza para diversas tareas, como reconocimiento de imágenes,


reconocimiento de voz, filtrado de correo electrónico, etiquetado automático de fotos,
sistema de recomendación y muchas más.

Un sistema de aprendizaje automático aprende de los datos históricos, crea los


modelos de predicción y, cada vez que recibe nuevos datos, predice nuevos resultados.
La precisión de la salida prevista depende en general, de la cantidad de datos, ya que una
gran cantidad de ellos ayuda a construir un mejor modelo que presagia la salida con una
mayor precisión. Por supuesto, los datos tienen que ser fidedignos para lograr este
cometido.

Algunas características distintivas de Machine Learning (ML) son:

1. El aprendizaje automático utiliza datos para detectar varios patrones en un conjunto


de datos determinado.
2. Puede aprender de datos anteriores y mejorar automáticamente.
3. Es una tecnología basada en datos.
4. ML es muy similar a lo que se denomina “minería de datos”, ya que también maneja una
gran cantidad de datos.

El aprendizaje automático técnicamente combina diversos conocimientos de


programación, algoritmia, matemáticas, probabilidad y estadística, y cuenta con diversas
“técnicas” para resolver diferentes tipos de problemas. En general, su característica es que
permite resolver cómodamente problemas, como veremos luego, que son catalogados
como problemas de REGRESIÓN o problemas de CLASIFICACIÓN.

Dentro del Machine Learning existen una gran variedad de algoritmos, apuntando a resolver
distintas problemáticas, pero a grandes rasgos el aprendizaje automático se puede clasificar
en tres grandes grupos. La forma en la que estos algoritmos aprenden puede estar dado
por:

1. Aprendizaje supervisado: se proporcionan datos previamente etiquetados de muestra al


sistema de aprendizaje automático para entrenarlo y, sobre esa base, predice un resultado.

Departamento de Educación a Distancia | ucema.edu.ar/on


El sistema crea un modelo utilizando información etiquetada para comprender los
conjuntos de datos y, de esa manera, instruirse sobre cada antecedente, una vez que se
realiza el entrenamiento y el procesamiento, probamos el modelo proporcionando una
muestra de datos para verificar si está prediciendo el resultado exacto o no.

2. Aprendizaje no supervisado: es un método de aprendizaje en el que una máquina asimila


sin supervisión. El entrenamiento se proporciona a la máquina con el conjunto de datos sin
que sean etiquetados, clasificados o categorizados, y el mismo algoritmo actúa sobre esos
datos sin ninguna supervisión. El objetivo del aprendizaje no supervisado es reestructurar
los datos de entrada en nuevas funciones o un grupo de objetos con patrones similares.

En el aprendizaje no supervisado, no se tiene un resultado predeterminado. La máquina


(computadora) intenta encontrar información útil a partir de una gran cantidad de datos
suministrados.

3. Aprendizaje por refuerzo: es un método de aprendizaje basado en la retroalimentación,


en el que un agente de aprendizaje recibe una recompensa por cada acción correcta y una
penalización por cada acción incorrecta. El agente aprende automáticamente con estos
comentarios y mejora su desempeño. En el aprendizaje por refuerzo, el agente interactúa
con el entorno y lo explora. El objetivo del agente es obtener la mayor cantidad de
recompensas y, en consecuencia, mejorar su desempeño.

El Machine Learning está presente en muchas partes a nuestro alrededor. Es común


encontrarnos con que se aplica a diversas industrias y casos de uso, como ejemplo:

1. Para la segmentación de los clientes: Uno de los casos típicos de aplicación es para
realizar “campañas” dirigidas y específicas en el mundo de los negocios. Esto puede

Departamento de Educación a Distancia | ucema.edu.ar/on


resultar en un proceso muy complejo en caso de tener que hacerse de forma
manual, porque el hecho de dividir a los clientes en grupos, más aún cuando el
negocio es demasiado grande se puede volver una tarea imposible de realizar. Es
entonces que los científicos de datos4, utilizan distintos algoritmos de agrupación y
clasificación para segmentar a los clientes en función de criterios específicos que el
negocio demande. Se utilizan, por ejemplo, datos como el historial de consultas en
una página de compras, consultas de productos vistos, productos que se colocan en
el carrito de compras y luego no se finaliza el proceso de adquisición, entre otros
tantos.

2. Ayuda en línea: La mesa de ayuda en línea es una de las aplicaciones que se puede
convertir en una de las más útiles de la inteligencia artificial en los negocios. Al visitar
un sitio web, se suele encontrar un chatbot que se ha abre automáticamente y en
donde se pueden hacer consultas sobre el contenido del sitio. Pero no solo eso, sino
que en los últimos tiempos, estas tecnologías han crecido tanto, que el chatbot, no
sólo se utiliza para brindar ayuda en línea, sino que el bot pasó a transformarse en
una especie de “Asistente virtual”. Ese asistente, opera las 24hs del dia, los 365 del
año y puede realizar operaciones de atención al cliente, utilizando lenguaje natural
(Inteligencia Artificial), puede realizar transacciones (por ejemplo, registrar un
reclamo, o realizar una compra). También puede realizar encuestas o mismo, se
utiliza para realizar “Recuperos de Deuda”, es decir ayuda a mejorar las cobranzas.
En definitiva, optimiza los procesos de negocio, la atención y customer sat.

Muchas empresas, sobre todo, después de pandemia, se vieron casi obligadas a


implementar este tipo de soluciones para asegurar la continuidad del negocio. Los chatbots
que usan inteligencia artificial sobre todo para llevar a los clientes al concepto de “Self-
Service” es decir, auto gestión, es uno de los casos más utilizados en la actualidad, en
empresas donde la atencion al cliente es crítica. Veremos más adelante casos de cómo se
implementan estas soluciones y que beneficios trae, tanto para los clientes (consumidores)
como para las empresas.

3. Sistemas de recomendación: Un sistema de recomendación es una de las aplicaciones


que más se ha extendido en el aprendizaje automático en los negocios. Es una especie de
automatización de lo que sería un vendedor que atiende detrás de un mostrador en una
tienda. Al solicitarle al vendedor un producto, él no solo verá ese producto, sino también
aquellos que están relacionados. Entonces, los sistemas de recomendación buscan imitar
ese comportamiento. ¿Cuántas veces después de comprar un producto por internet, la

4 Los Científicos de Datos (data scientists) son personas que tienen un perfil muy particular: deben saber

mucho de estadística, de manipulación de datos, de matemática, y por supuesto deben saber mucho de
programación. Son uno de los perfiles más demandados en la actualidad en todas partes del mundo.

Departamento de Educación a Distancia | ucema.edu.ar/on


aplicación que usamos para comprar, nos recomienda otros productos que podrían
interesarnos?. Seguramente al lector le ha sucedido algo similar. Esos sistemas de
recomendación, son muy utilizados en la actualidad.

4. Detección de fraudes en línea: El aprendizaje automático puede hacer que una


transacción en línea sea segura mediante la detección de transacciones fraudulentas.
Siempre que se realiza una transacción en línea, existen diversas maneras en que se puede
realizar un fraude, por ejemplo: cuentas falsas, identificaciones inexistentes y robo de
dinero.
Para cada transacción genuina, hay un patrón específico que cambia con respecto a aquella
que es un fraude, por lo tanto, lo detecta y hace que las transacciones en línea sean más
seguras.
Bancos, billeteras virtuales, los medios de pago, son ejemplos de empresas que requieren
y que implementan este tipo de soluciones, para disminuir los fraudes que a decir verdad,
existen en todo el mundo.5

Las fases de un proyecto de Machine Learning


En realidad, los proyectos de aprendizaje automático no son sencillos, son un ciclo que se
repite entre la mejora de los datos, el modelo y la evaluación que e términos prácticos,
nunca termina realmente. Este ciclo es crucial en el desarrollo de un modelo de Machine
Learning, porque se enfoca en usar los resultados de dicho modelo y la evaluación para
“refinar” su conjunto de datos.

Un conjunto de datos de alta calidad es la forma más segura de entrenar un modelo de gran
eficacia6. La velocidad a la que se repite este ciclo es lo que determina sus costos;
afortunadamente, existen herramientas que pueden ayudar a acelerar el ciclo sin sacrificar
la calidad.

5 Las nuevas tecnologías son excelentes. Tienen capacidades de mejorar la rentabilidad de las empresas, la
satisfacción de los consumidores, pero así como se implementa la tecnología para cuestiones que mejoran la
vida de las personas y de una sociedad, también se puede utilizar para causar daños. Los robos podrían ser
posibles daños, que son producidos por personas que con mucho conocimiento de tecnología, implementan
soluciones para realizar estafas. La ciber delincuencia ha crecido y evolucionado tanto que no puede dejarse
de lado. Es importante estar atentos y tomar medidas que garanticen la seguridad de nuestra empresa y de
nuestros clientes.
6 Recordemos que estos modelos funcionan muy bien sobre la base de datos históricos. Si los datos no son

verídicos, o no son reales, no tendrá sentido alguno la información que podamos extraer de allí.

Departamento de Educación a Distancia | ucema.edu.ar/on


Si bien la implementación de un proyecto de Machine Learning, no sigue un proceso lineal,
se explicará a continuación un esquema básico y muy simple que nos permitirá comprender
cada una de sus fases.

Los datos

Implementación El modelo

La evaluación

Fases de un proyecto de Machine Learning (elaboración propia)

La primera fase, Los datos:

Los datos para realizar un proyecto de Machine Learning, en general ya existen dentro de
una empresa. Si no existen, se deben generar, se deben almacenar y se deben procesar.

El primer procesamiento que se realiza es el procedimiento de “Limpieza” de los datos. El


proceso de limpieza consta en líneas generales de:

● Identificar y solucionar el problema de datos faltantes.


● Los datos duplicados o hasta a veces, triplicados.
● Los datos que sean inválidos.
● Datos que produzcan ruido o distorsión

Para esto existen diversas técnicas de filtrado y manipulación de datos con la finalidad de
solucionar esos problemas.

Departamento de Educación a Distancia | ucema.edu.ar/on


La Segunda fase, El Modelo: El objetivo de esta fase es construir un modelo de aprendizaje
automático para analizar los datos utilizando varias técnicas analíticas y revisar el resultado.
Se comienza determinando el tipo de problemas, donde se selecciona la o las técnicas de
aprendizaje automático como pueden ser de clasificación, regresión, análisis de clústeres
(agrupamiento), asociación, etc.; luego se construye el modelo utilizando los datos
preparados y se procede a evaluar dicho modelo.
Para esto, se utilizan conjuntos de datos (o datasets como se los conoce habitualmente)
para “entrenar el modelo” usando diferentes algoritmos de aprendizaje automático. Es
necesario entrenar un modelo para que éste pueda comprender los distintos patrones, las
diferentes reglas y características dentro de la información suministrada.

Es probable que el proceso de entrenamiento requiera múltiples iteraciones. En general no


es un proceso simple y fácil de realizar, pero se terminarán adiestrando múltiples modelos
diferentes, por lo que las personas que se dedican a esto, deben de ser meticulosos en el
seguimiento de las diferentes versiones de de cada uno de los modelos entrenados, en los
parámetros y datos con los que se entrenó cada modelo, porque todo eso ayudará en gran
medida a mantener las cosas organizadas y, eventualmente, realizar alguna corrección para
mejorar el modelo a futuro.

Tercera fase, Evaluación: Una vez que obtenido un modelo, el cual ha aprendido de los
datos de entrenamiento, es hora de profundizar y ver qué tan bien podría funcionar con
datos nuevos, es decir, evaluar su eficacia.

Esto de alguna manera se logra utilizando un lote de “datos de prueba”, que por supuesto,
normalmente son extraídos de los datos originales.

La prueba o la evaluación del modelo determinará el porcentaje de precisión técnicamente


conocido como “accuracy” del modelo según el requisito del proyecto o problema.

En cuanto se tenga el modelo entrenado, se debe “ejecutar” y probar con algunas muestras
y observar el resultado del mismo. Esta es la mejor manera de encontrar si hay algún error
en el momento del entrenamiento, antes de ejecutar la evaluación en todo el conjunto de
prueba (llamado test set). También ayudará a ver si hay errores evidentes, como algún
etiquetado realizado de manera incorrecta.

Seguramente el lector luego de leer los párrafos anteriores se deberá estar preguntando
para sí mismo….¿cómo se hace para saber si un modelo arroja resultados que son
correctos?. Pues bien, una técnica simple de evaluar el resultado de un algoritmo de
machine learning, es la denominada “matriz de confusión”, normalmente usada en casos
de clasificación.

Departamento de Educación a Distancia | ucema.edu.ar/on


La matriz de confusión compara los valores objetivos reales con los predichos por el modelo
de aprendizaje automático. Esto brinda una visión holística de qué tan bien se está
desempeñando el modelo de clasificación y qué tipo de errores está cometiendo.

Veamos un ejemplo muy simple.


Supongamos que nuestro modelo de Machine Learning es entrenado para que nos
proporciones información sobre si una imagen que le ingresamos al modelo corresponde a
un animal tipo “Perro” o a un animal tipo “Gato”. Suponiendo que entrenamos al modelo
con un conjunto de 50 datos. Esto sería con 50 imágenes de perros, y con 50 imágenes de
gatos (como para tener un modelo con clases “balanceadas”).

La matriz de confusión, que recordemos nos sirve para ver qué tan bueno es el resultado
de nuestro modelo, podría ser el la siguiente (a modo de ejemplo):

Clase Predicha
Positivo (Perro) Negativo (Gato)
Positivo (Perro) Negativo (Gato)
Positivo (Perro) 45 5
Clase Real
Negativo (Gato) 3 47

Por un lado, tenemos lo que se llama Clase Real. La clase real en este caso son los PERROS
(que asumimos como valores Positivos) y los GATOS (que asumimos como negativos).

También tenemos la CLASE Predicha que son los resultados que arroja el modelo que
entrenamos en su salida.

El modelo, podrá darnos valores Positivos (si determinó que la imagen es perro) o podrá
darnos Negativos (si determina que es gato).

El valor 45 que corresponde a la primera intersección de positivos, entre la columna de la


clase real con la clase predicha, significa que, en nuestro modelo, de 50 imágenes que
obtuvimos de un dataset de pruebas, y las utilizamos como entrada….45 de esas imágenes
fueron clasificadas como Perros (es decir, como positivos).

Departamento de Educación a Distancia | ucema.edu.ar/on


Dicho de otro modo: el modelo acertó 45 veces. Mientras que, en 5 oportunidades, el
modelo se equivocó y en vez de detectar un Perro, se clasificó la imagen como un Gato. Ese
es el caso de la columna de al lado a 45. Nótese que 45 + 5 = 50. Es decir, la sumatoria de
las filas tienen que ser el total de clases que ingresamos como pruebas.

Asimismo, en la intersección de columnas negativas (Negativo de la clase real con negativo


de la clase predicha) vemos el valor 47. Ese valor 47 significa que de 50 imágenes que
obtuvimos del dataset de pruebas, 47 fueron catalogadas como negativos (es decir, como
Gatos) mientras que 3 de ellas, eran gatos pero fueron clasificadas como un perro…Por lo
tanto, podemos decir que hubo 3 errores de clasificación.

Podemos ver que, en la matriz de confusión, los valores que fueron correctos y son
catalogados como valores “buenos”, son los valores que se dan en la diagonal tomando los
valores de 45 y 47. Mientras que la diagonal que tiene los valores 3 y 5 son los errores que
el modelo cometió.

La matriz de confusión puede verse de maneral genérica, de la siguiente forma:

Clase Predicha
Positivo Negativo
Positivo Verdadero Positivo Falso Negativo
Clase Real
Negativo Falso Positivo Verdadero Negativo

Donde los “Verdaderos” que están pintados de verde, nos dan una idea de que tan bien
acertó nuestro modelo.

Cuarta fase, Producción: El último paso del ciclo de vida del aprendizaje automático es la
implementación o puesta en producción, en donde se implementa el modelo en el sistema
del mundo real.

Si el modelo creado produce un resultado preciso, se implementa el modelo en el sistema


real. Pero antes de implementar el proyecto, se debe comprobar si está mejorando su
rendimiento utilizando los datos disponibles o no.

Para esto se debe “monitorear” la implementación con el fin de asegurar de que el modelo
funcione como se espera con los datos de prueba con respecto a las métricas de evaluación
Departamento de Educación a Distancia | ucema.edu.ar/on
como la velocidad de inferencia. Además, al usar el modelo en producción con frecuencia
pasarán datos nuevos a través del modelo que nunca se han probado. Es importante en
este punto, realizar una evaluación y profundizar en muestras específicas para analizar el
rendimiento del modelo en los datos nuevos. Por eso es que decimos que en términos
prácticos el proyecto nunca termina porque siempre se deben incorporar nuevos datos con
el fin de optimizar y mejorar la eficiencia del modelo y siempre ocurre en general que
debemos estar realizando algunos ajustes sobre los modelos para evitar fundamentalmente
sesgos o errores de clasificación.

Como se desprende de todo lo mencionado, en un escenario de aprendizaje supervisado,


se tienen datos de entrada que han sido etiquetados previamente. Pero… ¿cómo es posible
etiquetar esos datos?.

Para simplificarlo piense como si pudiera garabatear un nombre en la parte posterior de


una fotografía para que las generaciones futuras puedan identificar a un pariente lejano.
Eso fue exactamente lo que hicimos en el modelo anteriormente explicado, donde teníamos
fotos de perros y de gatos…alguien determinó que una foto es perro o es gato y esa
determinación por medio del “etiquetado” permite que los modelos puedan funcionar
gracias a los algoritmos (en este caso, algoritmos de aprendizaje supervisado).

El algoritmo tomará una suposición cada vez que vea una instancia de datos (por ejemplo,
una fotografía), y esa suposición se comparará con la respuesta correcta, la etiqueta o el
nombre. El acto de “supervisión”, entonces, es esa verificación de conjeturas con respuestas
correctas. Cuando el algoritmo hace una suposición errónea, se puede detectar y el
algoritmo en sí se puede ajustar para que prediga mejor. Para ello vimos anteriormente la
matriz de confusión. A todo esto, se lo llama aprendizaje del aprendizaje automático con
supervisión.

La clasificación, en este contexto, es el uso de modelos de aprendizaje automático para


agrupar datos en distintos grupos o clases. Un ejemplo clásico es una herramienta que
puede indicar si una imagen es de un gato o un perro como vimos anteriormente, pero en
verdad, hay muchos otros casos de aplicación. Por ejemplo, estos algoritmos de clasificación
se utilizan para:

● Sistemas de reconocimiento facial


● Sistema de detección de correo SPAM
● Sistema de clasificacion de enfermedades
● Clasificación de tipos de imágenes

Departamento de Educación a Distancia | ucema.edu.ar/on


Adicional a los métodos de clasificación que hemos mencionado, en Machine Learning
también existen y se aplican los denominados métodos de Regresión (en cualquiera de sus
formas).

La regresión también utiliza modelos de datos etiquetados para predecir los valores de las
incógnitas que buscamos averiguar, siempre utilizando antecedentes históricos. Un
ejemplo de esto es la predicción de los precios de un nuevo producto basándose en
productos anteriores similares. También cuál puede ser la esperanza de vida para el año
2050.

Hay muchos casos de aplicación de la inteligencia artificial con modelos de regresión que
en el día a día nos puede ser de utilidad.

● Otros ejemplos de regresión en el mundo incluyen:


● Estimar cuantos productos A se van a vender en un tiempo especificado
● Predecir cuanto tiempo permanecerá un empleado en la empresa
● Estimar cuanto tiempo tardará un vehículo en llegar a destino
● Predecir la probabilidad de que un cliente pague una deuda

Dentro de los algoritmos de regresión, se destacan la Regresión Lineal y la Regresión


Logística. La Regresión lineal puede ser simple o de múltiples variables. También puede ser
Regresión No Lineal. En general la Regresión lineal se utiliza para predecir comportamientos
cuantitativos, mientras que la regresión logística se suele implementar como algoritmos de
clasificación, por ejemplo, para predecir si un tumor es maligno o benigno en función de sus
características.

Lo importante más allá de comprender las clasificaciones de los algoritmos es comprender


como es que funciona la Inteligencia Artificial para predecir comportamientos. Y para ello
sería interesante comprender como funciona un modelo básico de regresión lineal para
dejar el concepto general.

Regresión Lineal
Tomaremos el ejemplo de las horas de estudio Vs La nota del examen.

Supongamos que tenemos la siguiente información que se pudo recopilar de un estudio


empírico:

Departamento de Educación a Distancia | ucema.edu.ar/on


y= 0.2x + 2

En el Eje Y tenemos las notas que se sacaron los alumnos que rindieron el examen.
En el Eje X tenemos las horas de estudio de cada uno de ellos.

¿Qué nota podría obtener, la persona que estudió 25hs?.

Esa es la respuesta que trata de predecirse. Este modelo (en este caso) relaciona dos
variables y trata a partir de esta relación de estimar valores. Pero ¿cómo es esto posible?
La Lógica es bastante simple. Podríamos encontrar una recta (línea Roja) que siga la
distribución de esos puntos. Esa recta tendrá una fórmula que es la que todos conocemos
y=mx+b. Ese es el modelo del cual vamos a partir.

Si logramos calcular la pendiente de la recta, podríamos encontrar el valor que buscamos.

Por medio de diferentes métodos podríamos calcular la fórmula de la recta trazada en color
rojo.

Suponiendo que encontramos el valor: 𝑦 = 0.2𝑥 + 2


Predecir o aproximar la nota que obtendré si estudio 23hs es bastante simple.
F(25) = 0.2*25 + 2
F(25) = 7

Departamento de Educación a Distancia | ucema.edu.ar/on


El modelo de regresión lineal establece que si estudio 25hs sacaré un 7. Eso puede verse en
la figura.

Los algoritmos de Machine Learning, con aprendizaje automático pueden aplicar este tipo
de métodos para estimar valores como que el que analíticamente revisamos o incluso en
modelos más complejos, donde intervienen más variables (eso serían los casos de regresión
múltiple).

Además del aprendizaje supervisado en inteligencia artificial también existe lo que se


denomina “Aprendizaje no supervisado”, y de eso nos ocuparemos a continuación.

Departamento de Educación a Distancia | ucema.edu.ar/on


Aprendizaje no supervisado.
El aprendizaje no supervisado (Unsupervised Learning) es una técnica de aprendizaje
automático en la que los modelos no se supervisan mediante un conjunto de datos de
entrenamiento previamente etiquetados. En cambio, los modelos en sí mismos encuentran
los patrones ocultos y los conocimientos a partir de los datos proporcionados. Se puede
comparar con el aprendizaje que tiene lugar en el cerebro humano mientras se aprenden
cosas nuevas.

En una ejemplificación clásica para el aprendizaje no supervisado se recibe un conjunto de


datos de entrada que contiene imágenes de diferentes tipos de perros y gatos. El algoritmo
nunca se entrena sobre el conjunto de datos dado, como sí lo hacíamos anteriormente, lo
que significa que no tiene idea de las características del mismo. La tarea del algoritmo de
aprendizaje no supervisado es identificar justamente las características de la imagen por sí
solas. Entonces el algoritmo realizará esta tarea agrupando el conjunto de datos de
imágenes en grupos de acuerdo con las similitudes entre las imágenes. Esas similitudes por
lo general no son humanamente comprensibles.

Otro ejemplo: supongamos que queremos saber si una entrada al algoritmo corresponde a
una fruta. Dado que en el aprendizaje no supervisado no existe ninguna categorización o
etiquetado previo de los datos, el modelo no tendrá idea del concepto de fruta. Sin
embargo, podrá agrupar las imágenes según sus colores, tamaños, formas y diferencias. El
modelo agrupará las cosas de acuerdo con las similitudes, encontrando estructuras y
patrones ocultos en datos sin etiquetar. No existe un camino correcto o incorrecto, ni
tampoco un maestro. No existen resultados, solo un análisis puro de los datos.

NOTA: En el aprendizaje no supervisado, como hemos mencionado anteriormente, los datos


están sin etiquetar, por lo que desde un punto de vista, evita que un científico de datos tenga
que etiquetar cosas, lo que podría ser una tarea que requiere mucho tiempo y,
frecuentemente, imposible de completar. Por esto, los algoritmos de aprendizaje no
supervisados también permiten tareas de procesamiento más complejas. Una vez más, la
ausencia de etiquetado significa que se pueden mapear relaciones complicadas y grupos de
datos. La ausencia de etiquetado en los datos significa que no existen ideas preconcebidas
ni sesgos.

Los algoritmos de aprendizaje no supervisado se pueden clasificar para resolver tres tipos
de problemas:

• Problemas de Agrupación (Clustering): La agrupación es un método de aglomerar los


objetos en grupos, de modo que aquellos con más similitudes permanezcan en un grupo y
los que tengan menos o ninguna similitud con los de otro. El análisis de conglomerados
Departamento de Educación a Distancia | ucema.edu.ar/on
encuentra los puntos en común entre los objetos de datos y los categoriza según la
presencia y ausencia de esos puntos en común.

• Reglas de Asociación: una regla de asociación es un método de aprendizaje no


supervisado que se utiliza para encontrar las relaciones entre las variables en la gran base
de datos. Determina el conjunto de elementos que ocurren juntos en el conjunto de datos.
La regla de asociación hace que la estrategia de marketing sea más eficaz. A modo de
ejemplo, las personas que compran fiambre en fetas también tienden a comprar pan. Un
ejemplo típico de regla de asociación es el análisis de la cesta de la compra (Market Basket
Analysis).

• Reducción de dimensionalidad: Si bien más datos generalmente arrojan resultados más


precisos, también puede afectar el rendimiento de los algoritmos de aprendizaje
automático (por ejemplo, sobreajuste u overfitting) y también puede dificultar la
visualización de conjuntos de datos. Para ello la reducción de dimensionalidad es una
técnica que se utiliza cuando el número de características o dimensiones de un conjunto de
datos determinado es demasiado alto. Reduce la cantidad de entradas de la información a
un tamaño manejable y, al mismo tiempo, preserva la integridad del conjunto de datos
tanto como sea posible.

Una de las preguntas que seguramente el lector puede estar haciéndose en estos
momentos es ¿Cuándo conviene utilizar aprendizaje supervisado, y cuando el no
supervisado?

La respuesta a esa pregunta puede ser muy extensa y variada, y en definitiva, todo depende.
En general, utilizaremos el aprendizaje no supervisado cuando no existan datos previos
sobre los resultados preferidos.

Recordemos que el aprendizaje no supervisado puede identificar características de manera


automática que pueden resultar útiles en la categorización de conjuntos de datos que son
desconocidos. Por ejemplo, cuando una empresa necesita determinar el mercado objetivo
de un producto nuevo.7

Algunas de las aplicaciones más comunes del aprendizaje no supervisado en el mundo real
son:

7Sea cual sea el mecanismo de aprendizaje, de todas formas, los modelos siempre tienen
que tener algún tipo de supervisión humana, para garantizar que funcionan
correctamente.

Departamento de Educación a Distancia | ucema.edu.ar/on


● Visión artificial: los algoritmos de aprendizaje no supervisados se utilizan para tareas
de percepción visual, como el reconocimiento de objetos.

● Imagenología: el aprendizaje no supervisado proporciona funciones esenciales para


los dispositivos de imagenología, como la detección, clasificación y segmentación de
imágenes, que se utilizan en radiología y patología para diagnosticar a los pacientes
de forma rápida y precisa.

● Perfiles de clientes: la definición de perfiles de clientes facilita la comprensión de los


rasgos comunes y los hábitos de compra de los clientes comerciales. El aprendizaje
no supervisado permite a las empresas crear mejores perfiles de compradores, lo
que hace posible que las organizaciones alineen el mensaje de sus productos de
manera más adecuada.

● Motores de recomendaciones: al utilizar datos del comportamiento pasado de los


consumidores, los algoritmos de IA pueden ayudar a descubrir tendencias de datos
que se pueden utilizar para desarrollar estrategias de venta cruzada más eficaces.
Esto se usa para que los minoristas en línea puedan hacer recomendaciones
adicionales relevantes a los clientes durante el proceso de compra.

Desafíos del aprendizaje no supervisado


Si bien el aprendizaje no supervisado tiene muchos beneficios, pueden surgir algunos
desafíos cuando permite que los modelos de machine learning se ejecuten sin ninguna
intervención humana. Algunos de esos desafíos pueden incluir:

● Complejidad computacional debido a un gran volumen de datos de entrenamiento


● Tiempos de entrenamiento más prolongados (entrenar modelos puede llevar,
muchas horas, o días incluso).
● Mayor riesgo de resultados inexactos
● Intervención humana para validar variables de salida

Hasta aquí hemos visto el funcionamiento del Machine Learning, tanto con aprendizaje
supervisado como no supervisado, y también hemos revisado como es que este aprendizaje
automático se lleva a cabo en la práctica.

Aprendizaje por refuerzo

Departamento de Educación a Distancia | ucema.edu.ar/on


El aprendizaje por refuerzo (Reinforcement Learning, RL) es una técnica de aprendizaje
automático (Machine Learning) basada en la retroalimentación, donde un agente aprende
a comportarse en un entorno al realizar las acciones y analizar los resultados de dichas
acciones. Por cada acción correcta, el agente recibe retroalimentación positiva y por cada
acción errónea, este recibe retroalimentación negativa o penalización.

En el aprendizaje por refuerzo, el agente aprende automáticamente mediante el uso de


datos sin ningún tipo de etiquetado, a diferencia del aprendizaje supervisado (Supervised
Learning).

Dado que no hay datos etiquetados, el agente está obligado a aprender solo por su
experiencia al recorrer o explorar esos datos. El agente aprende con el proceso de prueba
y error, y en base a la experiencia, asimila la tarea de una mejor manera. Por lo tanto, se
puede decir que el aprendizaje por refuerzo es un tipo de método de aprendizaje
automático en el que un agente inteligente (programa informático) interactúa con el
entorno y aprende a actuar dentro de él.

Dado que el aprendizaje automático requiere una gran cantidad de datos, es más aplicable
en dominios donde los datos simulados están fácilmente disponibles como juegos o la
robótica. El aprendizaje automático se usa habitualmente en la construcción de IA para
juegos de computadora. AlphaGo Zero es el primer programa de computadora en derrotar
a un campeón mundial en el antiguo juego chino de Go.

En robótica y automatización industrial, el reinforcement learning se utiliza para permitir


que el robot cree un sistema de control adaptativo eficiente para sí mismo que aprende de
su propia experiencia y comportamiento.

Otras aplicaciones de RL incluyen motores de resumen de texto, agentes de diálogo (texto,


voz). Los cuales pueden aprender de las interacciones del usuario y mejorar con el tiempo,
formarse con políticas de tratamiento óptimas en la atención médica y agentes basados en
RL para el comercio de acciones en línea.

El proceso de implementar el aprendizaje por refuerzo es una tarea técnica desafiante.

Para que un sistema de aprendizaje por refuerzo sea exitoso se requiere de


al menos 3 pasos:

1. Un algoritmo de aprendizaje bien diseñado con función de recompensa. Un agente de


aprendizaje por refuerzo aprende tratando de maximizar las recompensas que recibe por
las acciones que realiza. Un buen algoritmo con una función de recompensa correctamente
definida permite a un agente tomar decisiones complejas, por ejemplo, tomar una acción

Departamento de Educación a Distancia | ucema.edu.ar/on


ahora que puede parecer subóptima a corto plazo pero que daría buenos resultados a largo
plazo.

2. Un ambiente de aprendizaje. En muchos casos el entorno de aprendizaje implica un


simulador, o gemelo digital, que replica las condiciones del mundo real en las que operará
el agente proporcionando un campo de entrenamiento para el agente. En algunos casos el
entorno de aprendizaje podría ser una plataforma digital, como un sistema de pedido de
productos, donde un agente de IA puede realizar repetidamente las mismas (o similares)
tareas y recibir rápidamente retroalimentación sobre el éxito de sus acciones.

3. Poder de cómputo. La capacitación de un agente requiere recursos informáticos


sustanciales e infraestructura especializada que puede escalar miles de trabajos de
capacitación distribuidos que, incluso cuando se ejecutan en paralelo, generalmente
requieren miles de horas de tiempo de procesamiento.

Si recordamos anteriormente mencionábamos que la Inteligencia Artificial incluye además


del Machine Learning, un subcampo que se denomina Deep Learning o aprendizaje
profundo. Veremos entonces, y a continuación, de que se trata este tipo de aprendizaje y
cuáles son sus características principales.

Departamento de Educación a Distancia | ucema.edu.ar/on


Deep Learning o Aprendizaje Profundo.
El aprendizaje profundo es un subcampo del aprendizaje automático que se ocupa de los
algoritmos inspirados en la estructura y función del cerebro llamados redes neuronales
artificiales.

En el aprendizaje profundo, un modelo de computadora aprende a realizar tareas de


clasificación directamente a partir de imágenes, texto o sonido. En otras palabras, pueden
lograr una precisión excelente, incluso en algunas ocasiones superar el rendimiento a nivel
humano.

Los modelos se entrenan mediante el uso de un gran conjunto de datos etiquetados y


arquitecturas de redes neuronales las cuales están compuestas por muchas capas.

La red neuronal artificial o red neuronal se inspiró en la estructura del cerebro humano.8
Con lo cual se diseñó un cerebro artificial, que se conoce como Red Neuronal. Como el
cerebro humano está compuesto por neuronas para transmitir información, la red neuronal
también tiene nodos para realizar esa tarea. Dichos nodos son funciones matemáticas.

Los modelos de aprendizaje profundo se entrenan mediante el uso de grandes conjuntos


de datos etiquetados y arquitecturas de redes neuronales que aprenden características
directamente de los datos sin la necesidad de extracción manual de características.

En la década de 1980 se plantean las teorías sobre el aprendizaje profundo por primera vez,
sin embargo, hay dos razones principales por las que sólo recientemente se ha vuelto útil:

1) El aprendizaje profundo requiere grandes cantidades de datos etiquetados. Por


ejemplo, el desarrollo de automóviles sin conductor requiere millones de imágenes
y miles de horas de video.

2) El aprendizaje profundo requiere de un gran poder de cómputo. Las GPU (Graphics


Processing Unit) de alto rendimiento tienen una arquitectura paralela que es
eficiente para el aprendizaje profundo. Cuando se combina con clústeres o

8 Recordemos que el cerebro es una de las cumbres de la evolución biológica, ya que es un gran procesador

de información. Entre sus características podemos destacar, que es capaz de procesar a gran velocidad
grandes cantidades de información procedentes de los sentidos, combinarla o compararla con la
información almacenada y dar respuestas adecuadas. Además, hay que destacar su capacidad para aprender
a representar la información necesaria para desarrollar tales habilidades, sin instrucciones explícitas para
ello.

Departamento de Educación a Distancia | ucema.edu.ar/on


computación en la nube, esto permite a los equipos de desarrollo reducir el tiempo
de aprendizaje para una red de aprendizaje profundo de manera importante.

Podríamos decir entonces, que una red neuronal es un modelo simplificado que emula el
modo en que el cerebro humano procesa la información: Funciona simultaneando un
número elevado de unidades de procesamiento interconectadas que parecen versiones
abstractas de neuronas.

Las unidades de procesamiento se organizan en capas. Hay tres partes normalmente en una
red neuronal: una capa de entrada, con unidades que representan los campos de entrada;
una o varias capas ocultas; y una capa de salida, con una unidad o unidades que representa
el campo o los campos de destino.

Las unidades se conectan con fuerzas de conexión variables (o ponderaciones).

Los datos de entrada se presentan en la primera capa, y los valores se propagan desde cada
neurona hasta cada neurona de la capa siguiente. Al final, se envía un resultado desde la
capa de salida.

La red aprende examinando los registros individuales, generando una predicción para cada
registro y realizando ajustes a las ponderaciones cuando realiza una predicción incorrecta.

Este proceso se repite muchas veces y la red sigue mejorando sus predicciones hasta haber
alcanzado uno o varios criterios de parada.

Inicialmente todas las ponderaciones son aleatorias y las respuestas que resultan de la red
son, posiblemente, disparatadas. Lo interesante es que la red aprende a través
del entrenamiento. Continuamente se presentan a la red ejemplos para los que se conoce
el resultado, y las respuestas que proporciona se comparan con los resultados conocidos.

Departamento de Educación a Distancia | ucema.edu.ar/on


La información procedente de esta comparación se pasa hacia atrás a través de la red,
cambiando las ponderaciones gradualmente. A medida que progresa el entrenamiento, la
red se va haciendo cada vez más precisa en la replicación de resultados conocidos. Una vez
entrenada, la red se puede aplicar a casos futuros en los que se desconoce el resultado.

Por otro lado, uno de los tipos más populares de redes neuronales se conoce como redes
neuronales convolucionales (CNN o ConvNet). Una red neuronal convolucional (CNN o
ConvNet) es particularmente útil para identificar patrones en imágenes con el fin de
reconocer objetos, clases y categorías. Además, pueden ser muy eficaces para clasificar
datos de audio, señales y series temporales.

Las redes neuronales convolucionales pueden tener decenas o cientos de capas, y cada una
de ellas aprende a detectar diferentes características de una imagen.
Se aplican filtros a las imágenes de entrenamiento con distintas resoluciones, y la salida
resultante de convolucionar cada imagen se emplea como entrada para la siguiente capa.
Los filtros pueden comenzar como características muy simples, tales como brillo y bordes,
e ir creciendo en complejidad hasta convertirse en características que definen el objeto de
forma singular.

Vemos en la imagen, que lo más probable es que ante la entrada de una imagen (imput) la
salida del modelo determine que se trata de un Auto (car) con mayor probabilidad de que
se trate de una bicicleta.

Departamento de Educación a Distancia | ucema.edu.ar/on

También podría gustarte