Redes Neutrales

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 6

RESOLUCION JM104-2021

Resumen 800 Palabras


Aplicación 500 Palabras

INTRODUCCION

Las redes neuronales son la herramienta preferida para muchas aplicaciones de minería de
datos predictiva por su potencia, flexibilidad y facilidad de uso. Las redes neuronales
predictivas son especialmente útiles en las aplicaciones cuyo proceso subyacente sea
complejo; por ejemplo:
 Prever la demanda de los consumidores para racionalizar los costes de producción y
entrega.
 Predecir la probabilidad de respuesta al marketing mediante correo directo para
determinar a qué unidades familiares de una lista de correo debe enviarse una oferta.
 Puntuar a un solicitante para determinar el riesgo que supone concederle un crédito.
 Detectar transacciones fraudulentas en una base de datos de reclamaciones de
seguros.

Las redes neuronales utilizadas en aplicaciones predictivas, como las redes de perceptrón
multicapa (MLP) y de función de base radial (RBF), se supervisan en el sentido de que los
resultados pronosticados por el modelo pueden compararse con los valores conocidos de las
variables objetivo. La opción de redes neuronales le permite ajustar las redes MLP y RBF y
guardar los modelos resultantes para la puntuación.

RESOLUCION REDES NEURONALES


Las redes neuronales, también conocidas como redes neuronales artificiales (ANN) o redes
neuronales simuladas (SNN), son un subconjunto de machine learning y constituyen el eje
de los algoritmos de deep learning. Su nombre y estructura se inspiran en el cerebro
humano, e imitan la forma en la que las neuronas biológicas se señalan entre sí.

Las redes neuronales artificiales (ANN) están formadas por capas de nodos, que contienen
una capa de entrada, una o varias capas ocultas y una capa de salida. Cada nodo, o neurona
artificial, se conecta a otro y tiene un peso y un umbral asociados. Si la salida de un nodo
individual está por encima del valor de umbral especificado, dicho nodo se activa y envía
datos a la siguiente capa de la red. De lo contrario, no se pasan datos a la siguiente capa de
la red.

Las redes neuronales se basan en entrenar datos para aprender y mejorar su precisión con el
tiempo. No obstante, una vez que estos algoritmos de aprendizaje se ajustan de manera
precisa, constituyen potentes herramientas de informática e inteligencia artificial, lo que
nos permite clasificar y agrupar los datos a gran velocidad. Las tareas de reconocimiento de
voz o reconocimiento de imagen pueden tardar minutos frente a las horas que requiere la
identificación manual de expertos humanos. Una de las redes neuronales más conocidas es
el algoritmo de búsqueda de Google.

La historia de las redes neuronales es más larga de lo que la mayoría cree. Aunque la idea
de una "máquina que piensa" se remonta hasta los antiguos griegos, nos centraremos en los
acontecimientos clave que llevaron a la evolución de pensar en redes neuronales, cuya
popularidad ha fluctuado en el tiempo:

1943: Warren S. McCulloch y Walter Pitts publicaron "A logical calculus of the ideas
immanent in nervous activity" (PDF, 1 MB) (enlace externo a IBM). El objetivo de este
estudio era entender cómo el cerebro humano podía producir patrones complejos a través
de células cerebrales conectadas o neuronas. Una de las principales ideas que surgieron de
este trabajo fue la comparación de las neuronas con un umbral binario a la lógica booleana
(es decir, 0/1 o sentencias verdaderas/falsas).
1958: a Frank Rosenblatt se le atribuye el desarrollo del perceptrón, documentado en su
estudio "The Perceptron: A Probabilistic Model for Information Storage and Organization
in the Brain" (enlace externo a IBM). Llevó el trabajo de McCulloch y Pitt un paso más allá
al introducir las ponderaciones en la ecuación. Utilizando un sistema IBM 704, Rosenblatt
consiguió que un ordenador aprendiera a distinguir cartas marcadas en la izquierda de
cartas marcadas en la derecha.
1974: aunque muchos investigadores contribuyeron a la idea de la retropropagación, Paul
Werbos fue la primera persona en Estados Unidos en descubrir su aplicación a las redes
neuronales en su Tesis doctoral (PDF, 8,1 MB) (enlace externo a IBM).
1989: Yann LeCun publicó un estudio (PDF, 5,7 MB) (enlace externo a IBM) que ilustra
cómo el uso de restricciones en la retropropagación y su integración en la arquitectura de
redes neuronales se puede utilizar para entrenar algoritmos. Esta investigación utilizó con
éxito una red neuronal para reconocer los dígitos de código postal escritos a mano
proporcionados por el servicio de correos de Estados Unidos.

Redes neuronales frente a deep learning

El deep learning y las redes neuronales tienden a utilizarse indistintamente en la


conversación, lo que puede ser confuso. Vale la pena señalar que "deep" en deep learning
solo hace referencia a la profundidad de las capas en una red neuronal. Una red neuronal
que consta de más de tres capas (incluidas las entradas y la salida) puede considerarse un
algoritmo de deep learning. Una red neuronal que solo tiene dos o tres capas es una red
neuronal básica.

Para obtener más información sobre las diferencias entre las redes neuronales y otras
formas de inteligencia artificial, como machine learning, lea la entrada de blog
"Diferencias entre IA, machine learning, deep learning y redes neuronales".

Tipos de redes neuronales


Las redes neuronales se pueden clasificar en diferentes tipos, que se utilizan para distintos
fines. Aunque no sea una lista completa, la siguiente lista sería representativa de los tipos
más comunes de redes neuronales que encontrará en sus casos de uso:

Las redes neuronales convolucionales (CNN) son similares a las redes de propagación hacia
delante, pero normalmente se utilizan para el reconocimiento de imágenes, el
reconocimiento de patrones y/o la visión artificial. Estas redes aprovechan los principios
del álgebra lineal, particularmente la multiplicación de matriz, para identificar patrones
dentro de una imagen.

Las redes neuronales recurrentes (RNN) se identifican por sus bucles de retroalimentación.
Estos algoritmos de aprendizaje se utilizan principalmente con datos de series temporales
para hacer predicciones sobre resultados futuros, por ejemplo, predicciones del mercado de
acciones o previsiones de ventas.

APLICACIÓN NUERONALES
Piense en cada nodo individual como su propio modelo de regresión lineal, formado por
datos de entrada, ponderaciones, un sesgo (o umbral) y una salida. La fórmula sería similar
a la siguiente:

∑wixi + sesgo = w1x1 + w2x2 + w3x3 + sesgo

salida = f(x) = 1 if ∑w1x1 + b>= 0; 0 if ∑w1x1 + b < 0

Una vez que se determina una capa de entrada, se asignan ponderaciones. Estas
ponderaciones permiten determinar la importancia de cualquier variable, donde las más
grandes contribuyen más significativamente a la salida en comparación con otras entradas.
A continuación, todas las entradas se multiplican por sus respectivas ponderaciones y se
suman. A continuación, la salida se pasa a través de una función de activación, que
determina la salida. Si la salida supera un determinado umbral, activa el nodo y pasa los
datos a la siguiente capa de la red. Como resultado, la salida de un nodo se convierte en la
entrada del nodo siguiente. Este proceso de pasar datos de una capa a la siguiente define
esta red neuronal como una red de propagación hacia delante.

Vamos a desglosar lo que puede parecer un solo nodo utilizando valores binarios. Podemos
aplicar este concepto a un caso más tangible, por ejemplo, si debe ir a hacer surf (Sí: 1, No:
0). La decisión de ir o no ir es nuestro resultado predicho, o y-hat. Supongamos que hay
tres factores que influyen en la toma de decisiones:

1. ¿Hay buenas olas? (Sí: 1, No: 0)


2. ¿Está vacío el pico? (Sí: 1, No: 0)
3. ¿Ha habido un ataque de tiburón reciente? (Sí: 0, No: 1)

A continuación, supongamos lo siguiente, lo que nos da las siguientes entradas:

 X1 = 1, ya que hay buenas olas


 X2 = 0, ya que hay mucha gente
 X3 = 1, ya que no ha habido un ataque de tiburón reciente

Ahora tenemos que asignar varias ponderaciones para determinar la importancia. Las
ponderaciones más grandes indican que algunas variables son más importantes para la
decisión o el resultado.

 W1 = 5, ya que no hay grandes olas a menudo


 W2 = 2, ya que está acostumbrado a las multitudes
 W3 = 4, ya que tiene miedo a los tiburones

Por último, también supondremos un valor de umbral de 3, que se traduciría en un valor de


sesgo de -3. Con las diferentes entradas, podemos empezar a incluir los valores en la
fórmula para obtener la salida deseada.

Y-hat = (1*5) + (0*2) + (1*4) – 3 = 6

Si utilizamos la función de activación del principio de esta sección, podemos determinar


que la salida de este nodo sería 1, ya que 6 es mayor que 0. En este ejemplo, iría a hacer
surf; pero si ajustamos las ponderaciones o el umbral, podemos lograr diferentes resultados
del modelo. Cuando observamos una decisión, como en el ejemplo anterior, podemos ver
cómo una red neuronal puede tomar decisiones cada vez más complejas dependiendo de la
salida de decisiones o capas anteriores.

CONCLUSIONES
 las redes neutrales son la vía para construir infraestructura digital puesto que
optimizan costos y reducen el impacto.
 Al ocuparse de construir y operar, las redes neutrales permiten a los operadores
concentrarse en el servicio a los usuarios finales. Por ello, los operadores solo se
deberían concentrar en el servicio al cliente, la oferta, el marketing y el valor
agregado. Por otro lado, el operador neutral debe construir y operar la red, y, ofrecer
una red de calidad. La cooperación entre empresas debe ser el punto de referencia
para ampliar la conectividad en la región y en Colombia. Lo anterior, supone una
combinación de tecnologías, donde cada uno tiene una responsabilidad.

RECOMENDACIONES
 Las redes de acceso abierto permitan el transporte de datos, a través de fibra óptica,
con un fácil acceso a cualquier operador de telecomunicaciones.
 Además, brindar a los clientes servicios de alta calidad y libre elección, con un
ecosistema estable y sostenible.

También podría gustarte