Antecedentes Teóricos

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 7

Antecedentes Teóricos

Antecedente #1:
- ¿Qué es la IA?
Oracle Cloud. (2021). ¿Qué es la IA? Conoce la inteligencia artificial. Tomado de:
https://www.oracle.com/mx/artificial-intelligence/what-is-ai/
La inteligencia artificial (IA) se ha convertido en una terminología general que se refiera a
todas aquellas aplicaciones que se encargan de realizar tareas, que antes necesitaban de la
intervención humana, es decir, tareas como la comunicación en línea entre empresas y
clientes, o actividades como jugar ajedrez.
Pero hay ciertas diferencias. Por ejemplo, el aprendizaje automático, se centra en la
creación de programas que, aprenden o mejoran su rendimiento en función a la cantidad de
datos que consumen. Aunque se tiene que tener en cuenta que, el aprendizaje automático es
IA, pero no toda la IA es aprendizaje automático.
Hoy en día hay varias empresas que han hecho inversiones significativas en equipos de
ciencia de datos. La ciencia de datos recopila estadísticas, informática y conocimiento
empresarial, para el análisis y obtener el valor del origen de datos recopilados, es decir,
para obtener el valor completo de la IA.
Antecedente #2:
- Ley de Hebb
Psicología y mente (2017). La organización de la conducta. Tomado de:
https://psicologiaymente.com/neurociencias/ley-de-hebb
A finales de la década de los 40’s Donald O. Hebb publica “La organización de la
conducta”, la cual consiste en que las conexiones sinápticas se fortalecen cuando dos o más
neuronas se activan de forma contigua en el tiempo y en el espacio. Al asociarse el disparo
de la célula presináptica con la actividad de la postsináptica tienen lugar cambios
estructurales que favorecen la aparición de asambleas o redes neuronales.
Esta teoría afirma que cuanto más fuerte sea la contingencia entre la activación neuronal
y un determinado tipo de estimulación, mayor será la probabilidad de que las redes
neuronales relevantes disparen impulsos al volver a producirse el estímulo. 
Antecedente #3:
- Subcampos de la IA
Servicios Digitales. (2020). Inteligencia Artificial: subcampos. Tomado de:
https://www.serviciosdigitales.com.co/tips/inteligencia-articifial-subcampos/
La IA se divide en tres subcampos principales: aprendizaje automático, aprendizaje
profundo y procesamiento del lenguaje natural.
El aprendizaje automático es un tipo de IA que permite a los sistemas, aprender sin ser
programados explícitamente. Lo sistemas con aprendizaje automático, son capaces de
aprender, a partir de, datos recopilados y tienden a mejorar su rendimiento con el tiempo.
El aprendizaje profundo es un tipo de aprendizaje automático, se inspira en un sistema de
neuronas artificiales, apuntando a un modelo recreacional del cerebro humano,
permitiéndoles aprender de los datos recuperados e incluso aprender tareas complejas de
manera autónoma.
El procesamiento de lenguaje natural (PLN) es un campo de la informática que se ocupa de
la interacción entre computadoras y el lenguaje humano natural. El PLN se ocupa en
diversas aplicaciones como, la traducción natural, el reconocimiento de voz y el
procesamiento de preguntas.
Antecedente #4:
- Optimización de tareas
M Davis. (2018). Beneficios de la IA en la productividad de las empresas. Tomado de:
https://www.linkedin.com/pulse/beneficios-de-la-ia-en-productividad-las-empresas-
aldo-finetti
La IA ha desarrollado un papel importante dentro del sector productivo, pues muchas
empresas acceden a su apoyo, pues logran automatizar tareas que pueden llegar a ser
repetitivas y rutinarias para el humano, asi mismo se le brinda libertad a los trabajadores
con el fin de que se centren en tareas más estrategias y creativas. Todo lo anterior puede
reducir los errores humanos y aumentar de manera considerable la productividad en las
empresas.
Antecedente #5:
- Una nueva herramienta
Reclu IT (2020). ¿Qué es LISP? Tomado de: https://recluit.com/que-es-lisp/
A finales de los 50’s John McCarthy (MIT) desarrolla el lenguaje LISP, lenguaje con el que
se desarrollan la mayoría de los sistemas expertos. Y el emacs (Richard Stallman) otro
lenguaje técnico, estos son lenguajes diseñados para una manipulación fácil de cadenas de
datos siendo estos unos de los más antiguos y el LISP siendo aún vigente.
Antecedente #6
- El nacimiento de una disciplina desde los inicios hasta los años 60
Tokio New Technology. (2021). Los Antecedentes de la Inteligencia Artificial. Tomado
de: https://www.tokioschool.com/noticias/antecedentes-inteligencia-artificial/
Tras el desarrollo tecnológico propiciado por la segunda guerra mundial y el deseo de
entender como las maquinas se podrían utilizar con el fin de aligerar la carga de trabajo
para el ser humano.
Para Norbert Wiener, pionero de la robótica, el objetivo era unificar la teoría matemática, la
electrónica y la automatización en una única teoría. Justo antes, Warren McCulloch y
Walter Pitts crearon un primer modelo matemático e informático de la neurona en 1943.
Tokyo New Technology (2021).
Uno de los primeros antecedentes estuvo presente en un artículo escrito por Turing
publicado en 1950, titulado “Computing Machinery and Intelligence”. en este articulo el
científico planteo un escenario donde un humano debía ser capaz de distinguir un dialogo
de un teletipo, si estaba hablando con un humano o una máquina. Turing junto a Neuman
fue padre fundador de la tecnología.
Pero el concepto de inteligencia artificial debe atribuírsele a John McCarthy quien la define
como “la construcción de programas informáticos que se dedican a tareas hechas de manera
satisfactoria por humanos ya que requieren de procesos críticos y perceptivos” Tokyo New
Technology.
Antecedente #7:
- Riesgos éticos
Jean-Gabriel Ganascia. (2018). Inteligencia Artificial: entre el mito y la realidad.
Tomado de: https://es.unesco.org/courier/2018-3/inteligencia-artificial-mito-y-realidad
Con la IA no solo la mayoría de las dimensiones de la inteligencia, son objeto de análisis y
reconstrucción racional por medio de ordenadores, si no que, además, las maquinas
traspasan nuestras facultades cognitivas en muchos terrenos del conocimiento. Lo cual
despierta en las personas, riesgos de carácter ético. Estos riesgos se organizan de la
siguiente manera: la escasez de trabajo, la autonomía del individuo y la superación del
género humano.
Un examen detallado demuestra que el trabajo no desaparece y, por el contrario, se
transforma y exige nuevas habilidades. Del mismo modo la autonomía del individuo, su
libertad y seguridad no están en riesgo, siempre y cuando mantenga las intromisiones de la
tecnología, alejadas de su vida privada.
Por otro lado, las maquinas no componen ninguna amenaza existencial para la humanidad,
pues la maquinas no poseen autonomía moral, y su funcionamiento es netamente técnico, es
decir, permanecen en el objetivo que les hemos fijado, ya que dependen del humano para su
correcto funcionamiento y no tienen voluntad propia.
Antecedente #8:
- Impacto de la IA en la Salud
EDS Robotics. (2022). Inteligencia Artificial: ¿en qué sectores tiene más impacto?
Tomado de: https://www.edsrobotics.com/blog/inteligencia-artificial-impacto-sectores/
en el ámbito sanitario se tendrá una mejoría en el diagnostico online, con una mejor eficacia
y un diagnóstico más exacto que el ya implementado en algunos centros. También la
ciberseguridad presentaría una mejoría, mayor capacidad de análisis y una reducción en los
costes.
Sin duda alguna uno de los mayores aportes se ven reflejados en la detección de patologías,
pues la IA es capaz de hacer una detección con mayor eficacia e incluso de manera más
rápida, a comparación de los mismos especialistas.
En este sector la tasa de crecimiento no para, ya que, cada año más y más compañías
acceden a sistemas de inteligencia artificial con el fin de reducir costes y tener una mayor
eficacia y productividad.

Antecedente #9:
- Big Data: La Explosión de la IA
Tokyo New Technology. (2021). Los Antecedentes de la Inteligencia Artificial.
Tomado de: https://www.tokioschool.com/noticias/antecedentes-inteligencia-artificial/
Para el año 2010 dos grandes factores explicaban el gran desarrollo que ha tenido la
inteligencia artificial, los cuales son el acceso a grandes volúmenes de datos y la alta
eficiencia de procesadores de tarjetas gráficas.
Por parte del acceso a grandes volúmenes de datos, para poder utilizar algoritmos de
clasificación de imágenes y reconocimiento. Por ejemplo, antes al ir a realizar una
búsqueda en Google, era necesario hacer un muestreo por nosotros mismos. Ahora al hacer
una búsqueda se encuentra mucha más información a comparación de antes.
Al hablar de la eficiencia en tarjetas gráficas, hablamos de los cálculos de algoritmos que se
realizaban en lapsos de tiempos, como lo eran semanas, ahora estos mismos procesos, por
medio de nuevas herramientas tecnológicas permite hacer el cálculo de algoritmos de
aprendizaje en lapsos de tiempo más cortos, ya sean días, horas o incluso minutos, gracias a
la capacidad de procesamiento de los programas.
Al ver los avances presentados, el enfoque es directamente inductivo, pues ya no se busca
codificar reglas para las maquinas, es decir, las maquinas ahora buscan sus propias reglas
por correlación y clasificación, sobre la base de una cantidad masiva de datos, es decir, Big
Data.

Antecedentes de Campo

Antecedente #1:
- Test de Turing
Santander Universidades (2021). ¿Pueden las computadoras sustituir a los humanos?
Tomado de: https://www.becas-santander.com/es/blog/test-de-turing.html
Recuperado de: file:///C:/Users/nicol/Downloads/Inteligencia_Artificial_CC_BY-
SA_3.01.pdf
En la década de los 50’s un matemático ingles Alan Turing desarrollo el test de Turing este
consiste en que un humano mantiene una conversación con una computadora y otra
persona, pero sin saber quién de los dos conversadores es realmente una máquina con el
objetivo de determinar si la inteligencia artificial puede imitar ciertos comportamientos
humanos.

Cada año se lleva a cabo la competición del Premio Loebner, donde los jueces declaran
ganador al chatbot de IA que cuente con las características más parecidas a las
humanas, es decir, que dispongan de la capacidad de comunicarse con los jueces de forma
interactiva e intuitiva y puedan hacerse pasar por humanos. Por tanto, que sean capaces de
superar el test de Turing. 
Un ejemplo de ellos puede ser PARRY, desarrollado por el psiquiatra Kenneth Colby en
1972, que simulaba un esquizofrénico paranoide. 
Antecedente #2:
- La IA comienza siendo computación neuronal
La máquina oráculo (2021). Neuronas de McCulloch y Pitts. Tomado de:
https://lamaquinaoraculo.com/deep-learning/el-modelo-neuronal-de-mcculloch-y-
pitts/
Recuperado de: file:///C:/Users/nicol/Downloads/Inteligencia_Artificial_CC_BY-
SA_3.01.pdf

En la década de los 40’s se comienzan a cimentar las bases de la inteligencia artificial más
conocida en ese tiempo como la computación con el trabajo teórico de Warren Mc Cullogh
y Walter Pitts: “Un cálculo de las ideas inmanentes en la actividad nerviosa” fue el primer
intento de formalizar matemáticamente el comportamiento de una neurona y de estudiar sus
implicaciones en su capacidad de computar y procesar la información.

En el modelo de McCulloch-Pitts, los canales de entrada de cada neurona se llaman dendritas y el


único canal de salida recibe el nombre de axón. El axón de la neurona (que puede ramificarse) se
conecta a su vez con las dendritas de otras neuronas a través de una sinapsis. Las conexiones
sinápticas entre las neuronas pueden ser de dos clases: excitadoras, si contribuyen a la excitación de
la neurona receptora, e inhibidoras, si coadyuvan a la inhibición de la misma.

Antecedente #3:
- El desarrollo de los años 80
Tokyo New Technology. (2021). Los Antecedentes de la Inteligencia Artificial.
Tomado de: https://www.tokioschool.com/noticias/antecedentes-inteligencia-artificial/
otro gran antecedente dentro de la inteligencia artificial se dio en los años 70 con la llegada
de dos programas claves, los cuales serían Dendral para el año 1965 y MYCIN para el año
1972. Los cuales eran microprocesadores destinados y programados a ser el espejo de la
lógica humana.
Pero fue a finales de la década de los 80 donde ocurrió un impacto en la programación
sistemática pero lastimosamente los mantenimientos y el desarrollo de los mismos eran
muy costosos, por lo que no era lo que esperaban.
Antecedente #4:
- Finales de los 90: Deep Blue
Tokyo New Technology. (2021). Los Antecedentes de la Inteligencia Artificial.
Tomado de: https://www.tokioschool.com/noticias/antecedentes-inteligencia-artificial/
para el año 1997, a finales de la década de los 90, Deep Blue sistema de la IA (Inteligencia
Artificial) desarrollado IBM. Gana una partida de ajedrez contra el campeón Garry
Kaspárov, el funcionamiento de Deep Blue se basó en la evaluación de cada movimiento
por medio de algoritmos de fuerza bruta.
Antecedente #5:
- El primer programa
Teoría lógica e IPL. Logic Theorist. Tomado de:
https://inteligencia-artificial.net/docs/ipl.htm
A mediados de la década de los 50’s John McCarthy le por primera vez el termino de
“Inteligencia Artificial” a estos programas, en una conferencia en Dartmouth la primera
conferencia dedicada a IA (inteligencia artificial).
También se dio a conocer el primer programa de IA el LT (Logic Theorist) escrito por
Allen Newell, J. C. Shaw y Herbert Simón (Carneggie Mellon University) La idea básica es
que siempre que una unidad de información se almacena en la memoria, se debe almacenar
con ella información adicional, que nos indique dónde encontrar la siguiente unidad de
información (relacionada). De esta forma podríamos organizar toda la memoria en una
larga cadena de eslabones, aunque es una cadena en la que cada eslabón está en un lugar
arbitrario. "secuencialidad".

También podría gustarte