Libro

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 11

Nombre:

Luis Enrique Melo De León

Matrícula:

22-EISM-1-082

Profesor/a:

Jorge Ramón Taveras González

Materia:

Inteligencia Artificial (IA)

Trabajo:

Resumen del libro Inteligencia artificial, Un enfoque moderno.

Fecha de Entrega:

18/01/2024
Introducción:
Las grandes empresas tienen puesta su atención en la inteligencia artificial (IA) como
nunca. Tanto ellas como los ciudadanos comunes ven con ansias esta tecnología debido
a sus capacidades para resolver problemas e incluso reemplazar a trabajadores humanos
en muchos campos laborales.

Hay en estos tiempos una amplia variedad de subcampos dentro del ámbito de la IA, que
van desde campos generales como el aprendizaje y percepción a otros más especializados.
Es posible utilizar el ajedrez para demostrar teorías matemáticas, escribir poesía y realizar
diagnósticos médicos. Al ser capaz de sintetizar y automatizar tareas intelectuales, la IA
proporciona beneficios significativos.

También veremos el valioso aporte realizado por eminentes pensadores filósofos,


reconocidos científicos, inclusive habilidosos matemáticos lo largo del tiempo
Contribuyeron significativamente al inicio, desarrollo y aplicación de las IA en nuestro
día a día.
Índice
1 ¿Qué es la IA? ...................................................................................................................... 4
1.1 Comportamiento humano: el enfoque de la Prueba de Turing. ............................. 4
1.2 Pensar como un humano: el enfoque del modelo cognitivo. .................................... 5
1.3 Pensamiento racional: el enfoque de las «leyes del pensamiento». ......................... 6
1.4 Actuar de forma racional: el enfoque del agente racional. ...................................... 6
2 Los fundamentos de la inteligencia artificial. ................................................................... 7
2.1 Matemáticas (aproximadamente desde el año 800 al presente). ............................. 7
2.2 Neurociencia (desde el año 1861 hasta el presente). ................................................. 8
2.3 Ingeniería computacional (desde el año 1940 hasta el presente). ............................ 8
3 Historia de la inteligencia artificial.................................................................................... 8
3.1 Nacimiento de la inteligencia artificial (1956). ......................................................... 8
3.2 Sistemas basados en el conocimiento: ¿clave del poder? (1969-1979). ................... 9
3.3 Regreso de las redes neuronales (desde 1986 hasta el presente). ............................ 9
4 El estado del arte. .............................................................................................................. 10
5 Conclusión. ......................................................................................................................... 10
6 Glosario. ............................................................................................................................. 11
7 Webgrafía........................................................................................................................... 11
1 ¿Qué es la IA?
El nuevo y apasionante emprendimiento a emprender las computadoras poseen la
capacidad de pensar en su sentido literal más amplio. Se han seguido los cuatro enfoques
mencionados a lo largo de la historia. Como es enfrentamiento entre los enfoques
centrados en los humanos y pierden es algo que se espera.

Las perspectivas giran alrededor de la racionalidad. Es fundamental que se adopte un


enfoque basado en evidencias para comprender el comportamiento humano, considerando
la formulación de hipótesis y su comprobación a través de experimentos. Se requieren
tanto matemáticas como ingeniería para implementar un enfoque racional.

La dinámica del grupo implica tanto la actuación de ignorar como la de ayudarse


mutuamente al mismo tiempo. En el siguiente paso, analizaremos minuciosamente todos
los cuatro enfoques.

1.1 Comportamiento humano: el enfoque de la Prueba de Turing.


Se diseñó la Prueba de Turing para proporcionar, propuesta por Alan Turning en 1950.
Definición operativa y satisfactoria de inteligencia. En vez de proporcionar una Como
parte de su extensa e incuestionablemente controvertida lista, él propuso una prueba que
se basa en no poder distinguir entre seres humanos e ingenios artificiales claramente
inteligentes. En caso de que un evaluador humano sea incapaz de determinar si las
respuestas en una serie de preguntas provienen o no de alguien, entonces se dice que la
computadora ha pasado la prueba.

El computador debería poseer las siguientes capacidades:

Podrá comunicarse de manera efectiva gracias al procesamiento de lenguaje natural en


inglés.

Guardar el conocimiento y las emociones mediante la representación.

Empleo del razonamiento automático para sacar provecho de los datos almacenados al
respondedor interrogantes y extraer conclusiones nuevas.

La detección de cambios y adaptación a nuevas circunstancias son posibles gracias al


aprendizaje automático y patrones extrapolares.
1.2 Pensar como un humano: el enfoque del modelo cognitivo.
Un requisito fundamental para afirmar que un programa dado piensa como un humano es
disponer de una forma de determinar cómo funcionan los procesos mentales en las
personas. Se requiere explorar a fondo cómo funcionan las mentes humanas. Hay dos
formas de hacerlo: La introspección y los experimentos psicológicos son dos métodos
que nos permiten explorar nuestra mente. Cuando exista una teoría lo suficientemente
precisa acerca del funcionamiento mental, se podrá representar dicha teoría mediante un
programa informático. Y si, los datos de entrada/salida del programa Se ha demostrado
que el tiempo de reacción es similar al de un individuo humano y se cuenta con evidencia
acerca del uso por parte del programa de ciertos mecanismos comparables a los
empleados por las personas. A modo de ilustración, tenemos a Allen Newell y Herbert
Simon como los responsables del desarrollo del "Sistema Superar con éxito los desafíos
planteados no fue suficiente para Newell y Simon en 1961; como resultado, diseñaron el
Sistema de Resolución General de Problemas. Lo que les atraía era seguir la pista de las
etapas del proceso de razonamiento y compararlas con ellas.

Los mismos problemas fueron seguidamente enfrentados por seres humanos. Se busca
generar teorías precisas y demostrables mediante la convergencia entre los modelos
computaciones basadas en inteligencia artificial e investigaciones experimentales
realizadas en psicología dentro del amplio campo interdisciplinario que es la ciencia
cognitiva Con relación al funcionamiento de la mente humana.

En los comienzos de la IA había confusión entre las distintas aproximaciones: Se puede


afirmar que el autor sostenía la idea de que existían casos en los cuales un algoritmo podía
resolver efectivamente una tarea e incluso ser considerado como una buena
representación del pensamiento humano. Existe una distinción hecha por los autores
actuales entre las dos reclamaciones; esto ha posibilitado la claridad y articulación
efectiva de ambas Con el objetivo de acelerar el crecimiento en las disciplinas de IA y
ciencia cognitiva. Tanto el campo de la visión como el del lenguaje natural siguen
retroalimentándose, especialmente en estas áreas. Con el respaldo de la tecnología AI, el
área del procesamiento visual ha experimentado un progreso significativo Teniendo en
cuenta la evidencia neurofisiológica y los modelos de cálculo, se presenta una propuesta
integrada.
1.3 Pensamiento racional: el enfoque de las «leyes del pensamiento».
Aristóteles, un filósofo griego que vivió hace mucho tiempo. El pensamiento correcto se
basa en un proceso de razonamiento irrefutable. Sus silogismos hijo esquemas de
estructuras de argumentación mediante las que siempre se llega a conclusiones correctas
si se parte de premisas correctas, por ejemplo: Sócrates es un hombre; La mortalidad es
una característica común de todos los seres humanos, incluyendo a Sócrates.
Supuestamente, el estudio demuestra que estas leyes rigen cómo opera la mente.

Los programas existentes en 1965 tenían la capacidad de solucionar todo tipo de


problemas que eran posibles de resolver descrito en notación lógica la tradición logística
busca crear sistemas inteligentes a partir de programas dentro del ámbito de la inteligencia
artificial.

Este enfoque presenta dos obstáculos. La transformación del conocimiento informal a su


versión formal utilizando notación lógica puede ser complicada, especialmente cuando la
comprensión del tema está por debajo del 100 por ciento. En segunda instancia, existe
una notable disparidad entre tener la capacidad de solventar un problema en teoría y
realmente llevar a cabo en la práctica. Aunque solo sean doce datos, estos problemas
pueden sobrecargar los recursos informáticos de cualquier ordenador si no se cuenta con
alguna instrucción los pasos de razonamiento deben ser llevados a cabo en primer lugar
los dos obstáculos anteriores están presentes en todo intento de construir sistemas de
pensamiento computacional, aunque surgieron por primera vez en la tradición lógica.

1.4 Actuar de forma racional: el enfoque del agente racional.


Es necesario que los agentes informáticos posean rasgos adicionales que los distingan de
los programas clásicos: Son autorreguladoras; ven el mundo que los rodea, permanecen
allí durante años o años, sus mentes pueden cambiar y tienen una variedad de objetivos.
Un agente racional es alguien que actúa con la intención de hacerlo.

En cuanto al enfoque de la IA basado en las leyes del pensamiento, hacer inferencias


correctas es lo más importante. La obtención adecuada de estas inferencias puede
considerarse como uno de los aspectos clave para ser catalogado como agente racional.
Sin embargo, llevar a cabo un razonamiento lógico no garantiza necesariamente realizar
una inferencia adecuada, puesto que existen escenarios donde es imposible discernir lo
correcto y se requiere adoptar una resolución. Además, hay métodos para actuar con
racionalidad que no implican el proceso de inferir. Retirar inmediatamente la mano al
tocar una estufa caliente demuestra ser mucho más eficiente como respuesta instintiva en
lugar de tomar tiempo para deliberarlo.

2 Los fundamentos de la inteligencia artificial.


Al realizar una retrospectiva histórica, resulta relevante destacar las distintas ideas, puntos
de vista y técnicas aplicadas al progreso de la IA. Dicho caso se focaliza únicamente en
unas pocas personas, sucesos e ideas y pasa por alto todos los demás que también fueron
importantes. Se estructura el relato en base a diferentes preguntas, dejando explícito el
hecho de que no son exclusivamente estas preguntas. Todas las disciplinas tienen como
único objetivo preocuparse por ellas estas disciplinas tenían como finalidad impulsar el
desarrollo de la IA.

2.1 Matemáticas (aproximadamente desde el año 800 al presente).


Existe la opinión de que, para calcular el máximo común divisor, el algoritmo Euclídeo
marca un hito como primer algoritmo no trivia. En la contemplación de los algoritmos
como objetos en sí mismos.

Se puede rastrear hasta la época de al-Khowarazmi, un matemático persa del siglo IX y


su contribución a también se escribieron en Europa los números árabes y el álgebra
cuando fueron introducidos. Boole, entre se destacó también la contribución de otros
investigadores que presentaron algoritmos destinados a llevar adelante deducciones
lógicas. Asimismo, se emprendieron múltiples esfuerzos en los últimos años del siglo
XIX para lograr una formalización completa del razonamiento matemático mediante la
aplicación de la lógica deductiva. David Hilbert (1862 - 1943) hizo una presentación en
el año de 1900

La pregunta planteada por Hilbert era si había límites fundamentales en la capacidad de


los procedimientos efectivos de demostración que en 1930 demostró Kurt Gödel (1906-
1978) se puede encontrar un método efectivo para demostrar cualquier proposición
verdadera en las matemáticas aunque comparten características con la lógica de primer
orden, se diferencian en algunos aspectos era imposible capturar el principio de inducción
matemática requerido para la caracterización exacta de los números naturales. Existen
límites y él demostró esto en 1931. Se demostrará en cualquier lenguaje mediante su
teorema de incompletitud.
2.2 Neurociencia (desde el año 1861 hasta el presente).
La investigación de la estructura y función del sistema neurológico, particularmente el
cerebro, es lo que abarca la Neurociencia. La manera precisa en que ocurra el pensamiento
dentro del cerebro es una incógnita aún sin resolver misterios de la ciencia. Se ha
registrado durante milenios que existe una relación entre el cerebro y los procesos
mentales, como consecuencia de traumas craneales graves.

Aproximadamente en el 335 aC, se pueden observar ciertas diferencias en los cerebros


humanos. En proporción a su tamaño, Aristóteles afirmaba que los hombres tienen el
cerebro de mayor magnitud entre todos los seres vivos.

2.3 Ingeniería computacional (desde el año 1940 hasta el presente).


Para que la inteligencia artificial pueda llegar a ser una realidad se necesitan dos cosas:

Inteligencia y un artefacto. El equipo de cómputo ha sido el artefacto preferido. el


computador Por separado y casi a la vez se creó el innovador dispositivo electrónico
digital moderno. Durante la Segunda Guerra Mundial, hubo una participación
significativa de científicos en tres países. El equipo de Alan Turing construyó, en 1940,
el primer ordenador operacional de carácter electromecánico, llamado Heath Robinson11,
con un único propósito: descifrar mensajes alemanes.

3 Historia de la inteligencia artificial.


3.1 Nacimiento de la inteligencia artificial (1956).
Otra persona importante en el campo de la IA que fue recibida en Princeton es John
McCarthy. Tras obtener su título universitario, McCarthy se trasladó a la Universidad de
Dartmouth donde posteriormente se construiría. Con el surgimiento oficial de este campo.
Con el fin de fomentar la atención de los investigadores, McCarthy consiguió persuadir
exitosamente a Minsky, Claude Shannon y Nathaniel Rochester para obtener su
colaboración.

La teoría de los autómatas, las redes neuronales y el estudio de la inteligencia son campos
que captan particularmente el interés de los americanos. En Darmouth, organizaron un
taller que duró dos meses durante la temporada estival 1956. Entre los participantes había
un total de diez personas que incluían a Trenchard Más

Allen Newell y Herbert Simon, dos investigadores del Carnegie Tech, se volvieron el
centro de atención. A pesar de que los demás también tenían algunas ideas e incluso en
ocasiones programas específicos como el juego de damas, Newell y Simons se
adelantaron al contar con un programa llamado Teórico Lógico (TL) para razonamiento.
Es este software del que tenía conocimiento previo a la colaboración afirmaba: Con
nuestra última invención, un innovador programa informático con habilidades no
numéricas, hemos logrado resolver el centenario problema filosófico conocido como la
dualidad.

3.2 Sistemas basados en el conocimiento: ¿clave del poder? (1969-1979).


En los inicios de la investigación sobre inteligencia artificial, se dio gran importancia al
desarrollo de mecanismos que permitieran buscar soluciones utilizando tanto el
razonamiento como la lógica así soluciones completas. Los procedimientos son
considerados como métodos débiles porque no abordan problemas de mayor amplitud o
dificultad. La alternativa a los utilizar el conocimiento específico del dominio es
considerado como un método débil debido a su capacidad para agilizar las etapas
prolongadas del proceso lógico y así solucionar problemas repetitivos dentro de áreas con
limitaciones informativas.

3.3 Regreso de las redes neuronales (desde 1986 hasta el presente).


Incluso después de haber dejado atrás el campo de las redes neuronales al finalizar los
años 70, la informática siguió avanzando en otras áreas. Físicos como John en su estudio,
Hopfield (1982) utilizó herramientas provenientes del campo de la mecánica estadística
con el fin de analizar los aspectos relacionados al almacenamiento y optimización en
redes, planteándose grupos nodales como colecciones de átomos. La tarea de continuar
con el trabajo psicológico fue asumida por David Rumelhart y Geoff Hinton. La está
atención puesta en investigar los modelos de memoria que utilizan redes neuronales
aquellos que fueron vistos son los modelos de inteligencia artificial llamados
conexionistas. Tanto de los modelos simbólicos propuestos por Newell, algunos se
presentan como competidores entre diversos autores como McCarthy y Smolensky
(1988), Simon utiliza una aproximación lógica. La idea de que los seres humanos
manipulen símbolos hasta cierta medida puede resultar obvia para algunos. Sin embargo,
el autor Terrence Deacon plantea un enfoque distinto en su libro The Symbolic Species
(1997), cuestionando si esta capacidad realmente es lo que nos define como especie única.
En ciertos modelos, la manipulación de los símbolos desempeña una función defendible
de cognición hasta ahora no se ha aclarado este interrogante, pero la tendencia actual
indica que tanto las aproximaciones conexionistas como las simbólicas no son rivales,
sino que se complementan.

4 El estado del arte.


En el libro vemos unas cuantas aplicaciones entre ellas esta;

Planificación autónoma: Ubicado a más o menos cien millones de millas de distancia del
Planeta Tierra, el exitoso Programa Agente Remoto desarrollado por la NASA marcó un
hito importante. Desde abordo, una autónoma se encargaba de controlar la planificación
de las operaciones de una nave espacial (Jonsson et al., 2000). A partir de El Agente
Remoto se obtendrían aviones. Los objetivos generales fueron establecidos desde tierra,
mientras que las operaciones de la eran vigiladas. Durante la ejecución de los aviones,
tuvo lugar la detección, el diagnóstico y finalmente lograron recuperar exitosamente una
nave espacial.

Control autónomo: Para fue entrenado el sistema de visión por computadora ALVINN la
forma de dirigir un automóvil para mantenerlo en línea. La furgoneta controlada por
computadora fue equipada con este sistema en el NAVLAB de la UCM y se empleó para
conducir el vehículo a lo largo de todo Estados Unidos. Durante las 2.850 millas
recorridas, hubo un dominio absoluto sobre la dirección del vehículo en un impresionante
98 por ciento de tiempo. Una sola persona cubrió la cantidad restante del dos por ciento,
sobre todo en las salidas. En el NAVLAB hay cámaras de vídeo que capturan imágenes
de la carretera y las transmiten a ALVINN para que este pueda calcular cuál es el mejor
camino teniendo en cuenta cómo está el flujo vehicular.

5 Conclusión.
En conclusión, los temas explorados revelan la amplitud y complejidad de la Inteligencia
Artificial, que se erige como un campo interdisciplinario fascinante. Desde la búsqueda
de replicar el comportamiento humano hasta los sólidos fundamentos que abarcan desde
la filosofía hasta la ingeniería, la historia de la IA narra su evolución, marcada por
expectativas iniciales, desafíos y transformaciones. En el presente, la inteligencia
artificial es un testimonio de la colaboración entre diversas disciplinas, encarnando
avances tecnológicos y perspectivas futuras prometedoras. Este recorrido a través de la
teoría, historia y estado actual de la IA destaca la magnitud de su impacto y la
emocionante trayectoria que sigue definiendo el futuro de la inteligencia artificial.
6 Glosario.
1.Prueba de Turing: Propuesta por Alan Turing, es una prueba que evalúa si una máquina
puede imitar el comportamiento humano de manera indistinguible durante la interacción.

2.Modelo Cognitivo: Enfoque de la Inteligencia Artificial que busca replicar procesos


mentales humanos para comprender y emular la cognición.

3.Interdisciplinario: Característica fundamental de la IA, que se nutre de diversas


disciplinas como filosofía, matemáticas, economía, neurociencia y lingüística.

4.Teoría de Control y Cibernética: Disciplina que influye en la IA, explorando la


regulación y control de sistemas, crucial para la toma de decisiones en agentes
inteligentes.

5.Génesis de la IA: Periodo que abarca desde 1943 hasta 1955, marcado por los primeros
indicios y conceptos iniciales de lo que sería la Inteligencia Artificial.

6.Sistemas basados en el Conocimiento: Etapa de la historia de la IA (1969-1979) que


resalta la importancia de representar y utilizar el conocimiento para la toma de decisiones.

7.Redes Neuronales: Tecnología que experimentó un resurgimiento desde 1986,


emulando la estructura del cerebro y contribuyendo al avance de la IA.

8.Ciencia de la Computación: Disciplina clave desde la década de 1940, esencial para el


desarrollo y la implementación de algoritmos y sistemas inteligentes.

9.Desarrollos Recientes: Estado actual de la IA caracterizado por avances tecnológicos,


aplicaciones prácticas y tendencias emergentes.

10.Expectativas Iniciales: Etapa (1952-1969) en la historia de la IA marcada por un


entusiasmo considerable y grandes expectativas respecto al potencial de la inteligencia
artificial.

7 Webgrafía.
Inteligencia Artificial, Un Enfoque Moderno

También podría gustarte