Tesis
Tesis
Tesis
VELÁSQUEZ
TITULO:
Investigacion aplicada al area de Inteligencia
Artificial y desarrollo de un Sistema Experto
INGENIERIA DE SISTEMAS
PRESENTADO POR:
SHERELIN TICONA TIPO
JULIACA-PERÚ-2020
INTRODUCCION
Este trabajo tuvo como objetivo fundamental desarrollar un sistema experto. Surgió como una
necesidad de abordar áreas de la informática que tienen actualmente un gran impacto a nivel
mundial en el desarrollo científico, tecnológico y humano; ya que en nuestro país se han realizado
pocos esfuerzos para incorporar estas áreas a los programas de investigación y desarrollo de las
instituciones encargadas de realizar estas actividades.
Previo a la construcción del sistema experto se realizó una investigación documental aplicada a la
inteligencia artificial (IA). Esta investigación aborda de manera general el cuerpo teórico básico de
la IA y sus áreas más relevantes, poniendo más énfasis en el estudio de los sistemas expertos
(SE).
En la segunda parte del documento se presenta el proceso de desarrollo del sistema experto, que
tiene como dominio de aplicación el campo de la medicina. El sistema experto para el diagnóstico
de enfermedades tropicales (SEDENTropic) utiliza un modelo aproximado de la estrategia de
diagnóstico de enfermedades utilizada por el experto en enfermedades tropicales llamado
diagnóstico diferencial.
El CAPITULO II: SISTEMAS EXPERTOS, se utiliza para profundizar en el estudio de los SE: su
origen y evolución; conceptos básicos; características; arquitectura; tareas; y campos de
aplicación. Posteriormente se describe la ingeniería del conocimiento, las metodologías y
herramientas utilizadas para el desarrollo de SE.
En la parte II, titulada: DESARROLLO DE UN SISTEMA EXPERTO, se presenta el proceso de
desarrollo del SEDENTropic. Los capítulos que se presentan en esta parte, corresponden a cada
una de las fases de la metodología de desarrollo.
En el CAPITULO VII: VALIDACION, se describe el proceso por medio del cual el sistema fue
evaluado, a partir de los objetivos para los que fue creado. El capitulo está dividido en cinco
secciones: objetivos de la validación, criterios de evaluación, identificación de pruebas, prueba de
Turing y análisis de los resultados.
GENERAL
Realizar una investigación sobre los fundamentos teóricos de la inteligencia artificial, que
sirva de base para el desarrollo de un sistema experto.
ESPECIFICOS
Dentro de la diversidad de aplicaciones de inteligencia artificial, se han elegido los SE para generar
una experiencia práctica de la investigación, considerando que su desarrollo se apega más al
enfoque de la carrera de Ingeniería de Sistemas Informáticos, y su creación sería de gran beneficio
para empresas e investigadores en distintas disciplinas.
Entre las áreas de aplicación en que se han desarrollado sistemas expertos se encuentran:
medicina, agricultura, análisis de estados financieros, planificación financiera, industria, electrónica,
informática, telecomunicaciones, militar, contabilidad, robótica, reconocimiento de patrones, y
geología. Siendo de gran utilidad al proveer conocimientos de un experto que pueden ayudar en la
aplicación de dichas habilidades y conocimientos al diagnóstico y la solución de una amplia gama
de complicados problemas profesionales y de gestión, incrementando así la capacidad del
profesional experto en su área.
IMPORTANCIA
El área de la Inteligencia Artificial tiene muchos años de ser una alternativa de solución para
problemas complejos en muchos sectores de la sociedad.
Por otra parte, la sección orientada a los sistemas expertos, que será presentada en la bibliografía,
podrá servir como una herramienta de desarrollo de este tipo de sistemas de información, ya que
se definieron una serie de metodologías de ciclos de vida. También se hará énfasis en conceptos
indispensables como la ingeniería del conocimiento, que facilitarían a desarrolladores y estudiantes
las tareas de diseño y construcción de SE. La investigación sobre la aplicación de los SE será un
indicador para conocer los alcances de este tipo de sistemas en la vida cotidiana y los beneficios
que pueden aportar a la sociedad.
Desde el punto de vista práctico, el desarrollo del sistema experto sería una guía de la aplicación
de los conceptos especificados en la bibliografía. Beneficiaría a estudiantes ya que se podrá
visualizar la aplicación de un ciclo de vida de un SE, permitiendo aún más su compresión.
Debido a que se desarrolló un SE con proyección social, los beneficios ya sean directos o
indirectos serán notables en la población salvadoreña.
El origen de la Inteligencia Artificial tiene dos corrientes principales: aquellos que consideran que
se inició a partir de las ideas sobre artefactos que imitaran el comportamiento humano, y los que
sostienen que dio inicio en la conferencia de Dartmouth donde se acuñó el término.
Fundamentos
En los orígenes de la IA se encuentran diferentes puntos de vista. Algunos autores vinculan el
surgimiento de la IA con el origen de las computadoras principalmente en la segunda mitad del
siglo XX.
Luego en el siglo V a.c. Aristóteles postula el primer sistema de razonamiento deductivo la “Lógica
Silogista”. En un salto abrupto en el tiempo, se dirigen hacia el siglo XV y XVI d.c., donde fue
creada la imprenta, la “Biblia de Gutenberg”, los relojes y otros instrumentos de medición.
En el siglo XVII Descartes propone que “los animales no son más que máquinas complejas”.
Hobbes publica el “Leviatán” que contiene teorías combinatorias de pensamiento. Pascal diseña la
primera “Máquina de cálculo mecánica digital” y Liebniz se encarga de mejorarla agregando
funciones de multiplicación y división, y visualiza un universo de cálculos de razonamiento por los
cuales los argumentos pueden ser decididos mecánicamente.
1
RUSSEL y Norving, INTELIGENCIA ARTIFICIAL: UN ENFOQUE MODERNO. 1996, págs. 17-27.
2
BUCHANAN, Prof. Bruce. HISTORY OF AI, http://www.aaai.org/Pathfinder/bbhist.html#intro
En el siglo XIX se mencionan el desarrollo del álgebra binaria para representar algunas leyes del
pensamiento, y el trabajo de Charles Babbage y Ada Byron en máquinas de cálculo programables
mecánicas.
Estos aportes son considerados como raíces de la IA, ya que son ideas estructuradas y
documentadas sobre la intención de crear máquinas inteligentes (que imitaran el comportamiento
humano).
Russell y Norving3, organizan los fundamentos de la IA en ramas de las ciencias que han sido
pilares para los conceptos y teorías de la IA y los dividen de la siguiente forma:4 filosofía,
matemáticas, psicología, computación y lingüística.
Arturo Rosenblueth, Norbert Wiener y Julian Bigelow acuñan el término “cibernética”, en un artículo
que trataba sobre el estudio de “el control y la comunicación en los animales y las máquinas”. Tal
publicación constituye una de las raíces de las ciencias cognoscitivas actuales. Wiener lanzó un
libro muy popular con ese nombre en 1948.
En 1950 Allan Turing publicó el articulo "Computing Machinery and Intelligence" (Máquinas de
Cómputo e Inteligencia), y se desarrolla la “Prueba de Turing” (descrita en la sección
Conceptualización, de este CAPITULO) como forma de mecanizar una prueba para el
comportamiento inteligente. De esta forma se podía determinar la presencia de inteligencia en
humanos, animales y máquinas.
3
RUSSEL y Norving, INTELIGENCIA ARTIFICIAL: UN ENFOQUE MODERNO. 1996, (págs. 9-16)
4
Los resultados de los fundamentos de la IA, pueden observarse en archivo en CD-ROM. ETAPA I, ANEXO 1.
También en el año 1950 Claude Shanon publica en su artículo "Programming a computer for
playing chess" (Programando una computadora para jugar ajedrez), un análisis detallado del juego
de ajedrez como búsqueda. Isaac Asimov publica las tres reglas de la robótica en su libro Robot.
En este mismo año se dio la presentación de la ejecución del primer programa en IA llamado “Logic
Theorist” (Teórico Lógico), creado por Allen Newel, J. C. Shaw y Herbert Simon de la Universidad
de Carniege Mellon. Este programa de razonamiento era capaz de realizar demostraciones de
teoremas matemáticos.
Entre 1952 y 1962 Arthur Samuel desarrolló el primer programa para juegos de damas, que logró
obtener suficiente pericia como para desafiar al campeón mundial, sus programas con aprendizaje
de máquina fueron responsables del incremento en el rendimiento de los jugadores de damas.
En 1958 John McCarthy inventó el lenguaje de programación LISP7, concebido para inteligencia
artificial y con un enfoque diferente al que ahora conocemos. Se trataba de un lenguaje para que
los humanos pudieran describir sus procedimientos a las máquinas, y cumplía con las siguientes
5
BUCHANAN, Prof. Bruce. HISTORY OF AI, http://www.aaai.org/Pathfinder/bbhist.html#modern.
6
MCCARTHY, John. A PROPOSAL FOR THE DARTMOUTH SUMMER RESEARCH PROJECT ON ARTIFICIAL INTELLIGENCE,
http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html.
7
MCCARTHY, John. LISP LANGUAGE, http://www.aaai.org/Pathfinder/html/sys.html.
características: explicito (sin ambigüedades en los procedimientos), universal (cada procedimiento
debería ser describible) y conciso.
En 1960 Widrow y Hoff8 formulan una variante para el PERCEPTRON llamada ADALINE
(Adaptative Linear Elements), que fue la primera red neuronal aplicada a un problema real (filtros
adaptativos para evitar ecos en las líneas telefónicas). Tanto ADALINE como su extensión
MADALINE (desarrollada en 1962) fueron comercializadas durante muchos años.
En 1961, James Slagle escribió en LISP el primer programa de integración simbólica llamado
SAINT, que resolvía problemas de cálculo. En 1962, fue fundada Unimation la primera compañía
para desarrollo de robots industriales.
En 1963, Edward A. Fiegenbaum y Julian Feldman publican el libro “Computers and Thought”
(Computadoras y Pensamiento), la primera colección de artículos sobre IA que mostraba el trabajo
de los científicos responsables de haberla definido y de sentar las bases para su desarrollo.
En ese mismo año Joseph Weizenbaum construyó ELIZA un programa interactivo que conduce un
diálogo de cualquier tema en inglés. Fue muy popular en arpa net cuando fue programada una
versión que simulaba el dialogo con un psicoterapeuta.
8
GUERRERO y López. INTELIGENCIA ARTIFICIAL Y DOCUMENTACIÓN, págs. 65-70
En 1969, Edward Feigenbaum, Joshua Lederberg y Bruce Buchanan de la Universidad de Stanford
desarrollaron el programa DENDRAL para interpretar espectros de masa orgánicos en compuestos
químicos, este fue considerado el primer sistema basado en conocimiento para razonamiento
científico que fue exitoso. En ese mismo año, Joel Moses demostró el poder del razonamiento
simbólico para integración de problemas con el programa MACSYMA, el primer sistema basado en
conocimiento para matemáticas que tuvo gran aceptación.
Entre los años de 1960 a 1965 se desarrollaron las teorías de la Complejidad (Reducción) y de la
Intratabilidad e incalculabilidad, que propiciaron en este periodo el decaimiento de la IA,
especialmente para trabajos con redes neuronales, debido a las limitaciones en los problemas “de
juguete” por su relativa sencillez.
En 1967, un reporte negativo sobre la traducción automática destruyó mucho trabajo realizado
hasta la fecha en procesamiento de lenguaje natural, y lo relegó a un segundo plano por muchos
años.
Además Minsky y Papert en 1969 en su publicación Perceptrons, identificaron las limitaciones que
se tenían en las estructuras utilizadas en los modelos de redes neuronales. Esto originó una
reducción de presupuesto para este rubro.
9
GUERRERO y López. INTELIGENCIA ARTIFICIAL Y DOCUMENTACIÓN, págs. 65-95
Resurgimiento (Realismo) 1971 -1979
En 1971, Terry Winograd demostró la habilidad de las computadoras para entender instrucciones
en inglés en el mundo restringido de los bloques para niños, agregando a su programa de
interpretación de lenguaje llamado SHRDLU un brazo mecánico que llevaba a cabo instrucciones
escritas.
En 1974 fueron desarrollados dos sistemas muy importantes: MYCIN Y ABSTRIPS. MYCIN era un
sistema basado en reglas para representación del conocimiento e inferencia para el diagnóstico
médico y terapia, tenía como respaldo 450 reglas capaces de emitir un diagnóstico muy similar al
de un experto. ABSTRIPS fue el primer programa para planificación, desarrollando técnicas de
planeamiento jerárquico. Estos sistemas fueron considerados los primeros sistemas expertos para
un dominio específico.
En 1978, fue desarrollado en Staford por Mark Stefik y Peter Friedland el programa MOLGEN11,
demostraba que una representación de conocimiento orientada a objetos podía ser utilizada para
planear experimentos de clonación de genes. Estaba basado en planeación con restricciones, en
las que las decisiones de planeación son hechas independientemente del dominio de la decisión.
También hay decisiones de laboratorio dependientes del dominio. Las restricciones del problema
son la interacción de pasos separados de decisiones de laboratorio.
En 1979 fueron desarrollados otros sistemas basados en conocimiento muy reconocidos como
EMYCIN, una ampliación del MYCIN que permitió establecer el modelo de muchos “shells” para SE
comerciales.
10
COLMERAUER, Alain. PROLOG, http://www.aaai.org/Pathfinder/html/sys.html
11
AAAI, MOLGEN, http://www.aaai.org/Pathfinder/html/faqs.html#bhist35
También para 1980 fueron desarrolladas y comercializadas máquinas LISP, que eran equipos de
cómputo optimizados para utilizar eficientemente el lenguaje LISP. Se contaba con fabricantes de
prestigio para su comercialización, entre ellos XEROX y Texas Instruments.
En ese mismo año Danny Hills diseño la máquina conectiva con una arquitectura paralela. Este
equipo sirvió para potenciar el desarrollo de aplicaciones de IA y la computación en general.
En 1985 el programa autónomo de dibujo implementado en un robot llamado Aaron12, diseñado por
Harold Cohen. Aaron fue el primer robot en la historia que creaba cuadros (pinturas) y dibujaba
confiando en su propio conocimiento, usando una estructura ramificada de reglas y vías de
retroalimentación que le decían como proceder. Realizaba la tarea con una consistencia estilística
similar a la de un artista humano. Representó un gran avance en las aplicaciones de
reconocimiento de patrones y visión artificial.
En 1988 la empresa Dupont ya utilizaba 100 sistemas expertos y mantenía en diseño otros 500, lo
que le generaba ahorros de $10 millones anuales.
En 1989 se crea ALVINN13 (un vehículo de campo autónomo en una red neuronal), que era un
sistema de percepción que aprendía el control de vehículos NAVLAB observando a una persona
manejar. ALVINN se convirtió en la base para un sistema de manejo de vehículos llamado RALPH
(Rapidly Adapting Lateral Position Handler), que en 1995 logró viajar desde Pittsburg hasta
Indianápolis completando 2,849 millas en lo que se llamó “No hands across America” (Sin manos a
través de América). Fue considerado un gran aporte para el uso de redes neuronales en el control
de robots.
En los años 80 resurge el interés por las redes neuronales y se presentan nuevas aportaciones a la
teoría y diseño de éstas desde diferentes frentes. En 1982, se celebro la US/Japan Joint
Conference on Cooperative/Competitive Neural Networks (Conferencia Cooperativa/Competitiva de
Redes Neuronales de EE.UU. y Japón). Ese mismo año Fujitsu comenzó el desarrollo de
computadoras pensantes para hacer aplicaciones en robótica.
12
AAAI, http://www.aaai.org/Pathfinder/html/art.html
13
AAAI, http://www.aaai.org/Pathfinder/html/autveh.html#bhist20
Ultimos acontecimientos (Madurez) 1988 en adelante
En este periodo se han dado grandes avances en todas las ramas de la IA, esto debido al
incremento en la capacidad de los dispositivos, y que mayor cantidad de científicos están
desarrollando este tipo de aplicaciones. En 1990 se hicieron avances significativos en la
construcción de un robot humanoide, a cargo de Rod Brooks del proyecto COG14 del Massashuset
Institute Technologies (MIT), contaba con un conjunto de sensores y actuadores (actors en inglés)
que se tratan de aproximar a la sensibilidad y dinámica motora del cuerpo humano.
En 1997, el programa de ajedrez Deep Blue vence al campeón de ajedrez del momento Garry
Kasparov. Deep Blue estaba implementado en un sistema de computación con una tecnología
RS/6000 SP, que también puede realizar tareas relacionadas a problemas complejos como:
predicción del clima, modelar datos financieros y diseñar vehículos, entre otras.
En ese mismo año se realizó la primera Robocup oficial, evento de fútbol para robots con 40
equipos y más de 500 espectadores. También se realizó la demostración de una habitación
inteligente y agentes emocionales en el laboratorio de IA del MIT. Se inició con la arquitectura
Oxygen que conecta el mobiliario y las computadoras estacionarias en una red adaptativa.
En 2000 los robots mascotas interactivas estuvieron disponibles a nivel comercial, acercando a la
población mundial a las aplicaciones de la IA. Actualmente, la tendencia de la IA es la de los
agentes inteligentes. Un agente inteligente es capaz de realizar acciones autónomas flexibles para
alcanzar sus objetivos. Algunos autores15 clasifican a los agentes inteligentes de acuerdo a su
función, y éstos pueden pertenecer a más de una de las siguientes categorías: agentes
colaborativos, de interfaz, móviles, de información, reactivos e híbridos.
14
AAAI, ROBOTS, http://www.aaai.org/Pathfinder/html/robots.html
15
AGENTES INTELIGENTES, http://uoc.terra.es/art/uoc/vicente0302/tfc/mvicentelp12.html
16
FERNÁNDEZ, Rodríguez y Quevedo. ML-Lab: HERRAMIENTA DE EXPERIMENTACIÓN FLEXIBLE PARA APRENDIZAJE
AUTOMÁTICO, ftp://ftp.aic.uniovi.es/publications/Machine_Learning/pdf/ml-lab.pdf
Esquema de la evolución de la Inteligencia Artificial
1943 1940
Publicación “Calculo Lógico de Ideas
Inmanentes en Actividades Nerviosas” Etapas de la Inteligencia Artificial:
por Warren McCulloch y Walter Pitts.
1950
Prueba de Turing,
por Alan Turing.
1956
Conferencia de Dartmouth, GENESIS (Creativo)
por J. McCarthy, M. Minsky, N. 1950
1943 - 1956
Rochester y C.E. Shannon.
1957
GPS (General Problem Solver),
por Newell, Shaw y Simon.
1958
Creacion del Lenguaje LISP,
por John McCarthy.
1962
Unimation, Primera fabrica de robots 1960
industriales. PRIMEROS PASOS (Optimismo)
1966 1956 - 1967
“Machine Intelligence Workshop” en
Edinburg organizado por Donald Michie,
primer taller sobre IA a nivel internacional.
1967
Reporte negativo sobre la traducción
de las maquinas destruyó mucho
trabajo realizado.
1970 INVIERNO (Pesimismo)
1969
Publicación Perceptrons, 1966 - 1974
Minsky y Papert.
1974. MYCIN y ABSTRIPS.
RESURGIMIENTO (Realismo)
1979
EMYCIN, shells para SE comerciales. 1971 - 1979
1980
Maquinas Lisp por XEROX y 1980
Texas Instruments.
1981
Japoneses y su proyecto de
“quinta generación”. INDUSTRIALIZACION (Prototipos)
Maquinas que ejecutaban PROLOG.
1979 - 1980
1988
Dupont utilizaba 100 SE’s y
mantenía en diseño otros 500.
1989 1990
ALVINN, un vehículo de campo
autónomo en una red neuronal.
1990
Avances en la construcción de un robot
humanoide, ULTIMOS ACONTECIMIENTOS
por Rod Brooks.
(Madurez)
1997 Desde 1988
Deep Blue (IBM) vence al campeón
de ajedrez Garry Kasparov.
2000
2000
Robots mascotas interactivos
disponibles a nivel comercial.
2.1 INTELIGENCIA
Según el diccionario Latino-Español, el término inteligencia se deriva del latín intelligentia, que
hace referencia a la “facultad por medio de la cual [...] se conoce las cosas que existen”. El
diccionario de la Real Academia Española la define de varias formas:
Se buscará una definición que describa de una forma más amplia el concepto, acudiendo a la
psicología. Según esta disciplina científica la inteligencia se define como la capacidad para realizar
juicios apropiados, aprovechar las experiencias y afrontar adecuadamente nuevos problemas.
La capacidad que exhiben los artefactos creados por el hombre para aprender, razonar y
adaptarse de manera eficiente.
2.2 INTELIGENCIA ARTIFICIAL
El concepto de inteligencia descrito anteriormente da una idea general de la IA, sin embargo no
describe su carácter de disciplina científica. Para completar la definición se acudirá a conceptos
propuestos por algunos autores agrupados en el cuadro 1.2.1.
Winston 1992 El estudio de los cálculos que permiten percibir, razonar y actuar.
Rich y La IA estudia como lograr que las máquinas realicen tareas, que, por el
1994
Knight momento son realizadas mejor por seres humanos.
Turing evitó deliberadamente la interacción física directa entre el evaluador y la computadora, dado
que para medir la inteligencia era necesario simular físicamente a un humano. Sin embargo, en la
denominada prueba total de Turing se utilizan una señal de video para que el evaluador pueda
calificar la capacidad de percepción del evaluado, y también para que aquél pueda pasar objetos
físicos. Para aprobar la prueba total de Turing, es necesario que la computadora esté dotada,
además de las capacidades anteriores de:
En la sección “Areas de la IA” se abordarán de forma general algunas de estas capacidades, que
en la actualidad conforman áreas de la IA.
17
VON Der Becke, Carlos. EL TEST DE TURING, http://web1.cti.unav.es/asignaturas/ia/tsld013.htm
Ambas formas presentan grandes limitaciones. Mientras no se superen estas limitaciones para
poder desarrollar una teoría bastante precisa de la mente no será posible implementarla en un
programa de computadora.
Una de las críticas más importantes a los dos enfoques anteriores es que actuar o pensar como
humano no siempre implica hacerlo de la manera correcta. Los humanos se ven influenciados por
las emociones18 a la hora de tomar decisiones o emprender actos, lo que puede provocar
pensamientos o actos que estén lejos de lo que se considera inteligente. Además las capacidades
fisiológicas de los humanos varían de uno a otro.
PENSAR RACIONALMENTE
Para desarrollar este enfoque se define “pensar racionalmente” como el uso de las propiedades
intelectuales para juzgar, tomar decisiones, realizar inferencias, extraer conclusiones o formarse
una opinión, de una manera correcta.
Este enfoque se centra en las leyes del pensamiento, construidas desde hace muchos años por la
filosofía. Aristóteles fue uno de los primeros en intentar codificar la “manera correcta de pensar”.
Sus silogismos son esquemas de estructuras de argumentación mediante la que siempre se llega
a conclusiones correctas si se parte de premisas correctas. Por ejemplo: “Sócrates es un hombre;
todos los hombres son mortales; por lo tanto, Sócrates es mortal”.
Los silogismos de Aristóteles permitieron el surgimiento de la lógica formal, como ciencia que
estudia los actos del pensar –concepto, juicio, razonamiento, demostración- desde el punto de vista
de su estructura formal o forma lógica19; que permitió contar con una notación precisa para
representar aseveraciones relacionadas con todo lo que existe en el mundo, así como sus
relaciones mutuas. Posteriormente la lógica fue tomando nuevas formas y aparecieron la lógica
matemática, lógica probabilística, entre otras, que han tenido una gran influencia en las ciencias
de la computación.
Uno de los obstáculos que presenta este enfoque es que es difícil recibir un conocimiento informal
y expresarlo en los términos formales que exige la notación lógica, especialmente cuando este no
está estructurado; es decir; cuando no se tiene un 100% de certidumbre. Además es imposible
18
En psicología la emoción se entiende como un estado afectivo que se caracteriza por aparecer de forma brusca, ser intenso,
depender de los centros di-encefálicos e implicar manifestaciones vegetativas con repercusiones glandulares, musculares y
viscerales.
19
M.M. Rosental y P.F. Iudin, DICCIONARIO DE FILOSOFÍA, pág. 279.
implementar en una computadora problemas que involucran demasiados elementos, a menos que
se cuente con lineamientos sobre los pasos de razonamiento que hay que utilizar primero.
ACTUAR RACIONALMENTE
Este enfoque también esta basado en las leyes del pensamiento. Se retomará lo planteado por
Russell y Norving; quienes simplifican el actuar racionalmente (o actuar inteligentemente) a: Actuar
de manera tal que se logren los objetivos deseados, con base a ciertos supuestos.20
Un sistema inteligente que estuviera determinado por el enfoque de pensar racionalmente estará
construido para hacer inferencias correctas. No obstante, el efectuar una inferencia correcta no
siempre depende de la racionalidad, pues existen situaciones en las que no existe algo que se
pueda considerar como lo correcto, y sin embargo hay que decidirse por un curso de acción.
Existen también maneras de actuar racionalmente que de ninguna manera entrañan inferencia
alguna. Por ejemplo, el retirar la mano de una hornilla caliente es un acto, reflejo mucho más
eficiente que una tardía actuación emprendida después de una cuidadosa deliberación. (Russell y
Norving, et al, 1996)
Este enfoque trata de consolidar el enfoque basado en las leyes del pensamiento y el basado en
las capacidades cognoscitivas. Se adoptará el enfoque de “actuar racionalmente” como el más
descriptivo de la IA.
Se define IA como:
Rama de las ciencias de la computación que se ocupa del estudio y modelado de las
capacidades de aprendizaje, razonamiento y adaptación, para la construcción de sistemas
que exhiban estas capacidades.
20
RUSSELL y Norving llaman a este enfoque: El enfoque del agente racional. Definen un agente como algo capaz de percibir y
actuar. En este documento caso se utilizará el término sistema inteligente, ya que se adapta mejor a los objetivos de la investigación.
3. SISTEMAS INTELIGENTES
La palabra ontología tiene un origen filosófico, significa: teoría particular del ser o de la existencia, y
se refiere a todo lo que es o existe en un determinado tiempo y espacio.
La ontología general se refiere a todo lo que forma parte del dominio de un sistema inteligente, es
decir, todo lo que el sistema es capaz de reconocer e interpretar del medioambiente y que le es útil
para tomar una decisión. La ontología se refiere a un caso particular de la ontología general que se
presenta en el medioambiente.
3.2 MEDIOAMBIENTE
• Accesibilidad: