DIAPO 3 - Maquetacion
DIAPO 3 - Maquetacion
DIAPO 3 - Maquetacion
© Structuralia 2
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
INDICE
INDICE........................................................................................................................................................................... 2
1. INTRODUCCIÓN ....................................................................................................................................................... 4
4. AGENTES ................................................................................................................................................................. 7
7. REFERENCIAS ....................................................................................................................................................... 20
3 © Structuralia
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
1. INTRODUCCIÓN
Antes de ahondar en cada una de las áreas de la inteligencia artificial existen una serie de
conceptos básicos, transversales a todas ellas, que facilitarán el estudio y comprensión de las
mismas. En los siguientes apartados se presenta cada concepto junto con una breve
explicación y su principal uso.
© Structuralia 4
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
▪ La inteligencia artificial fuerte es una corriente que defiende que las máquinas sí
piensan (pensamiento real).
▪ La inteligencia artificial débil es una corriente que defiende que las máquinas actúan con
inteligencia, pero no piensan por sí mismas (pensamiento simulado).
5 © Structuralia
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
3. EL TEST DE TURING
En el segundo tema ya se presentó a Alan Turing, el matemático impulsor de la computación y
la inteligencia artificial. Una de sus grandes contribuciones fue “el test de Turing”. A pesar de
que el trabajo se publicó en 1950, a día de hoy sigue vigente en el mundo académico a la hora
de evaluar la inteligencia de cualquier sistema.
El test de Turing está compuesto de una serie de pruebas específicas para ver si el evaluador,
ajeno al sistema inteligente, es capaz de distinguir si está interactuando con una persona o una
máquina. El principal requisito del test es que el evaluador no tenga en ningún momento
contacto visual con el sistema, pues sino la complejidad aumentaría muchísimo al tener que
simular a un ser humano. El evaluador establecerá una serie de preguntas que la máquina
deberá responder. Como el evaluador a lo largo del proceso desconoce qué hay al otro lado
(máquina o humano) sólo podrá basar su criterio en la calidad de las respuestas obtenidas a
sus preguntas. Se considera que un sistema ha pasado la prueba si el evaluador es incapaz de
distinguir entre las respuestas del mismo y las de un humano.
Existe un segundo test, conocido como Test Global de Turing, que sí que incluye visión artificial
para identificar objetos y manipulación para poder moverlos (que entraría dentro del área de la
robótica).
© Structuralia 6
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
4. AGENTES
En inteligencia artificial llamamos agente a cualquier ente o elemento físico o virtual que sea
capaz de percibir qué sucede en el entorno, procesarlo y ejecutar cambios o interaccionar
sobre el mismo.
7 © Structuralia
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
Estímulo
ENTORNO
AGENTE Procesar
estímulo
Ejecutar acción
Existe una evolución de agente reactivo que basa sus decisiones en un modelo de
conocimiento previamente construido en lugar de utilizar la forma condición → acción.
Llamamos modelo a una base de conocimiento organizada en diferentes niveles de
condiciones. Los sistemas expertos de los 80 y 90 pertenecen a este tipo de agentes. Este tipo
de agente es más consciente del entorno y sus cambios, aunque no lo entiendan desde el
punto de vista de nuevo conocimiento.
Ejemplo: Si el nivel de agua del depósito es bajo, mantener las compuertas abiertas hasta
detectar nivel alto.
Por otro lado, el comportamiento deliberativo es aquel que conlleva un razonamiento lógico. El
agente es plenamente consciente del entorno y sus cambios. Sabe desenvolverse ante dichos
cambios al igual que aprende de sus acciones y percepciones.
ENTORNO Ejecutar
comportamiento AGENTE
Procesar
estado
Aprender cambios
© Structuralia 8
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
Desde el punto de vista teórico, los agentes deliberativos pasan por cuatro fases o niveles
clave:
9 © Structuralia
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
5. ARQUITECTURAS DE AGENTES
En la sección anterior se han explicado los dos diferentes tipos de agentes y sus formas de
actuar sobre el entorno. Aún queda un paso más: cómo se modela y controla ese
comportamiento. Los científicos han implementado diferentes modelos o arquitecturas que
permiten trabajar de forma sencilla con agentes. Para los agentes reactivos utilizaremos
autómatas finitos; para los deliberativos la arquitectura BDI.
Un autómata finito es un modelo computacional que cada vez que recibe una entrada
realiza cómputos o acciones de forma automática producir una salida. La idea de los autómatas
la construyó Alan Turing sobre “The Turing Bombe” y sirvió para sentar las bases de la
computación. Existen dos tipos de autómatas finitos: deterministas y no deterministas.
▪ Estados (q0, q1, q2…): puede representar desde un número o letra hasta el estado
concreto de un agente. En el modelo teórico, el estado inicial se representa señalado
con una flecha (q0) y el estado final o estado meta con un doble círculo (q0). Ambos
estados pueden o no coincidir. Puede haber varios estados meta pero sólo habrá un
estado inicial por autómata.
▪ Transiciones: indican el estado siguiente al cuál transitar una vez se recibe el valor
(número, letra, acción…) como entrada.
▪ Valores sobre las transiciones: indican los valores (números, letras, acciones…) que
el autómata sabe procesar del entorno.
© Structuralia 10
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
11 © Structuralia
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
Cuando se trabaja con estructuras de control para agentes reactivos se utiliza un modelo de
autómata más práctico, sobre todo si queremos que el agente realice acciones de forma
repetitiva. Esto significa que no hay estado final como tal (en el modelo teórico del ejemplo
sería S3). Las transiciones equivalen a acciones ejecutada sobre el entorno.
© Structuralia 12
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
▪ Intentions (intenciones): Son las que conducen al agente hacia las metas, las
encargadas de satisfacer los deseos del agente. Cualquier intención también podría
afectar a la base de Beliefs del agente y actualizarla.
El sistema de control en combinación con estos tres elementos quedaría como se muestra en
la siguiente figura:
13 © Structuralia
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
Este tipo de lenguaje o definición de conocimiento está englobado dentro de la lógica de primer
orden y engloba los siguientes elementos:
© Structuralia 14
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
Ejemplo: elaborar una base de conocimiento para predecir si una persona será solvente
o no a la hora de concederle un préstamo.
Ejemplo: analizar indicadores financieros, nómina del trabajador, tipo de contrato, lista
de morosos etc.
▪ Modelar el conocimiento del dominio: después de realizar las tres tareas anteriores
hemos finalizado con el proceso de investigación y entendemos el entorno de nuestra
base de conocimiento. El siguiente paso será ordenar toda esa información, términos y
relaciones entre ellos. Decidiremos cuáles son los elementos principales, cuáles son los
atributos de esos elementos, cómo están interconectados, qué acciones se pueden
llevar a cabo etc.
Ejemplo: siguiendo con los préstamos bancarios habrá que agrupar el conocimiento en
aquellos elementos que interesan al banquero y aquellos que evalúan la solvencia de
una persona. Las acciones en su mayoría serían cómputos de indicadores, consulta de
históricos y listas negras.
15 © Structuralia
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
Ejemplo: para evaluar la base de conocimiento se pueden elaborar una serie de reglas
del estilo “si …… entonces” que lleven a los expertos desde el inicio “el cliente quiere
solicitar un préstamo X” hasta su concesión o denegación.
© Structuralia 16
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
Dicha ontología podría aplicarse a tareas como “análisis y viabilidad de nuevas plantaciones” o
“identificación temprana de árboles”.
Finalmente, en este último apartado del presente tema se explica una de las bases de la
representación del conocimiento: la lógica de primer orden [1].
17 © Structuralia
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
La lógica de primer orden es un sistema formal que permite estudiar y representar la inferencia
de un conjunto de variables, predicados y funciones. Como consecuencia, la lógica de primer
orden también se conoce como lógica de predicados.
Una sentencia lógica básica podría ser Curar (Herida, Pomada) o Abuelo (Julio, Miranda). Esto
se leería como “la herida se cura con pomada” o “Julio es el abuelo de Miranda”. El orden de
lectura siempre será 1er término, predicado, 2º término.
A continuación, se muestra una lista de símbolos que se utilizan para representar y dotar de
mayor expresividad a las sentencias lógicas.
¬ Conectiva No
∧ Conectiva Y
∨ Conectiva O
⇒ Conectiva entonces
⇔ Conectiva equivale
© Structuralia 18
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
Abuelo(Julio, Miranda)
Podemos convertir a Julio y a Miranda en variables que pueden representar cualquier nombre
propio. Por ejemplo vamos a llamarlas persona1 y persona2.
Dando un paso más allá, se podría representar la siguiente frase “para todo nieto existe un
abuelo”, la cual ya albergaría en su definición la sentencia lógica anterior. Esto se representaría
de la siguiente manera:
No obstante esta representación nos aporta poco, pues no contiene ningún tipo de inferencia
de conocimiento, que es el objetivo de este método. Como se ha mencionado anteriormente,
los predicados crean relaciones y los conectores son capaces de unir dos o más relaciones.
Entonces ya podríamos representar sentencias como la siguiente:
∀x, ∃y Madre(x, y) ⇔ Hija(y, x) ; “todo x tiene una madre y, entonces y es hija de x”.
19 © Structuralia
Inteligencia artificial – Conceptos, agentes y representación del conocimiento
7. REFERENCIAS
[1] S. J. Russell and P. Norvig, Artificial Intelligence: A Modern Approach 3rd Ed. (1994)
http://aima.cs.berkeley.edu/.
[2] Rao, A. S., & Georgeff, M. P. (1995, June). BDI agents: from theory to practice.
In ICMAS (Vol. 95, pp. 312-319). http://www.aaai.org/Papers/ICMAS/1995/ICMAS95-042.pdf
© Structuralia 20