Inteligencia Artificial

Descargar como ppt, pdf o txt
Descargar como ppt, pdf o txt
Está en la página 1de 49

UNIVERSIDAD TECNOLOGICA DE GUADALAJARA

INTRODUCCION A LA COMPUTACION

DATOS PERSONALES DATOS DEL TRABAJO


ALUMNO Isaac de Santiago Barragán FECHA 28-05-09
CARRERA Ing. Computación TIPO Teoría Taller
SEMESTRE 1° No. TAREA Investigación 1
GRUPO A TEMA Inteligencia Artificial
CICLO 2009-A CALIF.

BIBLIOGARFIA:
http://en.wikipedia.org/wiki/Robot http://www.imdb.com/title/tt0212720/
http://es.wikipedia.org/wiki/Inteligencia_artificial http://www.answermath.com/Spanish/logica-difusa-matematicas.htm

CONCLUSION PERSONAL:
Con esta investigación, pudimos comprender que la inteligencia artificial no es solo una película de ciencia ficción, si no que es una
nueva ciencia, con la cual algún día podremos llegar a crear un androide, robot capaz de ser como un ser humano, que razone por el
solo, que piense por si mismo y quien quite y que sienta como los seres humanos.
Por lo pronto la tecnología ya a creado demasiados artefactos como miembros y sistemas computacionales capaces de razonar por si
solos y resolver varios problemas, y los miembros que actúen como si fueran parte viva de nuestros cuerpos.
Fue una genial investigación.

Fecha Actualización: 14 Febrero 2009 Profesor:

Periodo de Vigencia: 2009-A TCS Public Fernando O. López Mtz.

R00/0208 [email protected]
TCS Public
TCS Public
DEFINICION

Se define la inteligencia artificial como aquella inteligencia exhibida por artefactos


creados por humanos (es decir, artificial). El nombre también se usa para referirse
al campo de la investigación científica que intenta acercarse a la creación de tales
sistemas.

Debido a que la inteligencia artificial tuvo muchos padres no hay un consenso para
definir ese concepto, pero podemos decir que la inteligencia artificial se encarga
de modelar la inteligencia humana en sistemas computacionales.

Puede decirse que la Inteligencia Artificial (IA) es una de las áreas más fascinantes
y con más retos de las ciencias de la computación, en su área de ciencias
cognoscitivas. Nació como mero estudio filosófico y razonístico de la inteligencia
humana, mezclada con la inquietud del hombre de imitar la naturaleza
circundante (como volar y nadar), hasta inclusive querer imitarse a sí mismo.
TCS Public
Sencillamente, la Inteligencia Artificial busca el imitar la inteligencia humana.
Obviamente no lo ha logrado todavía, al menos no completamente.
TCS Public
- En 1903 Lee De Forest inventa el triodo (también llamados bulbo o válvula de vacío). Podría decirse que la primera gran
maquina inteligente diseñada por el hombre fue el computador ENIAC, compuesto por 18.000 válvulas de vacío, teniendo en
cuenta que el concepto de "inteligencia" es un termino subjetivo que depende de la inteligencia y la tecnología que tengamos
en esa época. Un indígena del amazonas en el siglo 20 podría calificar de inteligente un tocadiscos, cuando en verdad no lo
es tanto.

- En 1937, el matemático inglés Alan Mathison Turing (1912-1953) publicó un artículo de bastante repercusión sobre los
"Números Calculables", que puede considerarse el origen oficial de la Informática Teórica.
En este artículo, introdujo la Máquina de Turing, una entidad matemática abstracta que formalizó el concepto de algoritmo y
resultó ser la precursora de las computadoras digitales. Con ayuda de su máquina, Turing pudo demostrar que existen
problemas irresolubles, de los que ningún ordenador será capaz de obtener su solución, por lo que a Alan Turing se le
considera el padre de la teoría de la computabilidad.

También se le considera el padre de la Inteligencia Artificial, por su famosa Prueba de Turing, que permitiría comprobar si
un programa de ordenador puede ser tan inteligente como un ser humano.

-En 1951 William Shockley inventa el transistor de unión. El invento del transistor hizo posible una nueva generación de
computadoras mucho más rápidas y pequeñas.

- En 1956, se acuño el término "inteligencia artificial" en Dartmouth durante una conferencia convocada por McCarthy, a la
cual asistieron, entre otros, Minsky, Newell y Simon. En esta conferencia se hicieron previsiones triunfalistas a diez años
que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.

TCS Public
-En 1980 la historia se repitió con el desafío japonés de la quinta generación, que dio lugar al auge de los sistemas
expertos, pero que no alcanzó muchos de sus objetivos, por lo que este campo ha sufrido una nueva detención en los
años noventa.

- En 1987 Martin Fischles y Oscar Firschein describieron los atributos de un agente inteligente. Al intentar describir
con un mayor ámbito (no solo la comunicación) los atributos de un agente inteligente, la IA se ha extendido a muchas
áreas que han creado ramas de investigación enormes y diferenciadas. Dichos atributos del agente inteligente son:

1. Tiene actitudes mentales tales como creencias e intenciones


2. Tiene la capacidad de obtener conocimiento, es decir, aprender.
3. Puede resolver problemas, incluso particionando problemas complejos en otros más simples.
4. Entiende. Posee la capacidad de crearle sentido, si es posible, a ideas ambiguas o contradictorias.
5. Planifica, predice consecuencias, evalúa alternativas (como en los juegos de ajedrez)
6. Conoce los límites de su propias habilidades y conocimientos.
7. Puede distinguir a pesar de las similitud de las situaciones.
8. Puede ser original, creando incluso nuevos conceptos o ideas, y hasta utilizando analogías.
9. Puede generalizar.
10. Puede percibir y modelar el mundo exterior.
11. Puede entender y utilizar el lenguaje y sus símbolos.

- Muchos de los investigadores sobre IA sostienen que "la inteligencia es un programa capaz de ser ejecutado
independientemente de la máquina que lo ejecute, computador o cerebro".

TCS Public
TCS Public
Un robot de charla o chatterbot es un programa de inteligencia artificial que pretende simular una
conversación escrita, con la intención de hacerle creer a un humano que está hablando con otra persona.

Estos programas informáticos prometen ser el futuro de la inteligencia artificial. En el futuro podremos
ver como a estos actuales bots se les unirán las tecnologías del reconocimiento de voz y el de video.

El cerebro humano tiene 100.000 millones de neuronas. Un programa de ordenador puede simular unas
10.000 neuronas.
Si a la capacidad de proceso de un ordenador la sumamos la de otros 9.999.999 ordenadores, tenemos la
capacidad de proceso de 10.000.000 ordenadores.

Multiplicamos 10.000.000 ordenadores por 10.000 neuronas cada uno y da = 100.000 millones de neuronas
simuladas. Un cerebro humano será simulado en el futuro gracias a Internet y cualquiera puede
programarlo.

Una vez que la inteligencia artificial tenga una inteligencia igual o superior a la del hombre,
obligatoriamente surgirá un cambio político y social, en el que la IA tiene todas las de ganar si se da
cuenta que no necesita a los humanos para colonizar el universo. Suena a ciencia ficción pero actualmente
orbitando están los satélites de comunicaciones con sus procesadores 486.

En el futuro, la inteligencia artificial autorreplicantes podría fácilmente hacerse con todas las colonias
humanas fuera de la tierra, y la raza humana nunca podrá luchar en el espacio vacío en igualdad de
condiciones.

El futuro de una inteligencia superior puede ser la investigación de tecnologías como la teleportación, los
viajes estelares y cualquier otra tecnología para aumentar "artificialmente" la inteligencia.
TCS Public
TCS Public
Alan Turing
"El inglés Alan Turing (1912-1954) puede ser considerado el padre de la Inteligencia Artificial (IA), aunque este
nombre no se usase hasta después de 1956. Turing estudió lógica matemática en la Universidad de Cambridge y en
1937 estuvo en el Institute for Advanced Studies de Princeton, donde estaban Gödel y Von Newman, entre otros
destacados lógicos y matemáticos, además de Albert Einstein Durante la segunda guerra mundial trabajó para su
país en los servicios de información; en 1949 en la Universidad de Manchester y en el programa MADAM
(Manchester Authomatic Digital Machine) que resultó ser el equipo de computación de mayor memoria construido
hasta entonces. Condenado a causa de su homosexualidad a un tratamiento, o tortura, médico-farmacéutica
equivalente a la castración, Turing se suicidó por envenenamiento en 1954." (Enric Trillas50-51)
"Durante los años de la segunda guerra mundial, Turing colaboró en el diseño de una máquina llamada la ‘Bomba’
que exploraba las combinaciones posibles generadas por la máquina codificadora alemana ‘Enigma’. Tal ‘Bomba’
fue una máquina de propósito especial, el de descifrar códigos, construida electromecánicamente con relés. Asimismo,
trabajó en el desarrollo de la ‘Colossus’ (que algunos consideran como el primer ordenador electrónico) que ya
funcionaba con válvulas (tubos de vacío) en lugar de relés; gracias a ella los británicos pudieron mantener alejados de
los submarinos alemanes a los barcos de suministro que cruzaban el Atlántico… Turing no recibió en vida
reconocimiento alguno de la sociedad a la que tanto ayudó en los momentos más difíciles." (Enric Trillas51)

"Más sorprendente todavía es que Turing demostró que para cualquier sistema de sus máquinas que sea necesario
para efectuar algoritmos cada vez más complicados existe una máquina de Turing capaz de hacerlo todo ella sola. Tal
máquina hipotética recibe el nombre de ‘máquina de Turing universal’, y su existencia teórica pone de manifiesto que
el concepto de máquina de Turing es de una versatilidad
TCSsin fin, al permitir que cualquier incremento de la
Public
complejidad del algoritmo pueda ser aceptado por una lista más larga de especificaciones… Los ordenadores actuales
son realizaciones de las ideas de John von Newmann y de Alan Turing." (Enric Trillas53)
Turing "en 1950 propuso una prueba que se conoce como el ‘test de Turing’, el cual se basa en la idea
siguiente: si una persona se comunica sólo a través de un terminal con otras dos partes, que están
escondidas,, y no se puede discriminar a través de preguntas cuál de ambas partes es una persona y
cuál es un ordenador, entonces no se puede negar que la máquina muestra la cualidad que, en las
personas, se llama ‘inteligencia’. Tal procedimiento tiene la ventaja de no tener que definir lo que es la
inteligencia. Turing creía firmemente que máquinas que piensen llegarían a existir y predijo que hacia
el año 2000 una máquina jugaría al ‘juego de imitación’, como él llamó al test, de manera que un
interrogador medio no tendría más del 70 por 100 de posibilidades de efectuar la identificación
correcta tras cinco minutos de preguntas." (Enric Trillas55)

En el desarrollo de la computadora, la teoría antecedió a la práctica. El manifiesto del nuevo orden


electrónico de cosas fue un trabajo ("On Computable Numbers" -Sobre números calculables-)
publicado en 1936, por el matemático y lógico A.M.Turing, el cual determinó la naturaleza y las
limitaciones teóricas de las máquinas lógicas antes de que se construyera siquiera una sencilla
computadora por completo programable.(Bolter17)
Turing... en 1950 publicó "Computing Machinery and Intelligence"... expresó su convicción de que las
computadoras eran capaces de imitar perfectamente la inteligencia humana y que tal hazaña la
realizarían hacia el año 2000.
Al prometer (o al amenazar) sustituir al hombre, la computadora nos ofrece una nueva definición de
hombre, como "procesador de información", y de naturaleza, como "información que debe ser
procesada".(Bolter18)

"En 1936 Turing concibió su propio autómata imaginario. La máquina de Turing, como se le llegó a
conocer, no hizo intento alguno para unirse a la sociedad de las criaturas vivas. Podría visualizarse más
como un tocacintas muy sofisticado con una cinta arbitrariamente infinita. "Siendo una Máquina de
Estados Finitos, se podría concebir como un autómata finito".(Lévy 22-23)

TCS Public
TCS Public
La Inteligencia Artificial es una combinación de la ciencia del computador, fisiología y filosofía, tan
general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo),
todos los cuales tienen en común la creación de máquinas que pueden pensar.

La de idea construir una máquina que pueda ejecutar tareas percibidas como requerimientos de
inteligencia humana es un atractivo. Las tareas que han sido estudiadas desde este punto de vista
incluyen juegos, traducción de idiomas, comprensión de idiomas, diagnóstico de fallas, robótica,
suministro de asesoría experta en diversos temas.
Es así como los sistemas de administración de base de datos cada vez más sofisticados, la estructura
de datos y el desarrollo de algoritmos de inserción, borrado y locación de datos, así como el intento
de crear máquinas capaces de realizar tareas que son pensadas como típicas del ámbito de la
inteligencia humana, acuñaron el término Inteligencia Artificial en 1956.

La Inteligencia Artificial trata de conseguir que los ordenadores simulen en cierta manera la
inteligencia humana. Se acude a sus técnicas cuando
TCS Publices necesario incorporar en un sistema

informático, conocimiento o características propias del ser humano.


Características de la Inteligencia Artificial.

Una característica fundamental que distingue a los métodos de Inteligencia Artificial de los
métodos numéricos es el uso de símbolos no matemáticos, aunque no es suficiente para
distinguirlo completamente. Otros tipos de programas como los compiladores y sistemas de
bases de datos, también procesan símbolos y no se considera que usen técnicas de
Inteligencia Artificial.

El comportamiento de los programas no es descrito explícitamente por el algoritmo. La


secuencia de pasos seguidos por el programa es influenciado por el problema particular
presente. El programa especifica cómo encontrar la secuencia de pasos necesarios para
resolver un problema dado (programa declarativo). En contraste con los programas que no
son de Inteligencia Artificial, que siguen un algoritmo definido, que especifica,
explícitamente, cómo encontrar las variables de salida para cualquier variable dada de
entrada (programa de procedimiento).

Las conclusiones de un programa declarativo no son fijas y son determinadas parcialmente por
las conclusiones intermedias alcanzadas durante las consideraciones al problema específico.
Los lenguajes orientados al objeto comparten esta propiedad y se han caracterizado por su
afinidad con la Inteligencia Artificial.

El razonamiento basado en el conocimiento, implica que estos programas incorporan factores y


relaciones del mundo real y del ámbito del conocimiento en que ellos operan. Al contrario
de los programas para propósito específico, como los de contabilidad y cálculos científicos;
los programas de Inteligencia Artificial pueden distinguir entre el programa de
razonamiento o motor de inferencia y base de conocimientos dándole la capacidad de
explicar discrepancias entre ellas.

Aplicabilidad a datos y problemas mal estructurados, sin las técnicas de Inteligencia Artificial
los programas no pueden trabajar con este tipo de problemas. Un ejemplo es la resolución
de conflictos en tareas orientadas a metas como en planificación, o el diagnóstico de tareas
en un sistema del mundo real: con poca información, con una solución cercana y no
necesariamente exacta.

TCS Public
Diferentes metodologías:

1.La lógica difusa: permite tomar decisiones bajo condiciones de incerteza.

2.Redes neuronales: esta tecnología es poderosa en ciertas tareas como la clasificación y el reconocimiento de
patrones. Está basada en el concepto de "aprender" por agregación de un gran número de muy simples elementos.

Este modelo considera que una neurona puede ser representada por una unidad binaria: a cada instante su estado
puede ser activo o inactivo. La interacción entre las neuronas se lleva a cabo a través de sinapsis. Según el signo, la
sinapsis es excitadora o inhibidora.
El perceptrón está constituido por las entradas provenientes de fuentes externas, las conexiones y la salida. En
realidad un perceptrón es una Red Neuronal lo más simple posible, es aquella donde no existen capas ocultas.
Para cada configuración de los estados de las neuronas de entrada (estímulo) la respuesta del perceptrón obedece a la
siguiente dinámica: se suman los potenciales sinápticos y se comparan con un umbral de activación. Esta suma
ponderada es también llamada campo. Si el campo es mayor que un umbral, la respuesta de la neurona es activa, si
no, es inactiva.
Con una arquitectura tan simple como la del perceptrón no se puede realizar más que una clase de funciones
"booleanas" muy simples, llamadas linealmente separables. Son las funciones en las cuales los estados de entrada
con salida positiva pueden ser separados de aquellos a salida negativa por un hiperplano. Un hiperplano es el
conjunto de puntos en el espacio de estados de entrada, que satisfacen una ecuación lineal. En dos dimensiones, es
una recta, en tres dimensiones un plano, etc.
Si se quieren realizar funciones más complejas con Redes Neuronales, es necesario intercalar neuronas entre las
capas de entradas y de salida, llamadas neuronas ocultas. Una red multicapas puede ser definida como un conjunto de
perceptrones, ligados entre si por sinapsis y dispuestos en capas siguiendo diversas arquitecturas. Una de las
arquitecturas más comúnmente usada es llamada feedforward: con conexiones de la entrada a las capas ocultas y de
éstas hacia la salida.
El funcionamiento de una Red Neuronal es gobernado por reglas de propagación de actividades y de actualización de
los estados. TCS Public
TCS Public
Estos sistemas imitan la
forma en que un humano
toma desiciones, solo que
con una mayor rápidez. En
la lógica difusa, se usan
modelos matemáticos para
representa nociones
subjetivas, como caliente/
tibio/ frio. También tiene un
especial la " variable del
tiempo" , ya que los
sistemas de control pueden
necesitar retroalimentarse
en un espacio concreto de
tiempo.

TCS Public
Teoría de Grupos Difusos
La mayor diferencia entre la lógica difusa y la lógica booleana
(estándar) son los valores posibles en el rango 0.0 a 1.0
(inclusive), no solo 0 y 1. Por ejemplo, puedes decir que el valor
de verdad difusa (FTV) de la declaración "Graham es alto" es 0.75
si Graham mide 2 metros. Para escribir esto formalmente:
m(ALTO(Graham)) = 0.75 m es una función de pertenencia y es la
función que asignará a 2 metros un FTV de 0.75. La función de
pertenencia puede ser increíblemente simple, o increíblemente
compleja. Por ejemplo, una función de pertenencia relativamente
simple puede ser:
Una definición formal de una función de pertenencia
puede definirse como una función que crea una correspondencia
para cada punto del grupo difuso A con el intervalo real [0.0, 1.0]
de tal manera que m(A(x)) es una aproximación
TCS Public
del grado de
pertenencia de x en A.
Operadores Lógicos
En la lógica booleana existen los operadores unión (OR), intersección (AND) y no (NOT).
Estos operadores también existen en la lógica difusa, pero se definen de forma diferente:
A OR B = MAX(m(A(x)), m(B(x)))
A AND B = MIN(m(A(x)), m(B(x)))
A' (NOT A) = 1 - mA(x)
Los operadores de intersección y unión son el inicio obvio tanto para la lógica booleana y
las funciones probabilísticas estándar. Para ver porqué están definidas de esta manera,
vamos a mirar un ejemplo. Vamos a tomar las declaraciones "Graham es muy alto" y
"Graham es muy listo" - si las combinas usando la probabilidad, obtienes:
m(ALTO(Graham)) * m(LISTO(Graham)) = 0.90 * 0.90 = 0.81
Nota: Esto es, obviamente, tomando como para "muy" un valor de 0.9 tanto en la
función de pertenencia ALTO como LISTO. Supongamos también que el rango [0.8 y 0.9)
es igual a "bastante". La declaración resultante puede leerse como "Graham es bastante
alto y listo" - esto es desde luego incorrecto. Usando lógica difusa:
MIN(m(ALTO(Graham)) * m(LISTO(Graham))) = MIN(0.90, 0.90) = 0.90

Esto nos lleva a la declaración correcta "Graham


TCS Public es muy alto y listo". El resultado es más
claro a más variables son tomadas en consideración, por ejemplo 6 variables con valores
de 0.8 nos llevaría a 0.262 usando probabilidad - ¡muy alejado del valor
TCS Public
Concepto: ¿ Que es una Red
Neuronal (Neural, Neural
Networks) ?

Es un sistema compuesto por un gran


número de elementos básicos
(Artificial Neurons), agrupados en
capas (Layers) y que se encuentran
altamente interconectados
(Synapses); Esta estructura posee
varias entradas y salidas, las cuales
serán entrenadas para reaccionar
(valores O), de una manera deseada,
a los estímulos de entrada (valores I).

Estos sistemas emulan , de una cierta


manera, al cerebro humano.
Requieren aprender a comportarse
(Learning) y alguien debe encargarse
de enseñarles o entrenarles
(Training), en base a un conocimiento
previo del entorno del problema.
TCS Public
Aplicación: ¿ Para que son útiles las Redes Neuronales
(Neural Networks) ?

Esta tecnología es muy útil en unos pocos y muy


especiales problemas. A grandes rasgos, estas
aplicaciones son aquellas en las cuales se dispone de
un registro de datos y nadie sabe exactamente la
estructura y los parámetros que pudieran modelar el
problema. En otras palabras, grandes cantidades de
datos y mucha incertidumbre en cuanto a la manera de
como estos son producidos.

Como ejemplos de las aplicaciones de las redes neuronales


(Neural Networks) se pueden citar: las variaciones en la bolsa
de valores, los riesgos en préstamos (Forecasting), el clima
local, el reconocimiento de patrones
TCS Public en rostros (Face Pattern
Recognition) y la minería de datos (data mining).
Diseño: ¿ Cómo se construyen las Redes Neuronales (Neural Networks) ?

Se pueden realizar de varias maneras. Por ejemplo en hardware utilizando transistores a


efecto de campo (FET) o amplificadores operacionales, pero la mayoría de las RN se
construyen en software, esto es en programas de computación.
Existen muy buenas y flexibles herramientas disponibles en internet que pueden simular
muchos tipos de neuronas (Neurons), conexiones sinápticas (Synapses) y estructuras.
Aspectos a considerar en la red neuronal:
Elemento básico. Neurona artificial.
Pueden ser con salidas binarias, análogas o con codificación de pulsos (PCM). Es la
unidad básica de procesamiento que se conecta a otras unidades a través de conexiones
sinápticas (Synaptic Connection).

La estructura de la red. La interconexión de los elementos básicos.


Es la manera como las unidades básicas se interconectan.
Un ejemplo de como se combinan los aspectos mencionados es el perceptrón multicapa
(Multi-Layer Perceptrón), entrenado con el algoritmo del "backpropagation". Se trata de
una red compuesta por varios estratos de neuronas con respuestas basadas en funciones
exponenciales, y cuyas conexiones sinápticas se determinan de manera de minimizar un
error cuadrático medio.
Otro ejemplo es el mapa auto-organizado de Kohonen (Self-organizing Map), en el cual
sólo se requiere conocer la salida del sistema.
TCS Public
Elemento básico. Neurona artificial (Artificial Neuron).

Un neurona artificial es un elemento con entradas, salida y memoria que puede ser realizada mediante software o
hardware. Posee entradas (I) que son ponderadas (w), sumadas y comparadas con un umbral (t).

s = I1 * w1 + I2 * w2 + … + In * wn - t
o = f (s)
La señal computada de esa manera, es tomada como argumento para una función no lineal (f), la cual determinará el
tipo de neurona y en parte el tipo de red neuronal (Neural Network). Esta función puede tener diferentes formas, siendo
la más comun la función sigmoidal (Sigmoid Function). A continuación se presentan algunos ejemplos:

TCS Public
La estructura de la red (Neural Network). La interconexión de
los elementos básicos.
Es la manera como las unidades(artificial neurons) comunican sus salidas a las entradas de otras unidades.
Por lo general estas están agrupadas en capas (layers), de manera tal, que las salidas de una capa están
completamente conectadas a las entradas de la capa siguiente; en este caso decimos que tenemos una red
completamente conectada. Es posible tener redes en las cuales sólo algunas de las unidades están conectadas,
también podemos tener conexiones (Synapses) de realimentación, conectando algunas salidas hacia entradas
en capas anteriores (no se confunda esto con el "back propagation").

Para obtener un resultado aceptable, el número de capas debe ser por lo menos tres. No existen evidencias, de que
una red con cinco capas resuelva un problema que una red de cuatro capas no pueda. Usualmente se emplean tres
o cuatro capas.

TCS Public
Aprendizaje. El proceso de entrenamientolas Redes
Neuronales (Neural Networks Training).

Este proceso consiste en una adaptación progresiva de los valores de


las conexiones sinápticas (Synaptic Connections), para permitir a la
Red Neuronal (Neural Network) el aprendizaje de un comportamiento
deseado. Para lograr esto, alimentamos a la red con una entrada de
los datos de entrenamiento, comparamos la salida de la red con la
salida de los datos de entrenamiento; la diferencia se usa para
computar el error (cuadrático medio) de la respuesta de la red. Con
un algoritmo apropiado (como el "Backpropagation") es posible
retocar los valores de los pesos sinápticos con el fin de reducir el
error. Estas correcciones deben realizarse varias veces o ciclos, para
todo el conjunto de entradas-salidas de los datos de entrenamiento.

TCS Public
Ejecución. Comportamiento final de la Red
Neuronal (Neural Network).

Para este trabajo debemos disponer de una red


entrenada. Es posible alimentar a este sistema con una
nueva entrada (nunca antes vista), una situación
nueva, y nuestra Red Neuronal (Neural Network)
producirá una respuesta razonable ó inteligente en sus
salidas. Puede tratarse de la predicción de un valor en
la bolsa en ciertas circunstancias (Forcasting), el riesgo
de un nuevo préstamo, una advertencia sobre el clima
local ó la identificación de una persona en una nueva
imagen (Pattern Recognition).
Es sencillo, pero funciona ¡ El futuro de las Redes
Neuronales (Neural Networks) estará determinado en
parte por el desarrollo de chips ad hoc, avances en la
computación óptica/paralela y tal vez en un nuevo tipo
de unidad química de procesamiento.

TCS Public
TCS Public
Inteligencia Artificial y Robótica

Con la ingente cantidad de divulgación científica realizada en los últimos años por
los medios de comunicación (habitualmente la televisión) podría parecer que la
Inteligencia Artificial y la Robótica van de la mano, cuando en la práctica esto
rara vez es así. Al menos hasta el año 1990 el 99.9% de los robots no disponían de
más inteligencia que la proporcionada por un semáforo o una lavadora. En
realidad esas máquinas son robots según la definición tradicional, la que dice que
un robot es una máquina capaz de sustituir al ser humano en una cierta tarea. Sin
embargo hoy en día en la mayoría de países desarrollados se considera que un
robot es "algo más".
Por ejemplo a principios de siglo XXI en Japón cuando la gente piensa en robots,
imagina una máquina capaz de interactuar con los seres humanos. Mientras que
en los EEUU un robot es una máquina capaz de pilotar un avión autónomamente
o explorar un planeta lejano sin necesidad de intervención humana
constante.¿Que Inteligencia Artificial existe en estas máquinas? Habitualmente
estos robots disponen de algoritmos deterministas que simulan un
comportamiento Inteligente, pero muy pocos de estos "robots" realmente
implementan técnicas propias de Inteligencia Artificial. Obviamente existen
excepciones, pero por norma general los robots que se usan a gran escala no son
excesivamente inteligentes.
TCS Public
La Robótica

Definición:
El término robótica procede de la palabra robot. La robótica es, por lo tanto,
la ciencia o rama de la ciencia que se ocupa del estudio, desarrollo y
aplicaciones de los robots.

Otra definición de robótica es el diseño, fabricación y utilización de máquinas


automáticas programables con el fin de realizar tareas repetitivas como el
ensamble de automóviles, aparatos, etc. y otras actividades. Básicamente, la
robótica se ocupa de todo lo concerniente a los robots, lo cual incluye el control
de motores, mecanismos automáticos neumáticos, censores, sistemas de
cómputos, etc.

En la robótica se aúnan para un mismo fin varias disciplinas confluyentes, pero


diferentes, como la Mecánica, la Electrónica, la Automática, la Informática, etc.
El término robótica se le atribuye a Isaac Asimov.

Los tres principios o leyes de la robótica según Asimov son:


Un robot no puede lastimar ni permitir que sea lastimado ningún ser humano.

El robot debe obedecer a todas las órdenes de los humanos, excepto las que
contraigan la primera ley.

El robot debe autoprotegerse, salvo que para hacerlo entre en conflicto con la
primera o segunda ley.
TCS Public
Robots:

Los robots son dispositivos compuestos de sensores que reciben datos de entrada y que pueden estar conectados a
la computadora. Esta, al recibir la información de entrada, ordena al robot que efectúe una determinada acción.
Puede ser que los propios robots dispongan de microprocesadores que reciben el input de los sensores y que estos
microprocesadores ordenen al robot la ejecución de las acciones para las cuales está concebido. En este último caso,
el propio robot es a su vez una computadora.

Otras definiciones para robot son:


Máquina controlada por ordenador y programada para moverse, manipular objetos y realizar trabajos a la vez que
interacciona con su entorno. Los robots son capaces de realizar tareas repetitivas de forma más rápida, barata y
precisa que los seres humanos. El término procede de la palabra checa robota, que significa "trabajo obligatorio", fue
empleado por primera vez en la obra teatral de 1921 R.U.R (Robots Universales de Rossum) por el novelista y
dramaturgo checo Karel Capek. Desde entonces se ha empleado la palabra robot para referirse a una máquina que
realiza trabajos para ayudar a las personas o efectúa tareas difíciles o desagradables para los humanos.

Un robot es una manipulador multifuncional reprogramable diseñado para mover material, piezas, herramientas o
dispositivos especializados a través de movimientos programados variables para la realización de tareas variadas.
Para realizar cualquier tarea útil el robot debe interactuar con el entorno, el cual puede incluir dispositivos de
alimentación, otros robots y, lo más importante, gente. Consideramos que la robótica abarca no solamente el estudio
del robot en sí, sino también las interfaces entre él y sus alrededores.
Ingenio electrónico que puede ejecutar automáticamente operaciones o movimientos muy variados, y capaz de llevar
a cabo todos los trabajos normalmente ejecutados por el nombre.

Manipulador multifuncional y reprogramable, diseñado para mover materiales, piezas, herramientas o dispositivos
especiales, mediante movimientos programados y variables que permiten llevar a cabo diversas tareas.
TCS Public
El nombre de robots es tomado del vocablo checo "robota" que
significa siervo y que es idéntico al término ruso que significa
trabajo arduo, repetitivo y monótono, y lo usó por primera vez
el escritor Karel Capek en 1917 para referirse en su obras a
máquinas con forma humanoide. Deriva de "robotnik" que
define al esclavo de trabajo

En la actualidad, los avances tecnológicos y científicos no han


permitido todavía construir un robot realmente inteligente,
aunque existen esperanzas de que esto sea posible algún día.
Hoy por hoy, una de las finalidades de la construcción de
robots es su intervención en los procesos de fabricación. Estos
robots, que no tienen forma humana en absoluto, son los
encargados de realizar trabajos repetitivos en las cadenas de
proceso de fabricación.

En una fábrica sin robots, los trabajos antes mencionados los


realizan técnicos especialistas en cadenas de producción. Con
los robots, el técnico puede librarse de la rutina y el riesgo que
sus labores comportan, con lo que la empresa gana en
rapidez, calidad y precisión. TCS Public
Tipos de robots
Robots impulsados neumaticamente: La programación consiste en la conexión de tubos de plástico a unos
manguitos de unión de la unidad de control neumático. Esta unidad está formada por dos partes: una superior y una
inferior. La parte inferior es un secuenciador que proporciona presión y vacío al conjunto de manguitos de unión en
una secuencia controlada por el tiempo. La parte superior es el conjunto de manguitos de unión que activan cada
una de las piezas móviles del robot. Son los más simples que existen. Hay quien opina que a este tipo de máquinas
no se les debería llamar robots; sin embargo, en ellas se encuentran todos los elementos básicos de un robot: estas
máquinas son programables, automáticas y pueden realizar gran variedad de movimientos.

Robots equipados con servomecanismos: El uso de servomecanismos va ligado al uso de sensores, como los
potenciómetros, que informan de la posición del brazo o la pieza que se ha movido del robot, una vez éste ha
ejecutado una orden transmitida. Esta posición es comparada con la que realmente debería adoptar el brazo o la
pieza después de la ejecución de la orden; si no es la misma, se efectúa un movimiento más hasta llegar a la posición
indicada.

Robots punto a punto: La programación se efectúa mediante una caja de control que posee un botón de control de
velocidad, mediante el cual se puede ordenar al robot la ejecución de los movimientos paso a paso. Se clasifican,
por orden de ejecución, los pasos que el robot debe seguir, al mismo tiempo que se puede ir grabando en la memoria
la posición de cada paso. Este será el programa que el robot ejecutará. Una vez terminada la programación, el robot
inicia su trabajo según las instrucciones del programa. A este tipo de robots se les llama punto a punto, porque el
camino trazado para la realización de su trabajo está definido por pocos puntos.

Robots controlados por computadora: Se pueden controlar mediante computadora. Con ella es posible programar
el robot para que mueva sus brazos en línea recta o describiendo cualquier otra figura geométrica entre puntos
preestablecidos. La programación se realiza mediante una caja de control o mediante el teclado de la computadora.
La computadora permite además acelerar más o menos los movimientos del robot, para facilitar la manipulación de
objetos pesados.
TCS Public
Robots con capacidades sensoriales: Aún se pueden añadir a este tipo de robots
sensores ópticos, codificadores, etc. Los que no poseen estas capacidades sólo pueden
trabajar en ambientes donde los objetos que se manipulan se mantienen siempre en la
misma posición. Los robots con capacidades sensoriales constituyen la última
generación de este tipo de máquinas. El uso de estos robots en los ambientes
industriales es muy escaso debido a su elevado costo. Estos robots se usan en cadenas
de embotellado para comprobar si las botellas están llenas o si la etiqueta está bien
colocada.

Robots mosquitos: La cucaracha metálica se arrastra con gran destreza por la arena,
como un verdadero insecto. A pesar de que Atila avanza a 2 km/h, tratando de no
tropezar con las cosas, es «gramo por gramo el robot más complejo del mundo», según
su creador, Rodney Brooks. En su estructura de 1,6 kg y 6 patas, lleva 24 motores, 10
computadores y 150 sensores, incluida una cámara de video en miniatura. La
experimentación en operaciones quirúrgicas con robots abre nuevos campos tan
positivos como esperanzadores. La cirugía requiere de los médicos una habilidad,
precisión y decisión muy cualificadas. La asistencia de ingenios puede complementar
algunas de las condiciones que el trabajo exige. En operaciones delicadísimas, como las
de cerebro, el robot puede aportar mayor fiabilidad. Últimamente, se ha logrado utilizar
estas máquinas para realizar el cálculo de los ángulos de incisión de los instrumentos de
corte y reconocimiento en operaciones cerebrales; así mismo, su operatividad se
extiende a la dirección y el manejo del trepanador quirúrgico para penetrar el cráneo y
de la aguja de biopsia para tomar muestras del cerebro.

TCS Public
Robot industrial: Nace de la unión de una estructura mecánica articulada y de un sistema electrónico de
control en el que se integra una computadora. Esto permite la programación y control de los movimientos a
efectuar por el robot y la memorización de las diversas secuencias de trabajo, por lo que le da al robot una
gran flexibilidad y posibilita su adaptación a muy diversas tareas y medios de trabajo.

El robot industrial es pues un dispositivo multifuncional, es decir, apto para muy diversas aplicaciones, al
contrario de la máquina automática clásica, fabricada para realizar de forma repetitiva un tipo determinado
de operaciones. El robot industrial se diseña en función de diversos movimientos que debe poder ejecutar;
es decir, lo que importa son sus grados de libertad, su campo de trabajo, su comportamiento estático y
dinámico.

La capacidad del robot industrial para reconfigurar su ciclo de trabajo, unida a la versatilidad y variedad de
sus elementos terminales (pinzas, garras, herramientas, etc.), le permite adaptarse fácilmente a la
evolución o cambio de los procesos de producción, facilitando su reconversión.
Los robots industriales están disponibles en una amplia gama de tamaños, formas y configuraciones físicas.
La gran mayoría de los robots comercialmente disponibles en la actualidad tienen una de estas cuatro
configuraciones básicas:
Configuración polar
Configuración cilíndrica
Configuración de coordenadas cartesianas
Configuración de brazo articulado

La configuración polar utiliza coordenadas polares para especificar cualquier posición en términos de una
rotación sobre su base, un ángulo de elevación y una extensión lineal del brazo.
La configuración cilíndrica sustituye un movimiento lineal por uno rotacional sobre su base, con los que se
obtiene un medio de trabajo en forma de cilindro.

La configuración de coordenadas cartesianas posee tres movimientos lineales, y su nombre proviene de las
coordenadas cartesianas, las cuales son más adecuadas para describir la posición y movimiento del brazo.
Los robots cartesianos a veces reciben el nombre de XYZ, donde las letras representan a los tres ejes del
movimiento.

La configuración de brazo articulado utiliza únicamente articulaciones rotacionales para conseguir cualquier
TCS Public
posición y es por esto que es el más versátil.
TCS Public
En la medida en que "Real" y "Virtual" son términos antagónicos, sobre todo en el
lenguaje científico, parece un contrasentido que la Tecnología de Vanguardia nos hable
de "Realidad Virtual".

Con el teléfono y la radio, el oído supera la distancia y suple la voz real de hablante con
reproducción electrónica convincente. Con la televisión, el ojo hace lo mismo con la
imagen. Si podemos – y podemos - ampliar la ilusión a los demás sentidos (sobre todo
al tacto) la "Tele Presencia" será un hecho. E igual que hay sistemas acústicos de alta
fidelidad tan perfectos que hace imposible distinguir una grabación de por ejemplo, una
orquesta real, es sólo cuestión de perfeccionamiento técnico el creer ilusiones
multisensoriales prácticamente indistinguibles de una experiencia auténtica.

Las implicaciones son a la vez fascinantes y aterradoras. Desde nuevas y


revolucionarias formas de enseñanza o de rehabilitación de minusválidos, hasta nuevas
y tal vez definitivas modalidades de drogadicción electrónica. Desde el sexo a distancia
(o seres creados por ordenadores y sistemas de información) hasta la guerra
teledirigida, siguiendo la máxima de que "En el amor y en la guerra todo vale"
Junto con la Nanotecnología y la IA con las que se está confluyendo rápidamente, la
REALIDAD VIRTUAL (RV) es sin duda el campo de investigación más importante del
momento, el más prometedor y el más inquietante o el Mysterium Tremendum que
la Mujer y el Hombre tendrán que afrontar en su próximo salto iniciativo.

"Lo que la humanidad puede soñar, la Tecnología lo puede conseguir" (FUJITSU, 1990:
SLOGANS) y parece a punto de cumplirse plenamente. ¿Qué sueños o pesadillas se
llegarán a realizar con la Tecnología en los próximos años? Depende en buena medida
de que estemos informados sobre sus posibilidades y tendencias.
TCS Public
Imagínese una televisión envolvente con programas tridimensionales, incluso sonido
tridimensional, objetos sólidos que pueden alzar y manipular y hasta tocar con los dedos y las
manos. Imagínese inmerso en un mundo artificial en donde se explora activamente, en lugar
de mirarlo con atención desde una perspectiva fija, mediante una pantalla plana en un
cinematógrafo o en un televisor o una computadora. Imagínese que es el creador tanto como
el consumidor de su experiencia artificial y que dispone del poder de usar un gesto o palabra
para poder envolver el mundo que usted ve, oye y siente. Esta parte no es ficción.

Si se tuviera que elegir una palabra anticuada para describir la categoría general a la que
podría pertenecer esta nueva cosa, la candidata sería "Simulador".

La Tecnología RV se parece a –y precisamente deriva de allí- los simuladores de vuelo que la


Fuerza Área de los Estados Unidos de Norteamérica y las aerolíneas comerciales usan para
entrenar a los pilotos.

La RV también es un simulador, pero en lugar de mirar una pantalla bidimensional y operar un


jostick, la persona que experimenta la RV está rodeada por una representación tridimensional
generada por computadora, y es capaz de desplazarse en el mundo virtual bajo distintos
ángulos para introducirse en él. Asirlo y remodelarlo.

Un modo de ver la RV es como una ventana mágica que sé asoma a otros mundos, desde
moléculas a mentes. La RV provocará que en las décadas venideras del Siglo XXI, la realidad
desaparezca detrás de una pantalla. "¿Está por transformarse la comercialización masiva de
las experiencias de la realidad artificial en un mundo en que querríamos que vivieran nuestros
nietos? ¿Cuáles son los potenciales más poderosos, más perturbadores, menos predecibles de
la Realidad Virtual? Si pudiéramos tener una clara visión de los potenciales y trampas de la
Realidad Virtual, ¿Cómo haríamos para optimizar los unos y evitar las otras? "El genio está
fuera de la botella y no hay manera de revertir el ímpetu de la investigación de la Realidad
Virtual; Pero es un genio joven y parcialmente entrenable y sobre todo accesible" (PAGELS,
TCS Public
1991:229) No puede detenerse la RV, aún cuando descubramos que es lo mejor que podemos
hacer. Pero podríamos guiarla, si empezamos a pensar en ello.
Las implicaciones más fantásticas de la RV ya han sido pregonadas en los medios de comunicación,
mediante informes sobre lo que podría hacerse posible, como por ejemplo la "Teledildónica" (sexo
simulado a distancia) o el "LSD Electrónico" (simulaciones tan poderosamente aditivas que
reemplazarían a la realidad) Pero según Pagels, "El interés por la Realidad Virtual en los
medios de comunicación era una mala idea.

No se trata de que la promesa de la Tecnología Realidad Virtual no sea realmente espectacular, como
parecen serlo las predicciones de las gafas de Rayos X y las ayudas de visualización más modernas y
científicas. Se trata de que haya muchos problemas por resolver antes de que esas posibilidades
demuestren a todos lo prácticas que son. Las especulaciones en los medios masivos, alimentan las
expectativas de la gente respecto de progresos inminentes en una Tecnología que tardará años, tal vez
décadas, en madurar y desarrollarse" (IBID, 125)
Aunque algunos consideren que la investigación de los mundos virtuales no es ortodoxa y exotérica,
las credenciales desmienten esos pensamientos.

"Si percibimos nuestro rol con acierto, vemos entonces con más claridad el criterio adecuado para el
éxito: Un fabricante de herramientas tiene éxito con su ayuda. Por más brillante que sea la hoja, por
más hermosa que sea la empuñadura, por más perfecta que sea la forma, una espada se prueba sólo
cortando. Este forjador de espadas tiene éxito cuando sus clientes mueren a edad avanzada"
(BROOKS, 1991:257)

Creemos que el uso de los sistemas de computación para la amplificación de la inteligencia es hoy
mucho más intensivo y lo será en cualquier momento en el futuro que el uso de las computadoras para
la IA.

En la comunidad de la IA, el objetivo es reemplazar la mente humana por la máquina (CHARNIAK y


MCDERMOTT), su programa y su base de datos. En la Comunidad de la Amplificación de la Inteligencia
(captar la realidad mediante la ilusión), el objetivo consiste en construir sistemas que amplifiquen la
mente humana proveyéndole auxiliares, basados en la computadora, que hacen las cosas que las
mentes tienen dificultades para hacer.
Con base en lo anterior, surge la siguiente aseveración
TCS Public(sin ser hipótesis), que nos permite él poder
estudiar la relación RV con la Mente Humana y las Ciencias Sociales.
Existen tres áreas en las que la Mente Humana es más poderosa que cualquier
algoritmo elaborado hasta ahora en las Ciencias. La primera es el Reconocimiento
de Imágenes Visuales o Auditivas. Los computadores científicos ni siquiera tienen un
buen método para aproximarse al poder de reconocimiento que usa un bebé de una
semana para reconocer la cara de su madre desde un ángulo y con una iluminación
que no haya visto.

La segunda área importante de la superioridad, que tiene la humanidad sobre lo


computacional, es el dominio de lo que se llama Evaluación. La tercera zona de la
superioridad mental humana está en el "Sentido global del contexto que nos
capacita para recordar, en el momento apropiado, algo que hemos leído en una
oscura revista años atrás, con referencia a un tema completamente diferente y que
de pronto se nos aparezca como significativa" (BELLMAN, 1978:875)

De acuerdo con Broocks, los tres campos en los que las computadoras son más
diestras que la mente humana son: "Evaluación de cálculos, acopio de cantidades
masivas de datos, memorización de cosas sin posibilidad de olvidarlas" (BROOCKS,
1980:890)

Con lo anterior, surge una posible relación entre la estructuración de un sistema


cooperativo Hombre-Máquina. Mediante que la máquina haga los cálculos,
memorice y busque las bases de datos, entendiendo por cálculos la evaluación de
algunas funciones muy complicadas, mientras que el ser humano ejerce la
estrategia, la evaluación, el reconocimiento de imágenes, planifica y busca
información en un contexto. Cuando uno trata de definir la interfaz para ese
TCS Public
sistema, se acerca al umbral de la RV y la IA.
TCS Public
Los sistemas expertos son llamados así porque emulan el comportamiento de un experto en un dominio
concreto y en ocasiones son usados por estos. Con los sistemas expertos se busca una mejor
calidad y rapidez en las respuestas dando así lugar a una mejora de la productividad del experto.

Se puede entender como una rama de la inteligencia artificial. Estos sistemas imitan las actividades de
un humano para resolver problemas de distinta índole (no necesariamente tiene que ser de
inteligencia artificial). También se dice que un SE se basa en el conocimiento declarativo (hechos
sobre objetos, situaciones) y el conocimiento de control (información sobre el seguimiento de una
acción).

Para que un sistema experto sea herramienta efectiva, los usuarios deben interactuar de una forma fácil,
reuniendo dos capacidades para poder cumplirlo:

Explicar sus razonamientos o base del conocimiento: los sistemas expertos se deben realizar siguiendo
ciertas reglas o pasos comprensibles de manera que se pueda generar la explicación para cada una
de estas reglas, que a la vez se basan en hechos.

Adquisición de nuevos conocimientos o integrador del sistema: son mecanismos de razonamiento que
sirven para modificar los conocimientos anteriores. Sobre la base de lo anterior se puede decir que
los sistemas expertos son el producto de investigaciones en el campo de la inteligencia artificial ya
que esta no intenta sustituir a los expertos humanos, sino que se desea ayudarlos a realizar con más
rapidez y eficacia todas las tareas que realiza.

Debido a esto en la actualidad se están mezclando diferentes técnicas o aplicaciones aprovechando las
ventajas que cada una de estas ofrece para poder tener empresas más seguras. Un ejemplo de estas
técnicas sería los agentes que tienen la capacidad de negociar y navegar a través de recursos en
línea; y es por eso que en la actualidad juegaTCS
unPublic
papel preponderante en los sistemas expertos.
Estructura básica de un SE
Un Sistema Experto está conformado por:
Base de conocimientos (BC): Contiene conocimiento modelado extraído del diálogo con el
experto.

Base de hechos (Memoria de trabajo): contiene los hechos sobre un problema que se ha
descubierto durante el análisis.

Motor de inferencia: Modela el proceso de razonamiento humano.


Módulos de justificación: Explica el razonamiento utilizado por el sistema para llegar a
una determinada conclusión.

Interfaz de usuario: es la interacción entre el SE y el usuario, y se realiza mediante el


lenguaje natural.

Tipos de SE
Principalmente existen tres tipos de sistemas expertos:
Basados en reglas.
Basados en casos o CBR (Case Based Reasoning).

Basados en redes bayesianas.


En cada uno de ellos, la solución a un problema planteado se obtiene:
Aplicando reglas heurísticas apoyadas generalmente en lógica difusa para su evaluación y
aplicación.
Aplicando el razonamiento basado en casos, donde la solución a un problema similar
planteado con anterioridad se adapta al nuevo problema.
TCS Public
Aplicando redes bayesianas, basadas en estadística y el teorema de Bayes.
Ventajas y limitaciones de los Sistemas Expertos

Ventajas
Permanencia: A diferencia de un experto humano un SE (sistema experto) no envejece, y por tanto no sufre pérdida de facultades con el paso
del tiempo.

Duplicación: Una vez programado un SE lo podemos duplicar infinidad de veces.

Rapidez: Un SE puede obtener información de una base de datos y realizar cálculos numéricos mucho más rápido que cualquier ser humano.

Bajo costo: A pesar de que el costo inicial pueda ser elevado, gracias a la capacidad de duplicación el coste finalmente es bajo.

Entornos peligrosos: Un SE puede trabajar en entornos peligrosos o dañinos para el ser humano.

Fiabilidad: Los SE no se ven afectados por condiciones externas, un humano sí (cansancio, presión, etc.).

Consolidar varios conocimientos


Apoyo Academico...

Limitaciones
Sentido común: Para un Sistema Experto no hay nada obvio. Por ejemplo, un sistema experto sobre medicina podría admitir que un hombre
lleva 40 meses embarazado, a no ser que se especifique que esto no es posible.

Lenguaje natural: Con un experto humano podemos mantener una conversación informal mientras que con un SE no podemos.

Capacidad de aprendizaje: Cualquier persona aprende con relativa facilidad de sus errores y de errores ajenos, que un SE haga esto es muy
complicado.

Perspectiva global: Un experto humano es capaz de distinguir cuales son las cuestiones relevantes de un problema y separarlas de cuestiones
secundarias.

Capacidad sensorial: Un SE carece de sentidos.

Flexibilidad: Un humano es sumamente flexible a la hora de aceptar


TCSdatos para la resolución de un problema.
Public

Conocimiento no estructurado: Un SE no es capaz de manejar conocimiento poco estructurado.


Tareas que realiza un Sistema Experto
Monitorización
La monitorización es un caso particular de la interpretación, y consiste en la comparación
continua de los valores de las señales o datos de entrada y unos valores que actúan como
criterios de normalidad o estándares. En el campo del mantenimiento predictivo los Sistemas
Expertos se utilizan fundamentalmente como herramientas de diagnóstico. Se trata de que el
programa pueda determinar en cada momento el estado de funcionamiento de sistemas
complejos, anticipándose a los posibles incidentes que pudieran acontecer. Así, usando un
modelo computacional del razonamiento de un experto humano, proporciona los mismos
resultados que alcanzaría dicho experto.

Diseño
Diseño es el proceso de especificar una descripción de un artefacto que satisface varias
características desde un número de fuentes de conocimiento.
El diseño se concibe de distintas formas:
El diseño en ingeniería es el uso de principios científicos, información técnica e imaginación en
la definición de una estructura mecánica, máquina o sistema que ejecute funciones específicas
con el máximo de economía y eficiencia.
El diseño industrial busca rectificar las omisiones de la ingeniería, es un intento consciente de
traer forma y orden visual a la ingeniería de hardware donde la tecnología no provee estas
características.

Los SE en diseño ven este proceso como un problema de búsqueda de una solución óptima o
adecuada. Las soluciones alternas pueden ser conocidas de antemano o se pueden generar
automáticamente probándose distintos diseños para verificar cuáles de ellos cumplen los
requerimientos solicitados por el usuario, ésta técnica es llamada “generación y prueba”, por
lo tanto estos SE son llamados de selección. En áreas de aplicación, la prueba se termina
cuando se encuentra la primera solución; sin embargo, existen problemas más complejos en
TCS Public
los que el objetivo es encontrar la solución óptima.
Planificación
La planificación es la realización de planes o secuencias de acciones y es un caso particular de
la simulación. Está compuesto por un simulador y un sistema de control. El efecto final es la
ordenación de un conjunto de acciones con el fin de conseguir un objetivo global.
Los problemas que presentan la planificación mediante SE son los siguientes:
Existen consecuencias no previsibles, de forma que hay que explorar y explicar varios planes.
Existen muchas consideraciones que deben ser valoradas o incluirles un factor de peso.
Suelen existir interacciones entre planes de subobjetivos diversos, por lo que deben elegirse
soluciones de compromiso.
Trabajo frecuente con incertidumbre, pues la mayoría de los datos con los que se trabaja son
más o menos probables pero no seguros.
Es necesario hacer uso de fuentes diversas tales como bases de datos.

Control
Un sistema de control participa en la realización de las tareas de interpretación, diagnóstico y
reparación de forma secuencial. Con ello se consigue conducir o guiar un proceso o sistema.
Los sistemas de control son complejos debido al número de funciones que deben manejar y el
gran número de factores que deben considerar; esta complejidad creciente es otra de las
razones que apuntan al uso del conocimiento, y por tanto de los SE.
Cabe aclarar que los sistemas de control pueden ser en lazo abierto, si en el mismo la
realimentación o el paso de un proceso a otro lo realiza el operador, o en lazo cerrado si no
tiene que intervenir el operador en ninguna parte del mismo. Reparación, correcta o terapia.
La reparación, corrección, terapia o tratamiento consiste en la proposición de las acciones
correctoras necesarias para la resolución de un problema. Los SE en reparación tienen que
cumplir diversos objetivos, como son: Reparación lo más rápida y económicamente posible.
Orden de las reparaciones cuando hay que realizar varias. Evitar los efectos secundarios de la
reparación, es decir la aparición de nuevas averías por la reparación.
TCS Public
Simulación

La simulación es una técnica que consistente en crear modelos basados en hechos, observaciones e
interpretaciones sobre la computadora, a fin de estudiar el comportamiento de los mismos mediante la
observación de las salidas para un conjunto de entradas. Las técnicas tradicionales de simulación
requieren modelos matemáticos y lógicos, que describen el comportamiento del sistema bajo estudio.

El empleo de los SE para la simulación viene motivado por la principal característica de los SE, que es su
capacidad para la simulación del comportamiento de un experto humano, que es un proceso complejo.

En la aplicación de los SE para simulación hay que diferenciar cinco configuraciones posibles:
Un SE puede disponer de un simulador con el fin de comprobar las soluciones y en su caso rectificar el
proceso que sigue.

Un sistema de simulación puede contener como parte del mismo a un SE y por lo tanto el SE no tiene que
ser necesariamente de simulación.

Un SE puede controlar un proceso de simulación, es decir que el modelo está en la base de conocimiento
del SE y su evolución es función de la base de hechos, la base de conocimientos y el motor de
inferencia, y no de un conjunto de ecuaciones aritmético – lógicas.

Un SE puede utilizarse como consejero del usuario y del sistema de simulación.

Un SE puede utilizarse como máscara o sistema frontal de un simulador con el fin de que el usuario reciba
explicación y justificación de los procesos.
TCS Public
TCS Public

También podría gustarte