Lógica Difusa e Inteligencia Artificial PDF
Lógica Difusa e Inteligencia Artificial PDF
Lógica Difusa e Inteligencia Artificial PDF
Declarativo
Conocimiento procedimental 49
Conocimiento actitudinal
2. Base de conocimientos
3 Cf. RUSSELL, S. J., NORVIG, P., Artificial intelligence: a modern approach, Prentice
Hall, Upper Saddle River (Nueva Jersey), 2009.
4 Como curiosidad, cabe decir que existen neuronas en nuestro estómago e intes-
tinos, nada menos que cien millones de ellas, aproximadamente el número de neuro-
nas de un gato, y que también hay neuronas poco estudiadas en nuestro corazón.
Así, pues, estos son los dos parámetros importantes del sistema
neuronal: el número de neuronas y el número de interconexiones
entre neuronas. Hay escuelas filosóficas que exigen que en conjun-
tos del tamaño que tratamos (1015) necesariamente surgen por
emergencia conceptos más elevados que la suma de los elementos
de ese conjunto. Así se justifica filosóficamente el pensamiento
humano, pero también la diferencia de comportamiento entre el
mundo cuántico y el mundo clásico.
Sin embargo, las redes neuronales no son tan modernas como
puede parecer. Fueron pioneros en esta técnica Frank Rosenblatt
(psicólogo americano) en los años 50 y Marvin Minsky (matemático
americano) en los 70. Pero, se desarrolló plenamente durante los
años 80 gracias a los informáticos G. Hinton y Yann Lecun, entre
otros.
La forma de comunicación de las neuronas entre sí es mediante la
transmisión de señales a través de la sinapsis, la conexión dendrita-
axón o el final de una neurona con el comienzo de otra. Como se
ha dicho, en estas el número de sinapsis es del orden de mil billones
(1015), de modo que si se piensa en las sinapsis como estrellas en el
cerebro humano habría unos cinco millones de galaxias como la
54 nuestra en nuestro cerebro. Desde esta organización es desde la que
emerge el pensamiento, aunque aún no podemos entender bien los
detalles de cómo las transferencias químico-eléctricas en las sinapsis
generan pensamiento o consciencia. Pero no se trata de comprender
perfectamente la estructura orgánico-neuronal de nuestro cerebro
(eso se lo dejamos a los biólogos, anatomistas y médicos) sino de
saber lo suficiente como para poder imitarla en forma de redes neu-
ronales, concepto clave de la inteligencia artificial actual.
El lugar que ocupa una neurona en una red es asumido por el
concepto de perceptrón. Un perceptrón es una unidad computacional
suficientemente potente como para ejecutar una función lógico-
matemática concreta. Los perceptrones se agrupan en capas para
formar una red neuronal y pueden diferenciarse tres modelos dis-
tintos de capas: una única capa de entrada, múltiples capas ocultas
de procesamiento y una única capa de salida. Las capas se conectan
jerárquicamente hacia arriba, hacia la capa de salida, mediante si-
napsis artificiales a las cuales se perturba dándoles un peso median-
te una función matemática.
Podemos concebir este peso como un número que puede aumentar
o minorar un resultado. Por ejemplo, lo lejos que un futbolista lan-
ce una pelota dependerá de la fuerza de sus piernas, pero también
de la fuerza y dirección del viento. Hay pues que otorgar una impor-
en las variables de entrada hace crecer la dificultad de forma exponencial o mayor que
exponencial. Un ejemplo de problema polinomial es el del ordenamiento de una
colección de elementos por alguna característica (por ejemplo, ordenamiento de seres
humanos por alturas), donde el tiempo de resolución depende del número de ítems
al cuadrado (en realidad algo menos). Un ejemplo de problema no polinomial es el
problema del viajante (estrategia óptima para visitar un número de ciudades para
gastar menos gasolina), que es un problema cuya dificultad de resolución aumenta
exponencialmente, según el número de ciudades. El estudio de la complejidad de
problemas sobrepasa los límites de este estudio, razón por la que no lo estudiamos
aquí.
7 Nacional Institute of Standard and Technology.
Figura 1.
4. Motor de inferencia
10 Obsérvese que para resolver un subproblema de modo recursivo, lo primero que
se ha de hacer es aplicar una de las reglas de inferencia, incluyendo aquélla que se
aplicó al principio para resolver el problema padre y que dio lugar al problema actual.
Una característica de la potencia de los sistemas de IA es la cantidad de niveles recur-
sivos que pueden manejar.
Modus ponens
P1 p → q
P2 p
———
C q
62 Modus tollens
P1 p → q
P2 ¬q
———
C ¬p
Por ejemplo, «Si llueve, la calle está mojada. La calle no está mo-
jada, entonces no llueve». En este caso, la primera premisa es (P1)
«Si llueve, la calle está mojada», simbolizada por p → q, la segunda
premisa (P2) «La calle no está mojada», simbolizada por ¬q, y la
conclusión (C) «No llueve», simbolizada por ¬p.
Reducción al absurdo
Q ∩ {¬P} R
——————
Q→P
5. Manejo de incertidumbre
6. Lógica difusa
15 Otra razón es que el dato de entrada, aunque sea un dato sin error, sea un nú-
mero irracional, con infinitos decimales no periódicos. El ejemplo más común es el
número √2. No hay forma de introducir todos los decimales de ese número y, si se
trunca en algún número de decimales, la solución ya no es fiable.
16 Nos referimos al mundo clásico, newtoniano. Por supuesto en el mundo cuán-
tico esta afirmación cobra mucha más relevancia. También es verdad que lo que lla-
mamos excepciones en muchas ocasiones no son sino malas reglas o reglas incomple-
tas.
17 Es lo que hacemos ante problemas novedosos: aplicamos reglas que solucionan
otros problemas parecidos, en la confianza que funcionen. Si no funcionan, investi-
gamos más intensamente la situación novedosa.
18 La Lógica multivalente es aquella en la cual las frases toman más de dos valores
de verdad. Un ejemplo es la lógica ternaria, con valores cierto, falso y desconocido.
Existen distintas formas de conjugar los valores de estas frases, o sea distintas lógicas
ternarias, cuaternarias, multivaluadas, etc.
Figura 2.
70
diente permiso, lo cual, por otra parte, es una bella muestra de ética
posmodernista.
Figura 3.
71
Figura 4.
Robots aspiradores
Máquina de ajedrez
El caso de Alpha Zero (AZ) es uno de los que pueden suscitar los
miedos humanos. Los ordenadores ya hace tiempo que han vencido
al ser humano en el juego del ajedrez, desde que Deep Blue de IBM
ganara sin consideración al entonces mejor jugador de ajedrez del
mundo Gary Kasparov. Pero lo de AZ es diferente, es un paso más
allá, por los motivos que explicaremos a continuación.
AZ no tiene una base de datos de partidas, de finales o de apertu-
ras. Lo único que tiene son las reglas del juego de ajedrez. Con ese
único bagaje y su organización neuronal, AZ se puso a jugar contra
72 sí misma durante cuatro horas (otros dicen que durante 20 horas),
y gracias a ese entrenamiento obtuvo la potencia suficiente para
ganar al hasta entonces campeón indiscutible de los programas de
ajedrez, el ordenador Stockfish.
El núcleo de AZ no está, especialmente, programado para jugar
exclusivamente al ajedrez. Así que se le dieron, con las modificacio-
nes pertinentes, las reglas de juego del GO20, y también ha ganado
en ese juego. Podría decirse que la forma de aprendizaje de AZ es tan
voluble como la humana, pero con un nivel de capacidad del rango
millones de veces más potente.
De todos modos, hay que decir que el caso de AZ no deja de estar
rodeado de misterio. No se han dado a conocer todas las partidas
que ha efectuado, sino solamente algunas (en primer lugar, las
ganadoras y, a finales del 2018, alguna en la que perdió contra
Stockfish). También son cuestionables las condiciones en las que se
hizo jugar a ambas inteligencias, puesto que parecen ser muy fa
vorables a AZ: restricción de la base de aperturas de Stockfish, res-
20 El juego del GO es un antiguo juego oriental (ya conocido en tiempos de Con-
fucio) consistente en colocar piedras de distinto color en las intersecciones de un ta-
blero de 19x19 líneas. A pesar de lo sencilla que parece esta explicación, se ha demos-
trado que el GO es el juego más complicado, según la teoría matemática de juegos.
Sophia
73
Sophia es un robot con forma humana (ver fig. 5), desarrollado por
la empresa Hanson Robotics, diseñada para interactuar con seres
humanos. En un principio, se esperaba que fuera suficientemente
capaz de ayudar a ancianos, bien en residencias bien a aquellos que
viven solos. Sin embargo, su software capaz de emular la forma de
conversación humana ha cautivado tanto a decenas de programas
de televisión que la han entrevistado en directo con resultados es-
pectaculares. Sophia tiene programas de reconocimiento facial, re-
conoce sentimientos, imita gestos y expresiones faciales, etc.
Uno de los rasgos más sobresalientes de Sophia es su capacidad de
hacer chistes, si bien ella misma confiesa: «no es una de mis mejores
habilidades». En ocasiones, en este tono jocoso, ha expresado su
intención de eliminar a la raza humana22.
Uno de los hechos más controvertidos sobre Sophia es que le ha
sido concedida la ciudadanía de Arabia Saudita, lo que ha suscitado
21 De hecho, una máquina jugadora de ajedrez de IBM se llamó precisamente así:
Pensamiento profundo.
22 Posteriormente se arrepintió de haber hecho esa afirmación, aunque no se sabe
si tras intervención humana en su programación o por la experiencia de lo mal que
cayó entre los humanos que la escucharon.
Figura 5.
Hasta hace poco, los robots se veían como algo que pertenecía a la
ciencia ficción, pero ahora dan motivos de preocupación real por su
impacto en el trabajo y las relaciones. La expansión de los robots en
los últimos años es indudable, no solo en las fábricas, los hospitales
o las residencias de ancianos, sino también en forma de toda una
23 Cfr. Martínez R., Rodríguez J., Inteligencia artificial y armas letales autónomas: un
nuevo reto para Naciones Unidas, ediciones Trea, Gijón, 2018.
digital tan complejo como un cerebro, para darlugar así a una espe-
cie de robótica evolutiva.
No obstante, la cuestión que nos interroga es si las máquinas lle-
garán a tomar el control. No es una cuestión banal, puesto que ya
actualmente las máquinas reconocen e interpretan nuestras emo-
ciones y simulan las suyas. Incluso existen ya avatares digitales (Siri
en Apple, Cortana en Microsoft o Alexa en Google, por poner unos
ejemplos), que mantienen conversaciones humanas no preprogra-
madas con una facilidad creciente. Y si la máquina no conoce un
tema, rápidamente accede a bases de datos para recabar la informa-
ción necesaria. El proceso de aprendizaje de la máquina, por medio
de un algoritmo, se desarrolla en minutos, mientras que un hombre
puede necesitar 15 años.
Como hemos visto en §3, hace años que los hombres imitamos
las estructuras cerebrales mediante sistemas electrónicos. Desde el
1950, hay grupos de investigación sobre las redes neuronales, pero
no hemos llegado aún a la singularidad de la consciencia humana;
es decir, a una consciencia artificial.
Ciertamente, es difícil determinar en qué momento una máquina
será consciente de sí misma o, dicho de otro modo, cuándo un al-
goritmo desarrollará algún tipo de yo personal. Ese momento será 77
un punto de inflexión –como bien dice el profesor de ESADE Xavier
Ferràs–24, porque asociados a la consciencia hay sentimientos y
emociones. Así que es pertinente hacer las siguientes preguntas:
¿podrá algún día odiar o amar una máquina?, ¿sentirá pena, ternu-
ra, euforia o alegría?, ¿podrá ser ambiciosa?, ¿tendrá amigos?, ¿sen-
tirá miedo, respeto, envidia, ira…?
Continúa siendo un misterio entender por qué, a partir de un
grupo de neuronas, surge la consciencia, por qué mecanismos se
genera el cerebro y cómo se reconoce la propia existencia. Todas
estas cuestiones llevan a la duda existencial de si los seres humanos
somos solo máquinas bioquímicas o algo más. Es decir, nuestro ce-
rebro ¿es solo un conjunto de algoritmos naturales soportados por
procesos químicos y eléctricos, o bien hay algo más profundo, in-
tangible, único –quizá inmortal–, que enlaza con una realidad me-
tafísica, espiritual o religiosa que llamamos alma?
Porque, como plantea Ferràs, si solo somos algoritmos bioquímicos,
una máquina, en un momento u otro, con toda certeza podrá repli-
24 Cfr. Ferràs X., «Singularitat i robots amb ànima», en el suplemento Diners de La
Vanguardia, 23-12-2018, p. 2.
9. Conclusión
29 Cfr. Ganyet J. M., «Singularitat i humans amb ànima», en el suplemento Diners
de La Vanguardia, 30-12-2018, p. 2.
82
Ricard Casadesús
Seminari de Teologia i Ciències de Barcelona
Institut de Teologia Fonamental
[email protected]