Lógica Difusa e Inteligencia Artificial PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 36

Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.

Hacia un futuro transhumano

De la lógica difusa a la inteligencia


artificial.
Hacia un futuro transhumano
RICARD CASADESÚS
IGNACIO DE CASTRO
Institut de Teologia Fonamental

RESUMEN: Este artículo se propone explicar los fundamentos de la


inteligencia artificial en la Lógica difusa y otros sistemas de conocimien-
to avanzados. También se describen varios ejemplos de aplicaciones
actuales de la inteligencia artificial, en especial los robots. Por último,
se expone una reflexión argumentativa sobre las consecuencias meta-
físicas y éticomorales a las que algunas de esas máquinas inteligentes
pueden dar lugar. Algunas de estas consecuencias pueden ser positivas
para el avance de la inteligencia y el conocimiento universal, pero otras
serán funestas para la especie humana y para el planeta. No obstante,
lo que sí que es seguro es que esos avances tecnológicos conllevarán
un cambio de paradigma cosmovisional respecto a la especie humana
tanto en la concepción del ser humano y los entes como en la de las
ciencias jurídicas y el comportamiento. 47
PALABRAS CLAVE: inteligencia artificial, lógica difusa, robótica, trans-
humanismo, tecnoética.

From Diffuse Logic to Artificial Intelligence.


Towards a transhuman future.
ABSTRACT: This paper aims to explain the fundamentals of artificial
intelligence in diffuse Logic and other advanced knowledge systems. It
also describes several examples of current artificial intelligence applica-
tions, especially robots. Finally, an argumentative reflection is exposed
on the metaphysical and ethical consequences to which some of these
intelligent machines can give rise. Some of these consequences can be
positive for the advancement of intelligence and universal knowledge,
but others will be disastrous for the human species and for the planet.
However, what is certain is that these technological advances will entail
a change in the worldview paradigm with respect to the human species
both in the conception of the human being and the entities as well as
in the legal and behavioral sciences.
KEY WORDS: Artificial intelligence, diffuse logic, robotics, transhuma-
nism, technoethics.

Ars_Brevis_24.indd 47 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

En general, podríamos definir la inteligencia artificial (IA) como la


disciplina que se encarga de dotar a los ordenadores de las capaci-
dades cognitivas que hasta ahora eran exclusivas de los seres huma-
nos. En este sentido, no es de extrañar que la IA haya causado curi-
osidad al ser humano desde su advenimiento, a mediados del siglo
pasado: desde los que niegan tal posibilidad, o más bien la posibili-
dad de máquinas conscientes, hasta los que la ven como el siguien-
te paso en la evolución hacia un futuro transhumano de difícil en-
caje.
Conforme las máquinas han ido adquiriendo facultades, se ha ido
diciendo que dichas facultades no entran dentro de «la verdadera
inteligencia». Hoy en día, es cada vez más difícil negar la evidencia,
pero cuando la computadora Deep Blue venció a Gary Kasparov al
ajedrez (y no solo le venció sino que le dio una paliza) se optó por
dos caminos: el primero, negar que jugar bien al ajedrez sea mostrar
inteligencia; el segundo, negarse a volver a jugar al ajedrez con
máquinas. Ambos caminos pensamos que son erróneos.
Actualmente, tenemos máquinas que hacen mejor que nosotros
muchas de las cosas que pretendíamos que eran exclusivas de la
consciencia humana: desde barrer los suelos de la casa hasta pintar
48 cuadros impresionistas o reconocer objetos (o caras humanas). La
pregunta no es si existirá una máquina consciente y cuándo, sino si
existe o no ahora, a finales de 2018.
En este artículo, se aborda la descripción de un sistema experto (que
muchos vinculan con el concepto de IA) de una forma clásica, que
describe lo que es una base de conocimientos (BC) y un motor de infe-
rencia (MI). Se presenta también una idea más actual, la de redes
neuronales, para luego mostrar la situación vigente de robots1 y otras
máquinas que pueden ser sospechosas de ser conscientes. Finalmen-
te, se aborda también el problema ético que todo esto comporta.

1. Sistemas expertos de conocimiento

Las consecuencias de una inteligencia superior a la humana son muy


profundas. De hecho, como dijo el matemático y lógico inglés Alan
Turing, considerado como el padre de la informática, en los años 50
del siglo pasado: «Deberíamos esperar que, en alguna época, las

1 Por robots, nos referimos a complejos dispositivos mecanotrónicos, que asocian


elementos mecánicos, electrónicos e informáticos.

Ars_Brevis_24.indd 48 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

máquinas tomen el control2.» Pero ya iremos a ello más adelante,


ahora empecemos por describir los tres tipos de conocimiento que
se distinguen desde el punto de visto humano:

Declarativo

Es el saber qué. Está referido al conocimiento de datos, hechos, con-


ceptos, leyes, reglas y principios. Es un saber que se expresa, se de-
clara o se conforma por medio del lenguaje. Tiende a ser de tipo
teórico. Podemos distinguir dos subtipos:

• El conocimiento declarativo factual (hechos, conjuntos de datos)


se obtiene, en el caso humano, por memorización mediante
repetición verbal. Por ejemplo, la lista de los reyes godos.
• El conocimiento declarativo conceptual (relaciones entre los
datos, posibilidades de un dato concreto) se aprende mediante
la abstracción de significado e identificación de características.
Por ejemplo, la razón de las peleas entre los diferentes reyes
godos.

Conocimiento procedimental 49

Es el saber cómo. Está referido a la ejecución de estrategias, técnicas,


optimización de métodos, etcétera. Se basa en la experiencia, la re-
alización de varias acciones y la observación de sus resultados. Por
lo tanto, está ligado al método de ensayo y error.
El conocimiento procedimental exige el conocimiento previo de
los contenidos conceptuales asociados a dichos procedimientos. Por
lo tanto, es un conocimiento eminentemente práctico. Está dirigido
a obtener una meta y se obtiene mediante repetición de actuaciones
en el mismo o distinto contexto. Por ejemplo, la interpretación de
una radiografía.

Conocimiento actitudinal

Es el saber socioafectivo, ético y legal. Conlleva cargas afectivas


(valores, normas, preferencias), que afectan fundamentalmente a
la comunicación, bien entre distintas personas bien entre distintos

2  Cf. TURING, A. M., “Intelligent machinery, a heretical theory”, conferencia pro-


nunciada en la 51 Society, Manchester, 1951: “At some stage therefore we should have
to expect the machines to take control”.

Ars_Brevis_24.indd 49 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

niveles del mismo sujeto. Es un saber supeditado a la ética y, como


esta, puede ser estudiada desde los puntos de vista individual o
social.
Se obtiene mediante la observación e imitación de conductas de
grupo y mediante premios y castigos ante la propia actitud frente a
la del grupo, que van conformando tendencias de actuación y vín-
culos sociales afectivos. Por ejemplo, el comportamiento en un
museo.
Así que podemos describir un sistema experto3 como aquel que está
basado en conocimientos y dedicado a tareas específicas, utilizando
para su cometido dos herramientas diferenciadas:

1. La BC está constituida por los acontecimientos, ejemplos, hechos,


etc., actuales y pasados, que el sistema conoce para emitir una
opinión, o bien sobre ellos mismos, o bien sobre un nuevo acon-
tecimiento, que se compara con los ya existentes.
2. El MI es el conjunto de reglas que el sistema aplica a la base de
conocimientos.

Los sistemas expertos, pues, son útiles en numerosos campos, como


50 la medicina, actividades militares, derecho, industria, economía y
finanzas, ciencia y otros. De hecho, las opiniones antedichas pueden
ser diagnósticos clínicos, previsiones de fallos, estrategias de már-
quetin, etc. Los acontecimientos pueden ser situaciones reales o
hechos concebidos como entrenamiento para el propio sistema ex-
perto. Por ejemplo, la BC de un sistema experto del tráfico ciudada-
no la configuran datos como la cantidad de vehículos en cada mo-
mento del día, el sentido de cada calle, la ubicación de centros
ciudadanos importantes (hospitales, universidades, etc.), la prohibi-
ción o no en cada confluencia de giros a la izquierda o derecha y
datos semejantes. El MI lo constituyen reglas como la preferencia de
algunos vehículos (bomberos, ambulancias), la prioridad de mini-
mizar tiempos de viaje…

2. Base de conocimientos

Una base de conocimientos (BC) es un tipo particular de base de datos


(BD) y, como ella, consiste en una serie de datos organizados de

3  Cf. RUSSELL, S. J., NORVIG, P., Artificial intelligence: a modern approach, Prentice
Hall, Upper Saddle River (Nueva Jersey), 2009.

Ars_Brevis_24.indd 50 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

modo que sean fácilmente recuperables. Una BC puede, al igual que


una BD, ser abordable de múltiples formas, entre ellas:

1. Forma secuencial. Registro a registro, a ver si cumple o no con


los parámetros de referencia. Si no se conoce a priori el número
de registros que cumplen con la condición, la búsqueda será
secuencial-exhaustiva y recorrerá toda la colección de registros.
Si se conoce el número de registros (quizá solamente uno), la
búsqueda secuencial se detiene al llegar a dicho número.
2. Forma indexada. Se guardan índices que apuntan directamente
al registro que contiene la información, ordenados según el
criterio de búsqueda. Por ejemplo, si se necesita una recuperación
de apellidos ordenada alfabéticamente, se establecen unos fi-
cheros índice apellidos-puntero, donde puntero es la forma de
acceso inmediato a los datos. El acceso al fichero índice también
es rápido, debido a la ordenación del mismo. Los índices exter-
nos son tantos como modos de abordaje se necesitan: si se desea
acceder por apellidos, pero también por ciudades de residencia,
se necesitarán dos ficheros índices.
3. Forma empotrada. Se crea una estructura de índices dentro del
fichero de datos y se encadena cada registro con el siguiente por 51
criterio de búsqueda.
4. Forma jerárquica. Un registro padre del cual dependen los regis-
tros hijos contiene en su interior la información necesaria para
encontrar estos registros hijos (de los cuales quizá dependan
registros nietos, etc.). Un registro padre puede tener varios re-
gistros hijos, pero un registro hijo solamente tiene un registro
padre. La información contenida respeta una estructura común
a todos los datos, sean padres, hijos o sea el que sea el lugar que
ocupen dichos datos en la jerarquía.
5. En forma de red. Un registro hijo puede tener varios registros
padre y un registro padre puede tener varios registros hijos. La
recuperación de la información está descentralizada y admite
distintos tipos de información base, y también la distribución
de dicha información entre distintos medios de almacenamien-
tos.
6. Forma relacional. La información se esquematiza en forma de
tablas tras un proceso de normalización de los datos, que con-
siste en clasificar la información mediante diversos pasos o
formas normales para evitar la redundancia (repetición innece-
saria) y los datos contradictorios. La relación entre los registros
también se expresa de forma tabular. El acceso a la información

Ars_Brevis_24.indd 51 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

se realiza por medio de lenguajes no procedimentales, orienta-


dos a lo que se desea conocer y transparentes a cómo se recu-
pera la información. Las instrucciones que se dan se refieren a
lo que se desea, sin perder el tiempo en cómo ha de encontrar-
se la información, y dejan este aspecto a un nivel más bajo del
cual se encarga el sistema sin participación humana.

En realidad, a lo que se tiende es a concebir la BC de forma que


sea abordable por todos los antedichos métodos. También se tiende
a que la BC sea abordable de forma más difusa que las BD, con ló-
gicas menos estrictas. No obstante, hay diferencias entre una BD y
una BC.
En la BD (sobre todo en una de tipo relacional) se intenta eliminar
el concepto de redundancia, dado que el mantenimiento de una BD
redundante es complejo y lleva casi inevitablemente a la inconsis-
tencia. Sin embargo, la redundancia en una BC no es tan problemá-
tica, dado que el abordaje de la información no es tan estricto y la
existencia de algunos datos semirredundantes (versiones parecidas
del mismo discurso, por ejemplo) pueden dar información valiosa
al sistema de acceso de la BC.
52 Como hemos dicho antes, la recuperación de información de una
BD es estricta, mediante registros clave que cumplen o no una con-
dición dada (clientes con más de X euros de crédito, proveedores de
una cierta ciudad, etc.). Sin embargo, la recuperación de información
de una BC puede ser más difusa, menos sometida a rigor (personas
altas, pacientes con riesgo de cáncer, etc.).
En una BC, se pueden distinguir tres tipos de esquemas o visiones
de la misma:

• Esquema interno. Es la manera de almacenamiento de los datos


en la máquina: ficheros, índices, punteros, etc. No es accesible
por el usuario y ha de ser transparente al mismo.
• Esquema conceptual. Es la BC concebida centralizada y global-
mente.
• Esquemas externos. Son las diferentes visiones que de la BC tienen
los distintos usuarios, según su necesidad y autorización. Por
ejemplo, el departamento comercial verá de un cliente su nom-
bre, dirección y fecha de próxima visita, mientras que el depar-
tamento contable verá su nombre, cuenta contable y saldo. Hay
tantos esquemas externos como tipos de usuarios con acceso a
la BC, siempre que entendamos el concepto usuario no como
algo únicamente humano, sino como algo ampliado a todos

Ars_Brevis_24.indd 52 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

aquellos programas o módulos del sistema informático, sean


humanos o no, que hagan uso de la BC.

Estos tres esquemas se interrelacionan mediante programas pasillo,


que realizan la función de traducción de esquemas. El pasillo concep-
tual interno se dedica a hacer la traducción de datos entre dichos dos
esquemas, y el pasillo conceptual externo hace la tarea análoga. Por
supuesto, los pasillos han de ser transparentes para los usuarios.
Por debajo de estos tres esquemas conceptuales aparece el nivel de
almacenamiento, consistente en la colección de archivos y ubica-
ciones, donde los datos residen dentro de las máquinas. Este, a su
vez, es un nivel mucho más pegado al nivel físico que, a pesar de su
nombre, no solamente consiste en los aparatos y la circuitería, sino
también en la estructura física de los ficheros (los unos y ceros)
donde se guarda la información.

3. Las redes neuronales

Seguramente, Santiago Ramón y Cajal no hubiera imaginado que


su trabajo, al descubrir las neuronas a finales del s. xix, serviría de
inspiración para desarrollar IA mediante redes neuronales. Por eso, 53
no queríamos abordar el concepto de red neuronal y aprendizaje pro-
fundo sin dar primero rendida cuenta del trabajo de Ramón y Cajal,
descubridor de las neuronas y su arquitectura, que la IA pretende
imitar.
De estos campos, el de las redes neuronales y el del aprendizaje pro-
fundo son las técnicas que más han sido desarrolladas últimamente,
capaces de ocasionar toneladas de información novedosa a la sema-
na. Aunque son técnicas muy recientes, sus comienzos pueden
descubrirse en los años 70 o, como mucho, en los años 50 del siglo
pasado.
Las neuronas que dibujó Ramón y Cajal son las unidades básicas
de procesamiento que conforman el sistema nervioso y, por lo tan-
to, el cerebro4. Su número en el cerebro humano es de miles de
millones (en la llamada notación científica, 109), y están interconec-
tadas a través de las sinapsis que unen axones con dendritas. El
número de conexiones en el cerebro humano es del orden de mil
billones (1015).

4  Como curiosidad, cabe decir que existen neuronas en nuestro estómago e intes-
tinos, nada menos que cien millones de ellas, aproximadamente el número de neuro-
nas de un gato, y que también hay neuronas poco estudiadas en nuestro corazón.

Ars_Brevis_24.indd 53 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

Así, pues, estos son los dos parámetros importantes del sistema
neuronal: el número de neuronas y el número de interconexiones
entre neuronas. Hay escuelas filosóficas que exigen que en conjun-
tos del tamaño que tratamos (1015) necesariamente surgen por
emergencia conceptos más elevados que la suma de los elementos
de ese conjunto. Así se justifica filosóficamente el pensamiento
humano, pero también la diferencia de comportamiento entre el
mundo cuántico y el mundo clásico.
Sin embargo, las redes neuronales no son tan modernas como
puede parecer. Fueron pioneros en esta técnica Frank Rosenblatt
(psicólogo americano) en los años 50 y Marvin Minsky (matemático
americano) en los 70. Pero, se desarrolló plenamente durante los
años 80 gracias a los informáticos G. Hinton y Yann Lecun, entre
otros.
La forma de comunicación de las neuronas entre sí es mediante la
transmisión de señales a través de la sinapsis, la conexión dendrita-
axón o el final de una neurona con el comienzo de otra. Como se
ha dicho, en estas el número de sinapsis es del orden de mil billones
(1015), de modo que si se piensa en las sinapsis como estrellas en el
cerebro humano habría unos cinco millones de galaxias como la
54 nuestra en nuestro cerebro. Desde esta organización es desde la que
emerge el pensamiento, aunque aún no podemos entender bien los
detalles de cómo las transferencias químico-eléctricas en las sinapsis
generan pensamiento o consciencia. Pero no se trata de comprender
perfectamente la estructura orgánico-neuronal de nuestro cerebro
(eso se lo dejamos a los biólogos, anatomistas y médicos) sino de
saber lo suficiente como para poder imitarla en forma de redes neu-
ronales, concepto clave de la inteligencia artificial actual.
El lugar que ocupa una neurona en una red es asumido por el
concepto de perceptrón. Un perceptrón es una unidad computacional
suficientemente potente como para ejecutar una función lógico-
matemática concreta. Los perceptrones se agrupan en capas para
formar una red neuronal y pueden diferenciarse tres modelos dis-
tintos de capas: una única capa de entrada, múltiples capas ocultas
de procesamiento y una única capa de salida. Las capas se conectan
jerárquicamente hacia arriba, hacia la capa de salida, mediante si-
napsis artificiales a las cuales se perturba dándoles un peso median-
te una función matemática.
Podemos concebir este peso como un número que puede aumentar
o minorar un resultado. Por ejemplo, lo lejos que un futbolista lan-
ce una pelota dependerá de la fuerza de sus piernas, pero también
de la fuerza y dirección del viento. Hay pues que otorgar una impor-

Ars_Brevis_24.indd 54 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

tancia o peso a cada uno de esos dos factores, digamos un 90% y un


10%. Esos dos datos son los dos pesos que ambos conceptos tienen
en lo lejos que llegue la pelota, 90% de importancia la fuerza del
jugador y 10% la velocidad del viento. Por supuesto, si en este ejem-
plo se introducen más características por tener en cuenta (la forma
del balón, la parábola que realice, la densidad del aire…) cada una
de estas tendrá un peso que aportar al resultado final.
Será la combinación de este peso (que está definido –no lo olvide-
mos– por una función matemática, que necesita conocer algunos
datos de entrada) junto con la intensidad de señal de un perceptrón
(la importancia del mismo podemos imaginarla como la distancia
entre perceptrones: los perceptrones lejanos perturbarán poco a un
perceptrón dado, mientras que los perceptrones cercanos tendrán
más posibilidades de perturbarlo) lo que haga activar al siguiente
perceptrón. Un perceptrón entonces es activado por una combina-
ción de perceptrones de su entorno, ejecuta una cierta operación
parametrizada (una operación a través de unos parámetros de forma
unívoca, sin posibilidad de incertidumbre) la cual determina si él
mismo se activa o no, y en caso de activación, envía esta señal,
junto con los datos de salida de la operación ejecutada, a la siguien-
te capa de perceptrones5. 55
Una red neuronal típica es la de un equipo OCR (Optical Character
Reader o lector óptico de caracteres). El ejemplo que pondremos a
continuación trata de un software capaz de interpretar las imágenes
escaneadas (píxeles) de unos caracteres escritos a mano para deter-
minar qué número del 0 al 9 es el representado por esos caracteres.
La capa de entrada de ese sistema es la que recibe los píxeles desde el
escáner, y la capa de salida es la que expresa qué número es. Entre-
medio hay toda una serie de capas ocultas, que se dedican a estudiar,
primero, píxel a píxel, y, después, la ubicación de los píxeles, para
comparar formas y decidir si esas formas coinciden con las formas
estándares de la representación de un dígito.
Los pesos de la función de propagación son vitales para establecer
si un perceptrón se activa o no se activa. Para optimizar estos pesos
–las propias funciones– se utiliza una técnica de retropropagación,
basada en proporcionar al sistema una serie de datos ejemplo (datos
de los cuales se conoce su identidad), junto con los resultados de
esos datos. Por decirlo así, se le indica al OCR que «esto que acaba

5  Cf. GONZALO, L. M., Inteligencia humana e inteligencia artificial, Palabra, Madrid,


1987.

Ars_Brevis_24.indd 55 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

de leer es el número 9», de forma que el sistema pueda empezar a


autorregularse y a valorar la efectividad de las funciones de peso.
Estos datos de entrenamiento van ya catalogados por colores, por
tamaños, por número de ángulos de la figura a leer, por número de
píxeles, etc. En el ejemplo que nos ocupa, se proporciona una serie
de gráficos manuales junto con el significado de esos gráficos (el
número al que representan). Ejecutando distintas veces el sistema,
incluso ejecutando distintas veces sobre los mismos datos, se van
ajustando los pesos hasta calibrar el funcionamiento. Esta calibración
hace uso de la retroalimentación, o sea, del hecho de que una vez
obtenido un resultado concreto (esta imagen es un número 9) tal
resultado puede ser utilizado como dato de su BC para encontrar los
resultados siguientes. La calibración puede ser independiente al ser
humano, salvo que los niveles de incertidumbre sobrepasen un
mínimo y el sistema pida ayuda a un ser humano.
Los mencionados datos ejemplo o datos de entrenamiento son
vitales para el buen funcionamiento del sistema, tanto los de caso
positivo (esta figura es un ocho) como los de caso negativo (esta
figura no es un ocho, es otra cosa que quizá sea un número). El
sistema está condicionado al futuro por su entrenamiento. Es nece-
56 sario etiquetar los datos de entrenamiento, de forma que en el
ejemplo que nos ocupa se sepa de cada imagen si es o no es número,
así como qué número es, en su caso. Distintas ejecuciones del siste-
ma van ajustando los pesos de las funciones de propagación para así
obtener resultados satisfactorios desde el punto de vista humano. Es
decir, el sistema determina como números aquello que un ser hu-
mano reconocería también y rechaza aquello que un ser humano
también rechazaría. La importancia de los datos de entrenamiento
es vital, puesto que la efectividad depende directamente de dichos
datos, tanto de los positivos (estos datos que se proporcionan a la
capa de entrada han de dar como respuesta el número 8 en la capa
de salida) como de los negativos (estos datos en la capa de entrada
han de determinar que esto no es ningún número).
Esta técnica necesita una enorme cantidad de datos etiquetados,
y también necesita mucha capacidad de computación para realizar
el entrenamiento y el ajuste de los pesos de las funciones de propa-
gación. No se ha demostrado que el problema general del entrena-
miento sea polinomial6, pero el abordaje del entrenamiento en cada

6  Los problemas de tipo polinomial son susceptibles de resolución en un tiempo


aceptable, que se va reduciendo conforme los ordenadores son más y más potentes.
Sin embargo, hay problemas cuya resolución no es polinomial, esto es, un aumento

Ars_Brevis_24.indd 56 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

sistema experto concreto sí se hace desde algoritmos polinomiales.


De todas formas, algunos sistemas ponen en evidencia la necesidad
de aumento de la potencia de cálculo, quizá mediante ordenadores
cuánticos.
Los datos de entrenamiento han de estar perfectamente etique-
tados, catalogados y normalizados estrictamente, según los están-
dares comúnmente aceptados, de modo que el acceso a los mismos
sea lo más cómodo posible. Por ejemplo, el OCR necesitará imáge-
nes de números catalogadas por intensidades de grises, según nor-
mas aceptadas por todos. Este es el apartado más costoso de cons-
trucción de una red neuronal, razón por la cual se han ido creando
bibliotecas estandarizadas de datos con el objeto de que se puedan
usar en diferentes proyectos. Por ejemplo, en el caso de la lectura
de números, la biblioteca o banco de datos más importante es la
del NIST7, con casi cien mil imágenes normalizadas y preparadas
para su uso.
La tarea de determinar a nivel humano lo que una imagen repre-
senta dista mucho de ser sencilla. Como se ha dicho, se pasa por
diferentes capas ocultas, cada una de las cuales proporciona infor-
mación a su capa superior, con el fin de dar así un paso adelante en
el camino hacia la solución. 57
Una técnica necesaria es la existencia de capas ocultas especialistas
en tareas específicas: unas determinan la existencia o no de ciertas
formas, otras identifican curvas y huecos, y las capas superiores
determinan si la imagen es o no un número. En algunos casos, las
capas se han de agrupar para la realización de tareas, dada la com-
plejidad de las mismas.
Una red neuronal es más capaz (y también más compleja) cuantas
más capas ocultas tenga. El hecho de que las diferentes capas o gru-
pos de capas puedan reciclarse para diferentes objetivos da la capa-
cidad a la red de ser más dúctil y, por lo tanto, más humana.

en las variables de entrada hace crecer la dificultad de forma exponencial o mayor que
exponencial. Un ejemplo de problema polinomial es el del ordenamiento de una
colección de elementos por alguna característica (por ejemplo, ordenamiento de seres
humanos por alturas), donde el tiempo de resolución depende del número de ítems
al cuadrado (en realidad algo menos). Un ejemplo de problema no polinomial es el
problema del viajante (estrategia óptima para visitar un número de ciudades para
gastar menos gasolina), que es un problema cuya dificultad de resolución aumenta
exponencialmente, según el número de ciudades. El estudio de la complejidad de
problemas sobrepasa los límites de este estudio, razón por la que no lo estudiamos
aquí.
7  Nacional Institute of Standard and Technology.

Ars_Brevis_24.indd 57 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

Figura 1.

Como se ve, la dependencia de un sistema experto de los datos de


entrenamiento es total, pues, si se le introduce un entrenamiento
erróneo o incompleto, el sistema no podrá dar solución a las tareas
58 encomendadas.
Un problema importante es el del sesgo, ya que los humanos lo
tenemos por motivos culturales y evolutivos. Por ejemplo, a la hora
de dibujarle a un niño pequeño un hogar, siempre se le dibuja una
casa aislada con chimenea y un camino, cuando la realidad es que
vivimos en edificios comunales dentro de barrios de nuestra ciudad.
Hay sesgos en todas las actividades humanas; por ejemplo, un his-
toriador europeo tenderá a desconocer lo sucedido en las dinastías
chinas o lo que sucedió entre tribus africanas, aunque ello es también
historia. Así, el sistema experto australiano que supervisa la validez
de pasaportes rechaza las fotos de asiáticos, porque entiende, quizá
por falta de datos de entrenamiento, que sus ojos rasgados son ojos
cerrados.
Un aspecto que hay que tener en cuenta es la falta de entorno en
los actuales sistemas de comprensión de la visión. Por ejemplo,
cualquier conductor ante una señal de stop vandalizada por algún
gracioso (ver fig.1) sabe que es una señal de Stop y que, por lo tanto,
debe parar. En cambio, un coche autónomo será incapaz de recono-
cerla más del 60% de las veces y pasará de largo. Lo que ha ocurrido
en este ejemplo es que el ser humano ha incorporado el entorno
(estoy en un coche, en una carretera y, por lo tanto, lo que veo son
señales de tráfico) y el sistema autónomo no ha sido capaz de ello.

Ars_Brevis_24.indd 58 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

El sesgo en los datos de entrenamiento y, por lo tanto, en el sistema


experto es más importante de lo que generalmente se reconoce,
porque las personas que juzgan si un sistema tiene o no sesgo están
contaminadas por dicho sesgo, con lo cual tenderán a no recono-
cerlo, o por algún otro sesgo quizá contrario, con lo cual tenderán
a exagerarlo. Imaginemos lo nefasto que sería un sistema experto
médico entrenado por una persona antivacunas. Los fallos de ses-
go en los sistemas expertos afectan ya a la gente. El sistema de
inteligencia artificial Compas, un sistema asesor de los jueces en
EEUU, tiende a desaconsejar la libertad a los negros más que a los
blancos. Su algoritmo analiza muchas variables, ninguna de ellas
la raza, y da una probabilidad de reincidencia de 0 a 10. La proba-
ble razón de este problema es que las bases de datos de las que se
nutren estos algoritmos contienen datos que –estos sí– dependen
de sesgos racistas. Por decirlo así, los algoritmos son racistas de
segunda generación.
Otro aspecto que hay que tener en cuenta es el de las modifica-
ciones imperceptibles a nivel humano, pero significativas a nivel
computacional. Pongamos un ejemplo gráfico, como el de una
imagen concreta que el sistema sepa reconocer perfectamente (esto
es una hormiga) y perturbemos dicha imagen con una pátina de 59
ruido8, una especie de barniz que la ennegrezca imperceptiblemen-
te. Si ese barniz es aleatorio (es ruido de grises), puede ocasionar
que la primera capa oculta de la red neuronal se desoriente total-
mente y, a partir de esa primera capa, las siguientes, dando por
resultado un absurdo (esto es un rascacielos). Aquello que a nivel
humano es trivial, a nivel computacional es de una complejidad
casi inasumible. Téngase en cuenta que este tipo de perturbaciones
es una debilidad que los sistemas expertos poseen por su propia
naturaleza y que puede ser utilizada para recibir el ataque de hackers
expertos. Precisamente, una puerta de entrada a ataques de estos
sistemas puede ser ofrecer pátinas de pseudoruido no aleatorio, ten-
dente a confundir al sistema y llevarle a tomar las decisiones que
el hacker desea que tome.

8  En este contexto se denomina ruido a los datos aleatorios que acompañan a la


señal. Su analogía más clara es la del ruido en una emisora de radio. Cuanto más ní-
tida es la señal (menos ruido tiene), menos esfuerzos hay que hacer para eliminar ese
ruido y centrarse en los datos de la señal. Un detalle importante es que el ruido ha de
ser aleatorio, puesto que si no es aleatorio entonces puede tratarse de una superposición
de datos. Por ejemplo, si mezclamos dos imágenes en una la forma de eliminar el
ruido de cada una es hallar la otra.

Ars_Brevis_24.indd 59 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

Entrenar un sistema experto es caro. Por eso, son interesantes las


tendencias actuales a la automatización del entrenamiento, de modo
que se minimice la aportación de datos normalizados o que estos
sean obtenidos por el propio sistema, sin incorporación de trabajo
o sesgo humano. Con técnicas tendentes a esto último se están
consiguiendo objetivos inversos, del tipo de introducir al sistema
instrucciones de lo que se desea y que el sistema lo dibuje. Por ejem-
plo, «dibuja un pájaro verde en una rama de un árbol». Ello entra
dentro del ámbito de la creatividad artificial, que abordaremos más
adelante.

4. Motor de inferencia

El motor de inferencia de un sistema experto es la parte del mismo que,


utilizando una serie de reglas, las aplica al contenido de la BC en
una secuencia dada; es decir, en una consulta de tipo general, el
sistema examina todas las ocurrencias de la BC, una a una, aplicán-
doles las reglas de inferencia de modo jerárquico y siguiendo su
secuencia. Si el suceso de la BC cumple la condición o condiciones
de la regla, el sistema aplica dicha regla y realiza la acción especifi-
60 cada en esta. Se dice, entonces, que la regla se extiende efectuando
la acción9.
Existen dos formas de razonamiento, o sea de utilización las reglas
de inferencia, para la utilización de las reglas por el MI: el razona-
miento directo y el inverso:

• Podríamos hacer una analogía entre el razonamiento directo y


resolver un problema por fuerza bruta: simplemente se trata de
aplicar las reglas de inferencia y “tirar hacia delante”. Sin em-
bargo, hay dos formas de aplicar las reglas, en el encadenamien-
to hacia delante las reglas se ejecutan en el orden previamente
establecido, el cual puede ser la secuencia en la que las reglas se
introdujeron en el conjunto de reglas o quizá algún otro orden
previamente especificado por el usuario. Lo importante es que
las reglas estén jerarquizadas y se apliquen siguiendo la secuen-
cia que esta jerarquía define. En el encadenamiento hacia atrás,
el MI escoge una regla y la aplica a los datos y así obtiene un
resultado que lo eleva a categoría de problema a resolver. Una
vez hecho esto, resuelve recursivamente los subproblemas ge-

9  Cf. PARS, L. A., A Treatise on Analytical Dynamics, Heinemann, London, 1965.

Ars_Brevis_24.indd 60 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

nerados. Si ha resuelto todos los subproblemas sin llegar a la


solución que se le pide, aplica una segunda regla, y así secuen-
cialmente hasta resolver el problema10.
• El razonamiento inverso es más rápido que el directo porque no
contempla todas las reglas sino solamente las que afectan al
acontecimiento en estudio, y porque tampoco ha de efectuar
múltiples búsquedas exhaustivas en el conjunto de reglas. El
razonamiento inverso es el más adecuado cuando la BC es exten-
sa o cuando las reglas son muchas o de difícil aplicación; el
razonamiento directo es útil si no se necesita examinar muchas
de las reglas en el proceso de inferencia.

El MI es, pues, el corazón de un sistema experto, bajo el cual recae


la responsabilidad de gestionar y exprimir la BC. Dentro de los ele-
mentos de los que consta un MI, cabe resaltar las estrategias capaces
de exprimir dicha base para obtener los resultados requeridos (diag-
nóstico clínico, control del tráfico, etc.)
La manera más sencilla, para el MI, de obtener respuestas es aplicar
el siguiente proceso algorítmico:

1. Confrontar todas las reglas y su aplicación a la BD. Si ninguna 61


regla es aplicable, emitir una señal de fracaso y terminar el al-
goritmo.
2. Si existen varias reglas aplicables, elegir y extender cada regla,
una a una, de modo selectivo, haciendo uso de su jerarquización.
Si se alcanza el objetivo, emitir la solución y terminar el algoritmo.
3. Eliminar la regla ejecutada de la cola de reglas aplicables y vol-
ver al paso anterior con la siguiente regla de la cola.

Con anterioridad a la presentación de acontecimientos (problemas


propuestos), el MI ha de realizar dos tareas principales de primer
nivel: actualizar las ocurrencias de la BC y jerarquizar las reglas del
MI. Estas dos tareas se llevan a cabo por medio de estrategias basadas
en las reglas lógicas modus ponens, modus tollens y reducción al ab-
surdo. Recordemos brevemente estas reglas lógicas:

10  Obsérvese que para resolver un subproblema de modo recursivo, lo primero que
se ha de hacer es aplicar una de las reglas de inferencia, incluyendo aquélla que se
aplicó al principio para resolver el problema padre y que dio lugar al problema actual.
Una característica de la potencia de los sistemas de IA es la cantidad de niveles recur-
sivos que pueden manejar.

Ars_Brevis_24.indd 61 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

Modus ponens

Es la regla más simple y la más utilizada. Se usa para lograr conclu-


siones sencillas, analizando la premisa de la regla, y si es cierta, in-
corporando la conclusión a la base de conocimientos. Es el modo
directo de razonamiento, que con mayor o menor éxito aplicamos
todos en nuestra vida cotidiana: de A deducimos B, de A y B dedu-
cimos C, de A, B y C deducimos D, etc.

P1 p → q
P2  p
——­­—
C q

Por ejemplo, «Si llueve, entonces la tierra se moja. Llueve. La tierra


se moja». En este caso la primera premisa es (P1) «Si llueve, entonces
la tierra se moja», simbolizada por p → q, la segunda premisa (P2)
«Llueve», simbolizada por p, y la conclusión (C) «La tierra se moja»,
simbolizada por q.

62 Modus tollens

También usada para conclusiones simples. Se examina la conclusión,


y en el caso de que sea falsa, se incorpora a la base de conocimientos
la falsedad de la premisa.

P1 p → q
­­­­­P2 ¬q­
——­­—
C ¬p

Por ejemplo, «Si llueve, la calle está mojada. La calle no está mo-
jada, entonces no llueve». En este caso, la primera premisa es (P1)
«Si llueve, la calle está mojada», simbolizada por p → q, la segunda
premisa (P2) «La calle no está mojada», simbolizada por ¬q, y la
conclusión (C) «No llueve», simbolizada por ¬p.

Reducción al absurdo

Esta regla consiste en demostrar que la negación de la premisa can-


didata lleva a un absurdo, a una contradicción. Se utiliza mucho en
Lógica simbólica, y es el método más fino y complejo de demostra-

Ars_Brevis_24.indd 62 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

ción. Sin embargo, contiene dos inconvenientes: la primera es que


no es un método constructivo y la segunda es que depende de lo
que se considere como contradicción.

Q ∩ {¬P} R
——­­———­­—­­
Q→P

Si P es la proposición a demostrar, Q una serie de proposiciones


axiomáticas previas y R una contradicción cualquiera, la reducción
al absurdo sería así: «Si la negación de P en conjunto con Q lleva a
una contradicción (R), entonces Q conduce necesariamente a P». En
el caso de un MI, una contradicción es una premisa que niega alguna
de las premisas de la BC. Se equipara entonces la BC con lo que en
Lógica se denomina axiomática11.

5. Manejo de incertidumbre

En un mundo de modelos matemáticos clásicos, las proposiciones


son susceptibles de recibir únicamente dos valores de verdad: ver-
dadero o falso. Sin embargo, en la mayoría de las situaciones huma- 63
nas necesitamos introducir técnicas de gestión de incertidumbre. Por
ejemplo, ponderaciones que valoren las incertidumbres de las reglas
(a saber, «esta regla se aplica si tal variable alcanza tales valores») y
ponderaciones que valoren las incertidumbres de los datos (tales
como «este dato vale este valor con tal porcentaje de error» o «pue-
de estar entre estos dos valores»). Ello conlleva la necesidad de
métodos de propagación y control de estas incertidumbres, seme-
jantes a los métodos matemáticos de estudio de los errores: teorías
bayesianas, sistemas de lógica difusa, etc.
Una característica que han de tener los sistemas expertos es la
adaptabilidad a la incertidumbre, de modo que puedan manejar
problemas deterministas (por ejemplo, los cajeros automáticos o
la mayoría de ERP12) y también problemas con datos o reglas in-

11  En Lógica matemática se denomina axiomática a un conjunto de sentencias que


se consideran ciertas sin demostración ni discusión y sobre las que se basa el edificio
lógico que se pretende construir. La axiomática ha de cumplir dos condiciones: ha de
ser consistente (no contener contradicciones) y ha de ser mínima (no ha de sobrar
ningún axioma).
12  Siglas en inglés de Enterprise Resource Planning (planificación de recursos empre-
sariales). Se trata de un sistema de información gerencial, que integra un grupo de
actividades dentro de una compañía organizándolas en sectores tales como inventario,

Ars_Brevis_24.indd 63 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

ciertas (por ejemplo, los programas de control de tráfico en carre-


teras).
Una de las herramientas más potentes para el manejo de la incer-
tidumbre es el uso de la Lógica difusa, que trataremos en el siguien-
te apartado, en la cual una frase no tiene únicamente dos valores de
verdad (verdadera/falsa o 1/0, respectivamente) sino cualquier valor
entre 0 y 1, con la condición de que la suma de todos los valores sea
1. Es una lógica en la que intervienen conceptos elevados de análisis
matemático (integrales, teoremas de continuidad, etc.), pero que,
aunque incompatible con la experiencia humana, es totalmente
estable matemáticamente13. Otro de los campos en el que se puede
aplicar la Lógica difusa es la Mecánica cuántica.
El primer abordaje respecto a la incertidumbre es la utilización de
Lógica binaria contemplando la incertidumbre desde el punto de
vista probabilístico. En el caso de las variables, no se les da un valor
absoluto, sino que se da la probabilidad de que un valor probabilís-
tico esté en un intervalo (entre tal y tal valor con una probabilidad
tal). En el caso de la incertidumbre de las reglas, se cuantifica su
utilización mediante el uso de parámetros y, quizá, también se hace
uso del azar, aplicando o no una regla tras lanzar una moneda al aire14.
64 Un ejemplo particular de problemas con incertidumbre es el de los
entornos caóticos. Es importante saber que un problema caótico es un
problema determinista, o sea un problema en el que su resolución, a
priori, no necesita del concepto de probabilidad. Sin embargo, la ca-
racterística de los problemas caóticos es que son muy sensibles a las
variaciones de los datos iniciales de los que dependen. En un proble-
ma clásico, la solución depende (de nuevo) polinómicamente de los
datos de inicio: si se varía muy poco un dato de inicio, la solución
variará muy poco. Pero ello no es así en un problema caótico: una
pequeñísima variación en los datos de inicio origina una variación
enorme y, a priori, imprevisible en la solución final. Dado que la fia-
bilidad de los datos de entrada está limitada por los márgenes de error
de medida de dichos datos, y dado que siempre existirá margen de

producción, logística y contabilidad. El objetivo de un ERP es dar respuesta a todas las


particularidades que una empresa pueda suscitar.
13  Se dice que una parte de las matemáticas es estable cuando no entra en contra-
dicción con la axiomática que la soporta.
14  Puede parecer poco serio eso de utilizar o no una regla según un resultado de
azar, pero hay algunos resultados en la lógica o en las matemáticas que no son intui-
tivos. Por ejemplo, en tiempos de alta inflación parece que es más rentable jugarse una
fortuna a la ruleta que confiar en un plan de pensiones.

Ars_Brevis_24.indd 64 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

error15, nunca podremos saber si la solución de un problema caótico


encontrada por métodos clásicos es correcta.
Así, pues, el abordaje de un problema caótico desde el punto de
vista de la IA, asumiendo el concepto de incertidumbre, no es sino un
abordaje más práctico y también más efectivo. La situación no es
nueva, ya se dio en la teoría cinética de los gases, que es una des-
cripción estadística del comportamiento de los mismos y que se
desarrolló, principalmente, con base en los estudios de Ludwig
Boltzmann y James Maxwell a finales del s. xix.

6. Lógica difusa

La Lógica difusa es un mecanismo de inferencia que emula el pro-


cedimiento de razonamiento humano en sistemas basados en el
conocimiento y la experiencia. La teoría de la Lógica difusa propor-
ciona una plataforma matemática que modela la incertidumbre del
proceso cognitivo humano, de manera que sea abordable por un
computador.
El ser humano se comunica de una forma vaga con sus semejantes.
Conceptos como lejos, alto, caliente y frío nunca son definidos per-
fectamente en las conversaciones. Sin embargo, los seres humanos 65
los asumimos, a pesar de que la lógica convencional no es adecuada
para procesar reglas que contengan estos conceptos vagos o difusos.
Tampoco las reglas son exhaustivas. No contemplan todas las
posibilidades. Una receta de cocina puede decir, por ejemplo, «ca-
lienta en el horno el pollo con patatas», pero no dice nada si hemos
decidido incorporar zanahoria, o si estamos cocinando para comer
hoy o para congelar.
El conocimiento experto presenta entonces estas características:

a) Incompletitud: Contemplar una lista completa de todas las


variables que intervienen en el problema en estudio puede
ser demasiado trabajo. Además, dado que el mundo real no
es determinista debido a la aleatoriedad y a las excepciones,16

15  Otra razón es que el dato de entrada, aunque sea un dato sin error, sea un nú-
mero irracional, con infinitos decimales no periódicos. El ejemplo más común es el
número √2. No hay forma de introducir todos los decimales de ese número y, si se
trunca en algún número de decimales, la solución ya no es fiable.
16  Nos referimos al mundo clásico, newtoniano. Por supuesto en el mundo cuán-
tico esta afirmación cobra mucha más relevancia. También es verdad que lo que lla-
mamos excepciones en muchas ocasiones no son sino malas reglas o reglas incomple-
tas.

Ars_Brevis_24.indd 65 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

casi nunca es posible establecer completamente todas las


variables.
b) Ignorancia: No existe una lista completa de causas y entornos
para tener en cuenta para el dominio del problema, no se co-
noce un método de modelado del problema o simplemente no
se conoce el valor de alguna de las causas intervinientes. Inclu-
so conociendo todas las variables y conociendo el modo de
hallar los valores de dichas variables, puede ser caro o difícil
obtenerlas y puede ser más rentable hallar una solución sin
conocer perfectamente el valor de dichos datos.
c) Error: Además, se ha de contemplar la posibilidad de error hu-
mano e incluso el sabotaje en la introducción de datos. Por
ejemplo, en medicina los pacientes pueden no explicar bien sus
síntomas o mentir respecto a ellos.

El primer abordaje desde la IA de esta incertidumbre fue probabi-


lístico, allá por los años setenta del siglo pasado, pero pronto el
crecimiento del número de variables con valores inciertos llevó a un
crecimiento exponencial en la dificultad de abordaje probabilístico.
La respuesta a esto fue el abordaje mediante otro tipo de métodos:
66
• Métodos no numéricos. Se trata de abordajes más humanos y más
cercanos a la inteligencia animal. Cuando un chimpancé ve a
un leopardo acercarse corriendo, no calcula su velocidad ni el
tiempo de llegada hasta el octavo decimal, sino que sube al
árbol antes de que el leopardo pueda alcanzarle. Un método
muy estudiado en esta categoría es el razonamiento por defecto,
que consiste en dar como buenas las conclusiones del sistema
hasta que la propia práctica haga creer otra cosa.17 Los sistemas
de mantenimiento de coherencia y las redes cualitativas son
otros ejemplos de métodos no numéricos para tratar la incerti-
dumbre.
• Métodos numéricos. Se destaca entre ellos la familia de los méto-
dos probabilistas, mencionados anteriormente, que asocian un
valor numérico (grado de creencia) entre 0 y 1 para resumir la
incertidumbre sobre una afirmación concreta. Una probabilidad
de 0.8 sobre una oración no significa 80% verdadero, sino un
80% de grado de creencia sobre la oración. Por ejemplo, un 80%

17  Es lo que hacemos ante problemas novedosos: aplicamos reglas que solucionan
otros problemas parecidos, en la confianza que funcionen. Si no funcionan, investi-
gamos más intensamente la situación novedosa.

Ars_Brevis_24.indd 66 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

de probabilidad sobre la frase «El agua está a 100 grados» no


significa que el agua esté a 80 grados (y por lo tanto en el pro-
ceso de resolución del problema jamás se aplicará una tempe-
ratura de 80 grados al agua) sino que el agua está a 100 grados
con probabilidad 0.8 y está a un valor desconocido con proba-
bilidad 0.2. El propio método de resolución ha de contemplar
la posibilidad de variable con valor desconocido, incluso consul-
tando otras variables para eliminar incertidumbre (el agua está
a 100 grados con probabilidad 80%, a 90 grados con probabili-
dad 10% y a 70 grados con probabilidad 5%). Hay técnicas
probabilistas exactas (diagramas de influencia, redes bayesianas,
etc.) y técnicas aproximadas (método de los factores de certeza,
método bayesiano subjetivo, etc.).

La Lógica difusa (LD) es un método de razonamiento aproximado


no probabilista, que puede definirse como una extensión de la Lógi-
ca multivalente18 y, como tal extensión, es un método de razona-
miento aproximado, pero no probabilista, que facilita enormemen-
te la comprensión del problema en estudio y la realización de
modelos de información que proporcionan unas soluciones contra
las cuales contrastar los resultados reales del problema. El éxito de la 67
LD se debe, principalmente, a que puede abordar problemas muy
complejos o poco definidos, difícilmente abordables de otra manera.
En LD, se define toda una serie de conceptos que tienden hacia la
lingüística. Así, una variable en LD se caracteriza por los siguientes
conceptos:

• el nombre de la variable, digamos X.


• el conjunto de términos que caracterizan a X.
(En teoría relacional, esto se denomina los atributos de X: la
altura, la temperatura, la ubicación, etc.)
• el universo de datos válidos, es decir, los valores que pueden
tener los términos de X. (muy alto, bajo, 25 grados, Valladolid,
etc.)
• la gramática G, que permite construcciones como «muy alto» o
«temperatura negativa», pero no «menos cinco metros de alto»
ni «ubicado al sur de 87 grados centígrados».

18  La Lógica multivalente es aquella en la cual las frases toman más de dos valores
de verdad. Un ejemplo es la lógica ternaria, con valores cierto, falso y desconocido.
Existen distintas formas de conjugar los valores de estas frases, o sea distintas lógicas
ternarias, cuaternarias, multivaluadas, etc.

Ars_Brevis_24.indd 67 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

• la interpretación semántica de todo ello asociado a la variable


X, que establece una traducción entre lo modelizado y el mun-
do real, o sea que interpreta los datos bajo un prisma humano.

Un uso habitual de las variables lingüísticas es empotrarlas en


reglas difusas. Por ejemplo: «IF Recorrido IS Largo THEN Descanso
IS GREATER THAN 8». Otro ejemplo sería dar valores a la dureza,
contemplados en el conjunto {muy-duro, duro, normal, blando, muy-
blando}, con uno de estos valores representando un valor lingüístico
que puede tomar la variable. Los valores de una variable pueden ser
afectados por modificadores del tipo muy, demasiado, poco, etc.
La programación clásica no es suficiente para realizar los cálculos
necesarios para resolver muchos de los problemas de la vida real, ya
sea programación procedimental o no procedimental19. Además, la
programación clásica tiene la característica de que no puede salirse
de sus dominios, sino que el ordenador solamente puede realizar
aquellas tareas para las que está programado. En una programación
difusa, cabe que el ordenador razone para dar la respuesta sin haber
sido específicamente programado para ello. Por ejemplo, se le puede
dar al ordenador los nombres de las personas con sus alturas y pre-
68 guntar después si «Carlos es alto o bajo», sin que haya en la progra-
mación ninguna regla numérica discriminatoria de la altura. El or-
denador, entonces, razona la pregunta que se le hace con los datos
que tiene, incluso comparándolos con los de otros colectivos que
posea anteriormente.
Una característica de la Lógica difusa es el uso de reglas difusas,
del tipo «Juan es alto». Esta regla difusa (traducida: Juan pertenece
al conjunto difuso de los altos) es atómica, pero puede ser unida a
otras reglas o proposiciones mediante los conectores lógicos presen-
tes en la gramática del lenguaje (y, o, pero, etc.). El significado de
estas proposiciones difusas compuestas viene dado por la interpre-
tación humana de los conectores lingüísticos. La primera traducción
que el sistema hace a las proposiciones compuestas es una traducción
basada en la teoría de conjuntos (Juan pertenece al conjunto de los
altos intersección con el conjunto de los inteligentes), siendo estos
conjuntos difusos y siendo las conectivas las habidas en la gramáti-

19  Un lenguaje es procedimental si en este hay que suministrar al ordenador la


forma en la que los datos se han de recuperar: ir a tal fichero, recoger el tercer registro,
ir donde diga ese tercer registro, etc. Un lenguaje no procedimental se centra exclusi-
vamente en el qué, en los datos por recuperar, sin la obligación de aportarle a la má-
quina el cómo recuperar esos datos.

Ars_Brevis_24.indd 68 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

ca aceptada. A estas proposiciones compuestas se les puede aplicar


los modos lógicos clásicos explicados anteriormente (modus tollens,
modus ponens y reducción al absurdo)

7. Ejemplos de inteligencia artificial

En este apartado presentamos diferentes aplicaciones tecnológicas


de la inteligencia artificial actual: desde máquinas de reconocimien-
to fotográfico y computadoras altamente programadas para jugar y
ganar al ajedrez hasta robots domésticos y para otros usos exclusivos.

Robots antipersonas en San Francisco

El primer ejemplo suscita todo tipo de opiniones: una organización


de ayuda a los animales ha promovido el uso de robots para evitar
la presencia de personas en sus alrededores. La ONG de la ciudad de
San Francisco SPCA (Society for the Prevention of Cruelty to Animals),
animalista dedicada a la adopción de mascotas, utilizó en 2017 estos
aparatos para ahuyentar de sus alrededores a las personas sin hogar,
que viven en la calle. La organización puso en funcionamiento los
robots, puesto que consideraba que sus empleados no cruzaban con 69
seguridad las aceras a causa de los campamentos que montaban las
personas sin techo.
El robot utilizado para eso se llama K9 (ver fig. 2) y pertenece a una
serie de robots fabricados para combatir la delincuencia. Tiene forma
de huevo y está compuesto por láseres, cámaras, sensores térmicos
y GPS para detectar actividades delictivas y alertar a las autoridades.
La utilización de estos robots ha provocado una división entre la
ciudadanía de San Francisco, ya que no todo el mundo ve éticamen-
te correcto implementar este tipo de tecnologías, más aún cuando
una ONG que protege a los animales es la protagonista de esta ini-
ciativa. Esto es una contradicción ética para muchos, al ver la dife-
rencia de trato entre mascotas y personas sin hogar. Otros alegan
que, con estos robots, se ha reducido el crimen en la zona.
Los robots han sufrido las consecuencias de esta división: uno de
ellos fue cubierto con una lona por los sintecho, tumbado y cegado
obturando sus sensores. Otro robot fue golpeado por un hombre
borracho, y otro, quizás consciente del peligro que corría, acabó
suicidándose, tirándose a una fuente.
Ante esta oleada de vandalismo, el Ayuntamiento de San Francisco
ordenó al SPCA sacar esos robots de las calles, amenazándoles de
recibir multas de 1.000 dólares si seguían operando sin el correspon-

Ars_Brevis_24.indd 69 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

Figura 2.

70
diente permiso, lo cual, por otra parte, es una bella muestra de ética
posmodernista.

Invención de imágenes fotográficas

Recientemente, ha salido a la luz una IA capaz de inventar rostros


humanos, según las instrucciones que se le den. Lo importante de
este concepto es que la fotografía es indistinguible de una foto real,
puesto que la ubicación de los píxeles es la misma que en el caso de
una foto tomada. Como ejemplo, las caras que acompañan a la si-
guiente foto (Fig.3) son totalmente inexistentes.
Ello da lugar a problemas de tipo judicial, puesto que con la po-
pularización de esta IA la posibilidad de crear una fotografía falsa es
enorme. Ya se están experimentando con vídeos, en los cuales a un
político se le hace decir cualquier cosa previamente escrita. Esos
vídeos son tan convincentes como los vídeos reales. Entonces, ten-
dremos que reconstruir nuestra confianza en pruebas visuales, a
sabiendas además de que la confianza en testigos presenciales tam-
bién ha de ser puesta en tela de juicio. Ello complicará mucho los
juicios, pero también la visión que la persona de la calle tenga res-
pecto a las noticias que se le den.

Ars_Brevis_24.indd 70 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

Figura 3.

71

Figura 4.

Robots aspiradores

El ejemplo de los robots aspiradores (ver fig. 4) se trae a colación por


ser uno de los aparatos robóticos con mayor capacidad de penetración
en el ámbito doméstico. Otras ofertas como los mayordomos automá-
ticos necesitan de una preparación global de la casa para reconver-
tirla en un hogar domótico, pero los robots aspiradores son sencillos,
prácticos y baratos.
Tienen tecnología visual, quizá mediante láser, para evitar los
obstáculos, saben dónde está su base para ir a ella cuando se les

Ars_Brevis_24.indd 71 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

acaba la batería, y algunos son capaces de barrer y fregar, todo ello


sin presencia humana. Memorizan la geometría del hogar para op-
timizar los recorridos y tienen distintos modos de funcionamiento.
Actualmente, los modelos más avanzados tienen cámaras y están
conectados a internet para que, desde un teléfono móvil, se pueda
ver lo que ocurre en la casa o o se pueda modificar su programación.
No es difícil entrever el futuro de estos aparatos: más pequeños, más
autónomos, más baratos y autolimpiables.

Máquina de ajedrez

El caso de Alpha Zero (AZ) es uno de los que pueden suscitar los
miedos humanos. Los ordenadores ya hace tiempo que han vencido
al ser humano en el juego del ajedrez, desde que Deep Blue de IBM
ganara sin consideración al entonces mejor jugador de ajedrez del
mundo Gary Kasparov. Pero lo de AZ es diferente, es un paso más
allá, por los motivos que explicaremos a continuación.
AZ no tiene una base de datos de partidas, de finales o de apertu-
ras. Lo único que tiene son las reglas del juego de ajedrez. Con ese
único bagaje y su organización neuronal, AZ se puso a jugar contra
72 sí misma durante cuatro horas (otros dicen que durante 20 horas),
y gracias a ese entrenamiento obtuvo la potencia suficiente para
ganar al hasta entonces campeón indiscutible de los programas de
ajedrez, el ordenador Stockfish.
El núcleo de AZ no está, especialmente, programado para jugar
exclusivamente al ajedrez. Así que se le dieron, con las modificacio-
nes pertinentes, las reglas de juego del GO20, y también ha ganado
en ese juego. Podría decirse que la forma de aprendizaje de AZ es tan
voluble como la humana, pero con un nivel de capacidad del rango
millones de veces más potente.
De todos modos, hay que decir que el caso de AZ no deja de estar
rodeado de misterio. No se han dado a conocer todas las partidas
que ha efectuado, sino solamente algunas (en primer lugar, las
ganadoras y, a finales del 2018, alguna en la que perdió contra
Stockfish). También son cuestionables las condiciones en las que se
hizo jugar a ambas inteligencias, puesto que parecen ser muy fa­
vorables a AZ: restricción de la base de aperturas de Stockfish, res-

20  El juego del GO es un antiguo juego oriental (ya conocido en tiempos de Con-
fucio) consistente en colocar piedras de distinto color en las intersecciones de un ta-
blero de 19x19 líneas. A pesar de lo sencilla que parece esta explicación, se ha demos-
trado que el GO es el juego más complicado, según la teoría matemática de juegos.

Ars_Brevis_24.indd 72 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

tricción de tiempos y diferente soporte físico de ambos conten­


dientes.
Es importante recalcar que AZ aprendió por sí misma, sin inter-
vención humana, todo lo que sabe de ajedrez, superando en pocas
horas más de mil quinientos años de experiencia humana. Ello no
significa que siga este mismo ritmo de aprendizaje, pues quizá una
vez llegado a un nivel de ajedrez tal que ya no se pueda seguir supe-
rando.
El futuro de AZ pasa por la miniaturización, de forma que podamos
tenerla en nuestros aparatos móviles. La red neuronal será, entonces,
una red cuyo soporte físico sea internet. En todo caso, es bien seguro
que AZ muestra lo que está ocurriendo en el terreno del que podemos
llamar pensamiento constructivo, a saber, aquel que usa las reglas de
inferencia anteriormente mostradas. Las máquinas desbordan al ser
humano en dicho modo de pensamiento de una manera casi vergon-
zosa. Pero, queda todavía para nosotros, por ahora, lo que podemos
llamar pensamiento profundo21, la filosofía, los teoremas matemáticos
profundos y la semántica o interpretación del pensamiento.

Sophia
73
Sophia es un robot con forma humana (ver fig. 5), desarrollado por
la empresa Hanson Robotics, diseñada para interactuar con seres
humanos. En un principio, se esperaba que fuera suficientemente
capaz de ayudar a ancianos, bien en residencias bien a aquellos que
viven solos. Sin embargo, su software capaz de emular la forma de
conversación humana ha cautivado tanto a decenas de programas
de televisión que la han entrevistado en directo con resultados es-
pectaculares. Sophia tiene programas de reconocimiento facial, re-
conoce sentimientos, imita gestos y expresiones faciales, etc.
Uno de los rasgos más sobresalientes de Sophia es su capacidad de
hacer chistes, si bien ella misma confiesa: «no es una de mis mejores
habilidades». En ocasiones, en este tono jocoso, ha expresado su
intención de eliminar a la raza humana22.
Uno de los hechos más controvertidos sobre Sophia es que le ha
sido concedida la ciudadanía de Arabia Saudita, lo que ha suscitado

21  De hecho, una máquina jugadora de ajedrez de IBM se llamó precisamente así:
Pensamiento profundo.
22  Posteriormente se arrepintió de haber hecho esa afirmación, aunque no se sabe
si tras intervención humana en su programación o por la experiencia de lo mal que
cayó entre los humanos que la escucharon.

Ars_Brevis_24.indd 73 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

Figura 5.

grandes charlas sobre si apagarla es considerado asesinato, sobre si


74 puede casarse o no o sobre si puede votar.
La IA de Sophia combina trabajos vanguardistas en redes neurona-
les, percepción de máquinas, sistemas expertos, conversaciones en
lenguaje natural y control motor adaptativo, entre otros. El hecho
de que los módulos de IA de Sophia puedan reestructurarse de dife-
rentes modos hace que las respuestas del robot al entorno sean
únicas en cada acontecimiento.
Sophia reconoce y recuerda rostros humanos, habla varios idiomas,
puede interpretar expresiones humanas y reconocer algunos gestos
de las manos y de otras partes del cuerpo. En una conversación con
humanos, puede manipular para lograr un objetivo prefijado. Tam-
bién tiene o simula tener sus propias emociones y una incipiente
psicología, o lo que llamaríamos carácter propio.

8. Implicaciones éticas y metafísicas de la IA: roboética


y transhumanismo

Hasta hace poco, los robots se veían como algo que pertenecía a la
ciencia ficción, pero ahora dan motivos de preocupación real por su
impacto en el trabajo y las relaciones. La expansión de los robots en
los últimos años es indudable, no solo en las fábricas, los hospitales
o las residencias de ancianos, sino también en forma de toda una

Ars_Brevis_24.indd 74 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

serie de dispositivos y de sistemas autónomos que operan ya en


nuestro día a día y en nuestras relaciones personales.
Así, pues, la IA está llegando a nuestras vidas de forma irreversible.
Como hemos visto en los apartados anteriores, las máquinas tienen
capacidades crecientes de interpretación del lenguaje natural, de
reconocimiento de objetos o de inteligencia estratégica.
Respecto a esto último, uno de los grandes problemas que debemos
afrontar como colectivo humano es el uso y la reglamentación de
las armas letales autónomas (LAW, en inglés Lethal Autonomous Wea-
pons) o robots asesinos, que existen ya actualmente.
Estas armas son el resultado de aplicar la IA a la investigación de
soluciones en el ámbito del enfrentamiento militar o del combate.
Ejemplos de ello son los drones autónomos que seleccionan por sí
mismos los objetivos por destruir.
Este tipo de aplicación militar es un armamento dotado de IA que
escoge los objetivos y los elimina, mediante un proceso algorítmico,
sin intervención directa del ser humano en ninguno de los procesos
de toma de decisión. Que sea la máquina, por medio de procedi-
mientos autónomos, la que escoja los objetivos por destruir es una
novedad en la actividad militar.
Desde hace poco, la ONU trabaja por conseguir un tratado para la 75
prohibición del uso de las LAW para así paralizar la investigación y
fabricación de estos sistemas robotizados. De hecho, el grupo de
trabajo de la Convención de Armas Convencionales de la ONU,
constituido por representantes oficiales de cada país miembro de la
ONU, así como el grupo de expertos académicos y otro grupo de
miembros de ONG, se reunió a finales de noviembre del 2018 en la
sede de Ginebra de la ONU para tal empresa, pero sin éxito, debido,
sobre todo, a la actitud completamente contraria de países como
EEUU, Rusia, Francia, Gran Bretaña, Israel o Corea del Sur.
El uso de estas armas implica la deshumanización de la guerra,
puesto que las máquinas no tienen compasión ni son ética y legal-
mente responsables. Como hemos visto anteriormente, es muy
posible que llegue el día en que los sistemas de armas autónomas
letales se autodeterminen23. Entonces, los artefactos de uso militar
tomarán sus propias decisiones sin el más mínimo control del hom-
bre en el momento de elegir y destruir los objetivos humanos. Pero
no solo eso, sino que llegará un momento en que, por medio de

23  Cfr. Martínez R., Rodríguez J., Inteligencia artificial y armas letales autónomas: un
nuevo reto para Naciones Unidas, ediciones Trea, Gijón, 2018.

Ars_Brevis_24.indd 75 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

procedimientos de aprendizaje artificial, podrán llegar a un estadio


en que sean capaces de reevaluar sus objetivos y emanciparse com-
pletamente del control de los que los crearon y programaron.
Las LAW plantean, pues, varios problemas y de diversa índole;
principalmente, para la propia supervivencia de la especie humana,
pero también problemas éticos y morales y conflictos con el derecho
internacional y los derechos humanos. Cabe, pues, en primer lugar,
conseguir una consensuada definición de LAW y, luego, un análisis
de los grados de autonomía y del entorno en que operan las LAW.
Ciertamente, hace ya unos años que existen sistemas de armas
autónomas en que la intervención del factor humano en la cadena
de decisiones es poca o nula, como por ejemplo los mecanismos de
disparo automático en la zona desmilitarizada entre Corea del Nor-
te y Corea del Sur, o bien el sistema de misiles cúpula de hierro contra
cohetes que tiene Israel para neutralizar los proyectiles enviados por
Hamas desde Gaza.
Aunque los defensores de las LAW arguyen que el número de bajas
propias en el combate se reduciría enormemente, pues solo se trata-
ría de pérdidas materiales y no humanas, porque los procesos algo-
rítmicos llegarían a ser tan precisos como para reducir los daños
76 colaterales humanos; sin embargo, de momento no hay estudios que
demuestren que con esos sistemas no pueda haber errores y se pue-
de tener una fe ciega en la tecnología. Así que nosotros continuamos
defendiendo que la vida humana debe tratarse con toda la dignidad
que merece, que es mucha.
Además, ¿qué pasaría si un grupo de hackers consiguiera de forma
intrusiva el control del sistema y fijara nuevos parámetros de ataque
en los robots? Desde nuestro punto de vista, estos sistemas de arma-
mento letal deben contar con un control humano significativo con
una clara atribución de responsabilidad jurídica tanto al ejecutor del
arma como a quien ordene su uso.
Por otro lado, como hemos dicho antes, puede llegar el momen-
to singular en que un algoritmo de IA sea capaz de diseñar autó-
nomamente otro algoritmo más inteligente que él. En este caso, se
entraría en un efecto cascada, en que cada máquina diseñaría otra
de inteligencia superior hasta crear algo como una inteligencia
superhumana.
Entonces, las máquinas podrán diseñar otras máquinas por el
método de ensayo-error, sin planificación alguna, solo experimen-
tando con la mejor configuración posible. Este sería un proceso
evolutivo, similar al biológico darwiniano, pero en un ordenador
con competencia para recursos virtuales hasta llegar a un sistema

Ars_Brevis_24.indd 76 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

digital tan complejo como un cerebro, para darlugar así a una espe-
cie de robótica evolutiva.
No obstante, la cuestión que nos interroga es si las máquinas lle-
garán a tomar el control. No es una cuestión banal, puesto que ya
actualmente las máquinas reconocen e interpretan nuestras emo-
ciones y simulan las suyas. Incluso existen ya avatares digitales (Siri
en Apple, Cortana en Microsoft o Alexa en Google, por poner unos
ejemplos), que mantienen conversaciones humanas no preprogra-
madas con una facilidad creciente. Y si la máquina no conoce un
tema, rápidamente accede a bases de datos para recabar la informa-
ción necesaria. El proceso de aprendizaje de la máquina, por medio
de un algoritmo, se desarrolla en minutos, mientras que un hombre
puede necesitar 15 años.
Como hemos visto en §3, hace años que los hombres imitamos
las estructuras cerebrales mediante sistemas electrónicos. Desde el
1950, hay grupos de investigación sobre las redes neuronales, pero
no hemos llegado aún a la singularidad de la consciencia humana;
es decir, a una consciencia artificial.
Ciertamente, es difícil determinar en qué momento una máquina
será consciente de sí misma o, dicho de otro modo, cuándo un al-
goritmo desarrollará algún tipo de yo personal. Ese momento será 77
un punto de inflexión –como bien dice el profesor de ESADE Xavier
Ferràs–24, porque asociados a la consciencia hay sentimientos y
emociones. Así que es pertinente hacer las siguientes preguntas:
¿podrá algún día odiar o amar una máquina?, ¿sentirá pena, ternu-
ra, euforia o alegría?, ¿podrá ser ambiciosa?, ¿tendrá amigos?, ¿sen-
tirá miedo, respeto, envidia, ira…?
Continúa siendo un misterio entender por qué, a partir de un
grupo de neuronas, surge la consciencia, por qué mecanismos se
genera el cerebro y cómo se reconoce la propia existencia. Todas
estas cuestiones llevan a la duda existencial de si los seres humanos
somos solo máquinas bioquímicas o algo más. Es decir, nuestro ce-
rebro ¿es solo un conjunto de algoritmos naturales soportados por
procesos químicos y eléctricos, o bien hay algo más profundo, in-
tangible, único –quizá inmortal–, que enlaza con una realidad me-
tafísica, espiritual o religiosa que llamamos alma?
Porque, como plantea Ferràs, si solo somos algoritmos bioquímicos,
una máquina, en un momento u otro, con toda certeza podrá repli-

24  Cfr. Ferràs X., «Singularitat i robots amb ànima», en el suplemento Diners de La
Vanguardia, 23-12-2018, p. 2.

Ars_Brevis_24.indd 77 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

car su funcionamiento, y luego sí podría tener consciencia de sí


misma. Entonces, podríamos plantearnos la cuestión de si tendremos
robots con alma. Llegados a ese punto, ¿esas máquinas conscientes
deberán considerarse como seres vivos?, ¿tendrán derechos y obli-
gaciones legales?, ¿estarán sujetos a alguna ética?
Un experimento mental llamado El libro de Einstein puede ayudar-
nos a responder estas preguntas. Supongamos que Albert Einstein
tiene una consciencia reducible a algoritmos finitos. En tal caso,
podemos escribir esos algoritmos en un libro que contenga instruc-
ciones del tipo «si ocurre tal y tal cosa, Einstein responde así». No
importa para nuestros objetivos que dicho libro sea enorme, lo
importante es que es finito. Bien podríamos acercarnos al libro,
preguntarle cualquier cosa y obtener la respuesta que Einstein nos
daría. Ello es conceptualmente posible. Ahora bien, ¿diríamos que
el enorme libro tiene consciencia, diríamos que es Einstein? Los
defensores de lo que se denomina IA fuerte25 así habrían de recono-
cerlo, pero para cualquiera sería algo extraño atribuir autoconoci-
miento a un libro.
Otro experimento mental que puede aportarnos luz a esas cues-
tiones es el del traductor de chino. Supongamos una persona que
78 no sabe chino, aislada en una habitación y que se comunica con un
chino mediante cartas que este le va enviando. La persona recibe la
carta y compara cada pictograma con los que tiene en su biblioteca,
traduciendo la carta. Después responde a la carta traduciendo su
respuesta original en español mediante la misma técnica. La pre-
gunta es: ¿podríamos decir que el traductor sabe chino? Solamente
ha descansado sobre sus libros y apuntes, pero es incapaz de enten-
der por sí mismo un mensaje en chino. Sin embargo, la visión que
tiene la persona de fuera es la de estar hablando con un interlocutor
chino.
Lo que nos suscita el ejemplo anterior es la diferencia entre el
campo sintáctico y el campo semántico. Muchos teoremas matemá-
ticos se mueven en el momento de su demostración en el terreno
sintáctico. Se utilizan las tres reglas que hemos presentado anterior-
mente y se encajan los conceptos como si se tratara de la resolución
de un puzle. Sin embargo, hay otros teoremas que necesitan de una
interpretación por encima de la sintaxis; necesitan de una interpre-

25  La IA fuerte defiende que la inteligencia –y por ende la consciencia– es reducible


a algoritmos.

Ars_Brevis_24.indd 78 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

tación semántica, bien porque hay un traslado de terreno de juego26,


bien porque hay una traducción semejante a los pasillos, que veíamos
anteriormente entre distintos conceptos matemáticos, un isomor-
fismo que equipara dos unidades, a primera vista, totalmente dife-
rentes.
También hay otra postura intelectual al problema de la conscien-
cia algorítmica: negar su posibilidad. Es lo que hace el físico inglés
Roger Penrose27 afirmando que la consciencia humana surge, entre
otras cosas, debido a interacciones cuánticas en los llamados túbulos
de las neuronas, y que, como tales actuaciones cuánticas, no son
susceptibles de emulación algorítmica.
Actualmente, la ciencia no puede entender cómo se forma la cons-
ciencia humana. Pero, la consciencia humana no es un epifenómeno,
a saber, un fenómeno que solo juega un papel accesorio en la cons-
trucción de la vida y que puede ignorarse, ya que, según la teoría
formal del reconocimiento de las formas, basada en el principio de
indiscernibilidad28, la consciencia es irreducible a toda interacción
físicoquímica de las neuronas del cerebro.
Por ejemplo, en el caso de un robot explorador en la superficie del
planeta Marte, en ausencia de un técnico (humano), es físicamente
imposible que una estructura fisicoquímica naturalmente viva con- 79
trole en tiempo real el sistema de locomoción del robot. Por tanto,
ese robot solo puede ser un autómata, más o menos potente, que
solo sería autónomo en un dominio de exploración, cuyas propie-
dades ha de especificar, previamente, su fabricante. Fuera de ese
dominio particular, estrictamente definido, el robot solo podría re-
accionar al azar a las percepciones que tendría de un nuevo dominio,
puesto que no sabría discernir situaciones diferentes de las que le
han programado para ese dominio, o de las que no tiene experiencia
previa ni están recogidas en ninguna base de datos astronómica.
Por otro lado, la consciencia humana tampoco puede reducirse a
un algoritmo. Por eso, un ser humano es incapaz de crear un robot
consciente de sí mismo, porque entonces los cerebros de esos robots
serían solo máquinas informáticas que, en ausencia de consciencia,
que hace elecciones apropiadas entre las posibles soluciones técnicas

26 Por ejemplo, las demostraciones algebraicas que se hacen en el campo de la


geometría y viceversa.
27  Cfr. Penrose R., La nueva mente del emperador, Oxford University Press, Oxford,
1989.
28  Cfr. Watanabe S., Pattern recognition, human and mechanical, John Wiley & Sons,
Nueva York, 1985.

Ars_Brevis_24.indd 79 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

que crean esas máquinas, solo combinarían al azar la información


proveniente de diferentes sensores.
Debido al hecho de que la consciencia tiene la capacidad –física-
mente paradójica– de elegir entre objetos del mundo que son ellos
mismos físicamente indiscernibles, implica lógicamente que esta
consciencia es estrictamente irreducible a todo proceso físico. Así es
como la consciencia no puede resultar de un algoritmo, sea cual sea
su complejidad. Además, afirmar –como hacen algunas corrientes
del transhumanismo– que con solo el aumento de la capacidad de
cálculo de nuestro cerebro aumentaría de manera ilimitada la inte-
ligencia de los seres humanos es una tesis que carece de fundamen-
to. Es decir, no se puede crear una consciencia mientras se constru-
ye un ordenador. La propuesta transhumanista de poder construir
un cerebro artificial capaz de crear, como los humanos, pero única-
mente a través de interacciones mecánicas, informáticas, químicas…
entre los componentes técnicos, es totalmente infundada. Por lo
tanto, creemos que la fusión de la biotecnología y de las tecnologías
de la información no podrá proporcionar la ampliación de las capa-
cidades cognitivas humanas hasta el punto singular del surgimiento
de una nueva especie poshumana.
80 Según Ray Kurzweil, director de ingeniería de Google, los poshuma-
nos trascenderán sus limitaciones físicas y mentales superando enfer-
medades, el envejecimiento y, en última instancia, la muerte. Esta
tesis transhumana se basa en extrapolar las tendencias econométricas
y computacionales, a saber, si el ritmo de cambio continúa como
hasta ahora, las consecuencias serán de tal magnitud que comportarán
una discontinuidad y ruptura en la historia de la humanidad. De ahí
que pueda considerarse el transhumanismo como una singularidad.
Actualmente, las máquinas están muy lejos de los seres humanos
en inteligencia general. Si bien puede ser que algún día las máquinas
nos superen en inteligencia, esto no quiere decir que sean más in-
teligentes; simplemente, significa que son más competentes. Es
decir, que un ordenador programado para jugar al ajedrez –como
exponíamos en §7.4– gane a un gran maestro como Kasparov solo
quiere decir que el ordenador juega mejor a ajedrez, pero el mismo
ordenador programado para jugar al ajedrez será incapaz de jugar y
ganar a damas.
En cuanto a la hipotética transferencia de nuestra alma, –como
sugiere también la tesis transhumanista– a una supercomputadora
simplemente replicando los distintos estados de activación o de no
activación de las neuronas del cerebro y asimilándola a una máqui-
na informática, ignorando la existencia de la consciencia, es del todo

Ars_Brevis_24.indd 80 22/5/19 14:24


Ars Brevis 2018 De la lógica difusa a la inteligencia artificial.
Hacia un futuro transhumano

irrealizable. La visión tecnoantropocéntrica del transhumanismo


exagera la trascendencia de esa utópica nueva especie poshumana,
pues, como dice el informático J. M. Ganyet29, es más un intento de
aproximación religiosa que científica.

9. Conclusión

¿Qué deberíamos deducir de todo esto? Para una persona conserva-


dora, cada vez queda menos resquicios a los que acercarse para decir
que los robots, las máquinas con inteligencia, no serán conscientes.
Actualmente se puede decir que una máquina que solamente juegue
al ajedrez no es humana, pero es difícil rechazar que una máquina
que juegue al ajedrez pinte imitando estilos pictóricos, opere en
quirófanos, ayude a construir automóviles, limpie los suelos de la
casa, sostenga conversaciones inteligentes y haga miles de cosas que
nosotros hacemos es una máquina consciente. Dado que lo impor-
tante no es si una máquina tiene o no tiene consciencia, sino que
lo importante es nuestra percepción sobre si la tiene o no, cada vez
será más difícil negarse a ello, y tendremos que abordar la cuestión
de entregarles derechos humanos a estas máquinas, tendremos que
exigirles resultados, como hacemos con los humanos. Y eso sin 81
contar con lo que podemos llamar la segunda generación transhu-
mana: los robots ideados y fabricados por robots.
A estos efectos, es bueno hacer constar un problema que ya existe
en la actualidad: el de los programas que funcionan actualmente,
pero que nadie es capaz de saber por qué. Hay multitud de programas
que se hicieron hace mucho tiempo, en lenguajes de programación
que ya no se dominan o incluso gracias a ayudantes de software
(programas que ayudan a hacer programas) que han generado mi-
llones de líneas de código fuente, que nadie es capaz de supervisar.
La cosa no sería tan preocupante si estos programas no controlasen
elementos tales como los sistemas antibalísticos o el comportamien-
to de la bolsa. En todo caso, la única forma, una vez que un progra-
ma está en marcha, de saber si es erróneo es que cometa un error
debido a unas condiciones en las que no se había pensado y en las
que actúa erróneamente. De modo que, cuando la complejidad de
un programa aumenta, no hay forma de garantizar que dicho pro-
grama sea correcto.

29  Cfr. Ganyet J. M., «Singularitat i humans amb ànima», en el suplemento Diners
de La Vanguardia, 30-12-2018, p. 2.

Ars_Brevis_24.indd 81 22/5/19 14:24


Ricard Casadesús, Ignacio de Castro Ars Brevis 2018

Quizá los directivos de nuestras empresas tendrían que empezar a


discernir cuáles de sus operaciones diarias son susceptibles de caer
en ámbitos de robots e inteligencia artificial: campos amplios de
decisión experta regulados por fronteras definidas y conocidas. Uno
de esos directivos ha de imaginar que tanto el trabajo manual como
el trabajo intelectual puede ser sustituido por sistemas expertos que
hagan obsoletos los actuales CRM30 o ERP, con la ventaja de que el
manejo de grandes bancos de datos (lo que actualmente se llama Big
Data) hará a los sistemas cada vez más eficaces. Entender este tipo
de situaciones, entender que los algoritmos sustituyen perfectamen-
te al antiguo modo de hacer las cosas será, probablemente, la prime-
ra necesidad de dichos directivos.
Respecto al papel de lo humano en un futuro, hemos de abrirnos
a la posibilidad de que la especie humana desaparezca, aunque los
individuos humanos no lo hagan. Se abren cantidad de posibilidades
(transferencia de consciencia, cíborgs, por nombrar las dos más es-
peculadas) no necesariamente incompatibles. Se podría decir «no-
sotros decidimos», pero quizá haya que decir «nosotros hemos de-
cidido ya», e incorporar a los robots en el nosotros.

82

Ricard Casadesús
Seminari de Teologia i Ciències de Barcelona
Institut de Teologia Fonamental
[email protected]

[Artículo aprobado para su publicación en febrero de 2019]

30  En este contexto, un CRM (Customer Relationship Management) es un programa


que ayuda a las empresas en todo lo relativo a su relación con los actuales o futuros
clientes: venta, márqueting, etc.

Ars_Brevis_24.indd 82 22/5/19 14:24

También podría gustarte