Singularidad Tecnologica - Llano Alonso

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 27

© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, bibderechoytrabajo@us.

es

CAPÍTULO VIII
SINGULARIDAD TECNOLÓGICA, METAVERSO E
IDENTIDAD PERSONAL: DEL HOMO FABER AL
NOVO HOMO LUDENS

FERNANDO H. LLANO ALONSO1


Universidad de Sevilla
[email protected]

1. INTRODUCCIÓN
Sostenía Ortega y Gasset en su ensayo Meditación de la técnica (1931), que
el ser humano tiene la extraña condición de ser a un tiempo natural y
extranatural; es una especie de centauro ontológico que media porción de él
está inmersa en la naturaleza, mientras que la otra trasciende de ella. Con esta
metáfora mitológica pretendía ilustrar el pensador madrileño su idea de que el
hombre no es una cosa sino una pretensión:
Cuerpo y alma son cosas, y yo no soy una cosa, sino un drama, una
lucha por ser lo que tengo que ser (Ortega y Gasset, 2006b, 571).
Para Ortega, la vida no es algo que a los hombres se les de hecho,
regalado, sino algo que ellos mismos deben hacer:
El hombre, quiera o no, tiene que hacerse a sí mismo, autofabricarse
(Ibid, 573).
Ortega apunta a una idea del hombre que en realidad va incluso más allá
de la noción antigua de homo faber, según la cual “el hombre es la medida de
todas las cosas”; el concepto moderno de homo faber reemplaza, como diría
Hannah Arendt, a las nociones clásicas de armonía y sencillez colocando en su
lugar la labor, el trabajo, la producción y la acción como elementos esenciales de
una vida activa en la que el hombre instrumentaliza el mundo, lo construye y lo
transforma con la fabricación de objetos artificiales que le resultan útiles para
realizar ese cometido. Paradójicamente, advierte la pensadora alemana, este
cambio en la mentalidad del hombre constructor moderno supuso el origen de
su derrota al privarle de los modelos que le habían servido como referencia
antes de la Era Moderna.
Quizá nada indica con mayor claridad el fundamental fracaso del
homo faber en afirmarse como la rapidez con que el principio de

1
Estudio realizado en el marco del Proyecto de I+D del Ministerio de Ciencia e Innovación de
España Biomedicina, Inteligencia Artificial, Robótica y Derecho: los Retos del Jurista en la Era Digital
(PID2019-108155RB-I00).
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

190 FERNANDO H. LLANO ALONSO

utilidad, la quintaesencia de su punto de vista sobre el mundo,


desapareció y se reemplazó por el de “la mayor felicidad del mayor
número” (Hannah Arendt, 1959, 281).
Existe una clara relación de identidad entre técnica y bienestar. Una vez
superada la etapa moderna del homo faber, el hombre contemporáneo no tiene
particular interés en estar en el mundo, en lo que tiene especial empeño es en
estar bien; es más, de todos los animales, el hombre es el único para el que lo
superfluo resulta necesario, y precisamente en esto consiste la técnica: en la
producción de lo superfluo (Ortega y Gasset, 2006b, 561-562).
La vida cotidiana de la sociedad de nuestro tiempo comparte caracteres
comunes con el sentido de lúdico que tanto se ha desarrollado en la cultura
contemporánea, como señala Johan Huizinga. En efecto, el homo ludens, que
toma el relevo del homo faber, se sumerge en una esfera temporal de actividad
que tiene una vida y tendencia propia, pero que no es en sí la “vida corriente”,
es decir, “la vida propiamente dicha”. Al contrario, a través de su sentido
lúdico y de la realidad alternativa del juego, el hombre parece practicar el
escapismo de los asuntos y las cosas que conciernen a su realidad cotidiana
(Huizinga, 2010, 21).
A diferencia del homo faber, un hombre que fabricaba cosas con partes
materiales que ensamblaba para formar un todo armónico (Bergson, 1973, 91),
el homo ludens no necesita vencer las resistencias de la realidad material
mediante el trabajo, su vida no será “un drama que le obligue a actuar, sino un
juego” (Han, 2021, 22). El homo ludens trasciende la realidad natural, en la que el
individuo se adapta al medio, e inventa a través de la técnica una sobrenaturaleza
en la que es el medio quien se amolda a la voluntad del sujeto.
Sin embargo, hasta tal punto ha llegado a depender el homo ludens de la
técnica en el desarrollo de su vida cotidiana, y tan desmedida es su fe en la
tecnología, que ha terminado desdibujando su propia identidad y vaciando su
propia existencia. Ortega anticipó con clarividencia este desvanecimiento
ontológico del hombre contemporáneo ante la creciente autonomía de las
máquinas con las siguientes palabras:
la técnica, al aparecer por un lado como capacidad, en principio
ilimitada, hace que al hombre, puesto a vivir de fe en la técnica y sólo
en ella, se le vacía la vida (Ortega y Gasset, 2006, 596).
En este proceso agónico del espíritu humano, ante su progresivo
desplazamiento del escenario de la realidad física por la irrupción de la
revolución tecnológica, no solo hace que el hombre renuncie a la condición de
artesano o fabricante y su función quede reducida a la de mero auxiliar de la
máquina, sino también que se produzca una disociación entre el cuerpo y el
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 191

espíritu humano en el universo virtual creado por el individuo como recurso


evasivo de la naturaleza. Precisamente en el espacio digital en el que se replica
artificialmente la naturaleza, encontrará el hombre su refugio lúdico de
imágenes y sensaciones virtuales alejado del mundo de las cosas. A propósito
de esa propuesta de disociación entre cuerpo y espíritu humana, facilitada por
el avance neotecnológico, se preguntaba Ortega si ese presuntuoso espíritu que
pretende emanciparse de la realidad de las cosas que se ven y se tocan no sería
más que pura “demencia” (Ortega y Gasset, 2006b, 603).
A propósito de la alienación del hombre en el espacio virtual advierte
Byung-Chul Han en su ensayo sobre las No-cosas (2021) que, a medida que
aumenta el control que ejercen los algoritmos en el desarrollo de la vida
cotidiana de los seres humanos, éstos van perdiendo también su autonomía, la
libertad de obrar y decidir por sí mismos. En esta segunda fase de la
mecanización, las máquinas autómatas ya no son simples herramientas, cosas
inertes manejadas por el homo faber, sino infómatas que actúan y piensan por los
hombres. En ese mundo virtual dominado por la Inteligencia Artificial apática
(sin pathos), la información extraída de la minería de los datos (data mining), y el
conocimiento -que en este caso no es sabiduría- basado en cálculos almacenados
en el Big Data, representan una realidad inmaterial, la experiencia sin presencia
de hombres superficialmente felices, pero abducidos por los dispositivos
digitales, como las tablets y los smartphones, en la era del phono sapiens (Han,
2021, 18-21).
La absorción del hombre por el universo virtual de las tecnologías
digitales, el abandono por su parte del mundo real y de la realidad tangible
produce en el individuo una forma de profunda crisis de identidad, una especie
de aguda desorientación respecto al lugar en el que se encuentra. Precisamente,
a propósito de esa pérdida de orientación del hombre contemporáneo, Charles
Taylor sostiene que dicha desorientación equivale a no saber quiénes somos ni a
qué lugar pertenecemos; en definitiva, supone no tener identidad o haberla
perdido (Taylor, 2020, 53-55).
Mientras van perfilándose paulatinamente las líneas que demarcan el
horizonte de la singularidad tecnológica, hipótesis en la cual la creación de IA
fuerte a cargo de las máquinas superará supuestamente el control y la
capacidad de la inteligencia humana, la identidad de los individuos se va
difuminando cada vez más ante ese futuro transhumano en el que, tanto su
posición como su papel, son del todo inciertos. La crisis de identidad personal y
humana2 ante la progresiva autodeterminación de las máquinas desarrolladas

2
Como advierte Rafael de Asís, aunque la identidad humana e identidad personal han sido muy
relevantes en el proceso de construcción de los derechos humanos, no deben confundirse: la
(…)
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

192 FERNANDO H. LLANO ALONSO

con IA, así como la expansión del mundo virtual y la inmersión del individuo
en un metauniverso (o metaverso) en una experiencia multisensorial y
tridimensional que se disfruta mediante el uso aplicado de dispositivos y
desarrollos tecnológicos de internet, plantean innumerables interrogantes de
índole antropológico, ético, político y sociológico. Ahora bien, dada la temática
específica de este trabajo, el presente capítulo se centrará exclusivamente en
algunas cuestiones ético-jurídicas que surgen en la experiencia jurídica digital a
raíz de nuevas formas contractuales a través de la tecnología blockchain que
permiten transacciones con criptomonedas como Bitcoin, la compraventa de
activos digitales no fungibles (cuyas siglas en inglés son NFT), o la posibilidad
de realizar contratos autoejecutables (smart contracts) en los que desaparece la
intervención humana en cualquier operación, que no requieren participación
jurisdiccional, además de suponer un ahorro en gestiones burocráticas y una
automatización de las operaciones.
Además de las múltiples ventajas que la tecnología blockchain ofrece al
mundo de los negocios jurídicos y de la economía digital, conviene también
replantearse en términos iusfilosóficos los efectos producidos por la aplicación
de las Nuevas Tecnologías (NN.TT.) en el ámbito de los derechos y libertades
de los individuos (por ejemplo, en relación con la protección de datos o el
derecho al olvido). Esta circunstancia hace necesaria la implementación de un
marco jurídico digital que proporcione a los usuarios el disfrute de las
herramientas que ponga a su alcance una Inteligencia Artificial cada vez más
fuerte, pero que también sea más fiable y segura.
A propósito de las implicaciones ético-jurídicas surgidas a partir de la
interacción entre el novo homo ludens con el metauniverso de internet y la
tecnología de la IA sería oportuno determinar en qué medida se está
produciendo no solo la desnaturalización del hombre contemporáneo, sino
también, en cierto modo, la deshumanización de la técnica en aras de un salto
evolutivo que, como pronostican los transhumanistas, nos acerque como
especie al horizonte de singularidad del homo excelsior (híbrido entre hombre y
máquina inteligente), todo ello sin que sirva de excusa para soslayar los
beneficios y el bienestar que la revolución tecnológica 4.0, y en particular la IA y

identidad personal se expresa en forma de “condición personal (percepción, voluntad,


imaginación, memoria, intuición, razón y los órganos que se soportan) y situación personal
(contexto). Y, además, presupone el libre albedrío, la autoconciencia y el plan de vida”. Por otra
parte, añade Rafael de Asís, la identidad personal “presupone una idea de identidad humana,
que es una suerte de universalización de las identidades personales: aquello que es común a
todas ellas y que nos identifica como seres humanos”. Por último, la identidad personal tampoco
puede confundirse con la identidad jurídica (identidad pública del individuo como ciudadano)
ni con la identidad digital (que se corresponde con nuestra imagen y reputación en el ámbito
digital). Cfr., De Asís, 2022, 22-25.
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 193

la robótica avanzada, representan para la mejora de la calidad de la vida de las


futuras generaciones.
2. UN DEBATE ÉTICO-JURÍDICO EN TORNO A LOS NEURO-IMPLANTES
Y EL USO TERAPÉUTICO DE LA INTELIGENCIA ARTIFICIAL
La transformación digital está cambiando a un ritmo tan vertiginoso que,
cuando apenas hemos empezado a familiarizarnos con el Internet de las cosas,
ya se está anunciando un salto evolutivo de la tecnología en su afán por
explorar y ampliar las fronteras sensoriales de la red. En efecto, con el Internet
de los sentidos se pretende fusionar el mundo real y digital hasta el punto de
hacerlos indistinguibles. El objetivo de un hombre conectado a la red permite
imaginar un futuro en el que el homo excelsior (un cíborg resultado de la
simbiosis entre la máquina y el humano) pueda desarrollarse neurológicamente
y experimentar a través de las tecnologías digitales los cinco sentidos. A
propósito de la conexión neuronal entre el ser humano y las Nuevas
Tecnologías Digitales mediante el uso de implantes subdérmicos,
neurotransmisores, interfaces y microchips cerebrales son referenciales, por
ejemplo, los proyectos de ingeniería neuronal de Elon Musk (a través de la
empresa Neuralink) o Mark Zuckerberg (mediante el Metaverso VR de realidad
virtual)3.
A la hora de determinar cuál es la capacidad y dónde se sitúan los límites
de la inteligencia humana desde un punto de vista científico, ante todo hay que
considerar que gran parte de nuestra actividad cerebral se dedica a recibir y
procesar la información sensorial que tanto influye en nuestros actos y toma de
decisiones. En este sentido, Kevin Warwick, uno de los mayores expertos
mundiales en IA y cibernética (considerado por muchos como el primer cíborg
de la historia desde que en 2002 conectó los nervios de su brazo a una mano
biónica), advierte la limitada capacidad del pensamiento humano para percibir
potencialmente señales que no son perceptibles para los seres humanos, pero sí
para los robots inteligentes desarrollados con IA. Teniendo en cuenta la
limitada capacidad de la mente humana, la mayoría de las aplicaciones actuales
de los sensores no humanos consisten precisamente en convertir dichas señales
extrasensoriales para los humanos en energía que éstos puedan percibir, como,
por ejemplo, una imagen virtual de rayos X. Según la previsión de Warwick, el

3
Martha J. Farah ha sido una de las primeras investigadoras en analizar las implicaciones éticas
de la tecnología neuroquirúrgica, con especial énfasis en el empleo de la neurofarmacología
mediante neurotransmisores para el tratamiento de enfermedades como el Alzheimer, el
Trastorno por Déficit de Atención e Hiperactividad, y también fue de una de las primeras
autoras en plantear los efectos ético-jurídicos que produciría la posibilidad de acordar
judicialmente un tratamiento modificador de conductas en personas con comportamientos
asociales (Farah, 2002, 1123-1129).
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

194 FERNANDO H. LLANO ALONSO

empleo de la amplia gama potencial de entradas sensoriales por parte de los


sistemas de IA irá aumentando claramente su gama de capacidades conforme
vaya transcurriendo el tiempo (Warwick, 2012, 146, 173-174).
Una prueba de que la línea de separación entre el hombre y la máquina
se estrecha cada vez más la encontramos en el sistema de implante cerebral
Braingate. Hasta ahora, las interfaces cerebro-ordenador se han utilizado con
fines terapéuticos, para superar un problema médico/neurológico. Sin embargo,
también existe la posibilidad de emplear esta tecnología para dotar a los
individuos de habilidades que, en general, no poseen los seres humanos 4.
Al margen de las múltiples ventajas terapéuticas que ofrecen los
neuroimplantes, y de los potenciales efectos benéficos de la aportación
tecnológico-sensorial para la mejora de la memoria o el avance en la
investigación sobre la comunicación mental, un individuo con implantes
neuronales y conectado con la IA también podría disfrutar de la rápida y alta
precisión en términos de “cálculo de números”, podría acceder a una base de
conocimientos de alta velocidad, casi infinita, en Internet, desarrollar una
memoria precisa a largo plazo y aumentar su capacidad de detección.
Sin embargo, pese a estos buenos augurios respecto a los efectos
beneficiosos que la aplicación de la ingeniería informática y de la cibernética
supone para el sector sanitario, hay que considerar también cuál es la realidad y
conocer los límites de la naturaleza humana en relación con estas buenas
perspectivas sobre la introducción de las NN.TT. en la medicina, en general, y
la neurología en particular. A este respecto, observa Warwick, desde un punto
de vista técnico, los seres humanos sólo pueden visualizar y comprender el
mundo que les rodea en términos de una percepción tridimensional limitada,
mientras que los ordenadores son muy capaces de manejar cientos de
dimensiones (Warwick, 2015, 5).
Por otro lado, es conveniente también conocer qué implicaciones
ético-jurídicas puede tener el avance de la IA y la robótica en el ámbito de las
libertades, los derechos y las obligaciones de los seres humanos (hasta el punto
de que se ha abierto un debate doctrinal reciente en torno al reconocimiento de

4
Según la explicación de Kevin Warwick del funcionamiento del implante cerebral Braingate, la
actividad eléctrica de unas pocas neuronas monitorizadas por los electrodos de la matriz es
decodificada en una señal para dirigir el movimiento del cursor. Esto permitió a un paciente que
se sometió voluntariamente a esta prueba de monitorización neurológica posicionar un cursor en
la pantalla de un ordenador, utilizando señales neuronales para su control, combinadas con
información visual. La misma técnica se empleó posteriormente para poder realizar diversas
operaciones con un brazo robótico a un paciente que sufría parálisis en uno de sus brazos
(Warwick, 2015, 4).
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 195

una nueva clase de derechos humanos: los “neuroderechos”)5. Hay dos


proyectos de investigación dirigidos a crear una infraestructura de vanguardia
en el campo de la neurociencia6, la computación y la medicina relacionada con
el cerebro: el primero es el BRAIN Project (acrónimo de Brain Research through
Advancing Innovative Neurotechnologies), dirigido por el científico español
Rafael Yuste y que fue financiado por la administración norteamericana en
2013; el segundo es el proyecto europeo Human Brain Project. Los dos proyectos
coinciden en su propósito de “mapear o cartografiar” la actividad neuronal por
medio de técnicas de neuroimagen para descifrar la interconexión neuronal del
cerebro humano en un futuro próximo (Morente Parra, 2021, 265).
En un artículo publicado recientemente en la revista Horizons, bajo el
título: “Its time for neurorights” (2021), sus autores -entre los que se encuentra
precisamente Rafael Yuste- parten del convencimiento de que los avances
tecnológicos que marcarán el tránsito del individuo hacia el universo de la
singularidad no solo están redefiniendo ya la vida humana, sino que incluso
están transformando el rol de los seres humanos en su vida social. En el ámbito
de la ingeniería biomédica, la neurotecnología (conjunto de herramientas o
métodos para potenciar y estimular la actividad cerebral) es el campo donde
más profundamente se está constatando la alteración del significado de lo que,
hasta ahora, hemos considerado esencialmente humano; no en balde, el cerebro
es el órgano encargado de generar toda nuestra actividad mental y cognitiva
(Yuste/Genser/Herrman, 2021, 154-155).
Sin duda, el potencial transformativo de la neurotecnología supone una
mejora de las condiciones de vida a corto-medio plazo, y permite concebir la
idea de un salto en la evolución de la especie humana más a largo plazo; por
otra parte, el carácter transformativo de la naturaleza humana por parte de la
neurotecnología ha generado un debate en torno a la necesidad de crear un
marco jurídico específico, que sirva para reconocer y amparar un nuevo
catálogo de derechos humanos que llevan la etiqueta de “neuroderechos”7.

5
La primera alusión a los neuroderechos la hicieron J. Sherrod Taylor, J. Anderson Harp y Tyron
Elliot en un artículo sobre la creciente colaboración entre neuropsicólogos y neuroabogados
titulado así precisamente: “Neuropsychologists and neurolawyers”, en Neuropsychology, vol 5
(4), October 1991, pp. 293-305. Sin embargo, han sido Marcello Ienca y Roberto Andorno quienes,
en puridad, se han referido expresamente al término “neuroderechos” en un artículo titulado:
“A New Category of Human Rights: Neurorights” (2017). Disponible en
http://blogs.biomedcentral.com/bmcblog/2017/04/26/new-category-human-rights-neurorights/.
Última consulta: 28 de abril de 2022.
6
La neurociencia adquirió carta de naturaleza en el Congreso de San Francisco titulado:
“Neuroethics: Mapping the Field”, celebrado entre los días 13 y 14 de mayo; cfr., Marcus 2002.
7
En el apartado XXVI de la Carta de Derechos Digitales (que no tienen carácter normativo, pero que
sí posee un objetivo prospectivo respecto a la aplicación e interpretación de los derechos en el
(…)
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

196 FERNANDO H. LLANO ALONSO

Es fácil imaginar las múltiples ventajas que ofrecen las neurotecnologías


aplicadas a las ciencias de la salud. Pensemos, por ejemplo, en el interfaz
cerebro-ordenador (cuyas siglas en inglés son BCI: brain-computer interface) un
sistema de comunicación que monitorizan la actividad cerebral y permiten
accionar el dispositivo de control de mecanismos que permiten interactuar a
personas con discapacidades o enfermedades degenerativas que reducen o
impiden su motricidad (De Asís, 2014, 35-36).
Ahora bien, si bien es cierto que hay un anverso en el desarrollo de la
tecnología, por ejemplo, en su capacidad para tratar patologías neurológicas, no
puede soslayarse que hay la neurotecnología presenta también un reverso, ya
que puede ser útil para otros fines completamente espurios y lesivos de los
derechos humanos, como sucede con en el control mental del enemigo en el
ámbito militar, con la tortura a los prisioneros de guerra para la extracción de
información, o con cualquiera de los otros supuestos en los que, según los
teóricos del Derecho penal del enemigo (Feindstrafrecht), estuviera justificada la
legalización del uso de la neurotecnología para injerir en la voluntad de quienes
no merecieran ser tratados como personas, sino como enemigos de la sociedad
(Jakobs /Polaino Orts, 2009).
Pero sin llegar siquiera a plantearnos escenarios tan extremos en la
utilización de la neurociencia como los que se acaba de mencionar, el acceso a la
información almacenada en el cerebro humano podría plantear dilemas
ético-jurídicos también en el ámbito de las relaciones laborales; en este sentido,
cabría preguntarse qué sucedería si un algoritmo de contratación discriminara a
un posible empleado de una empresa porque interpretara mal sus datos
cerebrales pues, a fin de cuentas, los algoritmos son capaces de desarrollar
prejuicios que imitan a los que tenemos los seres humanos, como la raza o el
género (Yuste/Genser/Herrman, 2021, 159).
En cualquiera de los casos anteriormente referidos se demuestra que la
neurotecnología puede ser objeto de abuso intencionado o accidental por parte
de quienes recurren a ella, ya sea con una finalidad terapéutica o

entorno digital del futuro inmediato) se enuncian los fines a los que se orientan los derechos
digitales en el empleo de las neurotecnologías (fines que algunos consideran directamente como los
cinco neuroderechos fundamentales): a) garantía del control de cada persona sobre su propia
identidad; b) garantía de la autodeterminación individual, soberanía y libertad en la toma de
decisiones; c) asegurar la confidencialidad y seguridad de los datos obtenidos o relativos a sus
procesos cerebrales y el pleno dominio y disposición de los mismos; d) regular el uso de interfaces
persona-máquina susceptibles de afectar a la integridad física o psíquica; e) asegurar que las
decisiones y procesos basados en neurotecnologías no sean condicionadas por el suministro de
datos, programas o informaciones incompletos, no deseados, desconocidos o sesgados. La
información oficial sobre este documento puede consultarse en https://www.lamoncloa.gob.es/
presidente/actividades/Documents/2021/140721-Carta_Derechos_Digitales_RedEs.pdf
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 197

malintencionada. En la era de la revolución tecnológica, marcada por la


omnipotencia y la omnipresencia de la IA, no pueden darse por ciertos ni el
derecho a la identidad personal (entendida como el conjunto de atributos y
características que permiten individualizar a la persona en la sociedad), ni el
libre albedrío, ni la privacidad mental, ni el acceso equitativo al
neuropotenciamiento, ni la protección contra sesgos y discriminaciones
ocasionadas por el uso erróneo o interesado de la neurociencia. Por eso, al hilo
de la necesidad de proteger los derechos y las libertades de los ciudadanos ante
el posible uso invasivo y perverso de las neurotecnologías, se ha abierto un
debate en torno a la conveniencia de crear un marco jurídico para la
salvaguarda de los neuroderechos. En este sentido, esta iniciativa
neurocientífica iniciada por Rafael Yuste y la Neurorights Foundation ha tenido
especial eco en Chile, hasta el punto de que ha dado lugar a la tramitación de
una enmienda constitucional (Ley 21.383, D.O. 25-10-2021) para reformar el
artículo 19,1 de la Constitución Política de Chile e implementar leyes para
definir y delimitar las condiciones bajo las cuales podría realizarse el
tratamiento de los datos cerebrales, y para redactar un proyecto de ley de
neuroprotección de la identidad mental, a modo de reconocimiento como
nuevo derecho humano del cerebro y su funcionalidad como núcleo del libre
albedrío, pensamientos y emociones que caracterizan y diferencian a la especie
humana (López Hernández, 2021, 95).
En todo caso, como se ha puesto de manifiesto en este nuevo proceso
constituyente de Chile, las discusiones mantenidas a propósito de la aprobación
de este proyecto de ley sobre los neuroderechos han servido para que se
visibilice el argumentario de quienes, por una parte, consideran prioritario el
reconocimiento de una nueva generación de derechos, es decir, una cuarta
generación de derechos humanos, encuadrados en la categoría de los derechos
digitales, y quienes, por otra parte, entienden que legislar en torno a un
contexto tecnológico-científico resulta aún tan prematuro, especulativo e
hipotético que sería contraproducente en términos jurídico-políticos, en la
medida en que, con el reconocimiento de un catálogo tan reducido y específico
de neuroderechos, se estaría contribuyendo a la inflación y la relativización de
los derechos humanos que ya están consolidados, y que solo necesitarían una
reformulación que los actualizase y adaptase al momentum de transformación
digital que está experimentando la sociedad tecnológica y, particularmente, el
mundo del Derecho.
Frente a las posiciones antagónicas mantenidas por los apocalípticos y los
integrados de cara a las Nuevas Tecnologías Digitales, hay quienes apelan a la
“responsabilidad tecnológica”, entendida como una actitud reflexiva y crítica
de los nuevos problemas que suscitan la ciencia y la tecnología, y ante los que ni
la democracia, ni la ciencia, ni el Derecho, ni las Humanidades pueden
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

198 FERNANDO H. LLANO ALONSO

permanecer impasibles, sobre todo por su repercusión en el alcance y ejercicio


de los derechos humanos (Pérez Luño, 2012, 42-43).
3. LA NUEVA GENERACIÓN DE DERECHOS DIGITALES Y EL
RECONOCIMIENTO DE LOS NEURODERECHOS
Desde su origen y desarrollo a partir de la década de los ´90 del pasado
siglo, Internet se ha convertido en la primera red de comunicación del mundo y,
aunque son múltiples las múltiples ventajas y utilidades que nos ofrece en lo
relativo al acceso a una ingente cantidad de datos e información, tampoco
conviene soslayar la transformación que está experimentando el modelo de
espacio digital y que, por motivos de ciberseguridad y de intereses del mercado
global, no solo está modificando el carácter abierto, libre y neutral con el que
fue creada Internet, sino que también está afectando a la privacidad y a la
identidad de sus millones de usuarios (los social Big Data establecen patrones
de conducta y realizan un perfil de sus millones de usuarios mediante la
recopilación masiva no solo de sus datos personales, sino también de sus
creencias y emociones). A este respecto, comenta Moisés Andrés Barrio que
gran parte de nuestra vida cotidiana ha migrado hasta tal punto a Internet que
se ha convertido en un medio representativo de nuestra cultura, mientras que
nosotros, los usuarios, “hemos transformado nuestras identidades” (Andrés
Barrio, 2021, 206).
Habitualmente hacemos mención a Internet de todas las cosas para
referirnos al acceso a una cantidad de datos e información tan
inconmensurables que suponen la puesta a disposición de los usuarios de unas
fuentes ilimitadas de conocimiento sin precedentes en la historia. Sin embargo,
la transformación digital también debiera servir para garantizar la mejora de la
calidad de la democracia y el ejercicio de los derechos de los ciudadanos. En
otras palabras, no basta con concebir Internet como un universo artificial por el
que circulan millones de datos, sino también como un espacio en el que se nos
garantiza la protección y el libre ejercicio de nuestros derechos en el ámbito
digital.
A raíz de la repercusión de la revolución en el mundo del Derecho ha
emergido una nueva generación de derechos cuyo objetivo principal consiste en
la corrección de los problemas y perjuicios causados a la ciudadanía debidos a
la falta de una regulación apropiada capaz de establecer un marco jurídico
específico para el uso, el despliegue y el desarrollo las tecnologías digitales e
Internet, la IA, la robótica y las tecnologías conexas; se trata de los derechos
digitales, unos derechos asentados conceptualmente sobre
un soporte virtual, no analógico, donde el cuerpo se volatiliza para
dar paso a una estructura distinta de derechos que han de buscar la
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 199

seguridad de la persona sobre el tratamiento de los datos y la


arquitectura matemática de los algoritmos (Andrés Barrio, 2021, 209).
El artículo 18.4 de la Constitución española, inspirándose en el art. 35 de
la Constitución portuguesa de 1976, supuso una novedad al establecer el límite
legal al uso de la informática para garantizar el honor y la intimidad de los
ciudadanos; a partir de este precepto constitucional se desarrollaría un cuerpo
normativo y una importante línea jurisprudencial a propósito de la protección
de datos. Sin embargo, la protección de datos no es suficiente ni agota todas las
opciones para satisfacer el necesario establecimiento de un marco de garantía y
protección efectivo de los derechos y las libertades de los ciudadanos en la era
digital. A este propósito responde, precisamente, la Ley Orgánica 3/2018, de 5
de diciembre, de Protección de Datos Personales y garantía de los derechos
digitales, y más recientemente, la Carta de Derechos Digitales (CDD) que, pese
a carecer de fuerza normativa, tiene el valor de servir de referencia para una
futura ley reguladora de los derechos digitales. Entre los derechos reconocidos
por la CDD se encuentran los derechos ante la IA y la neurociencia (lo cual
podría suponer una vía abierta para el futuro reconocimiento de los
neuroderechos).
A propósito del reconocimiento de los neuroderechos, sobre todo a partir
de la convergencia del desarrollo de las neurotecnologías y de su vinculación
directa de los cerebros humanos con la IA, Rafael Yuste y Sara Goering han
expresado su preocupación porque el desarrollo de los dispositivos
comercializados por las empresas neurotecnológicas en los mercados de consumo
general se produzca de acuerdo con unos principios éticos, y según unos
mínimos estándares de calidad y buena praxis que al implantarse no resulten
invasivos y presenten el menor riesgo posible para las personas. En este sentido,
en relación con la conexión entre el cerebro humano y las máquinas dotadas de
IA, bien a través de neuroimplantes o de interfaces, estos autores (junto a otros
miembros del Grupo Morningside)8 plantean cuatro esferas de preocupación
(four concerns) en las que se pone de manifiesto la necesidad de que el desarrollo y
la aplicación de las nuevas neurotecnologías, como la estimulación cerebral
profunda y la interfaz cerebro-computadora, se lleve a cabo conforme a los
principios éticos de la neurotecnología y de la IA, de modo que se pueda
garantizar el respeto y la preservación de la privacidad, la identidad, la agencia y
la igualdad de las personas (Yuste/Goering, 2017, 159-163).
La primera preocupación de estos autores se debe a los efectos que la
interacción entre la neurociencia y la IA pueden causar en la salvaguarda de la

8
El Grupo Morningside está formado por neurocientíficos, neurotecnólogos, médicos,
especialistas en ética e ingenieros de inteligencia artificial.
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

200 FERNANDO H. LLANO ALONSO

privacidad y el respeto al consentimiento de los pacientes que no deseen


compartir sus datos neuronales. En este sentido, proponen que se regule la
venta, la transferencia comercial y el uso de datos neuronales (una regulación
parecida a la US National Organ Transplant Act de 1984). Otra medida de
protección de la privacidad del usuario de las neurotecnologías podría ser la
aplicación de técnicas basadas blockchain y smart contracts que propician, sin la
intermediación de una autoridad centralizada, una información transparente
sobre cómo se están administrando los datos de la actividad neuronal de los
individuos.
El segundo motivo de inquietud de Rafael Yuste y Sara Goering plantea
la hipótesis de que las neurotecnologías y la IA lleguen a alterar el sentido de la
identidad y agencia racional de las personas, pudiendo incluso subvertir la
propia naturaleza del yo y la responsabilidad moral y jurídica del individuo. En
efecto, de confirmarse la pérdida de nuestro sentido de la agencia y de la
identidad (por ejemplo, a través de dispositivos de control neuronal que
monitoricen a distancia el pensamiento o mediante la interconexión de varios
cerebros que trabajen a la vez en colaboración, los individuos podrían terminar
comportándose de una forma ajena a su verdadera personalidad, hasta el punto
de que ni ellos mismos podrían reconocerse en sus actos. Como posible solución
a esta segunda preocupación, Yuste y Goering proponen la inclusión de
cláusulas protectoras de los neuroderechos en los tratados internacionales, y la
creación de una Convención internacional para definir las acciones prohibidas
relacionadas con la neurotecnología y la IA, similar a las prohibiciones
enumeradas en la Convención Internacional para la Protección de Todas las
Personas contra las Desapariciones Forzadas (que entró en vigor el 23 de
diciembre de 2010).
La tercera razón de desasosiego de los autores vinculados al Grupo
Morningside tiene que ver con el aumento de capacidad cognitiva y el
neuropotenciamiento que actualmente es una de las puntas de lanza del
transhumanismo tecnológico. En este sentido, Laurent Alexandre, prestigioso
médico y neurobiólogo transhumanista francés, ha advertido que la única
salida que le queda a la humanidad ante el inevitable advenimiento de la
singularidad tecnológica es “coevolucionar” con las máquinas y potenciar
tecnológicamente el cerebro humano para adaptarlo a la IA fuerte que, según su
pronóstico, determinará el futuro posthumano (Alexandre, 2018, 291 y ss). Ante
este panorama, Yuste y Goering consideran probable que el nivel de presión
para adoptar neurotecnologías potenciadoras llegue a tal grado que termine
cambiando los usos y las reglas sociales desde un punto de vista ético-político, e
incluso que genere problemas de acceso equitativo y nuevas formas de
discriminación (fractura tecnológica). Por eso, ambos autores proponen
establecer límites ético-jurídicos al desarrollo de las neurotecnologías y definir
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 201

los contextos en los que se pueden aplicar (como sucede, por ejemplo, con la
edición genética realizada en seres humanos), pero sin llegar a imponer
prohibiciones absolutas a ciertas tecnologías (como las que estimulan y
potencian al cerebro humano) que solo servirían para empujarlas a la zona
oscura de la clandestinidad.
El cuarto motivo de preocupación compartido por Rafael Yuste y Sara
Goering es el de los sesgos o prejuicios (bias) que tan influyentes resultan, por
ejemplo, en los procesos selectivos o resolutivos en los que se recopilan
infinidad de datos personales de trabajadores mediante técnicas de data mining
y de discriminación algorítmica que se ponen al servicio de los responsables de
optimizar los recursos humanos de una empresa (workforce analytics). A este
respecto, conviene tener en cuenta que, como advierte Serena Vantin, el uso de
instrumentos algorítmicos en el ámbito laboral y empresarial no se limita solo a
las técnicas de workforce analytics, sino que también se extiende a la
digitalización de los procesos productivos, a los servicios de gig economy (una
fórmula de contratación online y absolutamente flexible para el empleador y el
empleado que se presenta como alternativa al modelo de contrato fijo
tradicional), a las nuevas técnicas de vigilancia de los empleados por parte de
los empresarios en horario de trabajo, etc. (Vantin, 2021, 96-97).
Como vemos, el enorme potencial que ofrece el uso de los algoritmos
para facilitar el acceso de la ciudadanía a la Administración pública más
transparente y eficaz, para garantizar nuestra seguridad y el ejercicio de
nuestros derechos, o para impulsar la modernización de las empresas, tiene
también un reverso oscuro en el que los riesgos de discriminación digital tanto
en la red, como en los sistemas de IA, robótica y tecnologías anexas (Pietropaoli,
2019, 379-400). Por otra parte, los sesgos discriminatorios, los prejuicios
contrarios a la dignidad y al derecho a la igualdad y los errores algorítmicos no
perjudican uniformemente a toda la población, sino que suelen afectar
especialmente a los grupos más vulnerables y a los individuos más
desfavorecidos dentro de la sociedad (Vantin, 2021, 96).
A propósito de los sesgos discriminatorios, Yuste y Goering recomiendan
la participación de los usuarios probables -y especialmente de los que se
encuentren marginados- en el diseño de algoritmos y dispositivos desde su
primera fase de desarrollo tecnológico precisamente para evitar situaciones de
sesgos discriminatorios en los sistemas de toma de decisión algorítmica
(algorithmic decision making). En los últimos años, algunos estudiosos de los
procesos de toma de decisión algorítmica están investigando sobre el modo de
revertir el uso de algoritmos selectivos en un sentido equitativo, y de acuerdo
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

202 FERNANDO H. LLANO ALONSO

con la garantía de transparencia contemplada en la estrategia digital europea 9:


me refiero a los Critical Data Studies (Lettieri, 2020, 54-55).
Una buena síntesis del actual debate doctrinal en torno a la necesidad de
construir una teoría de neuroderechos como derechos humanos nos la
proporciona Rafael de Asís en su libro Derechos y tecnologías (2022a). Según se
pone de relieve en este estudio monográfico, hay una incipiente línea doctrinal
iberoamericana en la que se propugna el reconocimiento de una nueva
generación de derechos humanos, a partir de la proclamación de los cinco
neuroderechos10 propuestos por Rafael Yuste, Jared Genser y Stephanie
Herrmann (2021, 160-161).
En este sentido, una postura representativa de esta doctrina favorable al
reconocimiento de la vertiente ético-jurídica de los neuroderechos y a su
incorporación intrasistemática en el ordenamiento jurídico, mediante su
positivación y reconocimiento como pertenecientes a una cuarta generación de
derechos humanos, es la mantenida por Enrique Cáceres Nieto, Javier Díaz
García y Emilio García García (2021, 79-80). Esta línea doctrinal favorable al
reconocimiento de los neuroderechos también cuenta con un marco
institucional de softlaw regional: la Declaración del Comité Interamericano sobre
“Neurociencia, Neurotecnologías y Derechos Humanos: Nuevos Desafíos
Jurídicos para las Américas”11, y sigue la misma estela trazada anteriormente

9
Dentro del marco de las instituciones europeas existen algunos estudios sobre el procedimiento
de toma de decisiones algorítmicas; véanse, por ejemplo, a este respecto: “Understanding
Algorithmic Decision-making. Opportunities and Challenges”, 2019, disponible en:
https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624261/EPRS_STU(2019)624261_E
N.pdf; “A Governance ramework for Algorithmic Accountability and Transparency, 2019,
disponible en: https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624262/
EPRS_STU(2019)624262_EN.pdf; sobre la estrategia digital “Shaping Europe´s Digital Future”,
2020, disponible en:, https://ec.europa.eu/info/sites/default/files/communication-shaping-
europes-digital-future-feb2020_en_4.pdf
10
Los cinco neuroderechos propuestos por Yuste, Genser y Hermann son: 1.- el derecho a la
identidad, o la capacidad de controlar nuestra integridad física y mental ; 2.- el derecho a la
libertad de pensamiento y al libre albedrío para decidir cómo actuar; 3.- el derecho a la
privacidad mental, o la protección de nuestro pensamiento contra la divulgación; 4.- el derecho a
un acceso justo para el aumento del potencial de la mente, es decir, la capacidad de garantizar
que los beneficios de las mejoras de la capacidad sensorial y mental a través de la
neurotecnología se distribuyan de forma justa en la población; y 5.- el derecho a protección
contra los sesgos algorítmicos, o la garantía de que las tecnologías no introduzcan prejuicios.
11
Esta Declaración se aprobó tras la reunión mantenida por el Comité Jurídico Interamericano
entre los días 2-11 de agosto de 2021, dentro del 99º periodo ordinario de sesiones, y se publicó el
4 de agosto de ese mismo año. El texto está disponible en la siguiente dirección:
https://kamanau.org/wp-content/uploads/2021/08/Neuro-derechos-doc-641-rev-1-esp-DN-
ROA.pdf Última consulta: 28 de abril de 2022.
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 203

por una doctrina favorable a la aprobación de una Declaración Universal de los


Neuroderechos Humanos (Sommaggio/Mazzocca/Gerola/Ferro, 2017, 27-45).
Otros autores son más remisos a la propuesta de ampliar el catálogo de
derechos humanos, alegando que con la profusión de los mismos se generan
problemas de indeterminación e incoherencia en su fundamentación, además
de un posible debilitamiento de su eficacia al solaparse con derechos humanos
de generaciones anteriores. En este sentido, resulta elocuente la posición de
Francisco Laporta contraria a rebajar el rigor en el proceso de reconocimiento de
nuevos derechos humanos (como los relacionados, precisamente, con las
Nuevas Tecnologías); a este respecto señala este autor:
Me parece razonable suponer que cuanto más se multiplique la
nómina de los derechos humanos menos fuerza tendrán como
exigencia, y cuanto más fuerza moral o jurídica se les suponga más
limitada ha de ser la lista de derechos que la justifiquen
adecuadamente (Laporta, 1987, 23).
A propósito de la superposición de los neuroderechos en relación a los
derechos y las libertades consagrados en la Declaración Universal de los
Derechos Humanos (DUDH), hay autores que sostienen que su reconocimiento
no se justifica si los bienes jurídicos que pretenden garantizar los
neuroderechos: la intimidad, la privacidad, la libertad, la dignidad humana y el
acceso equitativo a los recursos científicos, ya han sido reconocidos y
garantizados antes tanto en la DUDH, como en los pactos y convenios
internacionales posteriores (Morente Parra, 2021, 273; en sentido análogo,
Borbón/Borbón/Laverde, 2020, 146).
En una posición intermedia dentro de este debate sobre la oportunidad
del reconocimiento de los neuroderechos se mantiene Rafael de Asís, a quien le
produce perplejidad el hecho de que en el proceso de incorporación de las
NN.TT. en el ámbito educativo se esté dejando de lado e incluso rechazando la
educación en derechos humanos (la necesaria formación tecnológica de
nuestros estudiantes no solo no es incompatible, sino complementaria con la
formación en Humanidades y la transmisión de la cultura de los derechos
humanos12. En cualquier caso, concluye este autor, la aplicación a las cuestiones

12
A propósito de la importancia de la educación en los derechos humanos, Manuel Atienza señala
que aunque el conocimiento y la educación no bastan para terminar por sí solos con el mal en el
mundo, sin embargo, resultan imprescindibles: “la lectura de los textos que recogen las
declaraciones de derechos humanos, la reflexión en torno a los diversos problemas que plantean
y, en general, la incorporación de esa materia (teórica y práctica) a los currículos de las escuelas y
de las universidades y su presencia en los foros de discusión pública no van a lograr
probablemente un significativo efecto de persuasión en los grandes poderes (en parte públicos
pero, sobre todo, privados) de este mundo, que son los principales responsables de que esos
(…)
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

204 FERNANDO H. LLANO ALONSO

sociales de las NN.TT., en general, y de las neurotecnologías, en particular, “es


una realidad que conviene afrontar” (De Asís, 2022a, 148-152; 2022b, 148).
Por consiguiente, más que de una repetición de derechos con distinta
etiqueta, se trataría de hacer un ejercicio de concreción dentro de la fase de
especialización de los derechos humanos que, si son contemplados desde una
perspectiva histórica, es decir, en su dimensión diacrónica o evolutiva a lo largo
del tiempo, de acuerdo con la tesis de la mutación histórica de los derechos
humanos (Wandel der Grundrechte), no deberían convertirse en conceptos
fosilizados dentro de un catálogo de derechos y libertades intemporales
incorporados a una lista con numerus clausus. Como ya advirtiera en la década
de los años 80 del pasado siglo Antonio E. Pérez Luño, al hilo de la concepción
generacional de los derechos humanos, los derechos y libertades de nueva
generación se presentan como una respuesta al proceso de erosión y
degradación que aqueja a los derechos fundamentales ante determinados usos
de las NN.TT. (problema al que la doctrina anglosajona se refiere con el término
liberties’ pollution). Las consideraciones que hacía Pérez Luño, a propósito de la
“sociedad de la información” y del interés prioritario que tenía la regulación
jurídica del uso de la informática, bien podrían ampliarse hoy a la sociedad
tecnológica y a la necesidad de establecer un marco jurídico en torno al uso de
las nuevas tecnologías NBIC y el desarrollo de la IA y la robótica avanzada
(Pérez Luño, 1987, 58).
En el siguiente epígrafe me ocuparé especialmente de la identidad
personal (conjunto de rasgos específicos que hacen única a una persona) ante
los retos que le depara el metauniverso digital. El concepto de identidad
adquiere pleno sentido cuando se complementa con nuevos derechos y
libertades, como el derecho al libre desarrollo de la personalidad, la integridad
mental y la libertad cognitiva (la libertad de controlar la propia conciencia); por
cierto, una libertad, esta última, estrechamente vinculada con la clásica la
libertad de pensamiento (Sententia, 2004, 222), aunque adaptada a las
circunstancias del siglo XXI, y que ha sido definida por Richard G. Boire como
“la quintaesencia de la libertad” (the quintessence of freedom) (Boire, 2001, 8).

derechos no estén garantizados para una inmensa mayoría de los habitantes del planeta. Pero
todo ello sí que puede contribuir a que mucha gente adquiera conciencia de cuáles son los
derechos que legítimamente puede reivindicar (y de los deberes que debe asumir) y de cuáles
son las causas que impiden que los mismos puedan realizarse. Y si esa conciencia moral
esclarecida se generalizase suficientemente, sería muy probable que se convirtiera también en
una fuerza socialmente irresistible” (Atienza, 2020, 152).
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 205

4. CUANDO LA PERSONA SE CONVIERTE EN UN AVATAR: EL NOVO


HOMO LUDENS EN EL METAUNIVERSO DE INTERNET
Se ha hecho anteriormente referencia a las esperanzas abiertas por las
nuevas neurotecnologías, como la estimulación cerebral profunda (DBS) y el
interfaz cerebro-computadora (BCI), en la prevención, el tratamiento y la
curación de enfermedades como el párkinson, la epilepsia, el ELA o el trastorno
obsesivo consultivo (TOC), pero tampoco deben soslayarse los efectos
contraproducentes que esos dispositivos pueden tener en la identidad, la
autenticidad y la autonomía de la persona. Para bien o para mal, lo cierto es que
estos dispositivos son capaces de interferir en la autoconciencia y alterar la
agencia de los individuos en los que se implantan (Goering/Brown/Klein, 2021).
Al invocar el señorío de nuestra mente como un derecho innato y no
adquirido, también estamos apelando a la inalienabilidad de nuestra identidad
personal, a la inviolabilidad de nuestra integridad física y mental, a la
preservación de nuestra autenticidad, a la capacidad de decidir libremente
nuestra actuación (facultad que también se conoce como “control agencial”), y a
la autonomía de nuestra voluntad (Bublitz, 2013, 7-11).
El problema aparece cuando el individuo pierde inconscientemente el
control de su autonomía debido a factores o agentes externos que interfieren sus
facultades mentales, nublan su juicio y dirigen su conducta (Bublitz/Merkel,
2009, 371). Esta manipulación inadvertida del individuo agente rompería la
continuidad psicológica mediante la introducción de un hiato entre sus
preferencias actuales del agente y las que tenía arraigadas en su personalidad
cuando era un sujeto psicológicamente autónomo hasta que se produjo dicha
injerencia desde el exterior (Mele, 1995, 187; Hagi, 1998, 108 ss.; Kapitan, 2000,
81-104).
La línea de separación entre el hábito y la dependencia del phono sapiens
(el novo homo ludens) respecto a los dispositivos electrónicos y digitales que éste
utiliza en su vida cotidiana es tan tenue a veces que no resulta fácil
diferenciarla, y la aparente libertad de elección de usar la yema de los dedos
sobre la superficie de la pantalla de su ordenador portátil, teléfono móvil o
tablet no es más que “una selección consumista” (Han, 2021, 24).
En esos intervalos diarios de ausencia del hombre de su realidad, en ese
sustraerse de sus circunstancias y de las cosas del mundo real, y en su poder de
retirada virtual y provisoriamente del mundo y meterse dentro de sí, se
produce un fenómeno característico del ser humano del que carecen otros
animales: el “ensimismamiento” (Ortega, 2006a, 536). Para Ortega y Gasset este
acto de ensimismamiento, esta retirada estratégica a sí mismo, es un privilegio
con el que el hombre consigue de liberarse transitoriamente de las cosas
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

206 FERNANDO H. LLANO ALONSO

precisamente a través del dominio de la técnica, cuya misión inicial consiste,


precisamente, en “dar franquía al hombre para poder vacar a ser sí mismo”, es
decir, crear un espacio extranatural de ocio (otium) que se abre al hombre para
que éste pueda ocuparse de algo más que de cubrir sus necesidades más
elementales, como imaginar, inventar y crear, tanto en el campo de las ciencias
como en el de las artes (Ortega, 2006b, 574-575).
Al igual que Sartori denunciaba en Homo videns, la influencia que los
medios de comunicación, y de modo especial la televisión, ejercía sobre las
masas, un cuarto de siglo después nos encontramos con una situación parecida
de enajenación por parte del novo homo ludens, con la única salvedad de que
ahora son las neotecnologías NBIC bajo el dominio de las Big Tech, que se hallan
en el contorno de ese individuo, quienes dirigen y controlan sus hábitos vitales
e incluso su voluntad como si fuese una marioneta movida por los metadatos y
los algoritmos que configuran el inescrutable universo de Internet. Esta
situación aproxima al hombre a la alteración característica de la vida animal y le
aleja de la autoconsciencia y del ensimismamiento humanos. Ortega lo explica
primorosamente en Ensimismamiento y alteración (1939):
Decir, pues, que el animal no vive desde sí mismo sino desde lo otro,
traído y llevado y tiranizado por lo otro, equivale a decir que el animal
vive siempre alterado, enajenado, que su vida es constitutiva alteración
(Ortega, 2006b, 535).
A propósito de la alienación y la alteración del hombre contemporáneo,
advierte Sartori que la nuestra es una época extraordinaria en la que quienes
aún conserven la capacidad crítica de los seres pensantes tienen el deber de
denunciar la irresponsabilidad e inconsciencia de las cada vez mayores
legiones de vendedores de humo que olvidan que vivimos y
viviremos no es “naturaleza” (una cosa dada que está ahí para
siempre), sino que es de cabo a rabo un producto artificial construido
por el homo sapiens. ¿Se podrá mantener sin su apoyo? No,
seguramente no. Y si hacemos caso a los falsos profetas que nos están
bombardeando con sus multi-mensajes, llegaremos rápidamente a un
mundo virtual que se pone patas arriba en una “catástrofe real”
(Sartori, 2018, 197).
La expansión del espacio digital más allá de los límites imaginables por
Giovanni Sartori hace más de veinte años no solo ha difuminado la tenue línea
de separación entre la naturaleza y la realidad virtual que ya entonces discernía
con dificultades el filósofo y politólogo florentino, sino que en algunos ámbitos
está absorbiendo incluso a la identidad humana, me refiero al mundo virtual
del metaverso, de la realidad en tres dimensiones (3D) aumentada capacidad
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 207

5G, la Inteligencia Artificial y el inminente desarrollo del Internet de los


sentidos que pretende usar el cerebro como interfaz, modular con
microimplantes el mundo sonoro que nos rodea, personalizar el sabor de los
alimentos, o incluso recrear (o crear ex novo) aromas y otros sentidos digitales
como el tacto.
La realidad humana parece haberse visto superada por la ficción
mecánica del mundo digital cuando ya cabe concebir la amistad y hasta el
enamoramiento virtual con una máquina desarrollada mediante IA, o con un
personaje de fantasía o avatar diseñado virtualmente; esta es, por cierto, una
tendencia creciente en Japón, como demuestra el curioso, o más bien bizarro
caso del Sr. Akihito Kondo, casado con una célebre cantante manga llamada
Hatsune Miku con millones de fans, algo que no tendría nada de peculiaridad
salvo por el hecho de que se trata de un holograma que tiene “existencia”
virtual como Vocaloid (o cantante virtual) en un dispositivo denominado
Gatebox que no solo le da vida como si fuera un tamagotchi sentimental, sino
que ha llegado a formalizar el matrimonio entre un hombre y un holograma en
un documento sin validez jurídica. A propósito de esta confusión entre la
realidad humana y la ficción digital, algún estudio reciente sobre los efectos
ético-jurídicos de la disociación humana ha advertido que cuando la identidad
humana trata de conectar con un fetiche cibernético entonces es señal de que
inexorablemente existe una propensión a descender al terreno de lo virtual y a
olvidar la consciencia de la identidad humana en el continente digital (algo
parecido a entrar en un trance que nos sumergiera en un sueño digital inducido
tecnológicamente) (Curcio, 2020, 56).
Al margen del espejismo que produce en la psique humana la realidad
virtual, y de la interacción entre la figura humana perfilada y reproducida en el
continente digital recreado por el metaverso, los interfaces y los videojuegos
3D, lo cierto es que los humanos y las máquinas no son ontológicamente
iguales, ni pertenecen a la misma categoría: los hologramas son imágenes
tridimensionales configuradas con números y algoritmos, mientras que los
seres humanos estamos hechos de carne y hueso, ratio et emotio (Illich, 1992;
Curcio, 2020, 56).
La cada vez más tenue línea de separación entre el mundo natural-real y
el universo digital-artificial nos previene del riesgo de minusvalorar la
necesidad de preservar la identidad humana. Por eso, retomando la diatriba
sobre la oportunidad de reconocer o no los neuroderechos, parece razonable al
menos plantearse si, tal vez, ante la pérdida de conciencia de la realidad por
parte del novo homo ludens, no tendría sentido proteger al menos el primero de
esos neuroderechos, es decir, el derecho a la identidad, o la capacidad de
controlar nuestra integridad física y mental.
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

208 FERNANDO H. LLANO ALONSO

De acuerdo con el criterio de la perspectiva generacional de los derechos


humanos, cuyo catálogo no está formado por un elenco cerrado de derechos y
libertades, sino por una lista abierta a los cambios y problemas más acuciantes
que afectan al hombre contemporáneo en la era de las nuevas tecnologías
(Vašák, 1990, 297), cabría sumar una cuarta generación en la que estaría
integrado precisamente el derecho a la identidad humana. De la misma forma
que la primera generación correspondería a los derechos y libertades
individuales; la segunda, a los derechos económicos, sociales y culturales; y la
tercera a las garantías jurídicas-subjetivas fundamentales propias de la era
tecnológica; y de igual modo que cada una de esas generaciones se
correspondería con los valores-guía de la libertad, la igualdad y la solidaridad,
respectivamente (Pérez Luño, 2006, 232; 2018, 692-702), podríamos concluir que
la cuarta generación se referiría a aquellos derechos y libertades protectores de
la condición humana frente a los embates del transhumanismo tecnológico, y
cuyo principio guía sería precisamente la dignidad humana.
La cuarta generación de derechos humanos se justifica en un escenario
virtual, determinado por la IA, e integrado por recreaciones virtuales que
provocan en el internauta la alucinación de interactuar con no-cosas que ni son
ni están en la realidad física, pero que influyen cada vez más en su rutina diaria
e incluso en su conducta. La actuación del individuo en el entorno digital, por
más que sea artificial, tiene consecuencias jurídicas que le vinculan; por
ejemplo, la tecnología blockchain ha posibilitado la realización de contratos
inteligentes (smart contracts) escritos en lenguaje virtual, cuya ejecución es
autónoma y automática, a partir de unos parámetros programados, y que
ofrecen unas condiciones de seguridad, transparencia y confianza a las partes
contratantes superiores a las de los contratos tradicionales en los que el riesgo
de que haya malentendidos, falsificaciones o alteraciones es mayor. Esta misma
vinculatoriedad de los contratos y negocios jurídicos suscritos en el espacio
digital se constata en el creciente campo de las criptomonedas (no exentas del
riesgo de la especulación y de la consiguiente devaluación) y de los NFT
(activos digitales no fungibles), creados con tokens criptográficos al igual que las
criptomonedas para determinar su autoría y singularidad, y que han
revolucionado el mercado del arte digital hasta el punto de que en el último año
se han multiplicado exponencialmente sus ventas e incluso su valor (en 2021,
Jack Dorsey, cofundador de Twitter, vendió el primer tuit de la historia de su
compañía por 2.95 millones de dólares, y el artista digital Beeple vendió un NFT
en Christie´s por 69 millones de dólares).
El metaverso no es un concepto reciente, como se recordará, a principios
del presente siglo se lanzó Second Life, una plataforma multimedia en línea en la
que los usuarios creaban un avatar y construían una segunda vida digital. Con
el transcurso del tiempo, este metaverso original diseñado por la compañía
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 209

tecnológica Linden Lab se convirtió en un arquetipo de metaverso que serviría


como referencia a otros metaversos desarrollados posteriormente en la web 2.0
y en la web 3.0. En resumidas cuentas, el metaverso no se consiste en una
experiencia unitaria en un espacio digital compacto, sino en la migración de la
experiencia humana desde el mundo físico hasta numerosos mundos virtuales
en los que, como sostienen los autores de un estudio reciente sobre el futuro
marco jurídico del metaverso, la tecnología tiene la oportunidad de llevar
contenido a esos mundos de maneras nunca antes imaginadas y, con ello,
problemas y desafíos legales nunca antes contemplados
(Ara/Radcliffe/Fluhr/Imp, 2022).
La progresiva implantación del metaverso (en el ámbito de la diversión,
del comercio, de la salud y de la educación) ha generado una serie de supuestos
y novedades desconocidos hasta ahora en nuestra experiencia jurídica. Es cierto
que, en algunos casos, se podrían ajustar algunas leyes existentes para la
regulación de cuestiones novedosas planteadas por la irrupción de las Nuevas
Tecnologías; sin embargo, si se considera la inconmensurabilidad del espacio
abierto en el que se expande el metaverso, cabe deducir que la adaptación legal
y jurisprudencial a esa nueva realidad virtual que es jurídicamente vinculante
no será fácil, en la medida en que las leyes existentes resultan ya insuficientes
para regular los problemas causados en el espacio digital por un metaverso que
ha roto las costuras de los sistemas jurídicos existentes.
En efecto, como señalan los autores del artículo sobre la regulación del
metaverso anteriormente citado, el alcance de todas las leyes y regulaciones que
podrían estar implicadas en un metaverso es prácticamente ilimitado y puede
generar innumerables problemas legales. Así, por ejemplo, en materia de
propiedad intelectual, la creación de nuevos tipos de NFT ha causado no pocas
controversias y consultas legales respecto al alcance del derecho a utilizar el
contenido en poder del propietario del NFT (en la praxis judicial más reciente la
mayoría de las reclamaciones relativas al contenido del metaverso afectan a los
derechos de autor, marcas comerciales y derechos de publicidad). Por otra
parte, el uso y la explotación de los derechos de propiedad intelectual
previamente licenciados o adquiridos en el metaverso plantean cuestiones
novedosas para los licenciatarios y adquirentes en torno a la amplitud y el
alcance de los derechos que han obtenido en virtud de acuerdos que pueden
haber precedido durante mucho tiempo a Internet, y en menor medida al
metaverso.
La problemática de los proyectos metaversos se extiende también a otras
áreas legales, como, por ejemplo, las de la intimidad y la ciberseguridad.
En relación con la garantía de la privacidad en el proceso de recopilación,
uso y transmisión de datos personales, los metaversos tienen capacidad para
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

210 FERNANDO H. LLANO ALONSO

recopilar una información muy diversa que puede ir desde la información


básica de identificación hasta recabar datos sobre el movimiento y las
actividades del usuario en el metaverso. A este respecto, por un lado, se va
evidenciando cada vez más la necesidad de aprobar una legislación dedicada
precisamente a la protección de la intimidad en el ámbito del metaverso e
incluso, junto a la oportunidad de contar con una jurisdicción especializada en
Derecho digital e IA jurídica; por otro lado, también los creadores y
desarrolladores de los proyectos metaverso deberían considerar la
implementación de medidas que aseguren el cumplimiento de los requisitos
legales de privacidad y la observancia de unos mínimos estándares
ético-jurídicos en los contenidos de los metaversos (Moore, 2021).
Respecto a la cuestión de la ciberseguridad, los proyectos metaversos
plantean también problemas y cuestiones novedosas a las compañías
tecnológicas que los crean y desarrollan, sobre todo de cara a asegurar la
protección de sus sistemas de información y procesamiento de datos personales
de sus usuarios ante un eventual ciberataque (Brighi, 2021, 133-147).
En definitiva, aunque el metaverso se encuentre todavía en una fase
inicial de implantación tecnológica, a medida que vaya evolucionando y
expandiéndose su uso, tanto a nivel profesional como doméstico, es presumible
que también se incrementarán el número de incidencias y reclamaciones entre
los usuarios; precisamente por eso se hará cada vez más evidente la necesidad
de establecer un marco regulatorio del metaverso para tratar de anticipar -en la
medida de lo posible- respuestas legales a los nuevos problemas legales que
presente el metaverso (Ara/Radcliffe/Fluhr/Imp, 2022).
5. CONCLUSIÓN
El impacto que sobre los derechos y libertades produce la revolución
tecnológica 4.0 desborda el ámbito de las tres generaciones anteriores de
derechos y libertades, porque ahora el hombre contemporáneo no está solo ante
la técnica, sino que coexiste en el espacio digital con otras entidades y otro tipo
de inteligencias que no son estrictamente humanas, sino transhumanas y/o
artificiales. El escenario posthumano que se abre ante nosotros es, por ende,
más complejo e incierto que aquél que respondía al paradigma humanista y al
canon antropocéntrico en el que fue posible alumbrar una fase de esplendor
para el proyecto humanista de la modernidad, y que Norberto Bobbio definió
como “el tiempo de los derechos” (l´età dei diritti). Este nuevo escenario
posthumano nos sitúa frente grandes cuestiones y retos como la identidad
humana y el metaverso, el status jurídico de los robots, la regulación del espacio
digital, la fundamentación de una ética de la IA, la metamorfosis del Derecho y
la Justicia, en suma, nos coloca ante un mundo en el que, como advierte
Luciano Floridi, la humanidad intentará transformar un entorno artificial hostil
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 211

en una infosfera adaptada tecnológicamente en la que ésta perderá


progresivamente su protagonismo. En efecto, señala este autor, en este nuevo
habitat digital compartiremos espacio virtual “no solo con otras fuerzas y
fuentes de acción natural, animal y social, sino también y sobre todo con
agentes artificiales” (Floridi, 2022, 58).
Las revoluciones, escribía Antonio Gramsci, representan una forma de
hegemonía cultural. La revolución digital no solo ha conseguido imponerse a las
sociedades modernas como un universo cultural de referencia, sino también
como una idea dominante que todos hemos interiorizado y hecho nuestra de
algún modo. La revolución 4.0, que según Floridi se remonta a Alan Turing, nos
coloca en un contexto de metamorfosis del mundo en donde se halla en juego la
conservación de la esencia humana ante el horizonte de la singularidad
tecnológica, en el cual “la inteligencia ya no es solo una prerrogativa humana
sino también artificial y digital” (Balbi, 2022, 42).
6. BIBLIOGRAFÍA
Alexandre, Laurent (2018), La guerra delle intelligenze. Intelligenza artificiale contro
intelligenza umana, trad. it., N. Nappi, EDT, Torino.
Andrés Barrio, Moisés (2021), “Génesis y desarrollo de los derechos digitales”,
en: Revista de las Cortes Generales, 110, pp. 197-233.
Ara, Tom K.- Radcliffe, Marcos F.- Fluhr, Miguel- Imp, Katherine (2022),
“Exploring the Metaverse. What Laws will apply?”. DLA Piper-Chambers
TMT. February 22th 2022. Disponible en: https://www.dlapiper.com/en/
latinamerica/insights/publications/2022/02/exploring-the-metaverse/
Arendt, Hannah (1959) The Human Condition. A Study of the Central Dilemmas
Facing Modern Man (1958), Doubleday Anchor Books, Garden City (New
York). trad. esp., R. Gil Novales, Paidós, Barcelona.
Atienza, Manuel (2020), Una apología del Derecho y otros ensayos, Trotta, Madrid.
Balbi, Gabriele (2022), L´ultima ideologia. Breve storia della rivoluzione digitale,
Editori Laterza, Bari-Roma.
Bergson, Henri (1973), La evolución creadora, trad. esp., M. L. Pérez Torres,
Espasa-Calpe, Madrid.
Boire, Richard G. (2001). “On cognitive liberty III”, en: Journal of Cognitive
Liberties, 2, 7-22.
Borbón Rodríguez, Diego A., Luisa Borbón Rodríguez, Jennifer Laverde Pinzón
(2020), “Análisis crítico de los NeuroDerechos Humanos al libre albedrío
y al acceso equitativo a tecnologías de mejora”, en: Ius et Scientia, 6, 2,
135-161.
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

212 FERNANDO H. LLANO ALONSO

Brighi, Raffaella (2021), “Cybersecurity. Dimensione publica e privata della


sicurezza dei dati”, en: Casadei, Thomas, Stefano Pietropaoli, Diritto e
tecnologie informatiche. Questioni di informática giuridica, prospettive
istituzionali e sfide sociali, Milano, Wolster Kluwer, 135-147.
Bublitz, Jan Christoph (2013), “My Mind is Mine!? Cognitive Liberty as a Legal
Concept”, en: Hildt, E, A. Francke (eds.), Cognitive Enhancement, Berlin,
Springer, 233-264.
Bublitz, Jan Christoph, Reinhard Merkel (2009), “Autonomy and Authenticity
of Enhanced Personality Traits”, en: Bioethics 25, 6, 360-374.
Cáceres Nieto, Enrique, Javier Díaz García, Emilio García García (2021),
“Neuroética y neuroderechos”, en: Revista del Posgrado en Derecho de la
UNAM 15, julio-diciembre, 37-86.
Curcio, Renato (2020), Identità cibernetiche. Dissociazioni indotte, contesti obbliganti
e comandi furtivi, Edizioni Sensibili alle foglie, Roma.
De Asís Roig, Rafael (2014), Una mirada a la robótica desde los derechos humanos,
Instituto de Derechos Humanos “Bartolomé de Las Casas” de la
Universidad Carlos III de Madrid, Dykinson, Madrid.
— (2022a). Derechos y tecnologías, Dykinson-Departamento de Derecho
Internacional Público, Eclesiástico y Filosofía del Derecho de la
Universidad Carlos III de Madrid.
— (2022b) “Sobre la propuesta de los neuroderechos”, en: Derechos y
libertades. Revista de Filosofía del Derecho y derechos humanos, 47, en
imprenta.
Farah, Martha J (2002), “Emerging Ethical Issues in Neuroscience”, en: Nature
Neuroscience 5, 1123-1129.
Floridi, Luciano (2022), Ética dell´intelligenza artificiale. Sviluppi, opportunità, sfide,
edizione italiana a cura di M. Durante, Raffaello Cortina Editore, Milano.
Goering, Sara - Brown, Timothy - Klein, Eran (2021), “Neurotechnology Ethics
and Rational Agency”, en: Philos Compass, 10. Disponible en:
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8443241/
Hagi, Ishtiyaque (1998), Moral Appraisability. Puzzles, Proposals and Perplexities,
Oxford University Press, Oxford/New York.
Han, Byung-Chul (2021), No-cosas. Quiebras del mundo de hoy, trad. esp. J.
Chamorro Mielke, Taurus, Barcelona.
Huizinga, Johan (2010), Homo ludens, trad. esp., E. Ímaz, Alianza
Editorial/Emecé, Madrid.
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 213

Ienca, Marcello, Roberto Andorno (2017), “A New Category of Human Rights:


Neurorights”. Disponible en: http://blogs.biomedcentral.com/bmcblog/
2017/04/26/new-category-human-rights-neurorights/.
Illich, Ivan D. (1992) “L´alfabetizzazione informática e il sogno cibernético”, en:
Illich, I. D, (ed.), Nello specchio del passato, RED Edizioni, Milano.
Jakobs, Gunther, Miguel Polaino Orts (2009), Derecho penal del enemigo:
fundamentos, potencial de sentido y límites de vigencia, Bosch, Barcelona.
Kapitan, Tomis (2000), Autonomy and Manipulated Freedom, Philosophical
Perspectives, en: Action and Freedom, 14, 81-103.
Laporta San Miguel, Francisco (1987), “Sobre el concepto de derechos
humanos”, en: Doxa 4, 23-46.
Lettieri, Nicola (2020), Antigone e gli algoritmi. Appunti per un approccio
giusfilosofico, Mucchi, Modena.
López Hernández, Hernán (2021), “Neuroderecho, neuroabogado,
neurojusticia: una realidad innegable”, en: Barona Vilar, S. (ed.) Justicia
algorítmica y neuroderecho. Una mirada interdisciplinar, Valencia, Tirant lo
Blanch, 87-108.
Marcus, Steven J (2002), Neuroethics. Mapping the Field, The Dana Press, New
York.
Mele, Alfred R. (1995), Autonomous Agents. From Self-Control to Autonomy,
Oxford University Press, Oxford/New York.
Moore, Schuyler (2021). “Law in the Metaverse”, en: Forbes. Disponible en:
https://www.forbes.com/sites/schuylermoore/2021/12/22/law-in-the-
metaverse/?sh=2a431fab45d1
Morente Parra, Vanesa (2021), “La inteligencia híbrida: ¿hacia el
reconocimiento y garantía de los neuroderechos? en: Llano Alonso,
Fernando H, Joaquín Garrido Martín (ed.), Inteligencia Artificial y
Derecho. El jurista ante los retos de la era digital, Cizur Menor (Navarra),
Thomson Reuters Aranzadi, 259-277.
Ortega y Gasset, José (2006a). Ensimismamiento y alteración (1931), en: Obras
completas. Tomo V (1932/1940), Fundación José Ortega y Gasset/Taurus,
Madrid, 529-550.
— (2006b), Meditación de la técnica (1931), en: Obras completas. Tomo V
(1932/1940), Fundación José Ortega y Gasset/Taurus, Madrid, 551-605.
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

214 FERNANDO H. LLANO ALONSO

Pérez Luño, Antonio-Enrique (1987), “Concepto y concepción de los derechos


humanos: (Acotaciones a la ponencia de Francisco Laporta)”, en: Doxa, 4,
47-66.
— (2006), La tercera generación de derechos humanos, Thomson/Aranzadi,
Cizur Menor, Navarra.
— (2012), Los derechos humanos en la sociedad tecnológica, Editorial
Universitaria, Madrid.
— (2018) (12ª ed.), Derechos humanos, Estado de Derecho y Constitución (1984),
Tecnos, Madrid.
Pietropaoli, Stefano (2019), “Cyberspazio. Ultima frontera dell´inimicizia?
Guerre, nemici e pirati nel tempo della rivoluzione digitale”, en: Rivista di
Filosofia del diritto, 2, 379-400.
Sartori, Giovanni (2018), Homo videns. La sociedad teledirigida, trad. esp., A. Díaz
Soler, De Bolsillo, Barcelona.
Sententia, Wrye (2004), “Neuroethical Considerations: Cognitive Liberty and
Converging Technologies for Improving Human Cognition”, en: Annals
of the New York Academy of Science, 1013, 221-228.
Sommaggio, Paolo, Marco Mazzocca, Alessio Gerola, Fulvio Ferro (2017),
“Cognitive liberty. A first step towards a human neuro-rights
declaration”, en: BioLaw Journal-Rivista di BioDiritto, 3, 27-45.
Taylor, Charles (2020), Fuentes del yo. La construcción de la identidad moderna, trad.
esp., A. Lizón, Paidós, Barcelona-Buenos Aires-México.
Taylor, J. Sherrod, J. Anderson Harp, Tyron Elliot (1991), “Neuropsychologists
and neurolawyers”, en: Neuropsychology, 5 (4), 293-305.
Vantin, Serena (2021), Il diritto antidiscriminatorio nell´era digitale. Potenzialità e
rischi per le persone, la pubblica Amministrazione, le imprese, Wolster Kluwer,
Milano.
Vašák, Karel. (1979), Pour les droits de l´homme de la troisième génération,
Strasbourg, Institut International des Droits de l´Homme.
— (1990), “Les différents catégories des droits de l´homme”, en: A. Lapeyre,
F. De Tinguy y K. Vašák (eds.), Les dimensions universelles des Droits de
l´Homme, Unesco-Bruylant, Bruxelles, 1-11.
Warwick, Kevin (2012), Artificial Intelligence: The Basics, Routledge, London-
New York.
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]

CAPÍTULO VIII 215

— (2015), “The Disappearing Human-Machine Divide”, en: Beyond Artificial


Intelligence. The Disappearing Human-Machine Divide, J. Romportl, E.
Zackova y J. Kelemen (eds.), Cham-Heidelberg-New York-Dordrecht-
London, Springer, 1-11.
Yuste, Rafael, Sara Goering et al. (2017 November 9), “Four ethical priorities for
neurotechnologies and AI”, en: Nature, 551, 159-163.
— (2021), Yuste, Rafael, Jared Genser, Stephanie Herrmann, “It´s Time for
Neurorights”, en: Horizons. Journal on International Relations and Sustainable
Development. “The (Not So) Roaring Twenties”? Issue,18, 154-164.

También podría gustarte