Singularidad Tecnologica - Llano Alonso
Singularidad Tecnologica - Llano Alonso
Singularidad Tecnologica - Llano Alonso
es
CAPÍTULO VIII
SINGULARIDAD TECNOLÓGICA, METAVERSO E
IDENTIDAD PERSONAL: DEL HOMO FABER AL
NOVO HOMO LUDENS
1. INTRODUCCIÓN
Sostenía Ortega y Gasset en su ensayo Meditación de la técnica (1931), que
el ser humano tiene la extraña condición de ser a un tiempo natural y
extranatural; es una especie de centauro ontológico que media porción de él
está inmersa en la naturaleza, mientras que la otra trasciende de ella. Con esta
metáfora mitológica pretendía ilustrar el pensador madrileño su idea de que el
hombre no es una cosa sino una pretensión:
Cuerpo y alma son cosas, y yo no soy una cosa, sino un drama, una
lucha por ser lo que tengo que ser (Ortega y Gasset, 2006b, 571).
Para Ortega, la vida no es algo que a los hombres se les de hecho,
regalado, sino algo que ellos mismos deben hacer:
El hombre, quiera o no, tiene que hacerse a sí mismo, autofabricarse
(Ibid, 573).
Ortega apunta a una idea del hombre que en realidad va incluso más allá
de la noción antigua de homo faber, según la cual “el hombre es la medida de
todas las cosas”; el concepto moderno de homo faber reemplaza, como diría
Hannah Arendt, a las nociones clásicas de armonía y sencillez colocando en su
lugar la labor, el trabajo, la producción y la acción como elementos esenciales de
una vida activa en la que el hombre instrumentaliza el mundo, lo construye y lo
transforma con la fabricación de objetos artificiales que le resultan útiles para
realizar ese cometido. Paradójicamente, advierte la pensadora alemana, este
cambio en la mentalidad del hombre constructor moderno supuso el origen de
su derrota al privarle de los modelos que le habían servido como referencia
antes de la Era Moderna.
Quizá nada indica con mayor claridad el fundamental fracaso del
homo faber en afirmarse como la rapidez con que el principio de
1
Estudio realizado en el marco del Proyecto de I+D del Ministerio de Ciencia e Innovación de
España Biomedicina, Inteligencia Artificial, Robótica y Derecho: los Retos del Jurista en la Era Digital
(PID2019-108155RB-I00).
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]
2
Como advierte Rafael de Asís, aunque la identidad humana e identidad personal han sido muy
relevantes en el proceso de construcción de los derechos humanos, no deben confundirse: la
(…)
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]
con IA, así como la expansión del mundo virtual y la inmersión del individuo
en un metauniverso (o metaverso) en una experiencia multisensorial y
tridimensional que se disfruta mediante el uso aplicado de dispositivos y
desarrollos tecnológicos de internet, plantean innumerables interrogantes de
índole antropológico, ético, político y sociológico. Ahora bien, dada la temática
específica de este trabajo, el presente capítulo se centrará exclusivamente en
algunas cuestiones ético-jurídicas que surgen en la experiencia jurídica digital a
raíz de nuevas formas contractuales a través de la tecnología blockchain que
permiten transacciones con criptomonedas como Bitcoin, la compraventa de
activos digitales no fungibles (cuyas siglas en inglés son NFT), o la posibilidad
de realizar contratos autoejecutables (smart contracts) en los que desaparece la
intervención humana en cualquier operación, que no requieren participación
jurisdiccional, además de suponer un ahorro en gestiones burocráticas y una
automatización de las operaciones.
Además de las múltiples ventajas que la tecnología blockchain ofrece al
mundo de los negocios jurídicos y de la economía digital, conviene también
replantearse en términos iusfilosóficos los efectos producidos por la aplicación
de las Nuevas Tecnologías (NN.TT.) en el ámbito de los derechos y libertades
de los individuos (por ejemplo, en relación con la protección de datos o el
derecho al olvido). Esta circunstancia hace necesaria la implementación de un
marco jurídico digital que proporcione a los usuarios el disfrute de las
herramientas que ponga a su alcance una Inteligencia Artificial cada vez más
fuerte, pero que también sea más fiable y segura.
A propósito de las implicaciones ético-jurídicas surgidas a partir de la
interacción entre el novo homo ludens con el metauniverso de internet y la
tecnología de la IA sería oportuno determinar en qué medida se está
produciendo no solo la desnaturalización del hombre contemporáneo, sino
también, en cierto modo, la deshumanización de la técnica en aras de un salto
evolutivo que, como pronostican los transhumanistas, nos acerque como
especie al horizonte de singularidad del homo excelsior (híbrido entre hombre y
máquina inteligente), todo ello sin que sirva de excusa para soslayar los
beneficios y el bienestar que la revolución tecnológica 4.0, y en particular la IA y
3
Martha J. Farah ha sido una de las primeras investigadoras en analizar las implicaciones éticas
de la tecnología neuroquirúrgica, con especial énfasis en el empleo de la neurofarmacología
mediante neurotransmisores para el tratamiento de enfermedades como el Alzheimer, el
Trastorno por Déficit de Atención e Hiperactividad, y también fue de una de las primeras
autoras en plantear los efectos ético-jurídicos que produciría la posibilidad de acordar
judicialmente un tratamiento modificador de conductas en personas con comportamientos
asociales (Farah, 2002, 1123-1129).
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]
4
Según la explicación de Kevin Warwick del funcionamiento del implante cerebral Braingate, la
actividad eléctrica de unas pocas neuronas monitorizadas por los electrodos de la matriz es
decodificada en una señal para dirigir el movimiento del cursor. Esto permitió a un paciente que
se sometió voluntariamente a esta prueba de monitorización neurológica posicionar un cursor en
la pantalla de un ordenador, utilizando señales neuronales para su control, combinadas con
información visual. La misma técnica se empleó posteriormente para poder realizar diversas
operaciones con un brazo robótico a un paciente que sufría parálisis en uno de sus brazos
(Warwick, 2015, 4).
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]
5
La primera alusión a los neuroderechos la hicieron J. Sherrod Taylor, J. Anderson Harp y Tyron
Elliot en un artículo sobre la creciente colaboración entre neuropsicólogos y neuroabogados
titulado así precisamente: “Neuropsychologists and neurolawyers”, en Neuropsychology, vol 5
(4), October 1991, pp. 293-305. Sin embargo, han sido Marcello Ienca y Roberto Andorno quienes,
en puridad, se han referido expresamente al término “neuroderechos” en un artículo titulado:
“A New Category of Human Rights: Neurorights” (2017). Disponible en
http://blogs.biomedcentral.com/bmcblog/2017/04/26/new-category-human-rights-neurorights/.
Última consulta: 28 de abril de 2022.
6
La neurociencia adquirió carta de naturaleza en el Congreso de San Francisco titulado:
“Neuroethics: Mapping the Field”, celebrado entre los días 13 y 14 de mayo; cfr., Marcus 2002.
7
En el apartado XXVI de la Carta de Derechos Digitales (que no tienen carácter normativo, pero que
sí posee un objetivo prospectivo respecto a la aplicación e interpretación de los derechos en el
(…)
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]
entorno digital del futuro inmediato) se enuncian los fines a los que se orientan los derechos
digitales en el empleo de las neurotecnologías (fines que algunos consideran directamente como los
cinco neuroderechos fundamentales): a) garantía del control de cada persona sobre su propia
identidad; b) garantía de la autodeterminación individual, soberanía y libertad en la toma de
decisiones; c) asegurar la confidencialidad y seguridad de los datos obtenidos o relativos a sus
procesos cerebrales y el pleno dominio y disposición de los mismos; d) regular el uso de interfaces
persona-máquina susceptibles de afectar a la integridad física o psíquica; e) asegurar que las
decisiones y procesos basados en neurotecnologías no sean condicionadas por el suministro de
datos, programas o informaciones incompletos, no deseados, desconocidos o sesgados. La
información oficial sobre este documento puede consultarse en https://www.lamoncloa.gob.es/
presidente/actividades/Documents/2021/140721-Carta_Derechos_Digitales_RedEs.pdf
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]
8
El Grupo Morningside está formado por neurocientíficos, neurotecnólogos, médicos,
especialistas en ética e ingenieros de inteligencia artificial.
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]
los contextos en los que se pueden aplicar (como sucede, por ejemplo, con la
edición genética realizada en seres humanos), pero sin llegar a imponer
prohibiciones absolutas a ciertas tecnologías (como las que estimulan y
potencian al cerebro humano) que solo servirían para empujarlas a la zona
oscura de la clandestinidad.
El cuarto motivo de preocupación compartido por Rafael Yuste y Sara
Goering es el de los sesgos o prejuicios (bias) que tan influyentes resultan, por
ejemplo, en los procesos selectivos o resolutivos en los que se recopilan
infinidad de datos personales de trabajadores mediante técnicas de data mining
y de discriminación algorítmica que se ponen al servicio de los responsables de
optimizar los recursos humanos de una empresa (workforce analytics). A este
respecto, conviene tener en cuenta que, como advierte Serena Vantin, el uso de
instrumentos algorítmicos en el ámbito laboral y empresarial no se limita solo a
las técnicas de workforce analytics, sino que también se extiende a la
digitalización de los procesos productivos, a los servicios de gig economy (una
fórmula de contratación online y absolutamente flexible para el empleador y el
empleado que se presenta como alternativa al modelo de contrato fijo
tradicional), a las nuevas técnicas de vigilancia de los empleados por parte de
los empresarios en horario de trabajo, etc. (Vantin, 2021, 96-97).
Como vemos, el enorme potencial que ofrece el uso de los algoritmos
para facilitar el acceso de la ciudadanía a la Administración pública más
transparente y eficaz, para garantizar nuestra seguridad y el ejercicio de
nuestros derechos, o para impulsar la modernización de las empresas, tiene
también un reverso oscuro en el que los riesgos de discriminación digital tanto
en la red, como en los sistemas de IA, robótica y tecnologías anexas (Pietropaoli,
2019, 379-400). Por otra parte, los sesgos discriminatorios, los prejuicios
contrarios a la dignidad y al derecho a la igualdad y los errores algorítmicos no
perjudican uniformemente a toda la población, sino que suelen afectar
especialmente a los grupos más vulnerables y a los individuos más
desfavorecidos dentro de la sociedad (Vantin, 2021, 96).
A propósito de los sesgos discriminatorios, Yuste y Goering recomiendan
la participación de los usuarios probables -y especialmente de los que se
encuentren marginados- en el diseño de algoritmos y dispositivos desde su
primera fase de desarrollo tecnológico precisamente para evitar situaciones de
sesgos discriminatorios en los sistemas de toma de decisión algorítmica
(algorithmic decision making). En los últimos años, algunos estudiosos de los
procesos de toma de decisión algorítmica están investigando sobre el modo de
revertir el uso de algoritmos selectivos en un sentido equitativo, y de acuerdo
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]
9
Dentro del marco de las instituciones europeas existen algunos estudios sobre el procedimiento
de toma de decisiones algorítmicas; véanse, por ejemplo, a este respecto: “Understanding
Algorithmic Decision-making. Opportunities and Challenges”, 2019, disponible en:
https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624261/EPRS_STU(2019)624261_E
N.pdf; “A Governance ramework for Algorithmic Accountability and Transparency, 2019,
disponible en: https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624262/
EPRS_STU(2019)624262_EN.pdf; sobre la estrategia digital “Shaping Europe´s Digital Future”,
2020, disponible en:, https://ec.europa.eu/info/sites/default/files/communication-shaping-
europes-digital-future-feb2020_en_4.pdf
10
Los cinco neuroderechos propuestos por Yuste, Genser y Hermann son: 1.- el derecho a la
identidad, o la capacidad de controlar nuestra integridad física y mental ; 2.- el derecho a la
libertad de pensamiento y al libre albedrío para decidir cómo actuar; 3.- el derecho a la
privacidad mental, o la protección de nuestro pensamiento contra la divulgación; 4.- el derecho a
un acceso justo para el aumento del potencial de la mente, es decir, la capacidad de garantizar
que los beneficios de las mejoras de la capacidad sensorial y mental a través de la
neurotecnología se distribuyan de forma justa en la población; y 5.- el derecho a protección
contra los sesgos algorítmicos, o la garantía de que las tecnologías no introduzcan prejuicios.
11
Esta Declaración se aprobó tras la reunión mantenida por el Comité Jurídico Interamericano
entre los días 2-11 de agosto de 2021, dentro del 99º periodo ordinario de sesiones, y se publicó el
4 de agosto de ese mismo año. El texto está disponible en la siguiente dirección:
https://kamanau.org/wp-content/uploads/2021/08/Neuro-derechos-doc-641-rev-1-esp-DN-
ROA.pdf Última consulta: 28 de abril de 2022.
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]
12
A propósito de la importancia de la educación en los derechos humanos, Manuel Atienza señala
que aunque el conocimiento y la educación no bastan para terminar por sí solos con el mal en el
mundo, sin embargo, resultan imprescindibles: “la lectura de los textos que recogen las
declaraciones de derechos humanos, la reflexión en torno a los diversos problemas que plantean
y, en general, la incorporación de esa materia (teórica y práctica) a los currículos de las escuelas y
de las universidades y su presencia en los foros de discusión pública no van a lograr
probablemente un significativo efecto de persuasión en los grandes poderes (en parte públicos
pero, sobre todo, privados) de este mundo, que son los principales responsables de que esos
(…)
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]
derechos no estén garantizados para una inmensa mayoría de los habitantes del planeta. Pero
todo ello sí que puede contribuir a que mucha gente adquiera conciencia de cuáles son los
derechos que legítimamente puede reivindicar (y de los deberes que debe asumir) y de cuáles
son las causas que impiden que los mismos puedan realizarse. Y si esa conciencia moral
esclarecida se generalizase suficientemente, sería muy probable que se convirtiera también en
una fuerza socialmente irresistible” (Atienza, 2020, 152).
© Ediciones Laborum - Licencia a Universidad de Sevilla Biblioteca de Derecho y Ciencias del Trabajo, [email protected]