LTIC - ET1 - Exp Ap - I - GONZALEZ - RICARDO

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 78

Unidad de aprendizaje / Actividad

Experiencia de Aprendizaje 1

Nombre de la actividad
Organización, procesamiento e integración de la información

Estudiante
González Castañeda Ricardo Aurelio

Matrícula
IRC2019-2-E-6760

Asignatura
Seminario de Investigación de Servicios Tecnológicos

Grupo
LAIT8201B2_O_24-1_SAS_G802

Docente en línea
Imelda Berenice González Juárez

CDMX a 24 de mayo del 2024


UNIVERSIDAD ROSARIO CASTELLANOS

CAMPUS A DISTANCIA
CAMPUS A DISTANCIA

"El impacto de la Inteligencia Artificial en


las desigualdades sociales:
Percepciones, aplicaciones y riesgos
éticos"

TESIS
Qué Para obtener el título de:
Licenciado en Tecnologías de Información y
Comunicación

Presenta:
RICARDO AURELIO GONZALEZ CASTAÑEDA

CDMX Abril 2024


Como testimonio de gratitud y eterno agradecimiento dedico este trabajo recepcional a
las siguientes personas, que si su ayuda no hubiera sido posible el mismo.

A mi esposa y mi hijo:
María Cristina Hernández Mayen
Jesús Ricardo González Hernandez

A mis padres
Alicia Nohemí Castañeda Gutiérrez
Eduardo González González

A mis hermanos
Amanda Noemi González Castañeda
Juan Eduardo González Castañeda

A todos y cada uno de ellos mil gracias

Página 1 de 77
ÍNDICE

INTRODUCCIÓN ........................................................................................................ 3
3 MARCO TEORICO .................................................................................................. 4
3.1 DEFINICIÓN Y EVOLUCIÓN SOCIO-HISTÓRICA DE LA INTELIGENCIA ARTIFICIAL ..........4 A 5
3.1.1 USOS Y APLICACIONES SOCIALES DE LA INTELIGENCIA ARTIFICIAL .........................4 A 12
3.2 APROXIMACIÓN AL MARCO NORMATIVO DE LA INTELIGENCIA ARTIFICIAL ...............13 A 18
3.3.1 APROXIMACIÓN A LOS ESTUDIOS SOCIALES DE LA CIENCIA Y LA TECNOLOGÍA ..18 A 20
3.3.2 APROXIMACIÓN A LOS ESTUDIOS SOCIALES SOBRE EL RIESGO. ...........................21 A 25

4 METODOLOGÍA ......................................................................................................................... 26
4.1 ANÁLISIS DE FUENTES DE DATOS SECUNDARIOS DEL INNOVARÓMETRO (Nº3216) Y DEL
BARÓMETRO DE MAYO DE 2018 (Nº 3213)....................................................................................... 27
4.2 LA INVESTIGACIÓN CUALITATIVA ............................................................................................... 28

5 ANÁLISIS DE RESULTADOS. LAS IMPLICACIONES SOCIALES DE LA


INTELIGENCIA ARTIFICIAL .................................................................................... 29

5.1 ACTITUDES HACIA LA INTELIGENCIA ARTIFICIAL ..........................................................30 A 33


5.1.1. LA PERCEPCIÓN SOCIAL DE LA ÉTICA EN LA INTELIGENCIA ARTIFICIAL ................33 A 34
5.2.1. LA IMPORTANCIA DE LOS DATOS PERSONALES PARA LA ELABORACIÓN DE UNA
INTELIGENCIA ARTIFICIAL .........................................................................................................34 A 36
5.2.2. LA PREOCUPACIÓN POR LA PRIVACIDAD DE LOS DATOS PERSONALES ...............36 A 45
5.3. EL IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN EL MERCADO LABORAL ...............45 A 46
5.3.1. LA PERCEPCIÓN SOCIAL DEL IMPACTO DE LA INTELIGENCIA ARTIFICIAL EN EL
MERCADO LABORAL ...................................................................................................................46 A 49
5.4 LOS OBSTÁCULOS EN EL PROCESO DE DESARROLLO DE UN SISTEMA DE INTELIGENCIA
ARTIFICIAL ............................................................................................................................................ 50
5.4.1. LOS PRINCIPIOS PARA ALCANZAR UNA INTELIGENCIA ARTIFICIAL ROBUSTA Y FIABL ....
...............50 A 51
5.4.1.1. RIESGOS DE LA IA DEPENDIENDO DE SU ÁMBITO DE APLICACIÓN .....................52 A 56

CONCLUSIONES ............................................................................................ 57 A 59
ANEXOS .......................................................................................................... 60 A 71
REFERENCIAS ............................................................................................... 72 A 77

Página 2 de 77
INTRODUCCIÓN

En los últimos treinta años, la investigación en Inteligencia Artificial (IA) no ha dejado de


evolucionar, y con ello, su capacidad para cambiar nuestro modo de vida. El presente
trabajo tiene como objetivo averiguar la forma en que la Inteligencia Artificial y su
desarrollo podrían provocar y/o agravar las desigualdades sociales. Utilizando una
metodología mixta, cuantitativa y cualitativa, se profundizará en la percepción social
hacia la Inteligencia Artificial, sus aplicaciones y sus riesgos. Se realizará un análisis de
los datos secundarios del Innovarómetro (nº3216) y del Barómetro de mayo de 2018 (nº
3213) del CIS, así como de las entrevistas realizadas. Los resultados obtenidos muestran
que el impacto de esta tecnología en la sociedad está fuertemente relacionado con la
importancia que se le otorgue a la ética en su desarrollo.

Página 3 de 77
DESARROLLO
3 Marco teórico
En este apartado se ha realizado una aproximación al contexto teórico necesario para
detallar qué es la IA y sus usos, pero, sobre todo, para acercarnos a lo que esta
tecnología supone en nuestro día a día como sociedad. Por tanto, este marco consta de
tres grandes apartados. El primero engloba la evolución socio-histórica de la Inteligencia
Artificial, tratando, además, sus usos y aplicaciones sociales. A continuación,
esbozaremos el marco normativo sobre el que se asienta el desarrollo y aplicación de la
IA; y, por último, se realizará una aproximación a los estudios e investigaciones previas
en el ámbito de la sociología que permiten aproximarse a los conflictos sociales que
puede suponer la IA.

3.1
Definición y evolución socio-histórica de la Inteligencia Artificial.
En lo que respecta al propio término de Inteligencia Artificial, el Ministerio de Ciencia,
Innovación y Universidades (2019), lo define como “la Ciencia e Ingeniería que permite
diseñar y programar máquinas capaces de llevar a cabo tareas que requieren inteligencia
para ser realizadas” (p.13). Sin embargo, para profundizar y poder comprender dicha
tecnología, haremos referencia a los cuatro tipos de IA definidos por Arend Hintze.
En primer lugar, se encuentran las llamadas máquinas reactivas. Son las más básicas y
no pueden formar recuerdos ni utilizar experiencias pasadas para tomar decisiones, es
decir, no pueden funcionar más allá de las tareas para las que fueron diseñadas. El
segundo tipo (memoria limitada), a diferencia del primero, es capaz de adquirir
información de experiencias pasadas, aunque su memoria es transitoria y no se puede
utilizar para futuras experiencias, siendo el caso de los vehículos autónomos. En tercer
lugar, encontramos las máquinas con una “Teoría de la mente”, las cuales son capaces
de formar representaciones del mundo y sobre otros agentes o entidades con los que
interactúa. Por tanto, pueden llegar a comprender que algunas entidades, como las
personas, tienen pensamientos y emociones que afectan a su propio comportamiento.
Que estos sistemas lleguen a entender los motivos por los cuales actuamos, las
intenciones o reconocer emociones, es crucial para establecer una interacción positiva
entre estos sistemas y el mundo que las rodea. El cuarto y último tipo de IA es la
autoconciencia. Se trata de una extensión de la “Teoría de la mente” y se basa en

Página 4 de 77
construir sistemas que sean capaces de crear representaciones sobre sí mismas. De
acuerdo con Hintze, aún queda un largo camino para conseguir la IA autoconsciente
(Hintze, 2016).
En la década de 1940 surgen los primeros estudios sobre los usos y aplicaciones de la
IA. Concretamente, Warren McCulloch y Walter Pitts son considerados como los autores
del primer trabajo de IA. Sin embargo, es a Alan Turing al que se considera como padre
de la Inteligencia Artificial, ya que en 1950 es el primero en dar una visión de dicha
tecnología, en su artículo Computing Machinery and Intelligence. Es aquí donde
introduce el Test de Turing, mediante el cual se prueba la capacidad de una máquina
para razonar de manera similar a un ser humano: “El computador supera la prueba si un
evaluador humano no es capaz de distinguir si las respuestas, a una serie de preguntas
planteadas, son de una persona o no” (Rusell & Norvig, 1996, p.3).

Sin embargo, cabe comentar que muchos investigadores consideran que el nacimiento
de la IA moderna surge en 1956, en el momento en que John McCarthy, Marvin Minsky
y Claude Shannon acuñan oficialmente el término de Inteligencia Artificial durante la
Conferencia de Dartmouth (Alandete, 2011). Según Rusell & Norvig (1996), la IA se
convierte en una ciencia en el año 1987, de tal forma que se redefine tanto el contenido
como la metodología de trabajo en el campo de la Inteligencia Artificial.

En torno a los años 1990 y 2000 la IA comienza a adquirir relevancia en la sociedad,


debido a la gran cantidad de inversiones que realizaron las empresas tecnológicas. Así,
se comenzó a tomar conciencia de la relevancia que tiene la Inteligencia Artificial en el
desarrollo de la sociedad. En este sentido, es importante señalar una de las aplicaciones
de la IA que marcó dicha etapa. Concretamente, en 1997, cuando IBM demostró que el
supercomputador Deep Blue era capaz de ganar al campeón mundial de ajedrez Garri
Kaspárov. Este suceso es considerado como el punto de inflexión donde empezó a
hacerse notar la Inteligencia Artificial fuera de los ámbitos académicos y de investigación
(Berzal, 2017)

Otro ejemplo que llevó a aumentar la popularidad de la IA es la computadora cognitiva


Watson, también de IBM, capaz de entender las preguntas y razonarlas, llegando a ganar
en 2011, de la misma manera que el Deep Blue, ¡a los dos mejores concursantes del

Página 5 de 77
programa Jeopardy!, en el que se realizaban preguntas de cultura general.
Posteriormente, entre el 2011 y el 2014, se llevan a cabo los lanzamientos de los
asistentes virtuales Siri, Google Now y Cortana, dándose comienzo a las primeras
experiencias de aprendizaje automático y los primeros indicios de aprendizaje profundo
(Berzal, 2017; Iglesias, 2016).

Según Garrell & Guilera (2019), actualmente nos encontramos en la llamada Industria
4.0 o la cuarta revolución industrial, marcada por avances tecnológicos como los robots
autónomos, el Internet de las cosas, mejor procesamiento del Big Data, la realidad
aumentada, etc., donde la Inteligencia Artificial tiene un papel principal. La
implementación de esta Industria 4.0 afecta, por tanto, a todo el sistema de producción,
desde el diseño inicial hasta el bien o servicio ofrecido:
Nos encontramos en un período de profunda transformación que ha revolucionado la
manera en que los comercios venden y las personas usuarias compran. En la sociedad
digitalizada, quienes consumen están muy bien informados; en algunas ocasiones
incluso podríamos afirmar que sobre informados.

3.1.1
Usos y aplicaciones sociales de la Inteligencia Artificial
En la actualidad, la Inteligencia Artificial se está aplicando a una amplia variedad de
campos y disciplinas. Esto viene dado por las grandes inversiones por parte de
empresas, gobiernos e instituciones para el desarrollo de dicha tecnología. Además,
García (2012) aclara que:
Mucha culpa de todo esto la tiene internet, cuya gran cantidad de información facilita el
acceso a grandes cantidades de datos analizables y a su vez demanda de nuevas
técnicas que permitan manejar tales cantidades de información. Google es un ejemplo
claro, cuyo buscador es capaz de ir aprendiendo de los clics de los usuarios para mejorar
los resultados de las búsquedas.

Este tratamiento de la información extraída de internet es una de las aplicaciones de la


IA que más polémica causa, ya que entra en debate la protección de la privacidad. Cabe
comentar que esta información se utiliza, entre otras cosas, para ofrecer publicidad
personalizada o mejorar las traducciones.

Página 6 de 77
En este contexto, es importante especificar algunos de los usos que se le dan a la
Inteligencia Artificial en la actualidad. Por ejemplo, en los teléfonos móviles de hoy en
día, se puede encontrar la IA en los reconocimientos de voz, faciales o dactilares.
Además, en algunos móviles esta tecnología ya está incorporada para mejorar las
fotografías realizadas con el mismo. Otros de sus usos son la fabricación de vehículos
autónomos, la automatización de procesos en fábricas, la filtración de correos que llevan
spam o malwares, o en el diseño de videojuegos. Asimismo, a una escala mayor, es
importante comentar su aplicación en el campo de la medicina, ya que la IA es capaz de
dar asistencia a un médico en la toma de decisiones, administrar medicamentos,
supervisar las condiciones de los pacientes, e incluso diagnosticar enfermedades de
difícil identificación (Alcolea, 2018; del Río, López & Vaquero, 2018; García, 2012).

Otra de las aplicaciones que puede desempeñar la IA, posicionándonos en una visión
más a largo plazo, es en los procesos educativos. Goralski y Tan (2020), afirman que se
puede utilizar para transformar toda la estructura de la educación formal y de la
información. Se trata de una función muy importante en la que destacan el acceso a las
traducciones, cada vez con resultados más exactos, o la asistencia científica que los/as
estudiantes utilizan como “compañero de enseñanza”. Además, es interesante la
apreciación de estos autores acerca de que para los/as niños/as, el hecho de asimilar la
IA dentro de los programas de enseñanza, no será “antinatural”, ya que interactúan con
mucha facilidad.

Todas estas aplicaciones de la Inteligencia Artificial llevan consigo un cambio de


paradigma, sobre todo para las empresas y los procesos productivos, como comentamos
con el fenómeno de la Industria 4.0. El avanzado desarrollo tecnológico está acelerando
lo que Clayton Christensen denomina una “disrupción tecnológica”, es decir, la aparición
de una tecnología que deja obsoleta a la anterior y/o a los procesos tradicionales. Según
de la Torre (2018):
Tenemos la percepción de que las innovaciones tecnológicas crecen a un ritmo
desaforado. Tanto, que muchas veces somos incapaces de aprender, ni aprehender, su
velocidad y su impacto. Los ritmos de adopción de tecnologías disruptivas se han
acelerado exponencialmente en las últimas décadas.

Página 7 de 77
En este sentido, Espinosa (2018), presidenta del 73º periodo de sesiones de la Asamblea
General de las Naciones Unidas, afirma que los rápidos cambios tecnológicos tienen un
impacto en los diecisiete Objetivos de Desarrollo Sostenible (ODS). Así, consideran
indispensable valorar aquellos cambios tecnológicos que conlleven un beneficio para los
objetivos planteados, así como los que podrían suponer una amenaza para lograrlos. En
concreto, profundizan sobre el impacto en el empleo, el medio ambiente y la accesibilidad
de los avances tecnológicos para el conjunto de la población.

En lo que respecta a la meta del empleo pleno y productivo y el trabajo decente para
todas las personas, se ha de tener en cuenta la automatización de algunos puestos de
trabajo. De esta forma, se estima que “la automatización eliminaría 75 millones de
empleos para el año 2022, pero crearía asimismo 133 millones de nuevas oportunidades
laborales” (Espinosa, 2018). A esta afirmación, de la Torre (2018) considera que, a pesar
de la aparición de nuevos puestos de trabajo, hay que tener en cuenta que “el ritmo de
destrucción de empleos podría ser más rápido que el de creación, especialmente entre
las capas de trabajadores menos cualificados y en los países más pobres” (p. 28).

Por otro lado, Espinosa (2018), señala la importancia de este cambio tecnológico en la
acción climática, haciendo hincapié en la generación de fuentes de energía limpia y
asequible. Y, por último, habla de abordar el cambio tecnológico manteniendo el
bienestar de todas las personas como prioridad, procurando que sean accesibles para
el conjunto de la población, y así no aumente la desigualdad. Además, apunta que solo
el 48% de la población mundial tiene acceso a internet, lo que demuestra la existencia
de una brecha digital, la cual supone un obstáculo al desarrollo sostenible.

Goralski y Tan (2020), llevaron a cabo tres estudios de caso en los que se observa que
la IA puede favorecer el esfuerzo global para promover el desarrollo económico, así como
enfrentar de forma sostenible el impacto de nuestra producción y hábitos de consumo en
la sociedad, sistemas de gobernanza y en el medio ambiente. Por otra parte, explican
que innovadores, activistas y defensores mundiales del desarrollo que utilizan
aplicaciones habilitadas para IA, constatan que han mejorado la eficiencia de las
industrias y sectores, han ayudado a conservar recursos no renovables, a apaciguar las
brechas globales en recursos y tecnología, así como a planear asociaciones

Página 8 de 77
multisectoriales efectivas que contribuyen a la sostenibilidad global. Sin embargo,
Goralski y Tan (2020), también aluden a los riesgos que puede llevar consigo la IA:
Sus aplicaciones que afirman la vida y promueven la sostenibilidad también pueden
usarse para el mal, en actividades que exacerbarán los peores impactos del
calentamiento global, la contaminación, el consumo desenfrenado y los métodos de
producción irresponsables para alimentar la cultura del crecimiento perpetuo endémico
del orden económico global capitalista de hoy (p.7).

Actualmente, como ya se comentó en la introducción de este trabajo, estamos


experimentando una crisis mundial provocada por la propagación del virus SARS-CoV2,
el cual causa la enfermedad por coronavirus (COVID-19). Ante esta realidad, según
Toğaçar, Ergen y Cömert (2020), algunos sistemas de IA han logrado detectar dicha
enfermedad utilizando conjuntos de datos de imágenes de rayos X del tórax. Sin
embargo, cabe comentar que, al ser una enfermedad nueva, se dan varias dificultades
como el limitado número de imágenes relacionadas con el virus. De igual forma, esta

tecnología también puede desempeñar un papel importante en la predicción de dónde


afectará el virus en el futuro, en el seguimiento de los pacientes, así como para
comprender y sugerir el desarrollo de una vacuna (Vaishya, Javaid, Haleem & Haleem,
2020).

Siguiendo con lo anterior, es necesario mencionar el debate que está surgiendo acerca
de la necesidad de que se utilicen datos personales de los/as ciudadanos/as, para que
se puedan llevar a cabo estas aplicaciones. Desde el MIT, explican:
Diferentes partes del mundo tienen diferentes regulaciones de privacidad para los datos
médicos. Y muchos de nosotros ya no queremos que nuestros datos sean accesibles a
terceros. Las nuevas técnicas de procesamiento de datos, como la privacidad diferencial
y la capacitación sobre datos sintéticos en lugar de datos reales, podrían ofrecer una
forma de superar este debate. Pero esta tecnología aún se está perfeccionando.
Encontrar un acuerdo sobre las normas internacionales llevará aún más tiempo.

Página 9 de 77
Sin embargo, Amnistía Internacional (2020) explica que varios Estados están recurriendo
a la IA y tecnologías de macrodatos para combatir el virus. En concreto, China está
utilizando escáneres térmicos y tecnologías de reconocimiento facial en espacios
públicos para rastrear la propagación del virus. Asimismo, señalan la discriminación que
pueden acarrear estas tecnologías ante esta situación:
Las tecnologías de Inteligencia Artificial también podrían aumentar las posibilidades de
discriminación ilícita y pueden perjudicar de forma desproporcionada a comunidades ya
marginadas. Muchas de las tecnologías que se están introduciendo usan algoritmos
opacos con datos sesgados cuyo uso en la toma de decisiones afianza la discriminación
de ciertos grupos.

De igual manera, Amnistía Internacional (2020) aclara que los gobiernos no deben usar
tecnologías de vigilancia para recopilar datos más allá de los que sean legítimamente
necesarios para contener la enfermedad.

Debido a la situación actual, estas nuevas tecnologías están adquiriendo más espacio.
Por ejemplo, en Singapur han puesto en marcha un “perro-robot”. Se trata de un androide
encargado de vigilar, por el momento, el parque de Bishan-Ang Mo Kio, emitiendo
mensajes que recuerdan la necesidad de mantener la distancia de seguridad entre
personas. Además, ayuda a calcular el número de visitantes del parque (Martí, 2020).

En este sentido, es interesante introducir una aproximación al concepto emergente de


“Ciudades Inteligentes”. Son aquellas que utilizan la tecnología más avanzada para
ofrecer un tipo de desarrollo urbano basado en la sostenibilidad y la gestión eficiente de
los servicios. Algunos de sus objetivos son ofrecer más seguridad, calcular los niveles
de contaminación mediante sensores o ahorrar energía. Sin embargo, preocupa la falta
de privacidad y la constante vigilancia. Según Böhm (2019):
En una ciudad inteligente tenemos que tener claro que ninguno de nosotros se puede
oponer a la recopilación de datos. Además, estos son la base para controlar el sistema
de la ciudad. Por lo tanto, hay que decidir de forma muy responsable cómo se van a
manejar.

Página 10 de 77
Concretamente, es importante destacar la afirmación de Böhm (2019) de que “ninguno
de nosotros se puede oponer a la recopilación de datos”. Si actualmente ya hay una falta
de confianza en el manejo de nuestros datos personales, esta afirmación podría generar
un gran descontento social.

En lo que respecta al estudio del impacto social de la IA, es indispensable mencionar el


Instituto AI Now2 localizado en New York, ya que se trata del primer centro universitario
de investigación centrado específicamente en la comprensión de las implicaciones
sociales de la Inteligencia Artificial. AI Now fue fundada por Kate Crawford y Meredith
Whittaker en 2017, siendo, además, el primer instituto de IA constituido y dirigido por
mujeres. Desde AI Now, explican que estos sistemas de IA están siendo aplicados a
muchos ámbitos de la sociedad, por lo que influye en las decisiones importantes que se
toman, afectando a las agendas nacionales en concreto y a la población en general.
Cabe comentar que las investigaciones de AI Now se centran en cuatro dominios
principales: derechos y libertades, trabajo y automatización, sesgo e inclusión, y
seguridad e infraestructura crítica (AI Now, 2019). El Instituto AI Now denuncia que la
Inteligencia Artificial no es neutral. Constata que se producen sesgos debido al conjunto
tan reducido de desarrolladores de la IA. Los cuales son en su mayoría hombres,
generalmente con unas remuneraciones altas y con una educación técnica similar. Todo
ello generará unos intereses y necesidades que se verán reflejadas en la creación de
esta tecnología (Campolo, 2017). Por otro lado, Trigo-Guedes (2019) trata de identificar
en su estudio los posibles efectos que la Inteligencia Artificial puede provocar en el estilo
de vida de las personas, sus condiciones de vida y la sociedad, así como, más
concretamente, en las organizaciones, en el futuro del trabajo y del mercado laboral. En
cuanto a las organizaciones, se encontraron como posibles efectos una reducción
considerable de empleados, un aumento potencial en calidad de servicio en varios
campos y una creciente integración, racionalidad y automatización.

En el ámbito del trabajo, surgirán nuevas oportunidades en cuanto al trabajo cualificado


y se generará una necesidad de mayor interacción entre el humano y la máquina, en la
cual ésta tendrá un papel complementario. Además, podría reducir horas de trabajo,
conllevando una mejora de la empleabilidad. Sin embargo, estas suposiciones se
contrastaron con la información proporcionada por los encuestados de la investigación,

Página 11 de 77
y se encontró una falta de adhesión en cuanto a la reducción de las horas de trabajo, así
como un temor generalizado al aumento del desempleo. Estos contrastes nos invitan a
reflexionar acerca de los caminos que ha de seguir el desarrollo y el uso de la Inteligencia
Artificial para que el ser humano no salga perdiendo (Trigo-Guedes, 2019). Por último,
en los posibles efectos que se podrían dar en el estilo y las condiciones de vida en
sociedad, se engloba el uso de los robots con asistencia social para personas de la
tercera edad y con diversidad funcional, una reducción de la comunicación entre
personas cercanas y un aumento del tiempo libre (Trigo-Guedes, 2019). Aunque dicha
investigación no se centra en la realidad social actual, sino que trata las perspectivas
para el futuro, es interesante tener en cuenta estas cuestiones. Frey, Patton, Gaskell &
McGregor (2020), trataron de estudiar la extracción e interpretación de datos de redes
sociales para estudiar la condición humana, a través de mecanismos de Inteligencia
Artificial. De esta manera, encontraron que, al analizar los datos de comunidades
marginadas, los algoritmos carecían de capacidad para interpretar con precisión el
contexto social, lo cual puede llevar a resultados inexactos o a suposiciones negativas
para dichas comunidades. Con este interés por apoyar y proteger las inequidades
sociales que esperamos mejorar”. Con todo, desde aproximadamente 1990 hasta el día
de hoy, la Inteligencia Artificial ha adquirido gran relevancia en la sociedad. Esta
tecnología permite que robots realicen tareas rutinarias con precisión y reduciendo el
error humano. Además, al contar con un gran volumen de información, son capaces de
tomar decisiones de manera muy rápida y eficiente, y hasta contribuir a la sostenibilidad
global. Éstos son algunos de los beneficios de la IA, sin embargo, plantea una serie de
cuestiones éticas. Como ya se comentó, esta tecnología necesita una enorme cantidad
de datos de la población, lo que genera una gran dependencia hacia los mismos y una
invasión de la privacidad en la ciudadanía. Además, acarrea la presencia de sesgos en
los algoritmos, ya que éstos trabajan con dicha información, reflejando los valores
humanos. Por tanto, resulta esencial tener en cuenta los riesgos de la IA y mantener una
regulación constante de la misma desde una aproximación ética.

Página 12 de 77
3.2
Aproximación al marco normativo de la Inteligencia Artificial
Para entrar en el contexto del marco normativo de la Inteligencia Artificial, es
indispensable tener en cuenta la Ley Orgánica 3/2018, de 5 de diciembre, de Protección
de Datos Personales y garantía de los derechos digitales3. Por lo tanto, según el BOE,
el objetivo principal de dicha ley es:
Adaptar el ordenamiento jurídico español al Reglamento (UE) 2016/679 del Parlamento
Europeo y el Consejo, de 27 de abril de 2016, relativo a la protección de las personas
físicas en lo que respecta al tratamiento de sus datos personales y a la libre circulación
de estos datos, y completar sus disposiciones
.
Así, esta ley obliga a personas, empresas y organismos (públicos y privados), que
dispongan de datos personales, a cumplir unas condiciones y aplicar determinadas
medidas de seguridad. Además, se recoge como derecho universal el acceso a Internet,
así como el derecho a la desconexión digital. En cuanto a los principios de protección de
datos, en dicha ley se expone que los datos han de ser exactos y actualizados, que las
personas que intervengan en el tratamiento de los datos tienen que estar sujetas al deber
de confidencialidad, se ha de informar inequívocamente de dicho tratamiento al
“afectado”, ha de tenerse en cuenta que el consentimiento al tratamiento de datos
personales solo pueden darlo mayores de catorce años y que ha de cumplirse una
obligación legal, en interés público o en el ejercicio de poderes públicos. Asimismo, se
recoge el tratamiento de datos de naturaleza penal, así como una serie de principios para
categorías especiales de datos.

En lo que respecta a la Estrategia Europea de la Inteligencia Artificial4, el objetivo


principal que propone es colocar al ser humano en el centro del desarrollo de la IA.
Además, pretende reforzar la confianza de los ciudadanos en el desarrollo digital, así
como crear una ventaja competitiva para las empresas europeas de Inteligencia Artificial.
Para ello, se explican una serie de requisitos que han de cumplir estos sistemas:
• Intervención y supervisión humanas.

Página 13 de 77
Los sistemas de IA deben actuar como facilitadores de una sociedad equitativa, dando
apoyo a la intervención humana y los derechos fundamentales, sin disminuir o limitar la
autonomía humana.
• Solidez y seguridad técnicas.
Estos sistemas requieren que los algoritmos sean suficientemente seguros, fiables y
sólidos, para dar respuesta a fallos o incoherencias durante todas las fases de su ciclo
vital, así como en los resultados erróneos.

También es importante la integración de mecanismos de seguridad desde el diseño de


dichos sistemas, además de procesos para evaluar los riesgos potenciales asociados a
su uso en diversos ámbitos.
• Privacidad y gestión de datos.

Es necesario garantizar la privacidad y la protección de datos en todas las fases del ciclo
vital del sistema de IA, que las personas tengan pleno control sobre sus datos y que
éstos no se utilicen para perjudicarles o discriminarles. De esta forma, se intentará que
los ciudadanos confíen en el tratamiento de sus datos.

Además, también es necesario garantizar la calidad de los conjuntos de datos utilizados


en los sistemas de IA, ya que, en el momento de la recopilación de datos, éstos pueden
reflejar sesgos sociales, o contener inexactitudes o errores. Con esto, también se
menciona la necesidad de garantizar la integridad de los datos, en tanto que el conjunto
de datos debe ponerse a prueba. Esto debe aplicarse tanto en los sistemas desarrollados
internamente como en los adquiridos fuera. Por otro lado, el acceso a los datos también
debe estar regulado y controlado.
• Transparencia.

Los sistemas de IA deben registrar y documentar las decisiones tomadas por los
sistemas. Por tanto, debe aportarse una explicación que englobe las razones por las que
los algoritmos dan uno u otro resultado.

Página 14 de 77
En este sentido, se debe comunicar a las partes interesadas y que se ven afectadas,
acerca de las capacidades y limitaciones del sistema de IA que se trate. Además, se
debe garantizar que los usuarios tengan presente que están interactuando con un
sistema de IA, así como conocer qué personas son responsables del mismo.
• Diversidad, no discriminación y equidad.

En este punto se explica que los datos utilizados por los sistemas de IA pueden verse
afectados por la inclusión de sesgos históricos involuntarios, por no estar completos o
por modelos de gobernanza deficientes. Así, la persistencia de sesgos en los datos
utilizados podría desencadenar en una discriminación. Además, se afirma que también
pueden introducirse sesgos en la manera en la que se desarrollan los sistemas de IA, y
que puede darse una explotación intencionada de sesgos (del consumidor) o por una
competencia desleal.

Para resolver estos problemas se propone, además de abordarlos desde el inicio del
desarrollo del sistema, establecer equipos de diseño y crear mecanismos que garanticen

la participación, sobre todo de los ciudadanos, en el desarrollo de la IA. Con esto, se


afirma que:
Los sistemas de IA deberían tener en cuenta toda la gama de capacidades, habilidades
y necesidades humanas y garantizar la accesibilidad mediante un enfoque de diseño
universal para tratar de lograr la igualdad de acceso para las personas con
discapacidades.

Bienestar social y medioambiental.


Se considera como imprescindible promover la sostenibilidad y la responsabilidad
ecológica de los sistemas de IA, así como en lo relativo a sus aplicaciones en ámbitos
de interés mundial, como son los objetivos de desarrollo sostenible de las Naciones
Unidas.

Página 15 de 77
También se destaca la importancia de que el impacto de dichos sistemas se considere
desde la perspectiva de la sociedad en su conjunto, particularmente en lo relativo al
proceso democrático, incluyendo la formación de opinión, la toma de decisiones políticas
o en el contexto electoral. En este sentido, se menciona que ha de tenerse en cuenta la
capacidad de esta tecnología para mejorar las habilidades sociales, pero también
contribuir a su deterioro.

Rendición de cuentas.
Se considera fundamental la realización de auditorías internas y externas, tanto antes
como después de la implementación del sistema, ya que es imprescindible garantizar los
derechos fundamentales de los ciudadanos y apaciguar los riesgos de la IA.

Por último, se aclara que hay que tener en cuenta el contexto específico en el que se
aplique la IA, ya que el cumplimiento de estos requisitos será más estricto en situaciones
de alto riesgo, como puede ser el diagnóstico de un cáncer. Asimismo, la Comisión
Europea considera la dimensión ética como parte integrante del desarrollo de la IA:
En cada una de las fases de desarrollo de la IA debe estar garantizada la diversidad en
cuanto al género, el origen racial o étnico, la religión o las creencias, la discapacidad y
la edad. Las aplicaciones de IA deben empoderar a los ciudadanos y respetar sus
derechos fundamentales. Su objetivo debe ser mejorar las capacidades de las personas,
no sustituirlas, y permitir también el acceso de las personas con discapacidad (p. 3).

En lo que respecta a la Estrategia Española de I+D+I en Inteligencia Artificial5, ésta


presenta una serie de líneas de actuación entre las que se encuentran seis prioridades,
las cuales se deben desarrollar para crear el ecosistema adecuado para el desarrollo y
la aplicación de las tecnologías de Inteligencia Artificial. Éstas son la estructura
organizativa, áreas estratégicas, la transferencia del conocimiento, la formación en IA, el
ecosistema digital de datos y la ética de la IA.

Dentro de las prioridades mencionadas, es necesario detallar algunas de ellas. En lo que


respecta a las áreas estratégicas, es interesante comentar que, en el área de la IA para
la sociedad, se le da prioridad a la administración pública, a la educación, ciudades y
territorios inteligentes y a la salud. En lo relativo al área de IA para la Economía, se tiene

Página 16 de 77
en cuenta la Industria Conectada 4.0., los Recursos Naturales, Energía y Medio
ambiente, la seguridad y el turismo e industrias creativas y culturales. De esta manera,
cabe mencionar que en toda la Estrategia Española se le da bastante peso a la
Administración pública en concreto. Se afirma que: “Una de las razones que sin duda
han contribuido a este avance, ha sido el esfuerzo realizado por toda la Administración
pública para alinear las políticas españolas con los objetivos perseguidos por la UE en
materia de I+D+I”.

En la prioridad Ecosistema digital de datos, es fundamental tomar las medidas


necesarias para asegurar la calidad de los datos, así como evitar el spam en los datos o
el fake data. Además, se debe contar con unas infraestructuras adecuadas, y, de la
misma forma que recoge la Estrategia Europea, se considera de extrema importancia
impulsar las políticas de transparencia y de datos abiertos (open data). Asimismo, es
importante para nuestro trabajo comentar la prioridad de la ética de la IA, en la cual se
contempla que se deberá evitar el sesgo negativo y los prejuicios de género u otras
formas de discriminación en el desarrollo de las tecnologías de la IA (Ministerio de
Ciencia, Innovación y Universidades, 2019).

Página 17 de 77
Tabla II. Resumen del marco normativo de la Inteligencia Artificial

Principios de la Ley de Protección de Exactitud de los datos


Datos Personales y garantía de los Deber de confidencialidad
derechos digitales Tratamiento basado en el consentimiento del
afectado
Consentimiento de los menores de edad
Tratamiento de datos por obligación legal,
interés público o ejercicio de poderes
Públicos
Categorías especiales de datos
Tratamiento de datos de naturaleza penal
Requisitos de los sistemas de IA según la Intervención y supervisión humanas
Estrategia Europea de la Inteligencia Solidez y seguridad técnicas
Artificial Privacidad y gestión de datos
Transparencia
Diversidad, no discriminación y equidad
Bienestar social y medioambiental
Rendición de cuentas

Prioridades de la Estrategia Española de Estructura organizativa


I+D+I en Inteligencia Artificial Áreas estratégicas
Transferencia del conocimiento
Formación en IA
Ecosistema digital de datos
Ética de la IA

3.3
Apuntes teóricos para analizar la Inteligencia Artificial desde la sociología.
En este apartado se procurará realizar una aproximación a las aportaciones teóricas que
pueden dar un enfoque sociológico al desarrollo y usos de la IA.

3.3.1
Aproximación a los estudios sociales de la ciencia y la tecnología. Los estudios sociales
de la ciencia y la tecnología (CTS), constituyen un campo cuyo objeto de estudio se
conforma por los factores sociales que influyen sobre el cambio científico-tecnológico,
así como en lo que respecta a sus consecuencias sociales y ambientales. Este campo

Página 18 de 77
de estudio ha pasado por varias etapas y se ha tenido que enfrentar a sí mismo, a su
concepción clásica esencialista y triunfalista. Se da, por tanto, una nueva imagen del
fenómeno científico-tecnológico que emerge desde los años 70, pero que se va
asentando desde finales de la década de los 50. El optimismo

incondicional por el progreso científico-tecnológico fue sustituyéndose por una creciente


actitud crítica contra ella, a raíz de las numerosas catástrofes relacionadas con la
tecnología (accidentes nucleares, envenenamientos farmacéuticos, derramamientos de
petróleo, etc.). Asimismo, se desencadenaron movimientos contraculturales críticos con
la tecnología moderna y el estado tecnocrático. (González, Luján & López, 1996). En el
ámbito de los estudios CTS, hay que tener presentes una serie de teóricos que han
contribuido a dar forma a este campo de estudio. Para ello, empezaremos explicando el
concepto de “Programa Fuerte” formulado por autores de la Escuela de Edimburgo, como
Barry Barnes o David Bloor. Otero (1998) constata que se trata de una expresión extrema
del externalismo, es decir, “un rechazo de la tesis de que las categorías lógicas y
cognitivas, estrictamente intelectuales, son suficientes y se bastan a sí mismas para
proporcionar una visión completa del desarrollo de la ciencia”. Dicho de otra forma, la
concepción de la ciencia como una forma de conocimiento epistemológicamente
privilegiada, pasa a ser considerada como un producto de procesos y condiciones
sociales. Otero (1998) explica que: “Siendo una institución social, la ciencia consiste
también en una actividad que tiene sus propios propósitos e intereses, que trata de
validarlos frente al conjunto social y que alega cierta superioridad de sus afirmaciones
por relación a otras formuladas por otras instituciones sociales”. Otro enfoque importante
para nuestra investigación es la Teoría del Actor-red (ANT), definida principalmente por
Bruno Latour, Michel Callon y John Law. Estos autores se basan en la idea de que el
mundo natural y social son el resultado de redes de relaciones entre actantes, los cuales
pueden ser objetos, seres humanos, máquinas, ideas, organizaciones, etc., procurando
desdibujar la separación entre naturaleza y cultura. Por tanto, este enfoque trata de
explicar los arduos fenómenos que se dan en la sociedad, procurando simplificar “un
mundo infinitamente complejo” (Latour, 2008; Domènech & Tirado, 1998; Monterroza,
2017).

Página 19 de 77
Es relevante mencionar las aportaciones de Winner (1987) en cuanto a las problemáticas
sociales y políticas que rodean al cambio tecnológico moderno. Este autor ha hecho
grandes aportaciones a los estudios CTS con conceptos como el sonambulismo

tecnológico, las cualidades políticas atribuidas a los artefactos tecnológicos y la


autonomía de la tecnología.
Su concepto de “sonambulismo tecnológico” es aplicable al desconocimiento por parte
de la sociedad de lo que conlleva el estudio, desarrollo y aplicación de la Inteligencia
Artificial. El teórico afirma con este término que se da una cierta ignorancia en la sociedad
acerca de las transformaciones que los avances tecnológicos provocan en su entorno,
aceptándolas como naturales. Winner (1987) expone en La ballena y el reactor, cómo la
aparición del automóvil ha cambiado las dinámicas de la sociedad (hábitos, relaciones
sociales, de clase). Además de conocer cuáles son las aplicaciones y políticas de una
tecnología, también se deben tener presentes esas modificaciones en el contexto social.
De esta misma manera, la Inteligencia Artificial, siendo una tecnología con tanto
potencial, está transformando y transformará nuestro estilo de vida, como ya se comentó
con anterioridad. Por tanto, su impacto precisa de una interpretación más profunda que
la premisa clásica de “causa y efecto”. Este teórico también alerta del “mal uso” que se
le puede dar a la tecnología y de los intereses que hay detrás de grandes corporaciones:
Muchos de los ejemplos más importantes de tecnologías que tienen consecuencias
políticas trascienden por completo las simples categorías de “intencionados” o “no
intencionados”. […]. En estos casos no es ni correcto ni perspicaz decir: “Alguien tuvo la
intención de hacer daño a otra persona”. Más bien debemos decir que la plataforma
tecnológica ha sido preparada de antemano para favorecer ciertos intereses sociales y
que algunas personas inevitablemente recibirán más que otras” (Winner, 1987, p.64).

Página 20 de 77
3.3.2
Aproximación a los estudios sociales sobre el riesgo. Los estudios sociales sobre el
riesgo están asentados en tres enfoques: el técnico, el psicométrico y el socio-cultural.
En el primero, el riesgo se contempla como una propiedad objetiva, el cual se calcula
mediante la probabilidad de que ocurra el daño y la magnitud del mismo. En el enfoque
psicométrico, el riesgo se considera como una propiedad subjetiva que depende de la
aceptación del mismo por parte del individuo. Por último, el enfoque socio-cultural, en el
cual nos basaremos, es aquel que observa el riesgo como una construcción social. Por
tanto, se centra en el estudio de los factores socioculturales vinculados a estructuras
sociales dadas (Moreno & Pol, 1999). El concepto de riesgo se puede considerar como
una importante herramienta teórica para los estudios de la sociología contemporánea
para interpretar las dinámicas de la sociedad moderna. En este campo destacan tres
sociólogos: Ulrich Beck, Anthony Giddens y Niklas Luhmann. Sin embargo, el principal
ha sido Beck, con su obra La sociedad del riesgo. Desde la sociedad industrial hasta “la
sociedad del riesgo” se llega a través de dos fases. En la primera se originan amenazas
que no están presentes en el debate público. Sin embargo, en el momento en que estas
amenazas entran en dichos debates, quedan legitimadas y se alcanza la segunda fase,
en la cual la sociedad es consciente de esa generación de amenazas incontroladas
(Beck, 1998; 2002). En este momento, se genera una preocupación por parte de la
sociedad en controlar y minimizar los riesgos originados por la misma. Según Beck
(2002): [...] riesgo es el enfoque moderno de la previsión y control de las consecuencias
futuras de la acción humana, las diversas consecuencias no deseadas de la
modernización radicalizada. Es un intento (institucionalizado) de colonizar el futuro, un
mapa cognitivo. Toda sociedad [...] ha experimentado peligros. Pero el régimen de riesgo
es una función de un orden nuevo: no es nacional, sino global (p. 5). Es necesario tener
presente esta concepción para poder comprender y afrontar nuestra sociedad actual.
Aunque la industria perdure, ahora son las nuevas tecnologías, incluida la IA, las que
determinan en gran medida los nuevos desafíos y riesgos económicos, políticos y
sociales. Ienca (2018), describe en su estudio un enfoque proactivo para la
democratización de la tecnología cognitiva. Explica que, si bien ésta tiene el potencial de
proporcionar un beneficio significativo para la sociedad, también puede ser cooptada por
actores estatales y no estatales para fines que suponen un peligro para la sociedad,
como el delito cibernético, el ciberterrorismo, la guerra cibernética o la vigilancia masiva.

Página 21 de 77
De esta manera, el autor se basa en seis principios éticos: evitar el control centralizado,
la apertura, la transparencia, la inclusión, el centrarse en el usuario y la convergencia.

concepto de riesgo se puede considerar como una importante herramienta teórica para
los estudios de la sociología contemporánea para interpretar las dinámicas de la
sociedad moderna. En este campo destacan tres sociólogos: Ulrich Beck, Anthony
Giddens y Niklas Luhmann. Sin embargo, el principal ha sido Beck, con su obra La
sociedad del riesgo. Desde la sociedad industrial hasta “la sociedad del riesgo” se llega
a través de dos fases. En la primera se originan amenazas que no están presentes en el
debate público. Sin embargo, en el momento en que estas amenazas entran en dichos
debates, quedan legitimadas y se alcanza la segunda fase, en la cual la sociedad es
consciente de esa generación de amenazas incontroladas (Beck, 1998; 2002). En este
momento, se genera una preocupación por parte de la sociedad en controlar y minimizar
los riesgos originados por la misma. Según Beck (2002): [...] riesgo es el enfoque
moderno de la previsión y control de las consecuencias futuras de la acción humana, las
diversas consecuencias no deseadas de la modernización radicalizada. Es un intento
(institucionalizado) de colonizar el futuro, un mapa cognitivo. Toda sociedad [...] ha
experimentado peligros. Pero el régimen de riesgo es una función de un orden nuevo:
no es nacional, sino global (p. 5). Es necesario tener presente esta concepción para
poder comprender y afrontar nuestra sociedad actual. Aunque la industria perdure, ahora
son las nuevas tecnologías, incluida la IA, las que determinan en gran medida los nuevos
desafíos y riesgos económicos, políticos y sociales. Ienca (2018), describe en su estudio
un enfoque proactivo para la democratización de la tecnología cognitiva. Explica que, si
bien ésta tiene el potencial de proporcionar un beneficio significativo para la sociedad,
también puede ser cooptada por actores estatales y no estatales para fines que suponen
un peligro para la sociedad, como el delito cibernético, el ciberterrorismo, la guerra
cibernética o la vigilancia masiva. De esta manera, el autor se basa en seis principios
éticos: evitar el control centralizado, la apertura, la transparencia, la inclusión, el
centrarse en el usuario y la convergencia.

Página 22 de 77
Desde la visión de Michel Foucault, éste mediante el panóptico de Bentham, comprende
la sociedad moderna como un a “prisión continua”. Explica que hay una constante
vigilancia de unos seres humanos a otros, en busca del orden social. Uno de los efectos
de esta constante supervisión es que el individuo piensa que está constantemente
observado, aunque no sea así (Foucault, [1975] 2009). En este sentido, las nuevas
tecnologías tienen un gran potencial como dispositivos de vigilancia. Concretamente, la
IA puede servir para monitorizar y controlar espacios privados, pero también públicos, a
través de, por ejemplo, la vigilancia predictiva, con el fin de mejorar la seguridad pública,
o los programas de reconocimiento facial (García, 2019). Esta vigilancia constante, es
difícil de evitar si ocupa espacios públicos, lo cual lo convierte en una herramienta de
control que contribuye a desdibujar la privacidad y los espacios. En este sentido, otro de
los riesgos que conlleva la Inteligencia Artificial es el de la privacidad, Leong (2019)
afirma: Tan profundamente como la revolución industrial dio un vuelco a las normas
sociales y las estructuras políticas del siglo XX, también lo ha sido la revolución de la
tecnología de la información moderna, dando a los gobiernos y a las grandes
corporaciones privadas un gran poder para seguir, manipular y potencialmente reprimir
a poblaciones enteras (p.109). La autora constata que actualmente algunos gobiernos
muestran un gran interés por analizar digitalmente a sus ciudadanos, dejando de lado la
privacidad individual. De igual manera, el uso de la Inteligencia Artificial y los sistemas
digitales en general, han de ser controlados para evitar dicha situación. De igual forma,
Taylor (2019), hace referencia a la privacidad en su estudio sobre el uso de la IA en la
publicidad personalizada. Ésta se construye a través de los datos recopilados sobre los
hábitos de consumo previos del usuario, o las páginas que visita con frecuencia. Estas
dinámicas en Internet también se pueden relacionar con la visión de Foucault, en tanto
que se controlan los espacios virtuales y se genera una sensación de vigilancia
constante. Por otro lado, Lévy (2004) realizó un estudio sobre el concepto de inteligencia
colectiva, en el cual la define como “una inteligencia repartida en todas partes”. En otras
palabras, se trata de un tipo de inteligencia que se crea en base a la colaboración y el
enriquecimiento mutuo de diversas personas. El autor considera que dicha inteligencia

Página 23 de 77
conllevará un incremento de la rapidez en cuanto al acceso de la información, creando
un proyecto para hacer más inteligentes a las personas con ayuda de los ordenadores.
Dicho concepto ha sido relacionado y comparado con el de Inteligencia Artificial,
afirmando que puede ser beneficiosa su combinación para lograr complementar las
capacidades de los humanos con las máquinas. En este sentido, son varias las
investigaciones que tratan de analizar y poner a prueba esa interacción entre el ser
humano y la máquina. Guzman y Lewis (2019), constatan que se presenta como un
desafío el hecho de que la “IA comunicativa” rompe con el papel predominante de la
tecnología en la teoría de la comunicación, el cual se ha basado durante mucho tiempo
en la interacción humano-humano, es decir, en suposiciones basadas en definiciones
antropocéntricas de la comunicación. Por otro lado, también es interesante mencionar
un experimento realizado con el objetivo de obtener dinámicas de confianza humana en
contextos de interacción hombre-máquina. Se encontró que, en concreto, la cultura
nacional y el género tienen un impacto significativo en la confianza sobre los sistemas
autónomos (Hu, Akash, Reid & Jain, 2019). Teniendo esta interacción humano-máquina
presente, se puede hablar del poder dentro de esta relación. Fast y Schroeder (2020),
partiendo de la experiencia de poder entre humanos, destacan que algunas formas de
IA pueden parecer seres humanos “de baja potencia”, lo que puede provocar que las
personas puedan sentirse poderosas al interactuar con estos sistemas. De esta manera,
han llegado a la conclusión de que las entidades basadas en Inteligencia Artificial,
concretamente los asistentes digitales, pueden llegar a ser humanizados, y, por lo tanto,
crear un sentimiento de poder en el usuario. Sin embargo, cabe comentar que no está
claro si el sentimiento de poder que se produce sobre la IA tiene las mismas
consecuencias psicológicas que sobre los humanos. Es importante mencionar la visión
de Baudrillard con respecto al cambio tecnológico. Éste considera que, en un mundo
postmoderno, los medios de comunicación, la ciencia y las nuevas tecnologías
construirían nuevas formas de organización social y de pensamiento, destruyendo la
sociedad industrial (López, 2013).

Página 24 de 77
Lee y Cook (2020), en su análisis de la relación entre los datos informáticos y la sociedad,
proponen un modelo para comprenderlo. Éste se divide en tres partes, por un lado, las
interfaces de datos, los cuales conectan a las personas con contextos digitales; la
circulación de datos, en cuanto a tendencias en su movimiento y almacenamiento; y, por
último, la abstracción de datos, es decir, su manipulación. El objetivo final de estos
autores es poner en el foco lo social, criticando las narrativas e ideologías de cambio
asocial. En otras palabras, tratan de desafiar la idea generalizada de que el desarrollo
tecnológico no reconoce la integración de lo social al enmarcar los datos y la tecnología
como en un contexto de innovación sin perjuicios ni daños colaterales en la sociedad.
“Hacer referencia a la "información basada en datos" es utilizar un lenguaje técnicamente
determinista que ignora la naturaleza social, las consecuencias y los impactos de la
tecnología de datos” (Lee & Cook, 2020, p.8). Con todo, se puede observar que las
innovaciones tecnológicas tienen el potencial de moldear las dinámicas sociales e
incluso la concepción que tenemos sobre los espacios. Sin embargo, siguiendo a Winner
(1987), estos cambios se producen sin que la sociedad tenga plena conciencia de lo que
suponen. Esto genera una aceptación naturalizada y deja de lado toda visión crítica hacia
el fenómeno, sin tener en cuenta cuestiones que se han expuesto como la falta de
neutralidad, el aprovechamiento para ejercer control o intereses de grandes
corporaciones. Por tanto, estas nuevas tecnologías, como la Inteligencia Artificial, llevan
consigo nuevos desafíos y riesgos económicos, políticos y sociales.

4
Metodología
Para llevar a cabo esta investigación se ha optado por una metodología mixta. Este
método de investigación social representa un conjunto de procesos sistemáticos,
empíricos y críticos de investigación y combina la recolección y el análisis de datos
cuantitativos y cualitativos, así como su integración y discusión conjunta, con el fin de
conseguir una mayor comprensión del objeto de estudio (Hernández-Sampieri, 2014).
En la Tabla III se muestran los cuatro objetivos específicos que se responderán,
principalmente, a partir del trabajo de campo realizado.

Página 25 de 77
Tabla III. Técnicas de investigación por objetivos

Objetivos específicos Técnica de investigación


Acercarse a las actitudes de aceptación o Análisis de fuentes de datos secundarios
rechazo hacia la Inteligencia Artificial Entrevista grupal

Averiguar si a la población le preocupa Entrevistas semiestructuradas


el tratamiento que pueda darse de sus Análisis de fuentes de datos secundarios
datos personales en el desarrollo de la IA Entrevistas grupales

Conocer las opiniones de la población Entrevistas semiestructuradas


sobre el impacto de la Inteligencia Análisis de fuentes de datos secundarios
Artificial en el mercado laboral Entrevistas grupales

Aproximarse a los obstáculos que Entrevistas semiestructuradas


puedan existir en el diseño y elaboración Entrevista grupal
de un sistema de Inteligencia Artificial

4.1
Análisis de fuentes de datos secundarios del Innovarómetro (nº3216) y del Barómetro de
mayo de 2018 (nº 3213)
Se llevará a cabo un análisis de fuentes de datos secundarios para dar consistencia a
los objetivos que se relacionan con esta técnica de investigación en la tabla III. Por tanto,
se procederá a una extracción de datos estadísticos del Innovarómetro7 realizado por el
Centro de Investigaciones Sociológicas (CIS) para el año 2018, así como Barómetro de
mayo8 del mismo año. El primero se ha escogido ya que nos brinda información acerca
de las actitudes y el grado de interés e información sobre la IA y los robots en general,
así como en relación a su impacto en el mercado laboral y en las tareas domésticas. El
segundo estudio nos facilita información acerca de las actitudes hacia la privacidad en
internet y el manejo de los datos personales de los/as usuarios/as del mismo. Una vez
obtenidos los resultados de estos dos estudios, se utilizarán para obtener una base sobre
la cual diseñar los bloques temáticos del guión a utilizar en las entrevistas y grupos de
discusión.

Página 26 de 77
4.2
La investigación cualitativa
Para esta parte del trabajo de campo se elaboraron tres entrevistas grupales y dos
individuales. Es importante mencionar que, debido a la situación actual de confinamiento
por la crisis del COVID-19, ha resultado imposible llevar a cabo la metodología que se
había planteado en su inicio, ya que no se pudieron efectuar los grupos de discusión y
las entrevistas de forma presencial. A continuación, se resumirá en una tabla las
modificaciones realizadas.

Tabla IV. Modificaciones de la metodología

Metodología ideal Metodología real


4 entrevistas Persona Experto en 2 entrevistas Persona Experto en
IA (una realizada por IA10 (E1)
Persona con videollamada y la Persona con
titulación en otra de forma titulación en
Ingeniería presencial) Ingeniería
Informática Informática11 (E2)
Científica social con
conocimiento del
impacto de la IA9
Empresa
desarrolladora de IA

2 grupos de Personas usuarias de 3 entrevistas Personas usuarias de


discusión internet (7 u 8 grupales internet12 (3
personas) (todas realizadas por personas) (E3)
Personas no usuarias videollamada) Personas usuarias de
de internet (7 u 8 internet (2 personas)
personas) (E4)
Estudiantes de
último curso de
Ingeniería
informática13 (3
personas) (E5)

Página 27 de 77
5
Análisis de Resultados. Las implicaciones sociales de la Inteligencia Artificial
Tras la recogida de información por medio de la metodología empleada, se realizará un
análisis de la misma con el fin de alcanzar los objetivos propuestos. Por tanto, se
estructurará a partir de los mismos y por bloques temáticos, como se puede observar en
la tabla V. No obstante, debemos hacer mención al primer objetivo de este trabajo, y
recordar el contexto socio-histórico sobre el que se asienta la Inteligencia Artificial.

Como hemos podido observar en la revisión bibliográfica realizada, la IA surge en la


década de 1940 a partir de diversos estudios. Sin embargo, es con Alan Turing que en
1950 probó, mediante el Test de Turing, la capacidad de una máquina para emular el
pensamiento humano. Asimismo, la Inteligencia Artificial como concepto nace en 1956 y
se convierte en una ciencia en el año 1987. No obstante, no fue hasta los 2000, que la
IA empezó a adquirir relevancia en la sociedad (Alandete, 2011; Rusell & Norvig, 1996).

Actualmente, podemos encontrar esta tecnología en una amplia variedad de campos y


disciplinas. Se ha incorporado en nuestro día a día mediante algunos de los dispositivos
tecnológicos que utilizamos, pero también se está utilizando para la automatización de
procesos en fábricas u ofreciendo asistencia en el ámbito sanitario, por ejemplo.

Sin embargo, esa posibilidad de crear máquinas pensantes plantea una serie de
cuestiones éticas como la preocupación por el comportamiento moral de las máquinas,
la invasión de la privacidad o los sesgos algorítmicos. En los siguientes apartados se
explicará con más profundidad todas estas cuestiones, a partir de la información
recogida.

Página 28 de 77
5.1
Actitudes hacia la Inteligencia Artificial

Para acercarnos a las actitudes de aceptación o rechazo hacia la Inteligencia Artificial,


en este apartado se ha elaborado un análisis de discurso de las entrevistas grupales a
personas usuarias de internet, así como los datos extraídos de los estudios del CIS.

En líneas generales, esta tecnología se considera positiva. Sin embargo, es importante


indicar que hay un consenso en la población en que posee ciertas limitaciones,
mencionando el miedo a que supere o iguale la inteligencia humana, que la sustituya, el
riesgo que puede conllevar un vehículo autómata, así como el reemplazo de trabajos
rutinarios. Sin embargo, se señala la publicidad personalizada como una comodidad y
su aplicación en medicina como un avance. Por tanto, se considera necesario en algunos
campos, pero en otros se necesita poner límites:

“Yo creo que en algunos campos es necesario, pero que hay ciertos temas que nunca
se van a poder tratar con Inteligencia Artificial. Creo que un robot nunca va a poder
distinguir donde está el límite. Él tiene una función y la va a querer cumplir a toda costa.
Igual un humano sabe dónde parar”
(E4. Mujer. 22 años)

En contraste con la opinión que tiene la sociedad española acerca de la IA y de los


robots, la mayoría se encuentra en la opción ni positivo ni negativo (40,6%), siguiéndole
la opción positiva (27,1%), y en negativo se posiciona un 22,9%, como se puede
comprobar en el gráfico 1 (CIS, 2018).

Página 29 de 77
Gráfico 1. Actitud positiva o negativa ante los robots y la inteligencia artificial

Fuente: SPSS a partir de datos del CIS, estudio 3216 del “INNOVARÓMETRO”, (junio
de 2018)

En este sentido, es interesante contrastar estos resultados con un estudio realizado por
la Universidad Autónoma de Madrid, el cual constata que, de una muestra de 5.200
españoles, un 33’3% cree que la IA tiene más riesgos que beneficios, mientras que un
38’4% opina lo contrario, y un 28’3% cree que hay un equilibrio entre beneficios y riesgos.
En este contexto, se aclara que aquellos/as que dudan de la IA lo hacen, entre otros
motivos, por la desconfianza de los intereses económicos y comerciales que se oculten
en su desarrollo. Además, también se hace referencia a la falta de privacidad como
motivo de rechazo hacia la Inteligencia Artificial (Salas, 2019).
En el día a día, la mayoría de la población no nota la presencia de IA en su entorno, a
pesar de que gran variedad de sus dispositivos la utilizan. Sin embargo, algunos son
conscientes de esta tecnología y la utilizan mediante, por ejemplo, los asistentes de voz:
“Es muy práctico, sobre todo a la hora de planificar y mostrar recordatorios, o encender
y apagar las luces”

(E3. Hombre. 22 años)

Página 30 de 77
Asimismo, se considera que en un futuro más gente lo usará, pero que aún tiene que
avanzar y mejorar. Además, destacan que hoy en día es muy caro, por lo que no está a
la disposición de cualquier persona.

Otra de las aplicaciones comentadas que se pudieran dar en un futuro es la creación o


adaptación de ciudades inteligentes. Sin embargo, ante esta situación surge un debate
mencionando que es un tema complejo, ya que se considera que pueden surgir
problemas de seguridad en cuanto a hackeos que podrían dejar desprotegida a una
ciudad entera, por lo que habría que tener en cuenta desde un principio los riesgos que
puede conllevar.

“Yo creo que estaría muy bien eso, programar partes de la ciudad para que esté a
disposición nuestra, el ciudadano. Por ejemplo, que una ambulancia no tenga que estar
pendiente de que los propios coches se aparten, sino de que los coches puedan dejar
fluir el tráfico sin tener que preocuparse por los semáforos o por otras cuestiones viales.
Evitaría muchos problemas que pasan hoy en día”

(E3. Hombre. 20 años)

A la pregunta de si confiarían, a día de hoy, a algún tipo de robot con IA el cuidado de


personas mayores, hay un consenso en que no transmite confianza. Sin embargo, se
considera viable en un futuro, ya que las personas mayores tendrán más conocimiento
tecnológico. Además, se establece una diferencia entre los cuidados que impliquen
afecto y las tareas pesadas. En el primer ámbito consideran que un robot no puede llegar
a entender los sentimientos de un humano ni expresarlos. En el segundo, se le encuentra
potencial ya que son tareas que “nadie quiere hacer”. Atendiendo a la información
otorgada por una de las estudiantes de ingeniería informática, que está haciendo el TFG
sobre la asistencia a personas mayores, comenta que:

“Lo que pretende (el robot con IA) es monitorizar la vida diaria de una persona mayor […]
que le recuerde las cosas, le guíe e intentar que esté feliz. En un futuro, lo que se
pretende con la robótica asistencial es que, con un sistema domótico se controlen caídas
de los mayores, por ejemplo”.

Página 31 de 77
(E5. Mujer. 22 años)

Con esto, se considera que ese ámbito está lo suficientemente avanzado como para
poder confiar en él. Sin embargo, también se tiene en cuenta que no va a ser igual que
un humano.

En el análisis se percibe que las ideas sobre la Inteligencia Artificial están muy centradas
en la ciencia ficción, en la figura del robot o tan solo en el reemplazo de puestos de
trabajo. Por lo tanto, a pesar de mostrar interés en el tema, se puede decir que hay cierto
desconocimiento acerca de otras funciones que puede proporcionar la IA.

5.1.1
La percepción social de la ética en la Inteligencia Artificial
la población se observa un consenso acerca de la necesidad de que haya un control
profesional y ético en el desarrollo y usos de los sistemas de IA. Se considera que debe
haber siempre una supervisión y una aproximación ética:

“En algunos trabajos hay una parte de la decisión que se toma en base a la ética que tú
tengas. Entonces, si las personas trabajamos con la ética y contamos con ello, los
sistemas de IA también deberían”

(E4. Mujer. 22 años)

Asimismo, se percibe un consenso acerca de la posibilidad de que haya una influencia


del factor humano en el resultado final de un sistema IA. Se considera que hay unos
intereses, positivos o negativos:

“No podemos programarlo nosotros para que sea como queremos, está bajo las
directrices de la empresa que lo ha fabricado. Así que sí, creo que hay unos intereses”.

(E3. Hombre. 20 años).

Página 32 de 77
Por último, es interesante mencionar que la población considera que la IA sería muy
positiva para personas dependientes y que va a suponer una mejora en la calidad de
vida, sobre todo en lo relativo a tareas que requieren desplazarse. Sin embargo, también
se habló del miedo a que se dé más valor a los robots que a las personas y de la
desconfianza del uso de robots en ciertos trabajos o para ciertos fines:

“Un robot no tiene sentimientos y emociones como un humano, por mucho que lo intente
imitar […]. Creo que en el trato con la gente como trabajos cara el público, hospitales,
psicólogos… no se debería utilizar a un robot. La respuesta que te va a dar va a ser muy
automática y no creo que pueda tener un nivel de empatía como pueda tener un humano”

(E4. Mujer. 20 años)

5.2.1
La importancia de los datos personales para la elaboración de una Inteligencia
Artificial
En cuanto a la privacidad de los datos personales, los profesionales ponen de manifiesto
que hay situaciones en las que éstos se deben ceder por el bienestar de la persona, o
por el bien común. Explican que es una cuestión complicada ya que es necesaria una
responsabilidad social, la cual afirman que no se está asumiendo, poniendo de ejemplo
la situación actual:

“Piensa, por ejemplo, cómo ha hecho China para usar los móviles o datos de internet
para luchar contra la pandemia, y que es también lo que está pasando en Europa […]. A
veces tenemos que ceder privacidad y derechos por un bien común, que es lo que está
pasando ahora mismo”.

(E1. Experto en IA)


Recordando a Leong (2019), actualmente algunos gobiernos muestran un gran interés
por analizar digitalmente a sus ciudadanos, dejando de lado la privacidad individual. Sin
embargo, según las explicaciones de las personas entrevistadas, el fin último es el
bienestar de las personas.

Página 33 de 77
Asimismo, los profesionales señalan que hay situaciones en las que es importante el
acceso a datos muy sensibles, por ejemplo, en un diagnóstico médico. El fin último es
bueno, pero se debe permitir ese acceso, y las personas son reacias a aceptarlo:

“Al fin y al cabo la información que están recopilando de ti no es relevante para ellos [..]
Yo entiendo que la gente esté un poco paranoica con ello porque no saben lo que están
recogiendo, no saben cómo es la ley”
(E2. Ingeniero informático)

En lo que respecta al uso de datos personales en internet y las llamadas cookies, en este
momento se están utilizando, generalmente, para ofrecer publicidad personalizada, por
tanto, no se considera un problema. Además, es interesante añadir que, las estudiantes
hablaron acerca de una Conferencia que dieron en su facultad, en la cual se afirmó que,
al entrar en una página web, ésta ya considera que se han aceptado las cookies, aunque
se pueda “elegir” aceptar o rechazarlas. Realmente no se está preguntando al que entra
en la página acerca de si desea aceptar esas cookies o no, sino que su objetivo es
informar o notificar de que se van a recoger datos de navegación u otros.

En este sentido, es interesante comentar que las estudiantes de ingeniería informática,


a pesar de que no lo consideran un problema, admiten que la mayor parte de las veces,
o para ciertos temas, navegan en modo privado, e intentan rechazar las cookies de las
páginas que visitan.
“Yo tengo asumido que, quiera o no, van a conseguir datos personales”

(E5. Mujer. 25 años)

Hay que tener en cuenta la aprobación e implementación, por parte de la Unión Europea,
del Reglamento General de Protección de Datos (GDPR), ya que protege la privacidad
del usuario mediante el consentimiento y el anonimato.

En cuanto a las medidas y controles, el colectivo de estudiantes de ingeniería informática


señala que debería haber una regulación más drástica, sobre todo para controlar sus
aplicaciones en ámbitos como el militar, que ya se comentó con anterioridad. Sin

Página 34 de 77
embargo, los/as profesionales aclaran que el sistema debe pasar una serie de controles
de calidad, evaluaciones del sistema, pruebas de mercado…, que hace muy complicado
que se utilice para “cuestiones conspiratorias”, aunque se señala que es factible.

En cuanto al tratamiento de los datos, los/as profesionales afirman que éstos son
anonimizados en su mayoría o ni si quiera se puede acceder a ellos, tanto en entidades
privadas como públicas:

“No solemos entrar en datos polémicos. Los datos que nos dan para investigar son unos
datos muy controlados, quiero decir, no puedes acceder a cualquier dato”

(E5. Mujer. 23 años)

“Trabajé en una empresa mientras hacía el TFG y los datos que manejaba… algunos
estaban anonimizados y otros no, entonces, al final, no tenía acceso a ellos”

(E2. Ingeniero informático)

Según la Estrategia Europea, se considera fundamental la realización de auditorías


internas y externas, tanto antes como después de su implementación, ya que es
imprescindible garantizar los derechos fundamentales de los ciudadanos y apaciguar los
riesgos de la IA. Entonces, es interesante mencionar que, a pesar de haber unas leyes,
controles y medidas que regulan el acceso y manejo de los datos personales, la
preocupación de la ciudadanía sigue estando presente, como veremos a continuación.

5.2.2
La preocupación por la privacidad de los datos personales
En líneas generales, podemos afirmar que se da una preocupación en lo que respecta a
la protección de datos personales y el posible uso de información personal por otras
personas. En el análisis se observan conductas como el uso de internet con precaución
o el miedo a que cuestiones privadas o personales sean manejadas por terceras
personas:

Página 35 de 77
“Hay ciertas conversaciones privadas que pueden acabar en manos de terceras
personas. Y eso en un ámbito empresarial puede ser muy peligroso”

(E3. Hombre. 20 años)

“Yo intento utilizar internet con cuidado, manteniendo un filtro”

(E3. Hombre. 22 años)

La población también hace referencia a las redes sociales, en tanto que se considera
que hay una sobreexposición y que no somos conscientes de la cantidad de información
que ofrecemos con las publicaciones o lo que se acepta:

“Por ejemplo, los de Instagram pueden acceder a tu información, y si el Gobierno la pide,


seguramente se la tengan que dar”

(E4. Mujer. 20 años)

Esta apreciación se puede relacionar con la afirmación, ya comentada, de Leong (2019):

Tan profundamente como la revolución industrial dio un vuelco a las normas sociales y
las estructuras políticas del siglo XX, también lo ha sido la revolución de la tecnología de
la información moderna, dando a los gobiernos y a las grandes corporaciones privadas
un gran poder para seguir, manipular y potencialmente reprimir a poblaciones enteras
(p.109).

En lo que respecta a los resultados extraídos del Barómetro de mayo de 2018 del CIS,
un 77,25% se considera mucho o bastante preocupado por la protección de datos
personales y el posible uso de información personal por otras personas, como se puede
observar en el gráfico 2 (CIS, 2018). En nuestro caso, como ya comentamos, también se
palpa una preocupación en este tema.

Página 36 de 77
Gráfico 2. Grado de preocupación por la protección de datos personales y el posible uso
de información personal por otras personas

Fuente: SPSS a partir de datos del CIS, estudio 3213 del “BARÓMETRO DE MAYO
2018”, (mayo de 2018)

Asimismo, un 51,7% de la sociedad española considera muy probable que “la


información proporcionada por una persona pueda ser utilizada para enviarle ofertas de
carácter comercial o similares” como se observa en la tabla VI (CIS, 2018).
Tabla VI. Grado de probabilidad de las siguientes afirmaciones

Muy Bastante Poco Nada


probable probable probable probable
Su información pueda ser utilizada
para enviarle ofertas de carácter
51,7% 42,6% 4,7% 1%
comercial
o similares
Sus datos puedan ser utilizados sin
35,5% 54,5% 9% 1%
su conocimiento
Fuente: Elaboración propia a partir de datos del CIS, estudio 3216 del
“INNOVARÓMETRO”, (junio de 2018)

Página 37 de 77
En nuestro discurso hay una aceptación generalizada ante este uso. Argumentan que,
al fin y al cabo, es información que le interesa al usuario y que está bien, siempre y
cuando la recogida de datos sea solo para ese fin:

“Por la comodidad de personalización, es decir, lo que dice el compañero, en base a lo


que tú buscas y el contenido que visualizas… las ofertas, la publicidad, el contenido…
es personalizado para ti, es customizado. Ves cosas que te interesan, de tu entorno, no
telebasura. Ves contenido que tú puedes consumir, así que en ese sentido como usuario
me interesa mucho”

(E3. Hombre. 20 años)

Sin embargo, se percibe en la población un sentimiento de control y permanente


vigilancia, reafirmando esa preocupación por su privacidad. Asimismo, está presente la
polémica de que aparezca publicidad sobre temas que se han dicho en voz alta, sin
buscarlo por internet.

“Ni siquiera en tu propia casa puedes sentirte del todo tranquilo y seguro por estar el
móvil o el ordenador ahí, espiándote”

(E3. Hombre. 21 años)

Además, se palpa cierta incertidumbre en la población acerca de la recogida de


información por parte de grandes compañías, afirmando:

“No se sabe a ciencia cierta dónde está el límite de lo bueno y lo malo”

(E3. Hombre. 22 años). Debemos recordar, en este sentido, la visión de Foucault, el cual
explica que se da una constante vigilancia de unos seres humanos a otros, en busca del
orden social. Por tanto, el individuo piensa que está constantemente observado
(Foucault, [1975] 2009). Las preocupaciones de los participantes se pueden relacionar
con esta explicación, ya que, como podemos observar, el espacio de Internet también
genera esa sensación de vigilancia constante.

Página 38 de 77
Con el fin de conocer mejor el grado de preocupación de la población, se preguntó
directamente si leen las políticas de privacidad de las páginas de internet o de las
aplicaciones instaladas, afirmando que no las leen, ya que son muy densas y
enrevesadas. Además, se observa que en este ámbito no hay tanta preocupación como
en temas más privados. Sin embargo, cabe comentar que, a pesar de que acepten las
políticas de privacidad y los permisos, esta situación genera un sentimiento de
desconocimiento acerca de lo que realmente se está consintiendo. En este sentido, es
interesante comentar la experiencia personal de uno de los participantes, ya que ha
trabajado para particulares, haciendo páginas webs y nos habla acerca del documento
de la ley de protección de datos:

“Recuerdo que cada vez que me enviaban una página tenía que hacer un apartado
dentro de la misma, con el texto genérico de la ley de protección de datos, y fuera.
Aunque se lea o no, ahí está para que el creador de la página o los que estén
involucrados se laven las manos con lo que pueda pasar”.

(E3. Hombre. 20 años)

En cuanto a los resultados del CIS, decir que, un 35,5% de los encuestados considera
muy probable que “Sus datos (personales) puedan ser utilizados sin su conocimiento”, y
un 54,5% se posiciona en bastante probable, como se puede ver en la tabla V.

En lo relativo a las políticas de privacidad, cabe comentar que un 39,4% de las personas
encuestadas se muestra bastante de acuerdo con la afirmación de que “en realidad, le
importa más acceder a los servicios que le prestan los sitios web que la privacidad de
sus datos”. Sin embargo, no es un porcentaje mucho mayor a la opción de poco de
acuerdo: 30%, como se observa en la tabla VI (CIS, 2018). Con esto, podemos afirmar
que se considera prioritario el hecho de acceder a los servicios otorgados por los sitios
web, antes que la privacidad de sus datos personales, de la misma forma que hemos
observado en los discursos de los participantes.

Página 39 de 77
Tabla VI. Grado de acuerdo con afirmaciones relativas a la privacidad de los datos
personales en Internet
Muy de Bastante Poco de Nada de
acuerdo de acuerdo acuerdo acuerdo
En realidad, le importa más
acceder a los servicios que le
12% 39,4% 30% 18,7%
prestan los sitios web que la
privacidad de sus datos
Las políticas de privacidad y la
información que se ofrece en
los sitios de Internet sobre el 3,8% 14,7% 35,9% 45,6%
tratamiento de datos son claras
y sencillas de entender
Fuente: Elaboración propia a partir de datos del CIS, estudio 3213 del “BARÓMETRO
DE MAYO 2018”, (mayo de 2018)

Asimismo, un 64,4% admite que nunca o raramente leen las políticas de privacidad de
las páginas de internet, mientras que un 3,9% las lee siempre, como se puede observar
en el gráfico 3. Teniendo en cuenta estos últimos resultados, se da una contradicción
con los obtenidos en base a su preocupación. Sin embargo, hay que tener en cuenta que
un 45,6% coincide en estar nada de acuerdo con la afirmación: “Las políticas de
privacidad y la información que se ofrece en los sitios de Internet sobre el tratamiento

de datos son claras y sencillas de entender”, siguiéndole de cerca la opción poco de


acuerdo con un 35,9% (CIS, 2018). Así, hay un claro consenso acerca de que las
políticas de privacidad y la información sobre el tratamiento de datos no están
estructuradas de manera clara y fácil de entender, lo cual refuerza lo observado en las
entrevistas grupales.

Página 40 de 77
Gráfico 3. Frecuencia de lectura de las políticas de privacidad de las páginas de Internet

Fuente: SPSS a partir de datos del CIS, estudio 3213 del “BARÓMETRO DE MAYO
2018”, (mayo de 2018)

En este sentido, en este mismo estudio del CIS se plantea que algunas compañías,
entidades, etc. pueden utilizar datos personales sin ser conscientes de que puede
conllevar fraudes, envíos masivos de mensajes publicitarios… para las personas. Así, se
les ofrece a los encuestados seis medidas diferentes para que respondan cual
consideran prioritaria en primer y, en segundo lugar. La mayoría, un 51%, posicionó en
primer lugar la medida de “Imponer multas a esas entidades, compañías, etc.”, como se
puede observar en el gráfico 4. Y, en segundo lugar, con un 23,5% se exigen
indemnizaciones para las víctimas por los daños personales causados (CIS, 2018).

Página 41 de 77
Gráfico 4. Medidas que se consideran prioritarias en la lucha contra los inconvenientes
causados por el uso de datos personales

Fuente: SPSS a partir de datos del CIS, estudio 3213 del “BARÓMETRO DE MAYO
2018”, (mayo de 2018)

En lo que respecta a las medidas que propondrían los participantes para que la
ciudadanía esté más informada de lo que sucede en internet con nuestros datos
personales y de navegación, hay un consenso en que estos documentos informativos
deberían ser más claros y concisos. Además, se manifiesta la idea de la complejidad que
supondría informar a la ciudadanía:

“Quizás resultaría muy pesado para la ciudadanía porque hay un comportamiento


generalizado a creer que ya sabemos todo lo que sucede”

(E3. Hombre. 20 años)

“Es complicado informar a la gente, porque hay temas que a lo mejor son muy complejos
y que a la gente no le interese o no se lo crea”

(E4. Mujer. 20 años)

En lo relativo a las preguntas del CIS sobre las redes sociales, es de interés comentar la
percepción acerca de las garantías que dan para proteger los datos personales de sus

Página 42 de 77
usuarios. Como se puede observar en la tabla VII, la gran mayoría las considera bajas
(37,9%) o muy bajas (50,5%), por lo que se percibe una alta inseguridad en este sentido.

Cabe mencionar que los resultados son bastante similares al preguntar acerca de las
garantías que dan los buscadores de internet (bajas: 38%, muy bajas: 46%).
Tabla VII. Valoración de las garantías para proteger los datos personales
Muy Ni altas Baja Muy
Altas
altas ni bajas s bajas
Garantías de las redes sociales para 37,9 50,5
0,4% 3,8% 7,4%
proteger sus datos personales % %
Garantías de los buscadores de internet
0,5% 5% 10,6% 38% 46%
para proteger sus datos personales

Asimismo, como se observa en la tabla VIII, un 87,4% de las personas encuestadas


considera que las redes sociales no cuidan de la seguridad de los datos personales de
sus usuarios, lo cual refuerza la existencia de una baja confianza en el tratamiento de
los datos personales. Además, un 75,6% está muy de acuerdo o bastante de acuerdo en
que resulta difícil controlar quién ve la información que se introduce en el perfil de una
red social, como se puede apreciar en la tabla VIII. De esta misma manera, las personas
encuestadas coinciden en que las redes sociales no deberían cambiar sus políticas de
privacidad sin el consentimiento de sus usuarios/as. Un 94,5% están muy de acuerdo o
bastante de acuerdo con esta afirmación. Muy parecido es el porcentaje de estas dos
opciones de respuesta en conjunto para la afirmación de si “Las redes sociales no
deberían comunicar datos personales a terceros/as sin autorización previa”, con un
98,1% (CIS, 2018). En general, hay una clara desconfianza acerca de la seguridad de
los datos personales de sus usuarios/as en las redes sociales que utilizan, así como una
opinión generalizada acerca de que éstas no deberían dar datos personales a terceros/as
sin una autorización del usuario/a.

Página 43 de 77
Tabla VIII. Grado de acuerdo con afirmaciones relativas al tratamiento de datos
personales en redes sociales
Bastante
Muy de Poco de Nada de
de
acuerdo acuerdo acuerdo
acuerdo
Las redes sociales cuidan de la
seguridad de los datos personales 1,3% 11,4% 42,8% 44,6%
de sus usuarios/as
Es difícil controlar quién ve la
información que se introduce en el 38,3% 37,3% 15,9% 8,5%
perfil
Las redes sociales no deberían
cambiar sus políticas de privacidad
59,2% 35,2% 3,4% 2,1%
sin el consentimiento de los/as
usuarios/as
Las redes sociales no deberían 75,7% 22,4% 1,5% 0,4%
comunicar datos personales a
terceros/as sin autorización previa

5.3
El impacto de la Inteligencia Artificial en el mercado laboral
Partiendo de las consideraciones y conocimientos adquiridos en nuestro trabajo de
campo, además de la literatura revisada, el ámbito donde más impacto tiene y tendrá la
Inteligencia Artificial es en el mercado laboral. A continuación, se procurará dar respuesta
al objetivo: Conocer las opiniones de la población sobre el impacto de la Inteligencia
Artificial en el mercado laboral. Antes de exponer las opiniones recogidas de las
entrevistas grupales y los estudios del CIS, haremos un breve repaso de cómo es dicho
impacto, aludiendo a la información extraída de las entrevistas a profesionales en la
materia.
Como se ha observado en el marco teórico, el impacto de la IA en el mercado laboral ya
es una realidad a la que nos hemos de adaptar. En líneas generales los/as profesionales
hablaron, sobre todo, del reemplazo de algunos puestos de trabajo y la creación de otros:

“Hay otros trabajos que van a desaparecer claramente […] Y luego habrá profesiones
nuevas que no conocemos y que tendrán que ver con la ciberseguridad, con la
informática, con la Inteligencia Artificial o con otras áreas como los cuidados personales,
por ejemplo”.

(E1. Experto en IA)

Página 44 de 77
En este sentido, los/as profesionales hicieron alusión a la industria 4.0 o la Cuarta
Revolución Industrial, la cual está marcada, por ejemplo, por la aparición de la robótica,
el Internet de las cosas (IoT), y, por supuesto, la Inteligencia Artificial. Es importante
mencionar el gran potencial de la industria 4.0, ya que afecta, sobre todo, a las técnicas
de producción, pero también alcanza a la sociedad y nuestra forma de interactuar, no
solo con las personas, sino también con las cosas. En este sentido, explican de qué
manera algunos de los usos de esta tecnología están cambiando la forma de actuar de
las personas, como por ejemplo con la aplicación de google maps:

“Ya nadie te pregunta por la calle cómo se va a tal sitio, ahora la gente va con su móvil y
el algoritmo de búsqueda te está trazando a dónde tienes que ir y cómo te tienes que
mover, y lo está haciendo en tiempo real”

(E1. Experto en IA)

De esta forma, se afirma que la Inteligencia Artificial está cambiando la forma en la que
interactuamos como sociedad. Asimismo, hoy en día, se considera necesaria la
constante conectividad que tenemos con los dispositivos, ya que nos facilita nuestro
modo de vida. Además de plantear los cambios que supone la industria 4.0, en la cual
nos encontramos, los/as profesionales ya nos hablan de la Quinta Revolución Industrial,
lo cual demuestra la rapidez a la que avanzan las tecnologías.

Pero, volviendo al presente, se comentó en varias ocasiones el impacto que está


teniendo y tendrá la Inteligencia Artificial en muchas áreas importantes, como la
educación o la medicina:

“Es un campo que se ha transformado muchísimo […] Los médicos tenían una relación
con la tecnología mucho menor que ahora. Ahora hay un montón de pruebas médicas
que se pueden hacer vía imagen, es mucho más precisa la medicina, puedes prevenir
mejor…”

(E1. Experto en IA)

De esta manera, los/as profesionales afirman que los sistemas de IA están provocando
un cambio en la forma de entender el trabajo. La Inteligencia Artificial servirá, sobre todo,
para asistir y ayudar al ser humano.

Página 45 de 77
5.3.1
La percepción social del impacto de la Inteligencia Artificial en el mercado laboral
En general se observa un discurso centrado en el reemplazo de los puestos de trabajo y
la creación de otros. De esta manera, la población considera que los trabajos que se
generarían seguramente fuesen puestos de trabajo más cualificados, a los que no todo
el mundo tiene acceso:
“La introducción de la Inteligencia Artificial, evidentemente, provoca una pérdida de
trabajos en ese sentido, pero potencia otros. Los que potenciará seguramente sean
puestos de trabajo más cualificados, a los que no todo el mundo puede acceder a ellos
o no tengan un tipo de formación en concreto y, evidentemente va a favorecer a ese tipo
de población que haya estudiado eso en concreto, ¿no? Las personas pues… menos
pudientes o que no tengan ese tipo de estudios van a ser las más salpicadas, por así
decirlo”
(E3. Hombre. 21 años)
En este sentido, también se observa en la población el temor a que se intente buscar en
las máquinas tanta perfección, que se le llegue a dar más espacio a éstas que a los
humanos. Además, se menciona que toda la población tendría que tener conocimientos
sobre IA y que todas las disciplinas tendrían que estar especializadas en la misma. Sin
embargo, la población señala como ventaja del reemplazo de trabajos rutinarios, la
seguridad de los trabajadores:

“Se perderían algunos trabajos, pero aparte de que se generarían otros, también
ayudaría a que dejasen de pasar esas cosas. A no exponer a trabajadores a peligros que
podrían evitarse utilizando tecnología”

(E3. Hombre. 20 años)

Dichas percepciones se ven reforzadas por los resultados obtenidos del Innovarómetro
del CIS, en cuanto a ese impacto en el mercado laboral y tareas domésticas. A la
afirmación: “Debido al uso de los robots y de la inteligencia artificial, desaparecerán más
trabajos que los que se puedan crear nuevos”, la mayoría se posiciona entre muy de
acuerdo (46,4%) y bastante de acuerdo (44,3%). Además, estos porcentajes son
similares para la frase “Los robots son necesarios porque pueden hacer tanto trabajos
muy duros como peligrosos para las personas”, aunque se observa un mayor porcentaje

en la opción bastante de acuerdo, con un 49,4%. Sin embargo, para la afirmación: “Los
robots y la inteligencia artificial son buenos para la sociedad porque ayudan a las
personas a hacer su trabajo o a realizar sus tareas diarias en casa”, en la opción de

Página 46 de 77
respuesta muy de acuerdo se sitúa tan solo un 6,8% de los encuestados, pasando a la
categoría de bastante de acuerdo (53,4%), por lo que las personas se muestran en una
posición más neutral ante esta afirmación. Estos resultados se pueden comprobar en la
tabla IX (CIS, 2018).

Tabla IX. Grado de acuerdo con afirmaciones relativas al impacto de los robots y la
Inteligencia Artificial

Muy de Bastante Poco de Nada de


acuerdo de acuerdo acuerdo acuerdo
Debido al uso de los robots y de
la inteligencia artificial,
46,4% 44,3% 7,2% 2,1%
desaparecerán más trabajos que
los que se puedan crear nuevos
Los robots y la inteligencia
artificial son buenos para la
sociedad porque ayudan a las 6,8% 53,4% 30,7% 9,1%
personas a hacer su trabajo o a
realizar sus tareas diarias en casa
Los robots son necesarios
porque pueden hacer tanto
32,2% 49,4% 13,8% 4,6%
trabajos muy duros como
peligrosos para las personas
Fuente: Elaboración propia a partir de datos del CIS, estudio 3216 del
“INNOVARÓMETRO”, (junio de 2018)

En este sentido, es interesante mostrar la valoración de las personas encuestadas, ante


la posibilidad de que un robot o alguna otra tecnología (aplicaciones informáticas),
pudiera realizar tareas que desarrollaba en su actual o último empleo, en los próximos
quince años. Un 41,9% considera que podría realizar algunas de dichas tareas, mientras
que un 40,7% considera que no sería capaz. Sin embargo, preguntando acerca de la
posibilidad de que desarrollasen tareas domésticas, un 45,9% considera que podría
realizar algunas de ellas, un 23,5% la mayor parte, y un 25% de las personas
encuestadas consideran que no es posible. Dichos resultados se pueden observar en los
gráficos 5 y 6, respectivamente (CIS, 2018).

Página 47 de 77
Gráfico 5. Valoración de la posibilidad de que, en los próximos quince años, un robot u
otra tecnología sea capaz de realizar tareas que desarrollaba en su actual o último
empleo

Fuente: SPSS a partir de datos del CIS, estudio 3216 del “INNOVARÓMETRO”, (junio
de 2018)
Gráfico 6. Valoración de la posibilidad de que, en los próximos quince años, un robot u
otra tecnología sea capaz de realizar las tareas domésticas que desarrolla en su hogar

Fuente: SPSS a partir de datos del CIS, estudio 3216 del “INNOVARÓMETRO”, (junio
de 2018)

Página 48 de 77
5.4
Los obstáculos en el proceso de desarrollo de un sistema de Inteligencia Artificial
En lo que respecta al objetivo de Aproximarse a los obstáculos que puedan existir en el
diseño y elaboración de un sistema de Inteligencia Artificial, se han tenido en cuenta la
entrevista a la Experto en IA, al titulado en Ingeniería informática, y la entrevista grupal
de las estudiantes de esta misma carrera (todas especializadas en Inteligencia Artificial).

5.4.1
Los principios para alcanzar una Inteligencia Artificial robusta y fiable
En primer lugar, debemos recordar el principio de Transparencia de la Estrategia
Europea, en tanto que los sistemas de IA deben registrar y documentar las decisiones
que han tomado. En este sentido, los profesionales explican que un problema principal
de las redes de neuronas con las que trabajan algunas Inteligencias Artificiales, es que
no especifican la razón del resultado que dan:

“puedes intuirlo, pero nunca lo sabes con certeza […] A ver, tú sabes que funciona un
90% de las veces, pero, ¿por qué no funciona el 10% de las veces? Esto puede acarrear
problemas más serios, porque una cosa es saber si desbloquea el móvil o no y otra es
si puede lanzar un misil o no”.

(E2. Ingeniero informático)

Uno de los factores que influye en la calidad de los datos utilizados para desarrollar un
sistema basado en Inteligencia Artificial es la presencia de sesgos. Se explica que es
muy probable que los algoritmos con los que se trabajan estén sesgados. Por lo tanto,
consideran importante percatarse de este hecho e intentar solucionarlo:

“¿Qué los algoritmos están sesgados? Pues muy probablemente, porque los algoritmos
que trabajan sobre ciencia de datos usan datos del mundo real y el mundo real no es
perfecto, está sesgado. Entonces, lo importante es darnos cuenta de que eso es así e
intentar solucionarlo. Es más fácil solucionar el sesgo de un algoritmo que solucionar el
sesgo de una persona”

(E1. Experto en IA)

Página 49 de 77
Siguiendo con lo anterior, los profesionales también mencionan que algunos de estos
sistemas están creados por organizaciones privadas, en las que hay una posibilidad de
que se lleguen a manipular los datos, en cierta medida, para unos intereses propios.

Además, se menciona la posibilidad de que haya desarrolladores de IA que no sepan


recopilar información:

“En la carrera no damos cómo recopilar información exhaustivamente. Entonces, puede


ser que esa persona no sepa que contiene sesgos”

(E2. Ingeniero informático)

Asimismo, el colectivo de estudiantes señala que la calidad del desarrollador definirá la


calidad del sistema final, refiriéndose a ideologías del creador y al propósito de la
empresa que lo contrata:

“Si tú eres racista o machista, la IA que vas a hacer también será machista y racista”

(E5. Mujer. 23 años)

Por tanto, se afirma que sí se puede dar una influencia del factor humano en el resultado
final de un sistema IA. En este sentido, es interesante citar de nuevo a Frey et al. (2020),
ya que constatan que “si la brecha entre las personas que crean algoritmos y las
personas que experimentan los impactos directos de ellos persiste, es probable que
sigamos reforzando las inequidades sociales que esperamos mejorar” (p.51). Esta
apreciación, junto con las consideraciones mencionadas en las entrevistas, refuerzan la
importancia de que no se incluyan sesgos en los datos utilizados para el desarrollo de
estos sistemas. Sin embargo, debemos atender a otros factores que también influyen en
la creación de un sistema de IA.

Página 50 de 77
5.4.1.1
Riesgos de la IA dependiendo de su ámbito de aplicación
Hay ciertos campos en los que la IA necesita ser muy precisa, como lo es el ámbito
sanitario. El hecho de que sea un sistema que va a ser aplicado en humanos, para
situaciones que pueden ser graves como el diagnóstico de un cáncer, los/as
profesionales señalan que se debe tener un especial cuidado y control en su desarrollo.
Asimismo, explican el problema de que se desarrolle una IA sin ser socialmente
responsable, ejemplificando con un sistema de selección de personal que discriminaba
a ciertos colectivos:

“Si desarrollas IA tienes que ser socialmente responsable. Por ejemplo, se sabe de
Inteligencias Artificiales que seleccionaban perfiles para determinados trabajos
relacionados con ingeniería, y esa IA estaba entrenada de tal manera que solo
seleccionaba a un hombre y eso es evitable si tienes un poco de responsabilidad social.
Y tener en cuenta que, aunque la mayoría de las personas que trabajen en ese sector
cumplan ese perfil, no por ello tienes que descartar a mujeres, a personas racial izadas,
etc.”
(E5. Mujer. 23 años)

En este sentido, podemos poner de ejemplo la adopción de un nuevo paradigma para


reducir el sesgo de género en las traducciones. De esta forma, se está procurando que
el resultado de las traducciones sea más igualitario, en lo relativo a los algoritmos que
tienen que ver con el lenguaje natural:

“Entonces, cuando tú traduces clinician o physician, que en inglés no tiene género, en


español lo traducían como médico. Ahora, google, por ejemplo, y otros traductores están
traduciendo “médico/médica”, pero sí que es cierto que algunos algoritmos que se utilizan
para traducir en el lenguaje natural tienen sesgos debido a este tipo de situaciones y hay
Congresos especializados en detectar este tipo de cosas y en luchar contra ello”.

(E1. Experto en IA)

Además, los/as profesionales mencionan que no solamente existen sesgos de género,


sino que abarcan a todos aquellos colectivos discriminados o minoritarios. Aclaran que
son sesgos contra los que hay que luchar y que requiere un esfuerzo de toda la sociedad.

Página 51 de 77
También se considera que habría que controlar más unos ámbitos de actuación que
otros, refiriéndose a su uso militar, o para beneficios propios y poco éticos de algunas
empresas:

“Al ser investigadora veo que avanza mucho más rápido de lo que la gente cree.
Entonces, sí creo que, aunque ahora sea una herramienta útil, en manos equivocadas
puede ser algo muy peligroso”

(E5. Mujer. 23 años)

Asimismo, otro de los campos mencionados, en los que los/as profesionales consideran
que se deben tener en cuenta sus riesgos, es en los que se puede dar una falta de
seguridad, ejemplificando con el reconocimiento facial y dactilar. Estos riesgos se dan si
no se desarrolla como es debido:

“El desarrollador debe tener en cuenta todos los riesgos que puede producir en la
sociedad o en la población”.

(E2. Ingeniero Informático)

A modo de recopilación de lo expuesto en este apartado de presentación de resultados,


en la Tabla X se recogen los principales hallazgos de la investigación para cada uno de
los objetivos específicos.

Página 52 de 77
Tabla X. Resumen de los resultados obtenidos en relación con los objetivos propuestos.

Objetivos Resultados
Acercarse a las actitudes de ➢ La población considera la IA como
aceptación o rechazo hacia la positiva o se mantiene neutral, pero se
Inteligencia Artificial tienen en cuenta algunos de los
riesgos y limitaciones de sus usos.
➢ La mayoría no es consciente de la
presencia de IA en su entorno.
➢ Se destaca el elevado precio de
productos con esta tecnología y que
en un futuro habrá más gente que los
utilice si éste se reduce.
➢ La población muestra desconfianza
hacia el cuidado de personas mayores
por parte de un robot con IA, pero se
considera viable en un futuro. Sin
embargo, señalan la necesidad de
una conexión emocional que el robot
no tiene.
➢ Las ideas de la población sobre la IA
están muy centradas en la ciencia
ficción, en la figura del robot o tan solo
en el reemplazo de puestos de
trabajo.
➢ Se considera que hay unos intereses,
una influencia del factor humano en el
resultado final de un sistema IA.
➢ La población considera necesario un
control profesional y ético en el
desarrollo y usos de los sistemas de
IA.

Averiguar si a la población le preocupa ➢ Los/as profesionales señalan que hay


el tratamiento que pueda darse de sus una dependencia de los datos
datos personales en el desarrollo de la personales para la elaboración de una
IA IA y que en ciertas situaciones se
deben ceder por el bienestar de la
persona, o el bien común, y que para
ello se necesita una responsabilidad
social.
➢ El colectivo de estudiantes de
ingeniería informática señala que
debería haber una regulación más
drástica de sus aplicaciones en ciertos
ámbitos, como el militar.

Página 53 de 77
➢ Los/as profesionales aclaran que un
sistema de IA debe pasar controles de
calidad, evaluaciones del sistema,
pruebas de mercado

➢ La población muestra una


preocupación por el tratamiento que
se le pueda dar a sus datos
personales.
➢ Se observan conductas como el uso
de internet con precaución o el miedo
a que cuestiones privadas sean
manejadas por terceras personas.
➢ La población considera que hay una
sobreexposición de nuestros datos en
las redes sociales.
➢ Se observa una aceptación hacia la
publicidad personalizada, siempre y
cuando la recogida de datos sea solo
para ese fin. Sin embargo, también se
percibe un sentimiento de control y
permanente vigilancia.
➢ Se observa cierta incertidumbre en la
población acerca de la recogida de
información por parte de grandes
compañías.
➢ La población afirma no leer las
políticas de privacidad, principalmente
por su densidad. Proponen que sean
más claras y concisas.
➢ La mayoría considera prioritario
acceder a los servicios ofrecidos por
los sitios web, antes que la privacidad
de los datos personales.
➢ Se percibe una baja confianza en las
garantías de protección de los datos
personales por parte de las redes
sociales y los buscadores de internet.
Conocer las opiniones de la población ➢ Los/Las profesionales afirman que los
sobre el impacto de la Inteligencia sistemas de IA están provocando un
Artificial en el mercado laboral cambio en la forma de entender el
trabajo y que servirá, sobre todo, para
asistir y ayudar al ser humano.
Además, señalan que algunos de los
usos de la IA están cambiando
también las formas de interacción
social.

Página 54 de 77
➢ Se observa en la población un
discurso centrado en el reemplazo de
los puestos de trabajo y la creación de
otros, a los que no todo el mundo
tendría acceso por precisar una alta
cualificación, pero que supondría una
ventaja en cuanto a la seguridad de
los trabajadores.
➢ La población teme que se dé más
espacio a las máquinas que a las
personas, por buscar la constante
perfección.
➢ Se percibe como obstáculo que toda
la ciudadanía tenga que tener
conocimientos sobre IA, así como la
obligada especialización de todas las
disciplinas en esta tecnología.
➢ La población española considera más
probable que los robots lleguen a
realizar tareas domésticas que las que
desarrollaban en su actual o último
empleo.

Aproximarse a los obstáculos que ➢ Los/as profesionales explican que el


puedan existir en el diseño y proceso de diseño y elaboración de un
elaboración de un sistema de sistema de IA presenta varios
Inteligencia Artificial. problemas:
✓ Las redes de neuronas con las que
trabajan algunas IA no especifican la
razón del resultado que dan.
✓ Señalan la presencia de sesgos
algorítmicos que pueden reflejar las
discriminaciones sociales en sus
resultados, aclarando que es un
problema que se está estudiando.
✓ Mencionan que es posible que
influyan los intereses por parte de
ciertas organizaciones y que los
valores del desarrollador pueden
llegar a definir la calidad del resultado
final de un sistema de IA.
✓ Los/as profesionales afirman que se
debe tener un especial cuidado y
control en ámbitos como la medicina,
explicando la necesidad de ser
socialmente responsable.

Página 55 de 77
Conclusiones
Este apartado se centrará en revisar si se han cumplido los objetivos establecidos. Para
ello, se hará una breve revisión de los resultados obtenidos.

En primer lugar, en relación al objetivo: Aproximarse al contexto socio-histórico del


desarrollo y los usos de la Inteligencia Artificial, éste se ha expuesto a lo largo del marco
teórico. En líneas generales, podemos afirmar que la Inteligencia Artificial ha avanzado
a pasos agigantados, lo cual amenaza los modelos tradicionales, tanto en el ámbito
empresarial e industrial como en las interacciones sociales. Por ello, es preciso que la
sociedad se adapte a la misma velocidad que lo hace el cambio tecnológico.
Actualmente, la IA se aplica a una gran variedad de ámbitos, y cada vez la sociedad está
más interconectada, generando continuamente un gran volumen de información y de
datos, los cuales son imprescindibles para el desarrollo de técnicas de Inteligencia
Artificial.

En este sentido, podemos hacer frente al objetivo: Averiguar si a la población le preocupa


el tratamiento que pueda darse de sus datos personales en el desarrollo de la IA. Como
comentábamos, la IA necesita acceder a la información que generamos a través de
nuestros dispositivos tecnológicos. No obstante, esto se traduce en una gran pérdida de
privacidad. Por lo que se pudo observar en el análisis realizado, podemos afirmar que
existe una preocupación por parte de la población en cuanto al manejo de sus datos
personales por terceras personas, así como por la constante vigilancia que perciben en
Internet. Sin embargo, también se admite que les importa más acceder a los servicios de
los sitios web, que la privacidad de sus datos personales. Por lo tanto, si se concede una
protección real y se logra que las personas confíen en aceptar el manejo de sus datos
personales, puede que el problema de la dependencia de esta tecnología por los mismos
se reduzca. Se debería poder saber en todo momento qué se está haciendo con nuestros
datos y quién los utiliza, es decir, tener pleno control de los mismos, y, por tanto, decidir
realmente, a quien le permitimos su acceso y en qué condiciones.

En lo que respecta al objetivo: Acercarse a las actitudes de aceptación o rechazo hacia


la Inteligencia Artificial, hay que hacer varios apuntes. La IA como tecnología se
considera positiva y con un gran potencial, sobre todo en la medicina o en aquellos
ámbitos que hagan el día a día más sencillo. Sin embargo, sigue habiendo un rechazo
hacia el manejo de los datos personales, como vimos con anterioridad, pero, además,
también se percibe una desconfianza hacia los robots y algunas aplicaciones de la IA.
En general, podemos deducir que dicha confianza está ligada, en parte, a la falta de una
conexión emocional con la misma, ya que descartan la idea de que un robot pueda
entender los sentimientos de un humano o expresarlos, aunque sea emulándolos. En
este sentido, es importante tener en cuenta que se percibieron varias referencias a
películas o series de ciencia ficción, lo cual puede distorsionar la realidad de la IA.

Página 56 de 77
Asimismo, podemos observar dos actitudes o reacciones opuestas, por un lado, aquellos
que piensan que estas nuevas tecnologías podrían ayudar a reducir los problemas que
hoy acarrea la sociedad, y; por otro lado, los que creen que podrían contribuir a crear
más desigualdades y un mundo más deshumanizado.

En cuanto al objetivo: Conocer las opiniones de la población sobre el impacto de la


Inteligencia Artificial en el mercado laboral, como pudimos observar, se vuelve al temor
por la destrucción de puestos de trabajo a raíz de la introducción de máquinas. Sin
embargo, se alude a la ventaja de que puedan realizar aquellas tareas más duras y
peligrosas. Asimismo, se habló de la creación de trabajos nuevos, los cuales acarrean
diversos problemas como la poca accesibilidad para toda la población o la búsqueda
constante de la perfección, dándole más espacio a los robots. Surge aquí el mismo
problema de la falta de confianza, considerando que hay ciertas tareas que requieren
una conexión emocional con las personas y que una Inteligencia Artificial no puede llegar
a ofrecerla.

Por último, en el cuarto objetivo específico: Aproximarse a los obstáculos que puedan
existir en el diseño y elaboración de un sistema de Inteligencia Artificial, y partiendo de
la información otorgada por las personas entrevistadas y la revisión

bibliográfica, podemos afirmar que el desarrollo de un sistema de IA es muy complejo y


aún presenta varias limitaciones. Por un lado, se reconoce la presencia de sesgos en los
algoritmos que trabajan sobre ciencia de datos, ya que utilizan datos reales y éstos
reflejan los valores humanos. Por otro lado, se presenta el problema de que el sistema
de IA no especifique la razón del resultado que ofrecen, lo cual conlleva una falta de
transparencia, y, por tanto, puede acarrear problemas de aceptación en la población. Sin
embargo, es imprescindible mencionar que se trata de una tecnología que aún se está
desarrollando y que, por tanto, se está trabajando en dar soluciones a las limitaciones
que conlleva la Inteligencia Artificial a día de hoy.

Para terminar, el objetivo general de este trabajo consistía en Averiguar la forma en que
la Inteligencia Artificial y su desarrollo podrían provocar y/o agravar las desigualdades
sociales, para el cual partiremos de dos perspectivas. Por un lado, se considera que esta
tecnología tiene gran potencial para reducir las desigualdades sociales y contribuir al
desarrollo sostenible de la sociedad. Sin embargo, esto solo se puede lograr si se
posiciona al ser humano en el centro del desarrollo y de los usos de la IA. Asimismo, es
necesaria una protección de datos real, como ya comentamos con anterioridad, así como
una transición inclusiva a esta nueva forma de entender el trabajo, amparando a aquellas
personas que se vean afectadas por dicho cambio. Por otro lado, podemos afirmar que
el desarrollo de la Inteligencia Artificial acarrea, como ya vimos, sesgos algorítmicos. Por
ello, es preciso seguir investigando para erradicar dichos sesgos, de lo contrario,

Página 57 de 77
agravará las desigualdades sociales existentes de clase, etnia, género, etc. De esta
manera, hay que tener presente que los resultados de una IA pueden no ser neutros, por
lo que debe mantenerse un control humano.
Al avanzar en la realización de este trabajo se fueron abriendo nuevas líneas de
investigación que podrían completar los resultados aquí expuestos. Debido al carácter
tan novedoso y amplio del tema de estudio escogido, resultaría muy enriquecedor contar
con más voces Expertos que pudiesen encauzar algunas de las debilidades que se han
podido dar durante este trabajo. Además, convendría incluir más información a nivel
internacional, teniendo en cuenta las diferencias entre países, tanto en cuestión de
normativa, como en lo relativo a los valores o creencias, que influyen en la percepción
social de esta tecnología.

Debilidades y fortalezas del TFG


En este apartado se mostrarán las debilidades y fortalezas del trabajo. Para ello, se ha
elaborado la tabla XI:
Tabla XI. Debilidades y fortalezas de la investigación
Debilidades Fortalezas
Los objetivos que se pretenden Explicación exhaustiva de los
alcanzar mediante entrevistas a objetivos.
Objetivos
profesionales, son demasiado
ambiciosos.
➢ Dificultad para estructurar los ➢
Tema de investigación
apartados y la información de laactual y punto de vista
revisión teórica. sociológico
➢ Algunos apartados ➢ Adecuada
son aproximación
demasiado reducidos, teniendo para poder comprender los
Marco en cuenta la amplitud del tema de
principales factores que
teórico investigación. relacionan a la IA con la
sociedad.
➢ Integración de la
bibliografía consultada con
algunos objetivos
establecidos.
➢ Renuncia a parte de la ➢ Se plantearon alternativas
metodología (por la situación para ofrecer unos
actual ya comentada). resultados adecuados.
Metodología
➢ Perfiles demasiado parecidos en
las entrevistas grupales.

Dificultad para estructurar los Análisis desde una perspectiva


Análisis de
apartados del análisis. cualitativa y cuantitativa.
resultados
Fuente: Elaboración propia

Página 58 de 77
Anexos
Anexo I: Guion de la entrevista a Experto en Inteligencia Artificial
1. ¿Me podría explicar en qué consiste su trabajo? ¿Qué hace en su día a día?
2. ¿Con qué fines se desarrolla un sistema de IA?
3. La informática, las ciencias de la computación y en concreto la IA han cambiado mucho
y están en constante evolución. ¿Cuáles son las consecuencias de esta evolución a día
de hoy y cuáles cree que pueden ser en un futuro?
4. ¿Y sobre el impacto de ese rápido cambio tecnológico en la sociedad?
5. En lo que respecta al proceso de desarrollo de un sistema de IA, ¿Cómo debe ser un
buen profesional en este ámbito?
6. ¿Considera que habría que tener en cuenta los riesgos que conlleva la IA y poner en
el centro de su investigación la ética?
7. ¿Cómo impacta e impactará la IA en el mercado laboral?
8. Hasta donde yo sé, los sistemas IA más utilizados hoy en día por las grandes
compañías, están basados en redes de neuronas, y necesitan una base de datos de la
que aprender, ¿Esta condición puede introducir sesgos voluntarios o involuntarios? ¿Y,
qué me puede decir sobre los principios de transparencia y exhaustividad, en tanto que
se explique la razón de los resultados que provee un sistema de IA?
9. ¿Supone un problema importante para el desarrollo de sistemas de IA, el tema de la
privacidad en internet y el manejo de los datos personales de sus usuarios?
10. ¿Es posible que influya el factor humano en el resultado final de un sistema IA, por
parte de desarrolladores o la empresa que lo contrate?
11. Por último, en la toma de decisiones de un sistema basado en IA, ¿Qué tipo de
medidas se toman en cuanto al impacto que puede producir en la sociedad?

Página 59 de 77
Anexo II: Guion de la entrevista a ingeniero informático
1. ¿A qué se dedica ahora mismo? ¿Qué hace en su día a día?
2. ¿Con qué fines se desarrolla un sistema de IA?
3. La informática, las ciencias de la computación y en concreto la IA han cambiado mucho
y están en constante evolución. ¿Cuáles son las consecuencias de esta evolución a día
de hoy y cuáles cree que pueden ser en un futuro?
4. ¿Y sobre el impacto de ese rápido cambio tecnológico en la sociedad?
5. En lo que respecta al proceso de desarrollo de un sistema de IA, ¿Cómo cree que
debe ser un buen profesional en este ámbito?
6. ¿Considera que habría que tener en cuenta los riesgos que conlleva la IA y poner en
el centro de su investigación la ética?
7. ¿Cómo impacta e impactará la IA en el mercado laboral?
8. Hasta donde yo sé, los sistemas IA más utilizados hoy en día por las grandes
compañías, están basados en redes de neuronas, y necesitan una base de datos de la
que aprender, ¿Esta condición puede introducir sesgos voluntarios o involuntarios? ¿Y,
qué me puede decir sobre los principios de transparencia y exhaustividad, en tanto que
se explique la razón de los resultados que provee un sistema de IA?
9. ¿Supone un problema importante para el desarrollo de sistemas de IA, el tema de la
privacidad en internet y el manejo de los datos personales de sus usuarios?
10. ¿Es posible que influya el factor humano en el resultado final de un sistema IA, por
parte de desarrolladores o la empresa que lo contrate?
11. Por último, en la toma de decisiones de un sistema basado en IA, ¿Qué tipo de
medidas se toman en cuanto al impacto que puede producir en la sociedad?

Página 60 de 77
Anexo III: Guion de la entrevista a científica social con conocimiento sobre el
impacto de la IA
1. ¿Me podría explicar en qué consiste su trabajo? ¿Qué hace en su día a día?
2. ¿Qué opinión tiene sobre la ética dentro de la investigación y el desarrollo de la IA?
3. ¿Cree que es necesario que la IA se investigue desde las ciencias sociales, y, en
concreto, desde la sociología?
4. La tecnología en general y, en concreto, la IA han cambiado mucho y están en
constante evolución ¿Cuáles son las consecuencias de esta evolución a día de hoy en
la sociedad? Y, ¿cuáles cree que pueden ser en un futuro?
5. ¿Y sobre el impacto de ese rápido cambio tecnológico en la sociedad?
6. ¿Cómo impacta e impactará la IA en el mercado laboral?
7. En lo que respecta al proceso de desarrollo de un sistema de IA, ¿Cómo debe ser un
buen profesional en este ámbito?
8. ¿Cree que supone un problema importante para el desarrollo de sistemas de IA, el
tema de la privacidad en internet y el manejo de los datos personales de sus usuarios?
9. ¿Cree que debe haber una regulación más drástica en lo que respecta a los usos de
la IA?
10. Por último, ¿Cree que es posible que haya una influencia del factor humano en el
resultado final de un sistema IA?

Página 61 de 77
Anexo IV: Guion de la entrevista grupal a estudiantes de Ingeniería Informática con
especialización en Inteligencia Artificial
Preguntas generales IA
1. En estos años de carrera, que habéis adquirido conocimiento sobre el tema, ¿Qué
opinión tenéis de la Inteligencia Artificial, en general?
2. ¿Cómo cree que influye la rapidez del cambio tecnológico en la sociedad?
3. ¿Qué opináis sobre la ética dentro de la investigación y el desarrollo de la IA?
4. En lo que respecta al proceso de desarrollo de un sistema de IA, ¿Cómo cree que
debe ser un buen profesional en este ámbito?
Preguntas privacidad
5. ¿Cree que supone un problema importante para el desarrollo de sistemas de IA, el
tema de la privacidad en internet y el manejo de los datos personales de sus usuarios?
6. Y, siendo conscientes y habiendo estudiado las leyes de protección de datos y todo lo
que ello involucra, ¿os preocupa como usuarias de internet?
7. ¿Qué medidas propondríais para que la ciudadanía esté más informada de lo que
sucede en internet con nuestros datos personales y de navegación?
Preguntas específicas IA
8. La IA ya está presente en nuestro día a día, pero en un futuro, ¿cómo puede
afectarnos?
9. ¿Confiaríais, a día de hoy, a algún tipo de robot con IA el cuidado de personas
mayores?
10. ¿Cree que es necesario algún tipo de control profesional y ético en el desarrollo y
uso de los sistemas de IA?
11. ¿Piensa que debe haber una regulación más drástica en lo que respecta a los usos
de la IA?
12. Por último, ¿Cree que es posible que haya una influencia del factor humano en el
resultado final de un sistema IA?

Página 62 de 77
Anexo V: Guion de la entrevista grupal a usuarios/as de internet
Preguntas generales de la IA
1. ¿Qué es lo primero que se os viene a la mente cuando oís hablar de Inteligencia
Artificial?
2. Desde un punto de vista general, ¿tenéis una actitud positiva o negativa de la IA? ¿Por
qué?
Preguntas sobre la privacidad
3. La IA es utilizada para darnos publicidad personalizada por internet, por lo que
necesita recoger información sobre las páginas que visitamos, o la información que
cedemos ¿qué opinión tenéis de esto?
4. Y, ¿qué piensa de la protección de datos personales y el posible uso de información
personal por otras personas?
5. Y, teniendo esto en cuenta, ¿lee las políticas de privacidad de las páginas de internet
o de las apps que instala?
6. ¿Qué medidas proponéis para que la ciudadanía esté más informada de lo que sucede
en internet con nuestros datos personales y de navegación?
Preguntas específicas IA
7. La IA ya está presente en nuestro día a día, pero en un futuro no muy lejano, ¿cómo
percibe que puede afectarnos?
8. ¿Confiaríais, a día de hoy, a algún tipo de robot con IA el cuidado de hijos/as o
personas mayores?
9. ¿Y qué opináis sobre la IA aplicada a la sanidad? (¿Puede suponer un riesgo para las
personas?)
10. ¿Cree que es necesario algún tipo de control profesional y ético en el desarrollo y
uso de los sistemas de IA?
11. ¿Piensa que debe haber una regulación más drástica en lo que respecta a los usos
de la IA?
12. Por último, ¿Cree que es posible que haya una influencia del factor humano en el
resultado final de un sistema IA?

Página 63 de 77
Anexo VI: Cuadro tipológico de las entrevistas grupales
Tabla XII. Cuadro tipológico de las entrevistas grupales

Edad Sexo
22 Hombre
Entrevista grupal I
21 Hombre
(E3)
20 Hombre
Entrevista grupal II 22 Mujer
(E4) 20 Mujer
25 Mujer
Entrevista grupal III
23 Mujer
(E5)
22 Mujer
Fuente: Elaboración propia

Anexo VII: Ficha Técnica del Innovarómetro del CIS estudio nº3216
Ámbito: Nacional.
Universo: Población residente de ambos sexos de 18 años y más.
Tamaño de la muestra:
✓ Diseñada: 6.500 entrevistas.
✓ Realizada: 6.308 entrevistas.

La distribución por Comunidades Autónomas se incluye en el Cuadro 1, al final de esta


ficha técnica.
Afijación: No proporcional.
Ponderación: Para tratar la muestra en su conjunto es necesaria la aplicación de los
coeficientes de ponderación que figuran el Cuadro 1, al final de esta ficha técnica.
Puntos de muestreo: 533 municipios en 50 provincias y las Ciudades Autónomas de
Ceuta y Melilla.
Procedimiento de muestreo: Polietápico, estratificado por conglomerados, con selección
de las unidades primarias de muestreo (municipios) y de las unidades secundarias
(secciones) de forma aleatoria proporcional, y de las unidades últimas (individuos) por
rutas aleatorias y cuotas de sexo y edad.
Los estratos se han formado por el cruce de las 17 Comunidades Autónomas y las dos
ciudades autónomas con el tamaño de hábitat, dividido en 7 categorías: menos o igual a
2.000 habitantes; de 2.001 a 10.000; de 10.001 a 50.000; de 50.001 a 100.000; de
100.001 a 400.000; de 400.001 a 1.000.000, y más de 1.000.000 de habitantes.

Página 64 de 77
cuestionarios se han aplicado mediante entrevista personal asistida por ordenador
(CAPI) en los domicilios.
Error muestral: Para un nivel de confianza del 95,5% (dos sigmas), y P=Q, el error es de
±1,26% para el conjunto de la muestra y en el supuesto de muestreo aleatorio simple.
Los errores correspondientes a cada una de las Autonomías se encuentran en el Cuadro
1, al final de esta ficha técnica.
Fecha de realización: Del 19 de junio al 18 de septiembre de 2018
Anexo VIII: Ficha Técnica del Barómetro de Mayo del CIS estudio nº 3213
Ámbito: Nacional.
Universo: Población española de ambos sexos de 18 años y más.
Tamaño de la muestra:
➢ Diseñada: 2.500 entrevistas.
➢ Realizada: 2.481 entrevistas.

Afijación: Proporcional.
Ponderación: No procede.
Puntos de Muestreo: 256 municipios y 49 provincias.
Procedimiento de muestreo: Polietápico, estratificado por conglomerados, con selección
de las unidades primarias de muestreo (municipios) y de las unidades secundarias
(secciones) de forma aleatoria proporcional, y de las unidades últimas (individuos) por
rutas aleatorias y cuotas de sexo y edad.
Los estratos se han formado por el cruce de las 17 comunidades autónomas con el
tamaño de hábitat, dividido en 7 categorías: menor o igual a 2.000 habitantes; de 2.001
a 10.000; de 10.001 a 50.000; de 50.001 a 100.000; de 100.001 a 400.000; de 400.001
a 1.000.000, y más de 1.000.000 de habitantes.
Los cuestionarios se han aplicado mediante entrevista personal en los domicilios.
Error muestral: Para un nivel de confianza del 95,5% (dos sigmas), y P = Q, el error real
es de ±2,0% para el conjunto de la muestra y en el supuesto de muestreo aleatorio
simple.

Página 65 de 77
Anexo IX: Entrevista a Experto en Inteligencia Artificial
Debido a la falta de un consentimiento explícito de la Experto entrevistada para publicar
su identidad, trataré de omitir ciertos datos personales.
1. ¿Me podría explicar en qué consiste su trabajo o trabajos? ¿Qué hace en su día a
día?
El grupo de investigación trabaja en el desarrollo de nuevos algoritmos de aprendizaje
automático. Durante los últimos años nos hemos centrado en algoritmos escalables, es
decir, que sirvan para afrontar situaciones en las que los datos o variables de los
conjuntos de datos son muy grandes, lo que hoy se llama Big Data, solo que nosotros
empezamos a trabajar ya en el año 2008, en este tema. Y también estamos trabajando
en algoritmos que tienen algún tipo de característica que nos interese, además de la
escalabilidad, como puede ser la privacidad en los datos, que es lo que se llama
“algoritmos que mantienen la privacidad”, y “algoritmos explicables” un poco en sintonía
con las nuevas líneas europeas de Inteligencia Artificial robusta y fiable.
2.- ¿me podría explicar con qué fines se desarrolla un sistema de Inteligencia Artificial?
¿Cuáles son sus objetivos principales?
El desarrollo de un sistema inteligente tiene como objetivo el poder automatizar una tarea
que en este momento necesita inteligencia para ser resuelta y los sistemas que analizan
grandes cantidades de datos o que intentan reproducir cómo trabajaría un experto en
una determinada situación, pues son sistemas de este tipo. A veces un poco difícil de
explicar, porque los algoritmos de Inteligencia Artificial es algo a lo que estamos
acostumbrados todo el tiempo porque lo llevamos en muchas aplicaciones de nuestro
móvil. Cuando utilizas google maps, mapas o cualquier aplicación… la gente está
también cambiando su forma de actuar, ya nadie te pregunta por la calle cómo se va a
tal sitio, ahora la gente va con su móvil y el algoritmo de búsqueda te está trazando, a
dónde tienes que ir y cómo te tienes que mover, y lo está haciendo en tiempo real. Los
algoritmos de recomendación estos días que tienen que ver pues con qué contenido te
va a resultar más interesante ver en una plataforma de streaming, por ejemplo. O tal
serie, tal otra… o qué ítems son más interesantes para ti en una web donde estás
eligiendo qué quieres comprar, es decir, van desde cosas que podríamos decir que ya
están integradas en nuestro día a día hasta cosas más sofisticadas, ¿no? Ahora mismo
estaba estudiando el tema de la Llamada Europea para grupos que quieran trabajar en
ayudar al tema del

Página 66 de 77
COVID-19, estudiar las series de datos, simular cómo podemos obtener mejores
resultados… La Inteligencia Artificial ha llegado ya a nuestra vida diaria, está cambiando
la forma en la que interactuamos todos como sociedad.
3. ¿Cuáles son las consecuencias de esa constante evolución, de la informática, las
ciencias de la computación y en concreto de la Inteligencia Artificial?
La informática, y muy particularmente la Inteligencia Artificial está cambiando nuestra
forma de relacionarnos como sociedad. Está facilitando muchas interacciones, pero
también todos estamos constantemente conectados a nuestros múltiples dispositivos y
esa conectividad es necesaria para funcionar en nuestra vida diaria. Nos está facilitando
muchas cosas, por ejemplo, lo que tiene que ver con la medicina, muy probablemente
cambiará la forma que tenemos de educar, cambiarán muchas áreas importantes. La
industria 4.0, es una evolución al uso de nuevas herramientas y nuevas formas de
interaccionar.
4., en lo que respecta al proceso de desarrollo de un sistema de IA, ¿Cómo debe ser un
buen profesional en este ámbito?
Los sistemas de IA no son diferentes de cualquier otro sistema informático en cuanto a
las normas del buen hacer, es decir, existen metodologías que nos dicen cómo
enfrentarnos a esto, y hoy en día existen también recomendaciones de tipo genérico, por
ejemplo, en la UE, para desarrollar buenas prácticas en la implementación de sistemas
inteligentes, que tienen que ver con el respeto a la privacidad, con el derecho al olvido…
Es bastante complejo de implementar, porque necesitamos una aproximación ética. Hay
una serie de recomendaciones a este nivel que se intentan seguir, sobre todo porque
Europa se está intentando diferenciar de las otras grandes áreas importantes en
Inteligencia Artificial, como es el área China o Estados Unidos con el tema de una
aproximación ética a la Inteligencia Artificial. Claro que todo esto ahora mismo está
bastante en suspenso dada la catástrofe que tenemos encima con el tema del virus.
5. Claro, ¿Y qué obstáculos se encuentran en la elaboración de un sistema de IA o en
su ámbito de investigación?
A ver, ¿qué los algoritmos están sesgados? Pues muy probablemente, porque los
algoritmos que trabajan sobre ciencia de datos usan datos del mundo real y el mundo
real no es perfecto, está sesgado. Entonces, lo importante es darnos cuenta de que eso
es así e intentar solucionarlo. Es más fácil solucionar el sesgo de un algoritmo que
solucionar el sesgo de una persona. Luego también hay mucha gente que está
trabajando en el tema de los algoritmos que tienen que ver por ejemplo con el lenguaje
natural, y lo habrás visto hace un tiempo… los lenguajes como el inglés no tienen género
en algunos temas como en las profesiones, pero luego, los lenguajes latinos sí.
Entonces, cuando tú traduces clinician o physician, que en inglés no tiene género, en
español lo traducían como médico. Ahora, google, por ejemplo, y otros traductores están
traduciendo “médico/médica”, pero sí que es cierto que algunos algoritmos que se utilizan
para traducir en el lenguaje natural tienen sesgos debido a este tipo de situaciones y hay
Congresos especializados en detectar este tipo de cosas y en luchar contra ello. Yo creo
que es importante que nos demos cuenta de que eso es así porque el futuro yo creo que

Página 67 de 77
será igualitario o no será, pero eso también necesita un esfuerzo de toda la sociedad, no
es sólo que las personas que estemos trabajando en Inteligencia Artificial nos
esforcemos, sino que todos debemos darnos cuenta de que existen sesgos y contra esos
sesgos hay que luchar. Y no solamente existen sesgos de género, también existen
sesgos que tienen que ver con la etnia o de otro tipo.
9., perfecto. Y, cree que supone un problema importante para el desarrollo de sistemas
de IA, el tema de la privacidad en internet y el manejo de los datos personales de sus
usuarios, ¿no? Como ya me comentó antes, ¿me puede comentar más sobre este tema?
A ver, el tema de la privacidad es algo que se está regulando por ley en la UE, pero es
complicado porque hay una responsabilidad también en todos nosotros que no estamos
asumiendo. Yo creo que las personas se van a dar cuenta, cada vez más, de que la
privacidad es importante, pero hay situaciones que ponen este tema en jaque. Piensa,
por ejemplo, cómo ha hecho China para usar los móviles o datos de internet para luchar
contra la pandemia, y que es también lo que está pasando en Europa… A veces tenemos
que ceder privacidad para conseguir algún tipo de ventaja. Y no es tan sencillo todo esto,
es decir, no es: yo me cierro, mis datos son míos y tengo derecho a mi privacidad… Sí,
pero a veces tenemos que ceder privacidad y derechos por un bien común, que es lo
que está pasando ahora mismo. La gente se está quedando en su casa y está
renunciando a muchos de sus derechos por el bien común. Claro que tenemos derecho
a la privacidad y claro que hay que regular todo esto, pero no es sencillo de hacer, y
muchas veces las situaciones nos ponen a prueba.

Página 68 de 77
10. Claro, ¿cómo impacta e impactará la Inteligencia Artificial en el mercado laboral?
Ahora mismo es un poco difícil hablar de esto con la situación económica que tenemos
en el mundo… Ahora mismo estamos entrando en una economía de posguerra… Lo
hemos visto anunciado por el presidente del país y tenemos un problema a nivel europeo.
Entonces, yo lo que te puedo contar es lo que estábamos viendo que iba a pasar antes
y es que estamos en medio de una revolución que sería lo que se llama la quinta
revolución industrial y bueno, pues que hay trabajos que se van a transformar…
mayormente ésta será la situación más común. Habrá tareas que realiza una máquina
mejor que una persona y las personas íbamos a tener que convivir con una situación en
la que parte de tu trabajo, quizás el más rutinario, va a ser realizado por una máquina. Si
ponemos un ejemplo en el campo de la medicina, es un campo que se ha transformado
muchísimo desde… yo todavía puedo recordar, y lo podemos ver en las películas cuando
los médicos tenían una relación con la tecnología mucho menor que ahora. Ahora hay
un montón de pruebas médicas que se pueden hacer vía imagen, es mucho más precisa
la medicina, puedes prevenir mejor… Ese tipo de situaciones en las que se ha
incorporado la tecnología a una profesión, no la ha eliminado, simplemente la ha
cambiado. Entonces, las personas se dedican a la parte, digamos, más creativa, más
novedosa de la profesión, mientras que las pruebas más rutinarias pues son asumidas
por una máquina que es capaz de tener mucha más capacidad de analizar patrones, los
hace mucho más rápido y se equivoca mucho menos, ¿no? En cambio, los profesionales
son capaces de tomar decisiones con mejor fundamento. No solo pasa en medicina,
también en el trading en bolsa… en muchas áreas. Hay otros trabajos que van a
desaparecer claramente y lo estamos viendo en la calle, todo lo que tiene que ver con
profesiones que están automatizándose prácticamente por completo, y eso será una
parte importante. Y luego habrá profesiones nuevas que no conocemos y que tendrán
que ver con la ciberseguridad, con la informática, con la Inteligencia Artificial o con otras
áreas como los cuidados personales, por ejemplo. Ahora mismo la situación de empleo
es seria y supongo que requerirá un análisis importante que tenga que ver con la IA, pero
también con otras cuestiones.

Página 69 de 77
10., ¿es posible que haya una influencia del factor humano en el resultado final de un
sistema de Inteligencia Artificial, por parte de desarrolladores o la empresa que lo
contrate?
Pues a ver… desarrollar un sistema de Inteligencia Artificial no es una cuestión trivial y
existe una parte de evaluación del sistema que implica a un conjunto de ingenieros.
Normalmente esto no es la obra de una sola persona. Se debe evaluar y debe pasar una
prueba de calidad, y después debe pasar una serie de evaluaciones para que eso esté
en una empresa y sea público. Que por supuesto puede haber cuestiones
conspiratorias…pues no sé qué decirte… yo lo veo factible pero tremendamente
complicado de hacer, no sería lo habitual. Existen controles de calidad, evaluaciones del
sistema, pruebas de mercado…Y normalmente los ingenieros que trabajamos en
informática, en Inteligencia Artificial, o cualquier otra área somos personas que trabajan
para tener un producto interesante y que esté al servicio de un tema determinado.
Claro, el objetivo es mejorar la calidad de vida de las personas al final, ¿no?
Claro
11. Por último, en la toma de decisiones de un sistema basado en IA, ¿qué tipo de
medidas se toman en cuanto al impacto que puede producir en la sociedad? ¿me puede
hablar más sobre este tema?
Existen una serie de controles que hay que pasar para tu producto, que tiene que estar
refrendado por unas cuestiones de calidad. Estar avalado por la Unión Europea, por un
Comité de estándares… Es lo que estamos viendo por ejemplo con este tema del COVID,
pues lo estaba diciendo el otro día el presidente cuando hablaba de los test que se
utilizan para detectar un determinado tipo de cuestiones… pues tienen que estar
homologados. La misma historia, pero con Inteligencia Artificial, es decir hay una serie
de controles de seguridad que hay que pasar con cualquier producto informático y por
supuesto con cualquier sistema inteligente.

Página 70 de 77
Referencias

AI Now (2019). About the AI Now Institute. Recuperado de: https://ainowinstitute.org/

Alandete, D. (27 de octubre de 2011). John McCarthy, el arranque de la inteligencia


artificial. El País. Recuperado de:
https://elpais.com/diario/2011/10/27/necrologicas/1319666402_850215.html

Alcolea, A. (29 de abril de 2018). 10 usos de la inteligencia artificial que nadie se hubiera
imaginado. Computerhoy. Recuperado de: https://computerhoy.com/noticias/life/10-
usos-inteligencia-artificial-que-nadie-hubiera-imaginado-79811

Amnistía Internacional. (8 de abril de 2020). Todo lo que deberías saber sobre


coronavirus y vigilancia masiva. Amnistía Internacional. Recuperado de:
https://www.es.amnesty.org/en-que-estamos/blog/historia/articulo/todo-lo-que-deberias-
saber-sobre-coronavirus-y-vigilancia-masiva/

Beck, U. (1998). La sociedad del Riesgo: hacia una nueva Modernidad. Buenos Aires,
Argentina: Paidós.

Beck, U. (2002). La sociedad del riesgo global. España. Siglo XXI de España Editores.

Berzal, F. (9 de febrero de 2017). Breve historia de la inteligencia artificial: el camino


hacia la empresa. Asesoresdepymes. Recuperado de:
http://asesoresdepymes.com/breve-historia-la-inteligencia-artificial-camino-hacia-la-
empresa/

Campolo, A. (2017). AI Now 2017 Report. Recuperado de: https://ainowinstitute.org/

Página 71 de 77
Chas, A. (2020). Qué es la Inteligencia Artificial. AuraPortal. Recuperado de:
https://www.auraportal.com/es/que-es-la-inteligencia-artificial/ CIS (19 de junio de 2018).
Innovarómetro. Recuperado de:
http://www.cis.es/cis/opencm/ES/2_bancodatos/estudios/ver.jsp?estudio=14401
Comisión Europea. (2019). Comunicación de la Comisión al Parlamento Europeo, al
Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones. Generar
confianza en la inteligencia artificial centrada en el ser humano. ec.europa.eu.
Recuperado de: https://ec.europa.eu/transparency/regdoc/rep/1/2019/ES/COM-2019-
168-F1-ES-MAIN-PART-1.PDF

De la Torre, I. (2018). La disrupción tecnológica ya está aquí. Cómo afecta a las


personas, los gobiernos y las empresas. Cuadernos de estrategia, (199), 25-68.
Recuperado de: https://dialnet.unirioja.es/servlet/articulo?codigo=6831582

Del Río, M.L., López, J.M. & Vaquero, C. (2018). Inteligencia artificial en el ámbito
médico. Revista española de investigaciones quirúrgicas, 21(3), 113-116. Recuperado
de: https://dialnet.unirioja.es/servlet/articulo?codigo=6601260

Doménech, M. & Tirado, F.J. (1998). Sociología simétrica. Ensayos sobre ciencia,
tecnología y sociedad. Revista Española de Investigaciones Sociológicas. 89, 143-170

Espinosa, M.F. (octubre, 2018). Impacto del rápido cambio tecnológico en la consecución
de los ODS. Trabajo presentado en 73º Periodo De Sesiones De La Asamblea General.

Fast, N.J. & Schroeder, J. (2020). Power and decision making: new directions for
research in the age of artificial intelligence. Current Opinion in Psychology, 33, 172-176.
Recuperado de: https://www-sciencedirect-
com.accedys.udc.es/science/article/pii/S2352250X19301198?via%3Dihub

Foucault, M. [1975] 2009. Vigilar y castigar. Nacimiento de la prisión. Madrid: Siglo XXI
Frey, W., Patton, D., Gaskell, M. & McGregor, K. (2020). Artificial Intelligence and
Inclusion: Formerly Gang-Involved Youth as Domain Experts for Analyzing Unstructured
Twitter Data. Social Science Computer Review, 38(1). Recuperado de: https://journals-
sagepub-com.accedys.udc.es/doi/10.1177/0894439318788314

García, A. (2012). Inteligencia Artificial. Fundamentos, práctica y aplicaciones. Madrid,


España: RC Libros. García, L.F. (2019). La vigilancia con inteligencia artificial.

Página 72 de 77
Inteligencia artificial: DDHH, justicia social y desarrollo. (545). Recuperado de:
https://www.alainet.org/es/articulo/203420

Garrell, A. & Guilera, L. (2019). La Industria 4.0 en la sociedad digital. Barcelona, España:
Marge Books.

Gassmann, O., Böhm, J. & Palmié, M. (2019). Smart Cities: Introducing Digital Innovation
to Cities. Bingley, UK: Emerald Group Publishing.

González, M. I., Luján, J. L. & López, J. A. (1996). Ciencia, tecnología y sociedad una
introducción al estudio social de la ciencia y la tecnología. Tecnos. Recuperado de:
https://dialnet.unirioja.es/servlet/libro?codigo=152348

Goralski, M.A. & Tan, T.K. (2020). Artificial intelligence and sustainable development. The
International Journal of Management Education, 18(1). Recuperado de:
https://www.sciencedirect.com/science/article/pii/S1472811719300138

Guzman, A.L. & Lewis, S.C. (2019). Artificial intelligence and communication: A Human–
Machine Communication research agenda. New Media & Society, 22(1). Recuperado de:
https://journals-sagepub-com.accedys.udc.es/doi/10.1177/1461444819858691

Hernández-Sampieri, R. (2014) Metodología de la investigación. México: Mc Graw Hill

Hintze, A. (14 de noviembre de 2016). Understanding the four types of AI, from reactive
robots to self-aware beings. The Conversation. Recuperado de:
https://theconversation.com/understanding-the-four-types-of-ai-from-reactive-robots-to-
self-aware-beings-67616
Hu, W.-L., Akash, K., Reid, T., & Jain, N. (2019). Computational Modeling of the
Dynamics of Human Trust during Human-Machine Interactions. IEEE Transactions on
Human-Machine Systems, 49(6), 485-497. Recuperado de: https://ieeexplore-ieee-
org.accedys.udc.es/document/8502860
Ienca, M. (2019). Democratizing cognitive technology: a proactive approach. Ethics and
Information Technology, 21(4), 267-280. Recuperado de:
https://link.springer.com/article/10.1007/s10676-018-9453-9

Página 73 de 77
Iglesias, A. (15 de septiembre de 2016). La historia de la inteligencia artificial: desde los
orígenes hasta hoy. Ticbeat. Recuperado de: https://www.ticbeat.com/innovacion/la-
historia-de-la-inteligencia-artificial-desde-los-origenes-hasta-hoy/

Latour, B. (2008). Reensamblar lo social–una introducción a la teoría del actor-red.


[2005]. Buenos Aires, Argentina: Manantial.

Lee, A.J. & Cook, P.S. (2020). The myth of the “data‐driven” society: Exploring the
interactions of data interfaces, circulations, and abstractions. Sociology Compass 14 (1).
Recuperado de: https://onlinelibrary-wiley-
com.accedys.udc.es/doi/full/10.1111/soc4.12749

Leong, B. (2019). Facial recognition and the future of privacy: I always feel like …
somebody’s watching me. Bulletin of the Atomic Scientists, 75(3), 109-115. Recuperado
de: https://www-tandfonline-
com.accedys.udc.es/doi/full/10.1080/00963402.2019.1604886

Lévy, P. (2004). Inteligencia colectiva: por una antropología del ciberespacio. [Traducido
al español de Felino Martínez Álvarez]. Washington, DC: bvs.

Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía


de los derechos digitales. BOE núm. 294, de 06 de diciembre de 2018.

López, F. (2013). Baudrillard y la teoría postmoderna sobre la media. Claridades: revista


de filosofía. 5 (1), 14-31. Recuperado de:
https://dialnet.unirioja.es/servlet/articulo?codigo=6297561

Martí, A. (11 de mayo de 2020). En Singapur han puesto a los robots de Boston Dynamics
a vigilar que se guarde la distancia de seguridad en los parques. Xataka. Recuperado
de: https://www.xataka.com/robotica-e-ia/singapur-han-puesto-a-robots-boston-
dynamics-a-vigilar-que-se-guarde-distancia-seguridad-parques

Página 74 de 77
McCarthy, J., Minsky, M.L., Rochester, N. & Shannon, C. (1955) A Proposal for the
Dartmouth Summer Research Project on Artificial Intelligence. En Chrisley, R. Artificial
Intelligence: Critical Concepts (44-54), Londres: Routledge.

Ministerio de Ciencia, Innovación y Universidades (2019) Estrategia española de I+D+I


en Inteligencia Artificial. Recuperado de: http://www.ciencia.gob.es/

Monterroza, A. (2017). Una revisión crítica a la teoría del Actor-red para el estudio de los
artefactos. Revista Trilogía. 9(17), 49-62. Recuperado de:
https://dialnet.unirioja.es/servlet/articulo?codigo=6090400

Moreno, E., Pol, E. (1999). Nociones psicosociales para la intervención y la gestión


ambiental. Barcelona, España: Universitat de Barcelona.

Otero, E. (1998). El "Programa Fuerte" en Sociología de la ciencia y sus críticos. Revista


austral de ciencias sociales. (2), 89-94. Recuperado de:
https://dialnet.unirioja.es/servlet/articulo?codigo=2143875

Russell, S., & Norvig, P. Inteligencia Artificial un enfoque moderno. [Traducido al español
de Juan Manuel Corchado Rodríguez]. 2ª ed. Madrid, España: Pearson Prentice Hall.

Salas, J. (16 de noviembre de 2019). El temor a la inteligencia artificial surge del recelo
hacia los intereses económicos. El País. Recuperado de:
https://elpais.com/elpais/2019/11/14/ciencia/1573728249_279206.html

Taylor, C.R. (2019). Artificial intelligence, customized communications, privacy, and the
General Data Protection Regulation (GDPR). International Journal of Advertising. 38(5),
649-650. Recuperado de: https://www-tandfonline-
com.accedys.udc.es/doi/full/10.1080/02650487.2019.1618032

Página 75 de 77
Toğaçar, M., Ergen, B. & Cömert, Z. (2020). COVID-19 detection using deep learning
models to exploit Social Mimic Optimization and structured chest X-ray images using
fuzzy color and stacking approaches. Computers in Biology and Medicine. Recuperado
de: https://www.sciencedirect.com/science/article/pii/S0010482520301736

Trigo-Guedes, R. & Palma-Dos-Reis, A. (2019). Essays on the post-artificial intelligence


society: Potential effects of its diffusion. Iberian Conference on Information Systems and
Technologies, CISTI. Recuperado de: https://ieeexplore-ieee-
org.accedys.udc.es/document/8760879/

Vaishya, R., Javaid, M., Haleem, I., & Haleem, A. (2020). Aplicaciones de Inteligencia
Artificial (AI) para la pandemia de COVID-19. 14(4), 337-339. Recuperado de:
https://www.sciencedirect.com/science/article/pii/S1871402120300771

Vargas, I. (2012). La entrevista en la investigación cualitativa: Nuevas tendencias y retos.


Revista Calidad en la Educación Superior. 3(1), 119-139. Recuperado de:
http://biblioteca.icap.ac.cr/BLIVI/COLECCION_UNPAN/BOL_DICIEMBRE_2013_69/UN
ED/2012/investigacion_cualitativa.pdf

Winner, L. (1987). La ballena y el reactor. Una búsqueda de los límites en la era de la


alta tecnología. [Traducido al español de Elizabeth B. Casals]. 2ª ed. Barcelona, España:
Gedisa.

Página 76 de 77

También podría gustarte