LTIC - ET1 - Exp Ap - I - GONZALEZ - RICARDO
LTIC - ET1 - Exp Ap - I - GONZALEZ - RICARDO
LTIC - ET1 - Exp Ap - I - GONZALEZ - RICARDO
Experiencia de Aprendizaje 1
Nombre de la actividad
Organización, procesamiento e integración de la información
Estudiante
González Castañeda Ricardo Aurelio
Matrícula
IRC2019-2-E-6760
Asignatura
Seminario de Investigación de Servicios Tecnológicos
Grupo
LAIT8201B2_O_24-1_SAS_G802
Docente en línea
Imelda Berenice González Juárez
CAMPUS A DISTANCIA
CAMPUS A DISTANCIA
TESIS
Qué Para obtener el título de:
Licenciado en Tecnologías de Información y
Comunicación
Presenta:
RICARDO AURELIO GONZALEZ CASTAÑEDA
A mi esposa y mi hijo:
María Cristina Hernández Mayen
Jesús Ricardo González Hernandez
A mis padres
Alicia Nohemí Castañeda Gutiérrez
Eduardo González González
A mis hermanos
Amanda Noemi González Castañeda
Juan Eduardo González Castañeda
Página 1 de 77
ÍNDICE
INTRODUCCIÓN ........................................................................................................ 3
3 MARCO TEORICO .................................................................................................. 4
3.1 DEFINICIÓN Y EVOLUCIÓN SOCIO-HISTÓRICA DE LA INTELIGENCIA ARTIFICIAL ..........4 A 5
3.1.1 USOS Y APLICACIONES SOCIALES DE LA INTELIGENCIA ARTIFICIAL .........................4 A 12
3.2 APROXIMACIÓN AL MARCO NORMATIVO DE LA INTELIGENCIA ARTIFICIAL ...............13 A 18
3.3.1 APROXIMACIÓN A LOS ESTUDIOS SOCIALES DE LA CIENCIA Y LA TECNOLOGÍA ..18 A 20
3.3.2 APROXIMACIÓN A LOS ESTUDIOS SOCIALES SOBRE EL RIESGO. ...........................21 A 25
4 METODOLOGÍA ......................................................................................................................... 26
4.1 ANÁLISIS DE FUENTES DE DATOS SECUNDARIOS DEL INNOVARÓMETRO (Nº3216) Y DEL
BARÓMETRO DE MAYO DE 2018 (Nº 3213)....................................................................................... 27
4.2 LA INVESTIGACIÓN CUALITATIVA ............................................................................................... 28
CONCLUSIONES ............................................................................................ 57 A 59
ANEXOS .......................................................................................................... 60 A 71
REFERENCIAS ............................................................................................... 72 A 77
Página 2 de 77
INTRODUCCIÓN
Página 3 de 77
DESARROLLO
3 Marco teórico
En este apartado se ha realizado una aproximación al contexto teórico necesario para
detallar qué es la IA y sus usos, pero, sobre todo, para acercarnos a lo que esta
tecnología supone en nuestro día a día como sociedad. Por tanto, este marco consta de
tres grandes apartados. El primero engloba la evolución socio-histórica de la Inteligencia
Artificial, tratando, además, sus usos y aplicaciones sociales. A continuación,
esbozaremos el marco normativo sobre el que se asienta el desarrollo y aplicación de la
IA; y, por último, se realizará una aproximación a los estudios e investigaciones previas
en el ámbito de la sociología que permiten aproximarse a los conflictos sociales que
puede suponer la IA.
3.1
Definición y evolución socio-histórica de la Inteligencia Artificial.
En lo que respecta al propio término de Inteligencia Artificial, el Ministerio de Ciencia,
Innovación y Universidades (2019), lo define como “la Ciencia e Ingeniería que permite
diseñar y programar máquinas capaces de llevar a cabo tareas que requieren inteligencia
para ser realizadas” (p.13). Sin embargo, para profundizar y poder comprender dicha
tecnología, haremos referencia a los cuatro tipos de IA definidos por Arend Hintze.
En primer lugar, se encuentran las llamadas máquinas reactivas. Son las más básicas y
no pueden formar recuerdos ni utilizar experiencias pasadas para tomar decisiones, es
decir, no pueden funcionar más allá de las tareas para las que fueron diseñadas. El
segundo tipo (memoria limitada), a diferencia del primero, es capaz de adquirir
información de experiencias pasadas, aunque su memoria es transitoria y no se puede
utilizar para futuras experiencias, siendo el caso de los vehículos autónomos. En tercer
lugar, encontramos las máquinas con una “Teoría de la mente”, las cuales son capaces
de formar representaciones del mundo y sobre otros agentes o entidades con los que
interactúa. Por tanto, pueden llegar a comprender que algunas entidades, como las
personas, tienen pensamientos y emociones que afectan a su propio comportamiento.
Que estos sistemas lleguen a entender los motivos por los cuales actuamos, las
intenciones o reconocer emociones, es crucial para establecer una interacción positiva
entre estos sistemas y el mundo que las rodea. El cuarto y último tipo de IA es la
autoconciencia. Se trata de una extensión de la “Teoría de la mente” y se basa en
Página 4 de 77
construir sistemas que sean capaces de crear representaciones sobre sí mismas. De
acuerdo con Hintze, aún queda un largo camino para conseguir la IA autoconsciente
(Hintze, 2016).
En la década de 1940 surgen los primeros estudios sobre los usos y aplicaciones de la
IA. Concretamente, Warren McCulloch y Walter Pitts son considerados como los autores
del primer trabajo de IA. Sin embargo, es a Alan Turing al que se considera como padre
de la Inteligencia Artificial, ya que en 1950 es el primero en dar una visión de dicha
tecnología, en su artículo Computing Machinery and Intelligence. Es aquí donde
introduce el Test de Turing, mediante el cual se prueba la capacidad de una máquina
para razonar de manera similar a un ser humano: “El computador supera la prueba si un
evaluador humano no es capaz de distinguir si las respuestas, a una serie de preguntas
planteadas, son de una persona o no” (Rusell & Norvig, 1996, p.3).
Sin embargo, cabe comentar que muchos investigadores consideran que el nacimiento
de la IA moderna surge en 1956, en el momento en que John McCarthy, Marvin Minsky
y Claude Shannon acuñan oficialmente el término de Inteligencia Artificial durante la
Conferencia de Dartmouth (Alandete, 2011). Según Rusell & Norvig (1996), la IA se
convierte en una ciencia en el año 1987, de tal forma que se redefine tanto el contenido
como la metodología de trabajo en el campo de la Inteligencia Artificial.
Página 5 de 77
programa Jeopardy!, en el que se realizaban preguntas de cultura general.
Posteriormente, entre el 2011 y el 2014, se llevan a cabo los lanzamientos de los
asistentes virtuales Siri, Google Now y Cortana, dándose comienzo a las primeras
experiencias de aprendizaje automático y los primeros indicios de aprendizaje profundo
(Berzal, 2017; Iglesias, 2016).
Según Garrell & Guilera (2019), actualmente nos encontramos en la llamada Industria
4.0 o la cuarta revolución industrial, marcada por avances tecnológicos como los robots
autónomos, el Internet de las cosas, mejor procesamiento del Big Data, la realidad
aumentada, etc., donde la Inteligencia Artificial tiene un papel principal. La
implementación de esta Industria 4.0 afecta, por tanto, a todo el sistema de producción,
desde el diseño inicial hasta el bien o servicio ofrecido:
Nos encontramos en un período de profunda transformación que ha revolucionado la
manera en que los comercios venden y las personas usuarias compran. En la sociedad
digitalizada, quienes consumen están muy bien informados; en algunas ocasiones
incluso podríamos afirmar que sobre informados.
3.1.1
Usos y aplicaciones sociales de la Inteligencia Artificial
En la actualidad, la Inteligencia Artificial se está aplicando a una amplia variedad de
campos y disciplinas. Esto viene dado por las grandes inversiones por parte de
empresas, gobiernos e instituciones para el desarrollo de dicha tecnología. Además,
García (2012) aclara que:
Mucha culpa de todo esto la tiene internet, cuya gran cantidad de información facilita el
acceso a grandes cantidades de datos analizables y a su vez demanda de nuevas
técnicas que permitan manejar tales cantidades de información. Google es un ejemplo
claro, cuyo buscador es capaz de ir aprendiendo de los clics de los usuarios para mejorar
los resultados de las búsquedas.
Página 6 de 77
En este contexto, es importante especificar algunos de los usos que se le dan a la
Inteligencia Artificial en la actualidad. Por ejemplo, en los teléfonos móviles de hoy en
día, se puede encontrar la IA en los reconocimientos de voz, faciales o dactilares.
Además, en algunos móviles esta tecnología ya está incorporada para mejorar las
fotografías realizadas con el mismo. Otros de sus usos son la fabricación de vehículos
autónomos, la automatización de procesos en fábricas, la filtración de correos que llevan
spam o malwares, o en el diseño de videojuegos. Asimismo, a una escala mayor, es
importante comentar su aplicación en el campo de la medicina, ya que la IA es capaz de
dar asistencia a un médico en la toma de decisiones, administrar medicamentos,
supervisar las condiciones de los pacientes, e incluso diagnosticar enfermedades de
difícil identificación (Alcolea, 2018; del Río, López & Vaquero, 2018; García, 2012).
Otra de las aplicaciones que puede desempeñar la IA, posicionándonos en una visión
más a largo plazo, es en los procesos educativos. Goralski y Tan (2020), afirman que se
puede utilizar para transformar toda la estructura de la educación formal y de la
información. Se trata de una función muy importante en la que destacan el acceso a las
traducciones, cada vez con resultados más exactos, o la asistencia científica que los/as
estudiantes utilizan como “compañero de enseñanza”. Además, es interesante la
apreciación de estos autores acerca de que para los/as niños/as, el hecho de asimilar la
IA dentro de los programas de enseñanza, no será “antinatural”, ya que interactúan con
mucha facilidad.
Página 7 de 77
En este sentido, Espinosa (2018), presidenta del 73º periodo de sesiones de la Asamblea
General de las Naciones Unidas, afirma que los rápidos cambios tecnológicos tienen un
impacto en los diecisiete Objetivos de Desarrollo Sostenible (ODS). Así, consideran
indispensable valorar aquellos cambios tecnológicos que conlleven un beneficio para los
objetivos planteados, así como los que podrían suponer una amenaza para lograrlos. En
concreto, profundizan sobre el impacto en el empleo, el medio ambiente y la accesibilidad
de los avances tecnológicos para el conjunto de la población.
En lo que respecta a la meta del empleo pleno y productivo y el trabajo decente para
todas las personas, se ha de tener en cuenta la automatización de algunos puestos de
trabajo. De esta forma, se estima que “la automatización eliminaría 75 millones de
empleos para el año 2022, pero crearía asimismo 133 millones de nuevas oportunidades
laborales” (Espinosa, 2018). A esta afirmación, de la Torre (2018) considera que, a pesar
de la aparición de nuevos puestos de trabajo, hay que tener en cuenta que “el ritmo de
destrucción de empleos podría ser más rápido que el de creación, especialmente entre
las capas de trabajadores menos cualificados y en los países más pobres” (p. 28).
Por otro lado, Espinosa (2018), señala la importancia de este cambio tecnológico en la
acción climática, haciendo hincapié en la generación de fuentes de energía limpia y
asequible. Y, por último, habla de abordar el cambio tecnológico manteniendo el
bienestar de todas las personas como prioridad, procurando que sean accesibles para
el conjunto de la población, y así no aumente la desigualdad. Además, apunta que solo
el 48% de la población mundial tiene acceso a internet, lo que demuestra la existencia
de una brecha digital, la cual supone un obstáculo al desarrollo sostenible.
Goralski y Tan (2020), llevaron a cabo tres estudios de caso en los que se observa que
la IA puede favorecer el esfuerzo global para promover el desarrollo económico, así como
enfrentar de forma sostenible el impacto de nuestra producción y hábitos de consumo en
la sociedad, sistemas de gobernanza y en el medio ambiente. Por otra parte, explican
que innovadores, activistas y defensores mundiales del desarrollo que utilizan
aplicaciones habilitadas para IA, constatan que han mejorado la eficiencia de las
industrias y sectores, han ayudado a conservar recursos no renovables, a apaciguar las
brechas globales en recursos y tecnología, así como a planear asociaciones
Página 8 de 77
multisectoriales efectivas que contribuyen a la sostenibilidad global. Sin embargo,
Goralski y Tan (2020), también aluden a los riesgos que puede llevar consigo la IA:
Sus aplicaciones que afirman la vida y promueven la sostenibilidad también pueden
usarse para el mal, en actividades que exacerbarán los peores impactos del
calentamiento global, la contaminación, el consumo desenfrenado y los métodos de
producción irresponsables para alimentar la cultura del crecimiento perpetuo endémico
del orden económico global capitalista de hoy (p.7).
Siguiendo con lo anterior, es necesario mencionar el debate que está surgiendo acerca
de la necesidad de que se utilicen datos personales de los/as ciudadanos/as, para que
se puedan llevar a cabo estas aplicaciones. Desde el MIT, explican:
Diferentes partes del mundo tienen diferentes regulaciones de privacidad para los datos
médicos. Y muchos de nosotros ya no queremos que nuestros datos sean accesibles a
terceros. Las nuevas técnicas de procesamiento de datos, como la privacidad diferencial
y la capacitación sobre datos sintéticos en lugar de datos reales, podrían ofrecer una
forma de superar este debate. Pero esta tecnología aún se está perfeccionando.
Encontrar un acuerdo sobre las normas internacionales llevará aún más tiempo.
Página 9 de 77
Sin embargo, Amnistía Internacional (2020) explica que varios Estados están recurriendo
a la IA y tecnologías de macrodatos para combatir el virus. En concreto, China está
utilizando escáneres térmicos y tecnologías de reconocimiento facial en espacios
públicos para rastrear la propagación del virus. Asimismo, señalan la discriminación que
pueden acarrear estas tecnologías ante esta situación:
Las tecnologías de Inteligencia Artificial también podrían aumentar las posibilidades de
discriminación ilícita y pueden perjudicar de forma desproporcionada a comunidades ya
marginadas. Muchas de las tecnologías que se están introduciendo usan algoritmos
opacos con datos sesgados cuyo uso en la toma de decisiones afianza la discriminación
de ciertos grupos.
De igual manera, Amnistía Internacional (2020) aclara que los gobiernos no deben usar
tecnologías de vigilancia para recopilar datos más allá de los que sean legítimamente
necesarios para contener la enfermedad.
Debido a la situación actual, estas nuevas tecnologías están adquiriendo más espacio.
Por ejemplo, en Singapur han puesto en marcha un “perro-robot”. Se trata de un androide
encargado de vigilar, por el momento, el parque de Bishan-Ang Mo Kio, emitiendo
mensajes que recuerdan la necesidad de mantener la distancia de seguridad entre
personas. Además, ayuda a calcular el número de visitantes del parque (Martí, 2020).
Página 10 de 77
Concretamente, es importante destacar la afirmación de Böhm (2019) de que “ninguno
de nosotros se puede oponer a la recopilación de datos”. Si actualmente ya hay una falta
de confianza en el manejo de nuestros datos personales, esta afirmación podría generar
un gran descontento social.
Página 11 de 77
y se encontró una falta de adhesión en cuanto a la reducción de las horas de trabajo, así
como un temor generalizado al aumento del desempleo. Estos contrastes nos invitan a
reflexionar acerca de los caminos que ha de seguir el desarrollo y el uso de la Inteligencia
Artificial para que el ser humano no salga perdiendo (Trigo-Guedes, 2019). Por último,
en los posibles efectos que se podrían dar en el estilo y las condiciones de vida en
sociedad, se engloba el uso de los robots con asistencia social para personas de la
tercera edad y con diversidad funcional, una reducción de la comunicación entre
personas cercanas y un aumento del tiempo libre (Trigo-Guedes, 2019). Aunque dicha
investigación no se centra en la realidad social actual, sino que trata las perspectivas
para el futuro, es interesante tener en cuenta estas cuestiones. Frey, Patton, Gaskell &
McGregor (2020), trataron de estudiar la extracción e interpretación de datos de redes
sociales para estudiar la condición humana, a través de mecanismos de Inteligencia
Artificial. De esta manera, encontraron que, al analizar los datos de comunidades
marginadas, los algoritmos carecían de capacidad para interpretar con precisión el
contexto social, lo cual puede llevar a resultados inexactos o a suposiciones negativas
para dichas comunidades. Con este interés por apoyar y proteger las inequidades
sociales que esperamos mejorar”. Con todo, desde aproximadamente 1990 hasta el día
de hoy, la Inteligencia Artificial ha adquirido gran relevancia en la sociedad. Esta
tecnología permite que robots realicen tareas rutinarias con precisión y reduciendo el
error humano. Además, al contar con un gran volumen de información, son capaces de
tomar decisiones de manera muy rápida y eficiente, y hasta contribuir a la sostenibilidad
global. Éstos son algunos de los beneficios de la IA, sin embargo, plantea una serie de
cuestiones éticas. Como ya se comentó, esta tecnología necesita una enorme cantidad
de datos de la población, lo que genera una gran dependencia hacia los mismos y una
invasión de la privacidad en la ciudadanía. Además, acarrea la presencia de sesgos en
los algoritmos, ya que éstos trabajan con dicha información, reflejando los valores
humanos. Por tanto, resulta esencial tener en cuenta los riesgos de la IA y mantener una
regulación constante de la misma desde una aproximación ética.
Página 12 de 77
3.2
Aproximación al marco normativo de la Inteligencia Artificial
Para entrar en el contexto del marco normativo de la Inteligencia Artificial, es
indispensable tener en cuenta la Ley Orgánica 3/2018, de 5 de diciembre, de Protección
de Datos Personales y garantía de los derechos digitales3. Por lo tanto, según el BOE,
el objetivo principal de dicha ley es:
Adaptar el ordenamiento jurídico español al Reglamento (UE) 2016/679 del Parlamento
Europeo y el Consejo, de 27 de abril de 2016, relativo a la protección de las personas
físicas en lo que respecta al tratamiento de sus datos personales y a la libre circulación
de estos datos, y completar sus disposiciones
.
Así, esta ley obliga a personas, empresas y organismos (públicos y privados), que
dispongan de datos personales, a cumplir unas condiciones y aplicar determinadas
medidas de seguridad. Además, se recoge como derecho universal el acceso a Internet,
así como el derecho a la desconexión digital. En cuanto a los principios de protección de
datos, en dicha ley se expone que los datos han de ser exactos y actualizados, que las
personas que intervengan en el tratamiento de los datos tienen que estar sujetas al deber
de confidencialidad, se ha de informar inequívocamente de dicho tratamiento al
“afectado”, ha de tenerse en cuenta que el consentimiento al tratamiento de datos
personales solo pueden darlo mayores de catorce años y que ha de cumplirse una
obligación legal, en interés público o en el ejercicio de poderes públicos. Asimismo, se
recoge el tratamiento de datos de naturaleza penal, así como una serie de principios para
categorías especiales de datos.
Página 13 de 77
Los sistemas de IA deben actuar como facilitadores de una sociedad equitativa, dando
apoyo a la intervención humana y los derechos fundamentales, sin disminuir o limitar la
autonomía humana.
• Solidez y seguridad técnicas.
Estos sistemas requieren que los algoritmos sean suficientemente seguros, fiables y
sólidos, para dar respuesta a fallos o incoherencias durante todas las fases de su ciclo
vital, así como en los resultados erróneos.
Es necesario garantizar la privacidad y la protección de datos en todas las fases del ciclo
vital del sistema de IA, que las personas tengan pleno control sobre sus datos y que
éstos no se utilicen para perjudicarles o discriminarles. De esta forma, se intentará que
los ciudadanos confíen en el tratamiento de sus datos.
Los sistemas de IA deben registrar y documentar las decisiones tomadas por los
sistemas. Por tanto, debe aportarse una explicación que englobe las razones por las que
los algoritmos dan uno u otro resultado.
Página 14 de 77
En este sentido, se debe comunicar a las partes interesadas y que se ven afectadas,
acerca de las capacidades y limitaciones del sistema de IA que se trate. Además, se
debe garantizar que los usuarios tengan presente que están interactuando con un
sistema de IA, así como conocer qué personas son responsables del mismo.
• Diversidad, no discriminación y equidad.
En este punto se explica que los datos utilizados por los sistemas de IA pueden verse
afectados por la inclusión de sesgos históricos involuntarios, por no estar completos o
por modelos de gobernanza deficientes. Así, la persistencia de sesgos en los datos
utilizados podría desencadenar en una discriminación. Además, se afirma que también
pueden introducirse sesgos en la manera en la que se desarrollan los sistemas de IA, y
que puede darse una explotación intencionada de sesgos (del consumidor) o por una
competencia desleal.
Para resolver estos problemas se propone, además de abordarlos desde el inicio del
desarrollo del sistema, establecer equipos de diseño y crear mecanismos que garanticen
Página 15 de 77
También se destaca la importancia de que el impacto de dichos sistemas se considere
desde la perspectiva de la sociedad en su conjunto, particularmente en lo relativo al
proceso democrático, incluyendo la formación de opinión, la toma de decisiones políticas
o en el contexto electoral. En este sentido, se menciona que ha de tenerse en cuenta la
capacidad de esta tecnología para mejorar las habilidades sociales, pero también
contribuir a su deterioro.
Rendición de cuentas.
Se considera fundamental la realización de auditorías internas y externas, tanto antes
como después de la implementación del sistema, ya que es imprescindible garantizar los
derechos fundamentales de los ciudadanos y apaciguar los riesgos de la IA.
Por último, se aclara que hay que tener en cuenta el contexto específico en el que se
aplique la IA, ya que el cumplimiento de estos requisitos será más estricto en situaciones
de alto riesgo, como puede ser el diagnóstico de un cáncer. Asimismo, la Comisión
Europea considera la dimensión ética como parte integrante del desarrollo de la IA:
En cada una de las fases de desarrollo de la IA debe estar garantizada la diversidad en
cuanto al género, el origen racial o étnico, la religión o las creencias, la discapacidad y
la edad. Las aplicaciones de IA deben empoderar a los ciudadanos y respetar sus
derechos fundamentales. Su objetivo debe ser mejorar las capacidades de las personas,
no sustituirlas, y permitir también el acceso de las personas con discapacidad (p. 3).
Página 16 de 77
en cuenta la Industria Conectada 4.0., los Recursos Naturales, Energía y Medio
ambiente, la seguridad y el turismo e industrias creativas y culturales. De esta manera,
cabe mencionar que en toda la Estrategia Española se le da bastante peso a la
Administración pública en concreto. Se afirma que: “Una de las razones que sin duda
han contribuido a este avance, ha sido el esfuerzo realizado por toda la Administración
pública para alinear las políticas españolas con los objetivos perseguidos por la UE en
materia de I+D+I”.
Página 17 de 77
Tabla II. Resumen del marco normativo de la Inteligencia Artificial
3.3
Apuntes teóricos para analizar la Inteligencia Artificial desde la sociología.
En este apartado se procurará realizar una aproximación a las aportaciones teóricas que
pueden dar un enfoque sociológico al desarrollo y usos de la IA.
3.3.1
Aproximación a los estudios sociales de la ciencia y la tecnología. Los estudios sociales
de la ciencia y la tecnología (CTS), constituyen un campo cuyo objeto de estudio se
conforma por los factores sociales que influyen sobre el cambio científico-tecnológico,
así como en lo que respecta a sus consecuencias sociales y ambientales. Este campo
Página 18 de 77
de estudio ha pasado por varias etapas y se ha tenido que enfrentar a sí mismo, a su
concepción clásica esencialista y triunfalista. Se da, por tanto, una nueva imagen del
fenómeno científico-tecnológico que emerge desde los años 70, pero que se va
asentando desde finales de la década de los 50. El optimismo
Página 19 de 77
Es relevante mencionar las aportaciones de Winner (1987) en cuanto a las problemáticas
sociales y políticas que rodean al cambio tecnológico moderno. Este autor ha hecho
grandes aportaciones a los estudios CTS con conceptos como el sonambulismo
Página 20 de 77
3.3.2
Aproximación a los estudios sociales sobre el riesgo. Los estudios sociales sobre el
riesgo están asentados en tres enfoques: el técnico, el psicométrico y el socio-cultural.
En el primero, el riesgo se contempla como una propiedad objetiva, el cual se calcula
mediante la probabilidad de que ocurra el daño y la magnitud del mismo. En el enfoque
psicométrico, el riesgo se considera como una propiedad subjetiva que depende de la
aceptación del mismo por parte del individuo. Por último, el enfoque socio-cultural, en el
cual nos basaremos, es aquel que observa el riesgo como una construcción social. Por
tanto, se centra en el estudio de los factores socioculturales vinculados a estructuras
sociales dadas (Moreno & Pol, 1999). El concepto de riesgo se puede considerar como
una importante herramienta teórica para los estudios de la sociología contemporánea
para interpretar las dinámicas de la sociedad moderna. En este campo destacan tres
sociólogos: Ulrich Beck, Anthony Giddens y Niklas Luhmann. Sin embargo, el principal
ha sido Beck, con su obra La sociedad del riesgo. Desde la sociedad industrial hasta “la
sociedad del riesgo” se llega a través de dos fases. En la primera se originan amenazas
que no están presentes en el debate público. Sin embargo, en el momento en que estas
amenazas entran en dichos debates, quedan legitimadas y se alcanza la segunda fase,
en la cual la sociedad es consciente de esa generación de amenazas incontroladas
(Beck, 1998; 2002). En este momento, se genera una preocupación por parte de la
sociedad en controlar y minimizar los riesgos originados por la misma. Según Beck
(2002): [...] riesgo es el enfoque moderno de la previsión y control de las consecuencias
futuras de la acción humana, las diversas consecuencias no deseadas de la
modernización radicalizada. Es un intento (institucionalizado) de colonizar el futuro, un
mapa cognitivo. Toda sociedad [...] ha experimentado peligros. Pero el régimen de riesgo
es una función de un orden nuevo: no es nacional, sino global (p. 5). Es necesario tener
presente esta concepción para poder comprender y afrontar nuestra sociedad actual.
Aunque la industria perdure, ahora son las nuevas tecnologías, incluida la IA, las que
determinan en gran medida los nuevos desafíos y riesgos económicos, políticos y
sociales. Ienca (2018), describe en su estudio un enfoque proactivo para la
democratización de la tecnología cognitiva. Explica que, si bien ésta tiene el potencial de
proporcionar un beneficio significativo para la sociedad, también puede ser cooptada por
actores estatales y no estatales para fines que suponen un peligro para la sociedad,
como el delito cibernético, el ciberterrorismo, la guerra cibernética o la vigilancia masiva.
Página 21 de 77
De esta manera, el autor se basa en seis principios éticos: evitar el control centralizado,
la apertura, la transparencia, la inclusión, el centrarse en el usuario y la convergencia.
concepto de riesgo se puede considerar como una importante herramienta teórica para
los estudios de la sociología contemporánea para interpretar las dinámicas de la
sociedad moderna. En este campo destacan tres sociólogos: Ulrich Beck, Anthony
Giddens y Niklas Luhmann. Sin embargo, el principal ha sido Beck, con su obra La
sociedad del riesgo. Desde la sociedad industrial hasta “la sociedad del riesgo” se llega
a través de dos fases. En la primera se originan amenazas que no están presentes en el
debate público. Sin embargo, en el momento en que estas amenazas entran en dichos
debates, quedan legitimadas y se alcanza la segunda fase, en la cual la sociedad es
consciente de esa generación de amenazas incontroladas (Beck, 1998; 2002). En este
momento, se genera una preocupación por parte de la sociedad en controlar y minimizar
los riesgos originados por la misma. Según Beck (2002): [...] riesgo es el enfoque
moderno de la previsión y control de las consecuencias futuras de la acción humana, las
diversas consecuencias no deseadas de la modernización radicalizada. Es un intento
(institucionalizado) de colonizar el futuro, un mapa cognitivo. Toda sociedad [...] ha
experimentado peligros. Pero el régimen de riesgo es una función de un orden nuevo:
no es nacional, sino global (p. 5). Es necesario tener presente esta concepción para
poder comprender y afrontar nuestra sociedad actual. Aunque la industria perdure, ahora
son las nuevas tecnologías, incluida la IA, las que determinan en gran medida los nuevos
desafíos y riesgos económicos, políticos y sociales. Ienca (2018), describe en su estudio
un enfoque proactivo para la democratización de la tecnología cognitiva. Explica que, si
bien ésta tiene el potencial de proporcionar un beneficio significativo para la sociedad,
también puede ser cooptada por actores estatales y no estatales para fines que suponen
un peligro para la sociedad, como el delito cibernético, el ciberterrorismo, la guerra
cibernética o la vigilancia masiva. De esta manera, el autor se basa en seis principios
éticos: evitar el control centralizado, la apertura, la transparencia, la inclusión, el
centrarse en el usuario y la convergencia.
Página 22 de 77
Desde la visión de Michel Foucault, éste mediante el panóptico de Bentham, comprende
la sociedad moderna como un a “prisión continua”. Explica que hay una constante
vigilancia de unos seres humanos a otros, en busca del orden social. Uno de los efectos
de esta constante supervisión es que el individuo piensa que está constantemente
observado, aunque no sea así (Foucault, [1975] 2009). En este sentido, las nuevas
tecnologías tienen un gran potencial como dispositivos de vigilancia. Concretamente, la
IA puede servir para monitorizar y controlar espacios privados, pero también públicos, a
través de, por ejemplo, la vigilancia predictiva, con el fin de mejorar la seguridad pública,
o los programas de reconocimiento facial (García, 2019). Esta vigilancia constante, es
difícil de evitar si ocupa espacios públicos, lo cual lo convierte en una herramienta de
control que contribuye a desdibujar la privacidad y los espacios. En este sentido, otro de
los riesgos que conlleva la Inteligencia Artificial es el de la privacidad, Leong (2019)
afirma: Tan profundamente como la revolución industrial dio un vuelco a las normas
sociales y las estructuras políticas del siglo XX, también lo ha sido la revolución de la
tecnología de la información moderna, dando a los gobiernos y a las grandes
corporaciones privadas un gran poder para seguir, manipular y potencialmente reprimir
a poblaciones enteras (p.109). La autora constata que actualmente algunos gobiernos
muestran un gran interés por analizar digitalmente a sus ciudadanos, dejando de lado la
privacidad individual. De igual manera, el uso de la Inteligencia Artificial y los sistemas
digitales en general, han de ser controlados para evitar dicha situación. De igual forma,
Taylor (2019), hace referencia a la privacidad en su estudio sobre el uso de la IA en la
publicidad personalizada. Ésta se construye a través de los datos recopilados sobre los
hábitos de consumo previos del usuario, o las páginas que visita con frecuencia. Estas
dinámicas en Internet también se pueden relacionar con la visión de Foucault, en tanto
que se controlan los espacios virtuales y se genera una sensación de vigilancia
constante. Por otro lado, Lévy (2004) realizó un estudio sobre el concepto de inteligencia
colectiva, en el cual la define como “una inteligencia repartida en todas partes”. En otras
palabras, se trata de un tipo de inteligencia que se crea en base a la colaboración y el
enriquecimiento mutuo de diversas personas. El autor considera que dicha inteligencia
Página 23 de 77
conllevará un incremento de la rapidez en cuanto al acceso de la información, creando
un proyecto para hacer más inteligentes a las personas con ayuda de los ordenadores.
Dicho concepto ha sido relacionado y comparado con el de Inteligencia Artificial,
afirmando que puede ser beneficiosa su combinación para lograr complementar las
capacidades de los humanos con las máquinas. En este sentido, son varias las
investigaciones que tratan de analizar y poner a prueba esa interacción entre el ser
humano y la máquina. Guzman y Lewis (2019), constatan que se presenta como un
desafío el hecho de que la “IA comunicativa” rompe con el papel predominante de la
tecnología en la teoría de la comunicación, el cual se ha basado durante mucho tiempo
en la interacción humano-humano, es decir, en suposiciones basadas en definiciones
antropocéntricas de la comunicación. Por otro lado, también es interesante mencionar
un experimento realizado con el objetivo de obtener dinámicas de confianza humana en
contextos de interacción hombre-máquina. Se encontró que, en concreto, la cultura
nacional y el género tienen un impacto significativo en la confianza sobre los sistemas
autónomos (Hu, Akash, Reid & Jain, 2019). Teniendo esta interacción humano-máquina
presente, se puede hablar del poder dentro de esta relación. Fast y Schroeder (2020),
partiendo de la experiencia de poder entre humanos, destacan que algunas formas de
IA pueden parecer seres humanos “de baja potencia”, lo que puede provocar que las
personas puedan sentirse poderosas al interactuar con estos sistemas. De esta manera,
han llegado a la conclusión de que las entidades basadas en Inteligencia Artificial,
concretamente los asistentes digitales, pueden llegar a ser humanizados, y, por lo tanto,
crear un sentimiento de poder en el usuario. Sin embargo, cabe comentar que no está
claro si el sentimiento de poder que se produce sobre la IA tiene las mismas
consecuencias psicológicas que sobre los humanos. Es importante mencionar la visión
de Baudrillard con respecto al cambio tecnológico. Éste considera que, en un mundo
postmoderno, los medios de comunicación, la ciencia y las nuevas tecnologías
construirían nuevas formas de organización social y de pensamiento, destruyendo la
sociedad industrial (López, 2013).
Página 24 de 77
Lee y Cook (2020), en su análisis de la relación entre los datos informáticos y la sociedad,
proponen un modelo para comprenderlo. Éste se divide en tres partes, por un lado, las
interfaces de datos, los cuales conectan a las personas con contextos digitales; la
circulación de datos, en cuanto a tendencias en su movimiento y almacenamiento; y, por
último, la abstracción de datos, es decir, su manipulación. El objetivo final de estos
autores es poner en el foco lo social, criticando las narrativas e ideologías de cambio
asocial. En otras palabras, tratan de desafiar la idea generalizada de que el desarrollo
tecnológico no reconoce la integración de lo social al enmarcar los datos y la tecnología
como en un contexto de innovación sin perjuicios ni daños colaterales en la sociedad.
“Hacer referencia a la "información basada en datos" es utilizar un lenguaje técnicamente
determinista que ignora la naturaleza social, las consecuencias y los impactos de la
tecnología de datos” (Lee & Cook, 2020, p.8). Con todo, se puede observar que las
innovaciones tecnológicas tienen el potencial de moldear las dinámicas sociales e
incluso la concepción que tenemos sobre los espacios. Sin embargo, siguiendo a Winner
(1987), estos cambios se producen sin que la sociedad tenga plena conciencia de lo que
suponen. Esto genera una aceptación naturalizada y deja de lado toda visión crítica hacia
el fenómeno, sin tener en cuenta cuestiones que se han expuesto como la falta de
neutralidad, el aprovechamiento para ejercer control o intereses de grandes
corporaciones. Por tanto, estas nuevas tecnologías, como la Inteligencia Artificial, llevan
consigo nuevos desafíos y riesgos económicos, políticos y sociales.
4
Metodología
Para llevar a cabo esta investigación se ha optado por una metodología mixta. Este
método de investigación social representa un conjunto de procesos sistemáticos,
empíricos y críticos de investigación y combina la recolección y el análisis de datos
cuantitativos y cualitativos, así como su integración y discusión conjunta, con el fin de
conseguir una mayor comprensión del objeto de estudio (Hernández-Sampieri, 2014).
En la Tabla III se muestran los cuatro objetivos específicos que se responderán,
principalmente, a partir del trabajo de campo realizado.
Página 25 de 77
Tabla III. Técnicas de investigación por objetivos
4.1
Análisis de fuentes de datos secundarios del Innovarómetro (nº3216) y del Barómetro de
mayo de 2018 (nº 3213)
Se llevará a cabo un análisis de fuentes de datos secundarios para dar consistencia a
los objetivos que se relacionan con esta técnica de investigación en la tabla III. Por tanto,
se procederá a una extracción de datos estadísticos del Innovarómetro7 realizado por el
Centro de Investigaciones Sociológicas (CIS) para el año 2018, así como Barómetro de
mayo8 del mismo año. El primero se ha escogido ya que nos brinda información acerca
de las actitudes y el grado de interés e información sobre la IA y los robots en general,
así como en relación a su impacto en el mercado laboral y en las tareas domésticas. El
segundo estudio nos facilita información acerca de las actitudes hacia la privacidad en
internet y el manejo de los datos personales de los/as usuarios/as del mismo. Una vez
obtenidos los resultados de estos dos estudios, se utilizarán para obtener una base sobre
la cual diseñar los bloques temáticos del guión a utilizar en las entrevistas y grupos de
discusión.
Página 26 de 77
4.2
La investigación cualitativa
Para esta parte del trabajo de campo se elaboraron tres entrevistas grupales y dos
individuales. Es importante mencionar que, debido a la situación actual de confinamiento
por la crisis del COVID-19, ha resultado imposible llevar a cabo la metodología que se
había planteado en su inicio, ya que no se pudieron efectuar los grupos de discusión y
las entrevistas de forma presencial. A continuación, se resumirá en una tabla las
modificaciones realizadas.
Página 27 de 77
5
Análisis de Resultados. Las implicaciones sociales de la Inteligencia Artificial
Tras la recogida de información por medio de la metodología empleada, se realizará un
análisis de la misma con el fin de alcanzar los objetivos propuestos. Por tanto, se
estructurará a partir de los mismos y por bloques temáticos, como se puede observar en
la tabla V. No obstante, debemos hacer mención al primer objetivo de este trabajo, y
recordar el contexto socio-histórico sobre el que se asienta la Inteligencia Artificial.
Sin embargo, esa posibilidad de crear máquinas pensantes plantea una serie de
cuestiones éticas como la preocupación por el comportamiento moral de las máquinas,
la invasión de la privacidad o los sesgos algorítmicos. En los siguientes apartados se
explicará con más profundidad todas estas cuestiones, a partir de la información
recogida.
Página 28 de 77
5.1
Actitudes hacia la Inteligencia Artificial
“Yo creo que en algunos campos es necesario, pero que hay ciertos temas que nunca
se van a poder tratar con Inteligencia Artificial. Creo que un robot nunca va a poder
distinguir donde está el límite. Él tiene una función y la va a querer cumplir a toda costa.
Igual un humano sabe dónde parar”
(E4. Mujer. 22 años)
Página 29 de 77
Gráfico 1. Actitud positiva o negativa ante los robots y la inteligencia artificial
Fuente: SPSS a partir de datos del CIS, estudio 3216 del “INNOVARÓMETRO”, (junio
de 2018)
En este sentido, es interesante contrastar estos resultados con un estudio realizado por
la Universidad Autónoma de Madrid, el cual constata que, de una muestra de 5.200
españoles, un 33’3% cree que la IA tiene más riesgos que beneficios, mientras que un
38’4% opina lo contrario, y un 28’3% cree que hay un equilibrio entre beneficios y riesgos.
En este contexto, se aclara que aquellos/as que dudan de la IA lo hacen, entre otros
motivos, por la desconfianza de los intereses económicos y comerciales que se oculten
en su desarrollo. Además, también se hace referencia a la falta de privacidad como
motivo de rechazo hacia la Inteligencia Artificial (Salas, 2019).
En el día a día, la mayoría de la población no nota la presencia de IA en su entorno, a
pesar de que gran variedad de sus dispositivos la utilizan. Sin embargo, algunos son
conscientes de esta tecnología y la utilizan mediante, por ejemplo, los asistentes de voz:
“Es muy práctico, sobre todo a la hora de planificar y mostrar recordatorios, o encender
y apagar las luces”
Página 30 de 77
Asimismo, se considera que en un futuro más gente lo usará, pero que aún tiene que
avanzar y mejorar. Además, destacan que hoy en día es muy caro, por lo que no está a
la disposición de cualquier persona.
“Yo creo que estaría muy bien eso, programar partes de la ciudad para que esté a
disposición nuestra, el ciudadano. Por ejemplo, que una ambulancia no tenga que estar
pendiente de que los propios coches se aparten, sino de que los coches puedan dejar
fluir el tráfico sin tener que preocuparse por los semáforos o por otras cuestiones viales.
Evitaría muchos problemas que pasan hoy en día”
“Lo que pretende (el robot con IA) es monitorizar la vida diaria de una persona mayor […]
que le recuerde las cosas, le guíe e intentar que esté feliz. En un futuro, lo que se
pretende con la robótica asistencial es que, con un sistema domótico se controlen caídas
de los mayores, por ejemplo”.
Página 31 de 77
(E5. Mujer. 22 años)
Con esto, se considera que ese ámbito está lo suficientemente avanzado como para
poder confiar en él. Sin embargo, también se tiene en cuenta que no va a ser igual que
un humano.
En el análisis se percibe que las ideas sobre la Inteligencia Artificial están muy centradas
en la ciencia ficción, en la figura del robot o tan solo en el reemplazo de puestos de
trabajo. Por lo tanto, a pesar de mostrar interés en el tema, se puede decir que hay cierto
desconocimiento acerca de otras funciones que puede proporcionar la IA.
5.1.1
La percepción social de la ética en la Inteligencia Artificial
la población se observa un consenso acerca de la necesidad de que haya un control
profesional y ético en el desarrollo y usos de los sistemas de IA. Se considera que debe
haber siempre una supervisión y una aproximación ética:
“En algunos trabajos hay una parte de la decisión que se toma en base a la ética que tú
tengas. Entonces, si las personas trabajamos con la ética y contamos con ello, los
sistemas de IA también deberían”
“No podemos programarlo nosotros para que sea como queremos, está bajo las
directrices de la empresa que lo ha fabricado. Así que sí, creo que hay unos intereses”.
Página 32 de 77
Por último, es interesante mencionar que la población considera que la IA sería muy
positiva para personas dependientes y que va a suponer una mejora en la calidad de
vida, sobre todo en lo relativo a tareas que requieren desplazarse. Sin embargo, también
se habló del miedo a que se dé más valor a los robots que a las personas y de la
desconfianza del uso de robots en ciertos trabajos o para ciertos fines:
“Un robot no tiene sentimientos y emociones como un humano, por mucho que lo intente
imitar […]. Creo que en el trato con la gente como trabajos cara el público, hospitales,
psicólogos… no se debería utilizar a un robot. La respuesta que te va a dar va a ser muy
automática y no creo que pueda tener un nivel de empatía como pueda tener un humano”
5.2.1
La importancia de los datos personales para la elaboración de una Inteligencia
Artificial
En cuanto a la privacidad de los datos personales, los profesionales ponen de manifiesto
que hay situaciones en las que éstos se deben ceder por el bienestar de la persona, o
por el bien común. Explican que es una cuestión complicada ya que es necesaria una
responsabilidad social, la cual afirman que no se está asumiendo, poniendo de ejemplo
la situación actual:
“Piensa, por ejemplo, cómo ha hecho China para usar los móviles o datos de internet
para luchar contra la pandemia, y que es también lo que está pasando en Europa […]. A
veces tenemos que ceder privacidad y derechos por un bien común, que es lo que está
pasando ahora mismo”.
Página 33 de 77
Asimismo, los profesionales señalan que hay situaciones en las que es importante el
acceso a datos muy sensibles, por ejemplo, en un diagnóstico médico. El fin último es
bueno, pero se debe permitir ese acceso, y las personas son reacias a aceptarlo:
“Al fin y al cabo la información que están recopilando de ti no es relevante para ellos [..]
Yo entiendo que la gente esté un poco paranoica con ello porque no saben lo que están
recogiendo, no saben cómo es la ley”
(E2. Ingeniero informático)
En lo que respecta al uso de datos personales en internet y las llamadas cookies, en este
momento se están utilizando, generalmente, para ofrecer publicidad personalizada, por
tanto, no se considera un problema. Además, es interesante añadir que, las estudiantes
hablaron acerca de una Conferencia que dieron en su facultad, en la cual se afirmó que,
al entrar en una página web, ésta ya considera que se han aceptado las cookies, aunque
se pueda “elegir” aceptar o rechazarlas. Realmente no se está preguntando al que entra
en la página acerca de si desea aceptar esas cookies o no, sino que su objetivo es
informar o notificar de que se van a recoger datos de navegación u otros.
Hay que tener en cuenta la aprobación e implementación, por parte de la Unión Europea,
del Reglamento General de Protección de Datos (GDPR), ya que protege la privacidad
del usuario mediante el consentimiento y el anonimato.
Página 34 de 77
embargo, los/as profesionales aclaran que el sistema debe pasar una serie de controles
de calidad, evaluaciones del sistema, pruebas de mercado…, que hace muy complicado
que se utilice para “cuestiones conspiratorias”, aunque se señala que es factible.
En cuanto al tratamiento de los datos, los/as profesionales afirman que éstos son
anonimizados en su mayoría o ni si quiera se puede acceder a ellos, tanto en entidades
privadas como públicas:
“No solemos entrar en datos polémicos. Los datos que nos dan para investigar son unos
datos muy controlados, quiero decir, no puedes acceder a cualquier dato”
“Trabajé en una empresa mientras hacía el TFG y los datos que manejaba… algunos
estaban anonimizados y otros no, entonces, al final, no tenía acceso a ellos”
5.2.2
La preocupación por la privacidad de los datos personales
En líneas generales, podemos afirmar que se da una preocupación en lo que respecta a
la protección de datos personales y el posible uso de información personal por otras
personas. En el análisis se observan conductas como el uso de internet con precaución
o el miedo a que cuestiones privadas o personales sean manejadas por terceras
personas:
Página 35 de 77
“Hay ciertas conversaciones privadas que pueden acabar en manos de terceras
personas. Y eso en un ámbito empresarial puede ser muy peligroso”
La población también hace referencia a las redes sociales, en tanto que se considera
que hay una sobreexposición y que no somos conscientes de la cantidad de información
que ofrecemos con las publicaciones o lo que se acepta:
Tan profundamente como la revolución industrial dio un vuelco a las normas sociales y
las estructuras políticas del siglo XX, también lo ha sido la revolución de la tecnología de
la información moderna, dando a los gobiernos y a las grandes corporaciones privadas
un gran poder para seguir, manipular y potencialmente reprimir a poblaciones enteras
(p.109).
En lo que respecta a los resultados extraídos del Barómetro de mayo de 2018 del CIS,
un 77,25% se considera mucho o bastante preocupado por la protección de datos
personales y el posible uso de información personal por otras personas, como se puede
observar en el gráfico 2 (CIS, 2018). En nuestro caso, como ya comentamos, también se
palpa una preocupación en este tema.
Página 36 de 77
Gráfico 2. Grado de preocupación por la protección de datos personales y el posible uso
de información personal por otras personas
Fuente: SPSS a partir de datos del CIS, estudio 3213 del “BARÓMETRO DE MAYO
2018”, (mayo de 2018)
Página 37 de 77
En nuestro discurso hay una aceptación generalizada ante este uso. Argumentan que,
al fin y al cabo, es información que le interesa al usuario y que está bien, siempre y
cuando la recogida de datos sea solo para ese fin:
“Ni siquiera en tu propia casa puedes sentirte del todo tranquilo y seguro por estar el
móvil o el ordenador ahí, espiándote”
(E3. Hombre. 22 años). Debemos recordar, en este sentido, la visión de Foucault, el cual
explica que se da una constante vigilancia de unos seres humanos a otros, en busca del
orden social. Por tanto, el individuo piensa que está constantemente observado
(Foucault, [1975] 2009). Las preocupaciones de los participantes se pueden relacionar
con esta explicación, ya que, como podemos observar, el espacio de Internet también
genera esa sensación de vigilancia constante.
Página 38 de 77
Con el fin de conocer mejor el grado de preocupación de la población, se preguntó
directamente si leen las políticas de privacidad de las páginas de internet o de las
aplicaciones instaladas, afirmando que no las leen, ya que son muy densas y
enrevesadas. Además, se observa que en este ámbito no hay tanta preocupación como
en temas más privados. Sin embargo, cabe comentar que, a pesar de que acepten las
políticas de privacidad y los permisos, esta situación genera un sentimiento de
desconocimiento acerca de lo que realmente se está consintiendo. En este sentido, es
interesante comentar la experiencia personal de uno de los participantes, ya que ha
trabajado para particulares, haciendo páginas webs y nos habla acerca del documento
de la ley de protección de datos:
“Recuerdo que cada vez que me enviaban una página tenía que hacer un apartado
dentro de la misma, con el texto genérico de la ley de protección de datos, y fuera.
Aunque se lea o no, ahí está para que el creador de la página o los que estén
involucrados se laven las manos con lo que pueda pasar”.
En cuanto a los resultados del CIS, decir que, un 35,5% de los encuestados considera
muy probable que “Sus datos (personales) puedan ser utilizados sin su conocimiento”, y
un 54,5% se posiciona en bastante probable, como se puede ver en la tabla V.
En lo relativo a las políticas de privacidad, cabe comentar que un 39,4% de las personas
encuestadas se muestra bastante de acuerdo con la afirmación de que “en realidad, le
importa más acceder a los servicios que le prestan los sitios web que la privacidad de
sus datos”. Sin embargo, no es un porcentaje mucho mayor a la opción de poco de
acuerdo: 30%, como se observa en la tabla VI (CIS, 2018). Con esto, podemos afirmar
que se considera prioritario el hecho de acceder a los servicios otorgados por los sitios
web, antes que la privacidad de sus datos personales, de la misma forma que hemos
observado en los discursos de los participantes.
Página 39 de 77
Tabla VI. Grado de acuerdo con afirmaciones relativas a la privacidad de los datos
personales en Internet
Muy de Bastante Poco de Nada de
acuerdo de acuerdo acuerdo acuerdo
En realidad, le importa más
acceder a los servicios que le
12% 39,4% 30% 18,7%
prestan los sitios web que la
privacidad de sus datos
Las políticas de privacidad y la
información que se ofrece en
los sitios de Internet sobre el 3,8% 14,7% 35,9% 45,6%
tratamiento de datos son claras
y sencillas de entender
Fuente: Elaboración propia a partir de datos del CIS, estudio 3213 del “BARÓMETRO
DE MAYO 2018”, (mayo de 2018)
Asimismo, un 64,4% admite que nunca o raramente leen las políticas de privacidad de
las páginas de internet, mientras que un 3,9% las lee siempre, como se puede observar
en el gráfico 3. Teniendo en cuenta estos últimos resultados, se da una contradicción
con los obtenidos en base a su preocupación. Sin embargo, hay que tener en cuenta que
un 45,6% coincide en estar nada de acuerdo con la afirmación: “Las políticas de
privacidad y la información que se ofrece en los sitios de Internet sobre el tratamiento
Página 40 de 77
Gráfico 3. Frecuencia de lectura de las políticas de privacidad de las páginas de Internet
Fuente: SPSS a partir de datos del CIS, estudio 3213 del “BARÓMETRO DE MAYO
2018”, (mayo de 2018)
En este sentido, en este mismo estudio del CIS se plantea que algunas compañías,
entidades, etc. pueden utilizar datos personales sin ser conscientes de que puede
conllevar fraudes, envíos masivos de mensajes publicitarios… para las personas. Así, se
les ofrece a los encuestados seis medidas diferentes para que respondan cual
consideran prioritaria en primer y, en segundo lugar. La mayoría, un 51%, posicionó en
primer lugar la medida de “Imponer multas a esas entidades, compañías, etc.”, como se
puede observar en el gráfico 4. Y, en segundo lugar, con un 23,5% se exigen
indemnizaciones para las víctimas por los daños personales causados (CIS, 2018).
Página 41 de 77
Gráfico 4. Medidas que se consideran prioritarias en la lucha contra los inconvenientes
causados por el uso de datos personales
Fuente: SPSS a partir de datos del CIS, estudio 3213 del “BARÓMETRO DE MAYO
2018”, (mayo de 2018)
En lo que respecta a las medidas que propondrían los participantes para que la
ciudadanía esté más informada de lo que sucede en internet con nuestros datos
personales y de navegación, hay un consenso en que estos documentos informativos
deberían ser más claros y concisos. Además, se manifiesta la idea de la complejidad que
supondría informar a la ciudadanía:
“Es complicado informar a la gente, porque hay temas que a lo mejor son muy complejos
y que a la gente no le interese o no se lo crea”
En lo relativo a las preguntas del CIS sobre las redes sociales, es de interés comentar la
percepción acerca de las garantías que dan para proteger los datos personales de sus
Página 42 de 77
usuarios. Como se puede observar en la tabla VII, la gran mayoría las considera bajas
(37,9%) o muy bajas (50,5%), por lo que se percibe una alta inseguridad en este sentido.
Cabe mencionar que los resultados son bastante similares al preguntar acerca de las
garantías que dan los buscadores de internet (bajas: 38%, muy bajas: 46%).
Tabla VII. Valoración de las garantías para proteger los datos personales
Muy Ni altas Baja Muy
Altas
altas ni bajas s bajas
Garantías de las redes sociales para 37,9 50,5
0,4% 3,8% 7,4%
proteger sus datos personales % %
Garantías de los buscadores de internet
0,5% 5% 10,6% 38% 46%
para proteger sus datos personales
Página 43 de 77
Tabla VIII. Grado de acuerdo con afirmaciones relativas al tratamiento de datos
personales en redes sociales
Bastante
Muy de Poco de Nada de
de
acuerdo acuerdo acuerdo
acuerdo
Las redes sociales cuidan de la
seguridad de los datos personales 1,3% 11,4% 42,8% 44,6%
de sus usuarios/as
Es difícil controlar quién ve la
información que se introduce en el 38,3% 37,3% 15,9% 8,5%
perfil
Las redes sociales no deberían
cambiar sus políticas de privacidad
59,2% 35,2% 3,4% 2,1%
sin el consentimiento de los/as
usuarios/as
Las redes sociales no deberían 75,7% 22,4% 1,5% 0,4%
comunicar datos personales a
terceros/as sin autorización previa
5.3
El impacto de la Inteligencia Artificial en el mercado laboral
Partiendo de las consideraciones y conocimientos adquiridos en nuestro trabajo de
campo, además de la literatura revisada, el ámbito donde más impacto tiene y tendrá la
Inteligencia Artificial es en el mercado laboral. A continuación, se procurará dar respuesta
al objetivo: Conocer las opiniones de la población sobre el impacto de la Inteligencia
Artificial en el mercado laboral. Antes de exponer las opiniones recogidas de las
entrevistas grupales y los estudios del CIS, haremos un breve repaso de cómo es dicho
impacto, aludiendo a la información extraída de las entrevistas a profesionales en la
materia.
Como se ha observado en el marco teórico, el impacto de la IA en el mercado laboral ya
es una realidad a la que nos hemos de adaptar. En líneas generales los/as profesionales
hablaron, sobre todo, del reemplazo de algunos puestos de trabajo y la creación de otros:
“Hay otros trabajos que van a desaparecer claramente […] Y luego habrá profesiones
nuevas que no conocemos y que tendrán que ver con la ciberseguridad, con la
informática, con la Inteligencia Artificial o con otras áreas como los cuidados personales,
por ejemplo”.
Página 44 de 77
En este sentido, los/as profesionales hicieron alusión a la industria 4.0 o la Cuarta
Revolución Industrial, la cual está marcada, por ejemplo, por la aparición de la robótica,
el Internet de las cosas (IoT), y, por supuesto, la Inteligencia Artificial. Es importante
mencionar el gran potencial de la industria 4.0, ya que afecta, sobre todo, a las técnicas
de producción, pero también alcanza a la sociedad y nuestra forma de interactuar, no
solo con las personas, sino también con las cosas. En este sentido, explican de qué
manera algunos de los usos de esta tecnología están cambiando la forma de actuar de
las personas, como por ejemplo con la aplicación de google maps:
“Ya nadie te pregunta por la calle cómo se va a tal sitio, ahora la gente va con su móvil y
el algoritmo de búsqueda te está trazando a dónde tienes que ir y cómo te tienes que
mover, y lo está haciendo en tiempo real”
De esta forma, se afirma que la Inteligencia Artificial está cambiando la forma en la que
interactuamos como sociedad. Asimismo, hoy en día, se considera necesaria la
constante conectividad que tenemos con los dispositivos, ya que nos facilita nuestro
modo de vida. Además de plantear los cambios que supone la industria 4.0, en la cual
nos encontramos, los/as profesionales ya nos hablan de la Quinta Revolución Industrial,
lo cual demuestra la rapidez a la que avanzan las tecnologías.
“Es un campo que se ha transformado muchísimo […] Los médicos tenían una relación
con la tecnología mucho menor que ahora. Ahora hay un montón de pruebas médicas
que se pueden hacer vía imagen, es mucho más precisa la medicina, puedes prevenir
mejor…”
De esta manera, los/as profesionales afirman que los sistemas de IA están provocando
un cambio en la forma de entender el trabajo. La Inteligencia Artificial servirá, sobre todo,
para asistir y ayudar al ser humano.
Página 45 de 77
5.3.1
La percepción social del impacto de la Inteligencia Artificial en el mercado laboral
En general se observa un discurso centrado en el reemplazo de los puestos de trabajo y
la creación de otros. De esta manera, la población considera que los trabajos que se
generarían seguramente fuesen puestos de trabajo más cualificados, a los que no todo
el mundo tiene acceso:
“La introducción de la Inteligencia Artificial, evidentemente, provoca una pérdida de
trabajos en ese sentido, pero potencia otros. Los que potenciará seguramente sean
puestos de trabajo más cualificados, a los que no todo el mundo puede acceder a ellos
o no tengan un tipo de formación en concreto y, evidentemente va a favorecer a ese tipo
de población que haya estudiado eso en concreto, ¿no? Las personas pues… menos
pudientes o que no tengan ese tipo de estudios van a ser las más salpicadas, por así
decirlo”
(E3. Hombre. 21 años)
En este sentido, también se observa en la población el temor a que se intente buscar en
las máquinas tanta perfección, que se le llegue a dar más espacio a éstas que a los
humanos. Además, se menciona que toda la población tendría que tener conocimientos
sobre IA y que todas las disciplinas tendrían que estar especializadas en la misma. Sin
embargo, la población señala como ventaja del reemplazo de trabajos rutinarios, la
seguridad de los trabajadores:
“Se perderían algunos trabajos, pero aparte de que se generarían otros, también
ayudaría a que dejasen de pasar esas cosas. A no exponer a trabajadores a peligros que
podrían evitarse utilizando tecnología”
Dichas percepciones se ven reforzadas por los resultados obtenidos del Innovarómetro
del CIS, en cuanto a ese impacto en el mercado laboral y tareas domésticas. A la
afirmación: “Debido al uso de los robots y de la inteligencia artificial, desaparecerán más
trabajos que los que se puedan crear nuevos”, la mayoría se posiciona entre muy de
acuerdo (46,4%) y bastante de acuerdo (44,3%). Además, estos porcentajes son
similares para la frase “Los robots son necesarios porque pueden hacer tanto trabajos
muy duros como peligrosos para las personas”, aunque se observa un mayor porcentaje
en la opción bastante de acuerdo, con un 49,4%. Sin embargo, para la afirmación: “Los
robots y la inteligencia artificial son buenos para la sociedad porque ayudan a las
personas a hacer su trabajo o a realizar sus tareas diarias en casa”, en la opción de
Página 46 de 77
respuesta muy de acuerdo se sitúa tan solo un 6,8% de los encuestados, pasando a la
categoría de bastante de acuerdo (53,4%), por lo que las personas se muestran en una
posición más neutral ante esta afirmación. Estos resultados se pueden comprobar en la
tabla IX (CIS, 2018).
Tabla IX. Grado de acuerdo con afirmaciones relativas al impacto de los robots y la
Inteligencia Artificial
Página 47 de 77
Gráfico 5. Valoración de la posibilidad de que, en los próximos quince años, un robot u
otra tecnología sea capaz de realizar tareas que desarrollaba en su actual o último
empleo
Fuente: SPSS a partir de datos del CIS, estudio 3216 del “INNOVARÓMETRO”, (junio
de 2018)
Gráfico 6. Valoración de la posibilidad de que, en los próximos quince años, un robot u
otra tecnología sea capaz de realizar las tareas domésticas que desarrolla en su hogar
Fuente: SPSS a partir de datos del CIS, estudio 3216 del “INNOVARÓMETRO”, (junio
de 2018)
Página 48 de 77
5.4
Los obstáculos en el proceso de desarrollo de un sistema de Inteligencia Artificial
En lo que respecta al objetivo de Aproximarse a los obstáculos que puedan existir en el
diseño y elaboración de un sistema de Inteligencia Artificial, se han tenido en cuenta la
entrevista a la Experto en IA, al titulado en Ingeniería informática, y la entrevista grupal
de las estudiantes de esta misma carrera (todas especializadas en Inteligencia Artificial).
5.4.1
Los principios para alcanzar una Inteligencia Artificial robusta y fiable
En primer lugar, debemos recordar el principio de Transparencia de la Estrategia
Europea, en tanto que los sistemas de IA deben registrar y documentar las decisiones
que han tomado. En este sentido, los profesionales explican que un problema principal
de las redes de neuronas con las que trabajan algunas Inteligencias Artificiales, es que
no especifican la razón del resultado que dan:
“puedes intuirlo, pero nunca lo sabes con certeza […] A ver, tú sabes que funciona un
90% de las veces, pero, ¿por qué no funciona el 10% de las veces? Esto puede acarrear
problemas más serios, porque una cosa es saber si desbloquea el móvil o no y otra es
si puede lanzar un misil o no”.
Uno de los factores que influye en la calidad de los datos utilizados para desarrollar un
sistema basado en Inteligencia Artificial es la presencia de sesgos. Se explica que es
muy probable que los algoritmos con los que se trabajan estén sesgados. Por lo tanto,
consideran importante percatarse de este hecho e intentar solucionarlo:
“¿Qué los algoritmos están sesgados? Pues muy probablemente, porque los algoritmos
que trabajan sobre ciencia de datos usan datos del mundo real y el mundo real no es
perfecto, está sesgado. Entonces, lo importante es darnos cuenta de que eso es así e
intentar solucionarlo. Es más fácil solucionar el sesgo de un algoritmo que solucionar el
sesgo de una persona”
Página 49 de 77
Siguiendo con lo anterior, los profesionales también mencionan que algunos de estos
sistemas están creados por organizaciones privadas, en las que hay una posibilidad de
que se lleguen a manipular los datos, en cierta medida, para unos intereses propios.
“Si tú eres racista o machista, la IA que vas a hacer también será machista y racista”
Por tanto, se afirma que sí se puede dar una influencia del factor humano en el resultado
final de un sistema IA. En este sentido, es interesante citar de nuevo a Frey et al. (2020),
ya que constatan que “si la brecha entre las personas que crean algoritmos y las
personas que experimentan los impactos directos de ellos persiste, es probable que
sigamos reforzando las inequidades sociales que esperamos mejorar” (p.51). Esta
apreciación, junto con las consideraciones mencionadas en las entrevistas, refuerzan la
importancia de que no se incluyan sesgos en los datos utilizados para el desarrollo de
estos sistemas. Sin embargo, debemos atender a otros factores que también influyen en
la creación de un sistema de IA.
Página 50 de 77
5.4.1.1
Riesgos de la IA dependiendo de su ámbito de aplicación
Hay ciertos campos en los que la IA necesita ser muy precisa, como lo es el ámbito
sanitario. El hecho de que sea un sistema que va a ser aplicado en humanos, para
situaciones que pueden ser graves como el diagnóstico de un cáncer, los/as
profesionales señalan que se debe tener un especial cuidado y control en su desarrollo.
Asimismo, explican el problema de que se desarrolle una IA sin ser socialmente
responsable, ejemplificando con un sistema de selección de personal que discriminaba
a ciertos colectivos:
“Si desarrollas IA tienes que ser socialmente responsable. Por ejemplo, se sabe de
Inteligencias Artificiales que seleccionaban perfiles para determinados trabajos
relacionados con ingeniería, y esa IA estaba entrenada de tal manera que solo
seleccionaba a un hombre y eso es evitable si tienes un poco de responsabilidad social.
Y tener en cuenta que, aunque la mayoría de las personas que trabajen en ese sector
cumplan ese perfil, no por ello tienes que descartar a mujeres, a personas racial izadas,
etc.”
(E5. Mujer. 23 años)
Página 51 de 77
También se considera que habría que controlar más unos ámbitos de actuación que
otros, refiriéndose a su uso militar, o para beneficios propios y poco éticos de algunas
empresas:
“Al ser investigadora veo que avanza mucho más rápido de lo que la gente cree.
Entonces, sí creo que, aunque ahora sea una herramienta útil, en manos equivocadas
puede ser algo muy peligroso”
Asimismo, otro de los campos mencionados, en los que los/as profesionales consideran
que se deben tener en cuenta sus riesgos, es en los que se puede dar una falta de
seguridad, ejemplificando con el reconocimiento facial y dactilar. Estos riesgos se dan si
no se desarrolla como es debido:
“El desarrollador debe tener en cuenta todos los riesgos que puede producir en la
sociedad o en la población”.
Página 52 de 77
Tabla X. Resumen de los resultados obtenidos en relación con los objetivos propuestos.
Objetivos Resultados
Acercarse a las actitudes de ➢ La población considera la IA como
aceptación o rechazo hacia la positiva o se mantiene neutral, pero se
Inteligencia Artificial tienen en cuenta algunos de los
riesgos y limitaciones de sus usos.
➢ La mayoría no es consciente de la
presencia de IA en su entorno.
➢ Se destaca el elevado precio de
productos con esta tecnología y que
en un futuro habrá más gente que los
utilice si éste se reduce.
➢ La población muestra desconfianza
hacia el cuidado de personas mayores
por parte de un robot con IA, pero se
considera viable en un futuro. Sin
embargo, señalan la necesidad de
una conexión emocional que el robot
no tiene.
➢ Las ideas de la población sobre la IA
están muy centradas en la ciencia
ficción, en la figura del robot o tan solo
en el reemplazo de puestos de
trabajo.
➢ Se considera que hay unos intereses,
una influencia del factor humano en el
resultado final de un sistema IA.
➢ La población considera necesario un
control profesional y ético en el
desarrollo y usos de los sistemas de
IA.
Página 53 de 77
➢ Los/as profesionales aclaran que un
sistema de IA debe pasar controles de
calidad, evaluaciones del sistema,
pruebas de mercado
Página 54 de 77
➢ Se observa en la población un
discurso centrado en el reemplazo de
los puestos de trabajo y la creación de
otros, a los que no todo el mundo
tendría acceso por precisar una alta
cualificación, pero que supondría una
ventaja en cuanto a la seguridad de
los trabajadores.
➢ La población teme que se dé más
espacio a las máquinas que a las
personas, por buscar la constante
perfección.
➢ Se percibe como obstáculo que toda
la ciudadanía tenga que tener
conocimientos sobre IA, así como la
obligada especialización de todas las
disciplinas en esta tecnología.
➢ La población española considera más
probable que los robots lleguen a
realizar tareas domésticas que las que
desarrollaban en su actual o último
empleo.
Página 55 de 77
Conclusiones
Este apartado se centrará en revisar si se han cumplido los objetivos establecidos. Para
ello, se hará una breve revisión de los resultados obtenidos.
Página 56 de 77
Asimismo, podemos observar dos actitudes o reacciones opuestas, por un lado, aquellos
que piensan que estas nuevas tecnologías podrían ayudar a reducir los problemas que
hoy acarrea la sociedad, y; por otro lado, los que creen que podrían contribuir a crear
más desigualdades y un mundo más deshumanizado.
Por último, en el cuarto objetivo específico: Aproximarse a los obstáculos que puedan
existir en el diseño y elaboración de un sistema de Inteligencia Artificial, y partiendo de
la información otorgada por las personas entrevistadas y la revisión
Para terminar, el objetivo general de este trabajo consistía en Averiguar la forma en que
la Inteligencia Artificial y su desarrollo podrían provocar y/o agravar las desigualdades
sociales, para el cual partiremos de dos perspectivas. Por un lado, se considera que esta
tecnología tiene gran potencial para reducir las desigualdades sociales y contribuir al
desarrollo sostenible de la sociedad. Sin embargo, esto solo se puede lograr si se
posiciona al ser humano en el centro del desarrollo y de los usos de la IA. Asimismo, es
necesaria una protección de datos real, como ya comentamos con anterioridad, así como
una transición inclusiva a esta nueva forma de entender el trabajo, amparando a aquellas
personas que se vean afectadas por dicho cambio. Por otro lado, podemos afirmar que
el desarrollo de la Inteligencia Artificial acarrea, como ya vimos, sesgos algorítmicos. Por
ello, es preciso seguir investigando para erradicar dichos sesgos, de lo contrario,
Página 57 de 77
agravará las desigualdades sociales existentes de clase, etnia, género, etc. De esta
manera, hay que tener presente que los resultados de una IA pueden no ser neutros, por
lo que debe mantenerse un control humano.
Al avanzar en la realización de este trabajo se fueron abriendo nuevas líneas de
investigación que podrían completar los resultados aquí expuestos. Debido al carácter
tan novedoso y amplio del tema de estudio escogido, resultaría muy enriquecedor contar
con más voces Expertos que pudiesen encauzar algunas de las debilidades que se han
podido dar durante este trabajo. Además, convendría incluir más información a nivel
internacional, teniendo en cuenta las diferencias entre países, tanto en cuestión de
normativa, como en lo relativo a los valores o creencias, que influyen en la percepción
social de esta tecnología.
Página 58 de 77
Anexos
Anexo I: Guion de la entrevista a Experto en Inteligencia Artificial
1. ¿Me podría explicar en qué consiste su trabajo? ¿Qué hace en su día a día?
2. ¿Con qué fines se desarrolla un sistema de IA?
3. La informática, las ciencias de la computación y en concreto la IA han cambiado mucho
y están en constante evolución. ¿Cuáles son las consecuencias de esta evolución a día
de hoy y cuáles cree que pueden ser en un futuro?
4. ¿Y sobre el impacto de ese rápido cambio tecnológico en la sociedad?
5. En lo que respecta al proceso de desarrollo de un sistema de IA, ¿Cómo debe ser un
buen profesional en este ámbito?
6. ¿Considera que habría que tener en cuenta los riesgos que conlleva la IA y poner en
el centro de su investigación la ética?
7. ¿Cómo impacta e impactará la IA en el mercado laboral?
8. Hasta donde yo sé, los sistemas IA más utilizados hoy en día por las grandes
compañías, están basados en redes de neuronas, y necesitan una base de datos de la
que aprender, ¿Esta condición puede introducir sesgos voluntarios o involuntarios? ¿Y,
qué me puede decir sobre los principios de transparencia y exhaustividad, en tanto que
se explique la razón de los resultados que provee un sistema de IA?
9. ¿Supone un problema importante para el desarrollo de sistemas de IA, el tema de la
privacidad en internet y el manejo de los datos personales de sus usuarios?
10. ¿Es posible que influya el factor humano en el resultado final de un sistema IA, por
parte de desarrolladores o la empresa que lo contrate?
11. Por último, en la toma de decisiones de un sistema basado en IA, ¿Qué tipo de
medidas se toman en cuanto al impacto que puede producir en la sociedad?
Página 59 de 77
Anexo II: Guion de la entrevista a ingeniero informático
1. ¿A qué se dedica ahora mismo? ¿Qué hace en su día a día?
2. ¿Con qué fines se desarrolla un sistema de IA?
3. La informática, las ciencias de la computación y en concreto la IA han cambiado mucho
y están en constante evolución. ¿Cuáles son las consecuencias de esta evolución a día
de hoy y cuáles cree que pueden ser en un futuro?
4. ¿Y sobre el impacto de ese rápido cambio tecnológico en la sociedad?
5. En lo que respecta al proceso de desarrollo de un sistema de IA, ¿Cómo cree que
debe ser un buen profesional en este ámbito?
6. ¿Considera que habría que tener en cuenta los riesgos que conlleva la IA y poner en
el centro de su investigación la ética?
7. ¿Cómo impacta e impactará la IA en el mercado laboral?
8. Hasta donde yo sé, los sistemas IA más utilizados hoy en día por las grandes
compañías, están basados en redes de neuronas, y necesitan una base de datos de la
que aprender, ¿Esta condición puede introducir sesgos voluntarios o involuntarios? ¿Y,
qué me puede decir sobre los principios de transparencia y exhaustividad, en tanto que
se explique la razón de los resultados que provee un sistema de IA?
9. ¿Supone un problema importante para el desarrollo de sistemas de IA, el tema de la
privacidad en internet y el manejo de los datos personales de sus usuarios?
10. ¿Es posible que influya el factor humano en el resultado final de un sistema IA, por
parte de desarrolladores o la empresa que lo contrate?
11. Por último, en la toma de decisiones de un sistema basado en IA, ¿Qué tipo de
medidas se toman en cuanto al impacto que puede producir en la sociedad?
Página 60 de 77
Anexo III: Guion de la entrevista a científica social con conocimiento sobre el
impacto de la IA
1. ¿Me podría explicar en qué consiste su trabajo? ¿Qué hace en su día a día?
2. ¿Qué opinión tiene sobre la ética dentro de la investigación y el desarrollo de la IA?
3. ¿Cree que es necesario que la IA se investigue desde las ciencias sociales, y, en
concreto, desde la sociología?
4. La tecnología en general y, en concreto, la IA han cambiado mucho y están en
constante evolución ¿Cuáles son las consecuencias de esta evolución a día de hoy en
la sociedad? Y, ¿cuáles cree que pueden ser en un futuro?
5. ¿Y sobre el impacto de ese rápido cambio tecnológico en la sociedad?
6. ¿Cómo impacta e impactará la IA en el mercado laboral?
7. En lo que respecta al proceso de desarrollo de un sistema de IA, ¿Cómo debe ser un
buen profesional en este ámbito?
8. ¿Cree que supone un problema importante para el desarrollo de sistemas de IA, el
tema de la privacidad en internet y el manejo de los datos personales de sus usuarios?
9. ¿Cree que debe haber una regulación más drástica en lo que respecta a los usos de
la IA?
10. Por último, ¿Cree que es posible que haya una influencia del factor humano en el
resultado final de un sistema IA?
Página 61 de 77
Anexo IV: Guion de la entrevista grupal a estudiantes de Ingeniería Informática con
especialización en Inteligencia Artificial
Preguntas generales IA
1. En estos años de carrera, que habéis adquirido conocimiento sobre el tema, ¿Qué
opinión tenéis de la Inteligencia Artificial, en general?
2. ¿Cómo cree que influye la rapidez del cambio tecnológico en la sociedad?
3. ¿Qué opináis sobre la ética dentro de la investigación y el desarrollo de la IA?
4. En lo que respecta al proceso de desarrollo de un sistema de IA, ¿Cómo cree que
debe ser un buen profesional en este ámbito?
Preguntas privacidad
5. ¿Cree que supone un problema importante para el desarrollo de sistemas de IA, el
tema de la privacidad en internet y el manejo de los datos personales de sus usuarios?
6. Y, siendo conscientes y habiendo estudiado las leyes de protección de datos y todo lo
que ello involucra, ¿os preocupa como usuarias de internet?
7. ¿Qué medidas propondríais para que la ciudadanía esté más informada de lo que
sucede en internet con nuestros datos personales y de navegación?
Preguntas específicas IA
8. La IA ya está presente en nuestro día a día, pero en un futuro, ¿cómo puede
afectarnos?
9. ¿Confiaríais, a día de hoy, a algún tipo de robot con IA el cuidado de personas
mayores?
10. ¿Cree que es necesario algún tipo de control profesional y ético en el desarrollo y
uso de los sistemas de IA?
11. ¿Piensa que debe haber una regulación más drástica en lo que respecta a los usos
de la IA?
12. Por último, ¿Cree que es posible que haya una influencia del factor humano en el
resultado final de un sistema IA?
Página 62 de 77
Anexo V: Guion de la entrevista grupal a usuarios/as de internet
Preguntas generales de la IA
1. ¿Qué es lo primero que se os viene a la mente cuando oís hablar de Inteligencia
Artificial?
2. Desde un punto de vista general, ¿tenéis una actitud positiva o negativa de la IA? ¿Por
qué?
Preguntas sobre la privacidad
3. La IA es utilizada para darnos publicidad personalizada por internet, por lo que
necesita recoger información sobre las páginas que visitamos, o la información que
cedemos ¿qué opinión tenéis de esto?
4. Y, ¿qué piensa de la protección de datos personales y el posible uso de información
personal por otras personas?
5. Y, teniendo esto en cuenta, ¿lee las políticas de privacidad de las páginas de internet
o de las apps que instala?
6. ¿Qué medidas proponéis para que la ciudadanía esté más informada de lo que sucede
en internet con nuestros datos personales y de navegación?
Preguntas específicas IA
7. La IA ya está presente en nuestro día a día, pero en un futuro no muy lejano, ¿cómo
percibe que puede afectarnos?
8. ¿Confiaríais, a día de hoy, a algún tipo de robot con IA el cuidado de hijos/as o
personas mayores?
9. ¿Y qué opináis sobre la IA aplicada a la sanidad? (¿Puede suponer un riesgo para las
personas?)
10. ¿Cree que es necesario algún tipo de control profesional y ético en el desarrollo y
uso de los sistemas de IA?
11. ¿Piensa que debe haber una regulación más drástica en lo que respecta a los usos
de la IA?
12. Por último, ¿Cree que es posible que haya una influencia del factor humano en el
resultado final de un sistema IA?
Página 63 de 77
Anexo VI: Cuadro tipológico de las entrevistas grupales
Tabla XII. Cuadro tipológico de las entrevistas grupales
Edad Sexo
22 Hombre
Entrevista grupal I
21 Hombre
(E3)
20 Hombre
Entrevista grupal II 22 Mujer
(E4) 20 Mujer
25 Mujer
Entrevista grupal III
23 Mujer
(E5)
22 Mujer
Fuente: Elaboración propia
Anexo VII: Ficha Técnica del Innovarómetro del CIS estudio nº3216
Ámbito: Nacional.
Universo: Población residente de ambos sexos de 18 años y más.
Tamaño de la muestra:
✓ Diseñada: 6.500 entrevistas.
✓ Realizada: 6.308 entrevistas.
Página 64 de 77
cuestionarios se han aplicado mediante entrevista personal asistida por ordenador
(CAPI) en los domicilios.
Error muestral: Para un nivel de confianza del 95,5% (dos sigmas), y P=Q, el error es de
±1,26% para el conjunto de la muestra y en el supuesto de muestreo aleatorio simple.
Los errores correspondientes a cada una de las Autonomías se encuentran en el Cuadro
1, al final de esta ficha técnica.
Fecha de realización: Del 19 de junio al 18 de septiembre de 2018
Anexo VIII: Ficha Técnica del Barómetro de Mayo del CIS estudio nº 3213
Ámbito: Nacional.
Universo: Población española de ambos sexos de 18 años y más.
Tamaño de la muestra:
➢ Diseñada: 2.500 entrevistas.
➢ Realizada: 2.481 entrevistas.
Afijación: Proporcional.
Ponderación: No procede.
Puntos de Muestreo: 256 municipios y 49 provincias.
Procedimiento de muestreo: Polietápico, estratificado por conglomerados, con selección
de las unidades primarias de muestreo (municipios) y de las unidades secundarias
(secciones) de forma aleatoria proporcional, y de las unidades últimas (individuos) por
rutas aleatorias y cuotas de sexo y edad.
Los estratos se han formado por el cruce de las 17 comunidades autónomas con el
tamaño de hábitat, dividido en 7 categorías: menor o igual a 2.000 habitantes; de 2.001
a 10.000; de 10.001 a 50.000; de 50.001 a 100.000; de 100.001 a 400.000; de 400.001
a 1.000.000, y más de 1.000.000 de habitantes.
Los cuestionarios se han aplicado mediante entrevista personal en los domicilios.
Error muestral: Para un nivel de confianza del 95,5% (dos sigmas), y P = Q, el error real
es de ±2,0% para el conjunto de la muestra y en el supuesto de muestreo aleatorio
simple.
Página 65 de 77
Anexo IX: Entrevista a Experto en Inteligencia Artificial
Debido a la falta de un consentimiento explícito de la Experto entrevistada para publicar
su identidad, trataré de omitir ciertos datos personales.
1. ¿Me podría explicar en qué consiste su trabajo o trabajos? ¿Qué hace en su día a
día?
El grupo de investigación trabaja en el desarrollo de nuevos algoritmos de aprendizaje
automático. Durante los últimos años nos hemos centrado en algoritmos escalables, es
decir, que sirvan para afrontar situaciones en las que los datos o variables de los
conjuntos de datos son muy grandes, lo que hoy se llama Big Data, solo que nosotros
empezamos a trabajar ya en el año 2008, en este tema. Y también estamos trabajando
en algoritmos que tienen algún tipo de característica que nos interese, además de la
escalabilidad, como puede ser la privacidad en los datos, que es lo que se llama
“algoritmos que mantienen la privacidad”, y “algoritmos explicables” un poco en sintonía
con las nuevas líneas europeas de Inteligencia Artificial robusta y fiable.
2.- ¿me podría explicar con qué fines se desarrolla un sistema de Inteligencia Artificial?
¿Cuáles son sus objetivos principales?
El desarrollo de un sistema inteligente tiene como objetivo el poder automatizar una tarea
que en este momento necesita inteligencia para ser resuelta y los sistemas que analizan
grandes cantidades de datos o que intentan reproducir cómo trabajaría un experto en
una determinada situación, pues son sistemas de este tipo. A veces un poco difícil de
explicar, porque los algoritmos de Inteligencia Artificial es algo a lo que estamos
acostumbrados todo el tiempo porque lo llevamos en muchas aplicaciones de nuestro
móvil. Cuando utilizas google maps, mapas o cualquier aplicación… la gente está
también cambiando su forma de actuar, ya nadie te pregunta por la calle cómo se va a
tal sitio, ahora la gente va con su móvil y el algoritmo de búsqueda te está trazando, a
dónde tienes que ir y cómo te tienes que mover, y lo está haciendo en tiempo real. Los
algoritmos de recomendación estos días que tienen que ver pues con qué contenido te
va a resultar más interesante ver en una plataforma de streaming, por ejemplo. O tal
serie, tal otra… o qué ítems son más interesantes para ti en una web donde estás
eligiendo qué quieres comprar, es decir, van desde cosas que podríamos decir que ya
están integradas en nuestro día a día hasta cosas más sofisticadas, ¿no? Ahora mismo
estaba estudiando el tema de la Llamada Europea para grupos que quieran trabajar en
ayudar al tema del
Página 66 de 77
COVID-19, estudiar las series de datos, simular cómo podemos obtener mejores
resultados… La Inteligencia Artificial ha llegado ya a nuestra vida diaria, está cambiando
la forma en la que interactuamos todos como sociedad.
3. ¿Cuáles son las consecuencias de esa constante evolución, de la informática, las
ciencias de la computación y en concreto de la Inteligencia Artificial?
La informática, y muy particularmente la Inteligencia Artificial está cambiando nuestra
forma de relacionarnos como sociedad. Está facilitando muchas interacciones, pero
también todos estamos constantemente conectados a nuestros múltiples dispositivos y
esa conectividad es necesaria para funcionar en nuestra vida diaria. Nos está facilitando
muchas cosas, por ejemplo, lo que tiene que ver con la medicina, muy probablemente
cambiará la forma que tenemos de educar, cambiarán muchas áreas importantes. La
industria 4.0, es una evolución al uso de nuevas herramientas y nuevas formas de
interaccionar.
4., en lo que respecta al proceso de desarrollo de un sistema de IA, ¿Cómo debe ser un
buen profesional en este ámbito?
Los sistemas de IA no son diferentes de cualquier otro sistema informático en cuanto a
las normas del buen hacer, es decir, existen metodologías que nos dicen cómo
enfrentarnos a esto, y hoy en día existen también recomendaciones de tipo genérico, por
ejemplo, en la UE, para desarrollar buenas prácticas en la implementación de sistemas
inteligentes, que tienen que ver con el respeto a la privacidad, con el derecho al olvido…
Es bastante complejo de implementar, porque necesitamos una aproximación ética. Hay
una serie de recomendaciones a este nivel que se intentan seguir, sobre todo porque
Europa se está intentando diferenciar de las otras grandes áreas importantes en
Inteligencia Artificial, como es el área China o Estados Unidos con el tema de una
aproximación ética a la Inteligencia Artificial. Claro que todo esto ahora mismo está
bastante en suspenso dada la catástrofe que tenemos encima con el tema del virus.
5. Claro, ¿Y qué obstáculos se encuentran en la elaboración de un sistema de IA o en
su ámbito de investigación?
A ver, ¿qué los algoritmos están sesgados? Pues muy probablemente, porque los
algoritmos que trabajan sobre ciencia de datos usan datos del mundo real y el mundo
real no es perfecto, está sesgado. Entonces, lo importante es darnos cuenta de que eso
es así e intentar solucionarlo. Es más fácil solucionar el sesgo de un algoritmo que
solucionar el sesgo de una persona. Luego también hay mucha gente que está
trabajando en el tema de los algoritmos que tienen que ver por ejemplo con el lenguaje
natural, y lo habrás visto hace un tiempo… los lenguajes como el inglés no tienen género
en algunos temas como en las profesiones, pero luego, los lenguajes latinos sí.
Entonces, cuando tú traduces clinician o physician, que en inglés no tiene género, en
español lo traducían como médico. Ahora, google, por ejemplo, y otros traductores están
traduciendo “médico/médica”, pero sí que es cierto que algunos algoritmos que se utilizan
para traducir en el lenguaje natural tienen sesgos debido a este tipo de situaciones y hay
Congresos especializados en detectar este tipo de cosas y en luchar contra ello. Yo creo
que es importante que nos demos cuenta de que eso es así porque el futuro yo creo que
Página 67 de 77
será igualitario o no será, pero eso también necesita un esfuerzo de toda la sociedad, no
es sólo que las personas que estemos trabajando en Inteligencia Artificial nos
esforcemos, sino que todos debemos darnos cuenta de que existen sesgos y contra esos
sesgos hay que luchar. Y no solamente existen sesgos de género, también existen
sesgos que tienen que ver con la etnia o de otro tipo.
9., perfecto. Y, cree que supone un problema importante para el desarrollo de sistemas
de IA, el tema de la privacidad en internet y el manejo de los datos personales de sus
usuarios, ¿no? Como ya me comentó antes, ¿me puede comentar más sobre este tema?
A ver, el tema de la privacidad es algo que se está regulando por ley en la UE, pero es
complicado porque hay una responsabilidad también en todos nosotros que no estamos
asumiendo. Yo creo que las personas se van a dar cuenta, cada vez más, de que la
privacidad es importante, pero hay situaciones que ponen este tema en jaque. Piensa,
por ejemplo, cómo ha hecho China para usar los móviles o datos de internet para luchar
contra la pandemia, y que es también lo que está pasando en Europa… A veces tenemos
que ceder privacidad para conseguir algún tipo de ventaja. Y no es tan sencillo todo esto,
es decir, no es: yo me cierro, mis datos son míos y tengo derecho a mi privacidad… Sí,
pero a veces tenemos que ceder privacidad y derechos por un bien común, que es lo
que está pasando ahora mismo. La gente se está quedando en su casa y está
renunciando a muchos de sus derechos por el bien común. Claro que tenemos derecho
a la privacidad y claro que hay que regular todo esto, pero no es sencillo de hacer, y
muchas veces las situaciones nos ponen a prueba.
Página 68 de 77
10. Claro, ¿cómo impacta e impactará la Inteligencia Artificial en el mercado laboral?
Ahora mismo es un poco difícil hablar de esto con la situación económica que tenemos
en el mundo… Ahora mismo estamos entrando en una economía de posguerra… Lo
hemos visto anunciado por el presidente del país y tenemos un problema a nivel europeo.
Entonces, yo lo que te puedo contar es lo que estábamos viendo que iba a pasar antes
y es que estamos en medio de una revolución que sería lo que se llama la quinta
revolución industrial y bueno, pues que hay trabajos que se van a transformar…
mayormente ésta será la situación más común. Habrá tareas que realiza una máquina
mejor que una persona y las personas íbamos a tener que convivir con una situación en
la que parte de tu trabajo, quizás el más rutinario, va a ser realizado por una máquina. Si
ponemos un ejemplo en el campo de la medicina, es un campo que se ha transformado
muchísimo desde… yo todavía puedo recordar, y lo podemos ver en las películas cuando
los médicos tenían una relación con la tecnología mucho menor que ahora. Ahora hay
un montón de pruebas médicas que se pueden hacer vía imagen, es mucho más precisa
la medicina, puedes prevenir mejor… Ese tipo de situaciones en las que se ha
incorporado la tecnología a una profesión, no la ha eliminado, simplemente la ha
cambiado. Entonces, las personas se dedican a la parte, digamos, más creativa, más
novedosa de la profesión, mientras que las pruebas más rutinarias pues son asumidas
por una máquina que es capaz de tener mucha más capacidad de analizar patrones, los
hace mucho más rápido y se equivoca mucho menos, ¿no? En cambio, los profesionales
son capaces de tomar decisiones con mejor fundamento. No solo pasa en medicina,
también en el trading en bolsa… en muchas áreas. Hay otros trabajos que van a
desaparecer claramente y lo estamos viendo en la calle, todo lo que tiene que ver con
profesiones que están automatizándose prácticamente por completo, y eso será una
parte importante. Y luego habrá profesiones nuevas que no conocemos y que tendrán
que ver con la ciberseguridad, con la informática, con la Inteligencia Artificial o con otras
áreas como los cuidados personales, por ejemplo. Ahora mismo la situación de empleo
es seria y supongo que requerirá un análisis importante que tenga que ver con la IA, pero
también con otras cuestiones.
Página 69 de 77
10., ¿es posible que haya una influencia del factor humano en el resultado final de un
sistema de Inteligencia Artificial, por parte de desarrolladores o la empresa que lo
contrate?
Pues a ver… desarrollar un sistema de Inteligencia Artificial no es una cuestión trivial y
existe una parte de evaluación del sistema que implica a un conjunto de ingenieros.
Normalmente esto no es la obra de una sola persona. Se debe evaluar y debe pasar una
prueba de calidad, y después debe pasar una serie de evaluaciones para que eso esté
en una empresa y sea público. Que por supuesto puede haber cuestiones
conspiratorias…pues no sé qué decirte… yo lo veo factible pero tremendamente
complicado de hacer, no sería lo habitual. Existen controles de calidad, evaluaciones del
sistema, pruebas de mercado…Y normalmente los ingenieros que trabajamos en
informática, en Inteligencia Artificial, o cualquier otra área somos personas que trabajan
para tener un producto interesante y que esté al servicio de un tema determinado.
Claro, el objetivo es mejorar la calidad de vida de las personas al final, ¿no?
Claro
11. Por último, en la toma de decisiones de un sistema basado en IA, ¿qué tipo de
medidas se toman en cuanto al impacto que puede producir en la sociedad? ¿me puede
hablar más sobre este tema?
Existen una serie de controles que hay que pasar para tu producto, que tiene que estar
refrendado por unas cuestiones de calidad. Estar avalado por la Unión Europea, por un
Comité de estándares… Es lo que estamos viendo por ejemplo con este tema del COVID,
pues lo estaba diciendo el otro día el presidente cuando hablaba de los test que se
utilizan para detectar un determinado tipo de cuestiones… pues tienen que estar
homologados. La misma historia, pero con Inteligencia Artificial, es decir hay una serie
de controles de seguridad que hay que pasar con cualquier producto informático y por
supuesto con cualquier sistema inteligente.
Página 70 de 77
Referencias
Alcolea, A. (29 de abril de 2018). 10 usos de la inteligencia artificial que nadie se hubiera
imaginado. Computerhoy. Recuperado de: https://computerhoy.com/noticias/life/10-
usos-inteligencia-artificial-que-nadie-hubiera-imaginado-79811
Beck, U. (1998). La sociedad del Riesgo: hacia una nueva Modernidad. Buenos Aires,
Argentina: Paidós.
Beck, U. (2002). La sociedad del riesgo global. España. Siglo XXI de España Editores.
Página 71 de 77
Chas, A. (2020). Qué es la Inteligencia Artificial. AuraPortal. Recuperado de:
https://www.auraportal.com/es/que-es-la-inteligencia-artificial/ CIS (19 de junio de 2018).
Innovarómetro. Recuperado de:
http://www.cis.es/cis/opencm/ES/2_bancodatos/estudios/ver.jsp?estudio=14401
Comisión Europea. (2019). Comunicación de la Comisión al Parlamento Europeo, al
Consejo, al Comité Económico y Social Europeo y al Comité de las Regiones. Generar
confianza en la inteligencia artificial centrada en el ser humano. ec.europa.eu.
Recuperado de: https://ec.europa.eu/transparency/regdoc/rep/1/2019/ES/COM-2019-
168-F1-ES-MAIN-PART-1.PDF
Del Río, M.L., López, J.M. & Vaquero, C. (2018). Inteligencia artificial en el ámbito
médico. Revista española de investigaciones quirúrgicas, 21(3), 113-116. Recuperado
de: https://dialnet.unirioja.es/servlet/articulo?codigo=6601260
Doménech, M. & Tirado, F.J. (1998). Sociología simétrica. Ensayos sobre ciencia,
tecnología y sociedad. Revista Española de Investigaciones Sociológicas. 89, 143-170
Espinosa, M.F. (octubre, 2018). Impacto del rápido cambio tecnológico en la consecución
de los ODS. Trabajo presentado en 73º Periodo De Sesiones De La Asamblea General.
Fast, N.J. & Schroeder, J. (2020). Power and decision making: new directions for
research in the age of artificial intelligence. Current Opinion in Psychology, 33, 172-176.
Recuperado de: https://www-sciencedirect-
com.accedys.udc.es/science/article/pii/S2352250X19301198?via%3Dihub
Foucault, M. [1975] 2009. Vigilar y castigar. Nacimiento de la prisión. Madrid: Siglo XXI
Frey, W., Patton, D., Gaskell, M. & McGregor, K. (2020). Artificial Intelligence and
Inclusion: Formerly Gang-Involved Youth as Domain Experts for Analyzing Unstructured
Twitter Data. Social Science Computer Review, 38(1). Recuperado de: https://journals-
sagepub-com.accedys.udc.es/doi/10.1177/0894439318788314
Página 72 de 77
Inteligencia artificial: DDHH, justicia social y desarrollo. (545). Recuperado de:
https://www.alainet.org/es/articulo/203420
Garrell, A. & Guilera, L. (2019). La Industria 4.0 en la sociedad digital. Barcelona, España:
Marge Books.
Gassmann, O., Böhm, J. & Palmié, M. (2019). Smart Cities: Introducing Digital Innovation
to Cities. Bingley, UK: Emerald Group Publishing.
González, M. I., Luján, J. L. & López, J. A. (1996). Ciencia, tecnología y sociedad una
introducción al estudio social de la ciencia y la tecnología. Tecnos. Recuperado de:
https://dialnet.unirioja.es/servlet/libro?codigo=152348
Goralski, M.A. & Tan, T.K. (2020). Artificial intelligence and sustainable development. The
International Journal of Management Education, 18(1). Recuperado de:
https://www.sciencedirect.com/science/article/pii/S1472811719300138
Guzman, A.L. & Lewis, S.C. (2019). Artificial intelligence and communication: A Human–
Machine Communication research agenda. New Media & Society, 22(1). Recuperado de:
https://journals-sagepub-com.accedys.udc.es/doi/10.1177/1461444819858691
Hintze, A. (14 de noviembre de 2016). Understanding the four types of AI, from reactive
robots to self-aware beings. The Conversation. Recuperado de:
https://theconversation.com/understanding-the-four-types-of-ai-from-reactive-robots-to-
self-aware-beings-67616
Hu, W.-L., Akash, K., Reid, T., & Jain, N. (2019). Computational Modeling of the
Dynamics of Human Trust during Human-Machine Interactions. IEEE Transactions on
Human-Machine Systems, 49(6), 485-497. Recuperado de: https://ieeexplore-ieee-
org.accedys.udc.es/document/8502860
Ienca, M. (2019). Democratizing cognitive technology: a proactive approach. Ethics and
Information Technology, 21(4), 267-280. Recuperado de:
https://link.springer.com/article/10.1007/s10676-018-9453-9
Página 73 de 77
Iglesias, A. (15 de septiembre de 2016). La historia de la inteligencia artificial: desde los
orígenes hasta hoy. Ticbeat. Recuperado de: https://www.ticbeat.com/innovacion/la-
historia-de-la-inteligencia-artificial-desde-los-origenes-hasta-hoy/
Lee, A.J. & Cook, P.S. (2020). The myth of the “data‐driven” society: Exploring the
interactions of data interfaces, circulations, and abstractions. Sociology Compass 14 (1).
Recuperado de: https://onlinelibrary-wiley-
com.accedys.udc.es/doi/full/10.1111/soc4.12749
Leong, B. (2019). Facial recognition and the future of privacy: I always feel like …
somebody’s watching me. Bulletin of the Atomic Scientists, 75(3), 109-115. Recuperado
de: https://www-tandfonline-
com.accedys.udc.es/doi/full/10.1080/00963402.2019.1604886
Lévy, P. (2004). Inteligencia colectiva: por una antropología del ciberespacio. [Traducido
al español de Felino Martínez Álvarez]. Washington, DC: bvs.
Martí, A. (11 de mayo de 2020). En Singapur han puesto a los robots de Boston Dynamics
a vigilar que se guarde la distancia de seguridad en los parques. Xataka. Recuperado
de: https://www.xataka.com/robotica-e-ia/singapur-han-puesto-a-robots-boston-
dynamics-a-vigilar-que-se-guarde-distancia-seguridad-parques
Página 74 de 77
McCarthy, J., Minsky, M.L., Rochester, N. & Shannon, C. (1955) A Proposal for the
Dartmouth Summer Research Project on Artificial Intelligence. En Chrisley, R. Artificial
Intelligence: Critical Concepts (44-54), Londres: Routledge.
Monterroza, A. (2017). Una revisión crítica a la teoría del Actor-red para el estudio de los
artefactos. Revista Trilogía. 9(17), 49-62. Recuperado de:
https://dialnet.unirioja.es/servlet/articulo?codigo=6090400
Russell, S., & Norvig, P. Inteligencia Artificial un enfoque moderno. [Traducido al español
de Juan Manuel Corchado Rodríguez]. 2ª ed. Madrid, España: Pearson Prentice Hall.
Salas, J. (16 de noviembre de 2019). El temor a la inteligencia artificial surge del recelo
hacia los intereses económicos. El País. Recuperado de:
https://elpais.com/elpais/2019/11/14/ciencia/1573728249_279206.html
Taylor, C.R. (2019). Artificial intelligence, customized communications, privacy, and the
General Data Protection Regulation (GDPR). International Journal of Advertising. 38(5),
649-650. Recuperado de: https://www-tandfonline-
com.accedys.udc.es/doi/full/10.1080/02650487.2019.1618032
Página 75 de 77
Toğaçar, M., Ergen, B. & Cömert, Z. (2020). COVID-19 detection using deep learning
models to exploit Social Mimic Optimization and structured chest X-ray images using
fuzzy color and stacking approaches. Computers in Biology and Medicine. Recuperado
de: https://www.sciencedirect.com/science/article/pii/S0010482520301736
Vaishya, R., Javaid, M., Haleem, I., & Haleem, A. (2020). Aplicaciones de Inteligencia
Artificial (AI) para la pandemia de COVID-19. 14(4), 337-339. Recuperado de:
https://www.sciencedirect.com/science/article/pii/S1871402120300771
Página 76 de 77