Economía y Sociedad
Economía y Sociedad
Economía y Sociedad
http://dx.doi.org/10.15359/eys.25-57.5
ARTÍCULO
1
Profesor Titular en Universidad de las Ciencias Informáticas, Cuba. Economista,
Dr. En Ciencias Económicas. Correo electrónico: [email protected]
2
Profesora auxiliar en Universidad de las Ciencias Informáticas, Cuba. Licenciada en
Psicología. Correo electrónico: [email protected]
RESUMEN
La importancia del tratamiento del tema asociado a los usos maliciosos de los resultados
de la inteligencia artificial, está marcando el debate actual de los estudios que se
realizan desde las instituciones académicas, por sus implicaciones negativas en el
escenario social. En este sentido el propósito de este artículo, consiste en repensar los
dilemas éticos que están ocurriendo en el marco de la sociedad digital. Con este
propósito la pregunta es la siguiente: ¿Cómo eliminar los riesgos de un uso negativo del
desarrollo tecnológico? El estudio permite, identificar los puntos críticos que están
afectando la sociedad, con la idea de promover el debate en torno, a sus soluciones. La
conclusión central es que la epistemología para la solución de los problemas sociales
que está generando el inadecuado uso de la tecnología, está por encima de la
naturaleza técnica, y exige reevaluar este fenómeno desde un enfoque
multidisciplinario, con énfasis en el componente cultural.
The importance of analyzing the malicious uses of artificial intelligence results is leading
the current debate of studies conducted by academic institutions because of their
negative implications in the social field. The purpose of this article is to rethink the
ethical dilemmas under a digital society framework. Consequently, the important
question here is how to eliminate the risks of the negative uses of technological
developments. This study allows to identify the key points affecting the society in order
to promote debate around the solutions. As the main conclusion, using epistemology to
solve the social problems generated by the inadequate use of technology is above the
technical nature and requires re-evaluating this phenomenon from a multidisciplinary
approach, mainly focused on the cultural component.
RESUMO
INTRODUCCIÓN
El efecto es que los problemas que ha estado generando el inadecuado uso de las
tecnologías, muestran la falta de preparación para el examen de las consecuencias
negativas de los errores ocasionados por los diseñadores de programas
informáticos. La notoriedad del tema, ha conducido a que la IEEE 2, −entidad de
referencia mundial− esté avanzando en la creación de equipos de trabajo
para enfrentar las contradicciones sociales que están emergiendo en el
contexto de la IA (Torrero, 2019).
Entre las principales amenazas que, desde el enfoque ético, se debate actualmente,
en el entorno digital es el referido a la privacidad, en un contexto donde la
tendencia ha sido a que la intimidad se ve cada vez más erosionada por la invasión
a que ha sido sometida. Este fenómeno ha estado acompañado del empleo de
sistemas de información, que la naturaleza humana le ha impregnado el poder de
que puedan tomar de manera autónoma decisiones ejecutables en ocasiones
riesgosas, presentándose un dilema moral (Shaw, 2019).
Una interrogante clave en este contexto es la siguiente: ¿Cómo eliminar los riesgos
de un uso malicioso del desarrollo tecnológico en el ámbito de la inteligencia
artificial? La prueba es que, desde la concepción de la ética y la moral, trabajar en
la conciencia de sus desarrolladores es esencial. Atendiendo a esta inquietud, el
propósito de esta investigación consiste en reflexionar sobre los dilemas éticos de
los desarrollos tecnológicos en el marco de la sociedad digital.
Dilemas éticos
Desde la ética deontológica, una persona es ética solo si respeta los deberes, las
obligaciones y los derechos afines con determinadas situaciones. Las personas con
ética deontológica (conocida como ética de la obligación o del deber) actúan en
correspondencia con las normas establecidas. Por otro lado, la ética de la virtud,
plantea que una persona es ética, solo si piensa y actúa coherentemente desde los
valores morales, cuya actuación debe nacer de manera intrínseca como factor de
credibilidad (Cointe, Bonnet, & Boissier, 2016) y (Boissier, Bonnet, Cointe, De Swarte, & Vallée, 2018).
Los principios son el eje de referencia sobre los cuales se enfrentan los dilemas
éticos, por lo que en cualquier análisis asociado al tema es importante partir de
ellos. De acuerdo a un estudio sobre: “27 Principios fundamentales de la bioética”,
toda aplicación de la ciencia y la tecnología debe partir del respeto y la protección a
las personas, considerarlas con autonomía, evitando hacerles daño, y maximizando
los beneficios, reduciendo los perjuicios, lo cual se traduce en la importancia de
considerar las bases de la beneficencia y la no maleficencia, es decir, que, si se
hace el bien, no es lógico causar un daño. (Curso OPE Andalucía, 2019).
Por consiguiente, generar el bien es una obligación de la ética, por lo que este
hecho condiciona la necesidad de normas, que exigen que los riesgos de cualquier
investigación sean evitables, y que esta, esté adecuadamente pensada, y que los
investigadores sean competentes para llevarlas a cabo, garantizando el bienestar
de sus participantes.
Según colectivo, Sara Mattingly-Jordan, Rosalie Day, Bob Donaldson, Phillip Gray, L. Maria Ingram, (2019, p. 8),
en su glosario de términos, Ethically Aligned Design, la inteligencia artificial se
refiere a: “La capacidad de las computadoras u otras máquinas para simular o
mostrar un comportamiento inteligente”, es decir es un sistema de símbolos, que
simula el comportamiento humano, desde programas informáticos.
Quinto, una evaluación del cuestionamiento que se le realiza a los dilemas éticos
que se generan desde la inteligencia artificial, sugiere reflexionar sobre el contenido
mismo de esta categoría en su expresión filosófica, lo que hace pensar que las
contradicciones sociales que se generan desde su inadecuado uso, no están en la
tecnología en sí, sino en el actor que genera los procesos de algoritmización de los
componentes humanos. Ello obliga a repensar desde la ética la relación sujeto-
objeto que produce estos resultados.
Intimidad
Seguridad
Identidad
Por consiguiente, el estudio de Brundage, et al., (2018), sobre los usos maliciosos de la
inteligencia artificial -en los campos antes presentados-, sintetiza potencialidades
que podrían ser perjudiciales para la sociedad, sobre las que es importante pensar
en cualquier alternativa, ante los daños que puedan causar. Ello sugiere repensar
de manera permanente los escenarios de la seguridad física, y la ciberseguridad,
con la finalidad de proteger la soberanía nacional de los Estados, evitando la
posibilidad de que aparezcan amenazas que afecten a países y regiones.
De estos ejemplos, se podría concluir parcialmente, que los fallos que producen los
desarrollos tecnológicos de la IA, inadecuadamente programados, colocan en riesgo
la dignidad y la vida humana, la libertad de expresión, el derecho a un empleo e
incluso la salud. Tómense de ejemplo, el caso de Arkansas (EE. UU.), donde un
error de codificación de un algoritmo ocasionó un descenso injustificado de la
cobertura de salud, para pacientes con parálisis cerebral, asignándoseles una
menor cantidad de horas de cuidados intensivos, de las que en realidad debían
planificarse (Lecher, 2018).
Un grupo de autores Laichter, L. (2019), ( Yu, H., Shen Z., Miao, C., Leung, C., Lesser, V. & Yang, Q., 2018),
( Boissier, O., et al., 2018), ( Varangaonkar, A., 2018), ( Conitzer, Sinnott, Schaich, Deng & Kramer, 2017), ( Cointe, et
al., 2016
), coloca la atención en relación con generar alternativas desde la propia
tecnología, dedicándose a construir variantes éticas desde esta. Es decir, que el rol
de corregir los dilemas se lo otorgan al componente artefactual. Esta postura
enarbola un exagerado fetichismo tecnológico, a partir de la creencia, de que desde
los artefactos se resolverán los problemas generados por los sesgos humanos que
generan comportamientos maliciosos. Un análisis crítico de esta visión, indica la
necesidad de asumir la tecnología como complemento, y no como centro para
resolver los usos negativos de la ciencia.
Otra arista del debate, plantea la pregunta siguiente: ¿Resolver los problemas que
genera el inadecuado empleo de la IA, tiene una solución política? Samaniego (2018a). En
este sentido, se asume que la solución es política, en un plano en que la seguridad
y la prevención, son los ejes que debe promover el debate. En esta dirección,
( Brundage, et al., 2018), en su investigación indica, que legisladores y académicos deben
de actuar de cohesionada, a partir de que la investigación tecnológica debe ser
coherente con los aspectos que generan efectos positivos y perjudiciales desde la
inteligencia artificial.
Desde una visión con mayor integralidad que la arista anterior, el Institute of Electrical and
Electronics Engineers (IEEE) (2019
), en su Informe Ethically aligned design. A Vision for
Prioritizing Human Well-being with Autonomous and Intelligent Systems, promueve
las ideas siguientes:
Para lograr lo anterior, el Informe Ethically aligned design sugiere: (IEEE, 2019
)
Lecturas a considerar
COMENTARIOS FINALES
Las nuevas realidades que ofrecen las tecnologías están mostrando la necesidad de
una transformación en los patrones jurídicos, éticos y morales, lo cual debe
convertirse en una actividad y modos de actuación guiados por la práctica social
que debe adjudicarse cada individuo, y la sociedad en general. Ello deberá
contribuir a enfrentar las amenazas del contexto actual, por lo que la ciencia de los
datos, debería repensarse en función de proteger los intereses humanos, y en
contra de los fines comerciales que deterioran el comportamiento humano.
Las ciencias naturales están siendo empleadas para la distorsión de los valores
sociales, lo que requiere alertarlas para que los resultados de su investigación no se
orienten al servilismo de prácticas mal intencionadas, e impedir que se legitimen
acciones con impactos negativos para la sociedad. El hecho es que la práctica de la
ciencia desde la IA, puesta en función de entorpecer los acontecimientos, se está
transformando en un freno del pensamiento, cuestión que la desacredita.
REFERENCIAS
Berberich, N., & Diepold, K. (2018). The Virtuous Machine - Old Ethics for New
Technology? Recuperado de https://arxiv.org/abs/1806.10322 [ Links ]
Boissier, O., Bonnet, G., Cointe, C., De Swarte, T., & Vallée, T. (2018). Ethics and
autonomous agents. Building ethical collectives. Recuperado
de https://ethicaa.greyc.fr/media/files/ethicaa.delivrable.5.pdf [ Links ]
Brundage, M., Avin, S., Clark, J., Toner, H., Eckersley, P., Garfinkel, B., … &
Amodei, D. (2018). The Malicious Use of Artificial Intelligence: Forecasting,
Prevention, and Mitigation. (Primera ed.). Future of Humanity Institute, University
of Oxford, Arizona State University. Recuperado
de https://arxiv.org/ftp/arxiv/papers/1802/1802.07228.pdf [ Links ]
Castillero, O. (2016). Dilemas éticos: qué son, tipos y 4 ejemplos que te harán
pensar. Psicología y mente. En Psicología y mente. Recuperado
de https://psicologiaymente.com/psicologia/dilemas-eticos [ Links ]
Cointe, N., Bonnet, G., & Boissier, O. (2016). Ethical Judgment of Agents' Behaviors
in Multi-Agent Systems. En ACM Digital Library. Recuperado
de https://dl.acm.org/doi/10.5555/2936924.2937086 [ Links ]
Conitzer, V., Sinnott, W., Schaich, J., Deng, Y., & Kramer, M. (2017). Moral
decision making frameworks for artificial intelligence. Recuperado
de https://users.cs.duke.edu/~conitzer/#publications [ Links ]
Gigova, R. (2017). Who Vladimir Putin thinks will rule the World. En CNN.
Recuperado de https://edition.cnn.com/2017/09/01/world/putin-artificial-
intelligence-will-rule-world/index.html [ Links ]
Lecher, C. (2018). What happens when algorithm cuts your health care. En The
Verge. Recuperado
de https://www.theverge.com/2018/3/21/17144260/healthcare-medicaid-
algorithm-arkansas-cerebral-palsy [ Links ]
Macías, C., Fernández, A., Méndez, C., Poch, J., & Sevillano, B. (2015). Inteligencia
humana. Un acercamiento teórico desde dimensiones filosóficas y
psicológicas. Revista de Información Científica, 91(3), 577-592. Recuperado
de: http://www.revinfcientifica.sld.cu/index.php/ric/article/view/235/1350 [ Links ]
Mattingly-Jordan, S., Day, R., Donaldson, B., Gray, P., & Ingram, I. (2019).
Ethically Aligned Design. First Edition Glossary. A Vision for Prioritizing Human Well-
being with Autonomous and Intelligent Systems. (Primera ed.). IEEE Standards
Association. Recuperado de https://standards.ieee.org/content/dam/ieee-
standards/standards/web/documents/other/ead1e_glossary.pdf [ Links ]
Monasterio, A. (2019). Ética para máquinas: similitudes y diferencias entre la moral
artificial y la moral humana. Revista Internacional de Éticas Aplicadas, 30, 129-147.
Recuperado
de https://www.dilemata.net/revista/index.php/dilemata/article/view/412000295 [
Links ]
Shaw, J. (2019). Artificial Intelligence and Ethics. Ethics and the dawn of decision-
making machines. En Harvard Magazine. Recuperado
de https://harvardmagazine.com/2019/01/artificial-intelligence-limitations [ Links ]
Yu, H., Shen, Z., Miao, C., Leung, C., Lesser, V. & Yang, Q. (2018). Building Ethics
into Artificial Intelligence. Recuperado
de: https://arxiv.org/pdf/1812.02953.pdf [ Links ]
)
1 Ismail, N. (2019
2
Institute of Electrical and Electronics Engineers
3
La moral consiste en un conjunto de reglas que describen el cumplimiento de un
comportamiento dado, según las costumbres de un grupo o de una sola persona.
Estas reglas asocian un valor o un desvalor a algunas combinaciones de acciones y
contextos. Pueden ser específicos o universales, es decir, relacionados o no con un
período, un lugar, un pueblo, una comunidad, etc. (Cointe et al., 2016).
4
Los resultados de las elecciones presidenciales de EE. UU. y el referéndum del
Reino Unido, sobre la adhesión a la Unión Europea se vieron influenciados por el
empleo de la IA, para detectar y dirigirse a votantes indecisos (Bryson & Winfield,
2017, p. 1).
5
Miles Brundage, Shahar Avin, Jack Clark, Helen Toner, Peter Eckersle, y Ben
Garfinkel, Allan Dafoe, Paul Scharre, Thomas Zeitzoff, Bobby Filar, Hyrum
Anderson, Heather Roff, Gregory C. Allen, Jacob Steinhardt, Carrick Flynn, Seán Ó
h Éigeartaigh, Simon Beard, Haydn Belfield, Sebastian Farquhar, Clare Lyle,
Rebecca Crootof, Owain Evans, Michael Page, Joanna Bryson, Roman Yampolskiy,
Dario Amodei.
6
La eficiencia de un sistema de IA consiste en que una vez entrenado y
desplegado, puede ejecutar una tarea de forma más rápida que un humano. La
escalabilidad está determinada por las posibilidades que posee de completar mayor
cantidad de acciones, aumentar la potencia de cálculo a la que tiene acceso o hacer
copias que le permitirían desarrollar más actividades. Por ejemplo, un sistema de
reconocimiento facial típico es eficiente y escalable; una vez desarrollado y
entrenado, puede ser aplicado a muchas cámaras diferentes por mucho menos que
el costo de contratar analistas humanos para hacer el trabajo equivalente
(Brundage et al., 2018).
7
Se elaboran videos de líderes estatales, como el del caso de Obama, que parecen
hacer comentarios que nunca se hicieron en realidad, con las consecuencias
implícitas de este hecho.
Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons
Costa Rica, Heredia, San Rafael, Heredia, Costa Rica, Heredia, Costa Rica, CR, 506,
25624142