Artículo Inteligencia Artificial
Artículo Inteligencia Artificial
Artículo Inteligencia Artificial
Ing. Karen Irlanda Batres Flores (1), Ing. Brayan Jesús Hernández del Carmen,
[email protected] (2), Luís Eduardo Ortíz Trejo,
[email protected] (3), Carlo Magno Sánchez Ruiz,
[email protected] (4).
INSTITUCIÓN.
1. Facultad de Ingeniería Mecánica Eléctrica, estudiante.
2. Instituto Tecnológico Superior de Teziutlán, estudiante.
3. Instituto Tecnológico Superior de Teziutlán, estudiante.
4. Instituto Tecnológico Superior de Teziutlán, estudiante.
RESUMEN
Este artículo presenta una investigación exhaustiva sobre los riesgos asociados
con las inteligencias artificiales (IA) aplicadas a la generación de deepfakes.
Comienza con una descripción detallada de cómo funcionan las IA, en particular,
las Redes Generativas Adversarias (GAN), en el proceso de crear contenido falso
convincente.
La investigación destaca las aplicaciones negativas de los deepfakes, centrándose
en tres áreas principales: falsificación de identidad, fraude y extorsión. Se discuten
casos en los que los deepfakes han sido utilizados para engañar a individuos,
difamar a personalidades públicas y perjudicar la integridad de información visual y
auditiva.
También se abordan las medidas de seguridad actuales para mitigar los riesgos
asociados con los deepfakes, incluyendo técnicas de detección, verificación de
autenticidad, marcas de agua digitales y legislación específica. Se destaca la
importancia de la educación y concientización del público, así como la
colaboración entre plataformas tecnológicas y expertos en ciberseguridad.
INSTITUTION.
1. Faculty of Electrical Mechanical Engineering, student
2. Higher Technological Institute of Teziutlán, student.
3. Higher Technological Institute of Teziutlán, student.
4. Higher Technological Institute of Teziutlán, student.
SUMMARY
This article presents comprehensive research on the risks associated with artificial
intelligences (AI) applied to the generation of deepfakes. It begins with a detailed
description of how AIs, particularly Generative Adversarial Networks (GANs),
function in the process of creating convincingly false content.
The research highlights the negative applications of deepfakes, foscusing on three
main areas: indentity forgery, fraud, and exortion. Cases where deepfakes have
beed used to deceive individuals, defame public figures, and undermine the
inegrity of visual and auditory information are discussed.
The article addresses current security measures to mitigate risks associated with
deepfakes, including detection techniques, authenticity verifications, digital
watermarks, and specific legislation. The importance of public education and
awarness, as well as collaboration between technological plataforms and
cybersecurity experts, is emphasized.
¿Cuáles son los riesgos y desafíos éticos asociados con el desarrollo y difusión de
tecnologías de IA?
¿Cómo pueden los individuos protegerse en un mundo cada vez más impulsado
por la Inteligencia Artificial?
¿Cuáles son los métodos y algoritmos actuales para la detección de deep fakes y
cómo se comparan en términos de precisión y eficacia?
1.5 DELIMITACIÓN
El artículo quedó delimitado de la siguiente manera:
La investigación estará limitada al ámbito digital y se centrará en las
implicaciones en línea del robo de identidad y la propagación de deepfakes.
En la investigación se abordarán las consecuencias y riesgos asociados, el
énfasis principal será en las estrategías de prevención y detección de
deepfakes y el robo de identidad.
1.6 LIMITACIONES
Las limitaciones del estudio se perfilaron de la siguiente forma:
El avance tecnológico de la Inteligencia artificial puede hacer que algunos
hallazgos del estudio queden obsoletos en poco tiempo.
El uso de datos confidenciales relacionados con ciertos casos de robo de
identidad puede estar limitado por restricciones de privacidad y seguridad
afectando la capacidad para acceder a información detallada sobre
incidentes específicos.
1.7 HIPÓTESIS
Hipótesis alternativa: a medida que las tecnologías avanzan, la creación y
propagación de deepfakes pueden no sólo representar una amenaza para la
sociedad en términos de robo de identidad, sino también generar transformaciones
en la confianza pública y la seguridad digital.
2. MARCO TEÓRICO
En los últimos años, el avance tecnológico ha ido incrementado a pasos
gigantescos, hoy en día, la Inteligencia Artificial se encuentra en constante
evolución y transformación; el cual, está transformando radicalmente en la forma
en que vivimos, trabajamos e interactuamos con la tecnología.
Este fenómeno tecnológico ha trascendido fronteras lo que ha demostrado su
capacidad dando a avances innovadores y desafíos éticos sin precedentes. Sin
embargo, existe un fundamento teórico que sustenta lo anterior.
2.2 Deepfake.
Un deepfake es un video, una imagen o un audio generado que imita la apariencia
y el sonido de una persona. También llamados “medios sintéticos”, son tan
convincentes a la hora de imitar lo real que puede engañar tanto a las personas
como a los algoritmos de seguridad.
Los deepfakes son generados por la IA en directo, y sus formas más comunes de
aplicación son en videos o como filtros de realidad aumentada.
Deepfake como término proviene de la combinación de las palabras Deep
Learning y Fake, para representar algo falso que es resultado de la tecnología de
aprendizaje profundo.
3. METODOLOGÍA
Esta investigación tiene un enfoque cualitativo, se basa en la recopilación y
análisis de datos provenientes de fuentes diversas para obtener una comprensión
profunda del tema, además de la exploración de casos de estudio a través de
eventos específicos y las circunstancias relacionadas con la amenaza potencial de
la IA en la sociedad. El plan de estudio queda de la siguiente manera:
En la imagen anterior podemos apreciar los principios de la metodología seguidos
para el desarrollo de este proyecto, cada punto corresponde al modelo
metodológico empleado:
4. RESULTADOS
¿Cómo se pueden detectar los deepfakes?
Tanto si se trata de un video como de una imagen, hay algunas cosas a las que
hay que prestar atención para detectar un deepfake:
1. Incongruencias en la piel (demasiado lisa o demasiado arrugada, o su edad
parece desviada en comparación con el cabello).
2. Sombras apagadas alrededor de los ojos.
3. Errores de deslumbramiento en las gafas.
4. Vello facial de aspecto poco realista.
5. Lunares faciales poco realistas.
6. Demasiado o muy poco parpadeo.
7. Color de los labios fuera de lugar en comparación con la cara.
8. Movimiento poco realista y alrededor de la boca.
La mayoría de los deepfakes dejan la sensación de que algo está mal, y eso es
porque hay errores en el proceso que dejan residuos, pues las inteligencias
artificiales aún no son capaces de cubrir con la totalidad de los detalles. (Identidad
y biometría, 2023)
5. CONCLUSIONES
Como conclusión de la investigación propuesta, la hipótesis plantea que estos
avances tecnológicos representan una amenaza significativa, no sólo para la
seguridad digital, sino también para la confianza pública. Se espera que la
complejidad de los deepfakes supere las capacidades de detección actuales y los
riesgos asociados aumenten.
No obstante, en esta investigación se reconocen limitaciones, como la rápida
evolución de la tecnología puede que algunos hallazgos queden desactualizados y
la complejidad ética y legal de estas cuestiones puede resultar en limitaciones
para abordar todos los aspectos.
En última instancia, este estudio tiene como objetivo proporcionar información
crítica sobre la intersección de la IA, la suplantación de identidad y los deepfakes,
brindando prevención, detección y legislación que puedan mitigar los riesgos
asociados y promover un uso ético y responsable de estas tecnologías
emergentes.
6. REFERENCIAS
Meseguer González, P. & López de Mántaras Badia, R. (2017). Inteligencia artificial: ( ed.).
Editorial CSIC Consejo Superior de Investigaciones Científicas.
https://elibro.net/es/ereader/itsteziutlan/42319?page=8
Identidad y biometría. (3 de agosto de 2023). Deepfakes al Alza: Cómo protegerte frente a ellos.
Obtenido de VeriDas: https://veridas.com/es/deepfakes-al-alza-como-protegerte-frente-a-
ellos/
Peralta, L. A. (2021). Robos millonarios utilizando inteligencia artificial: ¿Pueden los 'deepfakes'
suplantar nuestra identidad? Obtenido de Retina:
https://retinatendencias.com/negocios/robos-millonarios-utilizando-inteligencia-artificial-
pueden-los-deepfakes-suplantar-nuestra-identidad/