Peligro en La Desinformación Artificial
Peligro en La Desinformación Artificial
Peligro en La Desinformación Artificial
responder preguntas complejas entre otras cosas. La herramienta de LLM más reconocida en el
momento es ChatGPT, este es un procesador de lenguaje creado por Open IA, una compañía
fundada entre otros por Elon Musk. Esta IA ha ocasionado controversia en la comunidad
científica ya que se han evidenciado falencias en su sistema y usos inadecuados por parte de los
expresa que se sintió defraudado al probar éste para un trabajo, él piensa que sería difícil para el
chatbot alcanzar el nivel de especificidad que necesita; con este caso se evidencia la limitación que
posee esta herramienta, y a varios usuarios de la academia les pueden ocurrir situaciones similares
en las que puedan denotar más fallos. En la revista Nature, Parthasaranthy, especialista en la
gobernanza de tecnologías emergentes, habla de cómo los LLM podrían ayudar u obstaculizar la
Es importante mencionar que las personas con la capacidad de identificar un error en los
datos proporcionados por este programa son los y las profesionales, que poseen mucho
conocimiento, por esto, se podría afirmar que la persona que quiera hacer uso de este programa
para un fin de aprendizaje puede caer en la desinformación ya que es más vulnerable por no hacer
Con la creación del internet y redes sociales, experimentamos cambios en varios ámbitos,
desde cómo nos relacionamos con las personas hasta nuestras formas de aprendizaje, pero esto
desató ciertas problemáticas, estas se relacionan con las consecuencias que ha traído ChatGPT, y
los datos falsos proporcionados, incluye información que tiene cierta carga social e histórica
importante dónde se puede ver involucrada la parcialidad y subjetividad de las personas que
podemos profundizar en los mecanismos para decidir cuál información eliminan y cuál no;
alrededor del 2018, en las redes sociales, se evidencia que las personas empiezan a condenar más
que antes contenido inadecuado, las compañías encuentran una solución por medio de una IA que
se entrena para identificar y eliminar comentarios, videos y fotos inapropiadas, pero surgió otro
esto surge un nuevo cargo conocido como “moderadores de contenido”, la labor de estas personas
entonces, ¿Bajo qué parámetros se les dice a estos trabajadores que eliminen o no información?
Además, la confianza que genera y la convicción con la que redacta la IA se presta para que se
pueda manejar la opinión pública o perpetuar pensamientos con un sesgo histórico, cayendo en
discursos discriminativos, por ejemplo, el caso de Galactic, un LLM creado por Meta, fue
entrenado para crear resúmenes científicos y tuvo que cerrar ya que los usuarios comenzaron a
usarla para promover discursos racistas. Podemos cuestionar las intenciones que puede tener Open
AI como empresa privada porque su trabajo se puede ver manipulado por los intereses personales.
Para concluir, se puede afirmar que las falencias de ChatGPT y sus usos inadecuados traen
consecuencias preocupantes tanto para las ciencias exactas como para las ciencias sociales, lo cual
información que nos proporciona el internet, pero pienso que colectivamente se debería fomentar
contenido-the-cleaners/
Qué es ChatGPT y para qué sirve. (2023, enero 23). National Geographic.
https://www.nationalgeographicla.com/ciencia/2023/01/que-es-chatgpt-y-para-que-sirve
Stokel-Walker, C., & Van Noorden, R. (2023). What ChatGPT and generative AI mean for
Van Noorden, R. (2022). How language-generation AIs could transform science. Nature,