Academia.eduAcademia.edu

Inteligencia Artificial, periodismo y democracia

2023, Doxa

Reseñas bibliográficas Tamara Vázquez Barrio e Idoia Salazar García (Eds.) Tirant lo Blanch Valencia, 2023 327 pp. ISBN: 978-84-1183-095-9 Quiere la casualidad que al escribir estas líneas se esté anunciando el acuerdo por el cual la Unión Europea se dotará de la primera Ley sobre Inteligencia Artificial del mundo. Sucede también a apenas unas semanas del cuarto aniversario del nacimiento de la primera Secretaría de Estado española específica en la materia: la de Digitalización e Inteligencia Artificial, encargada de encabezar la negociación del citado texto normativo. Pero, a medida que el desarrollo de la IA abandonaba las nieblas del futuro para pasar a los focos del presente, otra cuestión toma cuerpo: visto su rápido desarrollo y sus sorprendentes logros, ¿hasta dónde puede llegar a corto plazo y qué consecuencias puede traer? De ahí la radical relevancia del libro coordinado por las profesoras Tamara Vázquez-Barrio e Idoia Salazar, que comprende dieciséis capítulos en tres partes diferenciadas. Ese éxito no esconde que el nacimiento de un órgano de este calibre sonaba pretencioso para muchos en su día, cuando la IA parecía más una cuestión de ciencia ficción que un asunto de impacto real en la vida de la ciudadanía. La primera, que abarca los seis primeros textos, aborda de forma coral la situación de la IA en lo referente a la comunicación. Tres de ellos se centran, con distintas aproximaciones, en las oportunidades y retos de la tecnología. Los otros abordan experiencias concretas de sinergia entre IA y periodismo, primero con la tecnología como herramienta para luchar contra la desinformación (capítulo 4), después con la hemerografía como herramienta de entrenamiento de modelos de aprendizaje automática (capítulo 5) y por último con una experiencia con la IA generativa como co-creadora de contenido radiofónico (capítulo 6). No puede haber, por tanto, un momento más conveniente para publicar una obra como la que nos ocupa. Porque, y aunque es cierto que la IA lleva décadas en la cultura popular y los laboratorios de investigación de medio mundo, no ha sido hasta este lustro cuando ha saltado a la realidad ciudadana. Gran parte de ese mérito se debe a la aparición de aplicaciones accesibles para cualquier usuario con las que han podido ver el potencial de este desarrollo para cuestiones útiles aunque, en apariencia, inocuas como responder preguntas, hacer ilustraciones, traducir textos o replicar voces. enero-junio de 2024 Coinciden varios de los textos en señalar el incentivo instrumental de la IA para el periodismo. No en vano, esta tecnología ha demostrado su utilidad para responder a “la permanente actualización de la información y para la reducción del tiempo doxa.comunicación | nº 38 | ISSN: 1696-019X / e-ISSN: 2386-3978 Inteligencia Artificial, periodismo y democracia Reseñas bibliográficas ISSN: 1696-019X / e-ISSN: 2386-3978 de elaboración de las noticias” (p. 27), además de a “la necesidad de reducir los costes y aumentar la cantidad de noticias, así como atraer a la audiencia” y “liberar al periodista del trabajo rutinario” (p. 62). La contrapartida es similar a la que trajo en su día el SEO: “el uso de algoritmos con fines periodísticos suscita que ingenieros y programadores dispongan de mayor influencia y participación en cómo las noticias son producidas y difundidas” (p. 70). La IA, pues, sirve para hacer más, mejor y más rápido, algo que se aplica a tres planos distintos: la recogida de la información (input), su elaboración (throughput) y su difusión (output) (p. 72). Cabría añadir también una cuarta dimensión, la del consumo de la información, ya que también facilita su personalización según el gusto y necesidades de la audiencia, algo que conlleva otros riesgos adheridos. Hasta ahí llegaría la lectura positiva. Pero, como recoge la obra, son “más habituales los análisis sobre IA desde la perspectiva de los riesgos que de las oportunidades”, a pesar de que recalca la importancia de tener en cuenta “que la IA no es buena, ni mala en sí misma”, sino “una herramienta ambivalente, como lo son todas” (p. 22). Existen, es cierto, riesgos de todo tipo. Algunos tan obvios como que este tipo de desarrollos sólo está al alcance de algunos medios (p. 74), y que encajan sólo en algunas temáticas “con mayor peso narrativo en datos cuantitativos”, mientras que, “por el contrario, es en el ámbito de la interpretación donde surgen los mayores conflictos” (p. 75). Eso se debe a que algunas carencias de la IA a la hora de crear contenidos periodísticos sean la falta de contraste, la ausencia de interpretación, la inexistencia de humanidad y sensibilidad o la incorrecta redacción (...) e interés humano de los temas” (p. 87). El ejemplo de su aplicación para la elaboración de guiones radiofónicos (capítulo sexto), con posterior filtro humano de verificación, es claro en ese sentido: “Esta tecnología funciona, | nº 38 | doxa.comunicación sobre todo, ante informaciones sencillas que requieren de un sistema de composición repetitivo basado en datos” (p. 125). Pero el problema más común al hablar de IA tiene que ver con los sesgos que esta pueda desarrollar, ya sea por deficiencias en su programación o por la calidad de los datos con los que se entrena. El contenido de medios, en cuanto supone una narración objetiva y diacrónica de la realidad, supone una fuente crucial, pero no está tampoco exenta de riesgo. No se trata siquiera del sesgo editorial, sino de la posible perpetuación de “cosmovisiones anacrónicas” que pueden contribuir a perpetuar “patrones sociológicos o antropológicos que quizás han sido superados y que no representan el presente” (pp. 106-107). En ese sentido, y para prevenir desviaciones ya detectadas en experimentos -IAs que acabaron siendo ofensivas- existe un debate sobre el ‘ajuste’ humano necesario. Así, “los ingenieros especializados en ciencia de datos suelen preferir no manipular las bases de datos para aplicar una perspectiva precisa y fidedigna del corpus empleado. Por contra, los lingüistas computacionales suelen debatir esa opción y prefieren perfilar los datos modificándolos para hacerlos más ajustados al objetivo que se persigue y no replicar sesgos indeseables e inherentes al ser humano” (p. 108) El segundo bloque del libro, de tres capítulos, aborda la situación normativa previa a la citada IA Act consensuada por la UE. En él se analiza la importancia estratégica de esta tecnología en la competencia global entre bloques, (capítulo 7), la regulación específica de los algoritmos de recomendación, quizá la parte más visible hoy en día del uso de la automatización (capítulo 8), y el dilema de la autorregulación de las plataformas tecnológicas (capítulo 9). Aquí se evidencia que también existe un claro interés estratégico en el desarrollo de la IA. El potencial de esta tecnología es tal que es ya un recurso sensible a nivel estratégico: La enero-junio de 2024 tecnología ha entrado como eje de competición geopolítica y de llamada de atención para la UE” en esa contienda entre bloques. La cuestión, recogida en otro capítulo, es “en qué medida el enfoque actual es adecuado (...) no sólo en el ámbito económico, sino también en el de la influencia en los otros dos de los tres elementos que constituyen el poder tecnológico: la seguridad y los derechos” (p. 146), auténticos contrapuntos éticos al desarrollo. A falta de ver su detalle y encaje, y los siguientes pasos de China y EE. UU., la obra plantea también la alternativa de la autorregulación (capítulo noveno). Sería una posible respuesta a otra de las grandes dudas sobre el uso de esta tecnología, como es la responsabilidad: según la legislación, un periodista y su editor son responsables del contenido publicado, pero… ¿a quién se puede pedir rendir cuentas sobre algo generado por máquinas? Pero, como también se recoge en la obra, la ética no es en sí algo universal sino que atiende a matices culturales y coyunturales (p.161), de ahí que las respuestas de cada bloque varíen. Por ejemplo, sólo en China “es posible responder asertivamente cómo se regulan los algoritmos de recomendación, puesto que los instrumentos analizados ya están en vigor” (p. 156), mientras que sólo en EE. UU. existe un proyecto de ley específico que regula los llamados ‘filtros burbuja’ (p. 159), derivados de la recomendación y personalización. No son cuestiones menores, ya que la percepción del mundo de gran parte de la ciudadanía depende de qué realidad se les muestra a través de dichos filtros. En ese sentido, las empresas tecnológicas y de redes sociales siempre han evitado responsabilizarse sobre el contenido que recogen, habiendo estado marcadas por “la viralización de información falsa, la propagación de las narrativas de fraude electoral, la difusión de mensajes de odio o la polarización de la sociedad”, en gran parte por “la opacidad de los sistemas algorítmicos que establecen sus normas de funcionamiento” (p. 172). La importancia de la recién acordada ley europea se evidencia en que haya sido durante varios días la noticia de apertura en los grandes medios, también internacionales: habla The New York Times en su titular de un “punto de referencia”1 con el que The Washington Post, directamente, reconoce que la UE se coloca “por delante de EE. UU.”2. Aunque aún es pronto para calibrar el alcance del acuerdo, más allá de lo histórico de su mera existencia, hay una dicotomía que marcará su fortuna: debe ser una regulación garantista con los derechos y la ética, sin ser por ello restrictiva con el desarrollo de la propia tecnología. 1 2 El tercer bloque arranca precisamente abordando esta problemática, y es que este tipo de empresas “no se responsabilizan del contenido que lanzan” (p. 187). Así, “en el mercado norteamericano las compañías tecnológicas se definen como ‘no mediáticas’ para evitar cualquier responsabilidad sobre el contenido distribuido, el control o la difusión de discursos de odio” (p. 189). A lo largo de los seis capítulos que abarcan este bloque, además de esa interesante disyuntiva, se abordan también los efectos de la IA en distintos ámbitos vinculados también con la salud democrática. Así, se tratan extremos como el impacto tecnológico en la diplomacia (capítulo 10) y en la guerra (capítulo 11), pero también cuestiones como la libertad de expresión en una realidad interconectada (capítulo 12) o la polarización (capítulo 13). Por último, aun dentro de este bloque, se abordan manifestaciones concretas de la IA en el mercado publicitario E.U. Agrees on AI Act, Landmark Regulation for Artificial Intelligence, disponible en: https://nyti.ms/3Tm1Mhq E.U. reaches deal on landmark AI bill, racing ahead of U.S., disponible en: https://wapo.st/3uTbD41 enero-junio de 2024 doxa.comunicación | nº 38 | ISSN: 1696-019X / e-ISSN: 2386-3978 Reseñas bibliográficas Reseñas bibliográficas de los medios (capítulo 14) o como activo para facilitar la accesibilidad del contenido para discapacitados (capítulo 15). ISSN: 1696-019X / e-ISSN: 2386-3978 Uno de esos efectos es, precisamente, el daño colateral de una enorme batalla por la atención en un mercado comunicativo saturado y extraestimulante. “De luchar –en palabras de Churchill– en los mares y océanos, en el aire, en las playas, en los campos y en las calles, hemos pasado a luchar también en las reputaciones, en los mercados de futuros y en las percepciones mismas de la gente (...) es una guerra que, en muy buena parte, se libra en las mentes y en los corazones, en las emociones y las percepciones de todo el mundo” (p. 223). Y en esa contienda por llegar a nosotros cualquiera puede conocernos a través de la gestión masiva de nuestros datos, poniendo en el centro la privacidad como clave de bóveda tecnológica. Así, “la recopilación exhaustiva de datos personales y su procesamiento en perfiles empuja las fronteras del concepto de privacidad hasta límites inexplorados” (p. 268). Con todo, la IA ha dejado de ser sólo un argumento de ficciones distópicas para convertirse en una realidad casi tangible. Los bloques geopolíticos se mueven para controlarla y las | nº 38 | doxa.comunicación empresas para sacarle provecho. La ciudadanía, a la espera de que las regulaciones, aunque embrionarias, devengan en mecanismos efectivos de protección, sólo tienen como alternativa: una alfabetización que permita entender no sólo “cómo se obtienen los datos”, sino también “cómo se procesan después para generar valor y qué consecuencias sociales tiene la aplicación de ese valor generado” (p. 271). Por eso, y a modo de conclusión, el último texto del libro pone de relevancia la todavía exigua investigación académica acerca de esa alfabetización algorítmica (capítulo 16). “Los algoritmos dan forma a cómo entendemos el mundo y a la vez crean el mundo (...) con profundas consecuencias, que serán socialmente positivas o negativas en función de cómo estén programados, de quién los programe, con qué fin y de cómo interactúan los usuarios con ellos” (p. 302). Quizá ni Umberto Eco viera venir que hasta los apocalípticos iban a terminar integrados en esta última revolución tecnológica. Borja Ventura Salom Universidad CEU San Pablo enero-junio de 2024