Straub-AI-ConceptosIdeas (Esp)

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 35

Machine Translated by Google

Inteligencia artificial en el gobierno: conceptos, estándares


y un marco unificado

Vincent J. Straub1*, Deborah Morgan1,2, Jonathan Bright1* y Helen Margetts1,3

1
Instituto Alan Turing
2
AI CDT responsable, responsable y transparente,
Departamento de Ciencias de la Computación, Universidad de Bath
3
Instituto de Internet de Oxford, Universidad de Oxford, Oxford, Reino Unido

*
Autores para correspondencia: [email protected], [email protected]

Abstracto. Los avances recientes en inteligencia artificial (IA) y aprendizaje automático (ML)
prometen mejorar el gobierno. Dadas las capacidades avanzadas de las aplicaciones de IA, es
fundamental que estas se integren mediante procedimientos operativos estándar, criterios
epistémicos claros y se comporten de acuerdo con las expectativas normativas de la sociedad.
Posteriormente, los académicos en múltiples dominios comenzaron a conceptualizar las
diferentes formas que pueden tomar los sistemas de IA, destacando tanto sus posibles
beneficios como sus dificultades. Sin embargo, la literatura sigue fragmentada, con investigadores
en disciplinas de ciencias sociales como administración pública y ciencias políticas, y los campos
de rápido movimiento de IA, ML y robótica, todos desarrollando conceptos en relativo
aislamiento. Aunque hay llamados a formalizar el estudio emergente de la IA en el gobierno,
falta una cuenta equilibrada que capture la amplitud completa de las perspectivas teóricas
necesarias para comprender las consecuencias de incorporar la IA en un contexto del sector
público. Aquí, unificamos los esfuerzos de las disciplinas sociales y técnicas mediante el uso de
mapas conceptuales para identificar 107 términos diferentes utilizados en el estudio
multidisciplinario de la IA. Los clasificamos inductivamente en tres grupos semánticos distintos,
que denominamos dominios (a) operativos, (b) epistémicos y (c) normativos. Luego, nos
basamos en los resultados de este ejercicio de mapeo al proponer tres nuevos conceptos
multifacéticos para estudiar los sistemas gubernamentales basados en IA (AI­GOV) de una
manera integrada y con visión de futuro, que llamamos (1) aptitud operativa, ( 2 ) completitud
epistémica, y (3) prominencia normativa. Finalmente, ponemos estos conceptos a trabajar
usándolos como dimensiones en una tipología conceptual de AI­GOV y conectando cada uno
con estándares de medición técnica de IA emergentes para fomentar la puesta en
funcionamiento, fomentar el diálogo interdisciplinario y estimular el debate entre aquellos que buscan remodelar la administración pú

Palabras clave: Gobierno, administración pública, inteligencia artificial, aprendizaje automático, sistema
automatizado, algoritmos, revisión, tipología, clasificación, ontología, tipología

1. Introducción

Avances recientes en inteligencia artificial (IA), definidos por el Grupo de expertos de alto nivel de la UE como
“sistemas que muestran un comportamiento inteligente mediante el análisis de su entorno y la adopción de medidas:

1
Machine Translated by Google

con cierto grado de autonomía—para lograr metas específicas” (Ala­Pietilä & Smuha, 2021), prometen mejorar el
gobierno (Margetts, 2022). Tras una década de progreso acelerado, predominantemente en el paradigma del
aprendizaje automático (ML) (Domingos, 2012), los sistemas de IA basados en datos contemporáneos representan
un cambio radical con respecto a la era de las tecnologías de la información y la comunicación (TIC) más simples
(Margetts, 1999). . Gracias a la disponibilidad de los recursos informáticos, junto con el aumento del tamaño de los
conjuntos de datos y los avances en las técnicas de modelado, pueden detectar patrones imperceptibles para los
humanos y ejecutar una gama cada vez mayor de tareas relacionadas con el gobierno (Brynjolfsson & Mitchell, 2017).

Las tecnologías de IA ya han sido adoptadas por varias agencias públicas, organizaciones que implementan
políticas gubernamentales y pueden contribuir a su desarrollo, con la esperanza de hacer que los servicios
gubernamentales sean más efectivos y receptivos. En el contexto de los Estados Unidos, un estudio integral encontró
que el 45 por ciento de las agencias federales habían experimentado con IA para 2020 (Engstrom et al., 2020). Las
tareas clave en las que los gobiernos han podido probar la IA para mejorar la prestación de servicios incluyen
detección, predicción y simulación (Margetts & Dorobantu, 2019).
Las aplicaciones notables van desde el reconocimiento facial en la vigilancia (Zilka et al., 2022) y la predicción de
reincidencia en la justicia penal (Kleinberg et al., 2018) hasta el uso de agentes virtuales en la automatización de
procesos (Ojo et al., 2019) y pronóstico necesidades futuras en servicios sociales (Bright et al., 2019).
Sin embargo, a medida que más agencias públicas comienzan a adoptar aplicaciones de IA, es fundamental que
estas se integren utilizando procedimientos operativos estándar, criterios epistémicos claros y estén alineados con las
preocupaciones normativas de la sociedad. Como señalan Köbis et al. (2022), esto se debe a que los sistemas de IA,
gracias a sus capacidades de aprendizaje, pueden actuar de forma autónoma y, a diferencia de las generaciones
anteriores de TIC, ejecutar una amplia gama de tareas previamente reservadas a los actores humanos (Rahwan et al., 2019).
La adopción de estas herramientas avanzadas está, a su vez, plagada de “tensiones de IA” (Madan & Ashok, 2022):
desafíos operativos y éticos relacionados con la equidad, la transparencia y la privacidad, entre otros.
De hecho, un creciente cuerpo de evidencia está revelando los peligros y dificultades de adoptar sistemas de IA,
especialmente en términos de su diseño algorítmico complejo (Adadi & Berrada, 2018) y datos de entrada sesgados
(Buolamwini & Gebru, 2018), junto con su rendimiento variable ( Dressel & Farid, 2018), fallas de funcionalidad (Raji
et al., 2022) e implementación desordenada (Köbis et al., 2022). El trabajo de estudio de casos ha arrojado más luz
sobre el tema, al revelar que la introducción de la IA puede generar cambios profundos y, en ocasiones, disruptivos
tanto en la estructura organizativa como en la agencia burocrática (Giest & Klievink, 2022), tanto a nivel nacional
como subnacional ( Vogl et al., 2020).
En respuesta a los daños sustanciales causados por las aplicaciones de IA existentes en las decisiones de
alto riesgo (McGregor, 2020; Rudin, 2019), ha habido llamados urgentes para cada etapa del ciclo de vida y la cadena
de valor de la IA, desde la educación y la investigación hasta el diseño y la adopción. — no existir en aislamiento
tecnológico sin una mayor contribución de los estudiosos del comportamiento humano, la ética, la cultura y el derecho
(Grosz et al., 2019; Veale, 2020; Widder & Nafus, 2022). Como resultado, muchas instituciones, investigadores y
líderes intelectuales han propuesto recientemente la noción de que los sistemas de IA deben estar 'centrados en el
ser humano'. Sin embargo, además de resaltar la necesidad de que los sistemas de IA sean confiables, seguros y
dignos de confianza para los humanos (Shneiderman, 2020), todavía no existe una definición consensuada de lo que
significa este término. En conjunto, el estudio emergente de la IA en el gobierno se caracteriza, por lo tanto, por un
gran interés por parte de una amplia variedad de disciplinas académicas (como explicaremos más adelante). Sin
embargo, esta variedad ha ido de la mano con cierta fragmentación en la teoría y la terminología, con investigadores
en administración pública, ciencias políticas, estudios de políticas y los campos de rápido movimiento de IA, ML y
robótica que desarrollan conceptos en relativo aislamiento. Esto está respaldado por el hecho de que la investigación
técnica generalmente no tiene en cuenta los puntos de vista no técnicos o el contexto de implementación más amplio:
una encuesta reciente de investigación de ML encontró que solo el 15%

2
Machine Translated by Google

los artículos justifican cómo su proyecto se conecta con una necesidad social y solo el 1% discute el potencial negativo
(Birhane et al., 2022). Además, debido a que los diferentes aspectos de la IA en el gobierno y la cooperación hombre­
máquina en general se han estudiado a menudo en diferentes disciplinas, muchos de los conceptos que los
académicos usan se superponen en significado o se usan indiscriminadamente, como (para tomar solo algunos
ejemplos) los conceptos de 'comprensibilidad', 'inteligibilidad' y 'comprensibilidad' (Markus et al., 2021). Al mismo
tiempo, el creciente número de tipologías y taxonomías que se están desarrollando para comprender el uso de la IA
en el gobierno a menudo no reconocen y mucho menos se complementan entre sí, lo que perpetúa el "estado
fragmentado del conocimiento" (Wirtz et al., 2019) . Si bien los investigadores han destacado repetidamente este
problema (Sousa et al., 2019; Zuiderwijk et al., 2021), una descripción equilibrada de la IA para el gobierno centrada
en el ser humano (AI­GOV), que ofrece un lenguaje conceptual compartido y captura la totalidad Se necesita una
amplitud de perspectivas disciplinarias para comprender las consecuencias de incorporar inteligencia artificial en el
gobierno, es una falta crítica.

En este artículo, unificamos los esfuerzos analíticos entre disciplinas sociales y técnicas mediante el uso de
mapas conceptuales para identificar más de 100 términos diferentes utilizados en el estudio multidisciplinario de la IA,
antes de agruparlos inductivamente en tres dominios semánticos, que denominamos: (1) operacional , (2) dominios
epistémicos y (3) normativos . Luego, nos basamos en los resultados de este ejercicio de mapeo al abstraer las
características esenciales de los términos en cada uno de estos dominios respectivos para proponer tres nuevos
conceptos multifacéticos para comprender y analizar AI­GOV de una manera más unificada: (1) aptitud operativa , (2)
completitud epistémica, y (3) prominencia normativa. Finalmente, utilizamos estos conceptos como dimensiones para
construir una tipología conceptual de diferentes tipos de AI­GOV y vincular cada uno con los estándares técnicos
emergentes de medición de IA, métricas recomendadas y métodos para la medición y evaluación de tecnologías de
IA (AIME Planning Team, 2021; British Standards Institution, 2022), en un esfuerzo por alentar la operacionalización
de conceptos, fomentar el diálogo interdisciplinario y estimular el debate entre aquellos que buscan remodelar la
administración pública con IA. Para motivar estas contribuciones, primero brindamos una descripción general de las
diferentes formas en que se ha abordado hasta ahora el estudio de la IA en el gobierno. Luego explicamos nuestro
método para mapear el estudio de la IA en tres dominios, antes de discutir cada dominio y los conceptos utilizados
para estudiar los atributos de los sistemas de IA utilizados en el gobierno. En la Sección 4, describimos tres nuevos
conceptos multifacéticos y presentamos una tipología de AI­GOV, trazando vínculos entre cada dimensión y los
estándares de medición de IA existentes. Concluimos discutiendo las implicaciones de nuestra tipología para el campo
de la IA en el gobierno y destacamos futuras vías de investigación que anticipamos serán más apremiantes en el
futuro.

2 Definiciones y trabajo relacionado sobre el estudio de la IA en el gobierno

Para comprender la necesidad de una descripción más exhaustiva de AI­GOV, debemos analizar más de cerca el
término 'AI' y considerar qué términos debemos usar para enmarcar su uso en un contexto del sector público.
Para hacerlo, primero definimos los sistemas de IA, antes de revisar cómo se ha definido hasta ahora la IA en el
gobierno en trabajos relacionados, centrándonos en qué conceptos han aparecido en intentos anteriores de ofrecer
una perspectiva unificada.
Si bien una máquina inteligente ('general') sigue siendo un concepto puramente hipotético y una definición
universalmente aceptada de IA sigue siendo difícil de alcanzar (Wang, 2019), los sistemas de IA actuales tienden a
centrarse en el software (por ejemplo, instrumentos de predicción de reincidencia) o estar vinculados a ciertos
dispositivos de hardware (p. ej., drones autónomos) (Ala­Pietilä et al., 2019). En cuanto a sus capacidades 'inteligentes',
las aplicaciones de última generación que usan modelos ML para lograr un rendimiento similar al humano en áreas específicas

3
Machine Translated by Google

Las tareas, incluidas las redes neuronales profundas (DNN) (Bengio et al., 2021), todavía se basan fundamentalmente en la
correlación y la asociación. Sin embargo, además de ayudar a reavivar el campo de la IA, están alentando a los investigadores
a construir puentes entre diferentes campos de investigación, como la visión por computadora, la comprensión del lenguaje
natural y el razonamiento del conocimiento. Esta integración emergente de ML intensivo en datos con enfoques simbólicos
más tradicionales junto con comentarios humanos (Salmen, 2022) está brindando un mayor apoyo a la promesa de la IA como
una tecnología de uso general (Brynjolfsson et al., 2018) y horizontal (Leslie, 2019) , uno que tendrá un impacto prolongado al
identificar soluciones en un sector que son generalizables a problemas en otros sectores.

Dado que buscamos una cuenta unificada de la IA en el gobierno, seguimos el camino definido por los estudios
sobre el potencial de la IA (Gil & Selman, 2019). A su vez, usamos el término 'sistema de IA' de manera amplia para referirnos
a un sistema basado en máquinas y basado en datos que puede completar, con cierto grado de autonomía y capacidad de
aprendizaje, una tarea cognitiva específica (o un conjunto de tareas), usando ML, computación de agentes, o técnicas
relacionadas. Como era de esperar, también se utilizan muchos otros términos en las discusiones sobre la IA en el gobierno;
El 'sistema algorítmico' y el 'sistema de decisión automatizado' ocupan un lugar destacado en los artículos legales y de política
(Richardson, 2022), por ejemplo. Adoptamos el 'sistema de IA', ya que podría decirse que distingue mejor a los sistemas
contemporáneos de las generaciones anteriores de tecnología informática en términos de su naturaleza única, basada en
datos y capacidades analíticas avanzadas (Pencheva et al., 2020). Sin embargo, la adopción de esta definición nos permite
realizar un análisis conceptual que no se limita solo a las aplicaciones basadas en ML existentes, aunque gran parte de la
erudición que cubrimos se centra en esto. Además, empleamos 'AI­GOV' para enfatizar que todos los sistemas gubernamentales
de IA operan dentro de contextos sociales e institucionales. Esto alinea nuestro argumento con las explicaciones sociotécnicas
de los sistemas tecnológicos, no como componentes computacionales aislados, sino como entidades integradas en estructuras
más grandes que abarcan infraestructuras, operadores humanos y normas (Selbst et al., 2019). Dicho de otra manera, el
procesamiento de la información, desde la recopilación de datos de entrada hasta la predicción final o el resultado analítico,
implica varios pasos interconectados ejecutados tanto por humanos como por máquinas (Chen y Golan, 2016). Cuando se ve
de esta manera, como un tipo de 'red hombre­máquina' (Tsvetkova et al., 2017), AI­GOV puede considerarse una función del
ajuste entre el sistema (incluidos los agentes humanos y artificiales) y su entorno. (tarea y contexto institucional) (Rahwan et
al., 2019). En particular, esta concepción concuerda con el estudio original del comportamiento administrativo establecido por
Simon (1947, 1955).

Yendo más allá del problema de definir la IA, un tema más amplio que salió a la luz en la literatura anterior es la
cuestión de decidir qué conceptos y términos son relevantes y útiles para caracterizar los sistemas de IA de manera más
amplia. Muchas piezas conceptuales en la administración pública ya han llamado la atención sobre la necesidad de considerar
la interacción entre AI­GOV y las características de su entorno, como el entorno organizacional y la complejidad de la tarea
(Bullock et al., 2020; Bullock, 2019; van Noordt & Misuraca, 2022). Más fundamentalmente, varias piezas especulativas han
argumentado durante mucho tiempo que la probabilidad de que las tecnologías de IA desplacen o aumenten las habilidades
de los actores humanos depende de manera crítica de cómo los diseñemos y concibamos (Barth y Arnold 1999; Brynjolfsson,
2022). Sin embargo, la erudición teórica informada por la última ola de IA en el gobierno aún es incipiente, y los académicos
están de acuerdo en que la teoría aún debe agregar valor real al trabajo de los profesionales (Giest & Klievink, 2022; Pencheva
et al., 2020). Una plétora de términos conceptuales y la falta de integración, especialmente entre las ciencias sociales y los
campos técnicos de la IA (Sloane & Moss, 2019), significa que los gobiernos luchan por saber qué ideas, principios y valores
priorizar en el desarrollo de la IA.

Los intentos anteriores de conceptualizar AI­GOV han tendido a adoptar por defecto un pensamiento unidimensional.
Es decir, se han basado en gran medida en un solo punto de vista o concepto, entendido tanto como un concepto abstracto

4
Machine Translated by Google

idea que ofrece un punto de vista para comprender algún aspecto de la experiencia (p. ej., sesgo) y, de manera
relacionada, una imagen mental que se puede poner en práctica (p. ej., sesgo de medición), para discutir la IA.
Quizás lo más destacado, especialmente en los estudios que se basan en literatura anterior sobre gran escala,
los llamados "big data" (Mergel et al., 2016) y el surgimiento de la ciencia de datos (Provost & Fawcett, 2013), es
simplemente el enfoque en las capacidades analíticas avanzadas de las tecnologías básicas de IA, incluido ML,
procesamiento de lenguaje natural y visión por computadora, entre otros (Norvig & Russell, 2020).
Los términos que, en consecuencia, aparecen en gran medida en tales debates sobre el potencial de la IA en el
gobierno son "automatización", "predicción", "precisión" o "eficiencia". Otros ejemplos destacados incluyen
'discreción', en un contexto de administración pública (Bullock, 2019), o 'explicabilidad', en investigaciones más
recientes de ML (de Bruijn et al., 2022). Varios de estos estudios tienen un alcance avanzado, uniendo disciplinas
o descomponiendo cada concepto en subcomponentes. Por ejemplo, al considerar el "riesgo" de las herramientas
predictivas del sector público, Oswald (2018) tiene en cuenta tanto las perspectivas legales como los aspectos
prácticos del contexto sociotécnico. Sin embargo, muchos se ajustan a un enfoque personificado por Mehr (2017):
usan el término 'IA' estrictamente en un sentido computacional, destacando la capacidad de toma de decisiones
basada en datos de los sistemas de IA y distinguiendo diferentes sistemas predominantemente en términos del
dominio. o “problema de gobierno” (ibid) abordan, por ejemplo, “asignación de recursos” (Engstrom et al., 2020;
Misuraca et al., 2020; Samoili et al., 2021). Sin embargo, esta línea de razonamiento deja de lado muchos factores
éticos, legales e institucionales importantes que caracterizan la adopción real de diferentes aplicaciones de IA en
el gobierno.
Los análisis y marcos más estructurados y con información teórica a menudo aún recurren a categorías
simplificadas para distinguir AI­GOV, como 'apto para la automatización' o 'apoyo [de decisión]' (Katzenbach &
Ulbricht, 2019). Sætra (2021), por ejemplo, combina los conceptos 'human­in the loop' (Green & Chen, 2019),
'autonomía', 'transparencia' y 'gobernanza' para diseñar una tipología de cinco tipos de 'sistemas políticos de IA'.
'. Sin embargo, no mencionan el "sesgo" o la "justicia", conceptos que posiblemente se han vuelto igualmente
importantes en las discusiones sobre la IA del gobierno (Mehrabi et al., 2022). Más allá de la ciencia política y la
administración pública, se pueden formular críticas similares a los intentos recientes de teorizar sobre los sistemas
de IA desde el exterior mediante la aplicación de conceptos de las ciencias sociales a los marcos de las ciencias
informáticas (Ballester, 2021). Dellermann et al. (2021), por ejemplo, desarrollan una taxonomía de los sistemas
humanos de IA para investigar la noción de 'inteligencia híbrida'. Sin embargo, su marco no diferencia entre los
sistemas basados en la 'confiabilidad' y la 'seguridad', dos de los conceptos más destacados que surgieron en los
debates políticos recientes sobre IA (Glikson & Woolley, 2020), y que posiblemente deban ser parte de cualquier
intento de conceptualizar el futuro de la colaboración humano­IA (Brundage et al., 2020). Por el contrario, una de
las taxonomías más exhaustivas de IA, el Marco de gestión de riesgos de IA desarrollado por el Instituto Nacional
de Estándares y Tecnología (NIST, 2022), incorpora explícitamente consideraciones de confiabilidad.

Sobre la base del trabajo anterior de la OCDE (2022), el marco del NIST considera los atributos de diseño técnico,
los atributos sociotécnicos y los principios rectores que contribuyen a la confiabilidad en su clasificación de riesgos
de IA.
Si bien el estudio de la IA en el gobierno está en constante evolución, las revisiones anteriores han
encontrado que el campo en su conjunto permanece fragmentado, ya que existe una clara falta de cruce entre las
diferentes literaturas (Wirtz et al., 2019). En los intentos conceptuales existentes de ofrecer una descripción formal
de los sistemas hombre­máquina y la IA en el gobierno revisados anteriormente, encontramos un patrón similar.
Es decir, la mayoría de los estudios exhiben una deficiencia integradora: ponen en primer plano puntos de vista y
conceptos específicos a expensas de la amplitud y la unidad. Gran parte del trabajo en las ciencias sociales y
políticas enfatiza los desafíos éticos y legales que están en juego en la adopción de la IA; mientras que la
investigación en informática tiende a resaltar los aspectos computacionales y operativos que deben ser considerados. como señaló

5
Machine Translated by Google

Burr y Leslie (2022) al analizar los estudios sobre ética y gobernanza de la IA, abordar esta deficiencia y unir el campo
requiere un esfuerzo interdisciplinario sostenido y una consideración más rica de la naturaleza multifacética de AI­GOV
y su adopción.

3 Mapeo de los atributos clave de los sistemas de IA

Para capturar la amplitud completa de las perspectivas analíticas necesarias para comprender AI­GOV, avanzamos en
un enfoque ascendente y primero mapeamos inductivamente el estudio multidisciplinario de AI. Específicamente,
identificamos 107 conceptos que han aparecido con frecuencia en la literatura técnica, científica social y humanística
relacionada con el estudio de los sistemas de IA y sus atributos, y los agrupamos en tres dominios, que se detallan a
continuación. Al aislar estos conceptos, no estamos especificando qué conceptos deben estudiarse, sino que nuestro
propósito es detectar y, en última instancia, integrar las tendencias teóricas dominantes en el estudio actual de la IA en
el gobierno. Con esto en mente, luego nos basamos en los hallazgos de este ejercicio de mapeo al abstraer las
características esenciales de los términos en cada uno de los dominios respectivos para proponer tres nuevos conceptos
multifacéticos para estudiar AI­GOV, antes de incorporarlos en una tipología para describir diferentes tipos de AI­GOV
de una manera más unificada.

3.1 Procedimiento de mapeo

Los mapas conceptuales son un método para visualizar aspectos estructurales del conocimiento (Gowin & Novak,
1984; Lanzing, 1998). Seguimos a Friedman y Smiraglia (2013) al emplearlo para ayudar en la comprensión del
conjunto de conceptos relevantes para el estudio de la IA en el gobierno. Debido a que sostenemos que el uso de AI­
GOV debe estudiarse de manera interdisciplinaria, dado que se trata de cuestiones que abarcan tecnología, ética,
derecho y política, cualquier mapeo debe examinar conceptos que se presentan con frecuencia en múltiples disciplinas.
Como método adoptado por científicos sociales con precedentes en ciencias de la información (es decir, grafos de
conocimiento y ontologías), consideramos apropiado el uso de mapas conceptuales para lograr este objetivo.

Seguimos un enfoque de tres pasos para mapear inductivamente conceptos clave utilizados para estudiar AI­GOV.
Primero, recuperamos documentos que han tratado de clasificar diferentes tipos de AI­GOV, o discutieron AI en relación
con el gobierno, tanto desde una perspectiva aplicada, orientada al estudio de casos como a través de una lente teórica,
en forma de análisis conceptuales, tipologías, y taxonomías (ver sección A.1 en el Apéndice para detalles del
procedimiento de búsqueda bibliográfica). En un segundo paso, clasificamos los artículos indexados para filtrar los
conceptos que aparecen con frecuencia en los estudios. Para ello, nos apoyamos en una revisión integrativa de la
literatura (Torraco, 2016). En concreto, estudiamos artículos que: (i) aparecieran en revistas especializadas de alto
impacto y primer nivel y en revistas interdisciplinares como Science y Nature; (ii) han sido muy citados; (iii) se llevaron
a cabo en conjunto con grandes entidades estatales o gobiernos. Finalmente, identificamos los conceptos empleados
en cada uno de estos artículos a través de una revisión manual, antes de agrupar cada uno de manera inductiva en
uno de los tres temas o dominios identificados durante una exploración preliminar de la literatura para guiar la revisión
integradora. En promedio, identificamos 1 concepto por artículo de investigación, con revisiones sistemáticas y literatura
gris que a menudo cubren varios términos. Un ejemplo reciente notable es proporcionado por Estévez Almenzar et al.
(2022) quienes ofrecen un extenso glosario de términos sobre IA, con un enfoque centrado en el ser humano. Las
etiquetas que damos a los tres dominios que usamos, definidos a continuación, son: el dominio (a) operativo, (b)
epistémico y (c) normativo .

6
Machine Translated by Google

Tabla 1. Conceptos utilizados en el estudio de sistemas basados en IA en el gobierno categorizados por dominio

Dominio Concepto Descripción Términos relacionados

(1) Operativo Exactitud "esta propiedad considera cómo los problemas de medición pueden afectar la forma Exactitud;
en que las muestras reflejan el dominio operativo previsto... [es una] noción de Precisión
comportamiento correcto" (Ashmore et al., 2021)

Adaptabilidad “la facilidad con la que se pueden realizar cambios en el [sistema] desplegado” generalizable
(Ashmore et al. 2021)
Autónomo “[lograr un] objetivo dentro de un alcance definido sin intervenciones humanas mientras autónomo
se adapta a las condiciones operativas y ambientales” (NIST en
Ezenkwu y Starkey, 2019)

Competencia “[el] conocimiento relevante o capacidades internas [que posee un sistema]” Capacidad

(Piedra de fuego 2020)

Discreción “El grado de libertad que un trabajador [profesional] puede ejercer en un Libertad
contexto específico y los factores que dan lugar a esta libertad en ese
contexto” (Evans, 2016)
Eficacia “la medida en que [un sistema] alcanza sus objetivos previstos” funcionalidad;
(Salamón, 2002) Actuación;
Éxito;

Eficiencia “el [sistema] que logra el equilibrio óptimo entre beneficios y costos” (Salamon Velocidad
2002)
Meta “el grado de acuerdo entre los objetivos de la política oficial o formal de los funcionarios preferencias
congruencia políticos y los objetivos operativos de las organizaciones o redes encargadas
de implementar esa política” (Meyers et al., 2001) “la facilidad o dificultad

Manejabilidad involucrada en operar [aplicaciones]. Cuanto más compleja y enrevesada sea la Implementable;
herramienta, cuantos más actores distintos participen, más probable es que sea controlabilidad
difícil de manejar” (Salamon 2002)

Significado “la percepción de los profesionales sobre los beneficios de implementar la [aplicación] Utilidad;
para sus propios clientes” (Tummers & Utilidad de cliente
Bekkers, 2014)

Fiabilidad “exhibiendo el mismo y esperado comportamiento a lo largo del tiempo” (Glikson y repetibilidad;
Woolley 2020) Consistencia;
Certeza;
previsibilidad
Robustez “la capacidad de resistir o sobrevivir a los choques externos, de ser estable a Resiliencia;
pesar de la incertidumbre” (Bankes 2010) Confianza;
Equilibrado;
tolerado

Seguridad “libertad de riesgo inaceptable… el estado de estar protegido de peligros reconocidos Seguridad;
que pueden causar daño” (Manuele, 2010) Integridad

usabilidad “la relativa facilidad con la que un novato maniobra alrededor de [una interactividad
aplicación]” (Baker, 2009) “una

Voluntad de intención de comportamiento positivo [del profesional] hacia la Cumplimiento


implementar implementación de modificaciones en la estructura de una organización, o en los
procesos administrativos y de trabajo” (Metselaar, 1997)

(2) Epistémico Auditabilidad “evaluación de la conformidad [de un sistema de IA] con las Trazabilidad
reglamentaciones, normas y directrices aplicables” (IEEE en Raji et al.,

Complejidad 2020) “compuesta por numerosas identidades (partes) que interactúan, cada una de Especificación;
las cuales se comporta en su contexto local de acuerdo con algunas regla(s), Comprensible
ley(s) o fuerza(s)” (Maguire & McKelvey, 1999)

Integral "[el alcance del] enfoque sistemático para identificar fallas debido a malentendidos conceptuales Cobertura
y fallas" (Ashmore et al. 2021) "asociado con la noción de explicación como

explicabilidad una interfaz entre los humanos y un tomador de decisiones que es, al mismo Modelo mental;
tiempo , tanto un proxy preciso del tomador de decisiones como comprensible Caja negra
para los humanos”
(Guidotti et al. 2018) “la

Interpretabilidad capacidad de explicar o presentar en términos comprensibles para un ser Opacidad;


humano” (Doshi­Velez y Kim 2017) explicabilidad
Continuado

7
Machine Translated by Google

Dominio Concepto Descripción Términos relacionados

Franqueza “accesibilidad del conocimiento, la tecnología y otros recursos; la transparencia Inclusivo;


de la acción; la permeabilidad de las estructuras organizacionales; y la inclusividad de participativo
la participación” (Schlagwein et al., 2017)

reproducibilidad “la capacidad de un equipo de investigación independiente para producir los mismos Replicabilidad
resultados usando el mismo método de IA basado en la documentación realizada
por el equipo de investigación original” (Gundersen & Kjensmo, 2018) “la

Transparencia comprensibilidad de un [sistema o] modelo específico… [es ] puede considerarse a Descomponible;


nivel de todo el modelo, a nivel de componentes individuales (p. ej., parámetros) y a Sencillez;
nivel de un algoritmo de entrenamiento en particular” (Lepri et al., 2018) Visibilidad

Comprensibilidad “la característica de un modelo para hacer que un ser humano comprenda su función... Inteligibilidad
sin necesidad de explicar su estructura interna o los medios algorítmicos por los
cuales el modelo procesa los datos”
(Montavon et al., 2018)

(3) Normativa Accesibilidad “[la medida en que un sistema] permite que las personas con discapacidad Tangibilidad;
interactúen con [él]” (Henry et al., 2014) Disponibilidad;
Utilidad

Responsabilidad “la capacidad de determinar si una decisión se tomó de acuerdo con los estándares Garantía;
procesales y sustantivos y responsabilizar a alguien si no se cumplen esos impugnabilidad;
estándares” (Doshi­Velez et al. 2017) Responsable;
Inclinación “resultados que no se desean” (Hellström et al., 2020) Error; Dañar;
Discriminación

Justicia Igualdad; Equidad;


“la ausencia de cualquier prejuicio o favoritismo hacia un individuo o grupo basado en
Justicia
sus rasgos intrínsecos o adquiridos en el contexto de la toma de decisiones” (Mehrabi
et al., 2022) “[la medida en que un profesional]

Inmediación puede estar obligado a decidir rápido… o no” (Oswald, Marion, 2018)
Restricciones de tiempo;
Temporalidad

No maleficencia "'no hacer daño'... La IA no debe infringir la privacidad ni socavar la seguridad" (Floridi Beneficencia
y Cowls 2019)

Vigilancia “juicio humano en el momento en que un algoritmo emite una predicción o decisión Humano en el
específica” (Green, 2022) circuito; Humano en
el circuito;
Humano al
mando

Viabilidad “si el público en general y los agentes políticamente activos consideran una herramienta Legitimidad;
política legítima y políticamente factible” (Salamon 2002) Politización

Privacidad “el deseo [y la capacidad] de los individuos para controlar o tener alguna Confidencialidad;
influencia sobre los datos sobre sí mismos” (Bélanger & Crossler, 2011) Autonomía
Riesgo “el efecto de la incertidumbre sobre los objetivos… el efecto del conocimiento Incertidumbre;
incompleto de eventos o circunstancias en la toma de decisiones” (ISO, 2009) Consecuencia;
Peligro

Gravedad “el peso del impacto sobre los derechos o libertades de las personas” Impacto
(Osvaldo 2018)

Sostenibilidad “cambio en todo el ciclo de vida de los productos de IA (es decir, generación de Ambiental
ideas, capacitación, reajuste, implementación, gobernanza) hacia una mayor
integridad ecológica y justicia social” (van Wynsberghe, 2021) “disposición a

Confiable depender de otra parte porque el individuo carece control sobre el otro” (Mayer et al., Benevolente
1995)
Las definiciones presentadas anteriormente se derivan de los artículos identificados en la revisión de la literatura o fuentes de referencia común. El dominio se refiere a un campo de estudio
relacionado con preguntas específicas sobre una actividad en particular, en este caso, el comportamiento de los sistemas basados en IA en el gobierno. Cada concepto se agrupa bajo
el dominio que refleja su uso predominante en la literatura académica en base a los resultados de una revisión de la literatura (ver Métodos para más detalles). Otra razón para
agrupar conceptos bajo un solo dominio es la claridad de la presentación. Las palabras entre corchetes son adiciones propias de los autores.

8
Machine Translated by Google

Para designar los dominios que usamos para agrupar conceptos, nos inspiramos en tres líneas de trabajo; en
primer lugar, la investigación de la administración pública que enfatiza el comportamiento y las creencias de los burócratas
para influir en el desempeño operativo (Riccucci, 2005). En segundo lugar, la seguridad informática trabaja en el
razonamiento sobre las propiedades relacionadas con el conocimiento de un sistema tecnológico (Dechesne et al., 2007).
Y en tercer lugar, la visión de los filósofos morales de que las preguntas sobre las implicaciones sociales de la IA dependen
de las decisiones políticas sobre cuestiones normativas (Erman & Furendal, 2022). Los conceptos en cada uno de los tres
dominios no son necesariamente sinónimos, pero todos se usan para discutir AI­GOV de manera similar. Cada dominio,
por lo tanto, funciona vagamente como un 'campo semántico', un conjunto de palabras que comparten un significado
central relacionado con un tema específico (Adrian et al., 2001). Aunque algunos conceptos se usan de múltiples formas
contextuales, adoptamos un enfoque pragmático y agrupamos cada uno en el dominio que captura su significado y uso
original. Cuando los conceptos exhiben una gran similitud semántica, como se refleja en su uso complementario o
intercambiabilidad en los estudios revisados, distinguimos entre el concepto central y los términos relacionados en función
de la prevalencia de uso.

3.1 Conceptos operativos, epistémicos y normativos a nivel de dominio

En total, nuestro enfoque de mapas conceptuales nos llevó a identificar 37 conceptos centrales y 70 términos relacionados.
Seleccionamos los términos más comunes y más utilizados para tratar de capturar de manera integral la gama completa
de clases conceptuales presentes en la literatura. Los términos que describimos son relevantes específicamente para el
contexto del sector público, son pertinentes ahora o marcan tendencias para el trabajo futuro. En la Tabla 1 se presenta
una lista de todos los términos junto con las definiciones de los conceptos centrales. En la Figura 1 se muestra un mapa
conceptual que muestra todos los términos y el dominio con el que se relacionan. Todos los dominios tienen una cantidad
similar de términos, incluidos los conceptos centrales y los conceptos relacionados. términos. De los 37 conceptos
identificados, agrupamos 15 (41%) en el dominio operativo, junto con 27 de los 70 términos relacionados (39%). En
promedio, cada concepto tiene aproximadamente 2 términos relacionados, el valor más bajo es 1 y el más alto es 4.
Mientras tanto, 9 (24%) de los 37 conceptos identificados se agrupan en el dominio epistémico, junto con 15 de los 70
términos relacionados (21). %). Aquí, cada concepto tiene en promedio aproximadamente 2 términos relacionados, el valor
más bajo es 1 y el más alto 3. Finalmente, de los 37 conceptos que identificamos, 13 (35%) pertenecen al dominio
normativo, junto con 28 de los 70 términos relacionados. (40%). En promedio, cada concepto tiene aproximadamente 2
términos relacionados, el valor más bajo es 1 y el más alto es igual a 4.
Si bien el mapeo de conceptos que presentamos en la Figura 2 está casi equilibrado, un hallazgo notable es el
número absoluto de palabras operativas totales (n = 41), incluidos los conceptos centrales y el término relacionado, y el
hecho de que este dominio presenta relativamente más conceptos que cualquiera de los dos. dominio epistémico o
normativo. Esto es sorprendente dado que gran parte del discurso político actual en el estudio de la IA en el gobierno parte
de la premisa de que los sistemas de IA implementados funcionan y funcionan como se espera. Es decir, los conceptos
del dominio operativo a menudo se consideran de importancia secundaria en comparación con otros desafíos éticos y
normativos, lo que significa que a menudo se dejan de lado por completo. En su revisión del panorama de las pautas de
ética de la IA, Jobin et al. (2019), por ejemplo, encontró que solo un número limitado considera el potencial de los sistemas
de IA que no funcionan como se anuncia. Como señalan Raji et al. (2022), muchas de las estrategias, directrices,
propuestas, posiciones políticas e intervenciones actuales en el campo de la IA para el gobierno se hacen eco de narrativas
exageradas de superinteligencia, amplia aplicabilidad, generalización y consistencia, que de otro modo se promueven en
los materiales de marketing corporativo, la corriente principal. medios de comunicación y algunas investigaciones
académicas (Crawford, 2022; Pineau et al., 2021). En contraste con estas narrativas, nuestros hallazgos sirven para ilustrar
y subrayar la importancia de considerar los problemas operativos en el despliegue de sistemas de IA.

9
Machine Translated by Google

Figura 1. Conceptos que se utilizan con frecuencia para estudiar los sistemas basados en IA en el gobierno. Un mapa conceptual conecta el
dominio operativo, epistémico y normativo (nodos de primer nivel) conceptos centrales (nodos de segundo nivel) y términos relacionados (nodos
de tercer nivel). Consulte la Tabla 1 para obtener una definición de cada concepto. El tamaño de los nodos y el peso de los arcos son solo para
fines ilustrativos y no codifican información adicional.

Significativamente, este hallazgo refleja el creciente interés en los problemas relacionados con la funcionalidad
ML dentro de la industria y la academia. Es decir, en los últimos años, la investigación sobre la documentación y los
informes de ML han comenzado a ofrecer a los científicos y profesionales de datos formas de documentar la información
relacionada con los datos y los modelos que utilizan, como la procedencia, las estadísticas, las partes responsables, etc.
(Bhat et al., 2022). Los ejemplos destacados incluyen etiquetas de nutrición de datos (Holland et al., 2018), tarjetas
modelo (Mitchell et al., 2019) y hojas de datos para conjuntos de datos (Gebru et al., 2021). Este movimiento no
regulado hacia la documentación para mejorar la reproducibilidad y la rendición de cuentas, que Gansky y McDonald
(2022) denominan "maximalismo de metadatos", inevitablemente tiene sus deficiencias. Los datos sobre los sistemas
de IA a menudo se anuncian de manera imprecisa a una audiencia no especificada, mientras que se comparte poca
información sobre la cadena de suministro más grande de IA (Widder & Nafus, 2022). Sin embargo, está ayudando a
poner en primer plano muchas de las trampas metodológicas del ML, incluida la fuga de datos, y llamar la atención
sobre el potencial de una crisis de reproducibilidad en ciertas áreas de la investigación del ML (Kapoor & Narayanan
2022). En general, por lo tanto, está claro que los conceptos operativos deben tener una mayor presencia en las
discusiones sobre la adopción de la implementación de sistemas de IA, dentro del gobierno y en otros lugares.

10
Machine Translated by Google

Dominio operacional

Las disciplinas primarias más representadas en este dominio, como lo reflejan las fuentes de los conceptos
destacados en términos de afiliaciones de revistas y autores, son ingeniería, informática y administración
pública, siendo las dos últimas las que aparecen con mayor frecuencia (quizás reflejando el hecho de que
ambas comparten una historia intelectual; véase, por ejemplo, Rahm, 1999). Esto se evidencia por la existencia
de campos interdisciplinarios en nuestra revisión, como la investigación operativa, preocupada por desarrollar
métodos analíticos para mejorar la toma de decisiones, incluidos los contextos gubernamentales.
El significado y el tema específico compartido por los conceptos en el dominio operativo se relacionan
en términos generales con la comprensión de las actividades rutinarias y el funcionamiento de AI­GOV, una
aplicación, administración, actor(es) burocrático(s) o política de IA en particular. Cada uno de los conceptos se
discute dentro de los estudios revisados principalmente, pero no exclusivamente, desde un punto de vista
técnico y aplicado. Es decir, a menudo se emplean tanto como una idea abstracta (p. ej., 'precisión') como
operacionalizados para medir cuantitativamente un atributo específico de un sistema de IA en particular (p. ej.,
'porcentaje de predicciones correctas'). La característica común de todos los conceptos en este dominio,
independientemente de cómo se pongan en práctica, es un énfasis en la descripción de requisitos o atributos
funcionales específicos de AI­GOV. Esto refleja lo que podría decirse que es único acerca de los conceptos de
dominio operacional, a saber, el hecho de que la mayoría se puede especificar en un lenguaje técnico común o
cuantificar fácilmente (Dechesne et al., 2007), lo que permite la descripción sucinta y la comparación de sistemas.
En cuanto a las características terminológicas particulares de los conceptos del dominio operativo,
éstas pueden dilucidarse zonificando un concepto particular. La 'robustez' se define como la “capacidad de
resistir o sobrevivir a las perturbaciones externas, de mantenerse estable a pesar de la incertidumbre” (Bankes,
2010). Se utiliza en diversos campos científicos, desde la química hasta la biología y la ingeniería, donde se
refiere a la confiabilidad funcional ante la presencia de una eventual falla. La teoría organizacional también tiene
una noción del concepto, usándolo para describir la “capacidad de una organización para retener su patrón
fundamental y características centrales bajo condiciones cambiantes” (Capano & Woo, 2017). Junto con la
'resiliencia', la robustez suele ser el valor más asociado con la toma de decisiones del gobierno, especialmente
en tiempos de crisis (ibíd.); Podría decirse que ambos términos también captan el beneficio potencial que la IA
puede aportar al gobierno (MacArthur et al., 2022). Además, existe una literatura antigua y amplia sobre métricas
de robustez (Oss & Hek, 2011), lo que demuestra la importancia que el concepto también tiene para los
profesionales, diseñadores e ingenieros. En resumen, su amplio alcance, mensurabilidad y consistencia en el
significado ilustran hasta qué punto la robustez, ilustrativa de muchos conceptos de dominio operacional, se
entiende y define comúnmente. En línea con esta expectativa, es un término que aparece regularmente en
publicaciones gubernamentales de alto nivel sobre el uso de la IA (Hamon et al., 2020).
Juntos, los conceptos operativos son fundamentales para analizar los atributos de AI­GOV. Sin
embargo, no son suficientes, ya que abordan la cuestión de comprender cómo funcionan los componentes
materiales de un sistema de IA o cuáles son para empezar. En consecuencia, estas propiedades 'relacionadas
con el conocimiento' de AI­GOV han adquirido una importancia conceptual dentro de los estudios de IA, dada la
naturaleza cada vez más compleja, distribuida y en red de los sistemas de IA. Por lo tanto, cualquier
conceptualización de AI­GOV deberá tener en cuenta esta línea de investigación y los conceptos relacionados.

dominio epistémico

En el dominio epistémico, las disciplinas y campos más representados son la filosofía moral, la psicología, la
ciencia política y la administración pública. Más recientemente, a medida que la ética y la gobernanza de la
literatura AI­GOV ha ganado importancia académica y pública (Jobin et al.,

11
Machine Translated by Google

2019), otras áreas, especialmente el campo de ML, han hecho un uso extensivo de los conceptos presentados
en este grupo, así como también han contribuido a su desarrollo. Esto se refleja en el hecho de que muchos de
los artículos revisados se dirigen tanto a las ciencias de la computación como a las ciencias sociales.
Se entiende que los conceptos de dominio epistémico se ocupan predominantemente de los atributos
relacionados con el conocimiento, o la comprensión de AI­GOV, que aquí se consideran para incluir una
aplicación, administración, actor(es) burocrático(s) o política de IA en particular. Es decir, los conceptos de
dominio epistémico tienen como objetivo describir las propiedades que pertenecen a las interacciones entre los
actores humanos y la interfaz entre las aplicaciones de IA y los actores humanos. Tanto en términos de
conocimiento, creencias e intenciones de aquellos que utilizan aplicaciones de IA (p. ej., un deseo de 'apertura')
como de las propiedades internas del propio sistema (p. ej., su 'comprensibilidad'). Dado que AI­GOV representa
un cambio radical con respecto a las TIC debido, entre otros factores, a su mayor complejidad técnica, los
conceptos de dominios epistémicos han aumentado en uso e importancia a medida que ha crecido esta
complejidad. Su uso contextual específico suele ser doble; se emplean analíticamente para resaltar problemas
epistémicos relacionados con AI GOV (p. ej., 'reproducibilidad') (Gundersen & Kjensmo, 2018), y se adoptan de
manera técnica para mejorar el conocimiento del sistema (p. ej., 'interpretabilidad') (Molnar, 2020) .
El uso definitorio en evolución de los conceptos de dominio epistémico se puede ilustrar más a través
de un ejemplo. La 'explicabilidad' se asocia con "la noción de explicación como una interfaz entre los humanos y
un tomador de decisiones que es, al mismo tiempo, un representante preciso del tomador de decisiones y
comprensible para los humanos" (Guidotti et al., 2018). Con el advenimiento de los llamados modelos ML de
"caja negra", expresados en fórmulas que son demasiado complicadas para que cualquier ser humano las
interprete, comprenda y explique completamente (por ejemplo, DNN), o patentadas, de modo que uno no puede
examinar su funcionamiento interno (Rudin , 2019), el concepto de explicabilidad se ha vuelto ampliamente
utilizado en los estudios de IA (Adadi & Berrada, 2018). Sin embargo, no existe una definición universalmente
aceptada del término (Doran et al., 2017). Al mismo tiempo, existe un vasto cuerpo de investigación que abarca
la filosofía, la psicología y la ciencia cognitiva sobre cómo las personas definen y evalúan las explicaciones, que
solo se está infundiendo gradualmente con la investigación de IA (Miller, 2019). En conjunto, este enfoque
semántico sobre la relación de conocimiento entre agentes y sistemas, el uso contextual variado y la adopción
generalizada a pesar de la falta de una definición estándar, captura a su vez la esencia de los conceptos de
explicabilidad y dominio epistémico en general. Aunque a menudo se consideran intrínsecamente útiles y vale la
pena seguirlos en un contexto gubernamental, los conceptos de dominio epistémico pueden distraer la atención
de los factores materiales y más explícitamente políticos que caracterizan a AI­GOV tal como existen en el
mundo real y cargado de valores del gobierno. En otras palabras, debido a que las cantidades que AI­GOV busca
optimizar deben ser especificadas por sus usuarios, los conceptos de dominio epistémico pueden describir si los
operadores humanos de AI­GOV son explícitos acerca de sus objetivos, lo que potencialmente expone las
compensaciones de políticas previamente ocultas ( Coyle y Weller, 2020); sin embargo, no captan la gama
completa de factores que influyen en estos objetivos y compensaciones.

Dominio normativo

Volviendo finalmente al dominio normativo, las disciplinas más representadas en este dominio son la ética, la
ciencia política y el derecho, seguidas por los estudios de interacción humano­computadora y la informática.
Los conceptos de dominio normativo han tendido a ser competencia del primero pero, más recientemente, los
subcampos de IA, ML y robótica han contribuido a su uso y desarrollo. Similar al dominio epistémico, esto se
puede ver por el hecho de que algunos conceptos de dominio normativo (p. ej., 'imparcialidad' y 'responsabilidad')
se han convertido en áreas de investigación prósperas dentro de las ciencias de la computación por derecho
propio (Laufer et al., 2022) .

12
Machine Translated by Google

El significado y el tema que los conceptos en el dominio normativo expresan colectivamente se


relacionan con los derechos, valores y principios de moralidad política que las partes afectadas tienen y
esperan de AI­GOV, una aplicación particular de AI, administración, actor(es) burocrático(s) o política. El
término 'moralidad política' se utiliza aquí para referirse a los principios e ideales normativos que regulan y
estructuran el dominio político (Erman & Furendal, 2022). En el contexto de AI GOV, se puede decir que las
partes afectadas incluyen a los desarrolladores de sistemas (p. ej., diseñadores, ingenieros y expertos en el
dominio), aquellos que los administran y operan dentro del gobierno (p. ej., administradores públicos y
burócratas de nivel de ventanilla) y finalistas. ­usuarios afectados por el sistema de IA (es decir, ciudadanos).
En algunos casos, esto puede incluir a gran parte de la sociedad (Rahwan, 2018), ya que los sistemas de IA
pueden provocar daños individuales y colectivos (Smuha, 2021). El dominio normativo cubre principalmente
conceptos que pueden entenderse de dos maneras. En primer lugar, incluye los que se utilizan en un sentido
ético práctico, como en la bioética, para enfatizar los valores que subyacen a la protección de los individuos
(por ejemplo, 'no maleficencia'). En segundo lugar, incluye los que se utilizan en un marco legal, como en el
discurso de los derechos humanos, para discutir el conjunto de derechos de todos los seres humanos bajo el
estado de derecho para una jurisdicción particular (Leslie, 2019).
Un concepto de ejemplo que puede aclarar el carácter de los conceptos del dominio normativo es el
de 'equidad'. Si bien abundan las definiciones, en términos generales se puede definir como “la ausencia de
cualquier prejuicio o favoritismo hacia un individuo o grupo en función de sus rasgos intrínsecos o adquiridos
en el contexto de la toma de decisiones” (Mehrabi et al., 2022). De manera más general, se relaciona con las
nociones de equidad e imparcialidad, así como con los procedimientos no sesgados y no discriminatorios.
Como todos los conceptos del dominio normativo, la equidad se relaciona, por lo tanto, con las consecuencias
resultantes de ciertos comportamientos e interacciones; en el presente caso, el comportamiento de AI­GOV y
la interacción entre los humanos y los agentes de IA. De hecho, una revisión sistemática reciente mostró que
las percepciones de equidad de la toma de decisiones algorítmicas están determinadas no solo por el diseño
técnico del algoritmo, sino también por el área de aplicación y la tarea específica en cuestión (Starke et al.,
2022). Como tal, la equidad es representativa del dominio normativo en general en el sentido de que se
entiende mejor como un proceso continuo que puede depender en gran medida del contexto y negociarse a
través del intercambio continuo entre las partes afectadas, en lugar de ser fijo o automatizable (Wachter et al., 2020). ).

4 Hacia una concepción unificada de AI­GOV

Con base en nuestro mapeo de la IA en el campo del gobierno, sostenemos que se necesita un nuevo marco
conceptual para integrar las diversas líneas conceptuales que actualmente impregnan la erudición. Aquí
tratamos de hacerlo de la siguiente manera: primero proponemos tres conceptos nuevos y multifacéticos para
estudiar AI GOV, antes de usarlos para construir una nueva tipología conceptual de AI­GOV. Una 'tipología', a
veces llamada 'espacio de propiedades', se define como un método para clasificar las observaciones en
términos de sus atributos y como el desarrollo de teorías sobre configuraciones de variables que constituyen
tipos conceptuales. Entendemos y usamos el término principalmente en el último sentido: como un sistema
organizado que descompone un fenómeno general, en este caso AI­GOV, en dimensiones componentes
(George & Bennet, 2005). Para desarrollar nuestra tipología, seguimos a O'Raghallaigh (et al., 2010), y nos
enfocamos en explorar la dimensionalidad y refinar la medición de los conceptos que proponemos, en lugar de
clasificar exhaustivamente todos los diferentes tipos de AI­GOV. Además, al proponer conceptos multifacéticos,
constituidos por múltiples elementos, nos inspiramos en las recomendaciones de una revisión reciente de
cómo los estudios anteriores han intentado clasificar los sistemas de IA, que enfatiza la necesidad de integrar
información y ofrecer conceptos que se puede esperar que permanecer estables y útiles en el tiempo (Mökander
et al., 2022).

13
Machine Translated by Google

Si bien se introducen regularmente nuevos conceptos en el estudio de la IA en el gobierno, muchos


abordan el tema desde la perspectiva de una sola disciplina, como la ética en el caso de la 'explicabilidad' (Floridi
& Cowls, 2022), o la ley en el caso de 'inmutabilidad artificial' (Wachter, 2022). Por el contrario, trabajamos para
unir esfuerzos anteriores para conceptualizar AI­GOV, que hemos demostrado que es divisible en conceptos
operativos, epistémicos y normativos, abstrayendo las características esenciales de los términos en cada uno
de estos dominios, respectivamente, antes de combinar los nuevos conceptos que introducimos en un marco
tipológico unificado. Nuestro sistema de clasificación pretende a su vez establecer una conexión informativa y
productiva entre las dimensiones utilizadas y ubicar a cada una dentro de su campo semántico. Por lo tanto, de
aquí en adelante también nos referiremos a los conceptos como dimensiones. Las etiquetas que damos a los
tres nuevos conceptos que proponemos son: (1) aptitud operativa, (2) integridad epistémica y (3) prominencia
normativa. A continuación, proporcionamos definiciones para cada concepto (consulte también la Tabla 2), la
Sección 4.2 luego procede a sugerir escalas de medición para cada concepto y establece conexiones con los
estándares técnicos de medición emergentes propuestos por las Organizaciones de Desarrollo de Estándares
(SDO) y otras organizaciones en todo el mundo.

4.1 Tres nuevas dimensiones multifacéticas para el estudio de AI­GOV

La teorización en la administración pública ha estado dominada en gran medida por conceptos únicos,
construcciones de tipo ideal (Bullock et al., 2022). Sin embargo, según los resultados de nuestro mapeo
conceptual, argumentamos que la naturaleza interdisciplinaria de AI­GOV requiere el desarrollo de conceptos
nuevos y multifacéticos que capturen mejor las complejidades de los fenómenos sociotécnicos de AI­GOV y
fomenten el diálogo interdisciplinario. Nuestra conceptualización está así motivada por el deseo de llegar a una
audiencia multidisciplinaria y el deseo de cumplir con los criterios recomendados por las ciencias sociales para
el desarrollo de conceptos. Por lo tanto, para lograr esto último, hemos seguido a Gerring (1999) y nos hemos
asegurado de que nuestros conceptos estén acotados (es decir, operacionalizables), posean profundidad (es
decir, acompañen las propiedades compartidas por las instancias bajo definición) y ofrezcan utilidad teórica (es
decir, son útiles dentro de un campo más amplio de inferencias).

aptitud operativa

La primera dimensión que proponemos es la aptitud operativa. Se centra en las capacidades funcionales y las
posibles ventajas de rendimiento que un sistema de IA podría tener sobre los sistemas existentes, en términos
cognitivos, computacionales y organizativos. Más específicamente, se relaciona con las capacidades
computacionales internas de un sistema, la medida en que se puede esperar que el sistema opere de acuerdo
con los estándares de funcionamiento de rutina y qué tan bien se desempeña en una tarea cognitiva determinada
en comparación con otros agentes. Formalmente, lo definimos como:

El grado en que la composición y las funciones de un sistema gubernamental que incorpora una
aplicación de IA (o un conjunto de aplicaciones) se alinea con los estándares codificados de
organización y construcción y funcionamiento del sistema requeridos para operar en un entorno
particular, y la medida en que se puede esperar. para superar a otros agentes en una tarea cognitiva
específica (o conjunto de tareas)

A medida que los sistemas de IA se acercan o superan la precisión del "nivel humano" en un número cada vez
mayor de dominios (Bengio et al., 2021; Nguyen et al., 2018; Shinde & Shah, 2018), las afirmaciones confiables
sobre las tasas de éxito relativo de los sistemas de IA dependerá de evaluaciones rigurosas de su
comportamiento y desempeño (Cowley et al., 2022). Dependiendo de la tarea, esto puede implicar el desarrollo de nuevos

14
Machine Translated by Google

Tabla 2. Dimensiones propuestas para analizar y clasificar los sistemas de IA en el gobierno

Dimensión Definición

aptitud operativa El grado en que la composición y funciones de un sistema de gobierno que incorpora un
La aplicación (o conjunto de aplicaciones) de IA se alinea con los estándares codificados de organización y construcción
y funcionamiento del sistema requeridos para operar en un entorno particular, y la medida en que se puede esperar
que supere a otros agentes en una tarea cognitiva específica (o conjunto de tareas ); proporcionando evidencia
de si el sistema en su forma actual es adecuado para su propósito y puede ofrecer ventajas de rendimiento

Completitud epistémica El grado en que los datos y la información sobre la composición y las funciones de un sistema
gubernamental que incorpora una aplicación de IA (o un conjunto de aplicaciones) se alinea con los estándares
codificados de intercambio de conocimientos; proporcionando así evidencia de si las afirmaciones sobre la aptitud
operativa de un sistema están justificadas
prominencia normativa
El grado en que el comportamiento observado de un sistema gubernamental que incorpora una aplicación de IA
(o un conjunto de aplicaciones) en su entorno actual, incluidas las consecuencias del comportamiento del sistema,
se alinea con los estándares institucionales formales y las percepciones de comportamiento aceptable de
las partes afectadas; proporcionando así evidencia de si se puede esperar que el sistema en su forma actual persista

Cada dimensión se puede aplicar a los sistemas de estudio en dos escalas de investigación: aquellos que incorporan una sola aplicación de IA y aquellos que incorporan múltiples
aplicaciones de IA. Es probable que las partes afectadas de un sistema basado en IA incluyan desarrolladores (diseñadores, ingenieros y expertos en el dominio), gerentes
(administradores públicos y burócratas de nivel de ventanilla) y usuarios finales afectados por el sistema basado en IA a nivel sistémico y social. nivel (ciudadanos).

métodos para comparar humanos y sistemas basados en IA en comparaciones "equitativas" (Firestone, 2020),
que darían cuenta de las diferentes limitaciones de rendimiento que enfrentan los agentes competidores, o
desarrollar nuevos puntos de referencia de medición al usar IA y ciencia de datos para tareas gubernamentales
que los humanos no pueden hacer (MacArthur et al., 2022). La aptitud operativa tiene como objetivo tener esto
en cuenta al considerar tanto la competencia (capacidades internas) de un sistema como su desempeño en
comparación con otros.
De acuerdo con las características centrales de los conceptos del dominio operativo, la idoneidad
operativa tiene como objetivo proporcionar una visión aproximada de si el sistema en su forma actual es
funcionalmente adecuado para su propósito. En términos de gestión, su objetivo es describir qué tan bien
funciona un sistema frente a restricciones tanto externas como internas. Siguiendo a Simon (1995), aquí también
se puede trazar una analogía entre la medición del rendimiento de un sistema de IA y el concepto biológico de
'aptitud darwiniana', en el sentido de que la naturaleza genera sistemas o modifica los existentes y luego prueba
su capacidad para sobrevivir en el entorno ambiental. (ibídem). AI­GOV experimenta el mismo proceso, excepto
que el generador (el proceso de diseño) tiene más propósito y las pruebas (los propósitos que tienen en mente
los diseñadores) van más allá de la aptitud biológica. En resumen, la idoneidad operativa, por lo tanto, tiene
como objetivo describir si se puede esperar que un AI­GOV en particular, basado simplemente en su diseño,
funcione de manera efectiva y continúe operando según lo previsto.

Completitud epistémica

La segunda dimensión que proponemos, a la que llamamos completitud epistémica, se relaciona con cómo las
partes afectadas, y los actores humanos en general, perciben y conocen las funciones de un AI­GOV en
particular. Responde a la observación de que nuestra capacidad para usar y resolver problemas usando IA para
progresar depende en gran medida de procesos epistémicos: cómo se produce y distribuye la información, y las
herramientas y procesos que usamos para tomar decisiones y evaluar afirmaciones (Clarke & Whittlestone,
2022). ). Formalmente, lo definimos como:

El grado en que los datos y la información sobre la composición y las funciones de un sistema de
gobierno que incorpora una aplicación de IA (o un conjunto de aplicaciones) se alinea con los estándares
codificados de intercambio de conocimientos.

15
Machine Translated by Google

Tabla 3. Características de las dimensiones propuestas para clasificar los sistemas basados en IA en el gobierno

Dimensión Niveles de Descripción Ejemplos de estándares de medición


dimensión

aptitud operativa Básico El sistema basado en IA cumple con los puntos • ISO/IEC DTS 4213.2 Evaluación de
de referencia críticos en los estándares básicos de Clasificación de aprendizaje automático
aptitud operativa, especialmente en términos Desempeño •
de efectividad. Los componentes de la aplicación satisfacen Pruebas de gobernanza de IA en Singapur
los objetivos principales Kit de herramientas del marco

Intermedio El sistema basado en IA supera los puntos de referencia • ISO/IEC TR 24029­1:2021 Artificial
críticos en los estándares básicos de aptitud Inteligencia (IA): evaluación de la solidez de las
operativa, especialmente en términos de eficacia y seguridad. redes neuronales • ISO/IEC TR
Los componentes de la aplicación satisfacen los objetivos 24027:2021 Información
principales tecnología — Inteligencia artificial (IA) —
Avanzado El sistema basado en IA cumple o supera los puntos Sesgo en los sistemas de IA y la toma de decisiones
de referencia en todos los estándares de aptitud asistida
operativa, incluso en términos de eficacia, seguridad, por IA • Tarjetas modelo para informes modelo en
confiabilidad, usabilidad y adaptabilidad. Mitchell et al., 2019
Los componentes de la aplicación satisfacen todos los objetivos

Completitud Nominal Los datos y la información sobre el sistema basado en • Estándar de transparencia algorítmica del Reino Unido
epistémica IA cumplen con los puntos de referencia críticos en los • Estándares de metadatos del Reino Unido para compartir
estándares básicos de integridad epistémica, especialmente y publicar datos •
en términos de transparencia. El conocimiento sobre el
Estándar IEEE para XAI (inteligencia artificial
sistema es incompleto.
explicable) para lograr claridad e interoperabilidad
Disperso Los datos y la información sobre el sistema basado en en el diseño de sistemas de IA* • Estándar IEEE
IA superan los puntos de referencia críticos en los 7001­2021
estándares básicos de integridad epistémica, especialmente para la transparencia de sistemas
en términos de transparencia y explicabilidad. autónomos • Hojas de datos en (Mitchell et al., 2019)**
El conocimiento sobre el sistema se distribuye de manera
desigual entre las partes afectadas

Uniforme Los datos y la información sobre el sistema basado en


IA cumplen o superan los puntos de referencia en todos los
estándares de integridad epistémica, incluso en términos de
transparencia, explicabilidad, reproducibilidad,
interpretabilidad y apertura.
El conocimiento completo sobre el sistema se distribuye
equitativamente entre las partes afectadas.
prominencia Bajo El comportamiento del sistema basado en IA está • Carta de Algoritmos para Aotearoa Nuevo
normativa Zelanda
consistentemente alineado con los estándares
• Actitudes públicas del Reino Unido hacia los datos y la IA
codificados y las percepciones de comportamiento aceptable
de las partes afectadas. Encuesta de seguimiento
• Alianza de IA de la UE
Moderado El comportamiento del sistema basado en IA está
consistentemente alineado con los estándares • Evaluación de impacto algorítmico canadiense

codificados de comportamiento aceptable, pero hay Herramienta

variaciones en las percepciones de las partes afectadas. • Información ISO/IEC 38507:2022

tecnología — Gobernanza de TI —
Alto El comportamiento del sistema basado en IA no se
Implicaciones de gobernanza del uso de la
alinea de manera inconsistente con los estándares
inteligencia artificial por parte de las organizaciones
codificados de comportamiento aceptable.
• ForHumanity Independent Audit of AI
Es posible que sea necesario volver a evaluar la aptitud
operativa o la integridad epistémica. Si la prominencia Sistemas (IAAIS)

normativa sigue siendo universal, es posible que se deban


realizar otros cambios
Todos los estándares de medición de ejemplo reflejan convenciones de nomenclatura en el momento de la redacción. *En desarrollo. **Estándar de la industria emergente.

Por lo tanto, el nivel de completitud epistémica de un sistema se relaciona con los conceptos clave del dominio
epistémico presentados en la Sección 3, como la transparencia, la interpretabilidad y la reproducibilidad (ver
Tabla 1), y cómo estos se definen en cada contexto. Una vez operacionalizado, su objetivo es proporcionar
evidencia de si las afirmaciones sobre la aptitud operativa de un sistema están justificadas. Es decir, al
describir el conocimiento de las partes afectadas sobre un AI­GOV en particular, se puede usar para medir tanto si el

dieciséis
Machine Translated by Google

se comprende el comportamiento operativo de un sistema y se sabe cuánto. Como se discutió en la Sección 3, es


probable que las partes afectadas incluyan desarrolladores de sistemas, quienes los administran y operan dentro del
gobierno y usuarios finales afectados por el sistema de IA.

prominencia normativa

La tercera y última dimensión que proponemos, que denominamos prominencia normativa, pretende reflejar la
necesidad de establecer si un sistema de IA opera de acuerdo con estándares evaluados de comportamiento
aceptable, según lo determinado por las partes afectadas de un sistema de IA. Debido a que, en última instancia, las
aplicaciones de AI­GOV aún son utilizadas y juzgadas por humanos, cualquier conceptualización de AI­GOV debe
considerar, al menos a nivel teórico, la dificultad que tendrán las partes afectadas para determinar los estándares
éticos y los métodos de gobernanza sobre cómo una aplicación que incorpora un Se usará, supervisará y controlará
el sistema de inteligencia artificial. La prominencia normativa, que tiene como objetivo hacer precisamente eso, se
define formalmente a su vez como:

El grado en que el comportamiento observado de un sistema gubernamental que incorpora una aplicación
de IA (o un conjunto de aplicaciones) en su entorno actual, incluidas las consecuencias del comportamiento
del sistema, se alinea con los estándares institucionales formales y las percepciones de comportamiento
aceptable de las partes afectadas.

Una vez operacionalizado y medido, el nivel de prominencia normativa de un sistema basado en IA tiene como
objetivo proporcionar evidencia de si el sistema en su forma actual se considera aceptable y se puede esperar que
persista. Es importante destacar que, en muchos casos, la prominencia normativa de un AI­GOV en particular solo
puede determinarse localmente, ya que las normas y los valores exactos de las partes afectadas pueden variar mucho
entre contextos de aplicaciones (es decir, regiones administrativas) (Ehret, 2022).

4.1 Una tipología conceptual de los sistemas gubernamentales basados en IA

Nuestra tipología de sistemas gubernamentales basados en IA está formada por tres dimensiones, presentadas
anteriormente: aptitud operativa, integridad epistémica y variación normativa. Al hacer uso de estas dimensiones,
nuestra tipología cumple dos funciones principales. Es a la vez una construcción de teoría en el sentido de que sirve
para caracterizar AI­GOV y explicar aún más el significado de cada dimensión, y clasificatorio, en el sentido de que
coloca ejemplos de diferentes tipos de AI­GOV en celdas conceptualmente apropiadas. Si bien la última función es
secundaria y, por lo tanto, los ejemplos de AI­GOV son principalmente ilustrativos, cuando se combinan y amplían,
sostenemos que estas tres dimensiones principales se pueden usar para encapsular todo el espacio hipotético de AI­
GOV y discriminar efectivamente diferentes tipos de sistema. Además, al establecer vínculos entre nuestras escalas
propuestas y los estándares de medición reales, la tipología tiene como objetivo ayudar a académicos, legisladores e
ingenieros a desarrollar una comprensión del espacio completo de AI­GOV y pensar en la aplicación de un sistema
de IA específico en un unificado. teniendo en cuenta aspectos técnicos, legales y éticos. La Tabla 3 proporciona
definiciones completas de las escalas propuestas para cada dimensión y relaciona cada una con los estándares de
medición emergentes; La Figura 2 presenta una visualización de la tipología con tipos de ejemplo de AI­GOV para
ilustración.

17
Machine Translated by Google

Figura 2. Clasificación de los tipos de sistemas basados en IA en el gobierno. Un esquema de clasificación coloca tipos selectos de
sistemas basados en IA en el gobierno a lo largo de tres ejes principales: prominencia normativa, aptitud operativa e integridad epistémica.
Los sistemas que incorporan modelos ML complejos (p. ej., redes neuronales, árboles de decisión potenciados, bosques aleatorios) se
contrastan con los que utilizan modelos más simples (p. ej., regresión logística, listas de decisiones). Los 'sistemas de armas autónomos
letales complejos' se clasifican como sistemas muy controvertidos (recuadro rojo), que exhiben una gran prominencia normativa y poseen
una aptitud operativa avanzada. Se adopta una escala de 3 puntos para cada dimensión por parsimonia conceptual; se anticipa que los
estándares futuros para calificar los sistemas del mundo real pueden usar diferentes escalas. El proyecto de Ley de IA de la UE, por
ejemplo, utiliza una escala de 4 puntos para clasificar el nivel de riesgo de un sistema de IA. Siempre que sea posible, la ubicación de los
sistemas se basa en encuestas sobre las actitudes del público hacia la IA (p. ej., Nussberger et al., 2022); de lo contrario, los sistemas
se ubican utilizando la propia interpretación de los autores.

Para construir nuestra tipología, escalamos cada una de nuestras dimensiones. Por parsimonia
conceptual, adoptamos una escala de 3 puntos para cada dimensión. Adoptamos esta regla, a diferencia de una
escala de 2 puntos (es decir, 'alto' frente a 'bajo') que se encuentra típicamente en muchas tipologías de ciencias
sociales, para capturar mejor la amplia gama de potencial AI­GOV, cuando se conceptualiza usando las
dimensiones que proponer. Dividimos la idoneidad operativa en básica, intermedia y avanzada , donde un AI­GOV
en particular se clasifica como poseedor de una idoneidad operativa básica si cumple con los puntos de referencia
críticos en los estándares básicos de idoneidad operativa y los componentes de la aplicación satisfacen los
objetivos principales. Estos estándares y objetivos básicos se relacionan con los conceptos del dominio operativo
discutidos en la Sección 3 y se espera que incluyan, como mínimo, la efectividad, que puede definirse ampliamente
como "la medida en que [un sistema] logra sus objetivos previstos" (Salamon, 2002). Nos centramos en la eficacia,
ya que consideramos que es un requisito previo para todos los demás aspectos de la aptitud operativa, tal como
se captura en los conceptos del dominio operativo restantes (consulte la Tabla 1 y la Figura 1). En consecuencia,
se entiende que un sistema exhibe aptitud operativa avanzada cuando cumple o supera los puntos de referencia
en todos los estándares de aptitud operativa, incluso en términos de eficacia, seguridad, confiabilidad, facilidad de uso y adaptabilida

18
Machine Translated by Google

En cuanto a la integridad epistémica, distinguimos entre AI­GOV que se puede caracterizar por poseer una
integridad epistémica nominal, dispersa o uniforme . De manera similar a la idoneidad operativa, la integridad
epistémica nominal aquí significa que los datos y la información sobre el sistema basado en IA cumplen con los
puntos de referencia críticos en los estándares básicos de integridad epistémica, especialmente en términos de
transparencia, que se considera un requisito previo para otros aspectos del dominio epistémico de un sistema. y el
conocimiento sobre el sistema es incompleto. En términos más concretos, la información sobre un AI­GOV en
particular puede ser transparente pero no completamente reproducible, accesible o explicable. Por el contrario, se
puede considerar que un sistema exhibe una integridad epistémica uniforme cuando los datos y la información
sobre el sistema basado en IA cumplen o superan los puntos de referencia en todos los estándares de integridad
epistémica, incluso en términos de transparencia, explicabilidad, reproducibilidad, interpretabilidad y apertura, y
completa el conocimiento sobre el sistema se distribuye equitativamente entre las partes afectadas.
En este último sentido, se puede establecer una analogía entre la completitud epistémica uniforme y el concepto
de "información perfecta" en microeconomía, específicamente en la teoría de juegos, que describe la situación en
la que todos los agentes tienen un conocimiento completo e instantáneo de todos los precios de mercado, su propia
utilidad, etc. (Fudenberg y Tirole, 1991).
Mientras tanto, la prominencia normativa se separa para que AI­GOV se pueda diferenciar en sistemas
bajos, moderados o altos donde se considera que un sistema disfruta de una prominencia normativa baja si el
comportamiento del sistema basado en IA está consistentemente alineado con los estándares codificados y las
partes afectadas. ' percepciones de comportamiento aceptable. Dada la naturaleza a veces altamente localizada de
los puntos de vista morales sobre la IA y las decisiones tomadas por las máquinas, los estándares normativos clave
y las percepciones de las partes afectadas probablemente dependerán del contexto en el que se espera que opere
un AI­GOV en particular. En particular, al menos en lo que respecta a los dilemas morales que enfrentan los
vehículos autónomos, los estudios anteriores sobre la variación transcultural en las preferencias éticas y morales
han descubierto grupos importantes de países que, de hecho, pueden compartir muchos estándares normativos (Awad et al., 2018) .
De acuerdo con este hallazgo, se considera que un sistema posee una gran prominencia normativa cuando el
comportamiento del sistema basado en IA no se alinea de manera inconsistente con los estándares codificados de
comportamiento aceptable. En la práctica, este puede ser el caso cuando se descubre que un sistema infringe
estándares casi universales de derechos humanos y libertades, como la Declaración Universal de Derechos
Humanos (Asamblea General de la ONU, 1948), que ya han informado los marcos legales emergentes para el
diseño, desarrollo y despliegue de sistemas de IA en general (Leslie et al., 2021).
Habiendo explicado las escalas de las dimensiones que componen nuestra tipología, ahora podemos
considerar cómo sería la combinación de cada una para capturar el espacio conceptual de AI­GOV. Para mayor
claridad y simplicidad analítica, solo consideramos los sistemas que se pueden implementar en la práctica. En otras
palabras, se supone que los diferentes tipos de AI­GOV que traza nuestra tipología poseen una aptitud operativa
básica. En aras de la claridad conceptual, asumimos que las aplicaciones AI­GOV que 'fallan' en lograr este criterio
básico se retractan y, por lo tanto, no pueden considerarse como parte del espacio de sistemas posibles. Si bien
hay muchos factores que influyen en la cancelación de un sistema, esta suposición está en línea con un estudio
comparativo reciente sobre por qué los departamentos gubernamentales deciden pausar o cancelar el uso de
sistemas de decisión automatizados (Redden et al., 2022); los autores encuentran que la mitad de las decisiones
de pausar o cancelar el uso de los sistemas se relacionan con preocupaciones sobre la falta de efectividad de un
sistema.
La Figura 2 coloca tipos selectos de AI­GOV en el espacio tipológico definido por los tres ejes principales,
idoneidad operativa, integridad epistémica y prominencia normativa. A modo de ilustración, diferenciamos, entre
otros, entre aquellos sistemas que tienen aptitud operativa avanzada, integridad epistémica nominal y alta
prominencia normativa, representados por el ejemplo de los sistemas de armas autónomos letales complejos, y
aquellos que tienen capacidad operativa avanzada, dispersa y baja.

19
Machine Translated by Google

valores para cada una de estas dimensiones, respectivamente. Un ejemplo de lo primero pueden ser los sistemas
que incorporan drones armados que pueden buscar y eliminar combatientes enemigos en una ciudad. Este último
puede incluir complejos motores de recomendación de información pública, como los sistemas GOV.UK Related
Links adoptados por el gobierno del Reino Unido para facilitar la navegación de sus servicios en línea (Gobierno
del Reino Unido, 2022). Se puede entender que ambos son complejos en la medida en que el sistema de IA puede
constar de componentes (es decir, un modelo de ML) que no son interpretables o fácilmente reproducibles (por
ejemplo, redes neuronales, árboles de decisión potenciados o bosques aleatorios). Difieren, sin embargo, en
términos de su idoneidad operativa exacta (p. ej., eficacia, precisión, etc.) y prominencia normativa (p. ej.,
viabilidad política, no maleficencia, etc.). Si bien solo se muestra una pequeña cantidad de tipos ilustrativos en la
Figura 2, ahora hay innumerables ejemplos de AI­GOV que, según sostenemos, pueden ubicarse en el esquema
conceptual que muestra (Engstrom et al., 2020).
Si bien el propósito de nuestra tipología es principalmente conceptual, un número creciente de estándares
de medición de IA hace que la posibilidad de operacionalizar las dimensiones que proponemos para comparar
diferentes AI­GOV actualmente en uso sea cada vez más plausible. Específicamente, si las dimensiones se toman
como compuestas, que consisten en múltiples escalas de medición, entonces solo necesitamos considerar los
diversos estándares que están surgiendo para algunos de los conceptos presentados en la Sección 3.
Centrándonos en la aptitud operativa, por ejemplo, dos instrumentos emergentes son ayudando a crear un
estándar global sobre cómo medir los sistemas de IA en términos de robustez: los estándares ISO/IEC DTS
4213.2 e ISO/IEC TR 24029­1:2021* (consulte la Tabla 3). Cuando se combina con otros estándares de medición
para conceptos de dominio operativo, como precisión y facilidad de uso, pronto será posible comparar AI­GOV en
términos de si exhiben aptitud operativa básica, intermedia o avanzada. De manera similar, para la integridad
epistémica, el Estándar de transparencia algorítmica del Reino Unido y el Estándar IEEE para XAI: inteligencia
artificial explicable tienen como objetivo proporcionar métodos universalmente aplicables para medir la
transparencia y la explicabilidad, respectivamente. Finalmente, aunque la prominencia normativa es posiblemente
la dimensión más difícil de estandarizar, dado que las normas y percepciones de AI­GOV pueden cambiar
rápidamente y, a menudo, son muy contextuales, están surgiendo varias iniciativas para decidir cómo se pueden
clasificar los sistemas particulares en términos de preocupación normativa en torno a la confiabilidad. ,
sostenibilidad y equidad, entre otros conceptos clave (ver Tabla 1). Por ejemplo, la Carta de Algoritmos para
Aotearoa Nueva Zelanda implica una "estrategia de participación de las partes afectadas" clara, formal y continua,
incluso con las agencias públicas que probablemente utilicen la política, e insta a los diseñadores de AI­GOV a
consultar a las personas afectadas por su uso (Ada Lovelace Instituto et al., 2021).
Operar y estandarizar completamente cada una de las dimensiones que proponemos depende tanto del
desarrollo de estándares globales adicionales como de aquellos desarrollados en lugares específicos. Esto es
especialmente relevante para medir la prominencia normativa, que está intrínsecamente conectada con el contexto
de la aplicación. Los desarrolladores, reguladores y comisionados deben comprender la naturaleza y las
implicaciones de AI­GOV que se está desarrollando actualmente y evaluar la idoneidad de los estándares
regulatorios. De manera prometedora, los intentos legales actuales, como el proyecto de Ley de IA de la Unión
Europea, el primer marco legal sobre IA (Sovrano et al., 2022), tienen como objetivo establecer nuevas obligaciones
para garantizar la coherencia entre muchos de los conceptos clave que componen cada uno de los dimensiones
aquí propuestas, tales como riesgo y equidad. En otros lugares, esfuerzos como el Plan para la Regulación Digital
del Reino Unido muestran cómo los reguladores buscan enfrentar el desafío de regular las actividades
transformadas por la IA (Aitken et al., 2022). Si bien está en curso, este proceso de estandarización muestra la
posibilidad de vincular cada una de las dimensiones de manera compuesta con los estándares aceptados para
que se pueda aproximar la aptitud operativa de los sistemas o la aptitud epistémica.

*Los títulos completos son 'ISO/IEC DTS 4213.2—Evaluación del rendimiento de clasificación de aprendizaje automático' e 'ISO/IEC TR
24029­ 1:2021 Inteligencia artificial (IA)—Evaluación de la solidez de las redes neuronales', respectivamente.

20
Machine Translated by Google

Al delinear todo el espacio de aplicación y especificar las condiciones mínimas que deben cumplirse para
que un sistema de IA se considere adecuado para uso gubernamental, nuestro marco tipológico abstracto pretende
ser útil para guiar la teoría operativa, epistémica y normativa sobre y el desarrollo de, AI­GOV, incluidos los
estándares futuros para cada uno de estos tres dominios. Solo a través del uso de estándares, las aplicaciones
de IA pueden integrarse en el gobierno utilizando procedimientos operativos claros y criterios epistémicos, y
comportarse de acuerdo con las expectativas normativas de la sociedad. La tipología también tiene como objetivo
enfatizar la necesidad de un análisis multidisciplinario en el estudio de las aplicaciones contemporáneas de la IA
dependiente de datos, y destaca que no existe un único tipo 'ideal' de sistema de IA que pueda manejar todas las
tareas; en cambio, siempre hay una interacción compleja entre la aptitud operativa de un sistema, la integridad
epistémica y la prominencia normativa.
Al promulgar esta línea de razonamiento, la tipología puede, a su vez, informar el lenguaje oficial utilizado para
describir la IA y la deliberación del gobierno sobre la adopción de la IA en la administración de publicaciones de
una manera más unificada y alentar a los profesionales a abordar cuestiones relacionadas con la supervisión
humana y el comportamiento adaptativo de AI­GOV. de una manera más informada. AI­GOV no son entidades
estáticas sino que pueden cambiar y evolucionar con el tiempo. Por lo tanto, es crucial que los gobiernos evalúen
continuamente el comportamiento de AI­GOV y minimicen su potencial para causar daño.

5 Conclusión: La importancia de las respuestas empíricas y los estándares globales

Este documento partió de la premisa de que las tecnologías de IA pueden remodelar el gobierno. Sin embargo, si
se tiene una visión global, el uso de la IA en el gobierno aún se encuentra en su fase inicial de implementación.
Por lo tanto, las decisiones incipientes sobre cómo conceptualizar AI­GOV moldearán en gran medida las
expectativas del gobierno. Cuando se diseñan e implementan correctamente, dichas herramientas podrían ayudar
a brindar servicios y establecer políticas con una velocidad y capacidades informáticas sin precedentes. Al mismo
tiempo, la adopción de la IA puede exacerbar los sesgos y precipitar los daños. El uso responsable de la IA
requiere claridad sobre las características de los sistemas construidos a su alrededor. Al proponer los conceptos
multifacéticos de aptitud operativa, integridad epistémica y prominencia normativa junto con una tipología
conceptual para analizar la IA, este artículo tiene como objetivo estimular el debate informado entre académicos y
profesionales que buscan repensar la administración pública con IA. Para concluir, destacamos algunas de las
implicaciones de nuestra tipología y destacamos futuras vías de investigación que anticipamos serán más
apremiantes en el futuro.
Un camino clave a seguir para el campo de la IA en el gobierno en general es recopilar más trabajo
empírico para enriquecer los conceptos que mapeamos y proponemos. Es especialmente importante complementar
las reflexiones críticas y los análisis conceptuales con la investigación empírica en el campo de la administración
pública para comprender mejor cómo la IA afecta las rutinas, las decisiones y la agencia burocrática
gubernamentales. En este sentido, los conceptos y la tipología de AI­GOV que presentamos invitan a futuras
investigaciones a considerar la relación entre las diversas dimensiones. Por ejemplo, ¿los sistemas que exhiben
una aptitud operativa avanzada y una alta prominencia normativa seguirán necesariamente en disputa, o se puede
resolver esta tensión?
Otra forma de consolidar el estudio de la IA en el gobierno es avanzar hacia estándares técnicos más
globales de IA, lo que puede beneficiar un mayor trabajo conceptual y viceversa. El objetivo final de la IA en el
gobierno es un ecosistema saludable de trabajo teórico, estudios de casos empíricos, cajas de arena de IA en el
gobierno y casos de uso de vanguardia que se retroalimenten entre sí.
En particular, los estándares técnicos ya se están convirtiendo rápidamente en instrumentos clave tanto para el
desarrollo como para la adopción, así como para la gobernanza de las tecnologías de IA. Un campo en el que se
está progresando mucho y que puede inspirar a la IA en el gobierno es el de la medicina y la atención sanitaria. Aquí,

21
Machine Translated by Google

ya existe un conjunto de estándares desarrollado internacionalmente para evaluar la calidad de los ensayos
clínicos que involucran IA (Cruz Rivera et al., 2020; Liu et al., 2020) y el uso de regulaciones, estándares y
prácticas para el mercado de dispositivos médicos está bien ­establecido (Ramakrishna et al., 2015). Como se
discutió en la Sección 4, los estándares relacionados con la prominencia normativa son especialmente escasos
y los gobiernos se beneficiarían enormemente de adoptar un enfoque más estructurado para comprender las
preocupaciones y los puntos de vista de las diversas partes afectadas antes de adoptar un sistema de IA. En el
contexto del Reino Unido, un desarrollo reciente es el lanzamiento de AI Standards Hub, una iniciativa que
forma parte de la Estrategia Nacional de IA del Reino Unido y que está dedicada al campo internacional y en
evolución de la estandarización de las tecnologías de IA. El centro incluye una base de datos de estándares†
que cubre casi 300 estándares relevantes que están siendo desarrollados o han sido publicados por una
variedad de SDO prominentes.
El uso de IA en la prestación de servicios gubernamentales es un desarrollo continuo que se expandirá
en los próximos años. Como se indicó al principio, es fundamental que estos desarrollos se integren utilizando
procedimientos operativos estándar, criterios epistémicos claros y siempre en línea con las preocupaciones
normativas. Para ayudar a alcanzar este objetivo, necesitamos analizar AI­GOV desde múltiples niveles.
Nuestro trabajo ofrece una contribución inicial para lograr este objetivo al proporcionar una conceptualización
más completa de la IA en el gobierno que esperamos pueda generar más trabajo.

Referencias

Instituto Ada Lovelace, Instituto AI Now y Gobierno Abierto, y Asociación. (2021).


Rendición de cuentas algorítmica para el sector público: aprendizaje de la primera ola de implementación
de políticas.
Adadi, A. y Berrada, M. (2018). Mirando dentro de la caja negra: una encuesta sobre inteligencia artificial
explicable (XAI). 52138–52160. IEEE Acceso, 6,
https://doi.org/10.1109/ACCESS.2018.2870052
Adrian, A., Richard, AD, Ann, KF y Robert, MH (2001). Lingüística: Una introducción al lenguaje y la
comunicación. Estados Unidos: Instituto Tecnológico de Massachusetts.
Equipo de Planificación AIME. (2021). Medición y Evaluación de Inteligencia Artificial en el Instituto Nacional de
Estándares y Tecnología. Taller del Instituto Nacional de Estándares y Tecnología (NIST) sobre
medición y evaluación de IA.
Aitken, M., Leslie, D., Ostmann, F., Pratt, J., Margetts, H. y Dorobantu, C. (2022). Común
Capacidad de Regulación de la IA. Instituto Alan Turing.
Ala­Pietilä, P. y Smuha, NA (2021). Un marco para la cooperación global en inteligencia artificial y su
gobernanza. En Reflexiones sobre la inteligencia artificial para la humanidad (pp.
237–265). Saltador.
Ashmore, R., Calinescu, R. y Paterson, C. (2021). Asegurar el ciclo de vida del aprendizaje automático:
Desiderata, métodos y desafíos. Encuestas informáticas de ACM (CSUR), 54(5), 1–39.
Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J.­F. y Rahwan, I.
(2018). El experimento de la máquina moral. Naturaleza, 563 (7729), 59–64.
Baker, DL (2009). Mejorar el desempeño del gobierno electrónico en los Estados Unidos a través de puntos de
referencia de usabilidad mejorados. Información Gubernamental Trimestral, 26(1), 82–88. https://
doi.org/10.1016/j.giq.2008.01.004

† Disponible en: https://aistandardshub.org/ai­standards­search/.

22
Machine Translated by Google

Ballester, O. (2021). Un marco de clasificación y definición de inteligencia artificial para aplicaciones


del sector público. DG.O2021: La 22ª Conferencia Internacional Anual sobre Investigación de
Gobierno Digital, 67–75. https://doi.org/10.1145/3463677.3463709 Bankes,
SC (2010). Análisis de robustez, adaptabilidad y resiliencia. Simposio de otoño de AAAI 2010
Serie.
Bélanger, F. y Crossler, RE (2011). Privacidad en la era digital: una revisión de la investigación de la
privacidad de la información en los sistemas de información. MIS Quarterly, 35(4), 1017–
1041. https://doi.org/
10.2307/41409971 Bengio, Y., Lecun, Y. y Hinton, G. (2021). Aprendizaje profundo para IA. Comunicaciones de la AC
64(7), 58–65. https://doi.org/10.1145/3448250
Bhat, A., Coursey, A., Hu, G., Li, S., Nahar, N., Zhou, S., Kästner, C. y Guo, JLC (2022).
Aspiraciones y práctica de la documentación modelo: mover la aguja con empujón y
trazabilidad (arXiv:2204.06425). arXiv. https://doi.org/10.48550/arXiv.2204.06425
Birhane, A., Kalluri, P., Card, D., Agnew, W., Dotan, R. y Bao, M. (2022). La investigación de la
máquina codificada de valores (arXiv: 2106.15590). arXiv. en Aprendizaje https://
doi.org/10.48550/arXiv.2106.15590

Bright, J., Ganesh, B., Seidelin, C. y Vogl, TM (2019). Ciencia de datos para el gobierno local.
Revista Electrónica SSRN. https://doi.org/10.2139/ssrn.3370217
Institución de estándares británicos. (2022). Información sobre estándares—¿Qué es un estándar?
https://www.bsigroup.com/en­GB/standards/Information­about­standards/what­is­a
standard/
Brundage, M., Avin, S., Wang, J., Belfield, H., Krueger, G., Hadfield, G., Khlaaf, H., Yang, J., Toner,
H., Fong, R., Maharaj, T., Koh, PW, Hooker, S., Leung, J., Trask, A., Bluemke, E., Lebensold,
J., O'Keefe, C., Koren, M., … Anderljung, M (2020). Hacia un desarrollo de IA confiable:
mecanismos para respaldar afirmaciones verificables (arXiv: 2004.07213). arXiv. https://
doi.org/10.48550/arXiv.2004.07213
Brynjolfsson, E. (2022). La trampa de Turing: la promesa y el peligro de la inteligencia artificial similar
a la humana. Dédalo, 151(2), 272–287. https://doi.org/10.1162/daed_a_01915
Brynjolfsson, E. y Mitchell, T. (2017). ¿Qué puede hacer el aprendizaje automático? Implicaciones laborales.
Ciencia. https://doi.org/10.1126/science.aap8062
Brynjolfsson, E., Mitchell, T. y Rock, D. (2018). ¿Qué pueden aprender las máquinas y qué significa
para las ocupaciones y la economía? Actas y documentos de la AEA, 108, 43–47. https://
doi.org/10.1257/pandp.20181019 Bullock,
JB (2019). Inteligencia artificial, discreción y burocracia. The American Review of Public Administration,
49(7), 751–761. https://doi.org/10.1177/0275074019856123 Bullock, J., Huang, H. y Kim,
K.­C. (Casey). (2022). Inteligencia artificial, burocracia y control humano. Perspectivas sobre la
gestión pública y la gobernanza, 5(2), 187–196. https://doi.org/10.1093/ppmgov/gvac006
Bullock, J., Young, MM y Wang, Y.­F.
(2020). Inteligencia artificial, forma burocrática y discrecionalidad en el servicio público. Política de
información, 25(4), 491–506.
Buolamwini, J. y Gebru, T. (2018). Matices de género: disparidades de precisión interseccional en la
clasificación de género comercial. Actas de la Primera Conferencia sobre Equidad,
Transparencia en la Responsabilidad, y 77–91. https://proceedings.mlr.press/v81/
buolamwini18a.html Burr, C. y Leslie, D. (2022). Garantía
ética: un enfoque práctico para el diseño, desarrollo e implementación responsables de tecnologías
basadas en datos. AI y la ética, 1–26.

23
Machine Translated by Google

Capano, G. y Woo, JJ (2017). Resiliencia y solidez en el diseño de políticas: una evaluación crítica.
Ciencias Políticas, 50(3), 399–426. https://doi.org/10.1007/s11077­016­9273­x
Chen, M. y Golán, A. (2016). ¿Qué pueden optimizar los procesos de visualización? IEEE Transactions Visualization
en and Computer 22(12), 2619–2632. https://doi.org/10.1109/TVCG.2015.2513410
Gráficos,

Clarke, S. y Whittlestone, J. (2022). Una encuesta sobre los impactos potenciales a largo plazo de la IA: cómo la IA
podría generar cambios a largo plazo en la ciencia, la cooperación, el poder, la epistemología y los valores.
Actas de la Conferencia AAAI/ACM de 2022 sobre inteligencia artificial, ética y sociedad, 192–202. https://
doi.org/10.1145/3514094.3534131 Cowley, HP,
Natter, M., Gray­Roncal, K., Rhodes, RE, Johnson, EC, Drenkow, N., Shead, TM, Chance, FS, Wester, B. y Gray­
Roncal, W. (2022). Un marco para la evaluación rigurosa del desempeño humano en estudios de
comparación de aprendizaje humano y automático.
Scientific Reports, 12(1), Artículo 1. https://doi.org/10.1038/s41598­022­08078­3 Coyle, D., &
Weller, A. (2020). "Explicar" el aprendizaje automático revela los desafíos de las políticas. Ciencia. https://doi.org/
10.1126/science.aba9647 Crawford, K. (2022).
Atlas de https:// AI. Yale Universidad Prensa.
yalebooks.yale.edu/9780300264630/atlas­of­ai Cruz Rivera, S.,
Liu, X., Chan, A.­W., Denniston, AK, Calvert, MJ, Ashrafian, H. , Haz, A.
L., Collins, GS, Darzi, A., Deeks, JJ, ElZarrad, MK, Espinoza, C., Esteva, A., Faes, L., Ferrante di Ruffano,
L., Fletcher, J., Golub, R ., Harvey, H., Haug, C., … Yau, C. (2020).
Pautas para protocolos de ensayos clínicos para intervenciones que involucran inteligencia artificial: la
extensión SPIRIT­AI. The Lancet Digital Health, 2(10), e549–e560. https://doi.org/10.1016/
S2589­7500(20)30219­3
de Bruijn, H., Warnier, M. y Janssen, M. (2022). Los peligros y trampas de la IA explicable: estrategias para explicar
la toma de decisiones algorítmica. Government Information Quarterly, 39(2), 101666. https://doi.org/10.1016/
j.giq.2021.101666 Dechesne, F., Mousavi, M. y Orzan, S. (2007). Enfoques
operativos y epistémicos para el análisis de protocolos: cerrar la brecha. En N. Dershowitz y A. Voronkov (Eds.),
Lógica para la programación, inteligencia artificial y razonamiento (págs. 226–241). Saltador. https://doi.org/
10.1007/978­3­540­75560­9_18

Dellermann, D., Calma, A., Lipusch, N., Weber, T., Weigel, S. y Ebel, P. (2021). El futuro de la colaboración humano­
IA: una taxonomía del conocimiento de diseño para sistemas de inteligencia híbridos. http://arxiv.org/abs/
2105.03354 Domingos, P. (2012).
Algunas cosas útiles que debe saber sobre el aprendizaje automático. Comunicaciones de la ACM, 55(10), 78–87.
https://doi.org/10.1145/2347736.2347755 Doran, D., Schulz, S. y Besold, TR
(2017). ¿Qué significa realmente la IA explicable? Unas Nuevas Perspectivas de Conceptualización
(arXiv:1710.00794). arXiv. https://doi.org/10.48550/arXiv.1710.00794
de

Dressel, J. y Farid, H. (2018). La precisión, la equidad y los límites de la predicción de la reincidencia. Ciencia
Avances, 4(1), eaao5580.
Ehret, S. (2022). Preferencias públicas para gobernar la tecnología de IA: evidencia comparativa. Revista de
Políticas Públicas Europeas, 0(0), 1–20. https://doi.org/10.1080/13501763.2022.2094988 Engstrom, DF,
Ho, DE, Sharkey, CM, & Cuéllar, M.­F. (2020). Gobierno por algoritmo: inteligencia artificial en agencias
administrativas federales (SSRN Scholarly Paper ID 3551505). Red de Investigación en Ciencias Sociales.
https://doi.org/10.2139/ssrn.3551505

24
Machine Translated by Google

Erman, E. y Furendal, M. (2022). La Gobernanza Global de la Inteligencia Artificial: Algunas Preocupaciones Normativas.
Filosofía Moral y Política. https://doi.org/10.1515/mopp­2020­0046

Estévez Almenzar, M., Fernández, LD, Gómez, GE, & Martínez, PF (2022). Glosario de inteligencia artificial centrada en
el ser humano. EUR 31113 EN, Oficina de Publicaciones de la Unión Europea.

Evans, T. (2016). Discreción profesional en los servicios de asistencia social: más allá de la burocracia a pie de calle.
Routledge.
Ezenkwu, CP y Starkey, A. (2019). Autonomía de la máquina: definición, enfoques, desafíos y lagunas de investigación.
Computación inteligente: Actas de la Conferencia de Computación, 335–358.
Firestone, C. (2020). Desempeño vs. Competencia en comparaciones hombre­máquina. Actas 117(43), 26562–26571.
del https:// Academia Nacional de Ciencias,
doi.org/10.1073/pnas.1905334117 Floridi, L., &
Cowls, J. (2022). Un marco unificado de cinco principios para la IA en la sociedad. En Machine Learning and the City
(págs. 535–545). John Wiley & Sons, Ltd. https://doi.org/10.1002/9781119815075.ch45

Friedman, A. y Smiraglia, RP (2013). Nodos y arcos: mapa conceptual, semiótica y organización del conocimiento.
Revista de Documentación.
Fudenberg, D. y Tirole, J. (1991). Teoría de juego. Prensa del MIT.
Gansky, B. y McDonald, S. (2022). CounterFAccTual: cómo FAccT socava sus principios organizativos. Conferencia
ACM de 2022 sobre equidad, responsabilidad y transparencia, 1982– 1992. https://doi.org/
10.1145/3531146.3533241
Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, JW, Wallach, H., III, HD y Crawford, K. (2021). Hojas de datos para
conjuntos de datos. Comunicaciones de la ACM, 64(12), 86–92.
George y Bennet, A. (2005). Estudios de Caso y Desarrollo Teórico en las Ciencias Sociales. MIT
Prensa.
Gerring, J. (1999). ¿Qué hace que un concepto sea bueno? Un marco de criterios para comprender la formación de
conceptos en las ciencias sociales. Política, 31(3), 357–393. https://doi.org/10.2307/3235246 Giest, S. y
Klievink, B. (2022). Más que un sistema
digital: cómo la IA está cambiando el papel de los burócratas en diferentes contextos organizacionales. Revisión de la
gestión pública, 1–20. https://doi.org/10.1080/14719037.2022.2095001

Gil, Y. y Selman, B. (2019). Una hoja de ruta comunitaria de 20 años para la investigación de inteligencia artificial en los
EE. UU. (arXiv: 1908.02624). arXiv. https://doi.org/10.48550/arXiv.1908.02624 Glikson, E. y Woolley,
AW (2020). Confianza humana en la inteligencia artificial: revisión de la investigación empírica. Academia de Anales de
Gestión, 14(2), 627–660. https://doi.org/10.5465/annals.2018.0057

Gowin, DB y Novak, JD (1984). Aprendiendo a aprender. Estados Unidos: Universidad de Cambridge.


Verde, B. (2022). Los defectos de las políticas que requieren la supervisión humana de los algoritmos gubernamentales.
Computer Law & Security Review, 45, 105681. https://doi.org/10.1016/j.clsr.2022.105681 Green, B. y Chen, Y.
(2019). Los principios y límites de la toma de decisiones de algoritmo en el ciclo. Actas de la ACM sobre interacción
humano­computadora, 3 (CSCW), 1–24. https://doi.org/10.1145/3359152 Grosz, BJ, Grant, DG, Vredenburgh,
K., Behrends, J., Hu, L., Simmons, A. y
Waldo, J.
(2019). Ética integrada: integración de la ética en la educación en informática. Comunicaciones de la ACM,
62(8), 54–61.

25
Machine Translated by Google

Guidotti, R., Monreale, A., Ruggieri, S., Turini, F., Giannotti, F. y Pedreschi, D. (2018). Una encuesta de
métodos para explicar los modelos de caja negra. Encuestas de computación ACM (CSUR), 51(5),
1– 42.
Gundersen, OE y Kjensmo, S. (2018). Estado del Arte: Reproducibilidad en Inteligencia Artificial. Actas de
la Conferencia AAAI sobre Inteligencia Artificial, 32(1), Artículo 1. https://doi.org/10.1609/
aaai.v32i1.11503
Hamon, R., Junklewitz, H. y Sánchez, I. (2020). Robustez y explicabilidad de la inteligencia artificial. Oficina
de Publicaciones de la Unión Europea.
Hellström, T., Dignum, V. y Bensch, S. (2020). Sesgo en el aprendizaje automático: ¿para qué sirve?
(arXiv:2004.00686). arXiv. https://doi.org/10.48550/arXiv.2004.00686 Henry,
SL, Abou­Zahra, S., & Brewer, J. (2014). El papel de la accesibilidad en una web universal.
el
Procedimientos de 1–4. https://doi.org/10.1145/2596695.2596719
XI Web para Holland,
Todo S.,
Conferencia,
Hosny, A., Newman,
S., Joseph, J. y Chmielinski, K. (2018). La
etiqueta nutricional del conjunto de datos: un marco para impulsar estándares de calidad de datos más
altos (arXiv: 1805.03677). arXiv. https://doi.org/10.48550/arXiv.1805.03677 (2009).

YO ASI. Guía ISO 73:2009(en), https:// Riesgo gestión—Vocabulario.


www.iso.org/obp/ui/#iso:std:iso:guide:73:ed­1:v1:en
Jobin, A., Ienca, M. y Vayena, E. (2019). El panorama global de las pautas de ética de la IA. Nature Machine
Intelligence, 1(9), artículo 9. https://doi.org/10.1038/s42256­019­0088­2 Kapoor, S. y
Narayanan, A. (2022). La fuga y la crisis de la reproducibilidad en la ciencia basada en ML (arXiv:2207.07048).
arXiv. https://doi.org/10.48550/arXiv.2207.07048 Katzenbach, C. y Ulbricht, L.
(2019). Gobernanza algorítmica. Revisión de políticas de Internet, 8(4).
https://policyreview.info/concepts/algorithmic­governance
Kleinberg, J., Lakkaraju, H., Leskovec, J., Ludwig, J. y Mullainathan, S. (2018). Decisiones humanas y
predicciones de máquinas*. The Quarterly Journal of Economics, 133(1), 237– 293. https://doi.org/
10.1093/qje/qjx032
Köbis, N., Starke, C. y Rahwan, I. (2022). La promesa y los peligros de usar inteligencia artificial para
combatir la corrupción. En Nature Machine Intelligence. http://arxiv.org/abs/2102.11567
Lanzing, J. (1998). Mapeo conceptual: herramientas para hacer eco del ojo de la mente. Revista de
alfabetización visual, 18(1), 1–14. https://doi.org/10.1080/23796529.1998.11674524
Laufer, B., Jain, S., Cooper, AF, Kleinberg, J. y Heidari, H. (2022). Cuatro años de FAccT: un análisis
reflexivo de métodos mixtos de las contribuciones de la investigación, las deficiencias y las
perspectivas futuras. Conferencia ACM de 2022 sobre equidad, responsabilidad y transparencia,
401– 426. https://doi.org/10.1145/3531146.3533107
Lepri, B., Oliver, N., Letouzé, E., Pentland, A. y Vinck, P. (2018). Procesos algorítmicos de toma de
decisiones justos, transparentes y responsables. Filosofía y Tecnología, 31(4), 611–627. https://
doi.org/10.1007/s13347­017­0279­x Leslie, D. (2019).
Comprender la ética y la seguridad de la inteligencia artificial: una guía para el diseño y la implementación
responsables de sistemas de IA en el sector público. Zenodo. https://doi.org/10.5281/
ZENODO.3240529
Leslie, D., Burr, C., Aitken, M., Cowls, J., Katell, M. y Briggs, M. (2021). Inteligencia artificial, derechos
humanos, democracia y estado de derecho: una introducción. https://doi.org/10.5281/zenodo.4639743

26
Machine Translated by Google

Liu, X., Rivera, SC, Moher, D., Calvert, MJ y Denniston, AK (2020). Directrices de informes para informes de ensayos clínicos
para intervenciones que involucran inteligencia artificial: la extensión CONSORT AI. BMJ, 370, m3164. https://
doi.org/10.1136/bmj.m3164 MacArthur, BD, Dorobantu, CL y Margetts, HZ (2022). Un
gobierno resiliente requiere datos
reforma de la ciencia. Naturaleza Comportamiento humano, 1–3.
Madan, R. y Ashok, M. (2022). Adopción y difusión de IA en la administración pública: una revisión sistemática de la literatura
y una agenda de investigación futura. Government Information Quarterly, 101774. https://doi.org/10.1016/
j.giq.2022.101774 Maguire, S. y McKelvey, B. (1999).
Complejidad y gestión: pasar de la moda a los cimientos firmes. Emergencia, 1(2), 19–61. https://doi.org/10.1207/
s15327000em0102_3 Manuele, FA (2010). Riesgo aceptable: Es hora de que los profesionales de SH&E
adopten el concepto.
Seguridad Profesional, 55(05), 30–38.
Margetts, H. (1999). Tecnología de la información en el gobierno: Gran Bretaña y Estados Unidos. taylor &
Francisco.
Margarets, H. (2022). Repensar la IA para la buena gobernanza. Dédalo, 151(2), 360–371.
Margetts, H. y Dorobantu, C. (2019). Repensar el gobierno con IA. Naturaleza, 568 (7751), 163–165.
https://doi.org/10.1038/d41586­019­01099­5
Markus, AF, Kors, JA y Rijnbeek, PR (2021). El papel de la explicabilidad en la creación de una inteligencia artificial confiable
para el cuidado de la salud: un estudio exhaustivo de la terminología, las opciones de diseño y las estrategias de
evaluación. Diario de Informática Biomédica, 113, 103655.

Mayer, RC, Davis, JH y Schoorman, FD (1995). Un modelo integrador de confianza organizacional. Academy of Management
Review, 20(3), 709–734.
McGregor, S. (2020). Prevención de fallas repetidas de IA en el mundo real mediante la catalogación de incidentes: la base
IA de datos de incidentes arXiv. (arXiv:2011.08512).
https://doi.org/10.48550/arXiv.2011.08512
Mehr, H. (2017). Inteligencia artificial para servicios ciudadanos y gobierno (págs. 1–12). centro de cenizas,
Escuela Kennedy de Harvard.
Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K. y Galstyan, A. (2022). Una encuesta sobre sesgo y equidad en el
aprendizaje automático. ArXiv:1908.09635 [Cs]. http://arxiv.org/abs/1908.09635 Mergel, I., Rethemeyer, RK e
Isett, K. (2016). Big Data en Asuntos Públicos. Administración Pública
Revisión, 76(6), 928–937. https://doi.org/10.1111/puar.12625
Metselaar, EE (1997). Evaluación de la voluntad de cambio: Construcción y validación de la
DINAMO [Tesis­Doctorado ­ Investigación y graduación interna]. Universidad de Vrije.
Meyers, MK, Riccucci, NM y Lurie, I. (2001). Lograr la congruencia de objetivos en entornos complejos: el caso de la reforma
del bienestar. Revista de investigación y teoría de la administración pública: J­PART, 11(2), 165–201.

Miller, T. (2019). Explicación en inteligencia artificial: conocimientos desde las ciencias sociales. Inteligencia artificial, 267, 1–
38. https://doi.org/10.1016/j.artint.2018.07.007 Misuraca, G., van Noordt, C. y Boukli,
A. (2020). El uso de la IA en los servicios públicos: resultados de un mapeo preliminar en toda la UE. Actas de la 13ª
Conferencia Internacional sobre Teoría y Práctica de la Gobernanza Electrónica, 90–99.

Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, I.
D. y Gebru, T. (2019). Tarjetas modelo para informes modelo. Actas de la Conferencia sobre Equidad,
Responsabilidad y Transparencia, 220–229.

27
Machine Translated by Google

Mökander, J., Sheth, M., Watson, D. y Floridi, L. (2022). Modelos para clasificar los sistemas de IA: el interruptor,
la escalera y la matriz. Conferencia ACM 2022 sobre equidad, responsabilidad y transparencia, 1016.
https://doi.org/10.1145/3531146.3533162
Molnar, C. (2020). Aprendizaje automático interpretable. Lulú. com.
Montavon, G., Samek, W. y Müller, K.­R. (2018). Métodos para interpretar y comprender las redes neuronales
profundas. ProcesamientoSeñal 73,
digital, 1–15. https://doi.org/10.1016/
j.dsp.2017.10.011 Moritz Göhler, S., Eifler, T. y
Howard, TJ (2016). Métricas de Robustez: Consolidando los Múltiples Enfoques para Cuantificar la Robustez.
Revista de Diseño Mecánico, 138(11). https://doi.org/10.1115/1.4034112 Nguyen, H., Kieu, L.­M., Wen,
T. y Cai, C. (2018). Métodos de
aprendizaje profundo en el dominio del transporte: una revisión. Sistemas de Transporte Inteligente IET, 12(9),
998–1004. https://doi.org/10.1049/iet­its.2018.0064 NIST. (2022). Marco de gestión de riesgos de IA:
segundo borrador (p. 36). Instituto Nacional de

Estándares y Tecnología.
Norvig, P. y Russell, SR (2020). Inteligencia artificial: un enfoque moderno (4ª ed.). Pearson
educación, inc.
Ntoutsi, E., Fafalios, P., Gadiraju, U., Iosifidis, V., Nejdl, W., Vidal, M.­E., Ruggieri, S., Turini, F., Papadopoulos,
S., Krasanakis, E., Kompatsiaris, I., Kinder­Kurlanda, K., Wagner, C., Karimi, F., Fernandez, M., Alani,
H., Berendt, B., Kruegel, T., Heinze, C., … Staab, S.
(2020). Sesgo en los sistemas de inteligencia artificial basados en datos: una encuesta introductoria.
Minería de datos y descubrimiento de conocimiento WIREs, 10(3), e1356. https://doi.org/10.1002/
widm.1356 Nussberger, A.­M., Luo, L., Celis, LE y Crockett, MJ (2022). Las actitudes públicas valoran la
interpretabilidad pero priorizan la precisión en la Inteligencia Artificial. Nature Communications, 13(1),
artículo 1. https://doi.org/10.1038/s41467­022­33417­3 OCDE. (2022).
Marco de la OCDE para la clasificación de los sistemas de IA.
Ojo, A., Mellouli, S. y Ahmadi Zeleti, F. (2019). Una perspectiva realista sobre la gestión pública en la era de la
IA*. Actas de la 20ª Conferencia Internacional Anual sobre Investigación de Gobierno Digital, 159–170.
https://doi.org/10.1145/3325112.3325261
O'Raghallaigh, P., Sammon, D. y Murphy, C. (2010). Construcción de teoría usando tipologías: un ejemplo
práctico de construcción de una tipología de actividades de conocimiento para la innovación. En Cerrar
la brecha sociotécnica en los sistemas de apoyo a las decisiones (pág. 12).
Osvaldo, M. (2018). Toma de decisiones asistida por algoritmos en el sector público: enmarcando los problemas
utilizando las normas de derecho administrativo que rigen el poder discrecional. Philosophical
Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376(2128),
20170359. https://doi.org/10.1098/rsta.2017.0359
Oswaldo, Marion. (2018). Toma de decisiones asistida por algoritmos en el sector público: enmarcando los
problemas utilizando las normas de derecho administrativo que rigen el poder discrecional.
Transacciones Filosóficas de la Royal Society A: Ciencias Matemáticas, Físicas y de Ingeniería. https://
doi.org/10.1098/rsta.2017.0359
Pencheva, I., Esteve, M. y Mikhaylov, SJ (2020). Big Data e IA: un cambio transformador para el gobierno:
Entonces, ¿qué sigue para la investigación? Políticas Públicas y Administración, 35(1), 24– 44. https://
doi.org/10.1177/0952076718780537
Pineau, J., Vincent­Lamarre, P., Sinha, K., Lariviere, V., Beygelzimer, A., d'Alche­Buc, F., Fox, E. y Larochelle,
H. (2021). Mejora de la reproducibilidad en la investigación de aprendizaje automático (A

28
Machine Translated by Google

Informe del Programa de Reproducibilidad NeurIPS 2019). Revista de investigación sobre aprendizaje
automático, 22(164), 1–20.
Provost, F. y Fawcett, T. (2013). La ciencia de datos y su relación con Big Data y la toma de decisiones basada en
datos. Grandes datos, 1(1), 51–59. https://doi.org/10.1089/big.2013.1508 Rahm, D. (1999). El
papel de la tecnología de la información en la construcción de la teoría de la administración pública.
Conocimiento, tecnología y política, 12(1), 74–83. https://doi.org/10.1007/s12130­999­1015­3

Rahwan, I. (2018). Society­in­the­Loop: programación del contrato social algorítmico. Ética y tecnología de la
información, 20(1), 5–14. https://doi.org/10.1007/s10676­017­9430­8 Rahwan, I., Cebrian, M.,
Obradovich, N., Bongard, J., Bonnefon, J.­F., Breazeal, C., Crandall, J.
W., Christakis, NA, Couzin, ID, Jackson, MO, Jennings, NR, Kamar, E., Kloumann, IM, Larochelle, H., Lazer,
D., McElreath, R., Mislove, A., Parkes, DC, Pentland, A.
'Sandy', … Wellman, M. (2019). Comportamiento de la máquina. Naturaleza, 568 (7753), 477–486. https://
doi.org/10.1038/s41586­019­1138­y
Raji, ID, Kumar, IE, Horowitz, A. y Selbst, A. (2022). La falacia de la funcionalidad de la IA. Conferencia ACM de 2022
sobre equidad, responsabilidad y transparencia, 959–972. https://doi.org/10.1145/3531146.3533158 Raji, ID,
Smart, A., White, RN, Mitchell, M., Gebru, T.,
Hutchinson, B., Smith­Loud, J., Theron, D. y Barnes, P. (2020). Cerrando la brecha de responsabilidad de la IA:
Definición de un marco de extremo a extremo para la auditoría algorítmica interna. Actas de la Conferencia
sobre Rendición de Cuentas de 2020, y 33–44.
Equidad, Transparencia,
https://doi.org/10.1145/3351095.3372873
Ramakrishna, S., Tian, L., Wang, C., Liao, S. y Teo, WE (2015). Dispositivos médicos: Reglamentos,
normas y prácticas. Editorial Woodhead.
Redden, J., Brand, J., Sander, I. y Warne, H. (2022). Automatización de los servicios públicos: aprendizaje del
laboratorio de justicia cancelada. Datos
https://www.carnegieuktrust.org.uk/publications/automating­public­services­
Sistemas.
learning from­cancelled­systems/ Riccucci, NM (2005). En sus propias palabras: las voces y
experiencias de Street­Level
243–245.
burócratas Administración Revisar, 65(2),
públicos . https://doi.org/10.1111/j.1540­6210.2005.00448.x
Richardson, R. (2022). Educación física. Revisión de la Ley de Maryland, 81(3), 785.
Rudin, C. (2019). Deje de explicar los modelos de aprendizaje automático de caja negra para decisiones de alto
riesgo y utilice modelos interpretables en su lugar. Nature Machine Intelligence, 1(5), Artículo 5. https://
doi.org/10.1038/s42256­019­0048­x
Sadowski, J. y Selinger, E. (2014). Creando una herramienta taxonómica para la tecnocracia y aplicándola a Silicon
Valley (Documento académico de SSRN n.º 2448338). Red de Investigación en Ciencias Sociales. https://
papers.ssrn.com/abstract=2448338 Saetra, HS
(2021). Una tipología de aplicaciones de IA en política. En A. Visvizi & M. Bodziany (Eds.), Inteligencia artificial y sus
contextos (págs. 24–37). Publicaciones internacionales de Springer. https://doi.org/10.1007/978­3­030­88972­2_1
Salamón, LM (2002). Las Herramientas de Gobierno: Una Guía para
la Nueva Gobernanza. Prensa de la Universidad de Oxford, Estados Unidos. https://search.ebscohost.com/login.aspx?
direct=true&scope=site&db=nlebk&db=nlabk& AN=1921000

29
Machine Translated by Google

Salmen, B. (2022). Discurso Presidencial: El Estado de AI. AAAI 2022. https://aaai


2022.virtualchair.net/plenary_2.html
Samoili, S., Cobo, ML, Delipetrev, B., Martinez­Plumed, F., Gomez, E., & De Prato, G. (2021).
Reloj AI. Definición de Inteligencia Artificial 2.0. Hacia una definición operativa y una taxonomía de la
IA para el panorama de la IA. Documentos de trabajo del JRC, JRC126426.
Schlagwein, D., Conboy, K., Feller, J., Leimeister, JM y Morgan, L. (2017). “Apertura” con y sin tecnología de
la información: un marco y una breve historia. Revista de tecnología de la información, 32(4), 297–305.
https://doi.org/10.1057/s41265­017­0049­3 Selbst, AD, Boyd, D., Friedler, SA, Venkatasubramanian,
S. y Vertesi, J. (2019). Equidad y Abstracción en Sistemas Sociotécnicos. Actas de la Conferencia sobre
Equidad, Responsabilidad y Transparencia, 59–68. https://doi.org/10.1145/3287560.3287598 Shinde,
PP y Shah, S. (2018). Una revisión de las aplicaciones de aprendizaje automático y aprendizaje
profundo.
2018 Cuarta Conferencia Internacional sobre Control y Automatización de las Comunicaciones
Informáticas (ICCUBEA), 1–6. https://doi.org/10.1109/ICCUBEA.2018.8697857 Shneiderman,
B. (2020). Inteligencia artificial centrada en el ser humano: confiable, segura y digna de confianza.
Revista internacional de interacción humano­computadora, 36 (6), 495–504.
Simón, HA (1947). Comportamiento administrativo: un estudio de los procesos de toma de decisiones en la
organización administrativa. Macmillan.
Simón, HA (1955). Un modelo del comportamiento de elección racional. El diario trimestral de
Economía, 69(1), 99–118. https://doi.org/10.2307/1884852
Simón, HA (1995). Inteligencia artificial: una ciencia empírica. Inteligencia artificial, 77(1), 95–127. https://
doi.org/10.1016/0004­3702(95)00039­H Sloane, M. y Moss, E.
(2019). El déficit de ciencias sociales de AI. Nature Machine Intelligence, 1(8), artículo 8. https://doi.org/10.1038/
s42256­019­0084­6 Smuha, NA (2021). Más allá del
individuo: Gobernando el daño social de AI. Política de Internet
Revisión, 10(3). https://doi.org/10.14763/2021.3.1574
Sousa, WG de, Melo, ERP de, Bermejo, PHDS, Farias, RAS, & Gomes, AO (2019).
¿Cómo y hacia dónde va la inteligencia artificial en el sector público? Una revisión de la literatura y
una agenda de investigación. Government Information Quarterly, 101392. https://doi.org/10.1016/
36(4),
j.giq.2019.07.004 Sovrano, F., Sapienza, S.,
Palmirani, M. y Vitali, F. (2022). Métricas, explicabilidad y la
Propuesta de Ley Europea de IA. J, 5(1), 126–138.
Starke, C., Baleis, J., Keller, B. y Marcinkowski, F. (2022). Percepciones de equidad en la toma de decisiones
algorítmicas: una revisión sistemática de la literatura empírica. Big Data & Society, 9(2),
20539517221115188. https://doi.org/10.1177/20539517221115189 Torraco, RJ
(2016). Escribiendo Reseñas Integrativas de Literatura: Usando el Pasado y el Presente para Explorar el
Futuro. Revisión de Desarrollo de Recursos Humanos, 15(4), 404–428. https://doi.org/
10.1177/1534484316671606
Tsvetkova, M., Yasseri, T., Meyer, ET, Pickering, JB, Engen, V., Walland, P., Lüders, M., Følstad, A. y Bravos,
G. (2017). Comprensión de las redes hombre­máquina: una encuesta interdisciplinaria. Encuestas
informáticas de ACM, 50(1), 12:1­12:35. https://doi.org/10.1145/3039868 Tummers, L. y Bekkers, V.
(2014). Implementación de políticas,
burocracia a nivel de calle y la importancia de la discreción. Revisión de la gestión pública, 16(4), 527–547.
https://doi.org/10.1080/14719037.2013.841978

30
Machine Translated by Google

Gobierno del Reino Unido. (2022). GOV.UK Data Labs (Oficina del Gabinete): Enlaces relacionados.
GOV.UK. https://www.gov.uk/government/publications/govuk­data­labs­cabinet­office­related
links/govuk­data­labs­cabinet­office­related­links
Asamblea general UN. (1948). Declaración Universal de los Derechos Humanos. Asamblea general UN,
302(2), 14–25.
van Noordt, C. y Misuraca, G. (2022). Inteligencia artificial para el sector público: resultados de la planificación
del uso de la IA en el gobierno de toda la Unión Europea. Government Information Quarterly, 39(3),
101714. https://doi.org/10.1016/j.giq.2022.101714 van Wynsberghe, A. (2021). IA
sostenible: IA para la sostenibilidad y la sostenibilidad de la IA. AI y Ética, 1(3), 213–218. https://doi.org/
10.1007/s43681­021­00043­6 Veale, M. (2020). Una visión crítica de las
recomendaciones políticas del Grupo de expertos de alto nivel de la UE sobre inteligencia artificial. Revista
Europea de Regulación de Riesgos, 11(1). https://doi.org/10.1017/err.2019.65 Vogl, TM, Seidelin,
C., Ganesh, B. y Bright, J. (2020).
Tecnología inteligente y el surgimiento de la burocracia algorítmica: inteligencia artificial en las autoridades
locales del Reino Unido. Revista de administración pública, 80(6), 946–961. https://doi.org/10.1111/
puar.13286 Watcher, S. (2022). La teoría de la inmutabilidad artificial: protección de
grupos algorítmicos bajo la ley contra la discriminación (Documento académico SSRN 4099100). https://
doi.org/10.2139/ssrn.4099100 Wachter, S., Mittelstadt, B. y Russell, C. (2020). Por No. qué no se puede
automatizar la equidad: cerrar la brecha
entre la ley de no discriminación de la UE y la IA (Documento académico de la SSRN n.º 3547922). https://
doi.org/10.2139/ssrn.3547922

Wang, P. (2019). Sobre la definición de la inteligencia artificial. Revista de Inteligencia General Artificial,
10(2), 1–37. https://doi.org/10.2478/jagi­2019­0002
Widder, DG y Nafus, D. (2022). Responsabilidades dislocadas en la cadena de suministro de IA: modularidad
y nociones de responsabilidad de los desarrolladores (arXiv: 2209.09780). arXiv. http://arxiv.org/abs/
2209.09780 Wirtz, BW, Weyerer,
JC y Geyer, C. (2019). Inteligencia artificial y el sector público: aplicaciones y desafíos. Revista Internacional
de Administración Pública, 42(7), 596– 615. https://doi.org/10.1080/01900692.2018.1498103 Zilka,
M., Sargeant, H., & Weller, A. (2022). Transparencia,
gobernanza y regulación de herramientas algorítmicas implementadas en el sistema de justicia penal: un
estudio de caso del Reino Unido. https://doi.org/10.1145/3514094.3534200 Zuiderwijk, A., Chen,
YC y Salem, F. (2021). Implicaciones del uso
de la inteligencia artificial en la gobernanza pública: una revisión sistemática de la literatura y una agenda
de investigación. Información Gubernamental Trimestral, 38(3). https://doi.org/10.1016/
j.giq.2021.101577

31
Machine Translated by Google

Agradecimientos

Los autores desean agradecer a Christopher Burr y David Leslie por proporcionar comentarios críticos en una
presentación inicial de esta investigación en una reunión del Programa de Políticas Públicas.

Contribuciones de autor

VJS desarrolló el marco, creó las visualizaciones y escribió el borrador inicial. DM revisó y comentó el borrador inicial.
JB revisó y comentó el borrador inicial y supervisó el proyecto. HM revisó y comentó el borrador final y aseguró la
financiación.
Todos los autores aprovaron el manuscrito final.

Conflicto de intereses

Los autores declaran no tener conflictos de intereses.

Fondos

Este trabajo fue apoyado por Towards Turing 2.0 bajo EPSRC Grant EP/W037211/1 y The Alan Turing Institute.

Información suplementaria

Un apéndice proporciona información sobre la búsqueda de revisión de la literatura. Las tablas y gráficos presentados
en este documento están disponibles para su reutilización en: https://ai­for­public­services.github.io/ai­gov­framework/.

32
Machine Translated by Google

Apéndice para la inteligencia artificial en el gobierno: conceptos,


estándares y un marco unificado

Vincent J. Straub1*, Deborah Morgan1,2, Jonathan Bright1* y Helen Margetts1,3

1
Instituto Alan Turing
2
AI CDT responsable, responsable y transparente,
Departamento de Ciencias de la Computación, Universidad de Bath
3
Instituto de Internet de Oxford, Universidad de Oxford, Oxford, Reino Unido

*
Autores para correspondencia: [email protected], [email protected]

A.1. Procedimiento para la búsqueda de revisión bibliográfica

En esta sección se describe cómo se ejecutó la revisión integrativa de la literatura. El primer paso fue identificar los objetivos
principales y las preguntas clave de interés. Esto se hizo mediante una lluvia de ideas sobre las brechas restantes en la
comprensión teórica de la IA en el gobierno, especialmente en términos de qué conceptos se usan más en el estudio de los
sistemas de gobierno basados en IA, tanto en la literatura técnica y de ciencias informáticas como en las ciencias sociales,
especialmente en la política. becas de estudios de ciencias, administración pública y políticas y, de manera más general, los
campos de la economía, la sociología y la psicología. Luego de una exploración preliminar de la literatura y el compromiso con
las revisiones sistemáticas existentes, esto resultó en la diferenciación entre tres dominios principales, el dominio operativo,
epistémico y normativo (ver Sección 3), para capturar los diferentes tipos de conceptos presentados en el discurso, como se
discute en el texto principal.

En segundo lugar, estos dominios se usaron para guiar y ordenar la literatura relevante (ilustrada en la Figura S1)
mediante una búsqueda por palabra clave. Para comenzar, se identificaron de 3 a 5 artículos 'semilla' para cada uno de los dominios

Figura A1. Ilustración del proceso de búsqueda de literatura. Las búsquedas de palabras clave se realizaron utilizando las bases de
datos bibliográficas Google Scholar y Semantic Scholar.

33
Machine Translated by Google

Tabla A1. Palabras clave adicionales para la búsqueda de literatura por dominio.

Dominio Palabras clave

Operacional “basado en datos”, “toma de decisiones”, “automatizado”, “soporte de decisiones”, “big data”, “ciencia de datos”, “análisis
predictivo”, “estadísticas”

Epistémico “ética”, “epistemología”, “saber”, “educación”

Normativo
“ética”, “normas”, “normas sociales”, “opinión pública”, “moral”, “estándares”

para representar los artículos más relevantes. Se realizó una búsqueda exploratoria de palabras clave para
cada dominio utilizando el motor de búsqueda de Google (www.google.com), con un sesgo intencional para
artículos impactantes e inclusivos. Se identificaron varias palabras clave para buscar algunos artículos semilla
que representan los tipos de publicaciones más relevantes de la siguiente lista: “gobierno”, “público”,
“administración”, “agencia”, “inteligencia artificial”, “aprendizaje automático”, “algorítmica”, “aplicación”,
“sistema”, “tipología”, “mapeo”, “clasificación”, “tipología”, “taxonomía”, “ontología”. En la Tabla A1 se
proporciona una lista completa de otras palabras clave utilizadas para cada dominio. Debido al énfasis en la
inclusión, también hubo un sesgo de facto hacia las publicaciones más antiguas y la literatura gris. Luego, el
contenido de los artículos semilla se revisó manualmente para compilar listas de palabras clave de búsqueda
adicionales para cada dominio.
Las listas de palabras clave se utilizaron para búsquedas en Google y dentro de los títulos,
resúmenes y palabras clave de todos los artículos en las bases de datos bibliográficas de Google Scholar
(www.scholar.google.com) y Semantic Scholar (www.semanticscholar.com). Los primeros 1000 resultados
fueron revisados, ordenados y, en el caso de Google Scholar, se seleccionaron los artículos de mayor
impacto, donde el impacto se relaciona con el número de citas. Este método se tomó para sobremuestrear y
recuperar una amplia gama de resultados de búsqueda.
Finalmente, el software de gestión de fuentes de investigación y el complemento Zotero Scholar Citation
se utilizaron para clasificar los elementos por citas. Luego se leyeron los resúmenes para identificar manualmente
los artículos que se centraban en temas relacionados con cada uno de los dominios identificados. Esto produjo
entre 8 y 15 artículos (incluidas las semillas) por dominio.

Referencias

Beloglázov, A. (2011). https://github.com/ Zotero Erudito Citas [JavaScript].


beloglazov/zotero­scholar­citations Sousa, WG de, Melo,
ERP de, Bermejo, PHDS, Farias, RAS, & Gomes, AO (2019).
¿Cómo y hacia dónde va la inteligencia artificial en el sector público? Una revisión de la literatura y
una agenda de investigación. Información Gubernamental Trimestral, 101392. https://doi.org/10.1016/
36(4),
j.giq.2019.07.004 Torraco, RJ (2016).
Escribiendo Reseñas Integrativas de Literatura: Usando el Pasado y el Presente para Explorar el Futuro.
Revisión de Desarrollo de Recursos Humanos, 15(4), 404–428. https://doi.org/
10.1177/1534484316671606 Zotero. (2020).
Zotero 5.0. Zotero. https://www.zotero.org/

34
Machine Translated by Google

Zuiderwijk, A., Chen, YC y Salem, F. (2021). Implicaciones del uso de la inteligencia artificial en la
gobernanza pública: una revisión sistemática de la literatura y una agenda de investigación.
Información Gubernamental Trimestral, 38(3). https://doi.org/10.1016/j.giq.2021.101577

35

También podría gustarte