Straub-AI-ConceptosIdeas (Esp)
Straub-AI-ConceptosIdeas (Esp)
Straub-AI-ConceptosIdeas (Esp)
1
Instituto Alan Turing
2
AI CDT responsable, responsable y transparente,
Departamento de Ciencias de la Computación, Universidad de Bath
3
Instituto de Internet de Oxford, Universidad de Oxford, Oxford, Reino Unido
*
Autores para correspondencia: [email protected], [email protected]
Abstracto. Los avances recientes en inteligencia artificial (IA) y aprendizaje automático (ML)
prometen mejorar el gobierno. Dadas las capacidades avanzadas de las aplicaciones de IA, es
fundamental que estas se integren mediante procedimientos operativos estándar, criterios
epistémicos claros y se comporten de acuerdo con las expectativas normativas de la sociedad.
Posteriormente, los académicos en múltiples dominios comenzaron a conceptualizar las
diferentes formas que pueden tomar los sistemas de IA, destacando tanto sus posibles
beneficios como sus dificultades. Sin embargo, la literatura sigue fragmentada, con investigadores
en disciplinas de ciencias sociales como administración pública y ciencias políticas, y los campos
de rápido movimiento de IA, ML y robótica, todos desarrollando conceptos en relativo
aislamiento. Aunque hay llamados a formalizar el estudio emergente de la IA en el gobierno,
falta una cuenta equilibrada que capture la amplitud completa de las perspectivas teóricas
necesarias para comprender las consecuencias de incorporar la IA en un contexto del sector
público. Aquí, unificamos los esfuerzos de las disciplinas sociales y técnicas mediante el uso de
mapas conceptuales para identificar 107 términos diferentes utilizados en el estudio
multidisciplinario de la IA. Los clasificamos inductivamente en tres grupos semánticos distintos,
que denominamos dominios (a) operativos, (b) epistémicos y (c) normativos. Luego, nos
basamos en los resultados de este ejercicio de mapeo al proponer tres nuevos conceptos
multifacéticos para estudiar los sistemas gubernamentales basados en IA (AIGOV) de una
manera integrada y con visión de futuro, que llamamos (1) aptitud operativa, ( 2 ) completitud
epistémica, y (3) prominencia normativa. Finalmente, ponemos estos conceptos a trabajar
usándolos como dimensiones en una tipología conceptual de AIGOV y conectando cada uno
con estándares de medición técnica de IA emergentes para fomentar la puesta en
funcionamiento, fomentar el diálogo interdisciplinario y estimular el debate entre aquellos que buscan remodelar la administración pú
Palabras clave: Gobierno, administración pública, inteligencia artificial, aprendizaje automático, sistema
automatizado, algoritmos, revisión, tipología, clasificación, ontología, tipología
1. Introducción
Avances recientes en inteligencia artificial (IA), definidos por el Grupo de expertos de alto nivel de la UE como
“sistemas que muestran un comportamiento inteligente mediante el análisis de su entorno y la adopción de medidas:
1
Machine Translated by Google
con cierto grado de autonomía—para lograr metas específicas” (AlaPietilä & Smuha, 2021), prometen mejorar el
gobierno (Margetts, 2022). Tras una década de progreso acelerado, predominantemente en el paradigma del
aprendizaje automático (ML) (Domingos, 2012), los sistemas de IA basados en datos contemporáneos representan
un cambio radical con respecto a la era de las tecnologías de la información y la comunicación (TIC) más simples
(Margetts, 1999). . Gracias a la disponibilidad de los recursos informáticos, junto con el aumento del tamaño de los
conjuntos de datos y los avances en las técnicas de modelado, pueden detectar patrones imperceptibles para los
humanos y ejecutar una gama cada vez mayor de tareas relacionadas con el gobierno (Brynjolfsson & Mitchell, 2017).
Las tecnologías de IA ya han sido adoptadas por varias agencias públicas, organizaciones que implementan
políticas gubernamentales y pueden contribuir a su desarrollo, con la esperanza de hacer que los servicios
gubernamentales sean más efectivos y receptivos. En el contexto de los Estados Unidos, un estudio integral encontró
que el 45 por ciento de las agencias federales habían experimentado con IA para 2020 (Engstrom et al., 2020). Las
tareas clave en las que los gobiernos han podido probar la IA para mejorar la prestación de servicios incluyen
detección, predicción y simulación (Margetts & Dorobantu, 2019).
Las aplicaciones notables van desde el reconocimiento facial en la vigilancia (Zilka et al., 2022) y la predicción de
reincidencia en la justicia penal (Kleinberg et al., 2018) hasta el uso de agentes virtuales en la automatización de
procesos (Ojo et al., 2019) y pronóstico necesidades futuras en servicios sociales (Bright et al., 2019).
Sin embargo, a medida que más agencias públicas comienzan a adoptar aplicaciones de IA, es fundamental que
estas se integren utilizando procedimientos operativos estándar, criterios epistémicos claros y estén alineados con las
preocupaciones normativas de la sociedad. Como señalan Köbis et al. (2022), esto se debe a que los sistemas de IA,
gracias a sus capacidades de aprendizaje, pueden actuar de forma autónoma y, a diferencia de las generaciones
anteriores de TIC, ejecutar una amplia gama de tareas previamente reservadas a los actores humanos (Rahwan et al., 2019).
La adopción de estas herramientas avanzadas está, a su vez, plagada de “tensiones de IA” (Madan & Ashok, 2022):
desafíos operativos y éticos relacionados con la equidad, la transparencia y la privacidad, entre otros.
De hecho, un creciente cuerpo de evidencia está revelando los peligros y dificultades de adoptar sistemas de IA,
especialmente en términos de su diseño algorítmico complejo (Adadi & Berrada, 2018) y datos de entrada sesgados
(Buolamwini & Gebru, 2018), junto con su rendimiento variable ( Dressel & Farid, 2018), fallas de funcionalidad (Raji
et al., 2022) e implementación desordenada (Köbis et al., 2022). El trabajo de estudio de casos ha arrojado más luz
sobre el tema, al revelar que la introducción de la IA puede generar cambios profundos y, en ocasiones, disruptivos
tanto en la estructura organizativa como en la agencia burocrática (Giest & Klievink, 2022), tanto a nivel nacional
como subnacional ( Vogl et al., 2020).
En respuesta a los daños sustanciales causados por las aplicaciones de IA existentes en las decisiones de
alto riesgo (McGregor, 2020; Rudin, 2019), ha habido llamados urgentes para cada etapa del ciclo de vida y la cadena
de valor de la IA, desde la educación y la investigación hasta el diseño y la adopción. — no existir en aislamiento
tecnológico sin una mayor contribución de los estudiosos del comportamiento humano, la ética, la cultura y el derecho
(Grosz et al., 2019; Veale, 2020; Widder & Nafus, 2022). Como resultado, muchas instituciones, investigadores y
líderes intelectuales han propuesto recientemente la noción de que los sistemas de IA deben estar 'centrados en el
ser humano'. Sin embargo, además de resaltar la necesidad de que los sistemas de IA sean confiables, seguros y
dignos de confianza para los humanos (Shneiderman, 2020), todavía no existe una definición consensuada de lo que
significa este término. En conjunto, el estudio emergente de la IA en el gobierno se caracteriza, por lo tanto, por un
gran interés por parte de una amplia variedad de disciplinas académicas (como explicaremos más adelante). Sin
embargo, esta variedad ha ido de la mano con cierta fragmentación en la teoría y la terminología, con investigadores
en administración pública, ciencias políticas, estudios de políticas y los campos de rápido movimiento de IA, ML y
robótica que desarrollan conceptos en relativo aislamiento. Esto está respaldado por el hecho de que la investigación
técnica generalmente no tiene en cuenta los puntos de vista no técnicos o el contexto de implementación más amplio:
una encuesta reciente de investigación de ML encontró que solo el 15%
2
Machine Translated by Google
los artículos justifican cómo su proyecto se conecta con una necesidad social y solo el 1% discute el potencial negativo
(Birhane et al., 2022). Además, debido a que los diferentes aspectos de la IA en el gobierno y la cooperación hombre
máquina en general se han estudiado a menudo en diferentes disciplinas, muchos de los conceptos que los
académicos usan se superponen en significado o se usan indiscriminadamente, como (para tomar solo algunos
ejemplos) los conceptos de 'comprensibilidad', 'inteligibilidad' y 'comprensibilidad' (Markus et al., 2021). Al mismo
tiempo, el creciente número de tipologías y taxonomías que se están desarrollando para comprender el uso de la IA
en el gobierno a menudo no reconocen y mucho menos se complementan entre sí, lo que perpetúa el "estado
fragmentado del conocimiento" (Wirtz et al., 2019) . Si bien los investigadores han destacado repetidamente este
problema (Sousa et al., 2019; Zuiderwijk et al., 2021), una descripción equilibrada de la IA para el gobierno centrada
en el ser humano (AIGOV), que ofrece un lenguaje conceptual compartido y captura la totalidad Se necesita una
amplitud de perspectivas disciplinarias para comprender las consecuencias de incorporar inteligencia artificial en el
gobierno, es una falta crítica.
En este artículo, unificamos los esfuerzos analíticos entre disciplinas sociales y técnicas mediante el uso de
mapas conceptuales para identificar más de 100 términos diferentes utilizados en el estudio multidisciplinario de la IA,
antes de agruparlos inductivamente en tres dominios semánticos, que denominamos: (1) operacional , (2) dominios
epistémicos y (3) normativos . Luego, nos basamos en los resultados de este ejercicio de mapeo al abstraer las
características esenciales de los términos en cada uno de estos dominios respectivos para proponer tres nuevos
conceptos multifacéticos para comprender y analizar AIGOV de una manera más unificada: (1) aptitud operativa , (2)
completitud epistémica, y (3) prominencia normativa. Finalmente, utilizamos estos conceptos como dimensiones para
construir una tipología conceptual de diferentes tipos de AIGOV y vincular cada uno con los estándares técnicos
emergentes de medición de IA, métricas recomendadas y métodos para la medición y evaluación de tecnologías de
IA (AIME Planning Team, 2021; British Standards Institution, 2022), en un esfuerzo por alentar la operacionalización
de conceptos, fomentar el diálogo interdisciplinario y estimular el debate entre aquellos que buscan remodelar la
administración pública con IA. Para motivar estas contribuciones, primero brindamos una descripción general de las
diferentes formas en que se ha abordado hasta ahora el estudio de la IA en el gobierno. Luego explicamos nuestro
método para mapear el estudio de la IA en tres dominios, antes de discutir cada dominio y los conceptos utilizados
para estudiar los atributos de los sistemas de IA utilizados en el gobierno. En la Sección 4, describimos tres nuevos
conceptos multifacéticos y presentamos una tipología de AIGOV, trazando vínculos entre cada dimensión y los
estándares de medición de IA existentes. Concluimos discutiendo las implicaciones de nuestra tipología para el campo
de la IA en el gobierno y destacamos futuras vías de investigación que anticipamos serán más apremiantes en el
futuro.
Para comprender la necesidad de una descripción más exhaustiva de AIGOV, debemos analizar más de cerca el
término 'AI' y considerar qué términos debemos usar para enmarcar su uso en un contexto del sector público.
Para hacerlo, primero definimos los sistemas de IA, antes de revisar cómo se ha definido hasta ahora la IA en el
gobierno en trabajos relacionados, centrándonos en qué conceptos han aparecido en intentos anteriores de ofrecer
una perspectiva unificada.
Si bien una máquina inteligente ('general') sigue siendo un concepto puramente hipotético y una definición
universalmente aceptada de IA sigue siendo difícil de alcanzar (Wang, 2019), los sistemas de IA actuales tienden a
centrarse en el software (por ejemplo, instrumentos de predicción de reincidencia) o estar vinculados a ciertos
dispositivos de hardware (p. ej., drones autónomos) (AlaPietilä et al., 2019). En cuanto a sus capacidades 'inteligentes',
las aplicaciones de última generación que usan modelos ML para lograr un rendimiento similar al humano en áreas específicas
3
Machine Translated by Google
Las tareas, incluidas las redes neuronales profundas (DNN) (Bengio et al., 2021), todavía se basan fundamentalmente en la
correlación y la asociación. Sin embargo, además de ayudar a reavivar el campo de la IA, están alentando a los investigadores
a construir puentes entre diferentes campos de investigación, como la visión por computadora, la comprensión del lenguaje
natural y el razonamiento del conocimiento. Esta integración emergente de ML intensivo en datos con enfoques simbólicos
más tradicionales junto con comentarios humanos (Salmen, 2022) está brindando un mayor apoyo a la promesa de la IA como
una tecnología de uso general (Brynjolfsson et al., 2018) y horizontal (Leslie, 2019) , uno que tendrá un impacto prolongado al
identificar soluciones en un sector que son generalizables a problemas en otros sectores.
Dado que buscamos una cuenta unificada de la IA en el gobierno, seguimos el camino definido por los estudios
sobre el potencial de la IA (Gil & Selman, 2019). A su vez, usamos el término 'sistema de IA' de manera amplia para referirnos
a un sistema basado en máquinas y basado en datos que puede completar, con cierto grado de autonomía y capacidad de
aprendizaje, una tarea cognitiva específica (o un conjunto de tareas), usando ML, computación de agentes, o técnicas
relacionadas. Como era de esperar, también se utilizan muchos otros términos en las discusiones sobre la IA en el gobierno;
El 'sistema algorítmico' y el 'sistema de decisión automatizado' ocupan un lugar destacado en los artículos legales y de política
(Richardson, 2022), por ejemplo. Adoptamos el 'sistema de IA', ya que podría decirse que distingue mejor a los sistemas
contemporáneos de las generaciones anteriores de tecnología informática en términos de su naturaleza única, basada en
datos y capacidades analíticas avanzadas (Pencheva et al., 2020). Sin embargo, la adopción de esta definición nos permite
realizar un análisis conceptual que no se limita solo a las aplicaciones basadas en ML existentes, aunque gran parte de la
erudición que cubrimos se centra en esto. Además, empleamos 'AIGOV' para enfatizar que todos los sistemas gubernamentales
de IA operan dentro de contextos sociales e institucionales. Esto alinea nuestro argumento con las explicaciones sociotécnicas
de los sistemas tecnológicos, no como componentes computacionales aislados, sino como entidades integradas en estructuras
más grandes que abarcan infraestructuras, operadores humanos y normas (Selbst et al., 2019). Dicho de otra manera, el
procesamiento de la información, desde la recopilación de datos de entrada hasta la predicción final o el resultado analítico,
implica varios pasos interconectados ejecutados tanto por humanos como por máquinas (Chen y Golan, 2016). Cuando se ve
de esta manera, como un tipo de 'red hombremáquina' (Tsvetkova et al., 2017), AIGOV puede considerarse una función del
ajuste entre el sistema (incluidos los agentes humanos y artificiales) y su entorno. (tarea y contexto institucional) (Rahwan et
al., 2019). En particular, esta concepción concuerda con el estudio original del comportamiento administrativo establecido por
Simon (1947, 1955).
Yendo más allá del problema de definir la IA, un tema más amplio que salió a la luz en la literatura anterior es la
cuestión de decidir qué conceptos y términos son relevantes y útiles para caracterizar los sistemas de IA de manera más
amplia. Muchas piezas conceptuales en la administración pública ya han llamado la atención sobre la necesidad de considerar
la interacción entre AIGOV y las características de su entorno, como el entorno organizacional y la complejidad de la tarea
(Bullock et al., 2020; Bullock, 2019; van Noordt & Misuraca, 2022). Más fundamentalmente, varias piezas especulativas han
argumentado durante mucho tiempo que la probabilidad de que las tecnologías de IA desplacen o aumenten las habilidades
de los actores humanos depende de manera crítica de cómo los diseñemos y concibamos (Barth y Arnold 1999; Brynjolfsson,
2022). Sin embargo, la erudición teórica informada por la última ola de IA en el gobierno aún es incipiente, y los académicos
están de acuerdo en que la teoría aún debe agregar valor real al trabajo de los profesionales (Giest & Klievink, 2022; Pencheva
et al., 2020). Una plétora de términos conceptuales y la falta de integración, especialmente entre las ciencias sociales y los
campos técnicos de la IA (Sloane & Moss, 2019), significa que los gobiernos luchan por saber qué ideas, principios y valores
priorizar en el desarrollo de la IA.
Los intentos anteriores de conceptualizar AIGOV han tendido a adoptar por defecto un pensamiento unidimensional.
Es decir, se han basado en gran medida en un solo punto de vista o concepto, entendido tanto como un concepto abstracto
4
Machine Translated by Google
idea que ofrece un punto de vista para comprender algún aspecto de la experiencia (p. ej., sesgo) y, de manera
relacionada, una imagen mental que se puede poner en práctica (p. ej., sesgo de medición), para discutir la IA.
Quizás lo más destacado, especialmente en los estudios que se basan en literatura anterior sobre gran escala,
los llamados "big data" (Mergel et al., 2016) y el surgimiento de la ciencia de datos (Provost & Fawcett, 2013), es
simplemente el enfoque en las capacidades analíticas avanzadas de las tecnologías básicas de IA, incluido ML,
procesamiento de lenguaje natural y visión por computadora, entre otros (Norvig & Russell, 2020).
Los términos que, en consecuencia, aparecen en gran medida en tales debates sobre el potencial de la IA en el
gobierno son "automatización", "predicción", "precisión" o "eficiencia". Otros ejemplos destacados incluyen
'discreción', en un contexto de administración pública (Bullock, 2019), o 'explicabilidad', en investigaciones más
recientes de ML (de Bruijn et al., 2022). Varios de estos estudios tienen un alcance avanzado, uniendo disciplinas
o descomponiendo cada concepto en subcomponentes. Por ejemplo, al considerar el "riesgo" de las herramientas
predictivas del sector público, Oswald (2018) tiene en cuenta tanto las perspectivas legales como los aspectos
prácticos del contexto sociotécnico. Sin embargo, muchos se ajustan a un enfoque personificado por Mehr (2017):
usan el término 'IA' estrictamente en un sentido computacional, destacando la capacidad de toma de decisiones
basada en datos de los sistemas de IA y distinguiendo diferentes sistemas predominantemente en términos del
dominio. o “problema de gobierno” (ibid) abordan, por ejemplo, “asignación de recursos” (Engstrom et al., 2020;
Misuraca et al., 2020; Samoili et al., 2021). Sin embargo, esta línea de razonamiento deja de lado muchos factores
éticos, legales e institucionales importantes que caracterizan la adopción real de diferentes aplicaciones de IA en
el gobierno.
Los análisis y marcos más estructurados y con información teórica a menudo aún recurren a categorías
simplificadas para distinguir AIGOV, como 'apto para la automatización' o 'apoyo [de decisión]' (Katzenbach &
Ulbricht, 2019). Sætra (2021), por ejemplo, combina los conceptos 'humanin the loop' (Green & Chen, 2019),
'autonomía', 'transparencia' y 'gobernanza' para diseñar una tipología de cinco tipos de 'sistemas políticos de IA'.
'. Sin embargo, no mencionan el "sesgo" o la "justicia", conceptos que posiblemente se han vuelto igualmente
importantes en las discusiones sobre la IA del gobierno (Mehrabi et al., 2022). Más allá de la ciencia política y la
administración pública, se pueden formular críticas similares a los intentos recientes de teorizar sobre los sistemas
de IA desde el exterior mediante la aplicación de conceptos de las ciencias sociales a los marcos de las ciencias
informáticas (Ballester, 2021). Dellermann et al. (2021), por ejemplo, desarrollan una taxonomía de los sistemas
humanos de IA para investigar la noción de 'inteligencia híbrida'. Sin embargo, su marco no diferencia entre los
sistemas basados en la 'confiabilidad' y la 'seguridad', dos de los conceptos más destacados que surgieron en los
debates políticos recientes sobre IA (Glikson & Woolley, 2020), y que posiblemente deban ser parte de cualquier
intento de conceptualizar el futuro de la colaboración humanoIA (Brundage et al., 2020). Por el contrario, una de
las taxonomías más exhaustivas de IA, el Marco de gestión de riesgos de IA desarrollado por el Instituto Nacional
de Estándares y Tecnología (NIST, 2022), incorpora explícitamente consideraciones de confiabilidad.
Sobre la base del trabajo anterior de la OCDE (2022), el marco del NIST considera los atributos de diseño técnico,
los atributos sociotécnicos y los principios rectores que contribuyen a la confiabilidad en su clasificación de riesgos
de IA.
Si bien el estudio de la IA en el gobierno está en constante evolución, las revisiones anteriores han
encontrado que el campo en su conjunto permanece fragmentado, ya que existe una clara falta de cruce entre las
diferentes literaturas (Wirtz et al., 2019). En los intentos conceptuales existentes de ofrecer una descripción formal
de los sistemas hombremáquina y la IA en el gobierno revisados anteriormente, encontramos un patrón similar.
Es decir, la mayoría de los estudios exhiben una deficiencia integradora: ponen en primer plano puntos de vista y
conceptos específicos a expensas de la amplitud y la unidad. Gran parte del trabajo en las ciencias sociales y
políticas enfatiza los desafíos éticos y legales que están en juego en la adopción de la IA; mientras que la
investigación en informática tiende a resaltar los aspectos computacionales y operativos que deben ser considerados. como señaló
5
Machine Translated by Google
Burr y Leslie (2022) al analizar los estudios sobre ética y gobernanza de la IA, abordar esta deficiencia y unir el campo
requiere un esfuerzo interdisciplinario sostenido y una consideración más rica de la naturaleza multifacética de AIGOV
y su adopción.
Para capturar la amplitud completa de las perspectivas analíticas necesarias para comprender AIGOV, avanzamos en
un enfoque ascendente y primero mapeamos inductivamente el estudio multidisciplinario de AI. Específicamente,
identificamos 107 conceptos que han aparecido con frecuencia en la literatura técnica, científica social y humanística
relacionada con el estudio de los sistemas de IA y sus atributos, y los agrupamos en tres dominios, que se detallan a
continuación. Al aislar estos conceptos, no estamos especificando qué conceptos deben estudiarse, sino que nuestro
propósito es detectar y, en última instancia, integrar las tendencias teóricas dominantes en el estudio actual de la IA en
el gobierno. Con esto en mente, luego nos basamos en los hallazgos de este ejercicio de mapeo al abstraer las
características esenciales de los términos en cada uno de los dominios respectivos para proponer tres nuevos conceptos
multifacéticos para estudiar AIGOV, antes de incorporarlos en una tipología para describir diferentes tipos de AIGOV
de una manera más unificada.
Los mapas conceptuales son un método para visualizar aspectos estructurales del conocimiento (Gowin & Novak,
1984; Lanzing, 1998). Seguimos a Friedman y Smiraglia (2013) al emplearlo para ayudar en la comprensión del
conjunto de conceptos relevantes para el estudio de la IA en el gobierno. Debido a que sostenemos que el uso de AI
GOV debe estudiarse de manera interdisciplinaria, dado que se trata de cuestiones que abarcan tecnología, ética,
derecho y política, cualquier mapeo debe examinar conceptos que se presentan con frecuencia en múltiples disciplinas.
Como método adoptado por científicos sociales con precedentes en ciencias de la información (es decir, grafos de
conocimiento y ontologías), consideramos apropiado el uso de mapas conceptuales para lograr este objetivo.
Seguimos un enfoque de tres pasos para mapear inductivamente conceptos clave utilizados para estudiar AIGOV.
Primero, recuperamos documentos que han tratado de clasificar diferentes tipos de AIGOV, o discutieron AI en relación
con el gobierno, tanto desde una perspectiva aplicada, orientada al estudio de casos como a través de una lente teórica,
en forma de análisis conceptuales, tipologías, y taxonomías (ver sección A.1 en el Apéndice para detalles del
procedimiento de búsqueda bibliográfica). En un segundo paso, clasificamos los artículos indexados para filtrar los
conceptos que aparecen con frecuencia en los estudios. Para ello, nos apoyamos en una revisión integrativa de la
literatura (Torraco, 2016). En concreto, estudiamos artículos que: (i) aparecieran en revistas especializadas de alto
impacto y primer nivel y en revistas interdisciplinares como Science y Nature; (ii) han sido muy citados; (iii) se llevaron
a cabo en conjunto con grandes entidades estatales o gobiernos. Finalmente, identificamos los conceptos empleados
en cada uno de estos artículos a través de una revisión manual, antes de agrupar cada uno de manera inductiva en
uno de los tres temas o dominios identificados durante una exploración preliminar de la literatura para guiar la revisión
integradora. En promedio, identificamos 1 concepto por artículo de investigación, con revisiones sistemáticas y literatura
gris que a menudo cubren varios términos. Un ejemplo reciente notable es proporcionado por Estévez Almenzar et al.
(2022) quienes ofrecen un extenso glosario de términos sobre IA, con un enfoque centrado en el ser humano. Las
etiquetas que damos a los tres dominios que usamos, definidos a continuación, son: el dominio (a) operativo, (b)
epistémico y (c) normativo .
6
Machine Translated by Google
Tabla 1. Conceptos utilizados en el estudio de sistemas basados en IA en el gobierno categorizados por dominio
(1) Operativo Exactitud "esta propiedad considera cómo los problemas de medición pueden afectar la forma Exactitud;
en que las muestras reflejan el dominio operativo previsto... [es una] noción de Precisión
comportamiento correcto" (Ashmore et al., 2021)
Adaptabilidad “la facilidad con la que se pueden realizar cambios en el [sistema] desplegado” generalizable
(Ashmore et al. 2021)
Autónomo “[lograr un] objetivo dentro de un alcance definido sin intervenciones humanas mientras autónomo
se adapta a las condiciones operativas y ambientales” (NIST en
Ezenkwu y Starkey, 2019)
Competencia “[el] conocimiento relevante o capacidades internas [que posee un sistema]” Capacidad
Discreción “El grado de libertad que un trabajador [profesional] puede ejercer en un Libertad
contexto específico y los factores que dan lugar a esta libertad en ese
contexto” (Evans, 2016)
Eficacia “la medida en que [un sistema] alcanza sus objetivos previstos” funcionalidad;
(Salamón, 2002) Actuación;
Éxito;
Eficiencia “el [sistema] que logra el equilibrio óptimo entre beneficios y costos” (Salamon Velocidad
2002)
Meta “el grado de acuerdo entre los objetivos de la política oficial o formal de los funcionarios preferencias
congruencia políticos y los objetivos operativos de las organizaciones o redes encargadas
de implementar esa política” (Meyers et al., 2001) “la facilidad o dificultad
Manejabilidad involucrada en operar [aplicaciones]. Cuanto más compleja y enrevesada sea la Implementable;
herramienta, cuantos más actores distintos participen, más probable es que sea controlabilidad
difícil de manejar” (Salamon 2002)
Significado “la percepción de los profesionales sobre los beneficios de implementar la [aplicación] Utilidad;
para sus propios clientes” (Tummers & Utilidad de cliente
Bekkers, 2014)
Fiabilidad “exhibiendo el mismo y esperado comportamiento a lo largo del tiempo” (Glikson y repetibilidad;
Woolley 2020) Consistencia;
Certeza;
previsibilidad
Robustez “la capacidad de resistir o sobrevivir a los choques externos, de ser estable a Resiliencia;
pesar de la incertidumbre” (Bankes 2010) Confianza;
Equilibrado;
tolerado
Seguridad “libertad de riesgo inaceptable… el estado de estar protegido de peligros reconocidos Seguridad;
que pueden causar daño” (Manuele, 2010) Integridad
usabilidad “la relativa facilidad con la que un novato maniobra alrededor de [una interactividad
aplicación]” (Baker, 2009) “una
(2) Epistémico Auditabilidad “evaluación de la conformidad [de un sistema de IA] con las Trazabilidad
reglamentaciones, normas y directrices aplicables” (IEEE en Raji et al.,
Complejidad 2020) “compuesta por numerosas identidades (partes) que interactúan, cada una de Especificación;
las cuales se comporta en su contexto local de acuerdo con algunas regla(s), Comprensible
ley(s) o fuerza(s)” (Maguire & McKelvey, 1999)
Integral "[el alcance del] enfoque sistemático para identificar fallas debido a malentendidos conceptuales Cobertura
y fallas" (Ashmore et al. 2021) "asociado con la noción de explicación como
explicabilidad una interfaz entre los humanos y un tomador de decisiones que es, al mismo Modelo mental;
tiempo , tanto un proxy preciso del tomador de decisiones como comprensible Caja negra
para los humanos”
(Guidotti et al. 2018) “la
7
Machine Translated by Google
reproducibilidad “la capacidad de un equipo de investigación independiente para producir los mismos Replicabilidad
resultados usando el mismo método de IA basado en la documentación realizada
por el equipo de investigación original” (Gundersen & Kjensmo, 2018) “la
Comprensibilidad “la característica de un modelo para hacer que un ser humano comprenda su función... Inteligibilidad
sin necesidad de explicar su estructura interna o los medios algorítmicos por los
cuales el modelo procesa los datos”
(Montavon et al., 2018)
(3) Normativa Accesibilidad “[la medida en que un sistema] permite que las personas con discapacidad Tangibilidad;
interactúen con [él]” (Henry et al., 2014) Disponibilidad;
Utilidad
Responsabilidad “la capacidad de determinar si una decisión se tomó de acuerdo con los estándares Garantía;
procesales y sustantivos y responsabilizar a alguien si no se cumplen esos impugnabilidad;
estándares” (DoshiVelez et al. 2017) Responsable;
Inclinación “resultados que no se desean” (Hellström et al., 2020) Error; Dañar;
Discriminación
Inmediación puede estar obligado a decidir rápido… o no” (Oswald, Marion, 2018)
Restricciones de tiempo;
Temporalidad
No maleficencia "'no hacer daño'... La IA no debe infringir la privacidad ni socavar la seguridad" (Floridi Beneficencia
y Cowls 2019)
Vigilancia “juicio humano en el momento en que un algoritmo emite una predicción o decisión Humano en el
específica” (Green, 2022) circuito; Humano en
el circuito;
Humano al
mando
Viabilidad “si el público en general y los agentes políticamente activos consideran una herramienta Legitimidad;
política legítima y políticamente factible” (Salamon 2002) Politización
Privacidad “el deseo [y la capacidad] de los individuos para controlar o tener alguna Confidencialidad;
influencia sobre los datos sobre sí mismos” (Bélanger & Crossler, 2011) Autonomía
Riesgo “el efecto de la incertidumbre sobre los objetivos… el efecto del conocimiento Incertidumbre;
incompleto de eventos o circunstancias en la toma de decisiones” (ISO, 2009) Consecuencia;
Peligro
Gravedad “el peso del impacto sobre los derechos o libertades de las personas” Impacto
(Osvaldo 2018)
Sostenibilidad “cambio en todo el ciclo de vida de los productos de IA (es decir, generación de Ambiental
ideas, capacitación, reajuste, implementación, gobernanza) hacia una mayor
integridad ecológica y justicia social” (van Wynsberghe, 2021) “disposición a
Confiable depender de otra parte porque el individuo carece control sobre el otro” (Mayer et al., Benevolente
1995)
Las definiciones presentadas anteriormente se derivan de los artículos identificados en la revisión de la literatura o fuentes de referencia común. El dominio se refiere a un campo de estudio
relacionado con preguntas específicas sobre una actividad en particular, en este caso, el comportamiento de los sistemas basados en IA en el gobierno. Cada concepto se agrupa bajo
el dominio que refleja su uso predominante en la literatura académica en base a los resultados de una revisión de la literatura (ver Métodos para más detalles). Otra razón para
agrupar conceptos bajo un solo dominio es la claridad de la presentación. Las palabras entre corchetes son adiciones propias de los autores.
8
Machine Translated by Google
Para designar los dominios que usamos para agrupar conceptos, nos inspiramos en tres líneas de trabajo; en
primer lugar, la investigación de la administración pública que enfatiza el comportamiento y las creencias de los burócratas
para influir en el desempeño operativo (Riccucci, 2005). En segundo lugar, la seguridad informática trabaja en el
razonamiento sobre las propiedades relacionadas con el conocimiento de un sistema tecnológico (Dechesne et al., 2007).
Y en tercer lugar, la visión de los filósofos morales de que las preguntas sobre las implicaciones sociales de la IA dependen
de las decisiones políticas sobre cuestiones normativas (Erman & Furendal, 2022). Los conceptos en cada uno de los tres
dominios no son necesariamente sinónimos, pero todos se usan para discutir AIGOV de manera similar. Cada dominio,
por lo tanto, funciona vagamente como un 'campo semántico', un conjunto de palabras que comparten un significado
central relacionado con un tema específico (Adrian et al., 2001). Aunque algunos conceptos se usan de múltiples formas
contextuales, adoptamos un enfoque pragmático y agrupamos cada uno en el dominio que captura su significado y uso
original. Cuando los conceptos exhiben una gran similitud semántica, como se refleja en su uso complementario o
intercambiabilidad en los estudios revisados, distinguimos entre el concepto central y los términos relacionados en función
de la prevalencia de uso.
En total, nuestro enfoque de mapas conceptuales nos llevó a identificar 37 conceptos centrales y 70 términos relacionados.
Seleccionamos los términos más comunes y más utilizados para tratar de capturar de manera integral la gama completa
de clases conceptuales presentes en la literatura. Los términos que describimos son relevantes específicamente para el
contexto del sector público, son pertinentes ahora o marcan tendencias para el trabajo futuro. En la Tabla 1 se presenta
una lista de todos los términos junto con las definiciones de los conceptos centrales. En la Figura 1 se muestra un mapa
conceptual que muestra todos los términos y el dominio con el que se relacionan. Todos los dominios tienen una cantidad
similar de términos, incluidos los conceptos centrales y los conceptos relacionados. términos. De los 37 conceptos
identificados, agrupamos 15 (41%) en el dominio operativo, junto con 27 de los 70 términos relacionados (39%). En
promedio, cada concepto tiene aproximadamente 2 términos relacionados, el valor más bajo es 1 y el más alto es 4.
Mientras tanto, 9 (24%) de los 37 conceptos identificados se agrupan en el dominio epistémico, junto con 15 de los 70
términos relacionados (21). %). Aquí, cada concepto tiene en promedio aproximadamente 2 términos relacionados, el valor
más bajo es 1 y el más alto 3. Finalmente, de los 37 conceptos que identificamos, 13 (35%) pertenecen al dominio
normativo, junto con 28 de los 70 términos relacionados. (40%). En promedio, cada concepto tiene aproximadamente 2
términos relacionados, el valor más bajo es 1 y el más alto es igual a 4.
Si bien el mapeo de conceptos que presentamos en la Figura 2 está casi equilibrado, un hallazgo notable es el
número absoluto de palabras operativas totales (n = 41), incluidos los conceptos centrales y el término relacionado, y el
hecho de que este dominio presenta relativamente más conceptos que cualquiera de los dos. dominio epistémico o
normativo. Esto es sorprendente dado que gran parte del discurso político actual en el estudio de la IA en el gobierno parte
de la premisa de que los sistemas de IA implementados funcionan y funcionan como se espera. Es decir, los conceptos
del dominio operativo a menudo se consideran de importancia secundaria en comparación con otros desafíos éticos y
normativos, lo que significa que a menudo se dejan de lado por completo. En su revisión del panorama de las pautas de
ética de la IA, Jobin et al. (2019), por ejemplo, encontró que solo un número limitado considera el potencial de los sistemas
de IA que no funcionan como se anuncia. Como señalan Raji et al. (2022), muchas de las estrategias, directrices,
propuestas, posiciones políticas e intervenciones actuales en el campo de la IA para el gobierno se hacen eco de narrativas
exageradas de superinteligencia, amplia aplicabilidad, generalización y consistencia, que de otro modo se promueven en
los materiales de marketing corporativo, la corriente principal. medios de comunicación y algunas investigaciones
académicas (Crawford, 2022; Pineau et al., 2021). En contraste con estas narrativas, nuestros hallazgos sirven para ilustrar
y subrayar la importancia de considerar los problemas operativos en el despliegue de sistemas de IA.
9
Machine Translated by Google
Figura 1. Conceptos que se utilizan con frecuencia para estudiar los sistemas basados en IA en el gobierno. Un mapa conceptual conecta el
dominio operativo, epistémico y normativo (nodos de primer nivel) conceptos centrales (nodos de segundo nivel) y términos relacionados (nodos
de tercer nivel). Consulte la Tabla 1 para obtener una definición de cada concepto. El tamaño de los nodos y el peso de los arcos son solo para
fines ilustrativos y no codifican información adicional.
Significativamente, este hallazgo refleja el creciente interés en los problemas relacionados con la funcionalidad
ML dentro de la industria y la academia. Es decir, en los últimos años, la investigación sobre la documentación y los
informes de ML han comenzado a ofrecer a los científicos y profesionales de datos formas de documentar la información
relacionada con los datos y los modelos que utilizan, como la procedencia, las estadísticas, las partes responsables, etc.
(Bhat et al., 2022). Los ejemplos destacados incluyen etiquetas de nutrición de datos (Holland et al., 2018), tarjetas
modelo (Mitchell et al., 2019) y hojas de datos para conjuntos de datos (Gebru et al., 2021). Este movimiento no
regulado hacia la documentación para mejorar la reproducibilidad y la rendición de cuentas, que Gansky y McDonald
(2022) denominan "maximalismo de metadatos", inevitablemente tiene sus deficiencias. Los datos sobre los sistemas
de IA a menudo se anuncian de manera imprecisa a una audiencia no especificada, mientras que se comparte poca
información sobre la cadena de suministro más grande de IA (Widder & Nafus, 2022). Sin embargo, está ayudando a
poner en primer plano muchas de las trampas metodológicas del ML, incluida la fuga de datos, y llamar la atención
sobre el potencial de una crisis de reproducibilidad en ciertas áreas de la investigación del ML (Kapoor & Narayanan
2022). En general, por lo tanto, está claro que los conceptos operativos deben tener una mayor presencia en las
discusiones sobre la adopción de la implementación de sistemas de IA, dentro del gobierno y en otros lugares.
10
Machine Translated by Google
Dominio operacional
Las disciplinas primarias más representadas en este dominio, como lo reflejan las fuentes de los conceptos
destacados en términos de afiliaciones de revistas y autores, son ingeniería, informática y administración
pública, siendo las dos últimas las que aparecen con mayor frecuencia (quizás reflejando el hecho de que
ambas comparten una historia intelectual; véase, por ejemplo, Rahm, 1999). Esto se evidencia por la existencia
de campos interdisciplinarios en nuestra revisión, como la investigación operativa, preocupada por desarrollar
métodos analíticos para mejorar la toma de decisiones, incluidos los contextos gubernamentales.
El significado y el tema específico compartido por los conceptos en el dominio operativo se relacionan
en términos generales con la comprensión de las actividades rutinarias y el funcionamiento de AIGOV, una
aplicación, administración, actor(es) burocrático(s) o política de IA en particular. Cada uno de los conceptos se
discute dentro de los estudios revisados principalmente, pero no exclusivamente, desde un punto de vista
técnico y aplicado. Es decir, a menudo se emplean tanto como una idea abstracta (p. ej., 'precisión') como
operacionalizados para medir cuantitativamente un atributo específico de un sistema de IA en particular (p. ej.,
'porcentaje de predicciones correctas'). La característica común de todos los conceptos en este dominio,
independientemente de cómo se pongan en práctica, es un énfasis en la descripción de requisitos o atributos
funcionales específicos de AIGOV. Esto refleja lo que podría decirse que es único acerca de los conceptos de
dominio operacional, a saber, el hecho de que la mayoría se puede especificar en un lenguaje técnico común o
cuantificar fácilmente (Dechesne et al., 2007), lo que permite la descripción sucinta y la comparación de sistemas.
En cuanto a las características terminológicas particulares de los conceptos del dominio operativo,
éstas pueden dilucidarse zonificando un concepto particular. La 'robustez' se define como la “capacidad de
resistir o sobrevivir a las perturbaciones externas, de mantenerse estable a pesar de la incertidumbre” (Bankes,
2010). Se utiliza en diversos campos científicos, desde la química hasta la biología y la ingeniería, donde se
refiere a la confiabilidad funcional ante la presencia de una eventual falla. La teoría organizacional también tiene
una noción del concepto, usándolo para describir la “capacidad de una organización para retener su patrón
fundamental y características centrales bajo condiciones cambiantes” (Capano & Woo, 2017). Junto con la
'resiliencia', la robustez suele ser el valor más asociado con la toma de decisiones del gobierno, especialmente
en tiempos de crisis (ibíd.); Podría decirse que ambos términos también captan el beneficio potencial que la IA
puede aportar al gobierno (MacArthur et al., 2022). Además, existe una literatura antigua y amplia sobre métricas
de robustez (Oss & Hek, 2011), lo que demuestra la importancia que el concepto también tiene para los
profesionales, diseñadores e ingenieros. En resumen, su amplio alcance, mensurabilidad y consistencia en el
significado ilustran hasta qué punto la robustez, ilustrativa de muchos conceptos de dominio operacional, se
entiende y define comúnmente. En línea con esta expectativa, es un término que aparece regularmente en
publicaciones gubernamentales de alto nivel sobre el uso de la IA (Hamon et al., 2020).
Juntos, los conceptos operativos son fundamentales para analizar los atributos de AIGOV. Sin
embargo, no son suficientes, ya que abordan la cuestión de comprender cómo funcionan los componentes
materiales de un sistema de IA o cuáles son para empezar. En consecuencia, estas propiedades 'relacionadas
con el conocimiento' de AIGOV han adquirido una importancia conceptual dentro de los estudios de IA, dada la
naturaleza cada vez más compleja, distribuida y en red de los sistemas de IA. Por lo tanto, cualquier
conceptualización de AIGOV deberá tener en cuenta esta línea de investigación y los conceptos relacionados.
dominio epistémico
En el dominio epistémico, las disciplinas y campos más representados son la filosofía moral, la psicología, la
ciencia política y la administración pública. Más recientemente, a medida que la ética y la gobernanza de la
literatura AIGOV ha ganado importancia académica y pública (Jobin et al.,
11
Machine Translated by Google
2019), otras áreas, especialmente el campo de ML, han hecho un uso extensivo de los conceptos presentados
en este grupo, así como también han contribuido a su desarrollo. Esto se refleja en el hecho de que muchos de
los artículos revisados se dirigen tanto a las ciencias de la computación como a las ciencias sociales.
Se entiende que los conceptos de dominio epistémico se ocupan predominantemente de los atributos
relacionados con el conocimiento, o la comprensión de AIGOV, que aquí se consideran para incluir una
aplicación, administración, actor(es) burocrático(s) o política de IA en particular. Es decir, los conceptos de
dominio epistémico tienen como objetivo describir las propiedades que pertenecen a las interacciones entre los
actores humanos y la interfaz entre las aplicaciones de IA y los actores humanos. Tanto en términos de
conocimiento, creencias e intenciones de aquellos que utilizan aplicaciones de IA (p. ej., un deseo de 'apertura')
como de las propiedades internas del propio sistema (p. ej., su 'comprensibilidad'). Dado que AIGOV representa
un cambio radical con respecto a las TIC debido, entre otros factores, a su mayor complejidad técnica, los
conceptos de dominios epistémicos han aumentado en uso e importancia a medida que ha crecido esta
complejidad. Su uso contextual específico suele ser doble; se emplean analíticamente para resaltar problemas
epistémicos relacionados con AI GOV (p. ej., 'reproducibilidad') (Gundersen & Kjensmo, 2018), y se adoptan de
manera técnica para mejorar el conocimiento del sistema (p. ej., 'interpretabilidad') (Molnar, 2020) .
El uso definitorio en evolución de los conceptos de dominio epistémico se puede ilustrar más a través
de un ejemplo. La 'explicabilidad' se asocia con "la noción de explicación como una interfaz entre los humanos y
un tomador de decisiones que es, al mismo tiempo, un representante preciso del tomador de decisiones y
comprensible para los humanos" (Guidotti et al., 2018). Con el advenimiento de los llamados modelos ML de
"caja negra", expresados en fórmulas que son demasiado complicadas para que cualquier ser humano las
interprete, comprenda y explique completamente (por ejemplo, DNN), o patentadas, de modo que uno no puede
examinar su funcionamiento interno (Rudin , 2019), el concepto de explicabilidad se ha vuelto ampliamente
utilizado en los estudios de IA (Adadi & Berrada, 2018). Sin embargo, no existe una definición universalmente
aceptada del término (Doran et al., 2017). Al mismo tiempo, existe un vasto cuerpo de investigación que abarca
la filosofía, la psicología y la ciencia cognitiva sobre cómo las personas definen y evalúan las explicaciones, que
solo se está infundiendo gradualmente con la investigación de IA (Miller, 2019). En conjunto, este enfoque
semántico sobre la relación de conocimiento entre agentes y sistemas, el uso contextual variado y la adopción
generalizada a pesar de la falta de una definición estándar, captura a su vez la esencia de los conceptos de
explicabilidad y dominio epistémico en general. Aunque a menudo se consideran intrínsecamente útiles y vale la
pena seguirlos en un contexto gubernamental, los conceptos de dominio epistémico pueden distraer la atención
de los factores materiales y más explícitamente políticos que caracterizan a AIGOV tal como existen en el
mundo real y cargado de valores del gobierno. En otras palabras, debido a que las cantidades que AIGOV busca
optimizar deben ser especificadas por sus usuarios, los conceptos de dominio epistémico pueden describir si los
operadores humanos de AIGOV son explícitos acerca de sus objetivos, lo que potencialmente expone las
compensaciones de políticas previamente ocultas ( Coyle y Weller, 2020); sin embargo, no captan la gama
completa de factores que influyen en estos objetivos y compensaciones.
Dominio normativo
Volviendo finalmente al dominio normativo, las disciplinas más representadas en este dominio son la ética, la
ciencia política y el derecho, seguidas por los estudios de interacción humanocomputadora y la informática.
Los conceptos de dominio normativo han tendido a ser competencia del primero pero, más recientemente, los
subcampos de IA, ML y robótica han contribuido a su uso y desarrollo. Similar al dominio epistémico, esto se
puede ver por el hecho de que algunos conceptos de dominio normativo (p. ej., 'imparcialidad' y 'responsabilidad')
se han convertido en áreas de investigación prósperas dentro de las ciencias de la computación por derecho
propio (Laufer et al., 2022) .
12
Machine Translated by Google
Con base en nuestro mapeo de la IA en el campo del gobierno, sostenemos que se necesita un nuevo marco
conceptual para integrar las diversas líneas conceptuales que actualmente impregnan la erudición. Aquí
tratamos de hacerlo de la siguiente manera: primero proponemos tres conceptos nuevos y multifacéticos para
estudiar AI GOV, antes de usarlos para construir una nueva tipología conceptual de AIGOV. Una 'tipología', a
veces llamada 'espacio de propiedades', se define como un método para clasificar las observaciones en
términos de sus atributos y como el desarrollo de teorías sobre configuraciones de variables que constituyen
tipos conceptuales. Entendemos y usamos el término principalmente en el último sentido: como un sistema
organizado que descompone un fenómeno general, en este caso AIGOV, en dimensiones componentes
(George & Bennet, 2005). Para desarrollar nuestra tipología, seguimos a O'Raghallaigh (et al., 2010), y nos
enfocamos en explorar la dimensionalidad y refinar la medición de los conceptos que proponemos, en lugar de
clasificar exhaustivamente todos los diferentes tipos de AIGOV. Además, al proponer conceptos multifacéticos,
constituidos por múltiples elementos, nos inspiramos en las recomendaciones de una revisión reciente de
cómo los estudios anteriores han intentado clasificar los sistemas de IA, que enfatiza la necesidad de integrar
información y ofrecer conceptos que se puede esperar que permanecer estables y útiles en el tiempo (Mökander
et al., 2022).
13
Machine Translated by Google
La teorización en la administración pública ha estado dominada en gran medida por conceptos únicos,
construcciones de tipo ideal (Bullock et al., 2022). Sin embargo, según los resultados de nuestro mapeo
conceptual, argumentamos que la naturaleza interdisciplinaria de AIGOV requiere el desarrollo de conceptos
nuevos y multifacéticos que capturen mejor las complejidades de los fenómenos sociotécnicos de AIGOV y
fomenten el diálogo interdisciplinario. Nuestra conceptualización está así motivada por el deseo de llegar a una
audiencia multidisciplinaria y el deseo de cumplir con los criterios recomendados por las ciencias sociales para
el desarrollo de conceptos. Por lo tanto, para lograr esto último, hemos seguido a Gerring (1999) y nos hemos
asegurado de que nuestros conceptos estén acotados (es decir, operacionalizables), posean profundidad (es
decir, acompañen las propiedades compartidas por las instancias bajo definición) y ofrezcan utilidad teórica (es
decir, son útiles dentro de un campo más amplio de inferencias).
aptitud operativa
La primera dimensión que proponemos es la aptitud operativa. Se centra en las capacidades funcionales y las
posibles ventajas de rendimiento que un sistema de IA podría tener sobre los sistemas existentes, en términos
cognitivos, computacionales y organizativos. Más específicamente, se relaciona con las capacidades
computacionales internas de un sistema, la medida en que se puede esperar que el sistema opere de acuerdo
con los estándares de funcionamiento de rutina y qué tan bien se desempeña en una tarea cognitiva determinada
en comparación con otros agentes. Formalmente, lo definimos como:
El grado en que la composición y las funciones de un sistema gubernamental que incorpora una
aplicación de IA (o un conjunto de aplicaciones) se alinea con los estándares codificados de
organización y construcción y funcionamiento del sistema requeridos para operar en un entorno
particular, y la medida en que se puede esperar. para superar a otros agentes en una tarea cognitiva
específica (o conjunto de tareas)
A medida que los sistemas de IA se acercan o superan la precisión del "nivel humano" en un número cada vez
mayor de dominios (Bengio et al., 2021; Nguyen et al., 2018; Shinde & Shah, 2018), las afirmaciones confiables
sobre las tasas de éxito relativo de los sistemas de IA dependerá de evaluaciones rigurosas de su
comportamiento y desempeño (Cowley et al., 2022). Dependiendo de la tarea, esto puede implicar el desarrollo de nuevos
14
Machine Translated by Google
Dimensión Definición
aptitud operativa El grado en que la composición y funciones de un sistema de gobierno que incorpora un
La aplicación (o conjunto de aplicaciones) de IA se alinea con los estándares codificados de organización y construcción
y funcionamiento del sistema requeridos para operar en un entorno particular, y la medida en que se puede esperar
que supere a otros agentes en una tarea cognitiva específica (o conjunto de tareas ); proporcionando evidencia
de si el sistema en su forma actual es adecuado para su propósito y puede ofrecer ventajas de rendimiento
Completitud epistémica El grado en que los datos y la información sobre la composición y las funciones de un sistema
gubernamental que incorpora una aplicación de IA (o un conjunto de aplicaciones) se alinea con los estándares
codificados de intercambio de conocimientos; proporcionando así evidencia de si las afirmaciones sobre la aptitud
operativa de un sistema están justificadas
prominencia normativa
El grado en que el comportamiento observado de un sistema gubernamental que incorpora una aplicación de IA
(o un conjunto de aplicaciones) en su entorno actual, incluidas las consecuencias del comportamiento del sistema,
se alinea con los estándares institucionales formales y las percepciones de comportamiento aceptable de
las partes afectadas; proporcionando así evidencia de si se puede esperar que el sistema en su forma actual persista
Cada dimensión se puede aplicar a los sistemas de estudio en dos escalas de investigación: aquellos que incorporan una sola aplicación de IA y aquellos que incorporan múltiples
aplicaciones de IA. Es probable que las partes afectadas de un sistema basado en IA incluyan desarrolladores (diseñadores, ingenieros y expertos en el dominio), gerentes
(administradores públicos y burócratas de nivel de ventanilla) y usuarios finales afectados por el sistema basado en IA a nivel sistémico y social. nivel (ciudadanos).
métodos para comparar humanos y sistemas basados en IA en comparaciones "equitativas" (Firestone, 2020),
que darían cuenta de las diferentes limitaciones de rendimiento que enfrentan los agentes competidores, o
desarrollar nuevos puntos de referencia de medición al usar IA y ciencia de datos para tareas gubernamentales
que los humanos no pueden hacer (MacArthur et al., 2022). La aptitud operativa tiene como objetivo tener esto
en cuenta al considerar tanto la competencia (capacidades internas) de un sistema como su desempeño en
comparación con otros.
De acuerdo con las características centrales de los conceptos del dominio operativo, la idoneidad
operativa tiene como objetivo proporcionar una visión aproximada de si el sistema en su forma actual es
funcionalmente adecuado para su propósito. En términos de gestión, su objetivo es describir qué tan bien
funciona un sistema frente a restricciones tanto externas como internas. Siguiendo a Simon (1995), aquí también
se puede trazar una analogía entre la medición del rendimiento de un sistema de IA y el concepto biológico de
'aptitud darwiniana', en el sentido de que la naturaleza genera sistemas o modifica los existentes y luego prueba
su capacidad para sobrevivir en el entorno ambiental. (ibídem). AIGOV experimenta el mismo proceso, excepto
que el generador (el proceso de diseño) tiene más propósito y las pruebas (los propósitos que tienen en mente
los diseñadores) van más allá de la aptitud biológica. En resumen, la idoneidad operativa, por lo tanto, tiene
como objetivo describir si se puede esperar que un AIGOV en particular, basado simplemente en su diseño,
funcione de manera efectiva y continúe operando según lo previsto.
Completitud epistémica
La segunda dimensión que proponemos, a la que llamamos completitud epistémica, se relaciona con cómo las
partes afectadas, y los actores humanos en general, perciben y conocen las funciones de un AIGOV en
particular. Responde a la observación de que nuestra capacidad para usar y resolver problemas usando IA para
progresar depende en gran medida de procesos epistémicos: cómo se produce y distribuye la información, y las
herramientas y procesos que usamos para tomar decisiones y evaluar afirmaciones (Clarke & Whittlestone,
2022). ). Formalmente, lo definimos como:
El grado en que los datos y la información sobre la composición y las funciones de un sistema de
gobierno que incorpora una aplicación de IA (o un conjunto de aplicaciones) se alinea con los estándares
codificados de intercambio de conocimientos.
15
Machine Translated by Google
Tabla 3. Características de las dimensiones propuestas para clasificar los sistemas basados en IA en el gobierno
aptitud operativa Básico El sistema basado en IA cumple con los puntos • ISO/IEC DTS 4213.2 Evaluación de
de referencia críticos en los estándares básicos de Clasificación de aprendizaje automático
aptitud operativa, especialmente en términos Desempeño •
de efectividad. Los componentes de la aplicación satisfacen Pruebas de gobernanza de IA en Singapur
los objetivos principales Kit de herramientas del marco
Intermedio El sistema basado en IA supera los puntos de referencia • ISO/IEC TR 240291:2021 Artificial
críticos en los estándares básicos de aptitud Inteligencia (IA): evaluación de la solidez de las
operativa, especialmente en términos de eficacia y seguridad. redes neuronales • ISO/IEC TR
Los componentes de la aplicación satisfacen los objetivos 24027:2021 Información
principales tecnología — Inteligencia artificial (IA) —
Avanzado El sistema basado en IA cumple o supera los puntos Sesgo en los sistemas de IA y la toma de decisiones
de referencia en todos los estándares de aptitud asistida
operativa, incluso en términos de eficacia, seguridad, por IA • Tarjetas modelo para informes modelo en
confiabilidad, usabilidad y adaptabilidad. Mitchell et al., 2019
Los componentes de la aplicación satisfacen todos los objetivos
Completitud Nominal Los datos y la información sobre el sistema basado en • Estándar de transparencia algorítmica del Reino Unido
epistémica IA cumplen con los puntos de referencia críticos en los • Estándares de metadatos del Reino Unido para compartir
estándares básicos de integridad epistémica, especialmente y publicar datos •
en términos de transparencia. El conocimiento sobre el
Estándar IEEE para XAI (inteligencia artificial
sistema es incompleto.
explicable) para lograr claridad e interoperabilidad
Disperso Los datos y la información sobre el sistema basado en en el diseño de sistemas de IA* • Estándar IEEE
IA superan los puntos de referencia críticos en los 70012021
estándares básicos de integridad epistémica, especialmente para la transparencia de sistemas
en términos de transparencia y explicabilidad. autónomos • Hojas de datos en (Mitchell et al., 2019)**
El conocimiento sobre el sistema se distribuye de manera
desigual entre las partes afectadas
tecnología — Gobernanza de TI —
Alto El comportamiento del sistema basado en IA no se
Implicaciones de gobernanza del uso de la
alinea de manera inconsistente con los estándares
inteligencia artificial por parte de las organizaciones
codificados de comportamiento aceptable.
• ForHumanity Independent Audit of AI
Es posible que sea necesario volver a evaluar la aptitud
operativa o la integridad epistémica. Si la prominencia Sistemas (IAAIS)
Por lo tanto, el nivel de completitud epistémica de un sistema se relaciona con los conceptos clave del dominio
epistémico presentados en la Sección 3, como la transparencia, la interpretabilidad y la reproducibilidad (ver
Tabla 1), y cómo estos se definen en cada contexto. Una vez operacionalizado, su objetivo es proporcionar
evidencia de si las afirmaciones sobre la aptitud operativa de un sistema están justificadas. Es decir, al
describir el conocimiento de las partes afectadas sobre un AIGOV en particular, se puede usar para medir tanto si el
dieciséis
Machine Translated by Google
prominencia normativa
La tercera y última dimensión que proponemos, que denominamos prominencia normativa, pretende reflejar la
necesidad de establecer si un sistema de IA opera de acuerdo con estándares evaluados de comportamiento
aceptable, según lo determinado por las partes afectadas de un sistema de IA. Debido a que, en última instancia, las
aplicaciones de AIGOV aún son utilizadas y juzgadas por humanos, cualquier conceptualización de AIGOV debe
considerar, al menos a nivel teórico, la dificultad que tendrán las partes afectadas para determinar los estándares
éticos y los métodos de gobernanza sobre cómo una aplicación que incorpora un Se usará, supervisará y controlará
el sistema de inteligencia artificial. La prominencia normativa, que tiene como objetivo hacer precisamente eso, se
define formalmente a su vez como:
El grado en que el comportamiento observado de un sistema gubernamental que incorpora una aplicación
de IA (o un conjunto de aplicaciones) en su entorno actual, incluidas las consecuencias del comportamiento
del sistema, se alinea con los estándares institucionales formales y las percepciones de comportamiento
aceptable de las partes afectadas.
Una vez operacionalizado y medido, el nivel de prominencia normativa de un sistema basado en IA tiene como
objetivo proporcionar evidencia de si el sistema en su forma actual se considera aceptable y se puede esperar que
persista. Es importante destacar que, en muchos casos, la prominencia normativa de un AIGOV en particular solo
puede determinarse localmente, ya que las normas y los valores exactos de las partes afectadas pueden variar mucho
entre contextos de aplicaciones (es decir, regiones administrativas) (Ehret, 2022).
Nuestra tipología de sistemas gubernamentales basados en IA está formada por tres dimensiones, presentadas
anteriormente: aptitud operativa, integridad epistémica y variación normativa. Al hacer uso de estas dimensiones,
nuestra tipología cumple dos funciones principales. Es a la vez una construcción de teoría en el sentido de que sirve
para caracterizar AIGOV y explicar aún más el significado de cada dimensión, y clasificatorio, en el sentido de que
coloca ejemplos de diferentes tipos de AIGOV en celdas conceptualmente apropiadas. Si bien la última función es
secundaria y, por lo tanto, los ejemplos de AIGOV son principalmente ilustrativos, cuando se combinan y amplían,
sostenemos que estas tres dimensiones principales se pueden usar para encapsular todo el espacio hipotético de AI
GOV y discriminar efectivamente diferentes tipos de sistema. Además, al establecer vínculos entre nuestras escalas
propuestas y los estándares de medición reales, la tipología tiene como objetivo ayudar a académicos, legisladores e
ingenieros a desarrollar una comprensión del espacio completo de AIGOV y pensar en la aplicación de un sistema
de IA específico en un unificado. teniendo en cuenta aspectos técnicos, legales y éticos. La Tabla 3 proporciona
definiciones completas de las escalas propuestas para cada dimensión y relaciona cada una con los estándares de
medición emergentes; La Figura 2 presenta una visualización de la tipología con tipos de ejemplo de AIGOV para
ilustración.
17
Machine Translated by Google
Figura 2. Clasificación de los tipos de sistemas basados en IA en el gobierno. Un esquema de clasificación coloca tipos selectos de
sistemas basados en IA en el gobierno a lo largo de tres ejes principales: prominencia normativa, aptitud operativa e integridad epistémica.
Los sistemas que incorporan modelos ML complejos (p. ej., redes neuronales, árboles de decisión potenciados, bosques aleatorios) se
contrastan con los que utilizan modelos más simples (p. ej., regresión logística, listas de decisiones). Los 'sistemas de armas autónomos
letales complejos' se clasifican como sistemas muy controvertidos (recuadro rojo), que exhiben una gran prominencia normativa y poseen
una aptitud operativa avanzada. Se adopta una escala de 3 puntos para cada dimensión por parsimonia conceptual; se anticipa que los
estándares futuros para calificar los sistemas del mundo real pueden usar diferentes escalas. El proyecto de Ley de IA de la UE, por
ejemplo, utiliza una escala de 4 puntos para clasificar el nivel de riesgo de un sistema de IA. Siempre que sea posible, la ubicación de los
sistemas se basa en encuestas sobre las actitudes del público hacia la IA (p. ej., Nussberger et al., 2022); de lo contrario, los sistemas
se ubican utilizando la propia interpretación de los autores.
Para construir nuestra tipología, escalamos cada una de nuestras dimensiones. Por parsimonia
conceptual, adoptamos una escala de 3 puntos para cada dimensión. Adoptamos esta regla, a diferencia de una
escala de 2 puntos (es decir, 'alto' frente a 'bajo') que se encuentra típicamente en muchas tipologías de ciencias
sociales, para capturar mejor la amplia gama de potencial AIGOV, cuando se conceptualiza usando las
dimensiones que proponer. Dividimos la idoneidad operativa en básica, intermedia y avanzada , donde un AIGOV
en particular se clasifica como poseedor de una idoneidad operativa básica si cumple con los puntos de referencia
críticos en los estándares básicos de idoneidad operativa y los componentes de la aplicación satisfacen los
objetivos principales. Estos estándares y objetivos básicos se relacionan con los conceptos del dominio operativo
discutidos en la Sección 3 y se espera que incluyan, como mínimo, la efectividad, que puede definirse ampliamente
como "la medida en que [un sistema] logra sus objetivos previstos" (Salamon, 2002). Nos centramos en la eficacia,
ya que consideramos que es un requisito previo para todos los demás aspectos de la aptitud operativa, tal como
se captura en los conceptos del dominio operativo restantes (consulte la Tabla 1 y la Figura 1). En consecuencia,
se entiende que un sistema exhibe aptitud operativa avanzada cuando cumple o supera los puntos de referencia
en todos los estándares de aptitud operativa, incluso en términos de eficacia, seguridad, confiabilidad, facilidad de uso y adaptabilida
18
Machine Translated by Google
En cuanto a la integridad epistémica, distinguimos entre AIGOV que se puede caracterizar por poseer una
integridad epistémica nominal, dispersa o uniforme . De manera similar a la idoneidad operativa, la integridad
epistémica nominal aquí significa que los datos y la información sobre el sistema basado en IA cumplen con los
puntos de referencia críticos en los estándares básicos de integridad epistémica, especialmente en términos de
transparencia, que se considera un requisito previo para otros aspectos del dominio epistémico de un sistema. y el
conocimiento sobre el sistema es incompleto. En términos más concretos, la información sobre un AIGOV en
particular puede ser transparente pero no completamente reproducible, accesible o explicable. Por el contrario, se
puede considerar que un sistema exhibe una integridad epistémica uniforme cuando los datos y la información
sobre el sistema basado en IA cumplen o superan los puntos de referencia en todos los estándares de integridad
epistémica, incluso en términos de transparencia, explicabilidad, reproducibilidad, interpretabilidad y apertura, y
completa el conocimiento sobre el sistema se distribuye equitativamente entre las partes afectadas.
En este último sentido, se puede establecer una analogía entre la completitud epistémica uniforme y el concepto
de "información perfecta" en microeconomía, específicamente en la teoría de juegos, que describe la situación en
la que todos los agentes tienen un conocimiento completo e instantáneo de todos los precios de mercado, su propia
utilidad, etc. (Fudenberg y Tirole, 1991).
Mientras tanto, la prominencia normativa se separa para que AIGOV se pueda diferenciar en sistemas
bajos, moderados o altos donde se considera que un sistema disfruta de una prominencia normativa baja si el
comportamiento del sistema basado en IA está consistentemente alineado con los estándares codificados y las
partes afectadas. ' percepciones de comportamiento aceptable. Dada la naturaleza a veces altamente localizada de
los puntos de vista morales sobre la IA y las decisiones tomadas por las máquinas, los estándares normativos clave
y las percepciones de las partes afectadas probablemente dependerán del contexto en el que se espera que opere
un AIGOV en particular. En particular, al menos en lo que respecta a los dilemas morales que enfrentan los
vehículos autónomos, los estudios anteriores sobre la variación transcultural en las preferencias éticas y morales
han descubierto grupos importantes de países que, de hecho, pueden compartir muchos estándares normativos (Awad et al., 2018) .
De acuerdo con este hallazgo, se considera que un sistema posee una gran prominencia normativa cuando el
comportamiento del sistema basado en IA no se alinea de manera inconsistente con los estándares codificados de
comportamiento aceptable. En la práctica, este puede ser el caso cuando se descubre que un sistema infringe
estándares casi universales de derechos humanos y libertades, como la Declaración Universal de Derechos
Humanos (Asamblea General de la ONU, 1948), que ya han informado los marcos legales emergentes para el
diseño, desarrollo y despliegue de sistemas de IA en general (Leslie et al., 2021).
Habiendo explicado las escalas de las dimensiones que componen nuestra tipología, ahora podemos
considerar cómo sería la combinación de cada una para capturar el espacio conceptual de AIGOV. Para mayor
claridad y simplicidad analítica, solo consideramos los sistemas que se pueden implementar en la práctica. En otras
palabras, se supone que los diferentes tipos de AIGOV que traza nuestra tipología poseen una aptitud operativa
básica. En aras de la claridad conceptual, asumimos que las aplicaciones AIGOV que 'fallan' en lograr este criterio
básico se retractan y, por lo tanto, no pueden considerarse como parte del espacio de sistemas posibles. Si bien
hay muchos factores que influyen en la cancelación de un sistema, esta suposición está en línea con un estudio
comparativo reciente sobre por qué los departamentos gubernamentales deciden pausar o cancelar el uso de
sistemas de decisión automatizados (Redden et al., 2022); los autores encuentran que la mitad de las decisiones
de pausar o cancelar el uso de los sistemas se relacionan con preocupaciones sobre la falta de efectividad de un
sistema.
La Figura 2 coloca tipos selectos de AIGOV en el espacio tipológico definido por los tres ejes principales,
idoneidad operativa, integridad epistémica y prominencia normativa. A modo de ilustración, diferenciamos, entre
otros, entre aquellos sistemas que tienen aptitud operativa avanzada, integridad epistémica nominal y alta
prominencia normativa, representados por el ejemplo de los sistemas de armas autónomos letales complejos, y
aquellos que tienen capacidad operativa avanzada, dispersa y baja.
19
Machine Translated by Google
valores para cada una de estas dimensiones, respectivamente. Un ejemplo de lo primero pueden ser los sistemas
que incorporan drones armados que pueden buscar y eliminar combatientes enemigos en una ciudad. Este último
puede incluir complejos motores de recomendación de información pública, como los sistemas GOV.UK Related
Links adoptados por el gobierno del Reino Unido para facilitar la navegación de sus servicios en línea (Gobierno
del Reino Unido, 2022). Se puede entender que ambos son complejos en la medida en que el sistema de IA puede
constar de componentes (es decir, un modelo de ML) que no son interpretables o fácilmente reproducibles (por
ejemplo, redes neuronales, árboles de decisión potenciados o bosques aleatorios). Difieren, sin embargo, en
términos de su idoneidad operativa exacta (p. ej., eficacia, precisión, etc.) y prominencia normativa (p. ej.,
viabilidad política, no maleficencia, etc.). Si bien solo se muestra una pequeña cantidad de tipos ilustrativos en la
Figura 2, ahora hay innumerables ejemplos de AIGOV que, según sostenemos, pueden ubicarse en el esquema
conceptual que muestra (Engstrom et al., 2020).
Si bien el propósito de nuestra tipología es principalmente conceptual, un número creciente de estándares
de medición de IA hace que la posibilidad de operacionalizar las dimensiones que proponemos para comparar
diferentes AIGOV actualmente en uso sea cada vez más plausible. Específicamente, si las dimensiones se toman
como compuestas, que consisten en múltiples escalas de medición, entonces solo necesitamos considerar los
diversos estándares que están surgiendo para algunos de los conceptos presentados en la Sección 3.
Centrándonos en la aptitud operativa, por ejemplo, dos instrumentos emergentes son ayudando a crear un
estándar global sobre cómo medir los sistemas de IA en términos de robustez: los estándares ISO/IEC DTS
4213.2 e ISO/IEC TR 240291:2021* (consulte la Tabla 3). Cuando se combina con otros estándares de medición
para conceptos de dominio operativo, como precisión y facilidad de uso, pronto será posible comparar AIGOV en
términos de si exhiben aptitud operativa básica, intermedia o avanzada. De manera similar, para la integridad
epistémica, el Estándar de transparencia algorítmica del Reino Unido y el Estándar IEEE para XAI: inteligencia
artificial explicable tienen como objetivo proporcionar métodos universalmente aplicables para medir la
transparencia y la explicabilidad, respectivamente. Finalmente, aunque la prominencia normativa es posiblemente
la dimensión más difícil de estandarizar, dado que las normas y percepciones de AIGOV pueden cambiar
rápidamente y, a menudo, son muy contextuales, están surgiendo varias iniciativas para decidir cómo se pueden
clasificar los sistemas particulares en términos de preocupación normativa en torno a la confiabilidad. ,
sostenibilidad y equidad, entre otros conceptos clave (ver Tabla 1). Por ejemplo, la Carta de Algoritmos para
Aotearoa Nueva Zelanda implica una "estrategia de participación de las partes afectadas" clara, formal y continua,
incluso con las agencias públicas que probablemente utilicen la política, e insta a los diseñadores de AIGOV a
consultar a las personas afectadas por su uso (Ada Lovelace Instituto et al., 2021).
Operar y estandarizar completamente cada una de las dimensiones que proponemos depende tanto del
desarrollo de estándares globales adicionales como de aquellos desarrollados en lugares específicos. Esto es
especialmente relevante para medir la prominencia normativa, que está intrínsecamente conectada con el contexto
de la aplicación. Los desarrolladores, reguladores y comisionados deben comprender la naturaleza y las
implicaciones de AIGOV que se está desarrollando actualmente y evaluar la idoneidad de los estándares
regulatorios. De manera prometedora, los intentos legales actuales, como el proyecto de Ley de IA de la Unión
Europea, el primer marco legal sobre IA (Sovrano et al., 2022), tienen como objetivo establecer nuevas obligaciones
para garantizar la coherencia entre muchos de los conceptos clave que componen cada uno de los dimensiones
aquí propuestas, tales como riesgo y equidad. En otros lugares, esfuerzos como el Plan para la Regulación Digital
del Reino Unido muestran cómo los reguladores buscan enfrentar el desafío de regular las actividades
transformadas por la IA (Aitken et al., 2022). Si bien está en curso, este proceso de estandarización muestra la
posibilidad de vincular cada una de las dimensiones de manera compuesta con los estándares aceptados para
que se pueda aproximar la aptitud operativa de los sistemas o la aptitud epistémica.
*Los títulos completos son 'ISO/IEC DTS 4213.2—Evaluación del rendimiento de clasificación de aprendizaje automático' e 'ISO/IEC TR
24029 1:2021 Inteligencia artificial (IA)—Evaluación de la solidez de las redes neuronales', respectivamente.
20
Machine Translated by Google
Al delinear todo el espacio de aplicación y especificar las condiciones mínimas que deben cumplirse para
que un sistema de IA se considere adecuado para uso gubernamental, nuestro marco tipológico abstracto pretende
ser útil para guiar la teoría operativa, epistémica y normativa sobre y el desarrollo de, AIGOV, incluidos los
estándares futuros para cada uno de estos tres dominios. Solo a través del uso de estándares, las aplicaciones
de IA pueden integrarse en el gobierno utilizando procedimientos operativos claros y criterios epistémicos, y
comportarse de acuerdo con las expectativas normativas de la sociedad. La tipología también tiene como objetivo
enfatizar la necesidad de un análisis multidisciplinario en el estudio de las aplicaciones contemporáneas de la IA
dependiente de datos, y destaca que no existe un único tipo 'ideal' de sistema de IA que pueda manejar todas las
tareas; en cambio, siempre hay una interacción compleja entre la aptitud operativa de un sistema, la integridad
epistémica y la prominencia normativa.
Al promulgar esta línea de razonamiento, la tipología puede, a su vez, informar el lenguaje oficial utilizado para
describir la IA y la deliberación del gobierno sobre la adopción de la IA en la administración de publicaciones de
una manera más unificada y alentar a los profesionales a abordar cuestiones relacionadas con la supervisión
humana y el comportamiento adaptativo de AIGOV. de una manera más informada. AIGOV no son entidades
estáticas sino que pueden cambiar y evolucionar con el tiempo. Por lo tanto, es crucial que los gobiernos evalúen
continuamente el comportamiento de AIGOV y minimicen su potencial para causar daño.
Este documento partió de la premisa de que las tecnologías de IA pueden remodelar el gobierno. Sin embargo, si
se tiene una visión global, el uso de la IA en el gobierno aún se encuentra en su fase inicial de implementación.
Por lo tanto, las decisiones incipientes sobre cómo conceptualizar AIGOV moldearán en gran medida las
expectativas del gobierno. Cuando se diseñan e implementan correctamente, dichas herramientas podrían ayudar
a brindar servicios y establecer políticas con una velocidad y capacidades informáticas sin precedentes. Al mismo
tiempo, la adopción de la IA puede exacerbar los sesgos y precipitar los daños. El uso responsable de la IA
requiere claridad sobre las características de los sistemas construidos a su alrededor. Al proponer los conceptos
multifacéticos de aptitud operativa, integridad epistémica y prominencia normativa junto con una tipología
conceptual para analizar la IA, este artículo tiene como objetivo estimular el debate informado entre académicos y
profesionales que buscan repensar la administración pública con IA. Para concluir, destacamos algunas de las
implicaciones de nuestra tipología y destacamos futuras vías de investigación que anticipamos serán más
apremiantes en el futuro.
Un camino clave a seguir para el campo de la IA en el gobierno en general es recopilar más trabajo
empírico para enriquecer los conceptos que mapeamos y proponemos. Es especialmente importante complementar
las reflexiones críticas y los análisis conceptuales con la investigación empírica en el campo de la administración
pública para comprender mejor cómo la IA afecta las rutinas, las decisiones y la agencia burocrática
gubernamentales. En este sentido, los conceptos y la tipología de AIGOV que presentamos invitan a futuras
investigaciones a considerar la relación entre las diversas dimensiones. Por ejemplo, ¿los sistemas que exhiben
una aptitud operativa avanzada y una alta prominencia normativa seguirán necesariamente en disputa, o se puede
resolver esta tensión?
Otra forma de consolidar el estudio de la IA en el gobierno es avanzar hacia estándares técnicos más
globales de IA, lo que puede beneficiar un mayor trabajo conceptual y viceversa. El objetivo final de la IA en el
gobierno es un ecosistema saludable de trabajo teórico, estudios de casos empíricos, cajas de arena de IA en el
gobierno y casos de uso de vanguardia que se retroalimenten entre sí.
En particular, los estándares técnicos ya se están convirtiendo rápidamente en instrumentos clave tanto para el
desarrollo como para la adopción, así como para la gobernanza de las tecnologías de IA. Un campo en el que se
está progresando mucho y que puede inspirar a la IA en el gobierno es el de la medicina y la atención sanitaria. Aquí,
21
Machine Translated by Google
ya existe un conjunto de estándares desarrollado internacionalmente para evaluar la calidad de los ensayos
clínicos que involucran IA (Cruz Rivera et al., 2020; Liu et al., 2020) y el uso de regulaciones, estándares y
prácticas para el mercado de dispositivos médicos está bien establecido (Ramakrishna et al., 2015). Como se
discutió en la Sección 4, los estándares relacionados con la prominencia normativa son especialmente escasos
y los gobiernos se beneficiarían enormemente de adoptar un enfoque más estructurado para comprender las
preocupaciones y los puntos de vista de las diversas partes afectadas antes de adoptar un sistema de IA. En el
contexto del Reino Unido, un desarrollo reciente es el lanzamiento de AI Standards Hub, una iniciativa que
forma parte de la Estrategia Nacional de IA del Reino Unido y que está dedicada al campo internacional y en
evolución de la estandarización de las tecnologías de IA. El centro incluye una base de datos de estándares†
que cubre casi 300 estándares relevantes que están siendo desarrollados o han sido publicados por una
variedad de SDO prominentes.
El uso de IA en la prestación de servicios gubernamentales es un desarrollo continuo que se expandirá
en los próximos años. Como se indicó al principio, es fundamental que estos desarrollos se integren utilizando
procedimientos operativos estándar, criterios epistémicos claros y siempre en línea con las preocupaciones
normativas. Para ayudar a alcanzar este objetivo, necesitamos analizar AIGOV desde múltiples niveles.
Nuestro trabajo ofrece una contribución inicial para lograr este objetivo al proporcionar una conceptualización
más completa de la IA en el gobierno que esperamos pueda generar más trabajo.
Referencias
22
Machine Translated by Google
Bright, J., Ganesh, B., Seidelin, C. y Vogl, TM (2019). Ciencia de datos para el gobierno local.
Revista Electrónica SSRN. https://doi.org/10.2139/ssrn.3370217
Institución de estándares británicos. (2022). Información sobre estándares—¿Qué es un estándar?
https://www.bsigroup.com/enGB/standards/Informationaboutstandards/whatisa
standard/
Brundage, M., Avin, S., Wang, J., Belfield, H., Krueger, G., Hadfield, G., Khlaaf, H., Yang, J., Toner,
H., Fong, R., Maharaj, T., Koh, PW, Hooker, S., Leung, J., Trask, A., Bluemke, E., Lebensold,
J., O'Keefe, C., Koren, M., … Anderljung, M (2020). Hacia un desarrollo de IA confiable:
mecanismos para respaldar afirmaciones verificables (arXiv: 2004.07213). arXiv. https://
doi.org/10.48550/arXiv.2004.07213
Brynjolfsson, E. (2022). La trampa de Turing: la promesa y el peligro de la inteligencia artificial similar
a la humana. Dédalo, 151(2), 272–287. https://doi.org/10.1162/daed_a_01915
Brynjolfsson, E. y Mitchell, T. (2017). ¿Qué puede hacer el aprendizaje automático? Implicaciones laborales.
Ciencia. https://doi.org/10.1126/science.aap8062
Brynjolfsson, E., Mitchell, T. y Rock, D. (2018). ¿Qué pueden aprender las máquinas y qué significa
para las ocupaciones y la economía? Actas y documentos de la AEA, 108, 43–47. https://
doi.org/10.1257/pandp.20181019 Bullock,
JB (2019). Inteligencia artificial, discreción y burocracia. The American Review of Public Administration,
49(7), 751–761. https://doi.org/10.1177/0275074019856123 Bullock, J., Huang, H. y Kim,
K.C. (Casey). (2022). Inteligencia artificial, burocracia y control humano. Perspectivas sobre la
gestión pública y la gobernanza, 5(2), 187–196. https://doi.org/10.1093/ppmgov/gvac006
Bullock, J., Young, MM y Wang, Y.F.
(2020). Inteligencia artificial, forma burocrática y discrecionalidad en el servicio público. Política de
información, 25(4), 491–506.
Buolamwini, J. y Gebru, T. (2018). Matices de género: disparidades de precisión interseccional en la
clasificación de género comercial. Actas de la Primera Conferencia sobre Equidad,
Transparencia en la Responsabilidad, y 77–91. https://proceedings.mlr.press/v81/
buolamwini18a.html Burr, C. y Leslie, D. (2022). Garantía
ética: un enfoque práctico para el diseño, desarrollo e implementación responsables de tecnologías
basadas en datos. AI y la ética, 1–26.
23
Machine Translated by Google
Capano, G. y Woo, JJ (2017). Resiliencia y solidez en el diseño de políticas: una evaluación crítica.
Ciencias Políticas, 50(3), 399–426. https://doi.org/10.1007/s110770169273x
Chen, M. y Golán, A. (2016). ¿Qué pueden optimizar los procesos de visualización? IEEE Transactions Visualization
en and Computer 22(12), 2619–2632. https://doi.org/10.1109/TVCG.2015.2513410
Gráficos,
Clarke, S. y Whittlestone, J. (2022). Una encuesta sobre los impactos potenciales a largo plazo de la IA: cómo la IA
podría generar cambios a largo plazo en la ciencia, la cooperación, el poder, la epistemología y los valores.
Actas de la Conferencia AAAI/ACM de 2022 sobre inteligencia artificial, ética y sociedad, 192–202. https://
doi.org/10.1145/3514094.3534131 Cowley, HP,
Natter, M., GrayRoncal, K., Rhodes, RE, Johnson, EC, Drenkow, N., Shead, TM, Chance, FS, Wester, B. y Gray
Roncal, W. (2022). Un marco para la evaluación rigurosa del desempeño humano en estudios de
comparación de aprendizaje humano y automático.
Scientific Reports, 12(1), Artículo 1. https://doi.org/10.1038/s41598022080783 Coyle, D., &
Weller, A. (2020). "Explicar" el aprendizaje automático revela los desafíos de las políticas. Ciencia. https://doi.org/
10.1126/science.aba9647 Crawford, K. (2022).
Atlas de https:// AI. Yale Universidad Prensa.
yalebooks.yale.edu/9780300264630/atlasofai Cruz Rivera, S.,
Liu, X., Chan, A.W., Denniston, AK, Calvert, MJ, Ashrafian, H. , Haz, A.
L., Collins, GS, Darzi, A., Deeks, JJ, ElZarrad, MK, Espinoza, C., Esteva, A., Faes, L., Ferrante di Ruffano,
L., Fletcher, J., Golub, R ., Harvey, H., Haug, C., … Yau, C. (2020).
Pautas para protocolos de ensayos clínicos para intervenciones que involucran inteligencia artificial: la
extensión SPIRITAI. The Lancet Digital Health, 2(10), e549–e560. https://doi.org/10.1016/
S25897500(20)302193
de Bruijn, H., Warnier, M. y Janssen, M. (2022). Los peligros y trampas de la IA explicable: estrategias para explicar
la toma de decisiones algorítmica. Government Information Quarterly, 39(2), 101666. https://doi.org/10.1016/
j.giq.2021.101666 Dechesne, F., Mousavi, M. y Orzan, S. (2007). Enfoques
operativos y epistémicos para el análisis de protocolos: cerrar la brecha. En N. Dershowitz y A. Voronkov (Eds.),
Lógica para la programación, inteligencia artificial y razonamiento (págs. 226–241). Saltador. https://doi.org/
10.1007/9783540755609_18
Dellermann, D., Calma, A., Lipusch, N., Weber, T., Weigel, S. y Ebel, P. (2021). El futuro de la colaboración humano
IA: una taxonomía del conocimiento de diseño para sistemas de inteligencia híbridos. http://arxiv.org/abs/
2105.03354 Domingos, P. (2012).
Algunas cosas útiles que debe saber sobre el aprendizaje automático. Comunicaciones de la ACM, 55(10), 78–87.
https://doi.org/10.1145/2347736.2347755 Doran, D., Schulz, S. y Besold, TR
(2017). ¿Qué significa realmente la IA explicable? Unas Nuevas Perspectivas de Conceptualización
(arXiv:1710.00794). arXiv. https://doi.org/10.48550/arXiv.1710.00794
de
Dressel, J. y Farid, H. (2018). La precisión, la equidad y los límites de la predicción de la reincidencia. Ciencia
Avances, 4(1), eaao5580.
Ehret, S. (2022). Preferencias públicas para gobernar la tecnología de IA: evidencia comparativa. Revista de
Políticas Públicas Europeas, 0(0), 1–20. https://doi.org/10.1080/13501763.2022.2094988 Engstrom, DF,
Ho, DE, Sharkey, CM, & Cuéllar, M.F. (2020). Gobierno por algoritmo: inteligencia artificial en agencias
administrativas federales (SSRN Scholarly Paper ID 3551505). Red de Investigación en Ciencias Sociales.
https://doi.org/10.2139/ssrn.3551505
24
Machine Translated by Google
Erman, E. y Furendal, M. (2022). La Gobernanza Global de la Inteligencia Artificial: Algunas Preocupaciones Normativas.
Filosofía Moral y Política. https://doi.org/10.1515/mopp20200046
Estévez Almenzar, M., Fernández, LD, Gómez, GE, & Martínez, PF (2022). Glosario de inteligencia artificial centrada en
el ser humano. EUR 31113 EN, Oficina de Publicaciones de la Unión Europea.
Evans, T. (2016). Discreción profesional en los servicios de asistencia social: más allá de la burocracia a pie de calle.
Routledge.
Ezenkwu, CP y Starkey, A. (2019). Autonomía de la máquina: definición, enfoques, desafíos y lagunas de investigación.
Computación inteligente: Actas de la Conferencia de Computación, 335–358.
Firestone, C. (2020). Desempeño vs. Competencia en comparaciones hombremáquina. Actas 117(43), 26562–26571.
del https:// Academia Nacional de Ciencias,
doi.org/10.1073/pnas.1905334117 Floridi, L., &
Cowls, J. (2022). Un marco unificado de cinco principios para la IA en la sociedad. En Machine Learning and the City
(págs. 535–545). John Wiley & Sons, Ltd. https://doi.org/10.1002/9781119815075.ch45
Friedman, A. y Smiraglia, RP (2013). Nodos y arcos: mapa conceptual, semiótica y organización del conocimiento.
Revista de Documentación.
Fudenberg, D. y Tirole, J. (1991). Teoría de juego. Prensa del MIT.
Gansky, B. y McDonald, S. (2022). CounterFAccTual: cómo FAccT socava sus principios organizativos. Conferencia
ACM de 2022 sobre equidad, responsabilidad y transparencia, 1982– 1992. https://doi.org/
10.1145/3531146.3533241
Gebru, T., Morgenstern, J., Vecchione, B., Vaughan, JW, Wallach, H., III, HD y Crawford, K. (2021). Hojas de datos para
conjuntos de datos. Comunicaciones de la ACM, 64(12), 86–92.
George y Bennet, A. (2005). Estudios de Caso y Desarrollo Teórico en las Ciencias Sociales. MIT
Prensa.
Gerring, J. (1999). ¿Qué hace que un concepto sea bueno? Un marco de criterios para comprender la formación de
conceptos en las ciencias sociales. Política, 31(3), 357–393. https://doi.org/10.2307/3235246 Giest, S. y
Klievink, B. (2022). Más que un sistema
digital: cómo la IA está cambiando el papel de los burócratas en diferentes contextos organizacionales. Revisión de la
gestión pública, 1–20. https://doi.org/10.1080/14719037.2022.2095001
Gil, Y. y Selman, B. (2019). Una hoja de ruta comunitaria de 20 años para la investigación de inteligencia artificial en los
EE. UU. (arXiv: 1908.02624). arXiv. https://doi.org/10.48550/arXiv.1908.02624 Glikson, E. y Woolley,
AW (2020). Confianza humana en la inteligencia artificial: revisión de la investigación empírica. Academia de Anales de
Gestión, 14(2), 627–660. https://doi.org/10.5465/annals.2018.0057
25
Machine Translated by Google
Guidotti, R., Monreale, A., Ruggieri, S., Turini, F., Giannotti, F. y Pedreschi, D. (2018). Una encuesta de
métodos para explicar los modelos de caja negra. Encuestas de computación ACM (CSUR), 51(5),
1– 42.
Gundersen, OE y Kjensmo, S. (2018). Estado del Arte: Reproducibilidad en Inteligencia Artificial. Actas de
la Conferencia AAAI sobre Inteligencia Artificial, 32(1), Artículo 1. https://doi.org/10.1609/
aaai.v32i1.11503
Hamon, R., Junklewitz, H. y Sánchez, I. (2020). Robustez y explicabilidad de la inteligencia artificial. Oficina
de Publicaciones de la Unión Europea.
Hellström, T., Dignum, V. y Bensch, S. (2020). Sesgo en el aprendizaje automático: ¿para qué sirve?
(arXiv:2004.00686). arXiv. https://doi.org/10.48550/arXiv.2004.00686 Henry,
SL, AbouZahra, S., & Brewer, J. (2014). El papel de la accesibilidad en una web universal.
el
Procedimientos de 1–4. https://doi.org/10.1145/2596695.2596719
XI Web para Holland,
Todo S.,
Conferencia,
Hosny, A., Newman,
S., Joseph, J. y Chmielinski, K. (2018). La
etiqueta nutricional del conjunto de datos: un marco para impulsar estándares de calidad de datos más
altos (arXiv: 1805.03677). arXiv. https://doi.org/10.48550/arXiv.1805.03677 (2009).
26
Machine Translated by Google
Liu, X., Rivera, SC, Moher, D., Calvert, MJ y Denniston, AK (2020). Directrices de informes para informes de ensayos clínicos
para intervenciones que involucran inteligencia artificial: la extensión CONSORT AI. BMJ, 370, m3164. https://
doi.org/10.1136/bmj.m3164 MacArthur, BD, Dorobantu, CL y Margetts, HZ (2022). Un
gobierno resiliente requiere datos
reforma de la ciencia. Naturaleza Comportamiento humano, 1–3.
Madan, R. y Ashok, M. (2022). Adopción y difusión de IA en la administración pública: una revisión sistemática de la literatura
y una agenda de investigación futura. Government Information Quarterly, 101774. https://doi.org/10.1016/
j.giq.2022.101774 Maguire, S. y McKelvey, B. (1999).
Complejidad y gestión: pasar de la moda a los cimientos firmes. Emergencia, 1(2), 19–61. https://doi.org/10.1207/
s15327000em0102_3 Manuele, FA (2010). Riesgo aceptable: Es hora de que los profesionales de SH&E
adopten el concepto.
Seguridad Profesional, 55(05), 30–38.
Margetts, H. (1999). Tecnología de la información en el gobierno: Gran Bretaña y Estados Unidos. taylor &
Francisco.
Margarets, H. (2022). Repensar la IA para la buena gobernanza. Dédalo, 151(2), 360–371.
Margetts, H. y Dorobantu, C. (2019). Repensar el gobierno con IA. Naturaleza, 568 (7751), 163–165.
https://doi.org/10.1038/d41586019010995
Markus, AF, Kors, JA y Rijnbeek, PR (2021). El papel de la explicabilidad en la creación de una inteligencia artificial confiable
para el cuidado de la salud: un estudio exhaustivo de la terminología, las opciones de diseño y las estrategias de
evaluación. Diario de Informática Biomédica, 113, 103655.
Mayer, RC, Davis, JH y Schoorman, FD (1995). Un modelo integrador de confianza organizacional. Academy of Management
Review, 20(3), 709–734.
McGregor, S. (2020). Prevención de fallas repetidas de IA en el mundo real mediante la catalogación de incidentes: la base
IA de datos de incidentes arXiv. (arXiv:2011.08512).
https://doi.org/10.48550/arXiv.2011.08512
Mehr, H. (2017). Inteligencia artificial para servicios ciudadanos y gobierno (págs. 1–12). centro de cenizas,
Escuela Kennedy de Harvard.
Mehrabi, N., Morstatter, F., Saxena, N., Lerman, K. y Galstyan, A. (2022). Una encuesta sobre sesgo y equidad en el
aprendizaje automático. ArXiv:1908.09635 [Cs]. http://arxiv.org/abs/1908.09635 Mergel, I., Rethemeyer, RK e
Isett, K. (2016). Big Data en Asuntos Públicos. Administración Pública
Revisión, 76(6), 928–937. https://doi.org/10.1111/puar.12625
Metselaar, EE (1997). Evaluación de la voluntad de cambio: Construcción y validación de la
DINAMO [TesisDoctorado Investigación y graduación interna]. Universidad de Vrije.
Meyers, MK, Riccucci, NM y Lurie, I. (2001). Lograr la congruencia de objetivos en entornos complejos: el caso de la reforma
del bienestar. Revista de investigación y teoría de la administración pública: JPART, 11(2), 165–201.
Miller, T. (2019). Explicación en inteligencia artificial: conocimientos desde las ciencias sociales. Inteligencia artificial, 267, 1–
38. https://doi.org/10.1016/j.artint.2018.07.007 Misuraca, G., van Noordt, C. y Boukli,
A. (2020). El uso de la IA en los servicios públicos: resultados de un mapeo preliminar en toda la UE. Actas de la 13ª
Conferencia Internacional sobre Teoría y Práctica de la Gobernanza Electrónica, 90–99.
Mitchell, M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, I.
D. y Gebru, T. (2019). Tarjetas modelo para informes modelo. Actas de la Conferencia sobre Equidad,
Responsabilidad y Transparencia, 220–229.
27
Machine Translated by Google
Mökander, J., Sheth, M., Watson, D. y Floridi, L. (2022). Modelos para clasificar los sistemas de IA: el interruptor,
la escalera y la matriz. Conferencia ACM 2022 sobre equidad, responsabilidad y transparencia, 1016.
https://doi.org/10.1145/3531146.3533162
Molnar, C. (2020). Aprendizaje automático interpretable. Lulú. com.
Montavon, G., Samek, W. y Müller, K.R. (2018). Métodos para interpretar y comprender las redes neuronales
profundas. ProcesamientoSeñal 73,
digital, 1–15. https://doi.org/10.1016/
j.dsp.2017.10.011 Moritz Göhler, S., Eifler, T. y
Howard, TJ (2016). Métricas de Robustez: Consolidando los Múltiples Enfoques para Cuantificar la Robustez.
Revista de Diseño Mecánico, 138(11). https://doi.org/10.1115/1.4034112 Nguyen, H., Kieu, L.M., Wen,
T. y Cai, C. (2018). Métodos de
aprendizaje profundo en el dominio del transporte: una revisión. Sistemas de Transporte Inteligente IET, 12(9),
998–1004. https://doi.org/10.1049/ietits.2018.0064 NIST. (2022). Marco de gestión de riesgos de IA:
segundo borrador (p. 36). Instituto Nacional de
Estándares y Tecnología.
Norvig, P. y Russell, SR (2020). Inteligencia artificial: un enfoque moderno (4ª ed.). Pearson
educación, inc.
Ntoutsi, E., Fafalios, P., Gadiraju, U., Iosifidis, V., Nejdl, W., Vidal, M.E., Ruggieri, S., Turini, F., Papadopoulos,
S., Krasanakis, E., Kompatsiaris, I., KinderKurlanda, K., Wagner, C., Karimi, F., Fernandez, M., Alani,
H., Berendt, B., Kruegel, T., Heinze, C., … Staab, S.
(2020). Sesgo en los sistemas de inteligencia artificial basados en datos: una encuesta introductoria.
Minería de datos y descubrimiento de conocimiento WIREs, 10(3), e1356. https://doi.org/10.1002/
widm.1356 Nussberger, A.M., Luo, L., Celis, LE y Crockett, MJ (2022). Las actitudes públicas valoran la
interpretabilidad pero priorizan la precisión en la Inteligencia Artificial. Nature Communications, 13(1),
artículo 1. https://doi.org/10.1038/s41467022334173 OCDE. (2022).
Marco de la OCDE para la clasificación de los sistemas de IA.
Ojo, A., Mellouli, S. y Ahmadi Zeleti, F. (2019). Una perspectiva realista sobre la gestión pública en la era de la
IA*. Actas de la 20ª Conferencia Internacional Anual sobre Investigación de Gobierno Digital, 159–170.
https://doi.org/10.1145/3325112.3325261
O'Raghallaigh, P., Sammon, D. y Murphy, C. (2010). Construcción de teoría usando tipologías: un ejemplo
práctico de construcción de una tipología de actividades de conocimiento para la innovación. En Cerrar
la brecha sociotécnica en los sistemas de apoyo a las decisiones (pág. 12).
Osvaldo, M. (2018). Toma de decisiones asistida por algoritmos en el sector público: enmarcando los problemas
utilizando las normas de derecho administrativo que rigen el poder discrecional. Philosophical
Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences, 376(2128),
20170359. https://doi.org/10.1098/rsta.2017.0359
Oswaldo, Marion. (2018). Toma de decisiones asistida por algoritmos en el sector público: enmarcando los
problemas utilizando las normas de derecho administrativo que rigen el poder discrecional.
Transacciones Filosóficas de la Royal Society A: Ciencias Matemáticas, Físicas y de Ingeniería. https://
doi.org/10.1098/rsta.2017.0359
Pencheva, I., Esteve, M. y Mikhaylov, SJ (2020). Big Data e IA: un cambio transformador para el gobierno:
Entonces, ¿qué sigue para la investigación? Políticas Públicas y Administración, 35(1), 24– 44. https://
doi.org/10.1177/0952076718780537
Pineau, J., VincentLamarre, P., Sinha, K., Lariviere, V., Beygelzimer, A., d'AlcheBuc, F., Fox, E. y Larochelle,
H. (2021). Mejora de la reproducibilidad en la investigación de aprendizaje automático (A
28
Machine Translated by Google
Informe del Programa de Reproducibilidad NeurIPS 2019). Revista de investigación sobre aprendizaje
automático, 22(164), 1–20.
Provost, F. y Fawcett, T. (2013). La ciencia de datos y su relación con Big Data y la toma de decisiones basada en
datos. Grandes datos, 1(1), 51–59. https://doi.org/10.1089/big.2013.1508 Rahm, D. (1999). El
papel de la tecnología de la información en la construcción de la teoría de la administración pública.
Conocimiento, tecnología y política, 12(1), 74–83. https://doi.org/10.1007/s1213099910153
Rahwan, I. (2018). SocietyintheLoop: programación del contrato social algorítmico. Ética y tecnología de la
información, 20(1), 5–14. https://doi.org/10.1007/s1067601794308 Rahwan, I., Cebrian, M.,
Obradovich, N., Bongard, J., Bonnefon, J.F., Breazeal, C., Crandall, J.
W., Christakis, NA, Couzin, ID, Jackson, MO, Jennings, NR, Kamar, E., Kloumann, IM, Larochelle, H., Lazer,
D., McElreath, R., Mislove, A., Parkes, DC, Pentland, A.
'Sandy', … Wellman, M. (2019). Comportamiento de la máquina. Naturaleza, 568 (7753), 477–486. https://
doi.org/10.1038/s415860191138y
Raji, ID, Kumar, IE, Horowitz, A. y Selbst, A. (2022). La falacia de la funcionalidad de la IA. Conferencia ACM de 2022
sobre equidad, responsabilidad y transparencia, 959–972. https://doi.org/10.1145/3531146.3533158 Raji, ID,
Smart, A., White, RN, Mitchell, M., Gebru, T.,
Hutchinson, B., SmithLoud, J., Theron, D. y Barnes, P. (2020). Cerrando la brecha de responsabilidad de la IA:
Definición de un marco de extremo a extremo para la auditoría algorítmica interna. Actas de la Conferencia
sobre Rendición de Cuentas de 2020, y 33–44.
Equidad, Transparencia,
https://doi.org/10.1145/3351095.3372873
Ramakrishna, S., Tian, L., Wang, C., Liao, S. y Teo, WE (2015). Dispositivos médicos: Reglamentos,
normas y prácticas. Editorial Woodhead.
Redden, J., Brand, J., Sander, I. y Warne, H. (2022). Automatización de los servicios públicos: aprendizaje del
laboratorio de justicia cancelada. Datos
https://www.carnegieuktrust.org.uk/publications/automatingpublicservices
Sistemas.
learning fromcancelledsystems/ Riccucci, NM (2005). En sus propias palabras: las voces y
experiencias de StreetLevel
243–245.
burócratas Administración Revisar, 65(2),
públicos . https://doi.org/10.1111/j.15406210.2005.00448.x
Richardson, R. (2022). Educación física. Revisión de la Ley de Maryland, 81(3), 785.
Rudin, C. (2019). Deje de explicar los modelos de aprendizaje automático de caja negra para decisiones de alto
riesgo y utilice modelos interpretables en su lugar. Nature Machine Intelligence, 1(5), Artículo 5. https://
doi.org/10.1038/s422560190048x
Sadowski, J. y Selinger, E. (2014). Creando una herramienta taxonómica para la tecnocracia y aplicándola a Silicon
Valley (Documento académico de SSRN n.º 2448338). Red de Investigación en Ciencias Sociales. https://
papers.ssrn.com/abstract=2448338 Saetra, HS
(2021). Una tipología de aplicaciones de IA en política. En A. Visvizi & M. Bodziany (Eds.), Inteligencia artificial y sus
contextos (págs. 24–37). Publicaciones internacionales de Springer. https://doi.org/10.1007/9783030889722_1
Salamón, LM (2002). Las Herramientas de Gobierno: Una Guía para
la Nueva Gobernanza. Prensa de la Universidad de Oxford, Estados Unidos. https://search.ebscohost.com/login.aspx?
direct=true&scope=site&db=nlebk&db=nlabk& AN=1921000
29
Machine Translated by Google
30
Machine Translated by Google
Gobierno del Reino Unido. (2022). GOV.UK Data Labs (Oficina del Gabinete): Enlaces relacionados.
GOV.UK. https://www.gov.uk/government/publications/govukdatalabscabinetofficerelated
links/govukdatalabscabinetofficerelatedlinks
Asamblea general UN. (1948). Declaración Universal de los Derechos Humanos. Asamblea general UN,
302(2), 14–25.
van Noordt, C. y Misuraca, G. (2022). Inteligencia artificial para el sector público: resultados de la planificación
del uso de la IA en el gobierno de toda la Unión Europea. Government Information Quarterly, 39(3),
101714. https://doi.org/10.1016/j.giq.2022.101714 van Wynsberghe, A. (2021). IA
sostenible: IA para la sostenibilidad y la sostenibilidad de la IA. AI y Ética, 1(3), 213–218. https://doi.org/
10.1007/s43681021000436 Veale, M. (2020). Una visión crítica de las
recomendaciones políticas del Grupo de expertos de alto nivel de la UE sobre inteligencia artificial. Revista
Europea de Regulación de Riesgos, 11(1). https://doi.org/10.1017/err.2019.65 Vogl, TM, Seidelin,
C., Ganesh, B. y Bright, J. (2020).
Tecnología inteligente y el surgimiento de la burocracia algorítmica: inteligencia artificial en las autoridades
locales del Reino Unido. Revista de administración pública, 80(6), 946–961. https://doi.org/10.1111/
puar.13286 Watcher, S. (2022). La teoría de la inmutabilidad artificial: protección de
grupos algorítmicos bajo la ley contra la discriminación (Documento académico SSRN 4099100). https://
doi.org/10.2139/ssrn.4099100 Wachter, S., Mittelstadt, B. y Russell, C. (2020). Por No. qué no se puede
automatizar la equidad: cerrar la brecha
entre la ley de no discriminación de la UE y la IA (Documento académico de la SSRN n.º 3547922). https://
doi.org/10.2139/ssrn.3547922
Wang, P. (2019). Sobre la definición de la inteligencia artificial. Revista de Inteligencia General Artificial,
10(2), 1–37. https://doi.org/10.2478/jagi20190002
Widder, DG y Nafus, D. (2022). Responsabilidades dislocadas en la cadena de suministro de IA: modularidad
y nociones de responsabilidad de los desarrolladores (arXiv: 2209.09780). arXiv. http://arxiv.org/abs/
2209.09780 Wirtz, BW, Weyerer,
JC y Geyer, C. (2019). Inteligencia artificial y el sector público: aplicaciones y desafíos. Revista Internacional
de Administración Pública, 42(7), 596– 615. https://doi.org/10.1080/01900692.2018.1498103 Zilka,
M., Sargeant, H., & Weller, A. (2022). Transparencia,
gobernanza y regulación de herramientas algorítmicas implementadas en el sistema de justicia penal: un
estudio de caso del Reino Unido. https://doi.org/10.1145/3514094.3534200 Zuiderwijk, A., Chen,
YC y Salem, F. (2021). Implicaciones del uso
de la inteligencia artificial en la gobernanza pública: una revisión sistemática de la literatura y una agenda
de investigación. Información Gubernamental Trimestral, 38(3). https://doi.org/10.1016/
j.giq.2021.101577
31
Machine Translated by Google
Agradecimientos
Los autores desean agradecer a Christopher Burr y David Leslie por proporcionar comentarios críticos en una
presentación inicial de esta investigación en una reunión del Programa de Políticas Públicas.
Contribuciones de autor
VJS desarrolló el marco, creó las visualizaciones y escribió el borrador inicial. DM revisó y comentó el borrador inicial.
JB revisó y comentó el borrador inicial y supervisó el proyecto. HM revisó y comentó el borrador final y aseguró la
financiación.
Todos los autores aprovaron el manuscrito final.
Conflicto de intereses
Fondos
Este trabajo fue apoyado por Towards Turing 2.0 bajo EPSRC Grant EP/W037211/1 y The Alan Turing Institute.
Información suplementaria
Un apéndice proporciona información sobre la búsqueda de revisión de la literatura. Las tablas y gráficos presentados
en este documento están disponibles para su reutilización en: https://aiforpublicservices.github.io/aigovframework/.
32
Machine Translated by Google
1
Instituto Alan Turing
2
AI CDT responsable, responsable y transparente,
Departamento de Ciencias de la Computación, Universidad de Bath
3
Instituto de Internet de Oxford, Universidad de Oxford, Oxford, Reino Unido
*
Autores para correspondencia: [email protected], [email protected]
En esta sección se describe cómo se ejecutó la revisión integrativa de la literatura. El primer paso fue identificar los objetivos
principales y las preguntas clave de interés. Esto se hizo mediante una lluvia de ideas sobre las brechas restantes en la
comprensión teórica de la IA en el gobierno, especialmente en términos de qué conceptos se usan más en el estudio de los
sistemas de gobierno basados en IA, tanto en la literatura técnica y de ciencias informáticas como en las ciencias sociales,
especialmente en la política. becas de estudios de ciencias, administración pública y políticas y, de manera más general, los
campos de la economía, la sociología y la psicología. Luego de una exploración preliminar de la literatura y el compromiso con
las revisiones sistemáticas existentes, esto resultó en la diferenciación entre tres dominios principales, el dominio operativo,
epistémico y normativo (ver Sección 3), para capturar los diferentes tipos de conceptos presentados en el discurso, como se
discute en el texto principal.
En segundo lugar, estos dominios se usaron para guiar y ordenar la literatura relevante (ilustrada en la Figura S1)
mediante una búsqueda por palabra clave. Para comenzar, se identificaron de 3 a 5 artículos 'semilla' para cada uno de los dominios
Figura A1. Ilustración del proceso de búsqueda de literatura. Las búsquedas de palabras clave se realizaron utilizando las bases de
datos bibliográficas Google Scholar y Semantic Scholar.
33
Machine Translated by Google
Tabla A1. Palabras clave adicionales para la búsqueda de literatura por dominio.
Operacional “basado en datos”, “toma de decisiones”, “automatizado”, “soporte de decisiones”, “big data”, “ciencia de datos”, “análisis
predictivo”, “estadísticas”
Normativo
“ética”, “normas”, “normas sociales”, “opinión pública”, “moral”, “estándares”
para representar los artículos más relevantes. Se realizó una búsqueda exploratoria de palabras clave para
cada dominio utilizando el motor de búsqueda de Google (www.google.com), con un sesgo intencional para
artículos impactantes e inclusivos. Se identificaron varias palabras clave para buscar algunos artículos semilla
que representan los tipos de publicaciones más relevantes de la siguiente lista: “gobierno”, “público”,
“administración”, “agencia”, “inteligencia artificial”, “aprendizaje automático”, “algorítmica”, “aplicación”,
“sistema”, “tipología”, “mapeo”, “clasificación”, “tipología”, “taxonomía”, “ontología”. En la Tabla A1 se
proporciona una lista completa de otras palabras clave utilizadas para cada dominio. Debido al énfasis en la
inclusión, también hubo un sesgo de facto hacia las publicaciones más antiguas y la literatura gris. Luego, el
contenido de los artículos semilla se revisó manualmente para compilar listas de palabras clave de búsqueda
adicionales para cada dominio.
Las listas de palabras clave se utilizaron para búsquedas en Google y dentro de los títulos,
resúmenes y palabras clave de todos los artículos en las bases de datos bibliográficas de Google Scholar
(www.scholar.google.com) y Semantic Scholar (www.semanticscholar.com). Los primeros 1000 resultados
fueron revisados, ordenados y, en el caso de Google Scholar, se seleccionaron los artículos de mayor
impacto, donde el impacto se relaciona con el número de citas. Este método se tomó para sobremuestrear y
recuperar una amplia gama de resultados de búsqueda.
Finalmente, el software de gestión de fuentes de investigación y el complemento Zotero Scholar Citation
se utilizaron para clasificar los elementos por citas. Luego se leyeron los resúmenes para identificar manualmente
los artículos que se centraban en temas relacionados con cada uno de los dominios identificados. Esto produjo
entre 8 y 15 artículos (incluidas las semillas) por dominio.
Referencias
34
Machine Translated by Google
Zuiderwijk, A., Chen, YC y Salem, F. (2021). Implicaciones del uso de la inteligencia artificial en la
gobernanza pública: una revisión sistemática de la literatura y una agenda de investigación.
Información Gubernamental Trimestral, 38(3). https://doi.org/10.1016/j.giq.2021.101577
35