Inteligência Artificial para Um Futuro Melhor: Bernd Carsten Stahl
Inteligência Artificial para Um Futuro Melhor: Bernd Carsten Stahl
Inteligência Artificial para Um Futuro Melhor: Bernd Carsten Stahl
Uma perspectiva do
ecossistema sobre a ética da
IA e do digital emergente
tecnologias
Editores-chefes
Inteligência Artificial
para um Futuro Melhor
Uma perspectiva do ecossistema sobre a ética
da IA e tecnologias digitais emergentes
Programa Quadro Horizonte 2020 O livro será baseado principalmente no trabalho que foi e é
realizado no projeto SHERPA (www.project-sherpa.eu). Pode, no entanto, basear-se em quantidades
significativas de trabalho realizado em outros projetos, notavelmente Responsible-Industry
(www.responsible-industry.eu), ORBIT (www.orbit-rri.org) e Human Brain Project
(www.humanbrainproject. UE). O consórcio SHERPA tem 11 parceiros de seis países europeus
(representando academia, indústria, sociedade civil, organismos de normalização, comitês de ética,
arte).
As imagens ou outros materiais de terceiros neste livro estão incluídos na licença Creative Commons do livro, a menos
que indicado de outra forma em uma linha de crédito para o material. Se o material não estiver incluído na licença
Creative Commons do livro e seu uso pretendido não for permitido pela regulamentação estatutária ou exceder o uso
permitido, você precisará obter permissão diretamente do detentor dos direitos autorais.
O uso de nomes descritivos gerais, nomes registrados, marcas comerciais, marcas de serviço, etc. nesta publicação
não implica, mesmo na ausência de uma declaração específica, que tais nomes estejam isentos das leis e regulamentos
de proteção relevantes e, portanto, livres para uso geral usar.
A editora, os autores e os editores assumem com segurança que as recomendações e informações contidas neste
livro são verdadeiras e precisas na data de publicação. Nem a editora nem os autores ou editores dão uma garantia,
expressa ou implícita, com relação ao material aqui contido ou por quaisquer erros ou omissões que possam ter sido
cometidos. A editora permanece neutra em relação a reivindicações jurisdicionais em mapas publicados e afiliações
institucionais.
Esta impressão da Springer é publicada pela empresa registrada Springer Nature Switzerland AG
O endereço da empresa registrada é: Gewerbestrasse 11, 6330 Cham, Suíça
Machine Translated by Google
Prefácio
O volume de dados coletados diariamente sobre cada um de nós, conforme utilizamos a internet e
as redes sociais, é imenso. Esses dados podem ser usados de várias maneiras, desde rastrear
nosso comportamento até garantir que a publicidade e as informações sejam personalizadas para
indivíduos específicos. Os dados coletados também podem ser usados para fornecer matéria-prima
para sistemas de Inteligência Artificial (IA). Os computadores tornaram-se onipresentes e são usados
para controlar ou operar todos os tipos de itens do dia a dia de maneiras inimagináveis apenas
alguns anos atrás. Telefones inteligentes, capazes de rastrear onde estamos e com quem nos
encontramos, são comuns. Armas autônomas capazes de decidir independentemente o que atacar
e quando já estão disponíveis para os governos – e, por extensão, para os terroristas. Os sistemas
de negociação digital estão sendo usados para influenciar rapidamente os mercados financeiros,
com apenas 10% do volume de negociação vindo de investidores discricionários humanos
(Kolakowski 2019). Os sistemas de IA podem (e estão) a ser usados para redefinir o trabalho,
substituindo os humanos “por tecnologia inteligente em trabalhos difíceis, sujos, aborrecidos ou
perigosos” (EGE 2018: 8). A perda de empregos provavelmente se tornará um fator importante no
que agora é chamado de “sociedade pós-industrial”. Novos empregos e novas oportunidades para
os humanos precisam ser criados. Na medicina, a IA está auxiliando no diagnóstico de doenças e
enfermidades, no desenvolvimento de novos medicamentos e no fornecimento de suporte e cuidados para aqueles qu
Em muitos casos, a IA permanece sob o controle de usuários e projetistas, mas em um número
cada vez maior de aplicações, o comportamento de um sistema não pode ser previsto pelos
envolvidos em seu projeto e aplicação. A informação é alimentada em uma “caixa preta” cuja saída
pode afetar muitas pessoas em suas vidas diárias:
Sem intervenção humana direta e controle de fora, os sistemas inteligentes hoje conduzem diálogos
com clientes em call-centers online, direcionam mãos de robôs para pegar e manipular objetos com
precisão e incessantemente, compram e vendem ações em grandes quantidades em milissegundos,
direcionam carros para desviar ou frear e evitar uma colisão, classificar pessoas e seu comportamento
ou aplicar multas. (EGE 2018: 6)
Máquinas recém-desenvolvidas são capazes de aprender sozinhas e até mesmo coletar dados.
Os sistemas de reconhecimento facial escaneiam as multidões enquanto elas caminham pelas ruas
para detectar supostos encrenqueiros ou malfeitores.
Precisamos garantir que os valores que sustentamos como sociedade sejam incorporados aos
sistemas que adotamos, sistemas que inevitavelmente mudarão nossas vidas e as de nossos
v
Machine Translated by Google
vi Prefácio
crianças. A Carta dos Direitos Fundamentais da União Europeia delineia os valores que a sociedade deseja
ver implementados. Aqueles que projetam esses sistemas e elaboram os algoritmos que os impulsionam
precisam estar cientes dos princípios éticos que fundamentam a sociedade. Margaret Thatcher disse uma
vez que “não existe sociedade”
(Thatcher 2013), mas havia indivíduos. A ascensão da IA está mudando isso, pois nos tornamos cifras
identificáveis dentro do big data usado para IA. Os sistemas de IA devem garantir a segurança e a proteção
dos cidadãos e fornecer as salvaguardas consagradas na Carta.
O controle do big data e da revolução da IA está nas mãos de um pequeno grupo de empresas
supernacionais (ou multinacionais) que podem ou não respeitar os direitos das pessoas ao usarem nossas
informações para fins comerciais ou políticos.
O advento da IA deu muito à sociedade e deve ser uma força para o bem. Este livro, portanto, vem em
um momento importante de seu desenvolvimento. Bernd Stahl lidera um grande projeto, SHERPA (Shaping
the Ethical Dimensions of Smart Information Systems), que analisou como a IA e a análise de big data
impactam a ética e os direitos humanos. As recomendações e ideias que Bernd apresenta neste livro são
instigantes – e é crucial que todos pensemos sobre as questões levantadas pelo impacto da IA em nossa
sociedade.
Referências
EGE (2018) Grupo Europeu de Ética em Ciência e Novas Tecnologias: Declaração sobre inteligência artificial,
robótica e sistemas “autônomos”. Comissão Europeia, Bruxelas. https://doi. org/10.2777/531856 Kolakowski
M (2019) Como os robôs governam o mercado de ações (SPX, DJIA). Investopedia, 25 de junho. https://
www.investopedia.com/news/how-robots-rule-stock-market-spx-djia/ . Acessado em 10 de novembro de 2020
Thatcher M (2013) Margaret Thatcher: uma vida entre aspas. The Guardian, 8 de abril. https://
www.theguardian.com/politics/2013/apr/08/margaret-thatcher-quotes . Acessado em 10 de novembro de 2020
O Prof. Emérito Julian Kinderlerer é professor visitante na Faculdade de Direito da Universidade de KwaZulu-
Natal, professor emérito de Direito da Propriedade Intelectual na Universidade da Cidade do Cabo e ex-professor
de Biotecnologia e Sociedade na Delft University of Technology. Ele é o ex-presidente imediato do Grupo
Europeu de Ética em Ciência e Novas Tecnologias (EGE), que assessora a Comissão Europeia, o Conselho e
o Parlamento em questões éticas. Ele atuou como Diretor do Programa Ambiental das Nações Unidas,
fornecendo orientação aos países sobre legislação e regulamentação para o uso de organismos vivos
modificados, e foi membro do conselho consultivo do projeto SHERPA.
Machine Translated by Google
Reconhecimentos
Este livro não poderia ter surgido sem as contribuições e o apoio de muitos grupos e indivíduos
em uma série de projetos. Gostaria de agradecer a todos que contribuíram para esses projetos e
com quem colaborei ao longo dos anos.
Agradecimentos especiais são devidos aos membros do consórcio SHERPA por fazerem
grande parte do trabalho que fundamenta este livro. Devo ainda agradecimentos aos contribuidores
e colaboradores de outros projetos, nomeadamente o Projeto Cérebro Humano, o projeto Indústria
Responsável, o projeto CONSIDER e o projeto ETICA. Agradecimentos especiais são devidos a
Doris Schroeder, que apoiou o desenvolvimento deste livro, não apenas como colega de projeto,
mas também como editora da série, e facilitou sua publicação pela Springer.
O livro foi editado com habilidade e rapidez por Paul Wise, um editor brilhante na África do
Sul. Também quero agradecer a Juliana Pitanguy, da Springer, por supervisionar o processo de
publicação.
Meus agradecimentos finais vão para minha família, que permitiu que eu me trancasse ainda
mais do que o legalmente exigido durante o período de isolamento social induzido pela pandemia
em que o livro foi escrito.
Esta pesquisa recebeu financiamento do Programa de Trabalho Quadro Horizon 2020 da
União Europeia para Pesquisa e Inovação sob os Contratos de Doação nº 786641 (SHERPA), nº
785907 (Projeto Cérebro Humano SGA2) e nº 945539 (Projeto Cérebro Humano SGA3) e o
Quadro Acordo de Parceria nº 650003 (Projeto Cérebro Humano FPA).
vii
Machine Translated by Google
Conteúdo
x Conteúdo
Referências .....................................................
8 Conclusão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Índice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Machine Translated by Google
Capítulo 1
Introdução
Resumo O capítulo introdutório descreve a motivação por trás deste livro e fornece um breve
esboço do argumento principal. O livro oferece uma nova categorização de inteligência artificial
que se presta a uma classificação de questões éticas e de direitos humanos levantadas pelas
tecnologias de IA. Ele oferece uma abordagem ética baseada no conceito de florescimento
humano. Após uma revisão das formas atualmente discutidas de abordar e mitigar questões
éticas, o livro analisa a metáfora dos ecossistemas de IA.
Levar a sério a metáfora dos ecossistemas permite identificar os requisitos que as medidas de
mitigação devem cumprir. Com base nesses requisitos, o livro oferece um conjunto de
recomendações que permitem que os ecossistemas de IA sejam moldados de forma a promover
o florescimento humano.
A inteligência artificial (IA) levanta questões éticas. Tais preocupações precisam ser abordadas.
Essas duas declarações não são muito controversas. O que está menos claro é o que exatamente
constitui as preocupações éticas, por que elas são de natureza ética, quem deve abordá-las e
como devem ser tratadas.
A IA está cada vez mais onipresente e, portanto, as consequências de seu uso podem ser
observadas nos mais diversos aspectos da vida. A IA tem muitos efeitos positivos e produz
benefícios sociais. Aplicações de IA podem melhorar as condições de vida e saúde, facilitar a
justiça, criar riqueza, reforçar a segurança pública e mitigar o impacto das atividades humanas no
meio ambiente e no clima (Declaração de Montreal 2018). A IA é uma ferramenta que pode ajudar
as pessoas a realizarem seus trabalhos de forma mais rápida e melhor, criando assim muitos
benefícios. Mas, além disso, a IA também pode facilitar novas tarefas, por exemplo, analisando
dados de pesquisa em uma escala sem precedentes, criando assim a expectativa de novos
insights científicos que podem levar a benefícios em todos os aspectos da vida.
Esses benefícios precisam ser equilibrados com possíveis desvantagens e preocupações
éticas. Há muitos exemplos proeminentes. Vieses algorítmicos e a discriminação resultante
levantam preocupações de que as pessoas estão em desvantagem por razões que não deveriam
estar, por exemplo, ao conceder limites de crédito mais altos aos homens do que às mulheres (Condliffe
2 1. Introdução
2019), encaminhando pessoas brancas com mais frequência do que pessoas negras para esquemas
de atendimento melhorados em hospitais (Ledford 2019) ou anunciando empregos de alta renda com
mais frequência para homens do que para mulheres (Cossins 2018). A IA pode ser usada para prever
preferências sexuais com alto grau de certeza com base no reconhecimento facial (The Economist
2017), permitindo assim graves violações de privacidade.
A gama de preocupações vai além dos efeitos imediatos da IA nos indivíduos.
A IA pode influenciar processos e estruturas das quais a sociedade depende. Por exemplo, há
evidências que sugerem que a IA pode ser usada para exercer influência política e distorcer as
eleições, visando públicos suscetíveis com mensagens enganosas (Isaak e Hanna 2018). As pessoas
estão preocupadas em perder seus meios de subsistência porque seus empregos podem ser
automatizados. Grandes empresas multinacionais usam IA para acumular riqueza e poder de mercado
incríveis, que podem ser traduzidos em influência política não controlada (Zuboff 2019).
Um outro conjunto de preocupações vai além do impacto social e se refere à questão do que a IA
poderia fazer aos humanos em geral. Há temores de que a IA se torne consciente e mais inteligente
que os humanos, e até mesmo prejudique a humanidade como espécie. Essas são apenas algumas
das questões proeminentes que são debatidas acaloradamente e às quais retornaremos no decorrer
deste livro.
Além das muitas preocupações sobre a IA, existem várias maneiras de abordar essas questões
que requerem atenção e contribuições de muitas partes interessadas. Estes vão desde organismos
internacionais como as Nações Unidas (ONU) e a Organização para a Cooperação e Desenvolvimento
Econômico (OCDE) até parlamentos e governos nacionais, bem como grupos industriais, empresas
individuais, órgãos profissionais e indivíduos em suas funções como especialistas técnicos, usuários
de tecnologia ou cidadãos.
Como consequência, a discussão da ética da IA é altamente complexa e complicada.
É difícil ver como as prioridades podem ser definidas e as estratégias de mitigação implementadas
para garantir que as questões éticas mais significativas sejam abordadas. O estado atual do debate
sobre a ética da IA pode ser descrito como uma cacofonia de vozes em que aqueles que gritam mais
alto provavelmente serão ouvidos, mas o volume da contribuição nem sempre oferece uma garantia
de sua qualidade.
O objetivo deste livro é oferecer novas perspectivas sobre a ética da IA que possam ajudar a
iluminar o debate e também considerar maneiras de progredir em direção a soluções. Sua novidade e
contribuições únicas residem no seguinte:
1. O livro fornece uma nova categorização de IA que ajuda a categorizar tecnologias, bem como
questões éticas Proponho uma definição de IA no Capítulo 2 que se concentra em três aspectos
diferentes do termo: aprendizado de máquina, IA geral e (aparentemente) digital autônomo
tecnologias. Essa distinção capta o que acredito serem os três principais aspectos da discussão
pública. Além disso, ajuda na próxima tarefa do livro, ou seja, a categorização de questões éticas
no Capítulo 3. Com base na distinção conceitual, mas também em ricas evidências empíricas,
proponho que se possa distinguir três tipos de questões éticas: questões específicas de
aprendizado de máquina, questões gerais sobre como viver em um mundo digital e questões
metafísicas.
Machine Translated by Google
1. Introdução 3
3. O livro oferece uma nova classificação de estratégias de mitigação para os desafios éticos
da IA.
Classificar questões éticas e determinar uma teoria ética adequada pode contribuir para
encontrar possíveis soluções. Tais soluções não se desenvolvem no vácuo, mas fazem
parte de um discurso existente. Portanto, reviso a discussão atual das medidas de mitigação
que foram propostas para lidar com essas questões no Capítulo 4. Distingo entre várias
categorias de opções de mitigação, a primeira referindo-se a políticas e legislação, a
segunda a opções no nível organizacional e a terceira a mecanismos de orientação para
indivíduos.
4. O livro mostra que a metáfora de um ecossistema nos ajuda a entender a complexidade do
debate e oferece insights para intervenções práticas.
Com base em uma rica compreensão do cenário da IA, proponho a interpretação do debate
sobre a ética da IA em termos de um ecossistema. O campo da IA pode ser retratado como
um conjunto de ecossistemas interligados que consiste em muitos atores e grupos
individuais diferentes interagindo de maneiras complexas que podem influenciar o sistema
geral de maneira imprevisível. Voltando à ideia de florescimento, sugiro fazer a pergunta:
como o ecossistema de IA como um todo pode ser moldado para fomentar e promover o
florescimento humano? Essa interpretação da ética da IA permite que as ações sejam
priorizadas e que conselhos personalizados sejam desenvolvidos para partes interessadas
individuais e grupos de partes interessadas. Talvez o mais importante, leva a percepções
sobre atividades de nível superior, ou seja, aquelas que conduzem ao desenvolvimento do
ecossistema na direção desejada de promoção do florescimento humano.
Esta nova interpretação do debate sobre a ética da IA não apenas oferece insights conceituais
e uma base teórica que nos permite entender, comparar e contrastar melhor várias questões e
opções, mas também fornece uma base para ações práticas. Elas são explicadas com mais
detalhes no Capítulo 5. Após uma introdução à visão ecossistêmica da IA e suas limitações,
exploro suas implicações para possíveis formas de abordar questões éticas. A visão dos
ecossistemas implica que as intervenções no
Machine Translated by Google
4 1. Introdução
Referências
Condliffe J (2019) A semana em tecnologia: o viés algorítmico é ruim. Descobrir isso é bom. O jornal New York
Times. https://www.nytimes.com/2019/11/15/technology/algorithmic-ai-bias.html. Acessado em 21 de
setembro de 2020
Cossins D (2018) Algoritmos discriminantes: 5 vezes a IA mostrou preconceito. Nova ciência. https://
www.newscientist.com/article/2166207-discriminating-algorithms-5-times-ai-showed-prejud ice/. Acessado
em 21 de setembro de 2020 The Economist (2017) Avanços na IA são usados para detectar sinais de
sexualidade. https://www.econom ist.com/science-and-technology/2017/09/09/advances-in-ai-are-used-to-spot-
signs-of-sexuality.
Acessado em 21 de
setembro de 2020 Floridi L (2018) Ética suave e governança do digital. Philos Technol 31:1–8. https://doi.
org/10.1007/s13347-018-0303-9
Isaak J, Hanna MJ (2018) Privacidade de dados do usuário: Facebook, Cambridge Analytica e proteção de
privacidade. Computador 51:56–59. https://doi.ieeecomputersociety.org/10.1109/MC.2018.3191268 Ledford
H (2019) Milhões de negros afetados por preconceito racial em algoritmos de assistência médica. Natureza
574:608–609. https://doi.org/10.1038/d41586-019-03228-6
Declaração de Montreal (2018) Declaração de Montreal para um desenvolvimento responsável da inteligência
artificial. Université de Montreal, Montreal. https://www.montrealdeclaration-responsibleai.com/the-declaration .
Acessado em 21 de setembro de 2020
Zuboff PS (2019) A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira
de poder. Profile Books, Londres
Machine Translated by Google
Referências 5
Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons
Attribution 4.0 (http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento,
adaptação, distribuição e reprodução em qualquer meio ou formato, desde que você dê os devidos créditos
ao(s) autor(es) original(ais) e à fonte, forneça um link para a licença Creative Commons e indique se foram
feitas alterações.
As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons
do capítulo, a menos que indicado de outra forma em uma linha de crédito para o material. Se o material
não estiver incluído na licença Creative Commons do capítulo e seu uso pretendido não for permitido pela
regulamentação estatutária ou exceder o uso permitido, você precisará obter permissão diretamente do
detentor dos direitos autorais.
Machine Translated by Google
Capítulo 2
Perspectivas da Inteligência Artificial
Resumo Uma discussão sobre a ética da inteligência artificial depende da definição do termo.
Neste capítulo, proponho três conceitos inter-relacionados, mas distintos, de IA, que levantam
diferentes tipos de questões éticas. O primeiro conceito de IA é o de aprendizado de máquina,
que costuma ser visto como um exemplo de IA “estreita”. O segundo conceito é o da inteligência
artificial geral, que representa a tentativa de replicar as capacidades humanas. Finalmente,
sugiro que o termo IA é freqüentemente usado para denotar sistemas sócio-técnicos
convergentes. Cada um desses três conceitos de IA tem diferentes propriedades e características
que dão origem a diferentes tipos de preocupações éticas.
Um bom ponto de partida para uma introdução ao termo “IA” é o projeto de pesquisa de verão
de Dartmouth de 1956 sobre inteligência artificial, onde o termo foi cunhado por McCarthy e
colaboradores (McCarthy et al. 2006). Em sua proposta para este projeto, McCarthy et al.
sugerem que as máquinas podem ser feitas para simular “todos os aspectos da aprendizagem
ou qualquer outra característica da inteligência”. Como características da inteligência, McCarthy
et al. citam o uso da linguagem, a formação de abstrações e conceitos, a resolução de
problemas agora reservados ao ser humano e o autoaperfeiçoamento.
Isso aponta para o primeiro problema na compreensão da IA, ou seja, seu objetivo de
replicar ou emular a inteligência. A inteligência é em si um conceito contestado e não está claro
qual ou cuja inteligência a IA teria que replicar, a fim de ser digna de ser chamada de IA.
Organismos biológicos, incluindo humanos, parecem funcionar em princípios diferentes das
tecnologias digitais (Korienek e Uzgalis 2002). Os humanos têm acesso a “habilidades mentais,
percepções, intuição, emoções e até espiritualidade”
(Brooks 2002: 165). A IA deveria emular tudo isso?
Isso, por sua vez, aponta para o segundo problema na compreensão da IA. Existem
barreiras que a IA, como tecnologia digital, não consegue superar, aspectos da inteligência que
não podem ser replicados digitalmente? Esta é uma questão interessante que tem sido debatida
há muito tempo (Collins 1990, Dreyfus 1992). É eticamente interessante porque tem influência
sobre se a IA poderia ser considerada um assunto ético, ou seja, se poderia ter
obrigações morais em si. Isso é semelhante à questão de saber se os computadores podem pensar,
uma questão que Alan Turing considerou “muito sem sentido para merecer discussão”.
(Turing 1950: 442) e isso o levou a propor o jogo de imitação, também conhecido como Teste de
Turing.1
Ambos os problemas de compreensão da IA – ou seja, o que é a inteligência humana e qual
parte dela pode ser replicável pela IA – tornam difícil definir a IA. As sutilezas conceituais da IA
levaram a uma situação em que existem muitas definições concorrentes que cobrem vários aspectos
(Kaplan e Haenlein 2019). A OCDE (2019: 7) sugere que
[um] sistema de IA é um sistema baseado em máquina que pode, para um determinado conjunto de
objetivos definidos pelo homem, fazer previsões, recomendações ou decisões que influenciam
ambientes reais ou virtuais. Os sistemas de IA são projetados para operar com vários níveis de autonomia.
Uma definição similarmente orientada para políticas vem da Comissão Europeia (2020a: 2):
uma variedade de comportamentos inteligentes e vários tipos de trabalho mental, conhecidos como
atividades mentais, … [para] incluir percepção, memória, emoção, julgamento, raciocínio, prova,
identificação, compreensão, comunicação, design, pensamento e aprendizado, etc.
A IA é a disciplina que estuda e desenvolve artefatos computacionais que exibem alguma(s) faceta(s)
do comportamento inteligente.
Tais artefatos são frequentemente referidos como agentes (artificiais). Agentes inteligentes são aqueles
que são capazes de ação flexível para atender aos seus objetivos de projeto, onde a flexibilidade inclui
as seguintes propriedades…
• Reatividade: a capacidade de perceber seu ambiente, responder às mudanças que ocorrem nele
e, possivelmente, aprender a melhor forma de se adaptar a essas mudanças; • Pró-atividade:
capacidade de tomar iniciativa para atingir seus próprios objetivos; • Sociabilidade: a capacidade de
interagir com outros agentes ou humanos.
Como este livro trata da ética da IA, proponho uma visão do termo voltada para elucidar
preocupações éticas. Ambos os termos “IA” e “ética” representam conceitos de vários níveis que
possuem uma variedade de significados sobrepostos, mas não idênticos.
Por esse motivo, distingo três aspectos do termo IA, todos os quais têm diferentes desafios éticos
associados a eles.
1No Teste de Turing, um participante humano é colocado em frente a uma máquina, sem saber se ela é
operada por outro humano ou por um computador. As respostas do computador ao humano feitas pela máquina
podem imitar as respostas humanas o suficiente para passar por respostas humanas? É isso que o Teste de
Turing tenta estabelecer.
Machine Translated by Google
Máquina
aprendizado IA geral
(IA estreita)
Usos do
termo IA
Convergindo
sócio-técnico
sistemas
A Figura 2.1 oferece uma visão geral do uso do termo IA que discuto neste capítulo.
Uma revisão recente da literatura de IA pela editora acadêmica Elsevier (2018) sugere que há
vários conceitos-chave e campos de pesquisa que constituem a disciplina acadêmica de IA.
Com base em uma amostra de 600.000 documentos relacionados à IA, analisados em 800
palavras-chave, o relatório classificou as publicações de IA em sete grupos:
1. busca e otimização 2.
sistemas difusos 3. planejamento
e tomada de decisão 4. processamento
de linguagem natural e representação do conhecimento 5. visão
computacional 6. aprendizado de máquina 7. raciocínio probabilístico e
redes neurais.
Isso sublinha que a IA não é uma tecnologia, mas pode ser melhor compreendida como um
conjunto de técnicas e subdisciplinas (Gasser e Almeida 2017).
Machine Translated by Google
Embora todos esses grupos sejam componentes reconhecidos do campo da IA, a ênfase na ética atual
da IA está no aprendizado de máquina e nas redes neurais, grupos 6 e 7. Nenhum deles é verdadeiramente
novo. O aprendizado de máquina tem sido uma parte estabelecida da pesquisa de IA (Bishop 2006) desde
o seu início, mas avanços recentes no poder de computação e na disponibilidade de dados levaram a um
aumento em sua aplicação em uma ampla gama de domínios. O aprendizado de máquina abrange uma
ampla gama de técnicas e abordagens, incluindo aprendizado supervisionado, teoria de decisão bayesiana,
vários métodos paramétricos e não paramétricos, agrupamento e muitos outros (Alpaydin 2020).
As redes neurais são tecnologias que tentam replicar a forma como os cérebros naturais são construídos.
Eles representam uma abordagem ascendente da IA, ou seja, uma visão de que a inteligência surge da
estrutura do cérebro. As redes neurais não são uma ideia nova, mas só recentemente alcançaram sucesso
graças à disponibilidade de grandes conjuntos de dados, novos algoritmos e maior poder de computação.
As redes neurais são um fator importante por trás do recente sucesso do aprendizado de máquina, que é o
principal impulsionador da atual onda de IA.
Uma técnica particular de grande importância é a aprendizagem profunda (LeCun et al. 2015), que usa
diferentes tipos de redes neurais e tem contribuído para sucessos recentes em áreas como reconhecimento
de fala, reconhecimento visual de objetos e detecção de objetos, bem como outros domínios como como
descoberta de drogas e genômica (Horvitz 2017).
O aprendizado de máquina, apesar de seus sucessos impressionantes, pode ser caracterizado como
um exemplo de IA estreita. Conforme observado anteriormente, esta é uma técnica que replica com sucesso
processos cognitivos muito específicos. Não é capaz de transferir insights facilmente de um domínio para
outro. Um sistema de aprendizado de máquina que aprendeu a distinguir gatos de cachorros, por exemplo,
não tem automaticamente a capacidade de reconhecer linguagem natural ou categorizar imagens de
patologia para identificar câncer. O sistema subjacente pode ser capaz de cobrir outras aplicações, mas
precisará ser treinado novamente para novos propósitos.
Para este livro é importante entender qual das características aquela máquina
que a aprendizagem possui são de relevância ética. Os principais entre eles são os seguintes:
1. Opacidade: algoritmos de aprendizado de máquina e redes neurais são complexos a ponto de seu
funcionamento interno não ser fácil de entender, mesmo para especialistas no assunto. Embora
permaneçam sistemas puramente técnicos e determinados, é impossível (em parte porque são
sistemas de aprendizagem e, portanto, mudam) entender completamente seu funcionamento interno.
2. Imprevisibilidade: Como consequência do ponto 1, a previsão das saídas dos sistemas com base na
compreensão da entrada é difícil, se não impossível.
3. Requisitos de “Big Data” : Os sistemas de aprendizado de máquina em sua forma atual exigem grandes
conjuntos de dados de treinamento e capacidade significativa de computador para criar modelos.
A referência ao aprendizado de máquina como um exemplo de “IA restrita” sugere que existem outros
tipos de IA que não são restritos. Estes são normalmente referidos como IA geral e são discutidos na
próxima seção. Antes de chegarmos a isso, é importante ressaltar que o aprendizado de máquina, com seu
uso de redes neurais, não é o único tipo de IA restrita. Outros exemplos são sistemas de apoio à decisão
baseados em árvores de decisão e sistemas de lógica fuzzy. Eu me concentro no aprendizado de máquina
neste livro
Machine Translated by Google
porque é o exemplo mais proeminente de IA estreita no momento, principalmente devido aos seus
sucessos recentes. Isso não quer dizer que outros exemplos de IA restrita não possam ganhar
proeminência semelhante no futuro ou levantar outros tipos de preocupações éticas.
2.2 IA geral
A IA geral, às vezes também chamada de “IA forte”, remonta aos primórdios da pesquisa de IA e
representa a ideia de que é possível construir sistemas que exibem verdadeiros níveis de
inteligência humana (ou outro mamífero superior). Também é conhecido como “bom e velho
AI” (GOFAI). O princípio original do GOFAI era que o mundo poderia ser representado por meio de
símbolos e que a manipulação desses símbolos levaria a um comportamento inteligente (Moor e
Bynum 2002). Nessa visão, o cérebro humano era visto como um computador que executa
operações lógicas, e as mesmas ou pelo menos funcionalmente equivalentes poderiam ser
executadas em um computador digital (Floridi 1999).
Talvez a observação mais interessante sobre o projeto GOFAI seja que ele não teve sucesso
nos 65 anos desde o seu início. Neste ponto não há IA geral (Babuta et al. 2020). Isso indica que
suas suposições estão erradas ou não podem ser implementadas no tipo de computador digital
que temos atualmente à nossa disposição. Existem muitas sugestões sobre por que exatamente o
GOFAI (ainda) não alcançou seus objetivos. Uma sugestão é que o cerne do problema é ontológico,
ou seja, que o mundo simplesmente não pode ser representado de forma abrangente por meio de
símbolos definidos de cima para baixo (Smith 2019). Esta é a sugestão da fenomenologia expressa
em uma crítica inicial da IA por Dreyfus (1972).
Outra questão interessante é se a falha atual do GOFAI é temporária, o que significaria que
seremos capazes de construir sistemas gerais de IA em algum momento, ou se é fundamental, o
que significaria que existe algum componente da verdadeira inteligência que é incapaz de ser
capturado e reproduzido por máquinas, ou pelo menos pelos tipos de computadores digitais que
usamos hoje.
A IA geral tem um status estranho neste livro de ética de IA de 2020. Por um lado, parece claro
que a IA geral não existe. Portanto, pode-se argumentar que não causa preocupações éticas e
pode ser felizmente ignorado. Por outro lado, a IA geral é provavelmente o assunto mais
proeminente das discussões relacionadas à IA e à ética na ficção científica, onde um grande
número de personagens representa a IA geral para o bem ou para o mal. 2001: A Space Odyssey,
apresentando o computador senciente HAL, Blade Runner, os filmes Terminator, I, Robot, WALL-
E, Westworld e uma série de outras histórias sobre IA em geral. Essas narrativas não podem ser
ignoradas, em parte porque a ficção científica é extremamente influente na orientação das escolhas
de design técnico e em parte porque a discussão pública é guiada por elas. Intervenções de alto
nível de celebridades e cientistas reconhecidos como Elon Musk e Stephen Hawking dão
credibilidade à ideia de que a IA geral pode criar riscos éticos significativos.
Além disso, a IA geral é interessante porque muitas das questões que ela levanta são relevantes
para a ética. Sou agnóstico sobre a possibilidade de criar IA geral, em parte porque não tenho
certeza de que entendemos o que constitui a inteligência natural
Machine Translated by Google
e, portanto, não estou convencido de que poderíamos reconhecer a IA geral, mesmo que ela aparecesse.
A história da IA tem sido de mudança de metas, e agora estamos em um mundo onde muitos dos
primeiros sonhos da IA foram realizados. Exemplos de implementação de IA bem-sucedida incluem o
onipresente reconhecimento de voz que agora é padrão na maioria dos smartphones e a facilidade de
organizar grandes quantidades de dados que qualquer usuário da Internet encontra ao usar um mecanismo
de pesquisa. Apesar desses sucessos, poucos diriam que estamos perto da IA geral. Por exemplo,
sistemas de GPS integrados em nossos carros podem lembrar nossas rotas habituais para o trabalho e
sugerir a mais eficiente, dependendo das condições de tráfego atuais. Eles também falam com a gente.
Ao mesmo tempo, ainda esperamos pelo Tenente Comandante Data, o andróide de Star Trek: Picard.
A IA geral é, no entanto, um ingrediente importante no debate sobre a ética da IA porque traz à tona
algumas questões fundamentais sobre o que nos torna humanos e sobre qual é a diferença, se é que
existe alguma, entre humanos, outros animais e seres artificiais. Alguns dos aspectos que levaram ao
fracasso da IA geral até agora – a saber, a negligência da natureza humana e dos aspectos
fenomenológicos e existenciais de estar no mundo (Heidegger 1993, Moran 1999, Beavers 2002) – são
cruciais para ética e voltarei a eles no próximo capítulo.
A IA geral nos aponta, portanto, para algumas das questões filosóficas mais fundamentais, muitas
das quais podem não ter uma resposta ou podem ter muitas respostas inconsistentes, mas são
importantes para os humanos perguntarem para entender seu lugar no mundo.
Embora IA restrita e IA geral sejam conceitos amplamente reconhecidos na literatura de IA, há outro
significado do termo IA que é de alta relevância para o debate sobre a ética da IA, embora não se trate
estritamente de IA em um sentido técnico.
Existem inúmeros campos da ciência e da tecnologia que estão intimamente ligados à IA e que são
frequentemente referidos nas discussões sobre IA. Algumas delas são tecnologias que produzem os
dados que o aprendizado de máquina requer, como a internet das coisas. Outras são tecnologias que
podem ajudar a IA a ter um efeito no mundo, como a robótica (Comissão Europeia 2020b). Pode-se
também usar o termo “sistema de informação inteligente” (SIS) para denotar essa combinação de vários
tipos de tecnologias, que normalmente são baseadas em aprendizado de máquina e análise de big data
(Stahl e Wright
Machine Translated by Google
2018). Na prática, a IA raramente aparece como uma tecnologia autônoma, mas geralmente está
vinculada e incorporada a outras tecnologias.
A distinção entre diferentes tecnologias é cada vez mais difícil. Cinquenta anos atrás, um
computador seria uma grande máquina prontamente identificável com entradas, saídas e
propósitos claramente definidos. Desde então, a crescente miniaturização de dispositivos de
computação, a introdução de dispositivos móveis, sua conexão através de redes e sua integração
em tecnologias de comunicação levaram a uma situação em que a computação é integrada à
maioria dos dispositivos e processos técnicos. A IA tende a fazer parte dessas redes técnicas.
Alguns autores usaram a abreviação NBIC (nano, bio, information and cognitiva technologies)
para denotar a aparente convergência dessas tecnologias aparentemente diferentes (Khushf
2004, Van Est et al. 2014). A IA e as tecnologias relacionadas ao cérebro têm um papel central
nessa convergência.
Talvez não surpreendentemente, há muitos trabalhos que ligam a IA à neurociência, o estudo
científico do cérebro e do sistema nervoso. Uma vez que o cérebro é a sede da inteligência
humana, a pesquisa sobre o cérebro provavelmente será relevante para a compreensão da
inteligência artificial e natural. A IA sempre se baseou em nossa compreensão do cérebro, com
as redes neurais artificiais sendo um exemplo proeminente de como os insights neurocientíficos
influenciaram o desenvolvimento da IA. Atualmente, há muito interesse no que a neurociência e
o aprendizado de máquina podem aprender um com o outro (Marblestone et al. 2016, Glaser et
al. 2019) e como a neurociência e a pesquisa em IA, em seu progresso posterior, podem se
apoiar (Hassabis et al. . 2017). Uma esperança é que os insights neurocientíficos possam nos
ajudar a ir além da IA restrita para a IA geral, para o desenvolvimento de máquinas que “aprendem
e pensam como as pessoas” (Lake et al. 2017).
O termo “IA” neste contexto é usado como uma abreviatura para sistemas técnicos e
desenvolvimentos que têm potencial para crescer juntos, para apoiar e fortalecer uns aos outros.
Crucialmente, esses sistemas não são apenas sistemas técnicos, mas sistemas sócio-técnicos.
Embora isso seja verdade para qualquer sistema técnico (eles nunca surgem do nada e são
sempre usados por pessoas) (Mumford 2006), é particularmente pertinente para as tecnologias
convergentes que incluem IA. Exemplos de tais sistemas sociotécnicos incluem a maioria dos
exemplos de alto perfil de IA, como veículos autônomos, reconhecimento de padrões incorporados
– por exemplo, para o escrutínio de currículos para fins de emprego – e policiamento preditivo.
Todos eles têm uma IA estreita em seu núcleo. O que os torna interessantes e eticamente
relevantes não é tanto o funcionamento da IA, mas a maneira como o sistema sociotécnico geral
interage com outras partes da realidade social.
Esse uso do termo “IA” para denotar sistemas sociotécnicos contendo IA e outras tecnologias
aponta para algumas características dessas tecnologias que são eticamente relevantes. Esses
sistemas sociotécnicos parecem ser autônomos, ou seja, criam produtos que afetam as pessoas
de forma que não permitem que a responsabilidade seja atribuída a seres humanos. Isso não
implica um conceito forte de autonomia da IA, um conceito ao qual retornarei no próximo capítulo,
mas sim uma falta de visão e controle visíveis. Por exemplo, se o reconhecimento de padrão
incorporado for usado para digitalizar currículos para identificar candidatos adequados para
entrevistas, o sistema não é um exemplo de
Machine Translated by Google
forte autonomia (como seria um short-lister humano), mas as questões éticas em termos de supervisão
ainda são óbvias.
Outro aspecto importante desses sistemas é que eles estruturam o espaço de opções que os
indivíduos têm. Coeckelbergh (2019) usa a metáfora dos papéis teatrais. Baseando-se em Goffman
(1990), Coeckelbergh argumenta que as ações humanas podem ser vistas como performances
corporificadas. A abrangência do conteúdo dessas performances é estruturada pelo que está disponível
no palco. Os sistemas sócio-técnicos orientados pela IA assumem o papel do teatro, muitas vezes do
diretor. Mesmo que eles não instruam diretamente os humanos sobre o que devem fazer (o que
também costuma acontecer; pense no motorista do Uber recebendo instruções de seu telefone), eles
determinam o que pode ou não ser feito. Onde os humanos não estão cientes disso, tal estruturação
de opções pode ser vista como uma manipulação encoberta das ações humanas. E, dado o alcance
econômico e social e a importância dessas tecnologias, o impacto social desses sistemas pode ser
significativo. Por exemplo, o uso de um mecanismo de pesquisa na Internet e os algoritmos usados
para determinar quais descobertas são exibidas estruturam em grande parte o que os usuários desse
mecanismo de pesquisa conhecem em relação à pesquisa. Da mesma forma, as informações
disponibilizadas aos usuários de mídia social, normalmente priorizadas pela IA, podem influenciar
fortemente a percepção das pessoas sobre seu ambiente e, assim, promover ou limitar a prevalência
de teorias da conspiração. Para resumir, os sistemas sócio-técnicos habilitados para IA têm as
seguintes características.
1. Autonomia: os sistemas sociotécnicos da IA levam a consequências para os humanos que não são
simplesmente resultados de ações identificáveis de seres humanos.
2. Manipulação: Os sistemas sociotécnicos de IA estruturam as opções humanas e as ações possíveis,
muitas vezes de maneiras que os humanos não percebem.
3. Impacto social: As consequências para os indivíduos e a sociedade do uso de sistemas
sociotécnicos de IA podem ser significativas.
A Figura 2.2 fornece uma representação gráfica das características dos diferentes
significados de IA discutidos neste capítulo.
Essa visão da IA e suas subcategorias nos ajuda a entender e lidar melhor com as questões éticas
atualmente discutidas no contexto da IA. Deve ficar claro, no entanto, que não afirmo que seja a única
maneira de categorizar a IA, nem argumentaria que as três categorias são distintamente separadas.
O aprendizado de máquina pode muito bem ser a chave para a IA geral e certamente faz parte dos
sistemas sociotécnicos convergentes.
Se a IA geral se materializar, sem dúvida fará parte de novos sistemas sócio-técnicos. O objetivo da
distinção dos três aspectos é mostrar que existem diferentes visões de IA que apontam para diferentes
características do termo, o que, por sua vez, levanta diferentes questões éticas. Portanto, facilita o
envolvimento com questões éticas.
Machine Translated by Google
Referências 15
Natureza de
Opacidade
conhecimento
Máquina
Requisito Natureza
de big data aprendizado
IA geral da inteligência
(IA estreita)
Convergindo
sócio-técnico
sistemas
Manipulação
Referências
Alpaydin E (2020) Introdução ao aprendizado de máquina. The MIT Press, Cambridge MA Babuta A, Oswald
M, Janjeva A (2020) Inteligência artificial e segurança nacional do Reino Unido: considerações sobre políticas. RUSI
Ocasional Paper. Royal United Services Institute for Defense and Security Studies, Londres. https://rusi.org/sites/default/
files/ai_national_security_final_web_version.pdf.
Acessado em 21 de setembro
de 2020 Beavers AF (2002) Fenomenologia e inteligência artificial. Metafilosofia 33:70. https://doi. org/
10.1111/1467-9973.00217 Bishop CM (2006) Reconhecimento de padrões e aprendizado de máquina. Springer
Science+Business Media,
Nova Iorque
Brooks RA (2002) Carne e máquinas: como os robôs vão nos mudar. Pantheon Books, New York Coeckelbergh M (2019)
Tecnologia, narrativa e performance no teatro social. In: Kreps D (ed) Compreendendo eventos digitais: Bergson, Whitehead
e a experiência do digital, 1ª ed.
Routledge, Nova York, pp 13–27
Collins HM (1990) Especialistas artificiais: conhecimento social e sistemas inteligentes. Imprensa do MIT,
Cambridge MA
Dreyfus HL (1972) O que os computadores não podem fazer: uma crítica da razão artificial. Harper & Row, Novo
Iorque
Dreyfus HL (1992) O que os computadores ainda não podem fazer: uma crítica da razão artificial, edição revisada. MIT
Press, Cambridge MA Elsevier (2018) Inteligência artificial: como o conhecimento é criado, transferido e usado.
Tendências na China, Europa e Estados Unidos. Elsevier, Amsterdã. https://www.elsevier.com/__data/assets/pdf_file/
0011/906779/ACAD-RL-AS-RE-ai-report-WEB.pdf . Acessado em 22 de setembro de 2020 Comissão Europeia (2020a)
Livro branco sobre inteligência artificial: uma abordagem europeia para excelência e confiança. Comissão Europeia,
Bruxelas. https://ec.europa.eu/info/sites/info/files/mission-white-paper-artificial-intelligence-feb2020_en.pdf . Acessado em
22 de setembro de 2020 Comissão Europeia (2020b) Relatório sobre as implicações de segurança e responsabilidade
da inteligência artificial, da internet das coisas e da robótica. Comissão Europeia,
Machine Translated by Google
Goffman E (1990) A apresentação do eu na vida cotidiana, New Ed ed. Penguin, London Hassabis D,
Kumaran D, Summerfield C, Botvinick M (2017) Artificial inspirado em neurociência
inteligência. Neurônio 95:245-258. https://doi.org/10.1016/j.neuron.2017.06.011
Heidegger M (1993) Sein und Zeit, 14ª ed. Max Niemeyer Verlag GmbH & Co KG, Tübingen Horvitz E (2017) IA,
pessoas e sociedade. Ciência 357:7. https://doi.org/10.1126/science.aao2466 Kaplan A, Haenlein M (2019) Siri, Siri,
na minha mão: quem é a mais bela da terra? Sobre as interpretações, ilustrações e implicações da inteligência
artificial. Bus Horiz 62:15–25 Khushf G (2004) Teoria dos sistemas e ética do aprimoramento humano: uma
estrutura para convergência NBIC. In: Roco MC, Montemagno CD (eds) Coevolução do potencial humano e
tecnologias convergentes. Academia de Ciências de Nova York, Nova York, pp 124–149
Moor JH, Bynum TW (2002) Introdução à ciberfilosofia. Metaphilosophy 33:4–10 Moran D (1999) Introdução
à fenomenologia, 1ª ed. Routledge, London Mumford E (2006) A história do design sociotécnico: reflexões
sobre seus sucessos, falhas e potencial. Inf Syst J 16:317–342. https://doi.org/10.1111/j.1365-2575.2006.00221.x
OCDE (2019) Recomendação do Conselho de Inteligência Artificial. OECD/LEGAL/0449 Smith BC (2019) A
promessa da inteligência artificial: avaliação e julgamento. Imprensa do MIT,
Cambridge MA
Stahl BC, Wright D (2018) Ética e privacidade em IA e big data: implementando pesquisa e inovação responsáveis.
IEEE Secur Priv 16:26–33. https://doi.org/10.1109/MSP.2018.2701164
Turing AM (1950) Máquinas de computação e inteligência. Mind 59:433–460 Van Est R,
Stemerding D, Rerimassie V, Schuijff M, Timmer J, Brom F (2014) Da biografia para NBIC:
da prática médica à vida diária. Rathenau Instituut, Haia
Machine Translated by Google
Referências 17
Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons
Attribution 4.0 (http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento,
adaptação, distribuição e reprodução em qualquer meio ou formato, desde que você dê os devidos créditos
ao(s) autor(es) original(ais) e à fonte, forneça um link para a licença Creative Commons e indique se foram
feitas alterações.
As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons
do capítulo, a menos que indicado de outra forma em uma linha de crédito para o material. Se o material
não estiver incluído na licença Creative Commons do capítulo e seu uso pretendido não for permitido pela
regulamentação estatutária ou exceder o uso permitido, você precisará obter permissão diretamente do
detentor dos direitos autorais.
Machine Translated by Google
Capítulo 3
Conceitos de ética e sua aplicação à IA
Em seu nível mais básico, a ética tem a ver com o bem e o mal, com o certo e o errado.
No entanto, o termo “ética” é muito mais complexo do que isso e a mesma palavra é usada
para abranger aspectos muito diferentes da questão do certo e do errado. Em outro lugar
(Stahl 2012), propus a distinção de quatro níveis diferentes, todos cobertos pelo termo
“ética”:
1. Intuição moral, expressa em uma declaração do tipo: “Isso está certo” ou “Isso é
errado."
2. Moralidade explícita, expressa em declarações gerais como “Deve-se sempre/nunca
fazer isso”.
3. Teoria ética, ou seja, a justificação da moralidade com base na filosofia moral expressa
em declarações como “Fazer isso é certo/errado porque…”
4. Metaética, ou seja, teorização de alto nível sobre teorias éticas.
Essa visão da ética é compatível com outras visões, notadamente a distinção freqüentemente
sugerida entre ética aplicada, ética normativa e metaética. Ele também acomoda a típica
introdução à ética que se pode encontrar em livros didáticos de ética tecnológica (Van de Poel
e Royakkers 2011), notadamente as teorias éticas dominantes de deontologia e
consequencialismo.
As teorias éticas são tentativas de encontrar uma resposta para a pergunta: o que torna uma
ação eticamente melhor ou pior do que uma ação alternativa? Exemplos proeminentes de
teorias éticas incluem consequencialismo e deontologia. (Voltarei à ética da virtude mais tarde.)
Ambas se originaram durante o período do Iluminismo (principalmente no século XVIII). Eles
visam fornecer regras claras que nos permitam determinar a qualidade ética de uma ação. As
teorias consequencialistas se concentram nos resultados da ação para essa avaliação. As
várias abordagens do utilitarismo que remontam a Jeremy Bentham (1789) e John Stuart Mill
(1861) são os exemplos mais proeminentes. Baseiam-se na ideia de que se pode, pelo menos
em teoria, somar a utilidade e a desutilidade agregadas resultantes de um determinado curso
de ação. A opção com a maior utilidade líquida, ou seja, utilidade menos desutilidade, é a opção
eticamente ótima.
Já a deontologia parte do princípio de que a base da avaliação ética de uma ação é o dever
do agente que a executa. O representante mais proeminente dessa posição é Immanuel Kant
(1788, 1797), que formulou o chamado imperativo categórico. A formulação mais frequentemente
citada do imperativo categórico diz “Aja apenas de acordo com aquela máxima pela qual você
pode ao mesmo tempo querer que ela se torne uma lei universal” (tradução, citada em Bowie
1999: 14). Esse imperativo categórico impede os agentes de racionalizar isenções para si
mesmos.
O aspecto interessante dessa posição para nossos propósitos é que essa visão da ética não
dá atenção imediata às consequências de uma ação, mas se concentra exclusivamente na
motivação para empreendê-la.
É importante sublinhar, no entanto, que a deontologia e o utilitarismo não são as únicas
teorias éticas que podem ser aplicadas à IA e à tecnologia de forma mais ampla.
Além da ética da virtude, à qual retornarei em breve, existem outras abordagens éticas gerais,
como a ética feminista do cuidado (Gilligan 1990) e a ética baseada em várias religiões. A
aplicação de teorias éticas a áreas de aplicação específicas resultou em ricos discursos de
conceitos como ética do computador (Bynum e Rogerson 2003, Bynum 2008a, van den Hoven
2010), ética da informação (Capurro 2006, Floridi 2006) e ética da tecnologia (Brey 2011) que
são relevantes para a IA.
Bibliotecas inteiras foram escritas sobre ética filosófica, e não posso esperar fazer justiça às
muitas e ricas nuances do pensamento ético. No entanto, pode ser útil delinear como a ética se
relaciona com a condição humana. Isso pode explicar algumas das características da ética e
pode lançar luz sobre se, ou até que ponto, agentes artificiais não humanos podem ser sujeitos
éticos.
Machine Translated by Google
Uma chave para entender a ética, acredito, é que os humanos reconhecem que todos nós,
apesar das muitas e profundas diferenças, temos muito em comum. Poderíamos chamar esse
estado de “as características compartilhadas da condição humana”. Os seres humanos são
fundamentalmente sociais. Sem estruturas sociais e apoio, não apenas morreríamos como
bebês, mas também deixaríamos de desenvolver a linguagem e, portanto, a compreensão
conceitual do mundo ao nosso redor que nos permite viver nossas vidas. Somos possivelmente
a única espécie que não apenas reconhece que existimos, mas também sabe que somos
fundamentalmente vulneráveis e mortais. Não apenas sabemos disso, mas o sentimos de
maneira profunda e reconhecemos que compartilhamos esses sentimentos com outros humanos.
O destino compartilhado da morte certa nos permite ver o outro como alguém que, por mais
diferente que seja de nós, tem algumas semelhanças básicas conosco. Temos empatia com os
outros com base em nossas experiências e na suposição de que eles são como nós. E assim
como partilhamos o conhecimento da morte, partilhamos também a experiência da esperança,
da alegria, da capacidade de (mais ou menos) livremente desenvolver projetos e moldar o nosso
mundo. Este mundo não é apenas um mundo físico, mas predominantemente social, que é
construído usando as capacidades únicas da linguagem humana. A ética é então uma forma de
moldar uma parte importante deste mundo social de forma a levar em conta os aspectos compartilhados da natur
Esta descrição da natureza humana e da condição humana tem implicações diretas para o
conceito de ética e o que pode ser considerado como “ser ético”. A ética não reside exclusivamente
em uma ação ou em uma intenção. A ética faz parte de estar no mundo, para usar um termo
heideggeriano (Heidegger 1993). É caracterizada pela habilidade de um agente não apenas de
perceber diferentes estados possíveis do mundo e decidir entre opções concebíveis, mas de
fazê-lo tendo em vista o significado de tal decisão para seu próprio mundo e também para o
mundo em geral. Isso implica que o agente está conscientemente situado neste mundo e o
compreende, mas também tem uma relação emocional com ele e com os outros agentes que co-
constituem este mundo. Tal agente pode muito bem fazer uso de teorias éticas deontológicas ou
utilitárias, mas o faz de forma reflexiva como um agente que tem um compromisso com o mundo
onde esses princípios são aplicados.
Esta breve introdução à minha posição ética aponta para a ideia de florescimento humano,
que se tornará vital nas partes posteriores deste livro: florescimento humano ligado ao estar no
mundo, compreendendo os limites da condição humana e a sociabilidade essencial dos
humanos , que requer empatia. Claro, percebo que existem pessoas que têm pouca ou nenhuma
empatia, que as habilidades para interagir socialmente e usar a linguagem diferem muito, que
muitos desses aspectos se aplicam em algum grau também a alguns animais. No entanto, para
fundamentar minha posição na ética da IA e nas ideias principais deste livro, é importante que
eu não me baseie excessivamente na deontologia e no utilitarismo, mas leve em consideração
uma gama mais ampla de fontes e, em particular, a ética da virtude.
significado mais amplo. Para os antigos gregos, a filosofia não era apenas um esforço intelectual, mas uma
tentativa de encontrar maneiras de viver a “boa vida”, a resposta à pergunta: como devo viver (Annas 1993)?
As principais escolas filosóficas da Grécia antiga concordavam que o cosmos tinha um propósito e que a boa
vida individual, resultando em felicidade (Aristóteles 2007), era baseada em pessoas cumprindo seu papel na
sociedade. Esta é a base da ética da virtude, que é mais proeminentemente associada a Aristóteles (2007),
mas cujos princípios principais são amplamente compartilhados nas escolas filosóficas. O foco dessa
abordagem da ética não é tanto a avaliação dos resultados antecipados de um ato individual ou sua intenção,
mas fornecer orientação para o indivíduo para ajudá-lo a desenvolver um caráter virtuoso.
Não quero romantizar excessivamente a Grécia antiga, cuja aceitação da escravidão e da misoginia não
são aceitáveis. No entanto, a ética da virtude como uma abordagem da ética tem um apelo significativo,
provavelmente porque oferece orientação não apenas sobre problemas individuais, mas sobre como devemos
viver nossas vidas. Isso pode explicar por que voltou à proeminência desde o final do século 20 e viu tentativas
de traduzi-lo em contextos modernos (MacIntyre 2007).
Terry Bynum é um dos vários estudiosos que conseguiram traduzir os antigos princípios da ética da virtude
em um contexto saturado de tecnologia moderna. Ele sugere o desenvolvimento de uma “ética
florescente” (Bynum 2006) que se baseia nas raízes aristotélicas. Seus princípios fundamentais são:
Bynum (2008b) mostrou que esses princípios da ética da virtude são relevantes e informaram as
considerações éticas da tecnologia da informação desde seus primórdios e podem ser encontrados no trabalho
de Norbert Wiener (1954), um dos pais da tecnologia digital.
Muitas pesquisas foram realizadas para explorar como os princípios da ética da virtude podem ser
aplicados à tecnologia e como podemos viver uma vida virtuosa em uma sociedade impulsionada pela
tecnologia. Uma excelente discussão sobre a ética da virtude no contexto das tecnologias digitais é fornecida
por Vallor (2016) e, dado que minha abordagem depende fortemente de sua discussão, retornarei a ela mais
tarde com referência ao florescimento humano.
Como aponta Bynum, as pessoas são dotadas de diferentes habilidades e pontos fortes.
O florescimento inclui a excelência na busca dos próprios objetivos, o que implica que existem tantas formas
de florescer quantas combinações de habilidades. O florescimento não é, portanto, um conceito de tamanho
único, mas precisa ser preenchido com vida em um nível individual. Antes de retornar a uma discussão mais
detalhada do conceito de florescimento, agora quero discutir as motivações por trás e os propósitos de
desenvolver, implantar e usar a IA, pois isso tem relação direta com a avaliação ética dos sistemas sócio-
técnicos da IA.
Machine Translated by Google
3.3 Finalidades da IA 23
3.3 Finalidades da IA
Ao olhar para os documentos de políticas atuais que cobrem a IA, normalmente encontramos
uma mistura de todas essas três motivações: a IA pode melhorar a eficiência, o que levará a
economia de custos e, portanto, a benefícios econômicos, que diminuirão e a vida das pessoas
melhorará. Um relatório ao presidente dos Estados Unidos deu o tom ao destacar as vantagens
econômicas e sugerir que “a IA tem o potencial de dobrar as taxas anuais de crescimento
econômico nos países analisados até 2035” (Executive Office of the President 2016). A Comissão
Europeia espera que “a IA possa se espalhar por muitos empregos e setores industriais,
aumentando a produtividade e gerando um forte crescimento positivo” (Craglia et al. 2018). E um
comitê da Câmara dos Lordes do Reino Unido espera que “a IA possa se espalhar por muitos
empregos e setores industriais, aumentando a produtividade e gerando um forte crescimento
positivo”
(Câmara dos Lordes 2018).
Uma visão muito diferente do uso da tecnologia, incluindo IA, é vê-la como uma forma de
exercer controle social. Habilidades em rápido crescimento para coletar dados, em conjunto
Eficiência,
otimização,
Controle social
maximização do lucro
Finalidades da IA
Humano
florescente
com a capacidade da IA de detectar padrões e correlações entre variáveis, permitem novas formas de
controlar o comportamento humano. Isso pode ser feito de maneiras sutis, usando a ideia de “cutucada”
com base na economia comportamental (Mullainathan e Thaler 2000, Camerer et al. 2004) ou pode ser
feito de forma mais vigorosa, como por exemplo no sistema de pontuação de crédito social chinês
( Creemers 2018, Liu 2019).
A IA como controle social também pode violar os limites da legalidade, como aconteceu no caso
Facebook-Cambridge Analytica, onde dados de mídia social foram usados para influenciar ilegitimamente
o resultado de eleições democráticas (Isaak e Hanna 2018).
Zuboff (2019) oferece um argumento contundente de que o controle social é uma força motriz e uma
condição necessária para o sucesso do que ela chama de “capitalismo de vigilância”. Em sua análise,
ela não se concentra no termo IA, mas sua descrição da maneira como novos modelos de negócios se
desenvolveram e facilitaram enormes lucros está totalmente alinhada com o conceito de IA como sistemas
sociotécnicos convergentes (ver Fig. 3.1).
O terceiro propósito do uso da IA, com base na discussão anterior sobre ética, é empregá-la para o
florescimento humano. Isso significa que a IA é desenvolvida e implantada de maneira a promover o
florescimento humano. Pode ser usado como uma ferramenta que ajuda indivíduos e grupos a identificar
objetivos valiosos e apoiá-los em sua busca pela excelência na consecução desses objetivos. Há uma
série de sugestões sobre como garantir que a IA tenha consequências positivas para indivíduos e
sociedades, o que faz parte desse terceiro propósito de usar IA para o florescimento humano: por
exemplo, tentativas de construir uma “boa sociedade de IA” (Cath et al . 2016) ou o discurso sobre IA
para o bem que discuto com mais detalhes abaixo na seção sobre os benefícios da IA.
A busca pela eficiência e os benefícios econômicos resultantes podem levar a uma economia forte
que forneça o substrato material para o bem-estar humano. Ao gerar riqueza, uma economia eficiente
abre caminhos para o florescimento humano que, de outra forma, seriam impossíveis. Por exemplo, uma
mudança da produção de energia baseada em carvão para a energia solar é cara. Além disso, a busca
por eficiência e geração de lucro pode ser uma área legítima de atividade para a excelência, e as pessoas
podem florescer nessa atividade.
O controle social é muitas vezes visto como problemático e em conflito com as liberdades individuais.
O uso de tecnologias de informação e comunicação (TICs) tem sido associado a violações de privacidade
e ao crescimento da vigilância (Lyon 2001).
Essa preocupação tradicionalmente via o Estado como fonte de vigilância. Nestes dias de gigantes
corporativos que controlam grande parte dos dados e da infraestrutura técnica necessária para a IA, a
preocupação inclui a exploração de indivíduos em novas formas de “capitalismo de vigilância” (Zuboff
2019). Mas, novamente, não precisa haver uma contradição entre controle social e florescimento humano.
Os seres humanos como seres sociais precisam definir formas de colaboração, o que inclui acordo sobre
códigos morais, e estes
Machine Translated by Google
3.3 Finalidades da IA 25
Finalidade da IA
Eficiência,
otimização, Controle social
maximização do lucro
florescimento humano
precisam ser controlados e aplicados de alguma forma. Embora o nudging como instrumento de
política seja controverso, ele pode ser e frequentemente é usado para promover comportamentos que
conduzam ao florescimento, como a promoção de um estilo de vida mais saudável. Usado
especialmente no Reino Unido, Austrália, Alemanha e Estados Unidos (Benartzi et al. 2017), nudging
envolve campanhas lideradas pelo governo para atingir determinadas metas, por exemplo, taxas de
vacinação mais altas. Por exemplo, uma campanha nos EUA envolveu o envio de avisos de
planejamento para a vacinação contra a gripe aos cidadãos, o que aumentou as taxas de vacinação em 4,2% (ibid).
No domínio da tecnologia, a IA pode ser usada para promover a conscientização sobre privacidade
(Acquisti 2009), sem dúvida uma condição de florescimento. Enquanto escrevo estas frases, grande
parte do mundo está confinado devido à pandemia do COVID-19. No Reino Unido, há um debate
acalorado sobre aplicativos a serem usados para apoiar o rastreamento e rastreamento de indivíduos
infectados (Klar e Lanzerath 2020). O que isso mostra é que mesmo o controle social forçado por
meio de tecnologias digitais pode, em algumas circunstâncias, conduzir ao florescimento humano, por
exemplo, se puder ajudar a salvar vidas e permitir que a sociedade funcione.
Um diagrama do tipo Venn pode, portanto, ser uma representação melhor da relação dos três
propósitos (Fig. 3.2).
Devo enfatizar que os três propósitos da IA listados nas Figuras 3.1 e 3.2 não são intrinsecamente
contraditórios, mas descrevem os principais campos de ênfase ou diferentes direções de viagem que
podem orientar o desenvolvimento e a implantação da IA.
Minha proposta é que o objetivo explícito de fazer a coisa eticamente correta com a IA pode ser
descrito com referência ao florescimento humano.
Esta não é uma visão nova. Ele se baseia nos antigos filósofos gregos e tem sido aplicado às TIC
há décadas. Também foi aplicado à IA. Virginia Dignum (2019: 119), por exemplo, afirma: “Inteligência
Artificial Responsável é sobre a responsabilidade humana pelo desenvolvimento de sistemas
inteligentes ao longo de princípios e valores humanos fundamentais, para garantir o florescimento e o
bem-estar humanos em um mundo sustentável”. Mark Coeckelbergh (2019: 33) expressa uma visão
semelhante quando afirma que “precisamos de uma ética positiva e construtiva da IA, que não seja
apenas sobre regulamentação no sentido de restrições, mas que também diga respeito à questão da
vida boa e humana e florescimento social”. O princípio deste argumento não é problemático e
Machine Translated by Google
O florescimento da ética faz parte da tradição da ética das virtudes e tem suas raízes
históricas na ética aristotélica. Para responder à pergunta: “Como podemos entender o
cultivo da farinha em termos práticos?” é útil olhar para outras posições que compartilham
o objetivo de promover o florescimento humano. Três posições que foram aplicadas à
tecnologia, ou que foram desenvolvidas especificamente com pesquisa e desenvolvimento
tecnológico em mente, são importantes nesse contexto: teoria crítica da tecnologia, teoria
da capacidade e pesquisa e inovação responsáveis. Cada um desses três oferece uma
abordagem teórica estabelecida que é consistente com o florescimento humano e cada um
levou a uma riqueza de insights sobre como o florescimento pode ser observado e promovido.
A teoria crítica da tecnologia é meu primeiro exemplo de uma abordagem teórica
relevante para a IA que engloba o florescimento. A teoria crítica tem várias raízes diferentes
possíveis. Em seu espírito europeu, tende a traçar suas origens na crítica de Marx ao
capitalismo. Há uma recorrência do pensamento marxista em relação às tecnologias
digitais (Greenhill e Wilson 2006, Fuchs e Mosco 2017). No entanto, muito da teoria crítica
da tecnologia usa desenvolvimentos posteriores da teoria crítica, notadamente da Escola
de Frankfurt (Wiggershaus 1995). O trabalho de Andrew Feenberg (1993, 1999) é
provavelmente o exemplo mais conhecido do uso da teoria crítica para entender a
tecnologia moderna. Além disso, há uma longa discussão sobre a teoria crítica no campo
dos sistemas de informação, que se baseia em outras tradições teóricas, como o pós-
colonialismo (Mayasandra et al. 2006) e o pós-modernismo (Calás e Smircich 1999).
Em outro lugar, argumentei que uma característica central de combinação das várias
visões diferentes da teoria crítica é que elas visam promover a emancipação (Stahl 2008).
A intenção emancipatória da pesquisa crítica, ou seja, a pesquisa realizada na tradição
crítica, significa que a pesquisa resultante não pode ser confinada apenas à descrição,
mas tenta intervir e praticamente promover a emancipação (Cecez-Kecmanovic 2011).
Myers e Klein (2011), com base em Alvesson e Willmott (1992), veem a emancipação
como facilitadora da realização das necessidades e do potencial humano, da auto-reflexão
crítica e da autotransformação associada. O conceito de emancipação parece muito
próximo do princípio do florescimento humano discutido anteriormente. Minha razão para
trazer a teoria crítica para esta discussão é que a teoria crítica desenvolveu um conjunto
de ferramentas e um alto grau de sensibilidade para entender os fatores que podem impedir
a emancipação. Por causa de suas raízes na crítica da ideologia marxista, a teoria crítica
está bem posicionada para apontar os fatores que limitam a emancipação e o florescimento que
Machine Translated by Google
Uma definição muito citada de RRI proposta por Von Schomberg (2013: 63) vê RRI
como
um processo transparente e interativo pelo qual atores sociais e inovadores se tornam mutuamente
responsivos uns aos outros com vistas à aceitabilidade (ética), sustentabilidade e conveniência social
do processo de inovação e seus produtos comercializáveis (a fim de permitir uma incorporação
adequada de conhecimentos científicos e avanços tecnológicos em nossa sociedade).
O florescimento humano, no sentido amplo usado aqui, é algo que acredito que a maioria
das pessoas pode aceitar. Não nos compromete com um determinado modo de vida ou exige a
adoção de uma determinada posição ética. Isso não nos impede de usar outras teorias éticas,
incluindo deontologia e utilitarismo, para avaliar questões éticas (Bynum 2006). É compatível
com várias posições teóricas além das três (teoria crítica, teoria da capacidade, RRI) aqui
apresentadas. A escolha do florescimento humano foi guiada pela necessidade de encontrar
uma linguagem ética que possa encontrar tração nas fronteiras disciplinares, nacionais, culturais
e outras. As tecnologias de IA são globais e difundidas, mas têm impacto nos níveis local e
individual. Uma abordagem da ética da IA que visa fornecer orientação geral, portanto, precisa
ser capaz de construir pontes entre essas muitas divisões globais, o que espero que a ideia de
florescimento faça.
A tese principal deste livro é que a ética florescente pode iluminar a ética da IA e fornecer
orientação no desenvolvimento de intervenções práticas. A maioria das diretrizes atualmente
existentes não foram elaboradas a partir de um ponto de vista teórico, mas tendem a usar um
conjunto de princípios ou valores éticos. Quais são esses valores?
A revisão mais abrangente das diretrizes de ética da IA publicada até agora (Jobin et al.
2019) lista os seguintes princípios éticos: transparência, justiça e equidade, não maleficência,
responsabilidade, privacidade, beneficência, liberdade e autonomia, confiança, sustentabilidade,
dignidade e solidariedade. Cada um deles é composto de componentes.
Transparência, por exemplo, refere-se a conceitos relacionados como explicabilidade,
explicabilidade, compreensibilidade, interpretabilidade, comunicação e divulgação. A relação
entre esses conceitos normalmente não é bem definida e eles podem remeter a diferentes
posições éticas. Em outro lugar, tentamos esclarecer suas implicações normativas (Ryan e
Stahl 2020).
Outro exemplo, as diretrizes éticas para uma IA confiável propostas pelo Grupo de
Especialistas de Alto Nível da UE em Inteligência Artificial (2019), tem um nível de princípios
escalonado. O grupo de especialistas propõe uma estrutura para IA confiável que consiste em
IA legal (que eles não cobrem), IA ética e IA robusta. Essa estrutura é baseada em quatro
princípios éticos: respeito pela autonomia humana, prevenção de danos, justiça e explicabilidade.
A partir desses princípios, eles deduzem sete requisitos principais para a realização de uma IA
confiável, a saber:
Machine Translated by Google
A ética biomédica tem sido extremamente influente e sustenta a discussão dos direitos humanos
dos pacientes (Council of Europe 1997). Um aspecto crucial da ética biomédica é que ela foi
implementada por meio de um processo bem estabelecido de ética em pesquisa, com base na revisão
ética, conduzida por conselhos institucionais de revisão ou comitês de ética em pesquisa,
supervisionados por conselhos regionais ou nacionais e fortemente sancionados por financiadores de
pesquisa, editores e outros.
Não há dúvida de que essa força institucional da ética biomédica (de pesquisa) é um fator central
que orienta o debate sobre a ética da IA e leva a uma abordagem baseada em princípios que pode
ser observada na maioria das diretrizes. Esta posição dominante, no entanto, tem desvantagens. A
ética biomédica tem sido criticada dentro do campo biomédico como sendo excessivamente zelosa e
prejudicial à pesquisa (Klitzman 2015). A pesquisa empírica sobre ética em pesquisa biomédica
mostrou inconsistência no que diz respeito à aplicação de princípios (Stark 2011). E embora
amplamente incontestada no domínio biomédico, embora não completamente (Clouser e Gert 1990),
a aplicabilidade dessa abordagem à ética em outros domínios, como as ciências sociais, tem sido
veementemente contestada (Schrag 2010).
Há dois aspectos dessa discussão que valem a pena abordar sobre a ética da IA. Em primeiro
lugar, há a questão dos pressupostos implícitos da ética biomédica e sua aplicabilidade à IA. A ética
biomédica foi desenvolvida principalmente para proteger os direitos dos pacientes e participantes da
pesquisa. Isso é, sem dúvida, transferível para a IA, onde os indivíduos que recebem os sistemas de
IA são dignos de proteção. Mas porque a pesquisa biomédica visa predominantemente entender
doenças com vistas a encontrar curas, a ética biomédica está muito menos preocupada com o
propósito da pesquisa. Isto
Machine Translated by Google
Geralmente, é dado como certo que a pesquisa biomédica persegue um objetivo eticamente louvável:
o de contribuir para a saúde humana e, portanto, para o bem-estar humano. As preocupações éticas,
portanto, não surgem desse objetivo em si, mas apenas das formas de alcançá-lo. No caso da pesquisa
técnica, incluindo a pesquisa em IA, não é nada óbvio que essa premissa implícita da pesquisa
biomédica seja aplicável. A suposição de que a pesquisa em si e suas consequências pretendidas são
eticamente aceitáveis e desejáveis precisa de muito mais questionamento e debate, lançando dúvidas
sobre se o processo de ética em pesquisa biomédica orientado a processos e baseado em princípios é
adequado para fundamentar a ética da IA sobre.
Referências
Acquisti A (2009) Nudging Privacy: The Behavioral Economics of Personal Information. IEEE Secure
Priv 7:82–85. https://doi.org/10.1109/MSP.2009.163
ALLEA, Royal Society (2019) Florescendo em uma sociedade habilitada por dados. https://royalsociety.org/-/
media/policy/Publications/2019/28-06-19-flourishing-in-data-enabled-society.pdf?la=en-GB&
hash=D521F71EB21F9369FAC26D7E1313398A. Acessado em 23 de setembro de 2020
Alvesson M, Willmott H (1992) Sobre a ideia de emancipação na gestão e organização
estudos. Acad Manage Rev 17:432–464
Annas J (1993) A moralidade da felicidade, New edn. Oxford University Press, Nova York Aristóteles
(2007) A ética a Nicômaco. Filiquarian Publishing, Minneapolis Bartsch B, Gottske M (nd) Sistema de
crédito social da China. Bertelsmann Stiftung. https://www.ber telsmann-stiftung.de/fileadmin/files/aam/Asia-
Book_A_03_China_Social_Credit_System.pdf.
Acessado em 25 de
setembro de 2020 Beauchamp TL, Childress JF (2009) Princípios de ética biomédica, 6ª ed. Universidade de Oxford
Imprensa, Nova York
Benartzi S, Beshears J, Milkman KL et al (2017) Os governos devem investir mais em incentivos?
Psychol Sci 28:1031–1040. https://doi.org/10.1177/2F0956797617702501
Bentham J (1789) Uma introdução aos princípios da moral e da legislação. Publicações de Dover,
Mineola NY
Machine Translated by Google
Referências 31
Bowie NE (1999) Ética empresarial: uma perspectiva kantiana. Blackwell Publishers, Malden, MA Brey P
(2011) Ética de tecnologia antecipada para TI emergente. Em: Mauger J (ed) CEPE 2011:
cruzando fronteiras. INSEIT, Nice, França, pp 13–26
Bynum T (2008a) Computador e ética da informação. In: Zalta EN (ed) Stanford Encyclopedia of
Filosofia. https://plato.stanford.edu/archives/fall2008/entries/ethics-computer/
Bynum TW (2006) Ética florescente. Ética Inf Technol 8:157–173 Bynum TW
(2008b) Norbert Wiener e o surgimento da ética da informação. In: van den Hoven J, Weckert J (eds) Tecnologia
da informação e filosofia moral, 1ª ed. Cambridge University Press, Cambridge, pp 8–25
Bynum TW, Rogerson S (2003) Ética informática e responsabilidade profissional: texto introdutório
e leituras. Blackwell Publishers, Cambridge, Reino Unido
Calás MB, Smircich L (1999) Pós-modernismo passado? reflexões e direções experimentais. Acad
Administre Rev 24:649–671. https://doi.org/10.2307/259347
Camerer CF, Loewenstein G, Rabin M (2004) Avanços na economia comportamental. Princeton University Press,
Princeton, NJ Capurro R (2006) Rumo a um fundamento ontológico da ética da informação. Ética Inf Technol
8:175–186. https://doi.org/10.1007/s10676-006-9108-0
Cath CJN, Wachter S, Mittelstadt B, Taddeo M, Floridi L (2016) Inteligência artificial e a “boa sociedade”: a
abordagem dos EUA, UE e Reino Unido. Rede de Pesquisa em Ciências Sociais, Rochester, NY
Cecez-Kecmanovic D (2011) Fazendo pesquisa em sistemas de informação crítica: argumentos para uma
metodologia de pesquisa crítica. Eur J Inf Syst 20:440–455. https://doi.org/10.1057/ejis.2010.67 Clouser KD,
Gert B (1990) Uma crítica do principialismo. J Med Philos 15:219–236. https://doi.org/10.
1093/jmp/15.2.219
Coeckelbergh M (2019) Inteligência artificial: algumas questões éticas e desafios regulatórios. Em: Tecnologia e
Regulamentação, pp 31–34. https://doi.org/10.26116/techreg.2019.003 Conselho da Europa (1997) A
Convenção de Oviedo: protegendo os direitos humanos no campo biomédico.
https://www.coe.int/en/web/bioethics/oviedo-convention. Acessado em 30 de outubro de 2018
Craglia M, Annoni A, Benczur P et al (2018) Inteligência artificial: uma perspectiva europeia.
Serviço das Publicações da União Europeia, Luxemburgo
Creemers R (2018) Sistema de crédito social da China: uma prática de controle em evolução. Ciências Sociais
Rede de Pesquisa, Rochester, NY
Dignum V (2019) Inteligência artificial responsável: como desenvolver e usar IA de forma responsável
caminho. Springer Nature Switzerland AG, Cham, Suíça
Comissão Europeia (2013) Opções para fortalecer a pesquisa e inovação responsáveis.
Serviço das Publicações da União Europeia, Luxemburgo
Parlamento Europeu (2020) Projeto de relatório com recomendações à Comissão sobre um quadro de aspectos
éticos da inteligência artificial, robótica e tecnologias relacionadas. Parlamento Europeu, Comissão dos
Assuntos Jurídicos. https://www.europarl.europa.eu/doceo/document/JURI-PR 650508_EN.pdf. Acessado em
25 de setembro de 2020
União Europeia (2014) Declaração de Roma sobre pesquisa e inovação responsáveis na Europa https://
ec.europa.eu/research/swafs/pdf/rome_declaration_RRI_final_21_November.pdf . Acessado em 24 de setembro
de 2020
Gabinete Executivo do Presidente (2016) Inteligência artificial, automação e economia. Gabinete Executivo do
Presidente dos Estados Unidos. https://obamawhitehouse.archives.gov/sites/whi tehouse.gov/files/documents/
Artificial-Intelligence-Automation-Economy.PDF. Acessado em 23 de setembro de 2020
Feenberg A (1993) Teoria crítica da tecnologia, Nova ed. Oxford University Press Inc, Nova York Feenberg A
(1999) Questioning technology, 1ª ed. Routledge, Londres Floridi L (2006) Ética da informação, sua natureza e
escopo. ACM SIGCAS Comput Soc 36:21–36 Freyhofer HH (2004) O julgamento médico de Nuremberg: o
Holocausto e a origem do Código Médico de Nuremberg, 2ª ed. revisada. Peter Lang Publishing Inc, Nova York
Machine Translated by Google
Fuchs C, Mosco V (2017) Marx e a economia política da mídia: estudos em crítica social
ciência, reimpressão edn, vol 79. Haymarket Books, Chicago
Gilligan C (1990) Em uma voz diferente: teoria psicológica e desenvolvimento feminino, reedição.
Harvard University Press, Cambridge, MA Greenhill
A, Wilson M (2006) Haven or hell? Teletrabalho, flexibilidade e família na e-sociedade: uma análise marxista. Eur J
Inf Syst 15:379–388 Heidegger M (1993) Sein und Zeit, 14th edn. Max Niemeyer Verlag GmbH & Co KG, Tübingen
Grupo de especialistas de alto nível em inteligência artificial (2019) Diretrizes de ética para uma IA confiável.
Comissão Europeia, Bruxelas. https://ec.europa.eu/newsroom/dae/document.cfm?doc_ id=60419. Acessado em 25
de setembro de 2020
Câmara dos Lordes (2018) IA no Reino Unido: pronta, disposta e capaz? HL Paper 100. Select Committee on Artificial
Intelligence, House of Lords, Parliament, London. https://publications.parliament.uk/pa/ld201719/ldselect/ldai/
100/100.pdf . Acessado em 23 de setembro de 2020 Isaak J, Hanna MJ (2018) Privacidade de dados do usuário:
Facebook, Cambridge Analytica e proteção de privacidade. Computador 51:56–59. https://doi.ieeecomputersociety.org/
10.1109/MC.2018.3191268 Jobin A, Ienca M, Vayena E (2019) O cenário global das diretrizes de ética da IA. Nat
Mach Intel
1:389–399. https://doi.org/10.1038/s42256-019-0088-2
Johnstone J (2007) Tecnologia como capacitação: uma abordagem de capacidade para a ética do computador. Ética
Inf Technol 9:73–87
Kant I (1788) Kritik der praktischen Vernunft. Reclam, Ditzingen, Alemanha Kant I (1797)
Grundlegung zur Metaphysik der Sitten. Reclam, Ditzingen, Alemanha Klar R, Lanzerath D (2020) A
ética dos aplicativos de rastreamento COVID-19: desafios e voluntariedade.
In: Ética em pesquisa. https://doi.org/10.1177/2F1747016120943622
Kleine D (2010) ICT4WHAT? Usando a estrutura de escolha para operacionalizar a abordagem de capacidade para
o desenvolvimento. J Int Dev 22:674–692. https://doi.org/10.1002/jid.1719 Klitzman R (2015) A polícia ética? A luta
para tornar a pesquisa humana segura, 1ª ed. Oxford University Press, Nova York Liu C (2019) Vários sistemas de
crédito social na China. Rede de Pesquisa em Ciências Sociais, Rochester,
Nova Iorque
Lyon D (2001) Sociedade de vigilância: monitorando a vida cotidiana. Open University Press, Buckingham,
Reino Unido
MacIntyre AC (2007) Depois da virtude: um estudo em teoria moral. Imprensa da Universidade de Notre Dame, Notre
Senhora, IN
Mayasandra R, Pan SL, Myers MD (2006) Vendo organizações de terceirização de tecnologia da informação através
de uma lente pós-colonial. In: Trauth E, Howcroft D, Butler T et al (eds) Inclusão social: implicações sociais e
organizacionais para sistemas de informação. Springer Science+Business Media, Nova York, pp 381–396
Mill JS (1861) Utilitarianism, 2ª ed. revisada. Hackett Publishing Co, Indianapolis Mullainathan S,
Thaler RH (2000) Economia comportamental. NBER Working Paper No. 7948. National Bureau of Economic Research,
Cambridge MA Myers MD, Klein HK (2011) Um conjunto de princípios para conduzir pesquisas críticas em
informações
sistemas. MIS Q 35:17–36
Comissão Nacional para a Proteção de Seres Humanos em Pesquisas Biomédicas e Comportamentais (1979)
Relatório Belmont: princípios éticos e diretrizes para a proteção de seres humanos em pesquisas. US Government
Printing Office, Washington DC Nussbaum MC (2011) Criando capacidades: a abordagem do desenvolvimento
humano. Harvard University Press, Cambridge, MA Oosterlaken I, van den Hoven J (eds) (2012) A abordagem de
capacidade, tecnologia e design.
Referências 33
Owen R, Pansera M (2019) Inovação responsável e pesquisa e inovação responsáveis. In: Simon D, Kuhlmann S, Stamm J,
Canzler W (eds) Handbook on science and public policy. Edgar Elgar, Cheltenham Reino Unido, pp 26–48
Ryan M, Stahl BC (2020) Diretrizes éticas de inteligência artificial para desenvolvedores e usuários: esclarecendo seu conteúdo
e implicações normativas. J Inf Comun Ethics Soc. https://doi.org/10.1108/ JICES-12-2019-0138
Schrag ZM (2010) Imperialismo ético: conselhos institucionais de revisão e ciências sociais, 1965–2009, 1ª ed. Johns Hopkins
University Press, Baltimore, MD Schroeder D, Chatfield K, Singh M et al (2019) Parcerias de pesquisa equitativas: um código
de conduta global para combater o dumping ético. Springer Nature, Cham, Suíça
Von Schomberg R (2013) Uma visão de pesquisa e inovação responsáveis. In: Owen R, Heintz M,
Bessant J (eds) Inovação responsável. Wiley, Chichester, Reino Unido, pp 51–74
Wiener N (1954) O uso humano de seres humanos. Doubleday, Nova York Wiggershaus R
(1995) A Escola de Frankfurt: sua história, teoria e significado político, Nova ed.
Polity Press, Associação
Médica Mundial de Londres (2008) Declaração de Helsinque: princípios éticos para pesquisa médica envolvendo seres
humanos. https://web.archive.org/web/20091016152009/http://www.wma.net/ en/30publications/10policies/b3/ Acessado em
24 de setembro de 2020
Zuboff PS (2019) A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira
de poder. Profile Books, Londres
Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons Attribution 4.0 (http://
creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento, adaptação, distribuição e reprodução em
qualquer meio ou formato, desde que você dê os devidos créditos ao(s) autor(es) original(ais) e à fonte, forneça um link para a
licença Creative Commons e indique se foram feitas alterações.
As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons do capítulo, a
menos que indicado de outra forma em uma linha de crédito para o material. Se o material não estiver incluído na licença
Creative Commons do capítulo e seu uso pretendido não for permitido pela regulamentação estatutária ou exceder o uso
permitido, você precisará obter permissão diretamente do detentor dos direitos autorais.
Machine Translated by Google
Capítulo 4
Questões éticas da IA
Quando falamos de questões éticas da IA, tende a haver uma suposição implícita de que
estamos falando de coisas moralmente ruins. E, claro, a maior parte do debate sobre IA gira
em torno desses resultados moralmente problemáticos que precisam ser abordados. No
entanto, vale destacar que a IA promete inúmeros benefícios. Conforme observado
anteriormente, muitos documentos de política de IA concentram-se nos benefícios econômicos
da IA que devem surgir de níveis mais altos de eficiência e produtividade. Esses são valores
éticos na medida em que prometem níveis mais altos de riqueza e bem-estar que permitirão
que as pessoas vivam vidas melhores e, portanto, podem ser favoráveis ou mesmo necessários para o florescim
Vale ressaltar que isso implica certos níveis de distribuição de riqueza e certas suposições
sobre o papel da sociedade e do Estado na redistribuição da riqueza em
36 4 questões éticas da IA
maneiras eticamente aceitáveis que devem ser explicitadas. O Grupo de Especialistas de Alto
Nível da UE em IA (2019: 4) deixa isso muito claro quando afirma:
A IA não é um fim em si mesma, mas um meio promissor para aumentar o florescimento
humano, melhorando assim o bem-estar individual e social e o bem comum, além de trazer
progresso e inovação.
A IA oferece vários outros recursos técnicos que podem trazer benefícios éticos imediatos.
O International Risk Governance Center (2018) nomeia a proeza analítica da IA, ou seja, a
capacidade de analisar quantidades e fontes de dados que os humanos simplesmente não
conseguem processar. A IA pode vincular dados, encontrar padrões e gerar resultados em
domínios e limites geográficos. A IA pode ser mais consistente do que os humanos, adaptar-
se rapidamente às mudanças de entrada e liberar os humanos de tarefas tediosas ou
repetitivas. Todos esses são exemplos de capacidades técnicas que podem ser facilmente
entendidas como conducentes ao florescimento humano porque levam a uma melhor
compreensão e percepções mais profundas de vários fenômenos. Por exemplo, reduzir o
tempo de deslocamento ou aumentar a eficácia dos filtros de spam de e-mail são dois
exemplos cotidianos de onde a IA pode facilitar a vida de profissionais ocupados (Faggella 2020).
Além desses exemplos de benefícios éticos incidentais, ou seja, benefícios que surgem
como efeito colateral das capacidades técnicas da IA, há tentativas crescentes de utilizar a IA
especificamente para fins éticos. Atualmente, isso é feito sob o título de “AI for Good” (Berendt
2019). O principal desafio que a AI for Good enfrenta é definir o que conta como (eticamente)
bom. Em um mundo pluralista, muitas vezes pode não haver muito acordo sobre o que é bom
ou por que seria considerado bom. No entanto, houve inúmeras tentativas (por exemplo,
Holmes et al. 2011) para identificar bens ou valores éticos compartilhados, como benevolência,
segurança, realização e autodireção.
Pode-se observar duas abordagens diferentes para identificar os bens éticos que a IA teria
de promover para contar como IA para o bem: bens substantivos e procedimentos para
alcançá-los. Bens substantivos são aqueles resultados práticos que são universalmente, ou
pelo menos amplamente, aceitos como bons. O exemplo dominante de tais bens morais
substantivos são os Objetivos de Desenvolvimento Sustentável (ODS) da ONU (Griggs et al. 2013).
Este conjunto de 17 objetivos abrangentes foi descrito como “o melhor plano do mundo para
construir um mundo melhor para as pessoas e para o nosso planeta” (Nações Unidas 2020).
Surgiu de décadas de discussão sobre política de desenvolvimento e sustentabilidade e
evoluiu dos Objetivos de Desenvolvimento do Milênio da ONU (Sachs 2012). Os ODS são
interessantes do ponto de vista da ética da IA porque podem ser entendidos como a coisa
mais próxima do consenso da humanidade em termos de objetivos morais. Eles foram
adotados pela ONU e pela maioria dos Estados membros e agora têm uma presença marcante
nos debates éticos. Além disso, eles não são apenas aspiracionais, mas divididos em metas
e medidos por indicadores e relatados anualmente pela ONU e pelos Estados membros.
Portanto, não é surpreendente que uma das tentativas mais visíveis de promover AI for Good
pela União Internacional de Telecomunicações da ONU, a série AI for Good Global Summit,1
tenha como slogan “Acelerando os Objetivos de Desenvolvimento Sustentável das Nações Unidas”.
Embora os ODS sejam uma medida dominante do benefício ético da IA, vale ressaltar que
eles não são os únicos bens morais sobre os quais existe amplo consenso.
1https://aiforgood.itu.int/.
Machine Translated by Google
Outro grande corpo de trabalho que indica amplo acordo global é construído em torno dos direitos
humanos (Latonero 2018). Assim como os ODS, estes foram desenvolvidos pela ONU e codificados.
Além disso, os direitos humanos tornaram-se, em muitos casos, aplicáveis por meio da legislação
nacional e dos tribunais locais. Defender os direitos humanos é uma condição para o florescimento
humano (Kleinig e Evans 2013)
Os ODS e os direitos humanos são duas formas de determinar os benefícios éticos da IA.
Eles, portanto, desempenham um papel crucial na discussão de como os benefícios e as questões
éticas podem ser equilibrados, como mostrarei com mais detalhes abaixo quando chegarmos à
discussão de como as questões éticas podem ser abordadas.
Existem inúmeros relatos sobre as questões éticas da IA, principalmente desenvolvimentos de uma
longa tradição de discutir ética e IA na literatura (Coeckel bergh 2019, Dignum 2019, Müller 2020), mas
cada vez mais também surgindo de uma perspectiva política (High- Grupo de especialistas de nível em
AI 2019). Neste livro e no projeto SHERPA2 que sustenta grande parte do argumento, o objetivo era ir
além das revisões de literatura e descobrir empiricamente o que as pessoas têm em mente quando
falam das questões éticas da IA. Vou me concentrar aqui em dez estudos de caso e no primeiro estágio
aberto de um estudo Delphi para entender melhor como a ética da IA é percebida por pessoas que
trabalham com e em sistemas de IA.
O nível de análise dos estudos de caso foi definido como organizações que fazem uso de IA. Os
estudos de caso são uma metodologia recomendada para fornecer respostas ao “como” e ao “porquê”
de um fenômeno e eventos sobre os quais o pesquisador tem pouco ou nenhum controle (Yin 2003a,
b). Para obter uma compreensão ampla, um conjunto de áreas de aplicação da IA foi definido e as
organizações de estudo de caso identificadas de acordo. Usando essa metodologia, os estudos de caso
cobriram os seguintes domínios sociais:
Para cada caso, foram entrevistados no mínimo dois membros da organização, com o objetivo de
envolver pelo menos um especialista técnico que entendesse o sistema e um entrevistado com
experiência gerencial ou organizacional. Ao todo, para os dez
2https://www.project-sherpa.eu/
Machine Translated by Google
38 4 questões éticas da IA
estudos de caso, 42 indivíduos foram entrevistados. Com base no rascunho inicial do relatório de
cada caso, foi realizada uma revisão por pares entre a equipe de pesquisa, para garantir que os
casos fossem consistentes e comparáveis. Para uma visão geral detalhada dos métodos,
descobertas e resultados da pesquisa de estudo de caso, consulte Macnish et al. (2019)
A segunda parte da pesquisa que informa este capítulo foi a primeira etapa de um estudo
Delphi de três etapas. Os estudos Delphi são uma metodologia bem estabelecida para encontrar
soluções para problemas complexos e multifacetados (Dalkey et al. 1969, Adler e Ziglio 1996,
Linstone e Turoff 2002). Eles são tipicamente baseados em especialistas e são usados para
encontrar consenso entre uma população de especialistas sobre uma questão complexa e para
produzir conselhos para os tomadores de decisão. Os estudos Delphi normalmente envolvem
várias rodadas de interação, começando com questões amplas e abertas, que são então reduzidas
e priorizadas.
A visão geral das questões éticas da IA que informa minha discussão baseia-se nas respostas
à pergunta na primeira rodada de nosso estudo Delphi. Isso foi enviado a 250 especialistas em
ética e IA, selecionados entre várias partes interessadas, incluindo especialistas técnicos,
representantes da indústria, formuladores de políticas e grupos da sociedade civil.
Destes, 93 se envolveram com a pesquisa online. Um total de 41 respostas utilizáveis foram
analisadas. A pergunta aberta que foi feita foi: “Quais você acha que são as três questões éticas
ou de direitos humanos mais importantes levantadas pela IA e/ou big data?”
A análise e os resultados da primeira rodada foram publicados e compartilhados com os
participantes do Delphi (Santiago 2020). Essas descobertas foram então combinadas com as
obtidas a partir da análise de dados do estudo de caso. Por meio de discussões em grupo,
questões relevantes semelhantes foram combinadas e receberam nomes ou rótulos adequados
para garantir que fossem distintas e reconhecíveis. Para cada um deles foi fornecida uma breve
definição de um parágrafo.
A lista a seguir enumera todas as questões éticas que foram identificadas nos estudos de caso
e no estudo Delphi, totalizando 39.
1. Custo da inovação 2.
Danos à integridade física 3. Falta de
acesso a serviços públicos 4. Falta de
confiança 5. “Despertar” da IA 6. Problemas
de segurança 7. Falta de dados de qualidade
8. Desaparecimento de empregos 9.
Assimetrias de poder 10. Impacto negativo
na saúde 11. Problemas de integridade 12.
Falta de precisão dos dados 13. Falta de
privacidade 14. Falta de transparência 15.
Potencial para uso militar 16. Falta de
consentimento informado 17. Preconceito e
discriminação
Machine Translated by Google
18. Desigualdade
19. Relações de poder desiguais 20.
Uso indevido de dados pessoais 21.
Impacto negativo no sistema de justiça 22.
Impacto negativo na democracia 23. Potencial
para uso criminoso e malicioso 24. Perda de liberdade e
autonomia individual 25. Propriedade contestada de dados
26 Redução do contato humano 27. Problemas de controle
e uso de dados e sistemas 28. Falta de precisão das
recomendações preditivas 29. Falta de precisão das recomendações
não individuais 30. Concentração do poder econômico 31. Violação
dos direitos humanos fundamentais na cadeia de suprimentos 32.
Violação dos direitos humanos fundamentais dos usuários finais 33.
Impactos adversos não intencionais e imprevisíveis 34. Priorização dos
problemas “errados” 35. Impacto negativo em grupos vulneráveis 36. Falta
de responsabilidade e responsabilidade 37. Impacto negativo no meio
ambiente 38. Perda de tomada de decisão humana 39. Falta de acesso e
liberdade de informação
Há várias observações que poderiam ser feitas sobre esta lista. Embora na maioria dos casos se
possa aceitar intuitivamente que as questões podem ser vistas como eticamente relevantes, nenhum
contexto ou razão é fornecido para explicar por que elas são percebidas como eticamente problemáticas.
Muitos deles não são apenas eticamente problemáticos, mas também diretamente ligados à
regulamentação e à legislação. Sendo uma questão ética, portanto, claramente não exclui uma dada
preocupação de ser uma questão legal ao mesmo tempo.
As questões éticas são, além disso, altamente diversas em sua especificidade e probabilidade de
ocorrência. Alguns certamente acontecerão, como problemas relacionados à proteção ou precisão de
dados. Outros são concebíveis e prováveis, como uso indevido ou falta de confiança. No entanto,
outros são um tanto difusos, como um impacto negativo na democracia ou na justiça.
Em alguns casos, é fácil ver quem deve lidar com os problemas, enquanto em outros isso não é tão
claro. Esta lista unidimensional de questões éticas é, portanto, interessante como uma primeira visão
geral, mas precisa ser processada posteriormente para ser útil ao considerar como essas questões
podem ser abordadas e quais são as prioridades.
É possível mapear as questões éticas para os diferentes significados do conceito de IA, conforme
descrito na Figura 2.1, pois muitas das questões estão ligadas às características dos diferentes
significados, conforme destacado na Figura 2.2. Eu, portanto, distingo três conjuntos diferentes de
questões éticas: aquelas decorrentes do aprendizado de máquina, questões gerais relacionadas à
vida em um mundo digital e questões metafísicas (ver Fig. 4.1).
A Figura 4.1 indica a relação entre as diferentes categorias de IA apresentadas no Capítulo 2 e
as questões éticas que serão discutidas na próxima seção. Essa relação é indicativa e deve ser
entendida como heurística,
Machine Translated by Google
40 4 questões éticas da IA
Problemas específicos
perguntas metafísicas
decorrentes do aprendizado de máquina
Aprendizado
de máquina IA geral
(IA estreita)
Usos do
termo IA
Convergindo
sócio-técnico
sistemas
ou seja, resolução de problemas, pois as relações na prática são mais complexas e não necessariamente
tão lineares quanto a figura pode sugerir.
O primeiro conjunto de problemas consiste naqueles que surgem dos recursos do aprendizado de máquina.
Muitas das técnicas de aprendizado de máquina que levaram ao sucesso atual da IA são baseadas em
redes neurais artificiais. As características dessas abordagens que dão origem a preocupações éticas são
a opacidade, a imprevisibilidade e a necessidade de grandes conjuntos de dados para treinar as tecnologias.
Nem o desenvolvedor, nem o implantador nem o usuário (veja o quadro) normalmente podem saber com
antecedência como o sistema reagirá a um determinado conjunto de entradas. E como o sistema aprende
e, portanto, é adaptativo e dinâmico, os comportamentos passados não são um preditor perfeito para o
comportamento futuro em situações idênticas.
do carro e o implantador pode ser uma organização que oferece serviços de mobilidade. Um usuário
é aquele que se beneficia dos serviços. Essas funções podem coincidir e um desenvolvedor pode
Machine Translated by Google
seja um implantador. Fazer a distinção parece razoável, no entanto, porque pode-se esperar que
um desenvolvedor tenha uma compreensão detalhada da tecnologia subjacente, enquanto o
implantador pode ter muito menos percepção.
42 4 questões éticas da IA
vale para a medicina, existem relativamente poucos sistemas de IA já na prática clínica (Topol 2019).
Os sistemas de aprendizado de máquina não são, por definição, transparentes, ou pelo menos não
são transparentes da maneira que outros sistemas de TIC poderiam ser. Onde são sistemas proprietários,
a confidencialidade comercial de algoritmos e modelos pode limitar ainda mais a transparência.
“Transparência” é em si um termo contestado, mas a falta de transparência levanta questões de
responsabilidade (USACM 2017). A falta de transparência torna mais difícil reconhecer e abordar questões
de preconceito e discriminação.
O viés é uma preocupação ética muito citada relacionada à IA (CDEI 2019). Um dos principais desafios
é que os sistemas de aprendizado de máquina podem, intencionalmente ou inadvertidamente, resultar na
reprodução de vieses já existentes. Existem inúmeros relatos de alto nível de tais casos, por exemplo,
quando os preconceitos de gênero no recrutamento são replicados por meio do uso de aprendizado de
máquina ou quando os preconceitos raciais são perpetuados por meio de aprendizado de máquina em
processos de liberdade condicional (Raso et al. 2018). A discriminação com base em certas características
(às vezes chamadas de protegidas) não é apenas uma questão ética, mas há muito tempo é reconhecida
como uma violação dos direitos humanos e, portanto, tal discriminação tende a ser ilegal em muitas
jurisdições. Como a IA representa um risco para esse direito humano, tem havido um foco em destacar o
potencial do aprendizado de máquina para infringir o direito à igualdade e à não discriminação (Access Now
Policy Team2018).
A segurança também é uma questão ética fundamental do aprendizado de máquina, em particular em
sistemas que interagem diretamente com o mundo físico, como veículos autônomos (BmVI 2017) ou
sistemas que regem a prestação de cuidados de saúde críticos. Embora atualmente não seja muito visível
no debate público, a segurança certamente emergirá com destaque quando os sistemas habilitados para
aprendizado de máquina começarem a se envolver fisicamente com humanos de maneira mais ampla.
As questões éticas definidas nesta seção estão diretamente relacionadas às características técnicas
do aprendizado de máquina. Existem, no entanto, inúmeras outras preocupações éticas que estão menos
claramente ligadas ao aprendizado de máquina, muitas das quais têm a ver com as características de
sistemas sociotécnicos mais amplos que são discutidos na próxima seção.
O segundo conjunto de questões éticas consiste naqueles que se relacionam com o que chamei de “IA
como sistemas sociotécnicos convergentes”. Na Seção 2.3, sugeri que esses sistemas têm as características
de autonomia, impacto social e manipulação. Para ser claro, a distinção é analítica, pois os sistemas
sociotécnicos convergentes não são separados dos sistemas de aprendizado de máquina, mas tendem a
incluí-los e a se basear no aprendizado de máquina e em outros recursos de IA. A diferença é mais de
perspectiva, onde o termo “aprendizado de máquina” é usado para focar em tecnologias específicas para
aplicações definidas, enquanto os sistemas sociotécnicos convergentes tendem a envolver inúmeras
tecnologias e seu foco está no impacto social que elas causam.
Escolhi o rótulo “viver em um mundo digital” para descrever essas questões, a fim de deixar claro que a
maioria delas, embora ligadas à IA, não necessariamente se limitam à IA. Essas questões estão ligadas a
decisões sociais e políticas mais amplas sobre como
Machine Translated by Google
estruturar e usar grandes sistemas sócio-técnicos. Eles não podem, portanto, ser vistos
separados de seu papel social, e muitas das questões éticas são causadas diretamente pela
maneira como a sociedade e seus atores trabalham com essas tecnologias.
Um conjunto inicial de questões que surgem da vida em um mundo digital está relacionado
à economia. O mais proeminente entre estes provavelmente diz respeito ao (des)emprego.
O potencial das tecnologias relacionadas à IA para criar uma nova onda de automação e,
assim, substituir empregos há muito é reconhecido (Collins , 1990). Na verdade, Norbert Wiener
sugeriu que os computadores competindo com os humanos por empregos teriam consequências
terríveis para o emprego: “É perfeitamente claro que isso produzirá uma situação de
desemprego, em comparação com a qual a atual recessão e até a depressão dos anos trinta
parecerão uma piada agradável” (Wiener 1954: 162).
Embora essa previsão sombria (ainda) não tenha acontecido, teme-se que a IA afete
negativamente o emprego. A novidade na ameaça percebida da IA, que difere dos temores
semelhantes anteriores sobre as TIC em geral ou outras tecnologias de automação, é que os
empregos atualmente sob aparente ameaça são os que pagam melhor: a IA pode colocar cada
vez mais em risco a renda dos profissionais de classe média (Boden 2018).
Perder o emprego não é, obviamente, apenas um problema econômico; também tem aspectos
sociais e psicológicos (Kaplan e Haenlein 2019). As consequências reais da introdução da IA
para o mercado de trabalho são, pelo menos em parte, uma questão empírica. Os resultados
podem ser diferentes do esperado: os empregos podem não desaparecer, mas mudar (AI Now
Institute 2017) e novos empregos podem ser criados, o que pode levar a novas questões de
justiça e distribuição (House of Lords 2018).
Os impactos econômicos da IA não se limitam ao emprego. Outra preocupação importante
é a concentração do poder econômico (e, por implicação, político). A dependência dos atuais
sistemas de IA em grandes recursos de computação e grandes quantidades de dados significa
que as organizações que possuem ou têm acesso a tais recursos estão bem posicionadas para
se beneficiar da IA. A concentração internacional desse poder econômico entre as grandes
empresas de tecnologia é independente da IA, mas as tecnologias relacionadas à IA têm o
potencial de exacerbar o problema (Nemitz 2018).
Essas mudanças podem não ser apenas quantitativas, ou seja, relacionadas à capacidade
das grandes empresas de obter ainda mais lucros do que antes do uso da IA, mas também
podem ser qualitativamente diferentes. O conceito de Zuboff (2019) de “capitalismo de
vigilância” visa capturar as mudanças fundamentais na economia que são facilitadas pela IA e
pelo uso de big data para previsão comportamental. Seu argumento é que esses
desenvolvimentos levantam questões de justiça quando grandes empresas exploram dados de
usuários que foram expropriados de indivíduos sem compensação. O desempenho econômico
de grandes empresas de internet que fazem uso intenso de IA certamente nos faz pensar. No
momento em que escrevo, a Apple acaba de ser avaliada como a empresa global mais valiosa,
atingindo um valor de mercado de US$ 2 trilhões. O valor de mercado das cinco grandes
empresas de internet – Apple, Microsoft, Amazon, Alphabet e Facebook – aumentou US$ 3
trilhões durante a pandemia de COVID-19, entre 23 de março e 19 de agosto de 2020 (Nicas
2020). Esse desenvolvimento pode ter mais a ver com as patologias do mercado de ações do
que qualquer outra coisa, mas mostra claramente que os investidores têm grandes esperanças
no futuro dessas empresas – esperanças que provavelmente estão relacionadas à sua
capacidade de aproveitar a IA.
Machine Translated by Google
44 4 questões éticas da IA
Não obstante esses números surpreendentes, provavelmente um problema ainda mais importante
é que essas empresas utilizam seus insights para estruturar o espaço de ação dos indivíduos,
reduzindo assim a capacidade do cidadão médio de fazer escolhas autônomas. Tais questões
econômicas estão, portanto, diretamente relacionadas a questões mais amplas de justiça e equidade.
Há questões imediatas, como a propriedade dos dados e como isso se traduz na possibilidade de
usufruir dos benefícios das novas tecnologias.
A propriedade intelectual tem sido um tópico muito debatido na ética da computação há muito tempo
(Spinello e Tavani 2004) e agora está se espalhando para o debate da IA.
Outra questão muito debatida é o acesso à justiça no sentido legal e como a IA transformará o
sistema de justiça. O uso de IA para policiamento preditivo ou serviços de liberdade condicional
criminal pode ampliar os preconceitos existentes e prejudicar ainda mais partes da população
(Richardson et al. 2019).
Embora o uso de IA no sistema de justiça criminal possa ser a questão mais debatida, é provável
que a IA também tenha impactos no acesso a outros serviços, potencialmente excluindo ainda mais
segmentos da população que já estão excluídos. A IA pode, portanto, exacerbar outra preocupação
ética bem estabelecida das TIC, ou seja, a chamada divisão digital (McSorley 2003, Parayil 2005,
Busch 2011). Categorias bem estabelecidas de divisões digitais, como as divisões entre países,
gêneros e idades, e entre rural e urbano, podem ser exacerbadas devido à IA e aos benefícios que
ela pode criar. Esses benefícios implicam que a falta de capacidade de acessar a tecnologia
subjacente leva a oportunidades perdidas, o que pode ser uma preocupação ética.
Gregório 2019). Tal sistema é baseado em objetivos moralmente desejáveis, mas ainda reduz a
capacidade dos indivíduos de se moverem pela cidade como fariam na ausência do sistema. Isso
não precisa ser uma questão ética, mas pode ter consequências não intencionais que são
eticamente problemáticas, por exemplo, quando reduz o tráfego em partes da cidade que
dependem de visitantes.
Questões sociais mais amplas são relações de poder e assimetrias de poder. A dominância
econômica e a estruturação de opções de ação podem conferir grande poder e domínio a alguns
atores, a ponto de colocar em risco os princípios democráticos. O escândalo em torno do Facebook
e Cambridge Analytica (Isaak e Hanna 2018) é um lembrete de alto nível das potenciais
vulnerabilidades dos processos democráticos. Mas, como aponta Coeckelbergh (2020: 100), não
é apenas um problema de novas formas de vigilância, manipulação e autoritarismo. Nossas
estruturas democráticas podem ser igualmente prejudicadas por “mudar a economia de uma forma
que nos transforme em gado de smartphones ordenhado por nossos dados”, ligando assim de
volta ao tema generalizado de Zuboff do capitalismo de vigilância.
Essa discussão de questões éticas da IA começou com as questões mais imediatas decorrentes
de uma tecnologia específica, ou seja, aprendizado de máquina, e depois progrediu para
preocupações sociais mais amplas. A terceira e última categoria de questões éticas, que chamo
de “questões metafísicas”, é a mais aberta e inexplorada. Usei o termo “metafísico” porque as
questões aqui estão diretamente ligadas a aspectos fundamentais da realidade,
Machine Translated by Google
46 4 questões éticas da IA
da natureza do ser e da capacidade humana de dar sentido a isso. Eles também vão ao cerne da
natureza dos humanos e da humanidade.
Essas questões metafísicas estão principalmente relacionadas à inteligência artificial geral (AGI)
ou à boa e velha IA (GOFAI), que normalmente é conceituada em termos de uma representação
simbólica e lógica do mundo. A ideia é que o AGI (que pode se basear no GOFAI, mas não precisa)
exibiria habilidades de raciocínio humano. Para reiterar um ponto levantado anteriormente:
atualmente não há sistemas AGI disponíveis e há um desacordo considerável sobre sua
possibilidade e probabilidade. Pessoalmente, não estou convencido de que sejam possíveis com
as tecnologias atuais, mas não posso provar o ponto de forma mais definitiva do que outros, por
isso permanecerei agnóstico quanto à possibilidade fundamental. O que parece bastante claro, no
entanto, é que o progresso na direção da AGI é extremamente lento. Portanto, não espero que
nenhuma tecnologia que seja aceita como AGI pela maioria das comunidades de especialistas surja
nas próximas décadas.
As questões éticas metafísicas levantadas pela AGI não são, portanto, particularmente urgentes
e não conduzem a considerações políticas da mesma forma que questões como discriminação ou
desemprego o fazem. A maioria dos documentos de política sobre IA ignora essas questões, na
suposição implícita de que não precisam de desenvolvimento de políticas. Na pesquisa empírica
apresentada anteriormente nesta seção, essas questões metafísicas não foram identificadas como
questões com as quais as organizações se envolvem atualmente. Provavelmente também existe
um elemento de medo por parte de estudiosos e especialistas de serem estigmatizados como não
sendo sérios ou acadêmicos, já que essas questões metafísicas são a base da ficção científica.
No entanto, eu os incluo nesta discussão sobre questões éticas da IA por duas razões. Em
primeiro lugar, essas questões são instigantes, não apenas para especialistas, mas para a mídia e
a sociedade em geral, porque tocam em muitas das questões fundamentais da ética e da
humanidade. Em segundo lugar, algumas dessas questões podem esclarecer as questões práticas
da IA atual, forçando uma reflexão mais clara sobre conceitos-chave, como autonomia e
responsabilidade e o papel da tecnologia em uma boa sociedade.
A versão tecno-otimista da AGI é que haverá um ponto em que a IA estará suficientemente
avançada para começar a se autoaprimorar, e uma explosão de inteligência – a singularidade
(Kurzweil 2006) – ocorrerá devido a um ciclo de feedback positivo da IA sobre em si. Isso levará ao
estabelecimento de superinteligência (Bostrom 2016).
A implicação é que a AGI não será apenas melhor que os humanos na maioria ou em todas as
tarefas cognitivas, mas também desenvolverá consciência e autoconsciência (Torrance 2012). Os
contribuintes para esta discussão discordam sobre o que aconteceria a seguir. A AGI superinteligente
pode ser benevolente e tornar a vida humana melhor, pode ver os humanos como competidores e
nos destruir, ou pode residir em uma esfera diferente de consciência, ignorando a humanidade em
sua maior parte.
As especulações nesse sentido não são particularmente esclarecedoras: elas dizem mais sobre
a visão de mundo do especulador do que qualquer outra coisa. Mas o que é interessante é olhar
para algumas das questões éticas resultantes à luz das tecnologias atuais. Uma questão chave é
se tais AGIs poderiam ser sujeitos de responsabilidade. Poderíamos responsabilizá-los moralmente
por suas ações ou pelas consequências dessas ações (Bechtel 1985)? Em outras palavras, existe
algo como moralidade artificial (Wallach e Allen 2008, Wallach et al. 2011)? Esta questão é
interessante porque
Machine Translated by Google
isso se traduz na pergunta: podemos responsabilizar as IAs atuais? E essa é uma questão
prática nos casos em que as IAs podem criar consequências moralmente relevantes, como é o
caso de veículos autônomos e muitos outros sistemas que interagem com o mundo.
Grande parte da discussão sobre o status moral da IA gira em torno da definição de “ética”.
Se alguém assumir uma posição utilitária, por exemplo, pareceria plausível supor que os
computadores seriam pelo menos tão bons quanto os humanos em realizar um cálculo moral,
desde que tivessem os dados para descrever de forma abrangente os possíveis estados do
mundo. Esta parece ser a razão pela qual o problema do bonde é tão proeminente na discussão
da ética dos veículos autônomos (Wolkenstein 2018). O problema do bonde,3 baseado na
premissa de que um agente deve tomar uma decisão dilemática entre duas alternativas, cada
uma das quais normalmente matará atores diferentes, chamou a atenção de alguns estudiosos
porque parece mapear possíveis cenários do mundo real em IA, nomeadamente no que diz
respeito à programação ou comportamento de veículos autónomos. Um veículo autônomo pode
ser colocado em uma situação semelhante ao problema do bonde, pois precisa tomar uma
decisão rápida entre dois resultados eticamente problemáticos. No entanto, eu argumentaria
que isso se baseia em um mal-entendido do problema do bonde, que foi concebido por Philippa
Foot (1978) como uma ferramenta analítica para mostrar as limitações do raciocínio moral, em
particular do utilitarismo. A estrutura do dilema é voltada para mostrar que não existe uma
resposta “eticamente correta”. Portanto, foi argumentado (Etzioni e Etzioni 2017), com razão
em minha opinião, que o problema do bonde não nos ajuda a determinar se
3Um problema típico de bonde veria um agente parado perto dos pontos onde duas linhas
ferroviárias se fundem em um único trilho. Da via única, um trem se aproxima. Sem saber do trem,
várias crianças brincam no trilho da esquerda, enquanto um único trabalhador, também sem saber
do trem, trabalha no trilho da direita. O trem está pronto para atingir as crianças. Ao trocar os
pontos, o agente pode mudar o trem para o trilho da direita, salvando a vida das crianças, mas
levando a uma única morte. O que o agente deve fazer? Esse é o problema do bonde.
Machine Translated by Google
48 4 questões éticas da IA
máquinas pode ser ético, porque pode ser totalmente resolvido com recurso aos padrões
existentes de responsabilidade humana.
Argumentei anteriormente que a chave para entender a ética é uma compreensão da condição
humana. Desenvolvemos e usamos a ética porque somos seres corpóreos e, portanto, vulneráveis
e mortais, que podem sentir empatia por outros que têm medos e esperanças semelhantes aos
nossos. Esta é a base de nossa natureza social e, portanto, de nossa ética. Se partirmos desse
ponto de partida, então a IA, para ser moralmente responsável e um agente ético, teria que
compartilhar essas características. No momento, nenhum sistema chega perto da empatia. Isso
não tem nada a ver com as habilidades computacionais da IA, que excedem em muito as nossas
há algum tempo, mas surge do fato de que a IA simplesmente não está na mesma categoria que
nós.
Isso não significa que não possamos atribuir um status moral à IA ou a algum tipo de IA. Os
humanos podem atribuir tal status a não-humanos e sempre o fizeram, por exemplo, vendo partes
da natureza ou artefatos como divinos ou protegendo certas entidades de serem tratadas de
certas maneiras.
Tal visão da IA tem a vantagem de resolver algumas das questões metafísicas imediatamente.
Se um compromisso existencialista com nosso mundo social compartilhado é uma condição para
ser um agente ético, então a IA atual simplesmente sai da equação.
Isso não significa que os desenvolvedores de veículos autônomos não precisem mais se
preocupar, mas significa que eles podem usar mecanismos estabelecidos de responsabilidade,
responsabilidade e responsabilidade para tomar decisões de design. Também não exclui
fundamentalmente agentes morais artificiais, mas estes teriam que ser de uma natureza muito
diferente das atuais tecnologias de computação.
Esta posição não resolve todas as questões metafísicas. Existem questões interessantes
decorrentes da combinação de humanos e máquinas que precisam de atenção.
As redes de atores contendo artefatos ativados por IA podem muito bem mudar algumas de
nossas percepções éticas. Quanto mais a IA se integra à nossa natureza, mais ela levanta novas
questões. Isso começa com aspectos aparentemente triviais da prevalência de dispositivos
onipresentes, como telefones celulares, e o que eles fazem com nossa agência. Tecnologias de
ponta, como interfaces de computador cerebral com suporte de IA, mudam o que podemos fazer,
mas também podem mudar a forma como atribuímos responsabilidades. Nesse sentido, questões
de pós-humanismo (Barad 2003) e aprimoramento humano (Bostrom e Sandberg 2009,
Coeckelbergh 2011) podem ser mais interessantes do ponto de vista da ética da IA porque
começam com a agência ética existente que pode precisar ser ajustada.
É claro que muito mais poderia ser dito sobre as questões éticas da IA, mas esperamos que
este capítulo tenha dado uma boa visão geral e fornecido uma categorização útil dessas questões,
conforme mostrado na Tabela 4.1.
A categorização na Tabela 4.1 não é oficial, e outras são possíveis. Uma visão diferente que
chegaria a conclusões semelhantes focaria na natureza temporal das questões. Ordenar questões
éticas de IA por proximidade temporal e urgência não é novidade. Baum (2018) sugeriu a distinção
entre “presentistas” e “futuristas”, chamando a atenção para questões de IA de curto e longo
prazo. Estendendo esse pensamento para a discussão das questões éticas da IA apresentadas
neste capítulo, pode-se dizer que as questões éticas do aprendizado de máquina são as mais
imediatas e as metafísicas são questões de longo prazo, se não perpétuas. A categoria de
problemas
Machine Translated by Google
3. Questões metafísicas
Consciência da máquina
“Despertar” da IA
Agentes morais autônomos
Superinteligência
Singularidade
Mudanças na natureza humana
Machine Translated by Google
50 4 questões éticas da IA
decorrente de viver no mundo digital está localizado em algum lugar no meio. Essa visão
também pode ter implicações para a questão de como, quando e por quem as questões
éticas em IA podem ser abordadas, o que será discutido no próximo capítulo.
Referências
Access Now Policy Team (2018) Declaração de Toronto: protegendo o direito à igualdade e à não discriminação em
sistemas de aprendizado de máquina. Acesse Agora, Toronto. https://www.access now.org/cms/assets/uploads/2018/08/
The-Toronto-Declaration_ENG_08-2018.pdf. Acessado em 26 de setembro de 2020
Adler M, Ziglio E (eds) (1996) Olhando para o oráculo: o método Delphi e sua aplicação para
política social e saúde pública. Jessica Kingsley, Londres
AI Now Institute (2017) Relatório AI Now 2017. https://ainowinstitute.org/AI_Now_2017_Report. pdf. Acessado em 26 de
setembro de 2020
Babuta A, Oswald M, Janjeva A (2020) Inteligência artificial e segurança nacional do Reino Unido: considerações sobre
políticas. RUSI Ocasional Paper. Royal United Services Institute for Defense and Security Studies, Londres. https://
rusi.org/sites/default/files/ai_national_security_final_web_version.pdf.
Acessado em 21 de setembro
de 2020 Barad K (2003) Performatividade pós-humanista: em direção a uma compreensão de como a matéria surge
matéria. Sinais 28:801–831. https://doi.org/10.1086/345321
Baum SD (2018) Reconciliação entre facções com foco em ações artificiais de curto e longo prazo
inteligência. AI Soc 33:565–572. https://doi.org/10.1007/s00146-017-0734-3
Bechtel W (1985) Atribuindo responsabilidade a sistemas de computador. Metaphilosophy 16:296-306.
https://doi.org/10.1111/j.1467-9973.1985.tb00176.x
Berendt B (2019) AI para o bem comum?! Armadilhas, desafios e testes de ética. Paladyn J Behav Robot 10:44–65. https://
doi.org/10.1515/pjbr-2019-0004 BmVI (2017) Ethik-Kommission: Automatisiertes und vernetztes Fahren.
Bundesministerium für Verkehr und digitale Infrastruktur, Berlim. https://www.bmvi.de/SharedDocs/DE/Publikationen/ DG/
bericht-der-ethik-kommission.pdf?__blob=publicationFile. Acessado em 26 de setembro de 2020 Boden MA (2018)
Inteligência artificial: uma introdução muito curta, Reimpressão edn. Universidade de Oxford
Imprensa, Oxford
Bostrom N (2016) Superinteligência: caminhos, perigos, estratégias, Reimpressão edn. Oxford University Press, Oxford e
Nova York Bostrom N, Sandberg A (2009) Aprimoramento cognitivo: métodos, ética, desafios regulatórios.
Busch T (2011) Capacidades dentro, capacidades fora: superando divisões digitais promovendo
cidadania e TIC justas. Ética Inf Technol 13:339–353
Buttarelli G (2018) Escolha a humanidade: devolvendo a dignidade ao digital. In: Discurso na 40ª conferência internacional
de comissários de proteção de dados e privacidade, Bruxelas. https://www.privacyco nference2018.org/system/files/
2018-10/Choose%20Humanity%20speech_0.pdf. Acessado em 26 de setembro de 2020
CDEI (2019) Relatório provisório: Revisão do viés na tomada de decisões algorítmicas. Centro de Ética e Inovação de
Dados, Londres. https://www.gov.uk/government/publications/interim-reports from-the-centre-for-data-ethics-and-
innovation/interim-report-review-into-bias-in-algorithmic decision-making. Acessado em 26 de setembro de 2020
Coeckelbergh M (2011) Desenvolvimento humano ou aprimoramento humano? Uma reflexão metodológica sobre
capacidades e avaliação de tecnologias de informação. Ética Inf Technol 13:81–92. https://doi.org/10.1007/
s10676-010-9231-9 Coeckelbergh M (2019) Inteligência Artificial: algumas questões éticas e desafios regulatórios. Em:
Tecnologia e regulamentação, pp 31–34. https://doi.org/10.26116/techreg.2019.003
Machine Translated by Google
Referências 51
Dignum V (2019) Inteligência artificial responsável: como desenvolver e usar IA de forma responsável
caminho. Springer Nature Switzerland AG, Cham, Suíça
Etzioni A, Etzioni O (2017) Incorporando a ética na inteligência artificial. J Ética 21:403–418. https://doi.org/
10.1007/s10892-017-9252-2 Parlamento Europeu (2020) Projeto de relatório com recomendações à Comissão
sobre um quadro de aspectos éticos da inteligência artificial, robótica e tecnologias relacionadas. Parlamento
Europeu, Comissão dos Assuntos Jurídicos. https://www.europarl.europa.eu/doceo/document/JURI-PR
650508_EN.pdf. Acessado em 25 de setembro de 2020
Faggella D (2020) Exemplos cotidianos de inteligência artificial e aprendizado de máquina. Emerj, Boston, MA.
https://emerj.com/ai-sector-overviews/everyday-examples-of-ai/. Acessado em 23 de setembro de 2020
Fischer JM (1999) Trabalho recente sobre responsabilidade moral. Ética 110:93–139
Flick C (2016) Consentimento informado e o estudo de manipulação emocional do Facebook. Res Ethics 12.
https://doi.org/10.1177/1747016115599568 Pé P (1978) Virtudes e vícios e outros ensaios em filosofia moral.
Universidade da Califórnia
Imprensa, Berkeley e Los Angeles
Goeldner M, Herstatt C, Tietze F (2015) O surgimento da robótica assistencial: uma análise de patentes e
publicações. Technol Forecast Soc Change 92:115–131. https://doi.org/10.1016/j.techfore.2014. 09.005
Holmes T, Blackmore E, Hawkins R (2011) O manual da causa comum: um guia de valores e estruturas para
ativistas, organizadores comunitários, funcionários públicos, arrecadadores de fundos, educadores,
empreendedores sociais, ativistas, financiadores, políticos e todos os demais. Centro de Pesquisa de Interesse
Público, Machynlleth Reino Unido
Câmara dos Lordes (2018) IA no Reino Unido: pronta, disposta e capaz? HL Paper 100. Select Committee on
Artificial Intelligence, House of Lords, Parliament, London. https://publications.parliament.uk/pa/ld201719/
ldselect/ldai/100/100.pdf . Acessado em 23 de setembro de 2020 International Risk Governance Center
(IRGC) (2018) A governança dos algoritmos de tomada de decisão. Centro Internacional de Governança de
Risco da EPFL, Lausanne. https://infoscience.epfl.ch/rec ord/261264/files/
IRGC%20%282018%29%20The%20Governance%20of%20Decision-Mak ing%20Algorithms-
Workshop%20report.pdf. Acessado em 26 de setembro de 2020
Isaak J, Hanna MJ (2018) Privacidade de dados do usuário: Facebook, Cambridge Analytica e proteção de
privacidade. Computador 51:56–59. https://doi.ieeecomputersociety.org/10.1109/MC.2018.3191268 Jagielski
M, Oprea A, Biggio B et al. (2018) Manipulando aprendizado de máquina: ataques de envenenamento e
contramedidas para aprendizado de regressão. In: Simpósio IEEE 2018 sobre segurança e privacidade (SP),
San Francisco. https://doi.org/10.1109/SP.2018.00057
Jernigan C, Mistree BFT (2009) Gaydar: amizades no Facebook expõem a orientação sexual. Primeira segunda-
feira 14. https://firstmonday.org/ojs/index.php/fm/article/download/2611/2302. Acessado em 26 de setembro
de 2020
Machine Translated by Google
52 4 questões éticas da IA
Kaplan A, Haenlein M (2019) Siri, Siri, na minha mão: quem é a mais bela da terra? Sobre as interpretações, ilustrações
e implicações da inteligência artificial. Ônibus Horiz 62:15–25 Kleinig J, Evans NG (2013) Florescimento humano,
dignidade humana e direitos humanos. Lei Philos
32:539–564. https://doi.org/10.1007/s10982-012-9153-2
Krafft T, Hauer M, Fetic L et al (2020) Dos princípios à prática: uma estrutura interdisciplinar para operacionalizar a ética
da IA. VDE e Bertelsmann Stiftung. https://www.ai-ethics-impact.org/res ource/blob/1961130/
c6db9894ee73aefa489d6249f5ee2b9f/aieig—report—download-hb-data. pdf. Acessado em 26 de setembro de 2020
Kurzweil R (2006) A singularidade está próxima. Gerald Duckworth & Co, Londres Latonero
M (2018) Governando a inteligência artificial: defendendo os direitos humanos e a dignidade. Dados & Sociedade.
https://datasociety.net/wp-content/uploads/2018/10/DataSociety_Governing_Artifi
cial_Intelligence_Upholding_Human_Rights.pdf. Acessado em 26 de setembro de 2020 Lessig L (1999) Código: e
outras leis do ciberespaço. Basic Books, Nova York Linstone HA, Turoff M (eds) (2002) O método Delphi: técnicas e
aplicações. Addison Wesley Publishing Company, Programa Avançado de Livros. https://web.njit.edu/~turoff/pubs/
delphibook/delphibook.pdf . Acessado em 26 de setembro de 2020 Macnish K, Ryan M, Gregory A et al. (2019)
Entregável SHERPA D1.1 Estudos de caso. De Montfort
Universidade. https://doi.org/10.21253/DMU.7679690.v3
McSorley K (2003) A história da salvação secular da exclusão digital. Ética Inf Technol 5:75–87. https://doi.org/10.1023/
A:1024946302065 Müller VC (2020) Ética da inteligência artificial e da robótica. In: Zalta EN (ed) A enciclopédia de
filosofia de Stanford, outono de 2020. Metaphysics Research Lab, Stanford University, Stanford, CA
Nemitz P (2018) Democracia constitucional e tecnologia na era da inteligência artificial. Phil Trans R Soc A 376:20180089.
https://doi.org/10.1098/rsta.2018.0089 Nicas J (2020) Apple atinge US$ 2 trilhões, pontuando o domínio da big tech.
O jornal New York Times. https://www.nytimes.com/2020/08/19/technology/apple-2-trillion.html . Acessado em 26 de
setembro de 2020 Parayil G (2005) A divisão digital e os retornos crescentes: as contradições da informação
Richardson R, Schultz J, Crawford K (2019) Dados sujos, previsões ruins: como as violações dos direitos civis afetam
os dados policiais, os sistemas de policiamento preditivo e a justiça. NY Univ Law Rev Online 192. https://ssrn.com/
abstract=3333423. Acessado em 26 de setembro de 2020
Ryan M, Gregory A (2019) Ética do uso de IA de cidade inteligente e big data: o caso de quatro grandes
cidades europeias. ORBIT J 2. https://doi.org/10.29297/orbit.v2i2.110
Sachs JD (2012) Dos objetivos de desenvolvimento do milênio aos objetivos de desenvolvimento sustentável. Lanceta
379:2206–2211. https://doi.org/10.1016/S0140-6736(12)60685-0
Santiago N (2020) Moldando as dimensões éticas dos sistemas de informação inteligentes: uma perspectiva europeia.
Estudo SHERPA Delphi, resultados da 1ª rodada. Projeto SHERPA. https://www.project-she rpa.eu/wp-content/
uploads/2020/03/sherpa-delphi-study-round-1-summary-17.03.2020.docx. pdf. Acessado em 26 de setembro de 2020
Sharkey A, Sharkey N (2010) Vovó e os robôs: questões éticas no cuidado de robôs para idosos.
Referências 53
1093/mente/LIX.236.433
Nações Unidas (2020) Plataforma de conhecimento sobre desenvolvimento sustentável. https://sustainabledevelop
ment.un.org. Acessado em 25 de maio de 2020
Declaração do USACM (2017) sobre transparência e responsabilidade algorítmica. ACM US Public Policy Council, Washington
DC. https://www.acm.org/binaries/content/assets/public-policy/ 2017_usacm_statement_algorithms.pdf. Acessado em 26
de setembro de 2020 Wallach W, Allen C (2008) Máquinas morais: ensinando robôs do certo e do errado. Universidade de
Oxford
Imprensa, Nova York
Wallach W, Allen C, Franklin S (2011) Consciência e ética: agentes morais artificialmente conscientes. Int J Mach Conscious
3:177–192. https://doi.org/10.1142/S1793843011000674
Wiener N (1954) O uso humano de seres humanos. Doubleday, Nova York Wolkenstein A
(2018) O que o dilema do bonde já fez por nós (e o que fará no futuro)? Sobre alguns debates recentes sobre a ética dos
carros autônomos. Ética Inf Technol 1–11. https://doi.org/10.1007/s10676-018-9456-6 Yin RK (2003a) Aplicações da
pesquisa de estudo de caso, 2ª ed. Sage Publicações, Thousand Oaks
CA
Yin RK (2003b) Pesquisa de estudo de caso: projeto e métodos, 3ª ed. Publicações Sage, Mil
Oaks, Califórnia
Zuboff PS (2019) A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira
de poder. Profile Books, Londres
Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons Attribution 4.0 (http://
creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento, adaptação, distribuição e reprodução em
qualquer meio ou formato, desde que você dê os devidos créditos ao(s) autor(es) original(ais) e à fonte, forneça um link para
a licença Creative Commons e indique se foram feitas alterações.
As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons do capítulo, a
menos que indicado de outra forma em uma linha de crédito para o material. Se o material não estiver incluído na licença
Creative Commons do capítulo e seu uso pretendido não for permitido pela regulamentação estatutária ou exceder o uso
permitido, você precisará obter permissão diretamente do detentor dos direitos autorais.
Machine Translated by Google
capítulo 5
Abordando questões éticas em IA
Resumo Este capítulo analisa as propostas que foram apresentadas para abordar questões éticas da IA. Ele
os divide em propostas de nível de política, respostas organizacionais e orientação para indivíduos. Ele
discute como essas opções de mitigação são refletidas nos estudos de caso que exemplificam a realidade
social da ética da IA. O capítulo termina com uma visão geral dos grupos de partes interessadas afetados
pela IA, muitos dos quais desempenham um papel na implementação das estratégias de mitigação e na
abordagem de questões éticas na IA.
Agora temos uma visão detalhada, empiricamente informada e, espero, conceitualmente interessante da
ética da IA. Isso leva à pergunta: o que podemos fazer sobre isso?
Este capítulo oferece uma visão geral das possíveis respostas que estão sendo discutidas atualmente nos
discursos acadêmicos e políticos. Para facilitar a leitura, divide as opções em nível de política, nível
organizacional, mecanismos de orientação e atividades de apoio. Para cada uma dessas categorias, serão
introduzidas as principais medidas de mitigação e destacadas as principais questões e questões em aberto.
As atividades ao nível das políticas são realizadas pelos decisores políticos. Estas podem situar-se a nível
nacional, mas também a nível regional e/ou internacional. Devido à natureza da IA como uma tecnologia
internacional e transfronteiriça, será dada atenção especial às iniciativas de políticas internacionais
provenientes de organismos internacionais como a ONU, a Organização das Nações Unidas para a Educação,
a Ciência e a Cultura (UNESCO) e a OCDE. E, como um europeu escrevendo um livro baseado em grande
parte na pesquisa europeia, concentro minha atenção principalmente na política europeia.
Essas iniciativas políticas podem ser ambiciosas ou mais tangíveis. Para que façam uma
diferença prática, precisam ser traduzidas em legislação e regulamentação, como será discutido
na seção a seguir.
No momento em que escrevo este texto (verão europeu de 2020), há muita atividade na Europa
voltada para o desenvolvimento de legislação e regulamentação apropriadas da IA no nível da
UE. A Comissão Europeia lançou vários documentos e propostas de políticas (por exemplo,
Comissão Europeia 2020c, d), incluindo um Livro Branco sobre IA (Comissão Europeia 2020a).
O Parlamento Europeu compartilhou algumas contrapropostas (Parlamento Europeu 2020a, b)
e espera-se que o processo político leve a uma ação legislativa em 2021.
Machine Translated by Google
Usando uma estratégia de avaliação pré-definida, todas essas propostas foram avaliadas.
A avaliação geral sugeriu que muitas dessas opções tinham escopo amplo e careciam de requisitos
específicos (Rodrigues et al. 2020). Eles se concentraram demais em questões bem estabelecidas,
como preconceito e discriminação, mas negligenciaram outras questões de direitos humanos, e as
restrições de recursos surgiriam de atividades intensivas em recursos, como a criação de agências
reguladoras e a obrigatoriedade de avaliações de impacto.
Sem entrar em mais detalhes do que o apropriado para um Springer Brief, o que parece claro é
que a legislação e a regulamentação desempenharão um papel crucial em encontrar maneiras de
garantir que a IA promova o florescimento humano. Uma revisão recente do discurso da mídia
sobre IA (Ouchchy et al. 2020) mostra que a regulamentação é um tópico-chave, embora não haja
acordo sobre se e qual regulamentação é desejável.
Há, no entanto, uma opção regulatória atualmente em debate acalorado que tem o potencial de
afetar significativamente a forma futura do uso da tecnologia na sociedade e que, portanto, discuto
separadamente na próxima seção.
Machine Translated by Google
5.1.3 Regulador IA
A criação de um regulador para IA é uma das opções regulatórias. Só faz sentido ter uma se
houver algo a regulamentar, ou seja, se houver regulamentação que precise ser fiscalizada e
aplicada. Diante da multiplicidade de opções regulatórias descritas na seção anterior, pode-se
perguntar se há necessidade de um regulador específico para IA, uma vez que não está claro
qual será o regulamento.
É novamente instrutivo olhar para a atual discussão da UE. O Livro Branco da CE (Comissão
Europeia 2020a) caminha com muito cuidado a esse respeito e discute sob o título de
“Governança” uma rede de autoridades nacionais, bem como redes setoriais de autoridades
reguladoras. Além disso, propõe que um comitê de especialistas possa prestar assistência à
CE. Isso mostra uma relutância em criar uma nova instituição. A contraproposta do Parlamento
Europeu (2020a) assume uma posição muito mais forte. Renova um apelo anterior à designação
de uma “Agência Europeia para a Inteligência Artificial”. O Artigo 14 do regulamento proposto
sugere a criação de uma autoridade supervisora em cada estado membro europeu (ver, por
exemplo, missão Datenethikkom 2019) que seria responsável por fazer cumprir as formas de
lidar com questões éticas de IA. Estas autoridades nacionais de supervisão terão de colaborar
estreitamente entre si e com a Comissão Europeia, de acordo com a proposta do Parlamento
Europeu.
As organizações, sejam elas públicas ou privadas, com fins lucrativos ou não, desempenham
um papel central no desenvolvimento e implantação da IA. Muitas das decisões que influenciam
os resultados éticos são tomadas pelas organizações. As organizações também colherão muitos
dos benefícios da IA, principalmente os benefícios financeiros de desenvolver ou implantar a IA.
Eles estão, portanto, intimamente envolvidos no discurso da ética da IA. Nesta seção, distingo
entre compromissos da indústria, governança organizacional e iniciativas estratégicas que
organizações de diferentes tipos podem adotar para abordar questões éticas de IA.
Para alcançar objetivos éticos na indústria, muitas vezes é útil que as organizações unam
forças, por exemplo, na formulação de objetivos éticos (Leisinger 2003). Embora as organizações
não necessariamente compartilhem objetivos, benefícios ou encargos, certamente existem
grupos de organizações que têm interesses e posições comuns. Uma ação que tais organizações
podem realizar é formar associações para formular seus pontos de vista e alimentá-los no
discurso social mais amplo. O exemplo mais proeminente de tal associação de organizações é
a Partnership on AI,1 que inclui os gigantes da Internet – Google, Apple, Facebook, Amazon,
Microsoft – bem como uma série de organizações acadêmicas e da sociedade civil. Outras
associações, como a Big Data Value Association2, concentram-se em questões ou áreas
específicas, como big data na Europa.
As associações industriais podem não ter a confiança do público quando representam
interesses industriais, onde estes são vistos como contrários ao bem público mais amplo. Por
exemplo, o abrangente Edelman Trust Barometer (Edelman 2020: 23) constatou que 54% dos
entrevistados acreditavam que as empresas eram injustas, pois atendia apenas aos interesses
de poucos, em vez de servir a todos de maneira igual e justa.
Por exemplo, parece razoável supor que um dos principais propósitos da Partnership on AI
é fazer lobby junto aos tomadores de decisão política de forma favorável às empresas. Ao
mesmo tempo, é reconfortante, e talvez um testemunho da alta visibilidade da ética da IA, que
os pronunciamentos da Parceria sobre IA enfatizem questões éticas com mais intensidade do
que a maioria das posições governamentais. A maioria dos membros da Partnership on AI são
entidades sem fins lucrativos, e suas declarações posicionam claramente o propósito da IA no
que descrevi como IA para o florescimento humano. A Partnership on AI tem um conjunto de
princípios publicados em seu site que começa dizendo:
Acreditamos que as tecnologias de inteligência artificial são uma grande promessa para melhorar a
qualidade de vida das pessoas e podem ser aproveitadas para ajudar a humanidade a enfrentar importantes
desafios globais, como mudança climática, alimentação, desigualdade, saúde e educação. (Parceria em AI nd)
1https://www.partnershiponai.org/ 2http://
www.bdva.eu/
Machine Translated by Google
Os cínicos podem argumentar que este é um exemplo de lavagem ética (Wagner 2018) com o
objetivo principal de evitar a regulamentação (Nemitz 2018). No entanto, embora possa haver alguma
verdade na acusação de lavagem ética, as grandes empresas de internet estão se comprometendo
pública e coletivamente com esses nobres objetivos. Também é importante ver isso no contexto de
outras atividades corporativas, como o compromisso de longa data do Google de não ser mau,3 a
decisão do Facebook de instituir um processo de revisão ética (Hoffman 2016) e a abordagem da
Microsoft para uma IA responsável (Microsoft nd).
Cada uma dessas empresas foi individualmente criticada por motivos éticos e provavelmente
continuará a ser criticada, mas, no que diz respeito à ética da IA neste livro, vale a pena notar que
elas, pelo menos, são alguns dos desenvolvedores e implantadores mais visíveis da IA. , use uma
retórica totalmente alinhada com a IA para o florescimento humano.
Isso abre a questão: o que as empresas podem fazer se quiserem assumir um compromisso
sério com a IA ética? Examinarei algumas das opções na seção a seguir sobre governança
organizacional.
Neste título, discuto uma série de atividades realizadas dentro das organizações que podem ajudá-
las a lidar com vários aspectos éticos ou de direitos humanos da IA. A maioria deles está bem
estabelecida e, em muitos casos, formalizada, muitas vezes sob regimes jurídicos.
Um exemplo dessa abordagem de governança existente é a governança corporativa de tecnologia
da informação que as organizações podem instituir seguindo os padrões existentes (ISO 2008). As
questões éticas da IA relacionadas a grandes conjuntos de dados podem, pelo menos até certo
ponto, ser abordadas por meio de governança de dados apropriada. A governança de dados
organizacionais não está necessariamente preocupada com questões éticas (Tallon 2013, British
Academy e Royal Society 2017), mas quase invariavelmente toca em questões de relevância ética.
Isso é mais óbvio em algumas áreas do que em outras. No campo da saúde, por exemplo, onde a
sensibilidade dos dados do paciente e da saúde é universalmente reconhecida, o gerenciamento e
a governança de dados são explicitamente vistos como formas de garantir objetivos éticos
(Rosenbaum 2010, OECD 2017). A proximidade de preocupações éticas e governança de dados
também levou ao desenvolvimento de abordagens de governança de dados explicitamente
desenvolvidas em torno de premissas éticas (Fothergill et al. 2019).
A proteção de dados faz parte do campo mais amplo de governança de dados, a parte que se
concentra na proteção de dados pessoais. A proteção de dados é uma exigência legal na maioria
das jurisdições. Na UE, onde o GDPR rege as atividades de proteção de dados, a proteção de dados
é estruturada de forma relativamente clara e as organizações estão cientes de suas responsabilidades.
O GDPR trouxe algumas novas práticas, como a nomeação de um data
3Houve uma mudança na forma como o Google comunica isso, mas em sua atual exposição de “Dez
coisas que sabemos serem verdadeiras”, o Google ainda afirma: “Você pode ganhar dinheiro sem fazer o mal”
(Google sem).
Machine Translated by Google
responsável pela proteção de organizações, um cargo cuja obrigação de promover a proteção de dados
pode prevalecer sobre as obrigações para com o empregador. A proteção de dados na Europa é aplicada
pelas autoridades de proteção de dados: no Reino Unido, por exemplo, pelo Information Commissioner's
Office (ICO). As autoridades nacionais são apoiadas pelo Conselho Europeu de Proteção de Dados, que
promove a cooperação e a aplicação consistente da lei. O Supervisor Europeu de Proteção de Dados é
uma autoridade supervisora independente no nível da UE que faz parte do conselho. Este é um exemplo
de uma estrutura de governança multinível que define responsabilidades claras no nível organizacional,
mas se estende desde o funcionário individual até as atividades regulatórias nacionais e internacionais.
Voltarei a isso no capítulo de recomendações como um exemplo de um tipo de estrutura de governança
que pode ser apropriada para IA de forma mais ampla.
Violações de proteção de dados são, para muitas empresas, um risco que precisa ser gerenciado. Da
mesma forma, o tópico mais amplo da ética da IA pode envolver riscos, não apenas em termos de
reputação, mas também de responsabilidade, que as organizações podem tentar abordar por meio de
processos de gerenciamento de riscos novos ou existentes. Dado que a avaliação e o gerenciamento de
riscos são processos bem estabelecidos na maioria das organizações, eles podem fornecer o local para
abordar as questões éticas da IA. Clarke (2019b) , portanto, propõe um foco nesses processos para
estabelecer uma IA responsável.
Uma desvantagem da abordagem de gerenciamento de riscos organizacionais para a ética da IA é
que ela se concentra nos riscos para a organização, não nos riscos para a sociedade. Para que questões
sociais mais amplas sejam abordadas, o foco do gerenciamento de risco organizacional precisa ser
ampliado além dos limites organizacionais. Como Clarke (2019b) afirma com razão, isso exige que a
organização adote abordagens responsáveis para a IA, que precisam ser incorporadas a uma cultura
organizacional de suporte e a propósitos de negócios que fortaleçam a motivação para alcançar resultados
eticamente desejáveis.
O debate sobre a ética da IA na UE parece pender fortemente para uma abordagem baseada no risco.
Isso é perfeitamente razoável, pois muitos aplicativos de IA serão inofensivos e qualquer tentativa de
regulá-los não apenas provavelmente falhará, mas também será totalmente supérfluo. No entanto, existem
alguns aplicativos de IA que são de alto risco e precisam de um exame minucioso, e pode ser impossível
permitir que alguns deles avancem devido a considerações éticas (Krafft et al 2020). Isso levanta a
questão de quem é a responsabilidade de avaliar e gerenciar quaisquer riscos. O Parlamento Europeu
(2020b) sugeriu que o implantador de um sistema de IA está no controle de quaisquer riscos. O nível de
risco deve determinar o regime de responsabilidade ao abrigo do qual os danos são tratados. Para que o
implantador tenha clareza sobre o nível de risco, o Parlamento Europeu sugeriu que a CE deveria manter
uma lista de sistemas de IA de alto risco que requerem escrutínio especial e estariam sujeitos a um regime
de responsabilidade estrita. No anexo ao seu projeto de regulamento, o Parlamento Europeu enumera as
seguintes tecnologias: aeronaves não tripuladas, veículos autónomos (automação de nível 4 e 5), sistemas
autónomos de gestão de tráfego, robôs autónomos e dispositivos autónomos de limpeza de locais públicos
(Fig. 5.1).
Essa abordagem de foco em áreas de alto risco tem a vantagem de clareza jurídica para as
organizações envolvidas. Sua fraqueza é que ele faz suposições sobre o nível de risco que podem ser
difíceis de sustentar. Se o risco for determinado pela “gravidade de possíveis danos ou danos, a
probabilidade de que o risco se materialize e a maneira pela qual o
Machine Translated by Google
aeronave autônomos
(nível 4 e 5)
Sistemas de IA de alto
risco de acordo com
europeu
Parlamento
Sistemas
Dispositivos
autônomos de
autônomos de
gerenciamento
limpeza de locais públicos
de tráfego
robôs autônomos
Fig. 5.1 Sistemas de IA de alto risco de acordo com o Parlamento Europeu (2020b)
O sistema AI está sendo usado” (Parlamento Europeu 2020b: art. 3(c)), então é difícil ver como
uma lista abstrata como a ilustrada na Figura 5.1 pode determinar o nível de risco. Os exemplos
dados na proposta de regulamento são todos de sistemas que comportam risco de lesões
corporais, o que é compreensível no contexto de um regulamento de responsabilidade fortemente
influenciado pela responsabilidade por sistemas existentes, nomeadamente do setor automóvel.
Não está claro, no entanto, como alguém compararia o risco de, digamos, ser atingido por um
drone em queda com o risco de ser acusado injustamente de um crime ou o risco de manipulação
política de uma eleição democrática.
No entanto, parece provável que prevaleça uma abordagem baseada no risco, e há boas
razões para isso. A Datenethikkommission alemã (2019) propôs um sistema de regulamentação
que pode servir como um bom exemplo da abordagem baseada em risco. O processo de
alocação de sistemas de IA para esses esquemas de risco (ou similares) será fundamental para
o sucesso de uma abordagem baseada em risco para a ética da IA em nível social, que é uma
condição para que as organizações a implementem com sucesso.
A gestão de riscos precisa ser baseada na compreensão dos riscos, e um aspecto dos riscos
são as possíveis consequências ou impactos na sociedade. Portanto, é importante que as
organizações que visam abordar a ética da IA de forma proativa realizem avaliações de impacto
apropriadas. Alguns tipos de avaliação de impacto já estão bem estabelecidos e muitas
organizações estão familiarizadas com eles. Avaliações de impacto de proteção de dados, um
desenvolvimento de avaliações de impacto de privacidade (Clarke 2009, ICO 2009, CNIL 2015),
por exemplo, fazem parte do regime de proteção de dados estabelecido pelo GDPR e, portanto,
são amplamente implementadas. Outros tipos de avaliação de impacto abrangem o impacto
ambiental (Hartley e Wood 2005), o impacto social (Becker 2001, Becker e Vanclay 2003), o
impacto ético (Wright 2011, CEN-CENELEC 2017) e qualquer impacto sobre os direitos humanos
(Latonero 2018). .
Machine Translated by Google
No geral, as várias medidas que contribuem para a boa governança organizacional da IA constituem
uma parte importante das boas práticas que as organizações podem adotar para reduzir os riscos da IA.
Eles podem desejar tomar essas medidas porque querem fazer a coisa certa, mas uma adoção diligente
de boas práticas também pode servir como defesa contra reclamações de responsabilidade se algo der
errado. Isso aponta para o último aspecto das respostas organizacionais que quero discutir aqui, os
compromissos estratégicos de uma organização.
Muitas empresas percebem que suas responsabilidades são amplas e, portanto, incluem o compromisso
com princípios e práticas éticas em seu pensamento estratégico.
Isso pode ser feito de várias maneiras. O termo mais comum usado para denotar o compromisso de
uma organização com o bem maior é “responsabilidade social corporativa” (CSR).
(Garriga e Melé 2004, Blue & Green Tomorrow 2013, Janssen et al. 2015).
Bibliotecas têm escrito sobre RSE. Para os propósitos deste livro, basta dizer que a RSE está bem
estabelecida como um conceito reconhecido pelas organizações que pode muito bem servir como ponto
de partida para a discussão dos aspectos éticos da IA.
Uma atividade frequentemente fomentada pela RSC e sem dúvida de importância central para
garantir a cobertura adequada de questões éticas nas organizações é o engajamento das partes interessadas.
As partes interessadas, seguindo Freeman e Reed (1983), são indivíduos ou grupos significativamente
afetados por uma ação ou potencialmente em risco, que, portanto, têm uma “participação” nela
(Donaldson e Dunfee 1999). O termo “stakeholder” foi cunhado por Freeman e seus colaboradores
(Freeman e Reed 1983) como um contraponto ao foco exclusivo nos acionistas. O engajamento das
partes interessadas é agora bem reconhecido como uma forma de as organizações entenderem melhor
seu ambiente (O'Riordan e Fairbrass 2014). No mundo das TIC, do qual a IA faz parte, pode haver uma
afinidade entre o envolvimento das partes interessadas e o envolvimento do usuário (Siponen e
Vartiainen 2002). Entende-se por usuários aquelas pessoas que se beneficiarão dos produtos ou serviços
de uma empresa, uma vez lançados, enquanto stakeholders são aqueles que podem sofrer impacto do
trabalho da empresa, sejam eles usuários do produto ou serviço ou não.
O engajamento das partes interessadas pode abranger uma ampla gama de atividades, e há pouco
consenso sobre quais métodos devem ser empregados para garantir resultados eticamente aceitáveis.
Uma forma mais estruturada para as organizações sinalizarem seu desejo estratégico de levar as
questões éticas a sério, que pode incluir o engajamento das partes interessadas, mas vai além disso, é
a integração dos direitos humanos na estratégia e nas práticas organizacionais.
Como várias das questões éticas de IA mais proeminentes também são questões de direitos
humanos (privacidade, igualdade e não discriminação), houve apelos para governos e também atores
do setor privado para promover os direitos humanos ao criar e implantar IA (Acesso Now Policy Team
2018). A natureza exata da relação entre ética e direitos humanos está em debate. Embora não sejam
idênticos, eles são pelo menos sinérgicos (WEF 2018).
Machine Translated by Google
Felizmente, a questão da integração dos direitos humanos nos processos organizacionais não
é inteiramente nova. A ONU desenvolveu princípios orientadores para empresas e direitos
humanos que fornecem ajuda na implementação da estrutura da ONU “proteger, respeitar e
remediar” (Nações Unidas 2011). Embora sejam genéricos e não se concentrem especificamente
na IA, existem outras atividades que desenvolvem ainda mais o pensamento sobre IA e direitos
humanos. O Conselho da Europa desenvolveu princípios para a proteção dos direitos humanos
em IA (Comissário de Direitos Humanos 2019) e orientações mais detalhadas sob medida para
empresas foram desenvolvidas pela BSR (Allison-Hope e Hodge 2018).
Como parte dos estudos de caso empíricos realizados para entender a realidade social da ética
da IA (consulte Macnish et al. 2019), os entrevistados foram questionados sobre suas respostas
organizacionais a essas questões. Vale destacar, no entanto, que a partir dos estudos de caso
ficou claro que as organizações são altamente sensíveis a algumas questões, notadamente
aquelas questões específicas relacionadas ao aprendizado de máquina que são discutidas com
destaque na mídia, como preconceito, discriminação, privacidade e proteção de dados , ou segurança de dados.
A Figura 5.2 resume e categoriza as estratégias seguidas pelas organizações investigadas.
Descobertas empíricas
Consciência e
Técnico Formação e educação Equilibrar
reflexão Supervisão humana
abordagens ética produtos concorrentes
organizacional
Fig. 5.2 Como as organizações de estudo de caso abordam questões éticas de IA: descobertas empíricas
Machine Translated by Google
e trabalhando com padrões, e eles consideraram explicitamente dilemas e questões sobre como
custos e benefícios poderiam ser equilibrados. Eles empregaram particularmente abordagens
técnicas, principalmente para segurança e proteção de dados. Houve ênfase repetida na
supervisão humana, e várias das empresas ofereceram treinamento e educação. Em suas
tentativas de equilibrar bens concorrentes, eles às vezes buscavam estruturas organizacionais
como parcerias público-privadas que pudessem ajudá-los a encontrar posições compartilhadas.
4https://www.iso.org/committee/6794475.html
Machine Translated by Google
O dilema de Collingridge
Collingridge observou que é relativamente fácil intervir e mudar as características de
uma tecnologia no início de seu ciclo de vida. No entanto, neste ponto, é difícil prever
suas consequências. Mais tarde, quando as consequências se tornam mais visíveis, é
mais difícil intervir. Este é um dilema para quem deseja abordar questões éticas
durante o processo de desenvolvimento.
5https://ethicsinaction.ieee.org/
6https://standards.ieee.org/industry-connections/ecpais.html
Machine Translated by Google
desenvolvimento e uso de uma tecnologia e, em seguida, envolver-se com as partes interessadas relevantes
na discussão sobre como isso pode ser alcançado.
O exemplo mais proeminente de tal metodologia é a privacidade desde a concepção (ICO 2008,
Cavoukian 2009), que o GDPR agora exige em algumas circunstâncias como proteção de dados desde a
concepção (Hansen 2016). Foram feitas tentativas para ir além da questão específica de privacidade e sua
implementação por meio da proteção de dados e identificar questões mais amplas por meio da ética desde
o design (Martin e Makoundou 2017, Beard e Longstaff 2018, Dignum et al. 2018).
Além disso, há um conjunto de ferramentas em rápido crescimento para abordar vários aspectos da ética
da IA (Morley et al. 2019). Estes são publicados por grupos associados a financiadores de pesquisa, como o
Wellcome Data Lab (Mikhailov 2019), enquanto outros são originários de organizações não governamentais
e da sociedade civil, como Doteveryone e seu kit de escaneamento de consequências. (TecnologiaTransformada
2019). Ainda outros são baseados em universidades, como o AI Now Institute, que publicou uma avaliação
de impacto algorítmico (Reisman et al. 2018), e ainda mais vêm de organizações profissionais como o Double
Diamond do UK Design Council (Design Council nd). Por fim, alguns conjuntos de ferramentas para abordar
a ética da IA são originários de empresas como a PWC, que publicou um guia prático para inteligência
artificial responsável (PWC 2019).
Além desses mecanismos de orientação voltados especificamente para fornecer suporte para lidar com
os desafios éticos da IA, existem muitas outras opções originadas em atividades de pesquisa e reflexão em
ciência e tecnologia que podem fazer parte do discurso mais amplo de como apoiar a ética da IA. Isso inclui
atividades como a antecipação de tecnologias futuras e suas questões éticas, algumas das quais estão
intimamente ligadas à tecnologia digital (Brey 2012, Markus e Mentzer 2014, Nordmann 2014), mas também
podem se basear no campo mais amplo de futuro e previsão (UNIDO 2005, Sardar 2010). O diálogo com as
partes interessadas e o envolvimento do público constituem outro grande campo de atividade que
desempenhará um papel central na ética da IA, com base em grandes quantidades de trabalho anterior para
fornecer muitas metodologias (Engage2020 nd). Um último ponto que vale a pena mencionar aqui é a
educação, que desempenha um papel fundamental em muitas das opções de mitigação. Ensinar, treinar,
conscientizar e educar são pilares para facilitar um discurso político e alcançar os formuladores de políticas,
mas também para provocar um senso de responsabilidade dos desenvolvedores e implantadores de IA.
Tabela 5.1 Visão geral das opções para mitigar questões éticas em IA Nível
de política Iniciativas
de política Recomendações da OCDE Acesso aberto / fornecimento
de dados Tributação / redistribuição
Personalidade de TIC verde para agentes
autônomos White Paper da EC AI
Parlamento da UE Iniciativas nacionais
Regulação da IA Atual
iniciativas
Propostas regulatórias
Princípios da regulamentação da IA
regulador de IA Novo regulador de IA
Expandir o escopo do regulador existente
Centro de competência para IA
Rede de reguladores
nível organizacional
Parceria em IA
Compromissos da indústria
Associação de valor de big data
Governança da informação (ISO)
governança Gestão de dados
organizacional Proteção de dados
Gerenciamento de riscos (Clarke 2019b)
Avaliação do impacto da proteção de dados
Avaliação de impacto ambiental
Avaliação impactante Avaliação de impacto social
Avaliação de impacto ético
Avaliação de impacto nos direitos humanos
Dever de cuidado / boas práticas
Iniciativas Responsabilidade social corporativa
estratégicas Engajamento das partes interessadas
concelho Europeu
Inteligência artificial: um modelo de negócios baseado
Direitos humanos em direitos
nas empresas princípios orientadores da ONU
Limites dos direitos humanos
Mecanismos de orientação
Diretrizes e
estruturas de ética
da IA
Profissionalismo
Estandardização Família IEEE P7000
ISO/IEC JTC 1/SC 42 – Inteligência artificial
Certificação (IEEE)
Técnico IA transparente/explicável
intervenções Segurança da IA
(contínuo)
Machine Translated by Google
Ética ágil em IA
Escaneamento ágil de consequências de Doteveryone
Diamante duplo responsável “R2D2”
Estrutura de avaliação de impacto algorítmica do AI Now
SO ético (antecipação do impacto futuro)
Kit de ferramentas AS responsável pela PWC
Atividades Antecipação
gerais de Diálogo das partes interessadas
apoio Engajamento público
Educação / treinamento
A tabela representa as maneiras pelas quais a ética da IA pode ser abordada, destacando os
tópicos mencionados no texto acima. Ele ilustra as principais opções, mas não pode afirmar que
todas as estratégias são cobertas, nem que as opções individuais disponíveis para um determinado
ramo sejam exaustivas. Na verdade, muitos deles, por exemplo, as ferramentas de ética da IA e as
estruturas de ética da IA, abrangem dezenas, senão centenas de alternativas. Destacar as principais
vertentes do debate atual demonstra a riqueza do campo. Um ponto final que aumenta a complexidade
é o conjunto de partes interessadas envolvidas, que abordarei agora.
No entanto, é útil para os propósitos deste livro considerar as partes interessadas da IA, pois
uma revisão das partes interessadas informa a compreensão geral do cenário da IA e fornece
suporte importante para o uso da metáfora dos ecossistemas para descrever a IA. Portanto, ofereço
uma breve visão geral dos principais grupos e categorias de partes interessadas, indicando seus
interesses ou possíveis ações, que serão mencionadas posteriormente durante a discussão de
como os ecossistemas de IA podem ser moldados.
A categorização que proponho é entre órgãos orientados por políticas, outras organizações e
indivíduos. Esses três grupos têm papéis diferentes na formação, manutenção e interação nos
ecossistemas de IA. A Figura 5.2 dá uma visão geral dos três grupos principais, incluindo exemplos
das partes interessadas que os constituem. A figura assume a forma de um diagrama de Venn para
indicar que os diferentes grupos não estão completamente separados, mas se sobrepõem
consideravelmente. Um usuário individual, por exemplo, pode trabalhar em uma organização de
partes interessadas e também fazer parte da padronização e desenvolvimento de políticas.
Política
Organismos europeu
internacionais União
Órgãos de formuladores
reguladores
fomento à de políticas nacionais
pesquisa
Órgãos de ética
implantadoras normalização
Desenvolvedores
ativistas
empresas usuárias Organizações de mídia
especialistas leigos
Corpos
Organizações Usuários
Não
profissionais
educacionais Usuários
Organizações indivíduos
têm um papel especial a desempenhar, por exemplo, o seguro, que facilita e estabiliza as
relações de responsabilidade.
Existem inúmeras organizações que não estão no negócio de lucrar com a IA, mas estão
envolvidas na cadeia de valor da IA, em particular órgãos profissionais, órgãos de padronização
e instituições educacionais. Estes devem ser incluídos porque têm uma relação óbvia com
algumas das estratégias de mitigação discutidas anteriormente, principalmente o uso de padrões
profissionais, a integração de considerações éticas nos padrões e a conscientização e o
conhecimento por meio da educação. Da mesma forma, as organizações de mídia desempenham
um papel crucial na conscientização sobre questões éticas e na condução do discurso público,
o que, por sua vez, pode motivar o desenvolvimento de políticas.
A terceira e última categoria de partes interessadas nesta visão geral são os indivíduos.
Órgãos e organizações políticas são constituídos por indivíduos e deixariam de existir sem
membros individuais. Na categoria das pessoas singulares importa, no entanto, realçar que
existem pessoas com características que podem não estar abrangidas ou representadas nos
restantes grupos de stakeholders e que ainda têm um direito legítimo a serem ouvidas.
Referências
Access Now Policy Team (2018) Declaração de Toronto: protegendo o direito à igualdade e à não discriminação
em sistemas de aprendizado de máquina. Acesse Agora, Toronto. https://www.access now.org/cms/assets/
uploads/2018/08/The-Toronto-Declaration_ENG_08-2018.pdf. Acessado em 26 de setembro de 2020
Allison-Hope D, Hodge M (2018) Inteligência artificial: um projeto baseado em direitos para negócios. Documento
3: Implementando a devida diligência em direitos humanos. BSR. https://www.bsr.org/reports/BSR-Artificial
Intelligence-A-Rights-Based-Blueprint-for-Business-Paper-03.pdf. Acessado em 6 de outubro de 2020 Beard
M, Longstaff S (2018) Ético desde o design: princípios para uma boa tecnologia. O Centro de Ética, Sydney.
https://ethics.org.au/wp-content/uploads/2018/05/The-Ethics-Centre_PRINCI PLES-FOR-GOOD-
TECHNOLOGY-29JAN.pdf. Acessado em 5 de outubro de 2020. Becker HA (2001) Avaliação de impacto
social. Eur J Oper Res 128:311–321. https://doi.org/10.1016/
S0377-2217(00)00074-6
Becker HA, Vanclay F (eds) (2003) O manual internacional de avaliação de impacto social: avanços conceituais
e metodológicos. Edward Elgar Publishing, Cheltenham, Reino Unido Berendt B (2019) IA para o bem
comum?! Armadilhas, desafios e testes de ética. Paladyn J Behav Robot 10:44–65. https://doi.org/10.1515/
pjbr-2019-0004
Machine Translated by Google
Referências 75
Blue & Green Tomorrow (2013) O guia de responsabilidade social corporativa 2013. http://blueandgr eentomorrow.com/
wp-content/uploads/2013/04/BGT-Guide-to-CSR-10MB.pdf. Acessado em 5 de outubro de 2020
Brey PAE (2012) Ética antecipatória para tecnologias emergentes. Nanoética 6:1–13. https://doi.
org/10.1007/s11569-012-0141-7
Brinkman B, Flick C, Gotterbarn D et al (2017) Ouvindo vozes profissionais: rascunho 2 do código de ética e conduta
profissional da ACM. Comum ACM 60:105–111. https://doi.org/10. 1145/3072528
British Academy, Royal Society (2017) Gerenciamento e uso de dados: governança no século XXI.
Um relatório conjunto da British Academy e da Royal Society, Londres. https://royalsociety.org/-/media/policy/
projects/data-governance/data-management-governance.pdf . Acessado em 5 de outubro de 2020 Cavoukian A
(2009) Privacidade desde o design: os 7 princípios fundamentais. Comissário de Informação e Privacidade de Ontário,
Ontário. https://www.ipc.on.ca/wp-content/uploads/resources/7foundationalprinciples.pdf . Acessado em 6 de
outubro de 2020 CEN-CENELEC (2017) Avaliação de ética para pesquisa e inovação, parte 2: estrutura de
avaliação de impacto ético. CWA 17145-2. Comitê Europeu de Normalização, Bruxelas. http://ftp. cencenelec.eu/EN/
ResearchInnovation/CWA/CWA17214502.pdf. Acessado em 6 de outubro de 2020 Clarke R (2009) Avaliação do
impacto da privacidade: suas origens e desenvolvimento. Comput Law Secur Rev
25:123–135. https://doi.org/10.1016/j.clsr.2009.02.002
Clarke R (2019a) Alternativas regulatórias para IA. Comput Law Secur Rev 35:398–409. https://doi. org/10.1016/
j.clsr.2019.04.008 Clarke R (2019b) Princípios e processos de negócios para IA responsável. Comput Law Secur
Rev
35:410–422. https://doi.org/10.1016/j.clsr.2019.04.007
CNIL (2015) Avaliação do impacto na privacidade (PIA): boa prática. Comissão Nacional de
l'Informatique et des Libertés, Paris
Coeckelbergh M (2019) Inteligência Artificial: algumas questões éticas e desafios regulatórios. Em: Tecnologia e
Regulamentação, pp 31–34. https://doi.org/10.26116/techreg.2019.003 Collingridge D (1981) O controle social da
tecnologia. Palgrave Macmillan, Comissário de Direitos Humanos de Londres (2019) Unboxing da inteligência artificial:
10 passos para proteger os direitos humanos . https://rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-
human-rights-reco/ 1680946e64. Acessado em 6 de outubro de 2020
Comitê de Bioética (DH-BIO) (2019) Plano de ação estratégico sobre direitos humanos e tecnologias em biomedicina
(2020–2025). Concelho Europeu. https://rm.coe.int/strategic-action-plan-final-e/ 16809c3af1. Acessado em 6 de
outubro de 2020
Datenethikkommission (2019) Gutachten der Datenethikkommission – Kurzfassung.
Datenethikkommission der Bundesregierung, Bundesministerium des Innern, für Bau und Heimat, Berlim. https://
www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it digitalpolitik/gutachten-datenethikkommission-
kurzfassung.pdf?__blob=publicationFile&v=4.
Acessado em 6 de outubro de 2020
Design Council (nd) Qual é a estrutura para inovação? O diamante duplo evoluído do conselho de design. https://
www.designcouncil.org.uk/news-opinion/what-framework-innovation-design Councils-evolved-double-diamond.
Acessado em 18 de junho de 2020
Dignum V (2019) Inteligência artificial responsável: como desenvolver e usar IA de forma responsável
caminho. Springer Nature Switzerland AG, Cham, Suíça
Dignum V, Baldoni M, Baroglio C et al (2018) Ética por design: necessidade ou maldição? In: Anais da conferência
AAAI/ACM 2018 sobre IA, ética e sociedade, Nova Orleans, fevereiro de 2018.
Association for Computing Machinery, Nova York, pp 60–66 Donaldson
T, Dunfee TW (1999) Laços que unem: uma abordagem de contratos sociais à ética nos negócios.
Harvard Business Press, Cambridge MA
Donaldson T, Preston LE (1995) A teoria dos stakeholders da corporação: conceitos, evidências e
implicações. Acad Manage Rev 20:65–91. https://doi.org/10.2307/258887
Dutton T (2018) Uma visão geral das estratégias nacionais de IA. https://medium.com/politics-ai/an-ove
rview-of-national-ai-strategies-2a70ec6edfd. Acessado em 7 de outubro de 2020
Machine Translated by Google
Edelman (2020) Relatório global do barômetro de confiança da Edelman de 2020. https://edl.mn/2NOwltm. acessado
7 de outubro de 2020
Comissão Europeia (2020c) Uma estratégia europeia para dados. Comunicação da Comissão ao Parlamento
Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões. Comissão Europeia,
Bruxelas. https://eur-lex.europa.eu/legal-con tent/EN/TXT/PDF/?uri=CELEX:52020DC0066&from=EN. Acessado
em 6 de outubro de 2020
Comissão Europeia (2020d) Moldar o futuro digital da Europa. Comunicação da Comissão ao Parlamento Europeu,
ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões. Comissão Europeia, Bruxelas.
https://ec.europa.eu/info/sites/info/files/communication-shaping-europes-digital-future-feb2020_en_3.pdf . Acessado
em 6 de outubro de 2020
Grupo de especialistas em responsabilidade e novas tecnologias (2019) Responsabilidade por inteligência artificial
e outras tecnologias digitais emergentes. Serviço de Publicações da União Europeia, Luxemburgo. https://
op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en/format-
PDF . Acessado em 23 de setembro de 2020
Floridi L, Cowls J (2019) Uma estrutura unificada de cinco princípios para IA na sociedade. Harv Data Sci
Ap 1:1. https://doi.org/10.1162/99608f92.8cd550d1
Fothergill BT, Knight W, Stahl BC, Ulnicane I (2019) Governança de dados responsável da neurociência
grandes dados. Frente Neuroinform 13:28. https://doi.org/10.3389/fninf.2019.00028
Freeman RE, Reed DL (1983) Acionistas e partes interessadas: uma nova perspectiva sobre governança corporativa.
Calif Manage Rev 25:88–106 Friedman B, Kahn P, Borning A (2008) Projeto sensível ao valor e sistemas de
informação. In: Himma K, Tavani H (eds) O manual de informação e ética informática. Wiley Blackwell, Hoboken, NJ,
pp 69–102
Garden H, Winickoff DE, Frahm NM, Pfotenhauer S (2019) Inovação responsável em neurotecnologia
empresas de nologia. Editora OCDE, Paris. https://doi.org/10.1787/9685e4fd-en
Garriga E, Melé D (2004) Teorias da responsabilidade social empresarial: cartografia do território. J Bus Ethics
53:51–71. https://doi.org/10.1023/B:BUSI.0000039399.90587.34 Gibson K (2000) A base moral da teoria das
partes interessadas. J Bus Ethics 26:245–257. https://doi.org/
10.1023/A:1006110106408
Google (nd) Dez coisas que sabemos serem verdadeiras. https://www.google.com/about/philosophy.html?hl=en_US .
Acessado em 8 de outubro de 2020 Hagendorff T (2019) A ética da ética da IA: uma avaliação das diretrizes.
Minds Mach (Dordr)
30:99–120. https://doi.org/10.1007/s11023-020-09517-8
Machine Translated by Google
Referências 77
Hansen M (2016) Data protection by design and by default à la European General Data Protection Regulation.
In: Lehmann A, Whitehouse D, Fischer-Hübner S et al (eds) Gerenciamento de privacidade e identidade:
enfrentando os próximos passos. Springer International Publishing, Cham, Suíça, pp 27–38
Hartley N, Wood C (2005) Participação pública na avaliação de impacto ambiental: implementação da convenção
de Aarhus. Avaliação de Impacto Ambiental Rev 25:319–340. https://doi.org/10.1016/j.eiar. 2004.12.002
Grupo de especialistas de alto nível em inteligência artificial (2019) Diretrizes de ética para uma IA confiável.
Comissão Europeia, Bruxelas. https://ec.europa.eu/newsroom/dae/document.cfm?doc_ id=60419. Acessado
em 25 de setembro de 2020
Grupo de especialistas de alto nível em inteligência artificial (2020) A lista de avaliação para IA confiável
(ALTAI). Comissão Europeia, Bruxelas. https://ec.europa.eu/newsroom/dae/document.cfm? doc_id=68342.
Acessado em 10 de outubro de 2020
Hoffmann AL (2016) O Facebook tem um novo processo para discutir ética. Mas é ético? The Guardian, 17 de
junho. https://www.theguardian.com/technology/2016/jun/17/facebook-ethics-but is-it-ethical. Acessado em 8
de outubro de 2020
ICO (2008) Privacidade por design. Gabinete do Comissário de Informação, Wilmslow, Reino Unido. https://
web. archive.org/web/20121222044417if_/http://www.ico.gov.uk:80/upload/documents/pdb_report_ html/
privacy_by_design_report_v2.pdf. Acessado em 6 de outubro de 2020 ICO (2009) Manual de avaliação de
impacto na privacidade, v. 2.0. Gabinete do Comissário de Informação, Wilmslow, Reino Unido. https://
www.huntonprivacyblog.com/wp-content/uploads/sites/28/2013/09/PIA handbookV2.pdf. Acessado em 6 de
outubro de 2020
IEEE (2017) A iniciativa global IEEE sobre ética de sistemas autônomos e inteligentes. https://standards.ieee.org/
develop/indconn/ec/autonomous_systems.html . Acessado em 10 de fevereiro de 2018 ISO (2008) BS ISO/
IEC 38500:2008: Governança corporativa de tecnologia da informação. British Standards Institute, Londres
Janssen C, Sen S, Bhattacharya C (2015) Crises corporativas na era da responsabilidade social corporativa.
Ônibus Horiz 58:183–192. https://doi.org/10.1016/j.bushor.2014.11.002 Jobin A, Ienca M, Vayena E (2019) O
cenário global das diretrizes de ética da IA. Nat Mach Intel
1:389–399. https://doi.org/10.1038/s42256-019-0088-2
Krafft T, Hauer M, Fetic L et al (2020) Dos princípios à prática: uma estrutura interdisciplinar para operacionalizar
a ética da IA. VDE e Bertelsmann Stiftung. https://www.ai-ethics-impact.org/res ource/blob/1961130/
c6db9894ee73aefa489d6249f5ee2b9f/aieig—report—download-hb-data. pdf. Acessado em 26 de setembro
de 2020 Latonero M (2018) Governando a inteligência artificial: defendendo os direitos humanos e a dignidade.
outubro de 2020
Mikhailov D (2019) Um novo método para ciência ética de dados. Wellcome Trust, Londres. https://wel
lcome.ac.uk/news/new-method-ethical-data-science. Acessado em 18 de junho de 2020
Mittelstadt B (2019) Os princípios por si só não podem garantir uma IA ética. Nat Mach Intell 1:501–507. https://
doi.org/10.1038/s42256-019-0114-4
Machine Translated by Google
Morley J, Floridi L, Kinsey L, Elhalal A (2019) Do que ao como: uma visão geral das ferramentas, métodos e
pesquisa de ética da IA para traduzir princípios em práticas. https://arxiv.org/pdf/1905.06876.pdf Nemitz P
(2018) Democracia constitucional e tecnologia na era da inteligência artificial. Phil Trans R Soc A 376:20180089.
https://doi.org/10.1098/rsta.2018.0089 NESTA (nd) Mapeamento da governança de IA. National Endowment
for Science, Technology and the Arts. https://www.nesta.org.uk/data-visualisation-and-interactive/mapping-ai-
governance/. Acessado em 7 de outubro de 2020
Ryan M, Stahl BC (2020) Diretrizes éticas de inteligência artificial para desenvolvedores e usuários:
esclarecendo seu conteúdo e implicações normativas. J Inf Comun Ethics Soc. https://doi.org/10.1108/
JICES-12-2019-0138
Sardar Z (2010) O homônimo: futuros; estudos futuros; futurologia; futurista; previsão - o que está em
um nome? Futuros 42:177–184. https://doi.org/10.1016/j.futures.2009.11.001
Siponen MT, Vartiainen T (2002) Ensinando a ética do usuário final: questões e uma solução baseada na
universalização. Commun Assoc Inf Syst 8:422–443. https://doi.org/10.17705/1CAIS.00829 Stix C (nd)
Escrita. https://www.charlottestix.com/european-union-ai-ecosystem. Acessado 22
junho de 2020
Tallon PP (2013) Governança corporativa de big data: perspectivas sobre valor, risco e custo. Computador
46:32–38. https://doi.ieeecomputersociety.org/10.1109/MC.2013.155
TechTransformed (2019) Varredura de consequência. Doteeveryone. https://doteveryone.org.uk/dow
nload/2786/. Acessado em 18 de junho de 2020
UNIDO (2005) UNIDO technology foresight manual, vol 1: organização e métodos. Organização das Nações
Unidas para o Desenvolvimento Industrial, Viena. http://www.research.gov.ro/uploads/imp orted/
1226911327TechFor_1_unido.pdf. Acessado em 6 de outubro de 2020
Machine Translated by Google
Referências 79
Nações Unidas (2011) Princípios orientadores sobre negócios e direitos humanos: implementando a estrutura
das Nações Unidas “proteger, respeitar e remediar”. Direitos Humanos das Nações Unidas, Gabinete do Alto
Comissariado, Nova Iorque e Genebra. https://www.ohchr.org/documents/publications/gui
dingprinciplesbusinesshr_en.pdf. Acessado em 6 de outubro de 2020
Declaração do USACM (2017) sobre transparência e responsabilidade algorítmica. ACM US Public Policy
Council, Washington DC. https://www.acm.org/binaries/content/assets/public-policy/
2017_usacm_statement_algorithms.pdf. Acessado em 26 de setembro de 2020 por van Wynsberghe A (2013)
Projetando robôs para cuidados: design sensível ao valor centrado no cuidado. Science Eng Ethics 19:407–433.
https://doi.org/10.1007/s11948-011-9343-6 Wagner B (2018) A ética como fuga da regulação: da lavagem
ética à compra ética. In: Bayamlioglu E, Baraliuc I, Janssens LAW, Hildebrandt M (eds) Sendo perfilado: cogitas
ergo sum.
Amsterdam University Press, Amsterdã, pp 84–90
WEF (2018) White Paper: Como evitar resultados discriminatórios no aprendizado de máquina. Fórum Econômico
Mundial, Genebra. http://www3.weforum.org/docs/WEF_40065_White_Paper_How_
to_Prevent_Discriminatory_Outcomes_in_Machine_Learning.pdf. Acessado em 6 de outubro de 2020 WEF
(2019) White Paper: Uso responsável da tecnologia. Fórum Econômico Mundial, Genebra. http://www3.weforum.org/
docs/WEF_Responsible_Use_of_Technology.pdf . Acessado em 6 de outubro de 2020 Winfield AF, Jirotka M
(2018) A governança ética é essencial para criar confiança na robótica e na IA
sistemas. Philos Trans Royal Soc A 376. https://doi.org/10.1098/rsta.2018.0085 See More
Wright D (2011) Uma estrutura para a avaliação do impacto ético da tecnologia da informação. Ética
Inf Technol 13:199–226. https://doi.org/10.1007/s10676-010-9242-6
Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons
Attribution 4.0 (http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento, adaptação,
distribuição e reprodução em qualquer meio ou formato, desde que você dê os devidos créditos ao(s) autor(es)
original(ais) e à fonte, forneça um link para a licença Creative Commons e indique se foram feitas alterações.
As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons do
capítulo, a menos que indicado de outra forma em uma linha de crédito para o material. Se o material não estiver
incluído na licença Creative Commons do capítulo e seu uso pretendido não for permitido pela regulamentação
estatutária ou exceder o uso permitido, você precisará obter permissão diretamente do detentor dos direitos
autorais.
Machine Translated by Google
Capítulo 6
Ecossistemas de IA para o florescimento humano:
O fundo
Resumo Este capítulo analisa o conceito de ecossistemas de IA com o objetivo de identificar como a
metáfora do ecossistema pode ajudar a lidar com questões éticas.
O primeiro passo é apresentar com mais detalhes o conceito de ecossistemas, valendo-se
especificamente da literatura sobre ecossistemas de inovação. Isso permite a identificação de
características dos ecossistemas, como sua abertura, a coevolução e aprendizado mútuo de seus
membros e a interdependência e relacionamento complexo entre esses membros. Essas características
fundamentam os desafios que uma abordagem ética dos ecossistemas deve considerar.
As partes interessadas na IA são numerosas e as questões éticas são complexas. Proponho olhar
para a IA de uma perspectiva de sistemas, empregando especificamente a ideia de um ecossistema de IA.
Este capítulo preparará o trabalho de base para minhas recomendações posteriores, fornecendo o
histórico necessário sobre ecossistemas.
Para usar a metáfora do ecossistema de forma produtiva e examinar como ela pode promover
nossa compreensão da IA e nos permitir deduzir recomendações sobre como tal
ecossistema pode ser moldado, precisamos olhar para a história do uso dessa metáfora, os
propósitos para os quais ela foi desenvolvida e as limitações que ela pode ter.
Ecossistemas
O termo ecossistema origina-se originalmente da biologia. De acordo com a National
Geographic (Rutledge et al. 2011) “um ecossistema é uma área geográfica onde plantas,
animais e outros organismos, bem como clima e paisagens, trabalham juntos para formar
uma bolha de vida”. Fora da biologia, os ecossistemas são considerados como redes
complexas e interconectadas de componentes individuais que vão desde o “ecossistema
televisivo dos EUA” (Ansari et al. 2016) a “avaliações de serviços ecossistêmicos [para]
saúde mental” (Bratman et al. 2019) a conclusões que “1,4 milhão de músicas são
inspiradas em ecossistemas” (Coscieme 2015). É um conceito popular que sugere que
os componentes do sistema são um organismo vivo.
Pode-se distinguir várias perspectivas que são utilizadas na literatura sobre ecossistemas
de inovação. A dominante é a perspectiva organizacional, em que os pesquisadores empregam
o termo para entender melhor como as organizações podem obter uma vantagem competitiva
dentro de um sistema. Ver a organização como parte de um ecossistema de inovação pode
fornecer insights sobre oportunidades de crescimento (Adner 2006). A perspectiva dos
ecossistemas ajuda as organizações a entender que podem moldar o ecossistema do qual
fazem parte, mas que a inovação geral é, pelo menos em parte, uma função do ecossistema
circundante (Nylund et al. 2019). Reconhecendo esse potencial, as organizações podem usar
a visão dos ecossistemas para desenvolver sua estratégia (Moore 1993) em geral, com foco
particular em suas atividades de gestão da inovação (Ritala e Almpanopoulou 2017).
Um exemplo de pergunta que o uso da metáfora do ecossistema pode ajudar a responder é:
como e por que as organizações se tornam mais ou menos bem-sucedidas? Moore (1993) usa
o exemplo da IBM no contexto dos ecossistemas. A IBM foi um dos membros mais bem-
sucedidos da nova comunidade empresarial ou ecossistema baseado em computadores
pessoais. Ela dominou esse sistema por um tempo, mas depois tornou-se menos lucrativa e
perdeu a liderança do mercado.
Embora esse uso funcional da metáfora do ecossistema pareça ser o dominante nos campos
dos estudos de negócios e organizações, não é o único. A perspectiva dos ecossistemas
também pode ser usada como uma perspectiva teórica que permite insights mais profundos
sobre o comportamento dos membros do ecossistema em geral.
Machine Translated by Google
A lente do ecossistema pode igualmente ser utilizada ao nível social, por exemplo pelas ciências
sociais para interpretar a economia global como um organismo vivo com vista à compreensão do
seu funcionamento (Gomes et al. 2018).
Desde o início da literatura sobre ecossistemas de inovação (Moore , 1993), foi sugerido que a
sociedade pode empregar essa perspectiva para fornecer um ambiente no qual os ecossistemas
possam prosperar. Outra sugestão é que a terminologia dos ecossistemas pode ser usada para
melhorar o desempenho de ecossistemas de inovação inteiros (Pombo-Juárez et al. 2017).
Também há muito se reconhece que pode ser apropriado que ecossistemas inteiros pereçam no
interesse da sociedade como um todo (Moore 1993).
Mas o que conta como um ecossistema de inovação? Eu uso este termo amplamente,
ignorando as nuances conceituais que distinguem entre termos como “ecossistema de negócios”
(Gomes et al. 2018), “ecossistema digital” (Senyo et al. 2019), “ecossistema de negócios digitais”
e “ecossistema de conhecimento” (Gomes et al. 2018) e outras ideias relacionadas, como cadeias
de valor. Essas distinções podem ser valiosas para propósitos específicos, mas para o uso do
conceito de ecossistemas para desenvolver insights normativos em IA, elas são de relevância
secundária.
Mais interessantes são as características que os vários tipos de ecossistema apresentam. Uma
característica chave é que os ecossistemas são o lugar onde a evolução ocorre.
A evolução darwiniana é amplamente aceita nas ciências naturais e sociais como uma teoria que
explica a mudança (Porra 1999). Isso torna a teoria evolutiva atraente para campos em rápida
evolução, como a inovação. O artigo seminal de Moore (1993) propondo a aplicação da metáfora
do ecossistema a sistemas sócio-técnicos propõe quatro estágios de desenvolvimento de
ecossistemas: nascimento, expansão, liderança e auto-renovação ou morte. A adoção da teoria
evolutiva darwinista e a aplicação dos princípios evolutivos a sistemas sócio-técnicos é contestada
e eticamente problemática, como mostrarei a seguir. No entanto, parece ser altamente atraente
como uma teoria geral da mudança.
e outros 2019) ou ecossistemas nacionais de inovação (Gomes et al. 2018), mas também podem
ser organizados por outros critérios. Adner (2006) dá o exemplo de indústrias como impressão
comercial, serviços financeiros, materiais básicos e provisão logística.
O que interessa a este livro é que os ecossistemas de inovação são geralmente reconhecidos
como sujeitos a intervenção e mudança. Estas intervenções podem ser catalisadas por membros
do ecossistema, normalmente organizações, mas também atores coletivos individuais ou não
organizacionais. Eles também podem ser acionados por atores que estão envolvidos, apoiam ou
contribuem para o ecossistema de inovação, mas não necessariamente desempenham um papel
como membros do ecossistema. Por exemplo, um ecossistema regional pode ser influenciado
por um ator nacional, ou um ecossistema de IA pode ser influenciado por desenvolvimentos
técnicos não relacionados à IA em, digamos, computação quântica. Os ecossistemas de inovação
são notavelmente diferentes dos ecossistemas naturais na medida em que têm a capacidade de
refletir sobre seu estado e pensar no futuro (Pombo-Juárez et al. 2017), com vistas a mudar e
melhorar a situação.
A Figura 6.1 resume algumas das principais características dos ecossistemas de inovação
que os tornam uma metáfora interessante para descrever um conjunto de atores sociotécnicos,
incluindo o cenário de IA. A representação na forma de elipses sobrepostas simboliza que essas
características não são independentes, mas se influenciam.
É fácil ver por que a metáfora do ecossistema é aplicada liberalmente à IA. Há muitos atores
e partes interessadas diferentes envolvidos. Estes interagem de formas complexas com
consequências difíceis de prever. Eles são todos mutuamente dependentes, mesmo que o
desaparecimento de qualquer um deles não prejudique necessariamente o sistema como um
todo. Eles co-evoluem e tentam prosperar.
Apesar dessas vantagens, existem desvantagens significativas na aplicação do conceito de
ecossistemas a sistemas sócio-técnicos. Oh e outros (2016) chamam de falha
Características dos
ecossistemas de inovação
Relações
Limites
complexas entre
pouco claros
atores
Evolução como um
Abertura
motorista de mudança
analogia. Eles apontam para o fato de que, ao contrário dos ecossistemas naturais, os
ecossistemas de inovação não são eles próprios o resultado de processos evolucionários, mas
são intencionalmente projetados. Eles estão preocupados que uma analogia que não se baseie
em análises conceituais e empíricas rigorosas possa impedir pesquisas e políticas mais
detalhadas em torno da inovação. Além disso, descrever um sistema social em termos de um
sistema natural leva a possíveis armadilhas conceituais. A forte ênfase nos processos evolutivos
de seleção pode levar a um determinismo tecnológico implícito. Isso significa que a tecnologia
em questão é vista como um desenvolvimento exógeno e autônomo que é inevitável e obriga
indivíduos e organizações a se adaptarem (Grint e Woolgar 1997). Da mesma forma, é
problemático que a luta competitiva pela sobrevivência implícita na evolução se aplicasse não
apenas às organizações, mas também potencialmente a culturas onde apenas aqueles que
estão adaptados à tecnologia sobrevivem (Paterson 2007).
Existe uma ligação bem estabelecida entre o darwinismo e o capitalismo (Rauch 1993),
com o próprio Charles Darwin admitindo livremente que sua teoria da evolução foi inspirada
pelos economistas clássicos dos séculos XVII e XVIII que se concentraram no princípio do
individualismo competitivo (Priest 2017). Hawkes (2003: 134), portanto, chega a chamar a
teoria da evolução de Darwin de um “exemplo de manual da teoria marxista da ideologia na
prática”, sendo a ideologia uma ideia dominante das classes dominantes (Shaw 1989).
O benefício desse uso da metáfora é que ela ajuda a destacar alguns recursos-chave da IA
que contribuem para questões éticas e afetam possíveis atenuações. Usarei a metáfora mais
tarde para derivar alguns requisitos para possíveis soluções que, espero, permitirão uma
abordagem mais coesa para mitigar os riscos éticos.
Antes de passarmos à ética dos ecossistemas e à questão de como esses ecossistemas
podem ser moldados, é importante descrever as partes relevantes do ecossistema de inovação
de IA. A Figura 6.2 fornece uma visão sistêmica do ecossistema com foco em
Machine Translated by Google
Corpo
profissional fornece
informações especializadas
cria
fornece entrada representa
de consumidores
baseado em implementado
através de coloca usa
Padrões pressão sobre
consulta
com Avaliação de
desenvolve produto de IA
impacto
requer
algorítmica
Estandardização
corpo Legislatura
deve cumprir
usa
suprimentos
Negócios
trabalha para
Individual
é membro de desenvolvedor
pode ser membro de
Fig. 6.2 Visão de sistemas das partes interessadas e atividades para implementar uma avaliação de impacto algorítmica
O que mostrei até agora é que a metáfora dos ecossistemas é útil porque fala a um público de
tomadores de decisão políticos e empresariais. Uma referência mais geral às teorias de sistemas
pode ajudar o público de outros tipos a entender a complexidade e a interdependência dos
vários atores humanos e não humanos que compõem o campo da IA. O que não mostrei é que
a metáfora dos ecossistemas é útil para entender a ética da IA e obter recomendações para
lidar com os dilemas da ética da IA, o objetivo final deste livro. Alguém poderia objetar que os
(eco)sistemas como fenômenos do mundo natural podem ser interpretados como sendo
categoricamente separados da ética.
Um tipo diferente de argumento que parece impedir a dedução de insights éticos a partir de
descrições sistêmicas da realidade pode ser observado em correntes particulares da teoria dos
sistemas. O epítome desse tipo de pensamento sistêmico é representado pelo sociólogo Niklas
Luhmann (1987), que desenvolveu uma teoria de sistemas baseada em sistemas autopoiéticos.
Estes são sistemas cujo objetivo principal é reproduzir-se. Pode-se interpretar os sistemas
biológicos dessa maneira, mas o foco de Luhmann está nos sistemas sociais, que seguem uma
lógica interna particular e integram informações ambientais para manter a integridade do sistema
(Introna 1997). O sistema econômico, por exemplo, funciona em uma lógica de pagamentos
para gerar mais pagamentos. Levantar questões de ética em tal sistema é um erro de categoria
ou levará à tradução da ética em aspectos relacionados ao pagamento, o que provavelmente
seria inapropriado em si.
A relação entre ética e ecossistemas não é, portanto, direta. Ao deduzir declarações éticas
de uma descrição de sistemas, deve-se ter o cuidado de ser explícito sobre as suposições que
sustentam a dedução. O desafio de passar do “é” para o “deve” deve ser enfrentado. Esse é um
desafio geral deste livro.
Machine Translated by Google
O leitor astuto notará que alternei entre diferentes conceitos de ética nos capítulos anteriores.
Apresentei o conceito de florescimento humano como parte de uma discussão normativa da
ética e concluí que promover o florescimento humano deveria ser o objetivo da IA. Em minha
discussão posterior sobre as questões éticas da IA, assumi uma postura mais descritiva,
simplesmente aceitando como uma questão ética aqueles fatos sociais que as pessoas
percebem como questões éticas. Isso levanta questões fundamentais sobre como podemos
passar de uma percepção de algo como eticamente problemático para a afirmação normativa
de que algo deve ser feito, o que normalmente implica uma obrigação de alguém fazer algo.
Referências
Adner R (2006) Combine sua estratégia de inovação com seu ecossistema de inovação. Harv Bus Rev 84:98–107,
148. https://hbr.org/2006/04/match-your-innovation-strategy-to-your-innovation-eco system. Acessado em 12 de
outubro de 2020 Ansari S, Garud R, Kumaraswamy A (2016) O dilema do disruptor: TiVo e a televisão dos EUA
Referências 89
https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624261/EPRS_STU(2019)624 261_EN.pdf.
Acessado em 12 de outubro de 2020
Coscieme L (2015) Serviços ecossistêmicos culturais: o valor inspirador dos ecossistemas em
música. Ecosyst Serv 16:121–124. https://doi.org/10.1016/j.ecoser.2015.10.024
Crook P (1996) Social darwinismo: o conceito. Hist Eur Ideas 22(4):261–274. https://doi.org/10.
1016/S0191-6599(96)00005-8
Catapulta Digital (2020) Lições de ética prática em IA: levando o ecossistema de IA do Reino Unido de “o quê” para
“como”. Catapulta Digital, Londres. https://connectedeverythingmedia.files.wordpress.com/
2020/05/20200430_dc_143_ethicspaper.pdf . Acessado em 12 de outubro de 2020 Comissão Europeia (2020a)
Livro branco sobre inteligência artificial: uma abordagem europeia para excelência e confiança. Comissão Europeia,
Bruxelas. https://ec.europa.eu/info/sites/info/files/mission-white-paper-artificial-intelligence-feb2020_en.pdf . Acessado
em 22 de setembro de 2020 Comissão Europeia (2020b) Moldando o futuro digital da Europa. Comunicação da
Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões.
Comissão Europeia, Bruxelas. https://ec.europa.eu/info/sites/info/files/communication-shaping-europes-digital-future-
feb2020_en_3.pdf . Acessado em 6 de outubro de 2020
Priest G (2017) A teoria dos sentimentos morais de Charles Darwin: o que a ética de Darwin realmente deve a Adam
Smith. J Hist Ideas 78(4):571–593. https://doi.org/10.1353/jhi.2017.0032. Acessado em 12 de outubro de 2020
Rauch J (1993) Kindly inquisitors: os novos ataques ao livre pensamento. Imprensa da Universidade de Chicago,
Chicago IL
Ricoeur P (1999) Lectures, vol 1: autour du politique. Points, Paris Ritala P,
Almpanopoulou A (2017) Em defesa do 'eco' no ecossistema de inovação. Technovation 60:39–42. https://doi.org/
10.1016/j.technovation.2017.01.004. Acessado em 12 de outubro de 2020 Rutledge K, Ramroop T, Boudreau D
(2011) Ecossistema. Geografia nacional. https://www.nation
algeographic.org/encyclopedia/ecosystem/. Acessado em 12 de outubro de 2020
Senyo PK, Liu K, Effah J (2019) Ecossistema de negócios digitais: revisão da literatura e uma estrutura para pesquisas
futuras. Int J Inf Gerenciar 47:52–64. https://doi.org/10.1016/j.ijinfomgt.2019.01.002 Shaw W (1989) Idéias
dominantes. Pode. J Philos 15 (Supl 1):425–448. https://doi.org/10.1080/004 55091.1989.10716806 Stix C (nd) Writing.
https://www.charlottestix.com/european-union-ai-ecosystem. Acessado 22
junho de 2020
UNESCO (2020) Primeiro rascunho do texto da recomendação sobre a ética da inteligência artificial. Grupo de
especialistas ad hoc (AHEG) para a preparação de um projeto de texto, UNESCO, Paris. https://unesdoc. unesco.org/
ark:/48223/pf0000373434. Acessado em 12 de outubro de 2020 Weikart R (2013) O papel do darwinismo no
pensamento racial nazista. Ger Stud Rev 36:537–556. https://doi.org/10.1353/gsr.2013.0106 _
Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons Attribution 4.0
(http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento, adaptação, distribuição e
reprodução em qualquer meio ou formato, desde que você dê os devidos créditos ao(s) autor(es) original(ais) e à fonte,
forneça um link para a licença Creative Commons e indique se foram feitas alterações.
As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons do capítulo,
a menos que indicado de outra forma em uma linha de crédito para o material. Se o material não estiver incluído na
licença Creative Commons do capítulo e seu uso pretendido não for permitido pela regulamentação estatutária ou
exceder o uso permitido, você precisará obter permissão diretamente do detentor dos direitos autorais.
Machine Translated by Google
Capítulo 7
Ecossistemas de IA para o florescimento humano:
As Recomendações
Resumo Este capítulo desenvolve as conclusões que podem ser tiradas da aplicação
da metáfora do ecossistema à IA. Ele destaca os desafios que surgem para a governança
ética dos ecossistemas de IA. Estes fornecem a base para a definição dos requisitos
que as intervenções de governança bem-sucedidas devem cumprir. Três requisitos
principais tornam-se aparentes: a necessidade de uma delimitação clara dos limites do
ecossistema em questão, o fornecimento e manutenção de conhecimentos e capacidades
dentro do ecossistema e a necessidade de estruturas de governança adaptáveis,
flexíveis e cuidadosas que sejam capazes de reagir às mudanças ambientais. Com base
nesses requisitos, o capítulo descreve algumas recomendações para intervenções que
provavelmente serão capazes de moldar os ecossistemas de IA de maneiras que
conduzam ao florescimento humano.
questões éticas associadas à IA. Por exemplo, o aprendizado de máquina tem conjuntos
particulares de características que levantam preocupações específicas, que são diferentes daquelas
levantadas por uma compreensão mais ampla da IA como um sistema sócio-técnico com
implicações em toda a sociedade. A inteligência geral artificial levanta novamente outro conjunto de preocupações.
A multiplicidade de conceitos, questões, ações e atores é a motivação por trás da escolha da
metáfora do ecossistema para descrever o sistema de IA.
O que podemos aprender com essa maneira de ver a IA é que qualquer intervenção no nível
do ecossistema deve permanecer sensível a essa complexidade. Deve incorporar diferentes
compreensões dos conceitos envolvidos e levar em conta o papel e o impacto sobre os vários
stakeholders e a interação entre stakeholders, questões e intervenções.
O problema não é apenas que existem muitas questões, atores e respostas diferentes.
A metáfora do ecossistema destaca o fato de que as relações entre os componentes constituintes
do sistema costumam ser altamente não lineares. Isso significa que raramente podemos esperar
encontrar relações simples de causa e efeito. Uma intervenção em algum ponto do ecossistema
pode ter consequências inesperadas que podem ter o efeito contrário ao pretendido. Este é um
fenômeno bem descrito em ecossistemas naturais (Tenner 1997) que pode ser observado de forma
semelhante em sistemas sociotécnicos, incluindo ecossistemas de IA. Esses efeitos relacionados
aos sistemas contribuem para o problema geral das consequências não intencionais.
interagem com a IA e são muito influentes na forma como as questões éticas e relacionadas se
materializam, são percebidas e podem ser abordadas. Eles levantam problemas porque sua taxa de
mudança provavelmente será diferente da do ecossistema de IA.
Como exemplo, vejamos o sistema legal, e mais especificamente a responsabilidade legal. As regras
de responsabilidade legal para a IA provavelmente terão um impacto significativo na maneira como as
sociedades lidam com a IA. Portanto, não é surpreendente que existam várias revisões e recomendações
apenas a nível europeu que reflitam sobre a aplicabilidade e possível desenvolvimento da legislação de
responsabilidade para torná-la adequada para IA (Grupo Especialista em Responsabilidade e Novas
Tecnologias 2019, Comissão Europeia 2020a, Parlamento Europeu 2020a). A legislação de
responsabilidade poderia, portanto, ser considerada um componente do ecossistema de IA. Ao mesmo
tempo, além da lei de letras negras existente, também existem práticas e experiências legais de direito
consuetudinário e outras. Profissionais jurídicos com experiência em responsabilidade não
necessariamente têm experiência em IA. Portanto, existem diferentes expectativas de diferentes campos
de aplicação da IA que conceituarão a responsabilidade de maneira diferente. A interação entre o
ecossistema de IA (com seus subsistemas) e o regime de responsabilidade legal provavelmente será
complexa.
Constelações semelhantes provavelmente serão relevantes para outros sistemas sociais ou técnicos.
Tomemos o sistema técnico como exemplo: a IA depende da infraestrutura de TIC existente e futura,
como rede, computação e capacidade de armazenamento. O progresso nessas áreas tem sido um fator
crucial para o sucesso do aprendizado de máquina. A disponibilidade de fontes de energia apropriadas é
um desafio técnico, mas cada vez mais também social, político e ambiental, devido ao consumo de
energia cada vez maior dos sistemas de IA e à possível interferência nas metas de sustentabilidade
(Knight 2020).
O ecossistema de IA é, portanto, crucialmente dependente da infraestrutura técnica e impulsiona e molda
seu desenvolvimento. Mas as decisões sobre a infraestrutura técnica não são necessariamente tomadas
pelos membros do ecossistema de IA e podem, portanto, parecer fazer parte do ambiente externo. A
avaliação do estado do ecossistema e as percepções de seu progresso, potencial e capacidade de
mudança dependerão muito de onde exatamente o limite é traçado.
Outro desafio importante para a governança ética dos ecossistemas de IA é o conceito de ética. No
Capítulo 2 , propus o conceito de florescimento humano como o conceito para orientar a compreensão
da ética na IA. “Florescimento” é um termo bem estabelecido fortemente ligado à antiga tradição da ética
da virtude; é um termo inclusivo que está aberto a figuras de pensamento de outras tradições filosóficas,
como utilidade, dever e cuidado. Ao mesmo tempo, essa abertura pode ser problemática porque é difícil
determinar quando e como exatamente o florescimento foi alcançado (veja o quadro).
Determinando o florescimento
Uma abordagem que visa o florescimento humano e simultaneamente tenta fornecer orientação
concreta sobre como medir as condições para o florescimento foi desenvolvida por Martha
Nussbaum: a abordagem de capacidades (Nussbaum 2000, Buckingham nd). As dez capacidades
necessárias para o florescimento, de acordo com Nussbaum, são a vida; saúde corporal;
integridade corporal; sentidos, imaginação e
Machine Translated by Google
pensamento; emoções; razão prática; afiliação; outras espécies (ex. ligação aos
animais e à natureza); jogar; e controle sobre o ambiente (Nussbaum 2000: 78–80).
Os economistas pegaram o trabalho de Nussbaum e avaliaram se as capacidades e
intervenções relacionadas podem ser medidas de forma confiável (Anand et al 2008).
A conclusão deles é que os modelos econômicos focados nas capacidades de
Nussbaum podem medir e abordar alguns inibidores do florescimento humano, mas
não todos (ibid. 303) devido ao fato de que as capacidades têm múltiplas dimensões
(ibid. 302).
Portanto, não podemos assumir que existe uma maneira a priori de determinar se as
pessoas estão prosperando, então precisamos admitir que isso é, pelo menos em parte, uma
questão empírica que também está sujeita a mudanças ao longo do tempo. As percepções e
posições morais das pessoas mudam, enquanto os ecossistemas de IA são realizados dentro
dos limites mutáveis das preferências éticas. No momento, isso pode ser melhor ilustrado
usando os diferentes regimes de privacidade e proteção de dados em diferentes partes do
mundo, que sem dúvida refletem diferentes preferências sociais e dão origem a debates
interessantes sobre o que, se é que existe, é universal e deve ser aplicado em áreas
geográficas e outras. limites. Por exemplo, o direito à privacidade é reconhecido como um
direito humano na Convenção Europeia dos Direitos Humanos, que fornece uma base sólida
para a proteção de dados como um componente crucial da proteção da privacidade das
informações. Na UE, a proteção de dados é regulada pelo Regulamento Geral de Proteção
de Dados, que fornece orientação detalhada e exige certas atividades e procedimentos, como
a necessidade de ter uma base legal para o processamento de dados e requisitos para
realizar avaliações de impacto de proteção de dados e nomear dados oficiais de proteção. A
ênfase europeia na proteção de dados provavelmente influenciará fortemente como a IA será
regulamentada (EDPS 2020). Em outras partes do mundo, a privacidade e a proteção de
dados têm papéis e relevâncias diferentes. Embora exista legislação de proteção de dados
em muitas jurisdições, sua extensão e aplicação variam. Na China, por exemplo, as leis de
privacidade protegem os dados dos cidadãos contra o abuso por parte de terceiros, mas não
cobrem o acesso e uso de dados governamentais (Gal 2020).
O conceito de prosperidade humana tem algumas reivindicações universais, notadamente
que os humanos lutam pela felicidade e que alcançá-la é um objetivo eticamente justificado
que as sociedades e as tecnologias que empregam devem apoiar. Mas como exatamente
isso é alcançado e como podemos saber se foi alcançado permanecem questões em aberto.
E essa abertura não é apenas um fato historicamente contingente, mas parte da própria
questão. Não é uma pergunta que se pode esperar responder e fechar, mas que requer
reflexão e discussão contínuas, pois as respostas específicas diferem e variam com o tempo.
Isso também implica outro grande desafio para a governança ética dos ecossistemas de
IA, ou seja, a existência inevitável de discordâncias éticas e conflitos de valores.
Como parte do processo de reflexão e promoção do florescimento humano, as pessoas
entrarão em conflito. Os conflitos podem ser locais, por exemplo, onde recursos escassos
devem ser alocados para satisfazer demandas concorrentes. Um exemplo típico seria o uso
de água para manter os campos de golfe verdes versus outros usos (Scott et al. 2018). Mas eles podem
Machine Translated by Google
também pode ser mais fundamental, onde posições eticamente bem justificadas entram em
conflito e as resoluções de tais conflitos não são óbvias e diretas. Um exemplo pode ser a
controvérsia sobre aplicativos móveis de rastreamento e rastreamento durante a crise do COVID
19, na qual demandas concorrentes de ativistas de privacidade e especialistas em saúde
pública levaram a uma série de controvérsias sobre como essas tecnologias poderiam e
deveriam ser usadas para limitar a disseminação de a doença (Klar e Lanzerath 2020). Este
também é um bom exemplo dos problemas em traçar um limite em torno de um ecossistema de
inovação sociotécnica em termos de jurisdições, dados, plataforma técnica etc.
O desafio final para a governança ética bem-sucedida dos ecossistemas de IA é a incerteza
de todos os aspectos dos próprios ecossistemas e de seus ambientes, sejam eles técnicos,
sociais ou éticos. A incerteza técnica pode ser o exemplo mais visível, com os desenvolvimentos
técnicos relacionados à IA acontecendo em um ritmo rápido, o que torna o valor de tentar prever
a próxima etapa extremamente limitado. Isso é em parte uma função da própria tecnologia, mas
também em função da crescente realização das aplicações potenciais de tais tecnologias. A
aplicação das atuais tecnologias de aprendizado de máquina pode levar a mudanças radicais
nos próximos anos, mesmo sem nenhum progresso técnico adicional, simplesmente porque os
atores estão começando a entender o que essas tecnologias podem fazer e a aplicá-las a novos
problemas de maneiras inovadoras.
Mas a incerteza do futuro não está apenas ligada a artefatos técnicos. É igualmente
importante em termos de estruturas sociais e preferências éticas. As sociedades são sempre
dinâmicas, e isso pode afetar os ecossistemas tecnológicos de maneiras imprevisíveis. Mais
uma vez, a pandemia do COVID-19 pode servir como ilustração da mudança às vezes rápida
dos sistemas sociais. O trabalho em casa generalizado pode ser apoiado por tecnologias de IA
em benefício dos funcionários, mas também pode oferecer novos modos de vigilância e
exploração dos trabalhadores (Harwell 2020). Como outro exemplo, a maior conscientização
sobre o racismo que surgiu no contexto do movimento Black Lives Matter colocou um holofote
ainda mais forte sobre o preconceito e a discriminação, já um tópico bem discutido da ética da
IA. Embora o potencial da IA para levar a preconceitos e discriminação esteja bem estabelecido,
também foi observado que pode se tornar uma ferramenta útil na identificação de preconceitos
humanos existentes e, assim, superá-los (Stone et al. 2016). É impossível prever qual mudança
social trará o próximo conjunto de desafios e como a interação entre o ecossistema de IA e
outras partes de nosso ambiente social e técnico se desenvolverá.
A Figura 7.1 resume os pontos discutidos nesta seção, na qual indiquei que a maioria dos
principais desafios não é específica da IA. Algumas delas decorrem da natureza sistêmica do
ecossistema de inovação sociotécnica. Algumas delas estão relacionadas a aspectos
fundamentais do mundo social, técnico e natural em que vivemos.
Questões específicas da IA que estão ligadas às características das tecnologias subjacentes e
seu impacto no mundo formam apenas um subconjunto desses desafios. Isso indica que a
governança dos ecossistemas de IA é melhor compreendida como parte da governança das
tecnologias digitais, que, por sua vez, é um subconjunto da governança de tecnologia em geral.
Tendo agora explorado os desafios que qualquer tentativa de governar os ecossistemas de
IA para apoiar o florescimento humano provavelmente enfrentará, podemos passar para a
próxima etapa, uma exploração do que qualquer intervenção precisaria cobrir, a fim de enfrentar
os desafios discutidos aqui.
Machine Translated by Google
Significado de ética/
florescimento humano
Incorporação em ambientes
Ampla gama de questões,
externos
tecnologias, opções
(técnico, político,
de mitigação, partes
econômico, legal,
interessadas
ético)
Principais desafios da
governança ética do
ecossistema de IA
Especificação dos limites do Relacionamentos não
sistema lineares e sistêmicos
Incerteza dos
desenvolvimentos técnicos,
sociais e éticos
Em alguns casos, esses limites podem parecer óbvios para os atores envolvidos. No caso
da discussão da União Europeia sobre IA, uma suposição implícita é que qualquer intervenção
que a UE empreenda será no nível europeu e cairá dentro da jurisdição da UE. É claro que isso
faz todo o sentido para instituições jurídicas que atuam em uma jurisdição definida e, portanto,
intervêm dentro dos limites dessa jurisdição. O mesmo vale para as intervenções regulatórias
nacionais, que normalmente visam os membros do ecossistema que atuam dentro das fronteiras
de uma nação.
No entanto, também está claro que a aplicação de limites jurisdicionais a ecossistemas de
IA não é necessariamente a abordagem mais promissora. Os princípios da IA, a ciência
subjacente e os algoritmos não são confinados localmente. Muitas das principais empresas do
Machine Translated by Google
(Stahl e Wright 2018). Este é um termo útil, mas no discurso público e político o termo “IA” tornou-
se dominante. Para efeitos de delimitação do ecossistema importa, no entanto, deixar claro quais as
tecnologias abrangidas e quais, por implicação, não o são.
Um terceiro aspecto de traçar limites claros para o ecossistema, além dos limites geográficos e
terminologia técnica, envolve seus aspectos normativos.
Estes começam com os pressupostos normativos por trás da definição do ecossistema.
As decisões sobre os limites geográficos, técnicos e sociais de um ecossistema são baseadas em
pressupostos e valores subjacentes que devem ser explicitados. O que o observador do ecossistema
que usa a metáfora do ecossistema está tentando alcançar? No Capítulo 4 , sugeri que existem
diferentes propósitos que impulsionam o desenvolvimento e uso da IA (eficiência econômica,
controle social, prosperidade humana) e que a delimitação do ecossistema deve incluir um
esclarecimento de quais desses (ou talvez outros) propósitos motivam a descrição do ecossistema.
A próxima pergunta, então, é: o que é necessário para moldar este ecossistema para suportar
florescimento humano?
Uma das características dos ecossistemas de inovação é que os membros do sistema não apenas
competem e cooperam, mas também coevoluem e aprendem uns com os outros. A existência e
disponibilidade de conhecimento são fatores chave que distinguem diferentes ecossistemas. O
conhecimento também desempenha um papel fundamental na compreensão das questões éticas e
nas formas de abordá-las. O alcance e a qualidade do conhecimento dentro de uma
Machine Translated by Google
Além disso, é necessário o conhecimento processual necessário para lidar com questões
éticas. É o conhecimento de como organizar os processos necessários para lidar com questões
éticas. Por exemplo, se as possibilidades de discriminação devem ser reduzidas para aumentar
o florescimento humano, as opções de governança para alcançar isso precisam ser conhecidas,
desde soluções legais até soluções técnicas.
O conhecimento procedimental também deve abranger outros aspectos da reflexão e
avaliação sobre ciência e tecnologia. Com base no discurso sobre pesquisa e inovação
responsáveis, é possível identificar alguns processos importantes que podem contribuir para
garantir que questões éticas possam ser reconhecidas e tratadas. Estes incluem antecipação,
envolvimento, reflexividade e capacidade de resposta (Stilgoe et al. 2013).
Processos de antecipação são necessários para uma forma estruturada de pensar sobre
possíveis estados futuros que irão informar a maneira como agimos hoje e nos preparamos para
o futuro. Esses processos não devem ser mal interpretados como simples previsões que tentam
adivinhar como será o futuro. Previsões precisas são notoriamente difíceis, se não impossíveis,
e a literatura está repleta de previsões que se mostraram erradas e, em retrospectiva, tendem a
parecer ridículas, como a previsão do presidente da IBM em 1943 de que haveria um mercado
mundial. para talvez cinco computadores, ou a declaração do presidente da Digital Equipment
Corporation em 1977 de que não havia razão para alguém querer um computador em casa
(Himanen 2001: 187). Os processos de antecipação são baseados no reconhecimento da
impossibilidade de previsão. Eles, no entanto, visam explorar futuros possíveis, para ajudar as
sociedades a decidir quais ações tomar hoje (Cuhls 2003). Existem discursos e disciplinas
acadêmicas bem estabelecidos que desenvolveram métodos para estudos futuros e prospectivos
(Sardar 2010), alguns dos quais focam explicitamente nas questões éticas das tecnologias
emergentes (Brey 2011, Floridi e Strait 2020). Por exemplo, Flick et al. (2020) exploram uma
ampla gama de recursos, incluindo publicações acadêmicas, mas também discussões em mídias
sociais, para identificar desenvolvimentos técnicos esperados no
Machine Translated by Google
domínio das TIC para o envelhecimento e as preocupações éticas que daí possam advir. Esse
tipo de trabalho abre espaços de possibilidades sem se comprometer com um resultado
específico. É útil para aumentar a conscientização e a sensibilidade para os desenvolvimentos
técnicos e sociais ou éticos e, portanto, oferece a probabilidade de que eles possam ser
moldados adequadamente. Esse tipo de trabalho pode beneficiar os ecossistemas de IA, mas
para que isso aconteça, o conhecimento de como realizar o trabalho antecipado precisa estar
disponível no ecossistema.
Um dos processos com potencial para atrair conhecimento para o ecossistema de ética da
IA é o engajamento de todas as partes interessadas. “Engajamento” refere-se a atividades que
reúnem diferentes partes interessadas de maneira aberta para uma troca de ideias mutuamente
informativa. A importância do engajamento em ciência, pesquisa e desenvolvimento tecnológico
está estabelecida há muito tempo (Arnstein 1969, Hart et al. 2009, Bick erstaff et al. 2010, Van
Est 2011, Boulton et al. 2012). Certos aspectos do engajamento também estão bem
estabelecidos em disciplinas técnicas, por exemplo, na forma de engajamento do usuário ou
pesquisa de experiência do usuário, que fazem parte da ciência da computação, a disciplina pai
da IA (Haenlein e Kaplan 2019). No entanto, para realizar atividades de engajamento de maneira
eticamente sensível e contribuir para um ecossistema de IA de modo a promover o florescimento
humano, elas precisam ser empregadas com cuidado. O envolvimento no desenvolvimento da
ciência e da tecnologia às vezes é limitado a exercícios para a compreensão pública da ciência,
que visam informar o público sobre percepções científicas ou conquistas técnicas. Não há nada
de errado com tais exercícios, mas eles são apenas uma parte do engajamento público, que,
para atender às expectativas éticas, precisa facilitar e abrir uma comunicação bidirecional, com
pesquisadores e outras partes interessadas dispostos a se envolver, ouvir e responder uns aos
outros e levar as posições a sério. Se isso não for feito de maneira inclusiva, conhecimentos
importantes a serem adquiridos sobre o ecossistema de ética da IA podem ser perdidos.
e política que funciona na prática”. Claro, existem outras partes interessadas envolvidas em
ecossistemas de IA além de engenheiros e especialistas em humanidades, e outros domínios de
conhecimento além de “coisas com texto” e “coisas com computadores”. Mas o sentimento geral
de que as pessoas precisam estar dispostas a obter novos insights e aprender novas habilidades
é, sem dúvida, verdadeiro.
A questão de como isso pode ser alcançado nos leva ao terceiro grupo de requisitos para
moldar um ecossistema de IA para o florescimento humano: a questão da governança do sistema.
processos de governar, seja empreendido por um governo, mercado ou rede, seja sobre uma família,
tribo, organização formal ou informal, ou território, seja por meio de leis, normas, poder ou linguagem.
(Bevir 2012: 1)
quando é concebido, praticado, exercido ou evolui como um processo dinâmico para gerir
interdependências e contingências de forma não finalizante ; é prudente (por exemplo, envolvendo
tentativa e erro, ou processos de aprendizagem em geral) e preliminar (por exemplo, limitado
temporalmente) em vez de assertivo e persistente. Atores provisórios de governança buscam flexibilidade e agem de forma incre
(Kuhlmann et al. 2019: 1093, ênfase no original).
para melhorar aqueles. Assim, eles contribuem para os tipos de recomendações que descrevo na
próxima seção.
As propostas a seguir não são recomendações prontas que podem ser implementadas para
resolver as questões éticas da IA. Além do fato de que isso é impossível porque as questões éticas
normalmente não se prestam a uma resolução simples, também me falta o espaço neste livro e o
conhecimento detalhado dos vários domínios de especialização que seriam necessários para
desenvolver planos de implementação detalhados.
O que estou tentando fazer é destacar alguns aspectos-chave de governança, mitigação e
intervenções que têm grande probabilidade de dar uma contribuição positiva para o objetivo de
moldar os ecossistemas de IA da maneira desejada.
O público previsto para essas propostas inclui tomadores de decisão que podem moldar
aspectos do ecossistema de IA, mas também pessoas que têm interesse e fazem parte do debate:
formuladores de políticas, bem como pesquisadores e usuários de IA em organizações públicas e
privadas, o representantes da mídia e da sociedade civil.
Os ecossistemas de IA existem em todo o mundo, mas geralmente são definidos
geograficamente, sujeitos às leis de uma jurisdição específica e podem ser específicos do setor.
Minhas sugestões visam ser amplamente aplicáveis em todas as regiões e jurisdições, mas devem
ser verificadas quanto à aplicabilidade local. Além disso, a maior parte do trabalho que sustenta
meu pensamento foi realizada nos contextos do Reino Unido e da UE, financiado por bolsas de pesquisa europeias
Muitas das questões que influenciam como os ecossistemas de IA podem e serão moldados estão
sendo muito debatidas no momento em que escrevo (o verão europeu de 2020). A nível europeu,
em particular, existe um conjunto de propostas da Comissão Europeia, do Parlamento Europeu e
de grupos de peritos de alto nível. Embora esta discussão esteja, portanto, claramente voltada
para a Europa, acredito que os princípios delineados são válidos – ou pelo menos de interesse –
fora da Europa.
Machine Translated by Google
O uso claro da terminologia é, portanto, uma recomendação importante para qualquer pessoa
que pretenda intervir em um ecossistema de IA. No entanto, entendimentos conflitantes do termo
“inteligência artificial” podem levar a confusão. Isso se deve em parte às definições variadas, mas
também em parte às conotações emotivas da IA. Os humanos tendem a se considerar inteligentes
e, portanto, a IA tem o potencial de ameaçar nossa percepção de nós mesmos. A cultura popular e
a ficção desenvolveram uma variedade de tropos facilmente reconhecíveis de IA, como o robô
maligno, que colore a percepção de tecnologias reais e esperadas. Pode haver pouca dúvida de
que esta é uma das causas do alto perfil do debate sobre IA, mas também é seu calcanhar de
Aquiles.
Como sugestão geral, eu defenderia o uso do termo IA com moderação e ir além dele para
termos que capturem melhor a tecnologia ou tecnologias específicas em questão. Se uma
intervenção visa um aspecto específico da IA, como aprendizado de máquina, isso deve ser
explícito. Se o objetivo é cobrir o mais amplo
Machine Translated by Google
Um aspecto importante do compromisso com uma postura ética é sua relação com o
ambiente técnico. Existe um amplo consenso de que os formuladores de políticas nacionais e
regionais têm um papel no desenvolvimento do ecossistema técnico de IA. Esse papel tende a
incluir medidas como o fortalecimento de caminhos educacionais que levam a uma força de
trabalho proficiente em IA, apoio a capital de risco e outros meios de financiamento de novos
modelos de negócios orientados a IA e estruturas de pesquisa e inovação que fornecem
financiamento para pesquisas relacionadas a IA . O fortalecimento do ecossistema de IA
também costuma ser visto como exigindo a criação de campeões ou centros de excelência de
IA nacionais ou regionais que sirvam como centros para reunir conhecimento e experiência. No Reino Unido
Machine Translated by Google
esse papel é desempenhado pelo Alan Turing Institute. A Comissão Europeia propõe a criação
de redes de excelência em universidades de referência com um propósito semelhante.
Do meu ponto de vista, é importante estabelecer que a dimensão ética deve ser entendida
como parte integrante do ecossistema técnico de IA, não como um complemento.
Para que a IA se torne verdadeiramente voltada para o florescimento humano, ela deve superar
a divisão atual entre excelência científica e reflexão ética e reconhecer que a excelência
científica não pode ser verdadeiramente excelente se não considerar as consequências sociais
e éticas do desenvolvimento, implantação e uso do tecnologia.
À primeira vista, isso pode parecer um tanto trivial, mas exigiria uma reconceituação de
longo alcance da ética na ciência, pesquisa e desenvolvimento tecnológico. Atualmente, a ética
em pesquisa e inovação tende a se concentrar na ética em pesquisa, que normalmente assume
a forma de uma revisão no início de um projeto com base nos princípios de ética em pesquisa
biomédica. Minha sugestão é repensar fundamentalmente a relação entre pesquisa e inovação
em IA e ética. A ética no sentido amplo de promover o florescimento humano deve ser parte
integrante da excelência científica. Isso significaria que aspectos como consequências
pretendidas, análise detalhada de riscos e planos de contingência que cobrem questões éticas
conhecidas ou esperadas fariam parte da avaliação científica das propostas e determinariam
quais ideias são consideradas excelentes e, portanto, dignas de serem financiadas.
Outra abordagem que também tem a vantagem de estar baseada em acordos internacionais
reconhecidos é o foco nos direitos humanos. Conforme discutido no Capítulo 4, já existem
várias propostas para encontrar formas de aplicar os ODS ou direitos humanos à IA (Raso et al.
2018, Latonero 2018, Comissário para os Direitos Humanos 2019).
Todas essas abordagens parecem ter um alto potencial para serem aplicáveis à IA e fornecer
maneiras de estruturar a discussão e a compreensão do impacto das intervenções no
ecossistema da IA. Uma compreensão mais clara de seus respectivos pontos fortes e fracos
seria útil para decidir quais deles podem ser mais apropriados em quais ecossistemas de IA.
A questão do florescimento humano e a influência que a IA pode ter sobre isso não é fácil
de resolver. As indicações nesta seção para o Índice de Desenvolvimento Humano, os ODS e
as medidas de direitos humanos destinam-se a fornecer indicações de como essa influência
pode ser alcançada. Tentar medir algo tão complexo e multifacetado quanto o florescimento
traz muitos desafios. Algumas delas são metodológicas e epistemológicas, girando em torno
das questões: o que podemos medir e como pode ser medido? O próprio termo “medida” sugere
uma abordagem quantitativa, e o grau em que um termo qualitativo complexo, como
florescimento, pode ser capturado usando medidas quantitativas está aberto ao debate. Os
desafios vão ainda mais longe e tocam no cerne da ética, na questão: é adequado tentar medir
o florescimento humano?
Este livro não pode oferecer uma resposta abrangente a essa pergunta. No entanto, pode
apontar para o fato de que vivemos em um mundo onde as medições orientam muitas políticas
e comportamentos. A capacidade de expressar se um objetivo específico, como o florescimento
humano, foi alcançado, ou se uma atividade ou processo pode levar ao progresso na direção
desse objetivo, ajudaria, portanto, a envolver os tomadores de decisão que estão acostumados
a esse tipo de discurso . O desenvolvimento de medições é altamente ambicioso e é muito
improvável que algum dia seremos capazes de medir o florescimento humano de forma abrangente.
Mas os benefícios de ter algumas medidas, embora imperfeitas, podem compensar as
divergências que essas medidas provavelmente evocarão.
Machine Translated by Google
A base de conhecimento da IA precisa ser cientificamente sólida e confiável, mas também deve
ser visível, comunicada e compreendida, o que implica a necessidade de atividades educacionais,
desde a educação primária até o pós-doutorado. Isto, por sua vez, exige revisões dos currículos
nacionais e disciplinares, o desenvolvimento de apoio à aprendizagem e a criação de capacidade de
ensino.
A disseminação posterior e a utilidade prática para a sociedade desse conhecimento dependerão
se ele pode ser transmitido de maneira simples e compreensível. Uma abordagem para isso é
desenvolver rótulos e certificados para sistemas de IA, comparáveis a rótulos bem estabelecidos,
como os que codificam o consumo de energia, o conteúdo nutricional dos alimentos e a
sustentabilidade ambiental. Pode ajudar a usar as categorizações existentes de IA, como os seis
níveis de autonomia – níveis 0 a 5 (SAE 2018) – que são usados para veículos autônomos para
transmitir aspectos relevantes de benefício e risco.
Essas categorizações relativamente simples de aspectos importantes da IA podem ajudar a
representar visualmente possíveis benefícios e riscos e, assim, apoiar uma tomada de decisão equilibrada.
Machine Translated by Google
As sugestões acima assumem que existe uma posição sobre IA que nos permite determinar
quais usos e aplicações de tecnologia são desejáveis e aceitáveis, que existe algum tipo de
acordo sobre o que conta como florescente ou quais benefícios justificam assumir riscos
específicos. Embora eu acredite que se possa realmente encontrar muito consenso sobre muitas
dessas questões, pelo menos dentro de comunidades e estados específicos, sempre haverá
fenômenos novos ou limítrofes que são menos claramente compreendidos e dão origem a
diferentes interpretações e avaliações.
A complexidade da IA e de outras tecnologias digitais emergentes, tanto em termos de suas
capacidades técnicas quanto em relação aos resultados e impactos sociais, significa que é
improvável que essas questões sejam fáceis de resolver. Além disso, em muitos casos, eles
estarão alinhados com as divergências sociais existentes, por exemplo, com relação ao que
conta como distribuição justa ou o que um estado pode razoavelmente exigir que seus cidadãos façam.
Uma compreensão completa do que conta como uma questão ética relacionada à IA, por que
ela conta e o que, se houver, poderia ou deveria ser feito sobre isso, portanto, exige debates
sociais que permitam que as partes interessadas se reúnam e debatam essas questões. Como
consequência, a ética da IA não pode ser um tópico tratado apenas por especialistas técnicos e
éticos: ela exige um envolvimento mais amplo das partes interessadas.
Em grande medida, os processos políticos que existem em um estado democrático podem
cuidar dessa tarefa e fornecer meios para a expressão de opiniões divergentes e decisões
legítimas sobre ações desejáveis. Para que os ecossistemas de IA sejam direcionados para o
florescimento humano, eles precisarão de mecanismos que institucionalizem as atividades de
engajamento das partes interessadas que dêem voz às partes interessadas e lhes permitam
contribuir significativamente para a tomada de decisões coletiva. Recomendações e políticas
apropriadas parecem exigir uma abordagem multissetorial que reúna as partes interessadas
relevantes de maneira inclusiva para avançar em direção ao florescimento humano ou, como
Cath et al. (2016: 18), para entregar uma “boa sociedade de IA”.
É mais fácil dizer do que fazer. Existem muitas armadilhas potenciais no envolvimento das
partes interessadas. Tais atividades precisam ser cuidadosamente definidas, planejadas e
executadas para evitar que sejam sequestradas por interesses particulares (Wehling 2012). Eles
precisam estar alinhados com os processos democráticos existentes. Existem questões difíceis
sobre a frequência e a intensidade dos engajamentos das partes interessadas que têm a ver
com os custos que incorrem e se eles podem realmente afirmar que representam as opiniões
das partes interessadas (Wynne 2006, Felt e Fochler 2010). Apesar desses problemas potenciais
e desvantagens, no entanto, é difícil ver como os ecossistemas de IA podem entender
adequadamente as questões éticas que enfrentam e as formas aceitáveis de lidar com elas, a
menos que tenham formas apropriadas de consultar as partes interessadas.
Machine Translated by Google
Minha última sugestão para moldar o ecossistema de IA tem relação com todas as outras
sugestões. Relaciona-se com a questão de onde reside a responsabilidade pelo planejamento,
realização, implementação e aplicação das sugestões feitas aqui e em outros lugares.
Isso se refere ao conceito de meta-responsabilidade, ou seja, a questão de quem ou o que é
responsável por garantir que indivíduos, organizações e Estados entendam suas
responsabilidades e as cumpram.
Acredito que uma condição fundamental para que qualquer sugestão ou recomendação seja
bem-sucedida é a capacidade de responder à pergunta: quem ou o que é responsável por
implementá-la? A nível nacional ou internacional, trata-se da questão de saber se deve haver
um regulador para a IA e que forma deve assumir. A nível europeu observamos várias opiniões
a este respeito. A Comissão Europeia (2020a) é favorável ao reforço da rede de reguladores
existentes, enquanto o Parlamento Europeu (2020b) propôs a criação de uma Agência Europeia
para a Inteligência Artificial.
Não vou comentar em detalhes esta discussão, mas gostaria de apontar alguns aspectos
que devem ser considerados ao buscar um caminho a seguir. Alguma estrutura ou órgão deve
assumir a responsabilidade por muitos aspectos da ética nos ecossistemas de IA. Deve haver
um lugar onde as posições conceituais são coletadas e definidas. A base de conhecimento e as
formas de medir e avaliar as tecnologias e seu impacto precisam de um lar institucional, que
uma rede de reguladores existentes ou um novo regulador poderia oferecer.
No Reino Unido, a organização sem fins lucrativos Doteveryone publicou um relatório (Miller
e Ohrvik-Stott 2018) sobre regulamentação de tecnologia responsável que contém uma forte
análise dos desafios e propõe a criação de um hub central para orientar e apoiar uma série de
atividades. Este relatório emprega a metáfora do ecossistema das tecnologias digitais e se
baseia nela para explorar maneiras pelas quais ecossistemas inteiros podem ser governados
para servir à sociedade. No centro das recomendações deste relatório está a criação do que os
autores chamam de Escritório de Tecnologia Responsável.
O escritório proposto não é explicitamente um regulador para IA. Tal regulador seria vítima
do problema da falta de clareza na definição de IA e poderia acabar sendo um regulador para
tudo. Em vez disso, seria criado como uma organização para apoiar e fortalecer os reguladores
existentes, como autoridades de proteção de dados e reguladores financeiros ou de outros
setores. Esses reguladores existentes estão, em sua maioria, bem estabelecidos e em melhor
posição para lidar com aplicações específicas, mas muitas vezes carecem de conhecimento e
experiência específicos para IA ou outras tecnologias emergentes. O Escritório de Tecnologia
Responsável é, portanto, descrito como uma organização que trabalha com os reguladores e
fornece o conhecimento específico de tecnologia e experiência que eles não possuem.
O relatório Doteveryone prevê outro conjunto de tarefas para este escritório que se alinha
diretamente com algumas das sugestões que fiz anteriormente. É designado como o lar do
envolvimento público, tanto para a troca de informações quanto como o local onde se desenvolve
uma visão para a tecnologia e a sociedade. O relatório também vê o Gabinete de
Machine Translated by Google
Tecnologia Responsável como o órgão responsável por garantir que os procedimentos de reparação
existam e sejam utilizáveis.
Alguns aspectos dessas propostas são discutíveis. Não creio que todas as diversas tarefas
propostas para o Escritório de Tecnologia Responsável devam estar localizadas em uma única
organização. Tal concentração de tarefas pode torná-la uma instituição grande, pesada e burocrática.
Ao mesmo tempo, é claro que esta ideia tem tração, como pode ser visto na atual discussão europeia
sobre um potencial regulador, bem como no fato de que organizações estão começando a surgir que
cobrem pelo menos parte deste mandato, como o Centro de Ética e Inovação de Dados do Reino
Unido.1 Essa organização é certamente necessária no nível político, seja chamada de regulador,
escritório, centro ou qualquer outra coisa. Não deve, no entanto, pretender regulamentar toda a IA,
nem que seja pela dificuldade de definir o termo.
Em vez disso, deve ter um mandato que abranja as tecnologias (digitais) emergentes e deve apoiar as
estruturas e processos regulatórios existentes. Isso seria um assunto de meta responsabilidade, ou
seja, o escritório seria a organização responsável por garantir que as responsabilidades relacionadas à
tecnologia sejam claramente definidas e possam ser cumpridas.
Vale ressaltar que esse princípio de ter um sujeito de meta-responsabilidade não se limita ao nível
político e aos ecossistemas de IA nacionais ou regionais. Uma organização ou função semelhante será
necessária em outros ecossistemas, para garantir que haja um mecanismo para que todos os membros
do ecossistema tenham acesso ao conhecimento, desenvolvam capacidades, recebam orientação e
forneçam informações às estruturas de governança. No nível de uma organização, essa pode ser uma
posição confiável com responsabilidade pela IA nessa organização. O titular poderia ser chamado de
oficial de IA ou, talvez melhor, de oficial digital. Isso pode ser desenvolvido de maneira semelhante ao
oficial de proteção de dados, uma função que é obrigatória para organizações europeias para garantir
que os requisitos de proteção de dados sejam atendidos. O responsável pela proteção de dados
trabalha para a organização e é pago por ela, mas tem uma responsabilidade definida em relação aos
requisitos de proteção de dados, não às necessidades organizacionais. Em caso de conflito entre estes,
a perspetiva do responsável pela proteção de dados é mais ampla do que a da organização. Um papel
semelhante em relação à IA pode ser de importância crucial para a governança dos ecossistemas
organizacionais de IA, que podem ser a base de ecossistemas maiores e abrangentes.
Quando apropriado, essas funções também podem ser combinadas, de modo que, em uma empresa
que faz uso significativo de IA, mas não é voltada centralmente para a IA, o responsável pela proteção
de dados pode atuar simultaneamente como responsável digital.
As sugestões apresentadas nesta seção oferecem exemplos dos tipos de ações e intervenções
que, acredito, podem ajudar a mover os ecossistemas de IA em uma direção favorável ao florescimento
humano, embora sua implementação exija mais reflexão e detalhes. A forma exata que essas ações e
intervenções eventualmente assumem será objeto de uma discussão mais aprofundada, mas minhas
sugestões vão de alguma forma no sentido de abordar os desafios dos ecossistemas de IA e são
consistentes com os requisitos para intervenções que estabeleci anteriormente. Eles poderiam
determinar a forma de uma estrutura de governança voltada para o futuro. Essa estrutura precisa de
flexibilidade para garantir que tecnologias futuras sejam acomodadas e deve abrir uma discussão
produtiva entre
1https://www.gov.uk/government/organizations/centre-for-data-ethics-and-innovation
Machine Translated by Google
Referências
Alkire S (2002) Valorizando a liberdade: abordagem de capacidade de Sen e redução da pobreza. Oxford
University Press, Oxford
Anand P, Santos C, Smith R (2008) Pobreza, capacidades e medição, Oxford University Press, Oxford. https://
www.poverty.ac.uk/system/files/poverty_capabilities-and-measurement. pdf. Acessado em 29 de outubro de 2020
Arnstein SR (1969) Uma escada de participação cidadã. J Am Inst Plann 35:216–224. https://doi.org/
10.1080/01944366908977225 _
Bevir M (2012) Governança: uma breve introdução. Oxford University Press, Oxford Bickerstaff K,
Lorenzoni I, Jones M, Pidgeon N (2010) Localizando a cidadania científica: os contextos institucionais e culturas
de engajamento público. Sci Technol Hum Values 35:474–500. https://doi.org/10.1177/2F0162243909345835 _
Boulton G, Campbell P, Collins B et al (2012) A ciência como uma empresa aberta. Royal Society, Londres. https://
royalsociety.org/-/media/policy/projects/sape/2012-06-20-saoe.pdf. Acessado em 29 de outubro de 2020
Braithwaite J, Drahos P (2000) Regulamentação de negócios globais. Cambridge University Press, Cambridge Brey
P (2011) Ética tecnológica antecipada para TI emergente. Em: Mauger J (ed) CEPE 2011:
cruzando fronteiras. INSEIT, Nice, França, pp 13–26
Buckingham W (nd) Vulnerabilidade e florescimento — Martha Nussbaum. https://gohighbrow.com/vulnerability-and-
flourishing-martha-nussbaum/ . Acessado em 3 de novembro de 2020 Cath CJN, Wachter S, Mittelstadt B,
Taddeo M, Floridi L (2016) Inteligência artificial e a 'boa sociedade': a abordagem dos EUA, UE e Reino Unido.
Social Science Research Network, Rochester, NY Coeckelbergh M (2020) Ética da IA. The MIT Press,
Cambridge, MA Collingridge D (1981) O controle social da tecnologia. Palgrave Macmillan, Comissário de Direitos
Humanos de Londres (2019) Unboxing da inteligência artificial: 10 passos para proteger os direitos humanos .
https://rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-human-rights-reco/ 1680946e64. Acessado em
6 de outubro de 2020
Cuhls K (2003) Da previsão aos processos de previsão: novas atividades de previsão participativa na Alemanha. J
Previsão 22:93–111. https://doi.org/10.1002/for.848 AEPD (2020) Parecer da AEPD sobre o Livro Branco da
Comissão Europeia sobre Inteligência Artificial — uma abordagem europeia para a excelência e a confiança
(Parecer 4/2020). Supervisor Europeu de Proteção de Dados, Comissão Europeia de Bruxelas (2020a) Relatório
sobre as implicações de segurança e responsabilidade da inteligência artificial, da internet das coisas e da
robótica. Comissão Europeia, Bruxelas. https://ec.europa. eu/info/files/commission-report-safety-and-liability-
implications-ai-internet-things-and-roboti cs_en. Acessado em 22 de setembro de 2020 Comissão Europeia
(2020b) Moldando o futuro digital da Europa. Comunicação da Comissão ao Parlamento Europeu, ao Conselho,
ao Comité Económico e Social Europeu e ao Comité das Regiões. Comissão Europeia, Bruxelas. https://
ec.europa.eu/info/sites/info/files/communication-shaping-europes-digital-future-feb2020_en_3.pdf . Acessado em 6
de outubro de 2020 [FAZER ESTE 2020c]
Comissão Europeia (2020c) White paper sobre inteligência artificial: uma abordagem europeia para a excelência e
a confiança. Comissão Europeia, Bruxelas. https://ec.europa.eu/info/sites/info/files/mission-white-paper-artificial-
intelligence-feb2020_en.pdf . Acessado em 22 de setembro de 2020 Parlamento Europeu (2020a) Projeto de
relatório com recomendações à Comissão sobre um regime de responsabilidade civil para inteligência artificial.
Parlamento Europeu, Comissão Jurídica
Machine Translated by Google
Referências 113
Grupo de especialistas em responsabilidade e novas tecnologias (2019) Responsabilidade por inteligência artificial e outras
tecnologias digitais emergentes. Serviço de Publicações da União Europeia, Luxemburgo. https://op.europa.eu/en/
publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en/format-PDF . Acessado em 23 de
setembro de 2020
Felt U, Fochler M (2010) Máquinas para fazer públicos: inscrever e descrever públicos no engajamento público. Minerva
48:219–238. https://doi.org/10.1007/s11024-010-9155-x Flick C, Zamani ED, Stahl BC, Brem A (2020) O futuro das TIC
para a saúde e o envelhecimento: revelando questões éticas e sociais por meio da previsão do horizonte. Technol Forecast
Soc Change 155:119995. https://doi.org/10.1016/j.techfore.2020.119995
Floridi L, Strait A (2020) Análise de previsão ética: o que é e por que é necessária? Mentes Mach. https://doi.org/10.1007/
s11023-020-09521-y Gal D (2020) A abordagem da China à ética da IA. In: Elliott H (ed) O estado alimentado por IA: a
abordagem da China para a inovação do setor público. Nesta, Londres, pp 53–62 Genus A, Stirling A (2018) Collingridge e
o dilema do controle: em direção à inovação responsável e responsável. Norma de Res 47:61–69. https://doi.org/10.1016/
j.respol.2017.09.012 Haenlein M, Kaplan A (2019) Uma breve história da inteligência artificial: no passado, presente e futuro
da inteligência artificial. Calif Manage Rev 61:5–14. https://doi.org/10.1177/2F0008125 619864925
Hart A, Northmore S, Gerhardt C (2009) Auditoria, benchmarking e avaliação do engajamento público. Centro de
Coordenação Nacional para Engajamento Público, Bristol
Harwell D (2020) Os gerentes recorrem ao software de vigilância, webcams sempre ativas para garantir que os funcionários
estejam (realmente) trabalhando em casa. Washington Post. https://www.washingtonpost.com/technology/2020/04/30/
work-from-home-surveillance/ . Acessado em 30 de outubro de 2020 Himanen P (2001) A ética do hacker e o espírito da
era da informação. Casa Aleatória, Nova
Iorque
Holzinger A, Biemann C, Pattichis CS, Kell DB (2017) O que precisamos para construir sistemas de IA explicáveis para o
domínio médico? arXiv:1712.09923 [cs, estat]
ISO (2008) BS ISO/IEC 38500:2008: Governança corporativa de tecnologia da informação. British Standards Institute,
Londres
ITU (nd) AI para uma boa cúpula global. União Internacional de Telecomunicações e Fundação XPRIZE. https://
aiforgood.itu.int/. Acessado em 30 de outubro de 2020 Johnstone J (2007) Tecnologia como capacitação: uma abordagem
de capacidade para a ética do computador. Ética
Inf Technol 9:73–87. https://doi.org/10.1007/s10676-006-9127-x
Khatri V, Brown CV (2010) Projetando governança de dados. Comum ACM 53:148–152. https://doi. org/
10.1145/1629175.1629210 Klar R, Lanzerath D (2020) A ética dos aplicativos de rastreamento COVID-19 - desafios e
voluntariedade.
Res Ética 16:1–9. https://doi.org/10.1177/2F1747016120943622
Knight W (2020) AI pode fazer grandes coisas - se não queimar o planeta. Com fio. https://www.wired. com/story/ai-great-
things-burn-planet/. Acessado em 1 de novembro de 2020 Kriechbaum M, López Prol J, Posch A (2018) Olhando para o
futuro: dinâmica das expectativas coletivas sobre a tecnologia fotovoltaica na Alemanha e na Espanha. Technol Forecast
Soc Change 129:76–87. https://doi.org/10.1016/j.techfore.2017.12.003
Kuhlmann S, Stegmaier P, Konrad K (2019) A tentativa de governança da ciência e tecnologia emergentes: uma introdução
conceitual. Política de Res 48:1091–1097. https://doi.org/10.1016/j.res pol.2019.01.006
Machine Translated by Google
Ryan M, Antoniou J, Brooks L et al (2020) O equilíbrio ético do uso de sistemas de informação inteligentes para
promover os Objetivos de Desenvolvimento Sustentável das Nações Unidas. Sustentabilidade 12:4826. https://
doi.org/10.3390/su12124826
SAE (2018) Taxonomia e definições de termos relacionados a sistemas de automação de direção para veículos
rodoviários J3016_201806. SAE Internacional, Warrendale PA. https://www.sae.org/standa rds/content/
j3016_201806/. Acessado em 30 de outubro de 2020
Sardar Z (2010) O homônimo: futuros; estudos futuros; futurologia; futurista; previsão - o que é
em um nome? Futuros 42:177–184. https://doi.org/10.1016/j.futures.2009.11.001
Scott D, Rutty M, Peister C (2018) Variabilidade climática e uso de água em campos de golfe: oportunidades de
otimização para um futuro mais quente. J Sustain Tour 26:1453–1467. https://doi.org/10.1080/096
69582.2018.1459629
Sen A (1993) Capacidade e bem-estar. In: Nussbaum M, Sen A (eds) A qualidade de vida. Clarendon
Press, Oxford, pp 30–53
Stahl BC (2013) Pesquisa e inovação responsáveis: o papel da privacidade em uma estrutura emergente.
Sci Public Policy 40:708–716. https://doi.org/10.1093/scipol/sct067
Stahl BC, Timmermans J, Rainey S, Shaw M (2019) Ética na gestão da inovação como meta responsabilidade: a
prática da pesquisa e inovação responsáveis na simulação do cérebro humano. In: Chen J, Brem A, Viardot E,
Wong PK (eds) The Routledge companion to innovation management, 1st edn. Routledge, Nova York, pp 435–454
Stahl BC, Wright D (2018) Ética e privacidade em IA e big data: implementando pesquisa e inovação responsáveis.
IEEE Secur Priv 16:26–33. https://doi.org/10.1109/MSP.2018.2701164 Stilgoe J, Owen R, Macnaghten P (2013)
Desenvolvendo uma estrutura para inovação responsável. res
PNUD (nd) Índice de desenvolvimento humano (IDH). Programa de Desenvolvimento das Nações Unidas. http://
hdr.undp.org/en/content/human-development-index-hdi. Acessado em 2 de novembro de 2020
Van Est R (2011) O amplo desafio do engajamento público na ciência. Science Eng Ethics 17:639–648. https://doi.org/
10.1007/s11948-011-9296-9 Wehling P (2012) Da participação convidada à não convidada (e vice-versa?):
repensando o envolvimento da sociedade civil na avaliação e desenvolvimento de tecnologia. Poiesis Prax 1–18.
https://doi.org/10. 1007/s10202-012-0125-2
Machine Translated by Google
Referências 115
Wynne B (2006) Engajamento do público como meio de restaurar a confiança do público na ciência – Atingindo
as notas, mas perdendo a música? Commun Genet 9:211-220. https://doi.org/10.1159/000092659 Xu S, Zhu
K, Gibbs J (2004) Tecnologia global, adoção local: uma investigação internacional sobre a adoção da Internet
por empresas nos Estados Unidos e na China. Elétron Marcos 14:13–24. https://doi.org/
10.1080/1019678042000175261 Zheng Y , Stahl BC (2011) Tecnologia, capacidades e perspectivas críticas:
o que a teoria crítica pode contribuir para a abordagem de capacidade de Sen? Ética Inf Technol 13:69–80.
https://doi.org/10.1007/s10676-011-9264-8 _
Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons
Attribution 4.0 (http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento, adaptação,
distribuição e reprodução em qualquer meio ou formato, desde que você dê os devidos créditos ao(s) autor(es)
original(ais) e à fonte, forneça um link para a licença Creative Commons e indique se foram feitas alterações.
As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons do
capítulo, a menos que indicado de outra forma em uma linha de crédito para o material. Se o material não estiver
incluído na licença Creative Commons do capítulo e seu uso pretendido não for permitido pela regulamentação
estatutária ou exceder o uso permitido, você precisará obter permissão diretamente do detentor dos direitos
autorais.
Machine Translated by Google
Capítulo 8
Conclusão
Resumo A conclusão resume brevemente os principais argumentos do livro. Ele se concentra nos requisitos
para opções de mitigação a serem usadas para abordar as preocupações éticas e de direitos humanos da
inteligência artificial. Ele também fornece uma visão geral de alto nível das principais recomendações
trazidas no livro. Assim, mostra como percepções conceituais e empíricas sobre a natureza da IA, as
questões éticas assim levantadas e as estratégias de mitigação atualmente em discussão podem ser
usadas para desenvolver conclusões praticamente relevantes. Essas conclusões e recomendações ajudam
a garantir que os ecossistemas de IA sejam desenvolvidos e moldados de forma a favorecer o florescimento
humano.
A tecnologia faz parte da vida do ser humano. Seu desenvolvimento e uso têm o potencial de levantar
preocupações e questões éticas – e isso não vai mudar. A ética, entendida como nossa luta para determinar
o que é certo e errado e nossa reflexão sobre como e por que fazemos tal distinção, não está sujeita a
resolução. Embora possamos concordar sobre o que é certo e errado em muitos casos, esse acordo é
sempre parcial, temporário e sujeito a revisão. Podemos, no entanto, ser capazes de concordar com alguns
princípios gerais e abstratos. Neste livro, sugeri que o florescimento humano é um desses princípios.
Se concordarmos com isso, podemos pensar no que pode significar a aplicação do princípio a uma
tecnologia como a IA. Este exercício pode nos ajudar a entender as questões específicas que surgem, por
que surgem e como podemos avaliá-las. Também pode nos ajudar a pensar sobre o que podemos fazer a
respeito deles e pode até nos ajudar a resolver alguns deles para satisfação universal.
Vários aspectos nos quais me concentrei neste livro podem, espero, dar uma contribuição nova e
interessante para o debate sobre IA e ética. Comecei olhando para o conceito de IA. “Inteligência artificial”
não é um termo inocente e moralmente neutro.
É emotivo porque aponta para uma característica dos humanos (e até certo ponto de outros animais), ao
mesmo tempo em que sugere que essa característica pode ser replicada artificialmente.
Essa implicação tem consequências sobre como nós, como humanos, vemos a nós mesmos e nosso papel
118 8 Conclusão
Embora essas categorizações esclareçam o debate, elas dizem muito pouco sobre o que poderia ou
deveria ser feito sobre as questões. Um dos problemas desse tipo de discussão normativa é que não está
claro como as recomendações ou prescrições podem ser justificadas.
Com base em que podemos dizer que aplicações técnicas devem ser desenvolvidas, promovidas, evitadas
ou proibidas? Recorrer à ideia de florescimento humano permite estabelecer um ponto de referência
normativo consistente e compatível com as principais teorias éticas e pode fornecer um quadro para pensar
questões normativas sem pressupor posições morais substantivas.
A ideia de florescimento humano tem a vantagem adicional de não exigir uma distinção estrita entre
ética e lei, ambas construções normativas que podem promover ou inibir o florescimento. Isso é
particularmente importante à luz das inúmeras regras legais e regulatórias existentes que já orientam o
desenvolvimento e o uso de tecnologia, incluindo a IA.
Com base em um rico trabalho empírico, analisei preocupações éticas e sugeri intervenções, mitigações
e abordagens de governança para promover os benefícios da IA e evitar ou abordar suas desvantagens.
A questão do que precisa ser feito para garantir que os ecossistemas de IA conduzam ao florescimento
humano foi então abordada por meio da metáfora do ecossistema. Isso me levou a investigar, do ponto de
vista ético, as implicações do uso da metáfora do ecossistema, questão ainda pouco explorada no campo
da IA. Além disso, analisei os desafios que a abordagem ecossistêmica da IA e da ética levanta e os
requisitos que qualquer intervenção precisaria cumprir, e concluí com sugestões para aprofundar o debate
e contribuir para as discussões.
Machine Translated by Google
8 Conclusão 119
A análise apontou para três grupos de requisitos que as intervenções nos ecossistemas de IA
precisam atender, a fim de aumentar suas chances de promover com sucesso o florescimento
humano:
120 8 Conclusão
Neste livro, fiz sugestões sobre como pensar sobre essas questões e como navegar na
complexidade do debate, e forneci algumas sugestões sobre o que deve ser feito para facilitar
essa discussão. Essas recomendações têm o objetivo de mover os ecossistemas de IA na direção
do florescimento humano. Eles satisfazem os três requisitos listados acima, ou seja, delinear os
limites dos ecossistemas, estabelecer e manter a base de conhecimento necessária e fornecer
estruturas de governança flexíveis e adaptáveis. Com um pouco mais de detalhes (consulte o
Capítulo 7 para ver o relato completo), as recomendações são:
8 Conclusão 121
122 8 Conclusão
Espero que este livro e as recomendações dele decorrentes ajudem a fortalecer o debate sobre IA e
ética. O livro visa apoiar a modelagem apropriada dos ecossistemas de IA. Além disso, sua mensagem deve
ir além do foco atual na IA e ajudar a desenvolver nosso pensamento sobre as tecnologias que sucederão a
IA no centro das atenções do público.
Os humanos são e continuarão sendo animais que usam ferramentas. A importância das ferramentas
técnicas aumentará, se houver, em tempos de tecnologias onipresentes, difundidas, vestíveis e implantáveis.
Embora novas tecnologias possam afetar nossas capacidades e nossa visão de nós mesmos como
indivíduos e como espécie, acredito que alguns aspectos da humanidade permanecerão constantes. A
principal delas é a certeza de que continuaremos sendo seres sociais, conscientes da possibilidade e
realidade do sofrimento, mas também dotados de planos e esperanças de uma vida boa. Nós lutamos pela
felicidade e buscamos florescer sabendo que sempre estaremos negociando a questão: como exatamente
o florescimento pode ser melhor alcançado? A tecnologia pode promover, bem como reduzir o nosso
florescimento. Nossa tarefa é, portanto, perguntar como novas tecnologias podem afetar o florescimento e o
que podemos fazer individual e coletivamente para orientar essas tecnologias em direções que apoiem o
florescimento. Espero que este livro nos ajude a fazer uso positivo da IA e nos mover em direção a um
mundo bom e habilitado para a tecnologia.
Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons
Attribution 4.0 (http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento,
adaptação, distribuição e reprodução em qualquer meio ou formato, desde que você dê os devidos créditos
ao(s) autor(es) original(ais) e à fonte, forneça um link para a licença Creative Commons e indique se foram
feitas alterações.
As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons
do capítulo, a menos que indicado de outra forma em uma linha de crédito para o material. Se o material
não estiver incluído na licença Creative Commons do capítulo e seu uso pretendido não for permitido pela
regulamentação estatutária ou exceder o uso permitido, você precisará obter permissão diretamente do
detentor dos direitos autorais.
Machine Translated by Google
Índice
124 Índice
H P
Grupo de especialistas de alto nível em IA, 67 Filosofia, 19, 21, 22, 27, 87
Condição humana, 20, 21, 48 Pós-humanismo, 48
Melhoria humana, 48
Assimetrias de poder, 38, 45, 49
Florescimento humano, 1, 3, 4, 19, 21, 22, 24–28, 30, Privacidade, 2, 24, 25, 28–30, 38, 41, 49, 58, 63–65,
35–37, 57, 58, 60, 61, 88, 91–95, 98–102, 68, 69, 71, 94, 95
104–109, 111, 117 –122 Profissionalismo, 67, 70
Direitos humanos, 1, 29, 37–39, 42, 49, 56, 58, 61, 63–
66, 70, 72, 94, 98, 105, 107, 117, 120, 121
R
Regulador para AI, 59, 110
Pesquisa e Inovação Responsáveis (RRI), 26–28, 99,
EU
102
Ideologia, 26, 85
Emanuel Kant, 20, 87
Ética da informação, 20
S
Internet das coisas, 12, 97, 105
Segurança, 1, 29, 42, 44, 49, 68, 97
Ficção científica, 11, 46
SHERPA, 35, 37
J
Sistema de informação inteligente, 12, 97
Jeremias Bentham, 20
Benefícios sociais, 1
John Stuart Mill, 20
Controle social, 19, 23–25, 98, 105
Justiça, 1, 20, 28, 29, 39, 44, 49
Impacto social, 2, 14, 42, 63, 70
Sistemas sociotécnicos, 7, 9, 12–14, 22, 24, 35, 42,
eu 43, 83, 84, 92, 97, 104, 118
Engajamento das partes interessadas, 64–66, 70, 100,
Responsabilidade, 39, 48, 49, 57, 58, 62–64, 70, 72,
109, 121
73, 93, 97, 102
Padronização, 67, 68, 70, 72, 73, 108
IA forte, 11
M Superinteligência, 46
Aprendizado de máquina, 2, 7, 9, 10, 12–14, 35, 39– Capitalismo de vigilância, 24, 43, 45, 49
42, 45, 48, 49, 58, 59, 65, 66, 92, 93, 95, 97, Objetivos de Desenvolvimento Sustentável, 36, 57, 98
104, 118, 120
Manipulação, 11, 14, 42, 45, 63
T
Metáfora, 1, 3, 14, 72, 81–88, 91, 92, 96, 98, 110, 118
Ética tecnológica, 20, 100
Meta-responsabilidade, 102, 110, 111 Problema do bonde, 47
Estratégias de mitigação, 2, 3, 55, 73, 74, 86, 117 Teste de Turing, 8, 47
N você