Inteligência Artificial para Um Futuro Melhor: Bernd Carsten Stahl

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 128

Machine Translated by Google

SPRINGERBRIEFSNA RCHAND RESEA


GOVERNANÇA DA INOVAÇÃO

Bernd Carsten Stahl

Inteligência Artificial para


um Futuro Melhor

Uma perspectiva do
ecossistema sobre a ética da

IA e do digital emergente
tecnologias

Prefácio de Julian Kinderlerer


Machine Translated by Google

SpringerBriefs em Pesquisa e Inovação


Governança

Editores-chefes

Doris Schroeder, Centro de Ética Profissional, University of Central Lancashire,


Preston, Lancashire, Reino Unido

Konstantinos Iatridis, School of Management, University of Bath, Bath, Reino Unido


Machine Translated by Google

SpringerBriefs in Research and Innovation Governance apresenta resumos concisos de


pesquisas de ponta e aplicações práticas em um amplo espectro de atividades de governança
que são moldadas e informadas por, e por sua vez, impactam a pesquisa e a inovação, com
tempo de resposta rápido para publicação. Apresentando volumes compactos de 50 a 125
páginas, a série abrange uma variedade de conteúdos, do profissional ao acadêmico.
Monografias de novos materiais são consideradas para a série SpringerBriefs in Research and
Innovation Governance. Tópicos típicos podem incluir: um relatório oportuno de técnicas
analíticas de ponta, uma ponte entre novos resultados de pesquisa, conforme publicados em
artigos de periódicos e uma revisão contextual da literatura, um instantâneo de um tópico
quente ou emergente, uma análise aprofundada estudo de caso ou exemplo técnico, uma
apresentação de conceitos básicos que estudantes e profissionais devem entender para fazer
contribuições independentes, melhores práticas ou protocolos a serem seguidos, uma série de
estudos/debates de caso curtos destacando um ângulo específico. O SpringerBriefs em
Governança de Pesquisa e Inovação permite que os autores apresentem suas ideias e os
leitores as absorvam com um investimento mínimo de tempo. Ambos os manuscritos solicitados
e não solicitados são considerados para publicação.

Mais informações sobre esta série em http://www.springer.com/series/13811


Machine Translated by Google

Bernd Carsten Stahl

Inteligência Artificial
para um Futuro Melhor
Uma perspectiva do ecossistema sobre a ética
da IA e tecnologias digitais emergentes

Prefácio de Julian Kinderlerer


Machine Translated by Google

Bernd Carsten Stahl


Centro de Informática e Responsabilidade Social
Universidade De Montfort
Leicester, Reino Unido

Programa Quadro Horizonte 2020 O livro será baseado principalmente no trabalho que foi e é
realizado no projeto SHERPA (www.project-sherpa.eu). Pode, no entanto, basear-se em quantidades
significativas de trabalho realizado em outros projetos, notavelmente Responsible-Industry
(www.responsible-industry.eu), ORBIT (www.orbit-rri.org) e Human Brain Project
(www.humanbrainproject. UE). O consórcio SHERPA tem 11 parceiros de seis países europeus
(representando academia, indústria, sociedade civil, organismos de normalização, comitês de ética,
arte).

ISSN 2452-0519 ISSN 2452-0527 (eletrônico)


SpringerBriefs in Research and Innovation Governance
ISBN 978-3-030-69977-2 ISBN 978-3-030-69978-9 (eBook)
https://doi.org/10.1007/978-3-030-69978
-9

© O(s) autor(es) 2021. Este livro é uma publicação de acesso aberto.


Acesso Aberto Este livro está licenciado sob os termos da Licença Creative Commons Attribution 4.0 International
(http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento, adaptação, distribuição e
reprodução em qualquer meio ou formato, desde que você dê os devidos créditos ao(s) autor(es) original(is) e à fonte,
forneça um link para a licença Creative Commons e indique se foram feitas alterações .

As imagens ou outros materiais de terceiros neste livro estão incluídos na licença Creative Commons do livro, a menos
que indicado de outra forma em uma linha de crédito para o material. Se o material não estiver incluído na licença
Creative Commons do livro e seu uso pretendido não for permitido pela regulamentação estatutária ou exceder o uso
permitido, você precisará obter permissão diretamente do detentor dos direitos autorais.
O uso de nomes descritivos gerais, nomes registrados, marcas comerciais, marcas de serviço, etc. nesta publicação
não implica, mesmo na ausência de uma declaração específica, que tais nomes estejam isentos das leis e regulamentos
de proteção relevantes e, portanto, livres para uso geral usar.
A editora, os autores e os editores assumem com segurança que as recomendações e informações contidas neste
livro são verdadeiras e precisas na data de publicação. Nem a editora nem os autores ou editores dão uma garantia,
expressa ou implícita, com relação ao material aqui contido ou por quaisquer erros ou omissões que possam ter sido
cometidos. A editora permanece neutra em relação a reivindicações jurisdicionais em mapas publicados e afiliações
institucionais.

Esta impressão da Springer é publicada pela empresa registrada Springer Nature Switzerland AG
O endereço da empresa registrada é: Gewerbestrasse 11, 6330 Cham, Suíça
Machine Translated by Google

Prefácio

O volume de dados coletados diariamente sobre cada um de nós, conforme utilizamos a internet e
as redes sociais, é imenso. Esses dados podem ser usados de várias maneiras, desde rastrear
nosso comportamento até garantir que a publicidade e as informações sejam personalizadas para
indivíduos específicos. Os dados coletados também podem ser usados para fornecer matéria-prima
para sistemas de Inteligência Artificial (IA). Os computadores tornaram-se onipresentes e são usados
para controlar ou operar todos os tipos de itens do dia a dia de maneiras inimagináveis apenas
alguns anos atrás. Telefones inteligentes, capazes de rastrear onde estamos e com quem nos
encontramos, são comuns. Armas autônomas capazes de decidir independentemente o que atacar
e quando já estão disponíveis para os governos – e, por extensão, para os terroristas. Os sistemas
de negociação digital estão sendo usados para influenciar rapidamente os mercados financeiros,
com apenas 10% do volume de negociação vindo de investidores discricionários humanos
(Kolakowski 2019). Os sistemas de IA podem (e estão) a ser usados para redefinir o trabalho,
substituindo os humanos “por tecnologia inteligente em trabalhos difíceis, sujos, aborrecidos ou
perigosos” (EGE 2018: 8). A perda de empregos provavelmente se tornará um fator importante no
que agora é chamado de “sociedade pós-industrial”. Novos empregos e novas oportunidades para
os humanos precisam ser criados. Na medicina, a IA está auxiliando no diagnóstico de doenças e
enfermidades, no desenvolvimento de novos medicamentos e no fornecimento de suporte e cuidados para aqueles qu
Em muitos casos, a IA permanece sob o controle de usuários e projetistas, mas em um número
cada vez maior de aplicações, o comportamento de um sistema não pode ser previsto pelos
envolvidos em seu projeto e aplicação. A informação é alimentada em uma “caixa preta” cuja saída
pode afetar muitas pessoas em suas vidas diárias:

Sem intervenção humana direta e controle de fora, os sistemas inteligentes hoje conduzem diálogos
com clientes em call-centers online, direcionam mãos de robôs para pegar e manipular objetos com
precisão e incessantemente, compram e vendem ações em grandes quantidades em milissegundos,
direcionam carros para desviar ou frear e evitar uma colisão, classificar pessoas e seu comportamento
ou aplicar multas. (EGE 2018: 6)

Máquinas recém-desenvolvidas são capazes de aprender sozinhas e até mesmo coletar dados.
Os sistemas de reconhecimento facial escaneiam as multidões enquanto elas caminham pelas ruas
para detectar supostos encrenqueiros ou malfeitores.
Precisamos garantir que os valores que sustentamos como sociedade sejam incorporados aos
sistemas que adotamos, sistemas que inevitavelmente mudarão nossas vidas e as de nossos

v
Machine Translated by Google

vi Prefácio

crianças. A Carta dos Direitos Fundamentais da União Europeia delineia os valores que a sociedade deseja
ver implementados. Aqueles que projetam esses sistemas e elaboram os algoritmos que os impulsionam
precisam estar cientes dos princípios éticos que fundamentam a sociedade. Margaret Thatcher disse uma
vez que “não existe sociedade”
(Thatcher 2013), mas havia indivíduos. A ascensão da IA está mudando isso, pois nos tornamos cifras
identificáveis dentro do big data usado para IA. Os sistemas de IA devem garantir a segurança e a proteção
dos cidadãos e fornecer as salvaguardas consagradas na Carta.

O controle do big data e da revolução da IA está nas mãos de um pequeno grupo de empresas
supernacionais (ou multinacionais) que podem ou não respeitar os direitos das pessoas ao usarem nossas
informações para fins comerciais ou políticos.
O advento da IA deu muito à sociedade e deve ser uma força para o bem. Este livro, portanto, vem em
um momento importante de seu desenvolvimento. Bernd Stahl lidera um grande projeto, SHERPA (Shaping
the Ethical Dimensions of Smart Information Systems), que analisou como a IA e a análise de big data
impactam a ética e os direitos humanos. As recomendações e ideias que Bernd apresenta neste livro são
instigantes – e é crucial que todos pensemos sobre as questões levantadas pelo impacto da IA em nossa
sociedade.

Estes são tempos emocionantes!

Sheffield, Inglaterra Julian Kinderlerer

Referências

EGE (2018) Grupo Europeu de Ética em Ciência e Novas Tecnologias: Declaração sobre inteligência artificial,
robótica e sistemas “autônomos”. Comissão Europeia, Bruxelas. https://doi. org/10.2777/531856 Kolakowski
M (2019) Como os robôs governam o mercado de ações (SPX, DJIA). Investopedia, 25 de junho. https://
www.investopedia.com/news/how-robots-rule-stock-market-spx-djia/ . Acessado em 10 de novembro de 2020
Thatcher M (2013) Margaret Thatcher: uma vida entre aspas. The Guardian, 8 de abril. https://
www.theguardian.com/politics/2013/apr/08/margaret-thatcher-quotes . Acessado em 10 de novembro de 2020

O Prof. Emérito Julian Kinderlerer é professor visitante na Faculdade de Direito da Universidade de KwaZulu-
Natal, professor emérito de Direito da Propriedade Intelectual na Universidade da Cidade do Cabo e ex-professor
de Biotecnologia e Sociedade na Delft University of Technology. Ele é o ex-presidente imediato do Grupo
Europeu de Ética em Ciência e Novas Tecnologias (EGE), que assessora a Comissão Europeia, o Conselho e
o Parlamento em questões éticas. Ele atuou como Diretor do Programa Ambiental das Nações Unidas,
fornecendo orientação aos países sobre legislação e regulamentação para o uso de organismos vivos
modificados, e foi membro do conselho consultivo do projeto SHERPA.
Machine Translated by Google

Reconhecimentos

Este livro não poderia ter surgido sem as contribuições e o apoio de muitos grupos e indivíduos
em uma série de projetos. Gostaria de agradecer a todos que contribuíram para esses projetos e
com quem colaborei ao longo dos anos.

Agradecimentos especiais são devidos aos membros do consórcio SHERPA por fazerem
grande parte do trabalho que fundamenta este livro. Devo ainda agradecimentos aos contribuidores
e colaboradores de outros projetos, nomeadamente o Projeto Cérebro Humano, o projeto Indústria
Responsável, o projeto CONSIDER e o projeto ETICA. Agradecimentos especiais são devidos a
Doris Schroeder, que apoiou o desenvolvimento deste livro, não apenas como colega de projeto,
mas também como editora da série, e facilitou sua publicação pela Springer.

Além disso, o livro deve muito às contribuições de colegas da Universidade De Montfort, em


particular os membros do Centro de Computação e Responsabilidade Social. Espero que este
volume contribua para o rico registro de pesquisa que o Centro estabeleceu desde 1995.

O livro foi editado com habilidade e rapidez por Paul Wise, um editor brilhante na África do
Sul. Também quero agradecer a Juliana Pitanguy, da Springer, por supervisionar o processo de
publicação.
Meus agradecimentos finais vão para minha família, que permitiu que eu me trancasse ainda
mais do que o legalmente exigido durante o período de isolamento social induzido pela pandemia
em que o livro foi escrito.
Esta pesquisa recebeu financiamento do Programa de Trabalho Quadro Horizon 2020 da
União Europeia para Pesquisa e Inovação sob os Contratos de Doação nº 786641 (SHERPA), nº
785907 (Projeto Cérebro Humano SGA2) e nº 945539 (Projeto Cérebro Humano SGA3) e o
Quadro Acordo de Parceria nº 650003 (Projeto Cérebro Humano FPA).

vii
Machine Translated by Google

Conteúdo

1 Introdução ....................................... ... 1


Referências ..................................................... 4

2 Perspectivas sobre Inteligência Artificial ....................... 7


2.1 Aprendizado de Máquina e IA Limitada ............................ 9
. . . .Sistemas
2.2 IA Geral 2.3 IA como . . . . . . . .Sócio-
.................................... 11
Técnicos Convergentes . . . . . . . . . . . . . . . . . . . . 12
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3 Conceitos de Ética e sua Aplicação à IA . . . . . . . . . . . . . . . . . . . 19 3.1 Teorias


éticas . . . . . . . . . . . . . . . . .Humano
. . . . . . .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. 20
. . .3.2
. . .IA. .para
. . . .o. Florescimento
. 21 3.3
Finalidades da IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 3.4
Perspectivas Teóricas sobre
Princípios
o Florescimento
Éticos da Humano
IA . . . . . . . . . . . . . . . . . . . . . . .26
. . 3.5
............
28 Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

4 Questões éticas da IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4.1


Benefícios éticos da IA . . . . . . . . empíricos
. . . . . . . . .das
. . .questões
. . . . . . . .éticas
. . . . .da
. . .IA. .. .. 35
. . .4.2
. . .Relatos
.............
37 4.3 Questões éticas decorrentes do aprendizado de máquina
4.4 Questões
. . . . . .Gerais
. . . . . .Relacionadas
. . . . . . 40
à Vida em um Mundo Digital . . . . . . . . . . . . . 42 4.5 Questões
metafísicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

5 Abordando questões éticas em IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5.1


Opções no nível da política . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5.1.1 Objetivos e
iniciativas de políticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 5.1.2 Legislação e
Regulamentação . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 5.1.3 Regulador
AI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 5.2 Opções no Nível
Organizacional . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 5.2.1 Compromissos da
Indústria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 5.2.2 Governança
Organizacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 5.2.3 Iniciativas
Estratégicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
ix
Machine Translated by Google

x Conteúdo

5.2.4 Insights empíricos sobre a ética da IA nas organizações. . . . . . . . 65 5.3 Mecanismos


de Orientação . . . . . . . . . . . . . . . . . . .da
. .IA
. . .. .. .. .. .. .. .. .. .. .. .. .. .. .. .. .66
. . 5.4
. . . Partes
. . . . . .interessadas
. . . . . . . . . . .da
71Ética
Referências 74
.....................................................

6 Ecossistemas de IA para o florescimento humano: o histórico . . . . . . . . . . 81 6.1 Uma Visão


Ecossistêmica da IA . . . . . . . . . . . . . . . . . . de
. . .IA. .. .. .. .. .. .. .. .. .. .. .. .. 81
. . .6.1.1
. . . . Ecossistemas
. . . . . . . . . . 82de6.2
inovação
Ética
de e nos (Eco)Sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
Referências . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

7 Ecossistemas de IA para o florescimento humano: as recomendações . . . . . 91 7.1 Desafios da


Governança Ética do Ecossistema de IA . . . . . . . . . . 91 7.2 Requisitos para moldar o ecossistema
de IA . . . . . . . . . . . . . . . . . . . 96 7.2.1 Limite Limpo do Ecossistema . . . . . . . . . . . . . . . . . . . . . .
96 7.2.2 Conhecimento e Capacidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98 7.2.3
Princípios de Governança de Ecossistemas de IA . . . . . . . . . . . . . . . . 101 7.3 Moldando
ecossistemas de IA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 . . . . . . . . . . . . . . 104

7.3.1 Esclarecimento conceitual: vá além da IA 7.3.2 Excelência


e florescimento: reconheça sua
interdependência . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 7.3.3
Medições de Florescimento: Entendendo os Impactos
Esperados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
7.3.4 Benefícios, riscos e capacidades da IA: Comunicação,
Conhecimento e Capacitação . . . . . . . . . . . . . . . . . . . . . . 108 7.3.5 Envolvimento
das Partes Interessadas: Entendendo as Preferências da Sociedade 7.3.6 Responsabilidade
pela Regulamentação
. . . . .e. Aplicação:
. . . . . . . . . Definindo
. . . . . . . . o(s)
. . . .Nó(s)
. . . . .Central(is)
. . . . . . . . .dos
109
Ecossistemas de IA . . . . . . . 110 112

Referências .....................................................

8 Conclusão . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

Índice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
Machine Translated by Google

Capítulo 1
Introdução

Resumo O capítulo introdutório descreve a motivação por trás deste livro e fornece um breve
esboço do argumento principal. O livro oferece uma nova categorização de inteligência artificial
que se presta a uma classificação de questões éticas e de direitos humanos levantadas pelas
tecnologias de IA. Ele oferece uma abordagem ética baseada no conceito de florescimento
humano. Após uma revisão das formas atualmente discutidas de abordar e mitigar questões
éticas, o livro analisa a metáfora dos ecossistemas de IA.
Levar a sério a metáfora dos ecossistemas permite identificar os requisitos que as medidas de
mitigação devem cumprir. Com base nesses requisitos, o livro oferece um conjunto de
recomendações que permitem que os ecossistemas de IA sejam moldados de forma a promover
o florescimento humano.

Palavras -chave Inteligência artificial · Ética · Florescimento humano · Estratégias de


mitigação · Ecossistema de inovação

A inteligência artificial (IA) levanta questões éticas. Tais preocupações precisam ser abordadas.
Essas duas declarações não são muito controversas. O que está menos claro é o que exatamente
constitui as preocupações éticas, por que elas são de natureza ética, quem deve abordá-las e
como devem ser tratadas.
A IA está cada vez mais onipresente e, portanto, as consequências de seu uso podem ser
observadas nos mais diversos aspectos da vida. A IA tem muitos efeitos positivos e produz
benefícios sociais. Aplicações de IA podem melhorar as condições de vida e saúde, facilitar a
justiça, criar riqueza, reforçar a segurança pública e mitigar o impacto das atividades humanas no
meio ambiente e no clima (Declaração de Montreal 2018). A IA é uma ferramenta que pode ajudar
as pessoas a realizarem seus trabalhos de forma mais rápida e melhor, criando assim muitos
benefícios. Mas, além disso, a IA também pode facilitar novas tarefas, por exemplo, analisando
dados de pesquisa em uma escala sem precedentes, criando assim a expectativa de novos
insights científicos que podem levar a benefícios em todos os aspectos da vida.
Esses benefícios precisam ser equilibrados com possíveis desvantagens e preocupações
éticas. Há muitos exemplos proeminentes. Vieses algorítmicos e a discriminação resultante
levantam preocupações de que as pessoas estão em desvantagem por razões que não deveriam
estar, por exemplo, ao conceder limites de crédito mais altos aos homens do que às mulheres (Condliffe

© O(s) autor(es) 2021 1


BC Stahl, Artificial Intelligence for a Better Future,
SpringerBriefs in Research and Innovation Governance,
https://doi.org/10.1007/978-3-030-69978-9_1
Machine Translated by Google

2 1. Introdução

2019), encaminhando pessoas brancas com mais frequência do que pessoas negras para esquemas
de atendimento melhorados em hospitais (Ledford 2019) ou anunciando empregos de alta renda com
mais frequência para homens do que para mulheres (Cossins 2018). A IA pode ser usada para prever
preferências sexuais com alto grau de certeza com base no reconhecimento facial (The Economist
2017), permitindo assim graves violações de privacidade.
A gama de preocupações vai além dos efeitos imediatos da IA nos indivíduos.
A IA pode influenciar processos e estruturas das quais a sociedade depende. Por exemplo, há
evidências que sugerem que a IA pode ser usada para exercer influência política e distorcer as
eleições, visando públicos suscetíveis com mensagens enganosas (Isaak e Hanna 2018). As pessoas
estão preocupadas em perder seus meios de subsistência porque seus empregos podem ser
automatizados. Grandes empresas multinacionais usam IA para acumular riqueza e poder de mercado
incríveis, que podem ser traduzidos em influência política não controlada (Zuboff 2019).

Um outro conjunto de preocupações vai além do impacto social e se refere à questão do que a IA
poderia fazer aos humanos em geral. Há temores de que a IA se torne consciente e mais inteligente
que os humanos, e até mesmo prejudique a humanidade como espécie. Essas são apenas algumas
das questões proeminentes que são debatidas acaloradamente e às quais retornaremos no decorrer
deste livro.
Além das muitas preocupações sobre a IA, existem várias maneiras de abordar essas questões
que requerem atenção e contribuições de muitas partes interessadas. Estes vão desde organismos
internacionais como as Nações Unidas (ONU) e a Organização para a Cooperação e Desenvolvimento
Econômico (OCDE) até parlamentos e governos nacionais, bem como grupos industriais, empresas
individuais, órgãos profissionais e indivíduos em suas funções como especialistas técnicos, usuários
de tecnologia ou cidadãos.
Como consequência, a discussão da ética da IA é altamente complexa e complicada.
É difícil ver como as prioridades podem ser definidas e as estratégias de mitigação implementadas
para garantir que as questões éticas mais significativas sejam abordadas. O estado atual do debate
sobre a ética da IA pode ser descrito como uma cacofonia de vozes em que aqueles que gritam mais
alto provavelmente serão ouvidos, mas o volume da contribuição nem sempre oferece uma garantia
de sua qualidade.
O objetivo deste livro é oferecer novas perspectivas sobre a ética da IA que possam ajudar a
iluminar o debate e também considerar maneiras de progredir em direção a soluções. Sua novidade e
contribuições únicas residem no seguinte:

1. O livro fornece uma nova categorização de IA que ajuda a categorizar tecnologias, bem como
questões éticas Proponho uma definição de IA no Capítulo 2 que se concentra em três aspectos
diferentes do termo: aprendizado de máquina, IA geral e (aparentemente) digital autônomo
tecnologias. Essa distinção capta o que acredito serem os três principais aspectos da discussão
pública. Além disso, ajuda na próxima tarefa do livro, ou seja, a categorização de questões éticas
no Capítulo 3. Com base na distinção conceitual, mas também em ricas evidências empíricas,
proponho que se possa distinguir três tipos de questões éticas: questões específicas de
aprendizado de máquina, questões gerais sobre como viver em um mundo digital e questões
metafísicas.
Machine Translated by Google

1. Introdução 3

2. O livro propõe o florescimento humano como base de uma estrutura ética


para lidar com os desafios éticos da IA.
As três categorias de questões éticas são descritivas, o que significa que são derivadas de
observações do que as pessoas percebem como questões éticas. Para ir além da descrição
e encontrar uma base para a prática e intervenção, uma posição ética normativa precisa
ser adotada. Eu argumento que uma teoria ética adequada que pode ser aplicada à IA e
fornecer insights que orientam a ação é a da ética florescente. O florescimento da ética tem
três vantagens consideráveis. Primeiro, cobre as categorias descritivas da ética da IA
sugeridas neste livro. Em segundo lugar, está aberto a outras teorias éticas e permite a
integração de considerações de dever, consequências e cuidados, entre outros. Em terceiro
lugar, tem uma história distinta, não apenas na ética em geral, mas também na ética da
computação. O que a ética florescente exige é que a IA, como qualquer outra tecnologia e
ferramenta, contribua para o florescimento humano. Essa posição não é excessivamente
controversa, fornece orientação normativa e é suficientemente aberta para ser aplicável às
muitas tecnologias e domínios de aplicativos que constituem a ética da IA.

3. O livro oferece uma nova classificação de estratégias de mitigação para os desafios éticos
da IA.
Classificar questões éticas e determinar uma teoria ética adequada pode contribuir para
encontrar possíveis soluções. Tais soluções não se desenvolvem no vácuo, mas fazem
parte de um discurso existente. Portanto, reviso a discussão atual das medidas de mitigação
que foram propostas para lidar com essas questões no Capítulo 4. Distingo entre várias
categorias de opções de mitigação, a primeira referindo-se a políticas e legislação, a
segunda a opções no nível organizacional e a terceira a mecanismos de orientação para
indivíduos.
4. O livro mostra que a metáfora de um ecossistema nos ajuda a entender a complexidade do
debate e oferece insights para intervenções práticas.
Com base em uma rica compreensão do cenário da IA, proponho a interpretação do debate
sobre a ética da IA em termos de um ecossistema. O campo da IA pode ser retratado como
um conjunto de ecossistemas interligados que consiste em muitos atores e grupos
individuais diferentes interagindo de maneiras complexas que podem influenciar o sistema
geral de maneira imprevisível. Voltando à ideia de florescimento, sugiro fazer a pergunta:
como o ecossistema de IA como um todo pode ser moldado para fomentar e promover o
florescimento humano? Essa interpretação da ética da IA permite que as ações sejam
priorizadas e que conselhos personalizados sejam desenvolvidos para partes interessadas
individuais e grupos de partes interessadas. Talvez o mais importante, leva a percepções
sobre atividades de nível superior, ou seja, aquelas que conduzem ao desenvolvimento do
ecossistema na direção desejada de promoção do florescimento humano.

Esta nova interpretação do debate sobre a ética da IA não apenas oferece insights conceituais
e uma base teórica que nos permite entender, comparar e contrastar melhor várias questões e
opções, mas também fornece uma base para ações práticas. Elas são explicadas com mais
detalhes no Capítulo 5. Após uma introdução à visão ecossistêmica da IA e suas limitações,
exploro suas implicações para possíveis formas de abordar questões éticas. A visão dos
ecossistemas implica que as intervenções no
Machine Translated by Google

4 1. Introdução

O ecossistema de IA delineia claramente os limites do sistema ao qual se aplica. Tais


intervenções precisam apoiar o desenvolvimento do ecossistema, aumentando a base de
conhecimento e as capacidades de seus membros. Um requisito final para qualquer intervenção
em ecossistemas de IA é que ela precisa empregar mecanismos de governança que sejam
sensíveis à dinâmica não linear e muitas vezes imprevisível do sistema. Com base nisso,
proponho algumas atividades que provavelmente moldarão o ecossistema de IA de maneiras
que conduzam ao florescimento humano.
No geral, este livro oferece uma nova perspectiva sobre o debate sobre a ética da IA.
Baseia-se em insights empíricos e conceitos fortes que ajudam a estruturar o debate de forma
transparente e construtiva. Muito importante, espero que os argumentos que proponho
apontem além da IA e ofereçam orientação que seja igualmente aplicável a qualquer tecnologia
que suceda a IA quando o atual hype da IA tiver diminuído. Assim, oferece uma resposta ao
apelo de Floridi (2018) para encontrar maneiras de governar o mundo digital.

Referências

Condliffe J (2019) A semana em tecnologia: o viés algorítmico é ruim. Descobrir isso é bom. O jornal New York
Times. https://www.nytimes.com/2019/11/15/technology/algorithmic-ai-bias.html. Acessado em 21 de
setembro de 2020
Cossins D (2018) Algoritmos discriminantes: 5 vezes a IA mostrou preconceito. Nova ciência. https://
www.newscientist.com/article/2166207-discriminating-algorithms-5-times-ai-showed-prejud ice/. Acessado
em 21 de setembro de 2020 The Economist (2017) Avanços na IA são usados para detectar sinais de
sexualidade. https://www.econom ist.com/science-and-technology/2017/09/09/advances-in-ai-are-used-to-spot-
signs-of-sexuality.
Acessado em 21 de
setembro de 2020 Floridi L (2018) Ética suave e governança do digital. Philos Technol 31:1–8. https://doi.
org/10.1007/s13347-018-0303-9
Isaak J, Hanna MJ (2018) Privacidade de dados do usuário: Facebook, Cambridge Analytica e proteção de
privacidade. Computador 51:56–59. https://doi.ieeecomputersociety.org/10.1109/MC.2018.3191268 Ledford
H (2019) Milhões de negros afetados por preconceito racial em algoritmos de assistência médica. Natureza
574:608–609. https://doi.org/10.1038/d41586-019-03228-6
Declaração de Montreal (2018) Declaração de Montreal para um desenvolvimento responsável da inteligência
artificial. Université de Montreal, Montreal. https://www.montrealdeclaration-responsibleai.com/the-declaration .
Acessado em 21 de setembro de 2020
Zuboff PS (2019) A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira
de poder. Profile Books, Londres
Machine Translated by Google

Referências 5

Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons
Attribution 4.0 (http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento,
adaptação, distribuição e reprodução em qualquer meio ou formato, desde que você dê os devidos créditos
ao(s) autor(es) original(ais) e à fonte, forneça um link para a licença Creative Commons e indique se foram
feitas alterações.
As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons
do capítulo, a menos que indicado de outra forma em uma linha de crédito para o material. Se o material
não estiver incluído na licença Creative Commons do capítulo e seu uso pretendido não for permitido pela
regulamentação estatutária ou exceder o uso permitido, você precisará obter permissão diretamente do
detentor dos direitos autorais.
Machine Translated by Google

Capítulo 2
Perspectivas da Inteligência Artificial

Resumo Uma discussão sobre a ética da inteligência artificial depende da definição do termo.
Neste capítulo, proponho três conceitos inter-relacionados, mas distintos, de IA, que levantam
diferentes tipos de questões éticas. O primeiro conceito de IA é o de aprendizado de máquina,
que costuma ser visto como um exemplo de IA “estreita”. O segundo conceito é o da inteligência
artificial geral, que representa a tentativa de replicar as capacidades humanas. Finalmente,
sugiro que o termo IA é freqüentemente usado para denotar sistemas sócio-técnicos
convergentes. Cada um desses três conceitos de IA tem diferentes propriedades e características
que dão origem a diferentes tipos de preocupações éticas.

Palavras -chave Inteligência artificial · Definições de IA · Aprendizado de máquina · Inteligência


artificial geral · Sistemas sócio-técnicos

Um bom ponto de partida para uma introdução ao termo “IA” é o projeto de pesquisa de verão
de Dartmouth de 1956 sobre inteligência artificial, onde o termo foi cunhado por McCarthy e
colaboradores (McCarthy et al. 2006). Em sua proposta para este projeto, McCarthy et al.
sugerem que as máquinas podem ser feitas para simular “todos os aspectos da aprendizagem
ou qualquer outra característica da inteligência”. Como características da inteligência, McCarthy
et al. citam o uso da linguagem, a formação de abstrações e conceitos, a resolução de
problemas agora reservados ao ser humano e o autoaperfeiçoamento.
Isso aponta para o primeiro problema na compreensão da IA, ou seja, seu objetivo de
replicar ou emular a inteligência. A inteligência é em si um conceito contestado e não está claro
qual ou cuja inteligência a IA teria que replicar, a fim de ser digna de ser chamada de IA.
Organismos biológicos, incluindo humanos, parecem funcionar em princípios diferentes das
tecnologias digitais (Korienek e Uzgalis 2002). Os humanos têm acesso a “habilidades mentais,
percepções, intuição, emoções e até espiritualidade”
(Brooks 2002: 165). A IA deveria emular tudo isso?
Isso, por sua vez, aponta para o segundo problema na compreensão da IA. Existem
barreiras que a IA, como tecnologia digital, não consegue superar, aspectos da inteligência que
não podem ser replicados digitalmente? Esta é uma questão interessante que tem sido debatida
há muito tempo (Collins 1990, Dreyfus 1992). É eticamente interessante porque tem influência
sobre se a IA poderia ser considerada um assunto ético, ou seja, se poderia ter

© O(s) autor(es) 2021 7


BC Stahl, Artificial Intelligence for a Better Future,
SpringerBriefs in Research and Innovation Governance,
https://doi.org/10.1007/978-3-030-69978-9_2
Machine Translated by Google

8 2 Perspectivas sobre Inteligência Artificial

obrigações morais em si. Isso é semelhante à questão de saber se os computadores podem pensar,
uma questão que Alan Turing considerou “muito sem sentido para merecer discussão”.
(Turing 1950: 442) e isso o levou a propor o jogo de imitação, também conhecido como Teste de
Turing.1
Ambos os problemas de compreensão da IA – ou seja, o que é a inteligência humana e qual
parte dela pode ser replicável pela IA – tornam difícil definir a IA. As sutilezas conceituais da IA
levaram a uma situação em que existem muitas definições concorrentes que cobrem vários aspectos
(Kaplan e Haenlein 2019). A OCDE (2019: 7) sugere que

[um] sistema de IA é um sistema baseado em máquina que pode, para um determinado conjunto de
objetivos definidos pelo homem, fazer previsões, recomendações ou decisões que influenciam
ambientes reais ou virtuais. Os sistemas de IA são projetados para operar com vários níveis de autonomia.

Uma definição similarmente orientada para políticas vem da Comissão Europeia (2020a: 2):

AI é uma coleção de tecnologias que combinam dados, algoritmos e poder de computação.

Uma das definições acadêmicas mais citadas é de Li e Du (2007: 1) e notas


que a IA combina

uma variedade de comportamentos inteligentes e vários tipos de trabalho mental, conhecidos como
atividades mentais, … [para] incluir percepção, memória, emoção, julgamento, raciocínio, prova,
identificação, compreensão, comunicação, design, pensamento e aprendizado, etc.

Virginia Dignum, pesquisadora de IA que trabalhou extensivamente em aspectos éticos da IA,


destaca o fato de que a IA se refere não apenas a artefatos, mas também a uma comunidade
acadêmica. ela considera

A IA é a disciplina que estuda e desenvolve artefatos computacionais que exibem alguma(s) faceta(s)
do comportamento inteligente.

Tais artefatos são frequentemente referidos como agentes (artificiais). Agentes inteligentes são aqueles
que são capazes de ação flexível para atender aos seus objetivos de projeto, onde a flexibilidade inclui
as seguintes propriedades…

• Reatividade: a capacidade de perceber seu ambiente, responder às mudanças que ocorrem nele
e, possivelmente, aprender a melhor forma de se adaptar a essas mudanças; • Pró-atividade:
capacidade de tomar iniciativa para atingir seus próprios objetivos; • Sociabilidade: a capacidade de
interagir com outros agentes ou humanos.

Como este livro trata da ética da IA, proponho uma visão do termo voltada para elucidar
preocupações éticas. Ambos os termos “IA” e “ética” representam conceitos de vários níveis que
possuem uma variedade de significados sobrepostos, mas não idênticos.
Por esse motivo, distingo três aspectos do termo IA, todos os quais têm diferentes desafios éticos
associados a eles.

1No Teste de Turing, um participante humano é colocado em frente a uma máquina, sem saber se ela é
operada por outro humano ou por um computador. As respostas do computador ao humano feitas pela máquina
podem imitar as respostas humanas o suficiente para passar por respostas humanas? É isso que o Teste de
Turing tenta estabelecer.
Machine Translated by Google

2 Perspectivas sobre Inteligência Artificial 9

Máquina
aprendizado IA geral
(IA estreita)

Usos do
termo IA

Convergindo
sócio-técnico
sistemas

Fig. 2.1 Usos do termo "IA"

1. aprendizado de máquina como o exemplo chave de uma compreensão estreita da IA, ou


seja, como uma técnica que replica com sucesso processos cognitivos muito específicos
2. IA geral 3. IA como sinônimo de sistemas sócio-técnicos convergentes que incluem, mas
vão muito além da IA restrita tecnologias.

A Figura 2.1 oferece uma visão geral do uso do termo IA que discuto neste capítulo.

2.1 Aprendizado de Máquina e IA Limitada

Uma revisão recente da literatura de IA pela editora acadêmica Elsevier (2018) sugere que há
vários conceitos-chave e campos de pesquisa que constituem a disciplina acadêmica de IA.
Com base em uma amostra de 600.000 documentos relacionados à IA, analisados em 800
palavras-chave, o relatório classificou as publicações de IA em sete grupos:

1. busca e otimização 2.
sistemas difusos 3. planejamento
e tomada de decisão 4. processamento
de linguagem natural e representação do conhecimento 5. visão
computacional 6. aprendizado de máquina 7. raciocínio probabilístico e
redes neurais.

Isso sublinha que a IA não é uma tecnologia, mas pode ser melhor compreendida como um
conjunto de técnicas e subdisciplinas (Gasser e Almeida 2017).
Machine Translated by Google

10 2 Perspectivas sobre Inteligência Artificial

Embora todos esses grupos sejam componentes reconhecidos do campo da IA, a ênfase na ética atual
da IA está no aprendizado de máquina e nas redes neurais, grupos 6 e 7. Nenhum deles é verdadeiramente
novo. O aprendizado de máquina tem sido uma parte estabelecida da pesquisa de IA (Bishop 2006) desde
o seu início, mas avanços recentes no poder de computação e na disponibilidade de dados levaram a um
aumento em sua aplicação em uma ampla gama de domínios. O aprendizado de máquina abrange uma
ampla gama de técnicas e abordagens, incluindo aprendizado supervisionado, teoria de decisão bayesiana,
vários métodos paramétricos e não paramétricos, agrupamento e muitos outros (Alpaydin 2020).

As redes neurais são tecnologias que tentam replicar a forma como os cérebros naturais são construídos.
Eles representam uma abordagem ascendente da IA, ou seja, uma visão de que a inteligência surge da
estrutura do cérebro. As redes neurais não são uma ideia nova, mas só recentemente alcançaram sucesso
graças à disponibilidade de grandes conjuntos de dados, novos algoritmos e maior poder de computação.
As redes neurais são um fator importante por trás do recente sucesso do aprendizado de máquina, que é o
principal impulsionador da atual onda de IA.

Uma técnica particular de grande importância é a aprendizagem profunda (LeCun et al. 2015), que usa
diferentes tipos de redes neurais e tem contribuído para sucessos recentes em áreas como reconhecimento
de fala, reconhecimento visual de objetos e detecção de objetos, bem como outros domínios como como
descoberta de drogas e genômica (Horvitz 2017).
O aprendizado de máquina, apesar de seus sucessos impressionantes, pode ser caracterizado como
um exemplo de IA estreita. Conforme observado anteriormente, esta é uma técnica que replica com sucesso
processos cognitivos muito específicos. Não é capaz de transferir insights facilmente de um domínio para
outro. Um sistema de aprendizado de máquina que aprendeu a distinguir gatos de cachorros, por exemplo,
não tem automaticamente a capacidade de reconhecer linguagem natural ou categorizar imagens de
patologia para identificar câncer. O sistema subjacente pode ser capaz de cobrir outras aplicações, mas
precisará ser treinado novamente para novos propósitos.

Para este livro é importante entender qual das características aquela máquina
que a aprendizagem possui são de relevância ética. Os principais entre eles são os seguintes:

1. Opacidade: algoritmos de aprendizado de máquina e redes neurais são complexos a ponto de seu
funcionamento interno não ser fácil de entender, mesmo para especialistas no assunto. Embora
permaneçam sistemas puramente técnicos e determinados, é impossível (em parte porque são
sistemas de aprendizagem e, portanto, mudam) entender completamente seu funcionamento interno.

2. Imprevisibilidade: Como consequência do ponto 1, a previsão das saídas dos sistemas com base na
compreensão da entrada é difícil, se não impossível.
3. Requisitos de “Big Data” : Os sistemas de aprendizado de máquina em sua forma atual exigem grandes
conjuntos de dados de treinamento e capacidade significativa de computador para criar modelos.

A referência ao aprendizado de máquina como um exemplo de “IA restrita” sugere que existem outros
tipos de IA que não são restritos. Estes são normalmente referidos como IA geral e são discutidos na
próxima seção. Antes de chegarmos a isso, é importante ressaltar que o aprendizado de máquina, com seu
uso de redes neurais, não é o único tipo de IA restrita. Outros exemplos são sistemas de apoio à decisão
baseados em árvores de decisão e sistemas de lógica fuzzy. Eu me concentro no aprendizado de máquina
neste livro
Machine Translated by Google

2.1 Aprendizado de Máquina e IA Limitada 11

porque é o exemplo mais proeminente de IA estreita no momento, principalmente devido aos seus
sucessos recentes. Isso não quer dizer que outros exemplos de IA restrita não possam ganhar
proeminência semelhante no futuro ou levantar outros tipos de preocupações éticas.

2.2 IA geral

A IA geral, às vezes também chamada de “IA forte”, remonta aos primórdios da pesquisa de IA e
representa a ideia de que é possível construir sistemas que exibem verdadeiros níveis de
inteligência humana (ou outro mamífero superior). Também é conhecido como “bom e velho
AI” (GOFAI). O princípio original do GOFAI era que o mundo poderia ser representado por meio de
símbolos e que a manipulação desses símbolos levaria a um comportamento inteligente (Moor e
Bynum 2002). Nessa visão, o cérebro humano era visto como um computador que executa
operações lógicas, e as mesmas ou pelo menos funcionalmente equivalentes poderiam ser
executadas em um computador digital (Floridi 1999).
Talvez a observação mais interessante sobre o projeto GOFAI seja que ele não teve sucesso
nos 65 anos desde o seu início. Neste ponto não há IA geral (Babuta et al. 2020). Isso indica que
suas suposições estão erradas ou não podem ser implementadas no tipo de computador digital
que temos atualmente à nossa disposição. Existem muitas sugestões sobre por que exatamente o
GOFAI (ainda) não alcançou seus objetivos. Uma sugestão é que o cerne do problema é ontológico,
ou seja, que o mundo simplesmente não pode ser representado de forma abrangente por meio de
símbolos definidos de cima para baixo (Smith 2019). Esta é a sugestão da fenomenologia expressa
em uma crítica inicial da IA por Dreyfus (1972).

Outra questão interessante é se a falha atual do GOFAI é temporária, o que significaria que
seremos capazes de construir sistemas gerais de IA em algum momento, ou se é fundamental, o
que significaria que existe algum componente da verdadeira inteligência que é incapaz de ser
capturado e reproduzido por máquinas, ou pelo menos pelos tipos de computadores digitais que
usamos hoje.
A IA geral tem um status estranho neste livro de ética de IA de 2020. Por um lado, parece claro
que a IA geral não existe. Portanto, pode-se argumentar que não causa preocupações éticas e
pode ser felizmente ignorado. Por outro lado, a IA geral é provavelmente o assunto mais
proeminente das discussões relacionadas à IA e à ética na ficção científica, onde um grande
número de personagens representa a IA geral para o bem ou para o mal. 2001: A Space Odyssey,
apresentando o computador senciente HAL, Blade Runner, os filmes Terminator, I, Robot, WALL-
E, Westworld e uma série de outras histórias sobre IA em geral. Essas narrativas não podem ser
ignoradas, em parte porque a ficção científica é extremamente influente na orientação das escolhas
de design técnico e em parte porque a discussão pública é guiada por elas. Intervenções de alto
nível de celebridades e cientistas reconhecidos como Elon Musk e Stephen Hawking dão
credibilidade à ideia de que a IA geral pode criar riscos éticos significativos.

Além disso, a IA geral é interessante porque muitas das questões que ela levanta são relevantes
para a ética. Sou agnóstico sobre a possibilidade de criar IA geral, em parte porque não tenho
certeza de que entendemos o que constitui a inteligência natural
Machine Translated by Google

12 2 Perspectivas sobre Inteligência Artificial

e, portanto, não estou convencido de que poderíamos reconhecer a IA geral, mesmo que ela aparecesse.
A história da IA tem sido de mudança de metas, e agora estamos em um mundo onde muitos dos
primeiros sonhos da IA foram realizados. Exemplos de implementação de IA bem-sucedida incluem o
onipresente reconhecimento de voz que agora é padrão na maioria dos smartphones e a facilidade de
organizar grandes quantidades de dados que qualquer usuário da Internet encontra ao usar um mecanismo
de pesquisa. Apesar desses sucessos, poucos diriam que estamos perto da IA geral. Por exemplo,
sistemas de GPS integrados em nossos carros podem lembrar nossas rotas habituais para o trabalho e
sugerir a mais eficiente, dependendo das condições de tráfego atuais. Eles também falam com a gente.
Ao mesmo tempo, ainda esperamos pelo Tenente Comandante Data, o andróide de Star Trek: Picard.

A IA geral é, no entanto, um ingrediente importante no debate sobre a ética da IA porque traz à tona
algumas questões fundamentais sobre o que nos torna humanos e sobre qual é a diferença, se é que
existe alguma, entre humanos, outros animais e seres artificiais. Alguns dos aspectos que levaram ao
fracasso da IA geral até agora – a saber, a negligência da natureza humana e dos aspectos
fenomenológicos e existenciais de estar no mundo (Heidegger 1993, Moran 1999, Beavers 2002) – são
cruciais para ética e voltarei a eles no próximo capítulo.

As características relevantes da IA geral são:

1. Natureza da inteligência: IA geral A IA geral levanta a questão do que constitui inteligência.

2. Por implicação, IA geral A IA geral aponta para questões fundamentais como:

a. Natureza humana: o que significa ser humano? b. Natureza da


realidade: O que é a realidade? c. Natureza do conhecimento: O
que podemos saber sobre a realidade?

A IA geral nos aponta, portanto, para algumas das questões filosóficas mais fundamentais, muitas
das quais podem não ter uma resposta ou podem ter muitas respostas inconsistentes, mas são
importantes para os humanos perguntarem para entender seu lugar no mundo.
Embora IA restrita e IA geral sejam conceitos amplamente reconhecidos na literatura de IA, há outro
significado do termo IA que é de alta relevância para o debate sobre a ética da IA, embora não se trate
estritamente de IA em um sentido técnico.

2.3 IA como Sistemas Sócio-Técnicos Convergentes

Existem inúmeros campos da ciência e da tecnologia que estão intimamente ligados à IA e que são
frequentemente referidos nas discussões sobre IA. Algumas delas são tecnologias que produzem os
dados que o aprendizado de máquina requer, como a internet das coisas. Outras são tecnologias que
podem ajudar a IA a ter um efeito no mundo, como a robótica (Comissão Europeia 2020b). Pode-se
também usar o termo “sistema de informação inteligente” (SIS) para denotar essa combinação de vários
tipos de tecnologias, que normalmente são baseadas em aprendizado de máquina e análise de big data
(Stahl e Wright
Machine Translated by Google

2.3 IA como Sistemas Sócio-Técnicos Convergentes 13

2018). Na prática, a IA raramente aparece como uma tecnologia autônoma, mas geralmente está
vinculada e incorporada a outras tecnologias.
A distinção entre diferentes tecnologias é cada vez mais difícil. Cinquenta anos atrás, um
computador seria uma grande máquina prontamente identificável com entradas, saídas e
propósitos claramente definidos. Desde então, a crescente miniaturização de dispositivos de
computação, a introdução de dispositivos móveis, sua conexão através de redes e sua integração
em tecnologias de comunicação levaram a uma situação em que a computação é integrada à
maioria dos dispositivos e processos técnicos. A IA tende a fazer parte dessas redes técnicas.

Alguns autores usaram a abreviação NBIC (nano, bio, information and cognitiva technologies)
para denotar a aparente convergência dessas tecnologias aparentemente diferentes (Khushf
2004, Van Est et al. 2014). A IA e as tecnologias relacionadas ao cérebro têm um papel central
nessa convergência.
Talvez não surpreendentemente, há muitos trabalhos que ligam a IA à neurociência, o estudo
científico do cérebro e do sistema nervoso. Uma vez que o cérebro é a sede da inteligência
humana, a pesquisa sobre o cérebro provavelmente será relevante para a compreensão da
inteligência artificial e natural. A IA sempre se baseou em nossa compreensão do cérebro, com
as redes neurais artificiais sendo um exemplo proeminente de como os insights neurocientíficos
influenciaram o desenvolvimento da IA. Atualmente, há muito interesse no que a neurociência e
o aprendizado de máquina podem aprender um com o outro (Marblestone et al. 2016, Glaser et
al. 2019) e como a neurociência e a pesquisa em IA, em seu progresso posterior, podem se
apoiar (Hassabis et al. . 2017). Uma esperança é que os insights neurocientíficos possam nos
ajudar a ir além da IA restrita para a IA geral, para o desenvolvimento de máquinas que “aprendem
e pensam como as pessoas” (Lake et al. 2017).
O termo “IA” neste contexto é usado como uma abreviatura para sistemas técnicos e
desenvolvimentos que têm potencial para crescer juntos, para apoiar e fortalecer uns aos outros.
Crucialmente, esses sistemas não são apenas sistemas técnicos, mas sistemas sócio-técnicos.
Embora isso seja verdade para qualquer sistema técnico (eles nunca surgem do nada e são
sempre usados por pessoas) (Mumford 2006), é particularmente pertinente para as tecnologias
convergentes que incluem IA. Exemplos de tais sistemas sociotécnicos incluem a maioria dos
exemplos de alto perfil de IA, como veículos autônomos, reconhecimento de padrões incorporados
– por exemplo, para o escrutínio de currículos para fins de emprego – e policiamento preditivo.
Todos eles têm uma IA estreita em seu núcleo. O que os torna interessantes e eticamente
relevantes não é tanto o funcionamento da IA, mas a maneira como o sistema sociotécnico geral
interage com outras partes da realidade social.

Esse uso do termo “IA” para denotar sistemas sociotécnicos contendo IA e outras tecnologias
aponta para algumas características dessas tecnologias que são eticamente relevantes. Esses
sistemas sociotécnicos parecem ser autônomos, ou seja, criam produtos que afetam as pessoas
de forma que não permitem que a responsabilidade seja atribuída a seres humanos. Isso não
implica um conceito forte de autonomia da IA, um conceito ao qual retornarei no próximo capítulo,
mas sim uma falta de visão e controle visíveis. Por exemplo, se o reconhecimento de padrão
incorporado for usado para digitalizar currículos para identificar candidatos adequados para
entrevistas, o sistema não é um exemplo de
Machine Translated by Google

14 2 Perspectivas sobre Inteligência Artificial

forte autonomia (como seria um short-lister humano), mas as questões éticas em termos de supervisão
ainda são óbvias.
Outro aspecto importante desses sistemas é que eles estruturam o espaço de opções que os
indivíduos têm. Coeckelbergh (2019) usa a metáfora dos papéis teatrais. Baseando-se em Goffman
(1990), Coeckelbergh argumenta que as ações humanas podem ser vistas como performances
corporificadas. A abrangência do conteúdo dessas performances é estruturada pelo que está disponível
no palco. Os sistemas sócio-técnicos orientados pela IA assumem o papel do teatro, muitas vezes do
diretor. Mesmo que eles não instruam diretamente os humanos sobre o que devem fazer (o que
também costuma acontecer; pense no motorista do Uber recebendo instruções de seu telefone), eles
determinam o que pode ou não ser feito. Onde os humanos não estão cientes disso, tal estruturação
de opções pode ser vista como uma manipulação encoberta das ações humanas. E, dado o alcance
econômico e social e a importância dessas tecnologias, o impacto social desses sistemas pode ser
significativo. Por exemplo, o uso de um mecanismo de pesquisa na Internet e os algoritmos usados
para determinar quais descobertas são exibidas estruturam em grande parte o que os usuários desse
mecanismo de pesquisa conhecem em relação à pesquisa. Da mesma forma, as informações
disponibilizadas aos usuários de mídia social, normalmente priorizadas pela IA, podem influenciar
fortemente a percepção das pessoas sobre seu ambiente e, assim, promover ou limitar a prevalência
de teorias da conspiração. Para resumir, os sistemas sócio-técnicos habilitados para IA têm as
seguintes características.

1. Autonomia: os sistemas sociotécnicos da IA levam a consequências para os humanos que não são
simplesmente resultados de ações identificáveis de seres humanos.
2. Manipulação: Os sistemas sociotécnicos de IA estruturam as opções humanas e as ações possíveis,
muitas vezes de maneiras que os humanos não percebem.
3. Impacto social: As consequências para os indivíduos e a sociedade do uso de sistemas
sociotécnicos de IA podem ser significativas.

A Figura 2.2 fornece uma representação gráfica das características dos diferentes
significados de IA discutidos neste capítulo.
Essa visão da IA e suas subcategorias nos ajuda a entender e lidar melhor com as questões éticas
atualmente discutidas no contexto da IA. Deve ficar claro, no entanto, que não afirmo que seja a única
maneira de categorizar a IA, nem argumentaria que as três categorias são distintamente separadas.
O aprendizado de máquina pode muito bem ser a chave para a IA geral e certamente faz parte dos
sistemas sociotécnicos convergentes.
Se a IA geral se materializar, sem dúvida fará parte de novos sistemas sócio-técnicos. O objetivo da
distinção dos três aspectos é mostrar que existem diferentes visões de IA que apontam para diferentes
características do termo, o que, por sua vez, levanta diferentes questões éticas. Portanto, facilita o
envolvimento com questões éticas.
Machine Translated by Google

Referências 15

Imprevisibilidade Natureza humana

Natureza de
Opacidade
conhecimento

Máquina
Requisito Natureza
de big data aprendizado
IA geral da inteligência
(IA estreita)

Convergindo
sócio-técnico
sistemas

Autonomia Impacto social

Manipulação

Fig. 2.2 Principais características dos diferentes usos do termo “IA”

Referências

Alpaydin E (2020) Introdução ao aprendizado de máquina. The MIT Press, Cambridge MA Babuta A, Oswald
M, Janjeva A (2020) Inteligência artificial e segurança nacional do Reino Unido: considerações sobre políticas. RUSI
Ocasional Paper. Royal United Services Institute for Defense and Security Studies, Londres. https://rusi.org/sites/default/
files/ai_national_security_final_web_version.pdf.
Acessado em 21 de setembro
de 2020 Beavers AF (2002) Fenomenologia e inteligência artificial. Metafilosofia 33:70. https://doi. org/
10.1111/1467-9973.00217 Bishop CM (2006) Reconhecimento de padrões e aprendizado de máquina. Springer
Science+Business Media,
Nova Iorque
Brooks RA (2002) Carne e máquinas: como os robôs vão nos mudar. Pantheon Books, New York Coeckelbergh M (2019)
Tecnologia, narrativa e performance no teatro social. In: Kreps D (ed) Compreendendo eventos digitais: Bergson, Whitehead
e a experiência do digital, 1ª ed.
Routledge, Nova York, pp 13–27
Collins HM (1990) Especialistas artificiais: conhecimento social e sistemas inteligentes. Imprensa do MIT,
Cambridge MA
Dreyfus HL (1972) O que os computadores não podem fazer: uma crítica da razão artificial. Harper & Row, Novo
Iorque
Dreyfus HL (1992) O que os computadores ainda não podem fazer: uma crítica da razão artificial, edição revisada. MIT
Press, Cambridge MA Elsevier (2018) Inteligência artificial: como o conhecimento é criado, transferido e usado.
Tendências na China, Europa e Estados Unidos. Elsevier, Amsterdã. https://www.elsevier.com/__data/assets/pdf_file/
0011/906779/ACAD-RL-AS-RE-ai-report-WEB.pdf . Acessado em 22 de setembro de 2020 Comissão Europeia (2020a)
Livro branco sobre inteligência artificial: uma abordagem europeia para excelência e confiança. Comissão Europeia,
Bruxelas. https://ec.europa.eu/info/sites/info/files/mission-white-paper-artificial-intelligence-feb2020_en.pdf . Acessado em
22 de setembro de 2020 Comissão Europeia (2020b) Relatório sobre as implicações de segurança e responsabilidade
da inteligência artificial, da internet das coisas e da robótica. Comissão Europeia,
Machine Translated by Google

16 2 Perspectivas sobre Inteligência Artificial

Bruxelas. https://ec.europa.eu/info/files/commission-report-safety-and-liability-implications-ai internet-things-and-


robotics_en. Acessado em 22 de setembro de 2020
Floridi L (1999) Ética da informação: sobre os fundamentos filosóficos da ética do computador. Informações de Ética
Tecnologia 1:33–52
Gasser U, Almeida VAF (2017) Um modelo em camadas para governança de IA. IEEE Internet Comput 21:58–62.
https://doi.org/10.1109/MIC.2017.4180835 Glaser JI, Benjamin AS, Farhoodi R, Kording KP (2019) Os papéis do
aprendizado de máquina supervisionado na neurociência de sistemas. Prog Neurobiol 175:126–137. https://doi.org/
10.1016/j.pneurobio.2019. 01.008

Goffman E (1990) A apresentação do eu na vida cotidiana, New Ed ed. Penguin, London Hassabis D,
Kumaran D, Summerfield C, Botvinick M (2017) Artificial inspirado em neurociência
inteligência. Neurônio 95:245-258. https://doi.org/10.1016/j.neuron.2017.06.011
Heidegger M (1993) Sein und Zeit, 14ª ed. Max Niemeyer Verlag GmbH & Co KG, Tübingen Horvitz E (2017) IA,
pessoas e sociedade. Ciência 357:7. https://doi.org/10.1126/science.aao2466 Kaplan A, Haenlein M (2019) Siri, Siri,
na minha mão: quem é a mais bela da terra? Sobre as interpretações, ilustrações e implicações da inteligência
artificial. Bus Horiz 62:15–25 Khushf G (2004) Teoria dos sistemas e ética do aprimoramento humano: uma
estrutura para convergência NBIC. In: Roco MC, Montemagno CD (eds) Coevolução do potencial humano e
tecnologias convergentes. Academia de Ciências de Nova York, Nova York, pp 124–149

Korienek G, Uzgalis W (2002) Robôs adaptáveis. Metaphilosophy 33:83–97 Lake BM,


Ullman TD, Tenenbaum JB, Gershman SJ (2017) Construindo máquinas que aprendem e pensam como pessoas.
Behav Brain Sci 40:e253. https://doi.org/10.1017/S0140525X16001837
LeCun Y, Bengio Y, Hinton G (2015) Aprendizagem profunda. Nature 521:436–444 Li D,
Du Y (2007) Inteligência artificial com incerteza. Chapman e Hall/CRC, Boca Raton
FL
Marblestone AH, Wayne G, Kording KP (2016) Rumo a uma integração de aprendizado profundo e neurociência.
Front Comput Neurosci 10:94. https://doi.org/10.3389/fncom.2016.00094 McCarthy J, Minsky ML, Rochester N,
Shannon CE (2006) Uma proposta para o projeto de pesquisa de verão de Dartmouth sobre inteligência artificial.
Revista AI 27:12–14. https://doi.org/10.1609/aimag. v27i4.1904

Moor JH, Bynum TW (2002) Introdução à ciberfilosofia. Metaphilosophy 33:4–10 Moran D (1999) Introdução
à fenomenologia, 1ª ed. Routledge, London Mumford E (2006) A história do design sociotécnico: reflexões
sobre seus sucessos, falhas e potencial. Inf Syst J 16:317–342. https://doi.org/10.1111/j.1365-2575.2006.00221.x
OCDE (2019) Recomendação do Conselho de Inteligência Artificial. OECD/LEGAL/0449 Smith BC (2019) A
promessa da inteligência artificial: avaliação e julgamento. Imprensa do MIT,

Cambridge MA
Stahl BC, Wright D (2018) Ética e privacidade em IA e big data: implementando pesquisa e inovação responsáveis.
IEEE Secur Priv 16:26–33. https://doi.org/10.1109/MSP.2018.2701164
Turing AM (1950) Máquinas de computação e inteligência. Mind 59:433–460 Van Est R,
Stemerding D, Rerimassie V, Schuijff M, Timmer J, Brom F (2014) Da biografia para NBIC:
da prática médica à vida diária. Rathenau Instituut, Haia
Machine Translated by Google

Referências 17

Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons
Attribution 4.0 (http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento,
adaptação, distribuição e reprodução em qualquer meio ou formato, desde que você dê os devidos créditos
ao(s) autor(es) original(ais) e à fonte, forneça um link para a licença Creative Commons e indique se foram
feitas alterações.
As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons
do capítulo, a menos que indicado de outra forma em uma linha de crédito para o material. Se o material
não estiver incluído na licença Creative Commons do capítulo e seu uso pretendido não for permitido pela
regulamentação estatutária ou exceder o uso permitido, você precisará obter permissão diretamente do
detentor dos direitos autorais.
Machine Translated by Google

Capítulo 3
Conceitos de ética e sua aplicação à IA

Resumo Qualquer discussão sobre a ética da IA precisa ser baseada em uma


compreensão sólida do conceito de ética. Este capítulo, portanto, fornece uma breve visão
geral de algumas das principais abordagens da ética, com ênfase particular na ética das
virtudes e na ideia do florescimento humano. O capítulo revisa as finalidades para as quais
a IA pode ser usada, pois elas têm influência em uma avaliação ética. Três propósitos
principais são distinguidos: IA para eficiência, otimização e maximização do lucro, IA para
controle social e IA para o florescimento humano. Dado o foco no florescimento humano
neste livro, várias posições teóricas são apresentadas que fornecem insights sobre
diferentes aspectos e formas de promover o florescimento humano. O capítulo termina
com uma discussão sobre a abordagem baseada em princípios atualmente difundida para a ética da IA.

Palavras -chave Teoria ética · Florescimento humano · Finalidades da IA ·


Princípios éticos da IA

As questões éticas da IA são muito debatidas e, às vezes, contestadas. Para entender o


que são e por que podem ser consideradas questões éticas, e para começar a pensar
sobre o que pode ou deve ser feito a respeito, começo com uma introdução à ética, que é
seguida por uma discussão empírica da ética atual. questões de IA.

Em seu nível mais básico, a ética tem a ver com o bem e o mal, com o certo e o errado.
No entanto, o termo “ética” é muito mais complexo do que isso e a mesma palavra é usada
para abranger aspectos muito diferentes da questão do certo e do errado. Em outro lugar
(Stahl 2012), propus a distinção de quatro níveis diferentes, todos cobertos pelo termo
“ética”:

1. Intuição moral, expressa em uma declaração do tipo: “Isso está certo” ou “Isso é
errado."
2. Moralidade explícita, expressa em declarações gerais como “Deve-se sempre/nunca
fazer isso”.
3. Teoria ética, ou seja, a justificação da moralidade com base na filosofia moral expressa
em declarações como “Fazer isso é certo/errado porque…”
4. Metaética, ou seja, teorização de alto nível sobre teorias éticas.

© O(s) autor(es) 2021 19


BC Stahl, Artificial Intelligence for a Better Future,
SpringerBriefs in Research and Innovation Governance,
https://doi.org/10.1007/978-3-030-69978-9_3
Machine Translated by Google

20 3 Conceitos de Ética e sua Aplicação à IA

Essa visão da ética é compatível com outras visões, notadamente a distinção freqüentemente
sugerida entre ética aplicada, ética normativa e metaética. Ele também acomoda a típica
introdução à ética que se pode encontrar em livros didáticos de ética tecnológica (Van de Poel
e Royakkers 2011), notadamente as teorias éticas dominantes de deontologia e
consequencialismo.

3.1 Teorias Éticas

As teorias éticas são tentativas de encontrar uma resposta para a pergunta: o que torna uma
ação eticamente melhor ou pior do que uma ação alternativa? Exemplos proeminentes de
teorias éticas incluem consequencialismo e deontologia. (Voltarei à ética da virtude mais tarde.)
Ambas se originaram durante o período do Iluminismo (principalmente no século XVIII). Eles
visam fornecer regras claras que nos permitam determinar a qualidade ética de uma ação. As
teorias consequencialistas se concentram nos resultados da ação para essa avaliação. As
várias abordagens do utilitarismo que remontam a Jeremy Bentham (1789) e John Stuart Mill
(1861) são os exemplos mais proeminentes. Baseiam-se na ideia de que se pode, pelo menos
em teoria, somar a utilidade e a desutilidade agregadas resultantes de um determinado curso
de ação. A opção com a maior utilidade líquida, ou seja, utilidade menos desutilidade, é a opção
eticamente ótima.
Já a deontologia parte do princípio de que a base da avaliação ética de uma ação é o dever
do agente que a executa. O representante mais proeminente dessa posição é Immanuel Kant
(1788, 1797), que formulou o chamado imperativo categórico. A formulação mais frequentemente
citada do imperativo categórico diz “Aja apenas de acordo com aquela máxima pela qual você
pode ao mesmo tempo querer que ela se torne uma lei universal” (tradução, citada em Bowie
1999: 14). Esse imperativo categórico impede os agentes de racionalizar isenções para si
mesmos.
O aspecto interessante dessa posição para nossos propósitos é que essa visão da ética não
dá atenção imediata às consequências de uma ação, mas se concentra exclusivamente na
motivação para empreendê-la.
É importante sublinhar, no entanto, que a deontologia e o utilitarismo não são as únicas
teorias éticas que podem ser aplicadas à IA e à tecnologia de forma mais ampla.
Além da ética da virtude, à qual retornarei em breve, existem outras abordagens éticas gerais,
como a ética feminista do cuidado (Gilligan 1990) e a ética baseada em várias religiões. A
aplicação de teorias éticas a áreas de aplicação específicas resultou em ricos discursos de
conceitos como ética do computador (Bynum e Rogerson 2003, Bynum 2008a, van den Hoven
2010), ética da informação (Capurro 2006, Floridi 2006) e ética da tecnologia (Brey 2011) que
são relevantes para a IA.
Bibliotecas inteiras foram escritas sobre ética filosófica, e não posso esperar fazer justiça às
muitas e ricas nuances do pensamento ético. No entanto, pode ser útil delinear como a ética se
relaciona com a condição humana. Isso pode explicar algumas das características da ética e
pode lançar luz sobre se, ou até que ponto, agentes artificiais não humanos podem ser sujeitos
éticos.
Machine Translated by Google

3.1 Teorias Éticas 21

Uma chave para entender a ética, acredito, é que os humanos reconhecem que todos nós,
apesar das muitas e profundas diferenças, temos muito em comum. Poderíamos chamar esse
estado de “as características compartilhadas da condição humana”. Os seres humanos são
fundamentalmente sociais. Sem estruturas sociais e apoio, não apenas morreríamos como
bebês, mas também deixaríamos de desenvolver a linguagem e, portanto, a compreensão
conceitual do mundo ao nosso redor que nos permite viver nossas vidas. Somos possivelmente
a única espécie que não apenas reconhece que existimos, mas também sabe que somos
fundamentalmente vulneráveis e mortais. Não apenas sabemos disso, mas o sentimos de
maneira profunda e reconhecemos que compartilhamos esses sentimentos com outros humanos.
O destino compartilhado da morte certa nos permite ver o outro como alguém que, por mais
diferente que seja de nós, tem algumas semelhanças básicas conosco. Temos empatia com os
outros com base em nossas experiências e na suposição de que eles são como nós. E assim
como partilhamos o conhecimento da morte, partilhamos também a experiência da esperança,
da alegria, da capacidade de (mais ou menos) livremente desenvolver projetos e moldar o nosso
mundo. Este mundo não é apenas um mundo físico, mas predominantemente social, que é
construído usando as capacidades únicas da linguagem humana. A ética é então uma forma de
moldar uma parte importante deste mundo social de forma a levar em conta os aspectos compartilhados da natur
Esta descrição da natureza humana e da condição humana tem implicações diretas para o
conceito de ética e o que pode ser considerado como “ser ético”. A ética não reside exclusivamente
em uma ação ou em uma intenção. A ética faz parte de estar no mundo, para usar um termo
heideggeriano (Heidegger 1993). É caracterizada pela habilidade de um agente não apenas de
perceber diferentes estados possíveis do mundo e decidir entre opções concebíveis, mas de
fazê-lo tendo em vista o significado de tal decisão para seu próprio mundo e também para o
mundo em geral. Isso implica que o agente está conscientemente situado neste mundo e o
compreende, mas também tem uma relação emocional com ele e com os outros agentes que co-
constituem este mundo. Tal agente pode muito bem fazer uso de teorias éticas deontológicas ou
utilitárias, mas o faz de forma reflexiva como um agente que tem um compromisso com o mundo
onde esses princípios são aplicados.
Esta breve introdução à minha posição ética aponta para a ideia de florescimento humano,
que se tornará vital nas partes posteriores deste livro: florescimento humano ligado ao estar no
mundo, compreendendo os limites da condição humana e a sociabilidade essencial dos
humanos , que requer empatia. Claro, percebo que existem pessoas que têm pouca ou nenhuma
empatia, que as habilidades para interagir socialmente e usar a linguagem diferem muito, que
muitos desses aspectos se aplicam em algum grau também a alguns animais. No entanto, para
fundamentar minha posição na ética da IA e nas ideias principais deste livro, é importante que
eu não me baseie excessivamente na deontologia e no utilitarismo, mas leve em consideração
uma gama mais ampla de fontes e, em particular, a ética da virtude.

3.2 IA para o Florescimento Humano

As abordagens atuais da ética filosófica representadas pelo consequencialismo e pela deontologia


são em grande parte esforços racionais e teóricos e principalmente em casa nos departamentos
de filosofia acadêmica. A ética, no entanto, tem tradicionalmente tido um papel muito
Machine Translated by Google

22 3 Conceitos de Ética e sua Aplicação à IA

significado mais amplo. Para os antigos gregos, a filosofia não era apenas um esforço intelectual, mas uma
tentativa de encontrar maneiras de viver a “boa vida”, a resposta à pergunta: como devo viver (Annas 1993)?
As principais escolas filosóficas da Grécia antiga concordavam que o cosmos tinha um propósito e que a boa
vida individual, resultando em felicidade (Aristóteles 2007), era baseada em pessoas cumprindo seu papel na
sociedade. Esta é a base da ética da virtude, que é mais proeminentemente associada a Aristóteles (2007),
mas cujos princípios principais são amplamente compartilhados nas escolas filosóficas. O foco dessa
abordagem da ética não é tanto a avaliação dos resultados antecipados de um ato individual ou sua intenção,
mas fornecer orientação para o indivíduo para ajudá-lo a desenvolver um caráter virtuoso.

Não quero romantizar excessivamente a Grécia antiga, cuja aceitação da escravidão e da misoginia não
são aceitáveis. No entanto, a ética da virtude como uma abordagem da ética tem um apelo significativo,
provavelmente porque oferece orientação não apenas sobre problemas individuais, mas sobre como devemos
viver nossas vidas. Isso pode explicar por que voltou à proeminência desde o final do século 20 e viu tentativas
de traduzi-lo em contextos modernos (MacIntyre 2007).

Terry Bynum é um dos vários estudiosos que conseguiram traduzir os antigos princípios da ética da virtude
em um contexto saturado de tecnologia moderna. Ele sugere o desenvolvimento de uma “ética
florescente” (Bynum 2006) que se baseia nas raízes aristotélicas. Seus princípios fundamentais são:

1. O florescimento humano é fundamental para a ética.


2. Os seres humanos como animais sociais só podem florescer em sociedade.
3. O florescimento requer que os humanos façam o que estão especialmente equipados para fazer.
4. Precisamos adquirir conhecimento genuíno por meio do raciocínio teórico e, em seguida, agir de forma
autônoma e justa por meio do raciocínio prático para florescer.
5. A chave para um excelente raciocínio prático e, portanto, para ser ético, é a capacidade de deliberar sobre
os próprios objetivos e escolher um curso de ação sábio.

Bynum (2008b) mostrou que esses princípios da ética da virtude são relevantes e informaram as
considerações éticas da tecnologia da informação desde seus primórdios e podem ser encontrados no trabalho
de Norbert Wiener (1954), um dos pais da tecnologia digital.

Muitas pesquisas foram realizadas para explorar como os princípios da ética da virtude podem ser
aplicados à tecnologia e como podemos viver uma vida virtuosa em uma sociedade impulsionada pela
tecnologia. Uma excelente discussão sobre a ética da virtude no contexto das tecnologias digitais é fornecida
por Vallor (2016) e, dado que minha abordagem depende fortemente de sua discussão, retornarei a ela mais
tarde com referência ao florescimento humano.
Como aponta Bynum, as pessoas são dotadas de diferentes habilidades e pontos fortes.
O florescimento inclui a excelência na busca dos próprios objetivos, o que implica que existem tantas formas
de florescer quantas combinações de habilidades. O florescimento não é, portanto, um conceito de tamanho
único, mas precisa ser preenchido com vida em um nível individual. Antes de retornar a uma discussão mais
detalhada do conceito de florescimento, agora quero discutir as motivações por trás e os propósitos de
desenvolver, implantar e usar a IA, pois isso tem relação direta com a avaliação ética dos sistemas sócio-
técnicos da IA.
Machine Translated by Google

3.3 Finalidades da IA 23

3.3 Finalidades da IA

Compreender o propósito e a intenção da IA é importante ao pensar sobre a ética da IA. As


tecnologias digitais, como apontado anteriormente, são altamente flexíveis e abertas à
interpretação. Eles são logicamente maleáveis. Podem, assim, ser utilizados para uma infinidade
de propósitos, que podem ou não estar alinhados com a intenção dos desenvolvedores e
designers originais. Apesar dessa abertura da IA, ainda é possível distinguir diferentes propósitos
que determinam o design, desenvolvimento e uso de sistemas. Distingo três propósitos principais:
IA para eficiência, IA para controle social e, por último, como alternativa e complemento aos dois
iniciais, IA para o florescimento humano (ver Fig. 3.1).

Ao olhar para os documentos de políticas atuais que cobrem a IA, normalmente encontramos
uma mistura de todas essas três motivações: a IA pode melhorar a eficiência, o que levará a
economia de custos e, portanto, a benefícios econômicos, que diminuirão e a vida das pessoas
melhorará. Um relatório ao presidente dos Estados Unidos deu o tom ao destacar as vantagens
econômicas e sugerir que “a IA tem o potencial de dobrar as taxas anuais de crescimento
econômico nos países analisados até 2035” (Executive Office of the President 2016). A Comissão
Europeia espera que “a IA possa se espalhar por muitos empregos e setores industriais,
aumentando a produtividade e gerando um forte crescimento positivo” (Craglia et al. 2018). E um
comitê da Câmara dos Lordes do Reino Unido espera que “a IA possa se espalhar por muitos
empregos e setores industriais, aumentando a produtividade e gerando um forte crescimento
positivo”
(Câmara dos Lordes 2018).
Uma visão muito diferente do uso da tecnologia, incluindo IA, é vê-la como uma forma de
exercer controle social. Habilidades em rápido crescimento para coletar dados, em conjunto

Eficiência,
otimização,
Controle social
maximização do lucro

Finalidades da IA

Humano
florescente

Fig. 3.1 Possíveis propósitos da IA


Machine Translated by Google

24 3 Conceitos de Ética e sua Aplicação à IA

com a capacidade da IA de detectar padrões e correlações entre variáveis, permitem novas formas de
controlar o comportamento humano. Isso pode ser feito de maneiras sutis, usando a ideia de “cutucada”
com base na economia comportamental (Mullainathan e Thaler 2000, Camerer et al. 2004) ou pode ser
feito de forma mais vigorosa, como por exemplo no sistema de pontuação de crédito social chinês
( Creemers 2018, Liu 2019).

O sistema pretende monitorar, avaliar e regular o comportamento financeiro, social, moral e,


possivelmente, político dos cidadãos da China – e também das empresas do país – por meio de um
sistema de punições e recompensas. O objetivo declarado é “fornecer benefícios aos confiáveis e
disciplinar os indignos de confiança”. (Bartsch e Gottske nd)

A IA como controle social também pode violar os limites da legalidade, como aconteceu no caso
Facebook-Cambridge Analytica, onde dados de mídia social foram usados para influenciar ilegitimamente
o resultado de eleições democráticas (Isaak e Hanna 2018).
Zuboff (2019) oferece um argumento contundente de que o controle social é uma força motriz e uma
condição necessária para o sucesso do que ela chama de “capitalismo de vigilância”. Em sua análise,
ela não se concentra no termo IA, mas sua descrição da maneira como novos modelos de negócios se
desenvolveram e facilitaram enormes lucros está totalmente alinhada com o conceito de IA como sistemas
sociotécnicos convergentes (ver Fig. 3.1).
O terceiro propósito do uso da IA, com base na discussão anterior sobre ética, é empregá-la para o
florescimento humano. Isso significa que a IA é desenvolvida e implantada de maneira a promover o
florescimento humano. Pode ser usado como uma ferramenta que ajuda indivíduos e grupos a identificar
objetivos valiosos e apoiá-los em sua busca pela excelência na consecução desses objetivos. Há uma
série de sugestões sobre como garantir que a IA tenha consequências positivas para indivíduos e
sociedades, o que faz parte desse terceiro propósito de usar IA para o florescimento humano: por
exemplo, tentativas de construir uma “boa sociedade de IA” (Cath et al . 2016) ou o discurso sobre IA
para o bem que discuto com mais detalhes abaixo na seção sobre os benefícios da IA.

As três visões diferentes do propósito da IA são representadas na Fig. 3.1.


Esses três objetivos podem entrar em conflito, mas não são necessariamente contraditórios.

A busca pela eficiência e os benefícios econômicos resultantes podem levar a uma economia forte
que forneça o substrato material para o bem-estar humano. Ao gerar riqueza, uma economia eficiente
abre caminhos para o florescimento humano que, de outra forma, seriam impossíveis. Por exemplo, uma
mudança da produção de energia baseada em carvão para a energia solar é cara. Além disso, a busca
por eficiência e geração de lucro pode ser uma área legítima de atividade para a excelência, e as pessoas
podem florescer nessa atividade.
O controle social é muitas vezes visto como problemático e em conflito com as liberdades individuais.
O uso de tecnologias de informação e comunicação (TICs) tem sido associado a violações de privacidade
e ao crescimento da vigilância (Lyon 2001).
Essa preocupação tradicionalmente via o Estado como fonte de vigilância. Nestes dias de gigantes
corporativos que controlam grande parte dos dados e da infraestrutura técnica necessária para a IA, a
preocupação inclui a exploração de indivíduos em novas formas de “capitalismo de vigilância” (Zuboff
2019). Mas, novamente, não precisa haver uma contradição entre controle social e florescimento humano.
Os seres humanos como seres sociais precisam definir formas de colaboração, o que inclui acordo sobre
códigos morais, e estes
Machine Translated by Google

3.3 Finalidades da IA 25

Fig. 3.2 Sobreposição


de propósitos de IA

Finalidade da IA

Eficiência,
otimização, Controle social
maximização do lucro

florescimento humano

precisam ser controlados e aplicados de alguma forma. Embora o nudging como instrumento de
política seja controverso, ele pode ser e frequentemente é usado para promover comportamentos que
conduzam ao florescimento, como a promoção de um estilo de vida mais saudável. Usado
especialmente no Reino Unido, Austrália, Alemanha e Estados Unidos (Benartzi et al. 2017), nudging
envolve campanhas lideradas pelo governo para atingir determinadas metas, por exemplo, taxas de
vacinação mais altas. Por exemplo, uma campanha nos EUA envolveu o envio de avisos de
planejamento para a vacinação contra a gripe aos cidadãos, o que aumentou as taxas de vacinação em 4,2% (ibid).
No domínio da tecnologia, a IA pode ser usada para promover a conscientização sobre privacidade
(Acquisti 2009), sem dúvida uma condição de florescimento. Enquanto escrevo estas frases, grande
parte do mundo está confinado devido à pandemia do COVID-19. No Reino Unido, há um debate
acalorado sobre aplicativos a serem usados para apoiar o rastreamento e rastreamento de indivíduos
infectados (Klar e Lanzerath 2020). O que isso mostra é que mesmo o controle social forçado por
meio de tecnologias digitais pode, em algumas circunstâncias, conduzir ao florescimento humano, por
exemplo, se puder ajudar a salvar vidas e permitir que a sociedade funcione.
Um diagrama do tipo Venn pode, portanto, ser uma representação melhor da relação dos três
propósitos (Fig. 3.2).
Devo enfatizar que os três propósitos da IA listados nas Figuras 3.1 e 3.2 não são intrinsecamente
contraditórios, mas descrevem os principais campos de ênfase ou diferentes direções de viagem que
podem orientar o desenvolvimento e a implantação da IA.
Minha proposta é que o objetivo explícito de fazer a coisa eticamente correta com a IA pode ser
descrito com referência ao florescimento humano.
Esta não é uma visão nova. Ele se baseia nos antigos filósofos gregos e tem sido aplicado às TIC
há décadas. Também foi aplicado à IA. Virginia Dignum (2019: 119), por exemplo, afirma: “Inteligência
Artificial Responsável é sobre a responsabilidade humana pelo desenvolvimento de sistemas
inteligentes ao longo de princípios e valores humanos fundamentais, para garantir o florescimento e o
bem-estar humanos em um mundo sustentável”. Mark Coeckelbergh (2019: 33) expressa uma visão
semelhante quando afirma que “precisamos de uma ética positiva e construtiva da IA, que não seja
apenas sobre regulamentação no sentido de restrições, mas que também diga respeito à questão da
vida boa e humana e florescimento social”. O princípio deste argumento não é problemático e
Machine Translated by Google

26 3 Conceitos de Ética e sua Aplicação à IA

também podem ser encontradas em propostas de políticas de IA (ALLEA e Royal Society


2019). Afinal, quem diria que deseja usar a IA para limitar o florescimento humano? No
entanto, levanta as questões: como podemos saber se o florescimento humano é promovido
ou alcançado e como isso pode ser traduzido na prática? Para responder a essas
perguntas, vou agora olhar para algumas posições teóricas sobre a tecnologia e seu papel
no mundo.

3.4 Perspectivas Teóricas sobre o Florescimento Humano

O florescimento da ética faz parte da tradição da ética das virtudes e tem suas raízes
históricas na ética aristotélica. Para responder à pergunta: “Como podemos entender o
cultivo da farinha em termos práticos?” é útil olhar para outras posições que compartilham
o objetivo de promover o florescimento humano. Três posições que foram aplicadas à
tecnologia, ou que foram desenvolvidas especificamente com pesquisa e desenvolvimento
tecnológico em mente, são importantes nesse contexto: teoria crítica da tecnologia, teoria
da capacidade e pesquisa e inovação responsáveis. Cada um desses três oferece uma
abordagem teórica estabelecida que é consistente com o florescimento humano e cada um
levou a uma riqueza de insights sobre como o florescimento pode ser observado e promovido.
A teoria crítica da tecnologia é meu primeiro exemplo de uma abordagem teórica
relevante para a IA que engloba o florescimento. A teoria crítica tem várias raízes diferentes
possíveis. Em seu espírito europeu, tende a traçar suas origens na crítica de Marx ao
capitalismo. Há uma recorrência do pensamento marxista em relação às tecnologias
digitais (Greenhill e Wilson 2006, Fuchs e Mosco 2017). No entanto, muito da teoria crítica
da tecnologia usa desenvolvimentos posteriores da teoria crítica, notadamente da Escola
de Frankfurt (Wiggershaus 1995). O trabalho de Andrew Feenberg (1993, 1999) é
provavelmente o exemplo mais conhecido do uso da teoria crítica para entender a
tecnologia moderna. Além disso, há uma longa discussão sobre a teoria crítica no campo
dos sistemas de informação, que se baseia em outras tradições teóricas, como o pós-
colonialismo (Mayasandra et al. 2006) e o pós-modernismo (Calás e Smircich 1999).

Em outro lugar, argumentei que uma característica central de combinação das várias
visões diferentes da teoria crítica é que elas visam promover a emancipação (Stahl 2008).
A intenção emancipatória da pesquisa crítica, ou seja, a pesquisa realizada na tradição
crítica, significa que a pesquisa resultante não pode ser confinada apenas à descrição,
mas tenta intervir e praticamente promover a emancipação (Cecez-Kecmanovic 2011).
Myers e Klein (2011), com base em Alvesson e Willmott (1992), veem a emancipação
como facilitadora da realização das necessidades e do potencial humano, da auto-reflexão
crítica e da autotransformação associada. O conceito de emancipação parece muito
próximo do princípio do florescimento humano discutido anteriormente. Minha razão para
trazer a teoria crítica para esta discussão é que a teoria crítica desenvolveu um conjunto
de ferramentas e um alto grau de sensibilidade para entender os fatores que podem impedir
a emancipação. Por causa de suas raízes na crítica da ideologia marxista, a teoria crítica
está bem posicionada para apontar os fatores que limitam a emancipação e o florescimento que
Machine Translated by Google

3.4 Perspectivas Teóricas sobre o Florescimento Humano 27

surgem do atual sistema socioeconômico, dos processos de trabalho e dos modos de


produção capitalistas. Como será visto mais tarde, estes constituem provavelmente o maior
conjunto de questões éticas associadas à IA.
Uma segunda posição teórica que vale a pena destacar no contexto do florescimento
humano é a teoria da capacidade. A teoria da capacidade tem raízes na filosofia e na
economia e está fortemente associada a Amartya Sen (2009) e Martha Nussbaum (2011).
A abordagem da capacidade originou-se na economia do desenvolvimento e no desejo de
encontrar melhores formas de descrever o desenvolvimento humano do que medidas
puramente financeiras e agregadas, como o produto interno bruto. Também está diretamente
ligado e baseado na noção aristotélica de florescimento (Johnstone 2007) e, portanto,
imediatamente relevante para uma discussão da ética da IA e do florescimento humano.
A razão para destacar a abordagem de capacidade é que ela tem um histórico de
aplicação às tecnologias da informação (Oosterlaken e van den Hoven 2012), muitas vezes
no contexto de estudos de TIC para o desenvolvimento e seu foco em populações
marginalizadas e vulneráveis (Kleine 2010). . Assim, pode ser usado como uma forma de
aguçar o foco no impacto que a IA pode ter nessas populações. Além disso, as comunidades
que trabalham com a abordagem de capacidade desenvolveram ferramentas para melhorar o
funcionamento e as liberdades humanas e para medir resultados que foram reconhecidos em
nível político, principalmente pelas Nações Unidas. Portanto, é adequado para a criação de
métricas que podem ser usadas para avaliar se os aplicativos e usos de IA beneficiam o
florescimento humano.
A posição teórica final relevante para a ética da IA e o florescimento humano é a da
pesquisa e inovação responsáveis (RRI). O RRI é um conceito que ganhou destaque na
governança de pesquisa e inovação desde o início dos anos 2010.
Foi definido como o “processo contínuo de alinhamento da pesquisa e inovação com os
valores, necessidades e expectativas da sociedade” (União Europeia 2014). Existem diferentes
interpretações de RRI (Owen e Pansera 2019), incluindo a da Comissão Europeia (2013), que
consiste em seis pilares ou chaves (engajamento, igualdade de gênero, educação científica,
ética, acesso aberto e governança), e a de o Conselho de Pesquisa em Engenharia e Ciências
Físicas do Reino Unido (Owen 2014), representado pela sigla AREA (antecipar, refletir,
engajar e agir), que se baseia em Stilgoe et al. (2013).

Uma definição muito citada de RRI proposta por Von Schomberg (2013: 63) vê RRI
como

um processo transparente e interativo pelo qual atores sociais e inovadores se tornam mutuamente
responsivos uns aos outros com vistas à aceitabilidade (ética), sustentabilidade e conveniência social
do processo de inovação e seus produtos comercializáveis (a fim de permitir uma incorporação
adequada de conhecimentos científicos e avanços tecnológicos em nossa sociedade).

A referência ao RRI é útil no contexto da ética da IA porque coloca a pesquisa e a inovação


explicitamente no contexto social. A ideia de que o processo e o produto da pesquisa e
inovação devem ser aceitáveis, sustentáveis e socialmente desejáveis pode ser interpretada
como implicando que eles devem ser propícios ao desenvolvimento humano. A RRI pode,
assim, ser entendida como uma forma de promover e implementar o florescimento humano.
RRI é importante no contexto deste livro porque é estabelecido como
Machine Translated by Google

28 3 Conceitos de Ética e sua Aplicação à IA

um termo em financiamento de pesquisa e familiar para os formuladores de políticas. Uma


proposta recente do Parlamento Europeu coloca grande ênfase no RRI como forma de garantir
sensibilidade ética em futuras pesquisas, desenvolvimento e implantação de IA. O Parlamento
Europeu (2020: 6) sugere que “o potencial da inteligência artificial, robótica e tecnologias
relacionadas … deve ser maximizado e explorado por meio de pesquisa e inovação responsáveis”.

O florescimento humano, no sentido amplo usado aqui, é algo que acredito que a maioria
das pessoas pode aceitar. Não nos compromete com um determinado modo de vida ou exige a
adoção de uma determinada posição ética. Isso não nos impede de usar outras teorias éticas,
incluindo deontologia e utilitarismo, para avaliar questões éticas (Bynum 2006). É compatível
com várias posições teóricas além das três (teoria crítica, teoria da capacidade, RRI) aqui
apresentadas. A escolha do florescimento humano foi guiada pela necessidade de encontrar
uma linguagem ética que possa encontrar tração nas fronteiras disciplinares, nacionais, culturais
e outras. As tecnologias de IA são globais e difundidas, mas têm impacto nos níveis local e
individual. Uma abordagem da ética da IA que visa fornecer orientação geral, portanto, precisa
ser capaz de construir pontes entre essas muitas divisões globais, o que espero que a ideia de
florescimento faça.

3.5 Princípios Éticos da IA

A tese principal deste livro é que a ética florescente pode iluminar a ética da IA e fornecer
orientação no desenvolvimento de intervenções práticas. A maioria das diretrizes atualmente
existentes não foram elaboradas a partir de um ponto de vista teórico, mas tendem a usar um
conjunto de princípios ou valores éticos. Quais são esses valores?
A revisão mais abrangente das diretrizes de ética da IA publicada até agora (Jobin et al.
2019) lista os seguintes princípios éticos: transparência, justiça e equidade, não maleficência,
responsabilidade, privacidade, beneficência, liberdade e autonomia, confiança, sustentabilidade,
dignidade e solidariedade. Cada um deles é composto de componentes.
Transparência, por exemplo, refere-se a conceitos relacionados como explicabilidade,
explicabilidade, compreensibilidade, interpretabilidade, comunicação e divulgação. A relação
entre esses conceitos normalmente não é bem definida e eles podem remeter a diferentes
posições éticas. Em outro lugar, tentamos esclarecer suas implicações normativas (Ryan e
Stahl 2020).
Outro exemplo, as diretrizes éticas para uma IA confiável propostas pelo Grupo de
Especialistas de Alto Nível da UE em Inteligência Artificial (2019), tem um nível de princípios
escalonado. O grupo de especialistas propõe uma estrutura para IA confiável que consiste em
IA legal (que eles não cobrem), IA ética e IA robusta. Essa estrutura é baseada em quatro
princípios éticos: respeito pela autonomia humana, prevenção de danos, justiça e explicabilidade.
A partir desses princípios, eles deduzem sete requisitos principais para a realização de uma IA
confiável, a saber:
Machine Translated by Google

3.5 Princípios Éticos da IA 29

1. agência humana e supervisão 2.


robustez técnica e segurança 3. privacidade
e governança de dados 4. transparência 5.
diversidade, não discriminação e justiça 6.
bem-estar social e ambiental 7. responsabilidade.

A partir deles, eles desenvolvem métodos de avaliação para IA e políticas confiáveis


recomendações.
É fácil ver a atração dessa abordagem baseada em princípios. Evita fazer fortes compromissos
com teorias éticas tipicamente contestadas. Os próprios princípios são geralmente incontroversos,
oferecendo assim a oportunidade de um consenso. Talvez o mais importante, a abordagem baseada
em princípios tem sido a base da ética biomédica, o campo da ética com a mais longa história de
debate público de alta visibilidade e necessidade de e intervenção política. A ética biomédica em sua
forma moderna resultou das atrocidades nazistas cometidas durante a pesquisa em humanos em
campos de concentração e do Código de Nuremberg (Freyhofer 2004) que abriu caminho para a
Declaração de Helsinki (World Medical Association 2008). Foi codificado e operacionalizado através
do Relatório Belmont (National Commission for the Protection of Human Subjects of Biomedical and
Behavioral Research 1979), que estabeleceu os princípios da ética biomédica que permanecem
dominantes no campo (Beauchamp e Childress 2009): autonomia, justiça, beneficência e não
maleficência.

A ética biomédica tem sido extremamente influente e sustenta a discussão dos direitos humanos
dos pacientes (Council of Europe 1997). Um aspecto crucial da ética biomédica é que ela foi
implementada por meio de um processo bem estabelecido de ética em pesquisa, com base na revisão
ética, conduzida por conselhos institucionais de revisão ou comitês de ética em pesquisa,
supervisionados por conselhos regionais ou nacionais e fortemente sancionados por financiadores de
pesquisa, editores e outros.
Não há dúvida de que essa força institucional da ética biomédica (de pesquisa) é um fator central
que orienta o debate sobre a ética da IA e leva a uma abordagem baseada em princípios que pode
ser observada na maioria das diretrizes. Esta posição dominante, no entanto, tem desvantagens. A
ética biomédica tem sido criticada dentro do campo biomédico como sendo excessivamente zelosa e
prejudicial à pesquisa (Klitzman 2015). A pesquisa empírica sobre ética em pesquisa biomédica
mostrou inconsistência no que diz respeito à aplicação de princípios (Stark 2011). E embora
amplamente incontestada no domínio biomédico, embora não completamente (Clouser e Gert 1990),
a aplicabilidade dessa abordagem à ética em outros domínios, como as ciências sociais, tem sido
veementemente contestada (Schrag 2010).

Há dois aspectos dessa discussão que valem a pena abordar sobre a ética da IA. Em primeiro
lugar, há a questão dos pressupostos implícitos da ética biomédica e sua aplicabilidade à IA. A ética
biomédica foi desenvolvida principalmente para proteger os direitos dos pacientes e participantes da
pesquisa. Isso é, sem dúvida, transferível para a IA, onde os indivíduos que recebem os sistemas de
IA são dignos de proteção. Mas porque a pesquisa biomédica visa predominantemente entender
doenças com vistas a encontrar curas, a ética biomédica está muito menos preocupada com o
propósito da pesquisa. Isto
Machine Translated by Google

30 3 Conceitos de Ética e sua Aplicação à IA

Geralmente, é dado como certo que a pesquisa biomédica persegue um objetivo eticamente louvável:
o de contribuir para a saúde humana e, portanto, para o bem-estar humano. As preocupações éticas,
portanto, não surgem desse objetivo em si, mas apenas das formas de alcançá-lo. No caso da pesquisa
técnica, incluindo a pesquisa em IA, não é nada óbvio que essa premissa implícita da pesquisa
biomédica seja aplicável. A suposição de que a pesquisa em si e suas consequências pretendidas são
eticamente aceitáveis e desejáveis precisa de muito mais questionamento e debate, lançando dúvidas
sobre se o processo de ética em pesquisa biomédica orientado a processos e baseado em princípios é
adequado para fundamentar a ética da IA sobre.

Em segundo lugar, o principialismo biomédico (Beauchamp e Childress 2009) deixa em aberto a


questão de como lidar com conflitos entre princípios. Este é um problema bem estabelecido para
qualquer abordagem ética baseada em um conjunto de princípios ou valores não hierárquicos. Na
maioria dos casos é possível imaginar situações em que estes entram em conflito. Olhando para os
princípios utilizados na IA, é fácil, por exemplo, imaginar um caso em que o princípio da transparência
entraria em conflito com o princípio da privacidade. A fim de orientar com sucesso a ação ou decisão, a
abordagem, portanto, precisa encontrar maneiras de lidar com tais conflitos. Além disso, o principialismo
foi criticado por estar excessivamente próximo de suas origens nos Estados Unidos e não ser
generalizável em todo o mundo (Schroeder et al. 2019).

Enquadrar a ética da IA em termos de prosperidade humana pode abordar ambas as preocupações.


Ao oferecer uma ambição ética abrangente, propõe um ponto de comparação que pode ajudar a lidar
com conflitos de valores. Também se alinha mais à ética de pesquisa do século 21, que tem se afastado
dos princípios ocidentais para valores globais (Schroeder et al. 2019). E, além disso, oferece uma
perspectiva que não assume que toda pesquisa e inovação tecnológica é desejável per se, mas
claramente coloca o florescimento como o objetivo primordial.

Referências

Acquisti A (2009) Nudging Privacy: The Behavioral Economics of Personal Information. IEEE Secure
Priv 7:82–85. https://doi.org/10.1109/MSP.2009.163
ALLEA, Royal Society (2019) Florescendo em uma sociedade habilitada por dados. https://royalsociety.org/-/
media/policy/Publications/2019/28-06-19-flourishing-in-data-enabled-society.pdf?la=en-GB&
hash=D521F71EB21F9369FAC26D7E1313398A. Acessado em 23 de setembro de 2020
Alvesson M, Willmott H (1992) Sobre a ideia de emancipação na gestão e organização
estudos. Acad Manage Rev 17:432–464
Annas J (1993) A moralidade da felicidade, New edn. Oxford University Press, Nova York Aristóteles
(2007) A ética a Nicômaco. Filiquarian Publishing, Minneapolis Bartsch B, Gottske M (nd) Sistema de
crédito social da China. Bertelsmann Stiftung. https://www.ber telsmann-stiftung.de/fileadmin/files/aam/Asia-
Book_A_03_China_Social_Credit_System.pdf.
Acessado em 25 de
setembro de 2020 Beauchamp TL, Childress JF (2009) Princípios de ética biomédica, 6ª ed. Universidade de Oxford
Imprensa, Nova York
Benartzi S, Beshears J, Milkman KL et al (2017) Os governos devem investir mais em incentivos?
Psychol Sci 28:1031–1040. https://doi.org/10.1177/2F0956797617702501
Bentham J (1789) Uma introdução aos princípios da moral e da legislação. Publicações de Dover,
Mineola NY
Machine Translated by Google

Referências 31

Bowie NE (1999) Ética empresarial: uma perspectiva kantiana. Blackwell Publishers, Malden, MA Brey P
(2011) Ética de tecnologia antecipada para TI emergente. Em: Mauger J (ed) CEPE 2011:
cruzando fronteiras. INSEIT, Nice, França, pp 13–26
Bynum T (2008a) Computador e ética da informação. In: Zalta EN (ed) Stanford Encyclopedia of
Filosofia. https://plato.stanford.edu/archives/fall2008/entries/ethics-computer/
Bynum TW (2006) Ética florescente. Ética Inf Technol 8:157–173 Bynum TW
(2008b) Norbert Wiener e o surgimento da ética da informação. In: van den Hoven J, Weckert J (eds) Tecnologia
da informação e filosofia moral, 1ª ed. Cambridge University Press, Cambridge, pp 8–25

Bynum TW, Rogerson S (2003) Ética informática e responsabilidade profissional: texto introdutório
e leituras. Blackwell Publishers, Cambridge, Reino Unido
Calás MB, Smircich L (1999) Pós-modernismo passado? reflexões e direções experimentais. Acad
Administre Rev 24:649–671. https://doi.org/10.2307/259347
Camerer CF, Loewenstein G, Rabin M (2004) Avanços na economia comportamental. Princeton University Press,
Princeton, NJ Capurro R (2006) Rumo a um fundamento ontológico da ética da informação. Ética Inf Technol

8:175–186. https://doi.org/10.1007/s10676-006-9108-0
Cath CJN, Wachter S, Mittelstadt B, Taddeo M, Floridi L (2016) Inteligência artificial e a “boa sociedade”: a
abordagem dos EUA, UE e Reino Unido. Rede de Pesquisa em Ciências Sociais, Rochester, NY

Cecez-Kecmanovic D (2011) Fazendo pesquisa em sistemas de informação crítica: argumentos para uma
metodologia de pesquisa crítica. Eur J Inf Syst 20:440–455. https://doi.org/10.1057/ejis.2010.67 Clouser KD,
Gert B (1990) Uma crítica do principialismo. J Med Philos 15:219–236. https://doi.org/10.
1093/jmp/15.2.219
Coeckelbergh M (2019) Inteligência artificial: algumas questões éticas e desafios regulatórios. Em: Tecnologia e
Regulamentação, pp 31–34. https://doi.org/10.26116/techreg.2019.003 Conselho da Europa (1997) A
Convenção de Oviedo: protegendo os direitos humanos no campo biomédico.
https://www.coe.int/en/web/bioethics/oviedo-convention. Acessado em 30 de outubro de 2018
Craglia M, Annoni A, Benczur P et al (2018) Inteligência artificial: uma perspectiva europeia.
Serviço das Publicações da União Europeia, Luxemburgo
Creemers R (2018) Sistema de crédito social da China: uma prática de controle em evolução. Ciências Sociais
Rede de Pesquisa, Rochester, NY
Dignum V (2019) Inteligência artificial responsável: como desenvolver e usar IA de forma responsável
caminho. Springer Nature Switzerland AG, Cham, Suíça
Comissão Europeia (2013) Opções para fortalecer a pesquisa e inovação responsáveis.
Serviço das Publicações da União Europeia, Luxemburgo
Parlamento Europeu (2020) Projeto de relatório com recomendações à Comissão sobre um quadro de aspectos
éticos da inteligência artificial, robótica e tecnologias relacionadas. Parlamento Europeu, Comissão dos
Assuntos Jurídicos. https://www.europarl.europa.eu/doceo/document/JURI-PR 650508_EN.pdf. Acessado em
25 de setembro de 2020
União Europeia (2014) Declaração de Roma sobre pesquisa e inovação responsáveis na Europa https://
ec.europa.eu/research/swafs/pdf/rome_declaration_RRI_final_21_November.pdf . Acessado em 24 de setembro
de 2020
Gabinete Executivo do Presidente (2016) Inteligência artificial, automação e economia. Gabinete Executivo do
Presidente dos Estados Unidos. https://obamawhitehouse.archives.gov/sites/whi tehouse.gov/files/documents/
Artificial-Intelligence-Automation-Economy.PDF. Acessado em 23 de setembro de 2020

Feenberg A (1993) Teoria crítica da tecnologia, Nova ed. Oxford University Press Inc, Nova York Feenberg A
(1999) Questioning technology, 1ª ed. Routledge, Londres Floridi L (2006) Ética da informação, sua natureza e
escopo. ACM SIGCAS Comput Soc 36:21–36 Freyhofer HH (2004) O julgamento médico de Nuremberg: o
Holocausto e a origem do Código Médico de Nuremberg, 2ª ed. revisada. Peter Lang Publishing Inc, Nova York
Machine Translated by Google

32 3 Conceitos de Ética e sua Aplicação à IA

Fuchs C, Mosco V (2017) Marx e a economia política da mídia: estudos em crítica social
ciência, reimpressão edn, vol 79. Haymarket Books, Chicago
Gilligan C (1990) Em uma voz diferente: teoria psicológica e desenvolvimento feminino, reedição.
Harvard University Press, Cambridge, MA Greenhill
A, Wilson M (2006) Haven or hell? Teletrabalho, flexibilidade e família na e-sociedade: uma análise marxista. Eur J
Inf Syst 15:379–388 Heidegger M (1993) Sein und Zeit, 14th edn. Max Niemeyer Verlag GmbH & Co KG, Tübingen
Grupo de especialistas de alto nível em inteligência artificial (2019) Diretrizes de ética para uma IA confiável.
Comissão Europeia, Bruxelas. https://ec.europa.eu/newsroom/dae/document.cfm?doc_ id=60419. Acessado em 25
de setembro de 2020

Câmara dos Lordes (2018) IA no Reino Unido: pronta, disposta e capaz? HL Paper 100. Select Committee on Artificial
Intelligence, House of Lords, Parliament, London. https://publications.parliament.uk/pa/ld201719/ldselect/ldai/
100/100.pdf . Acessado em 23 de setembro de 2020 Isaak J, Hanna MJ (2018) Privacidade de dados do usuário:
Facebook, Cambridge Analytica e proteção de privacidade. Computador 51:56–59. https://doi.ieeecomputersociety.org/
10.1109/MC.2018.3191268 Jobin A, Ienca M, Vayena E (2019) O cenário global das diretrizes de ética da IA. Nat
Mach Intel
1:389–399. https://doi.org/10.1038/s42256-019-0088-2
Johnstone J (2007) Tecnologia como capacitação: uma abordagem de capacidade para a ética do computador. Ética
Inf Technol 9:73–87
Kant I (1788) Kritik der praktischen Vernunft. Reclam, Ditzingen, Alemanha Kant I (1797)
Grundlegung zur Metaphysik der Sitten. Reclam, Ditzingen, Alemanha Klar R, Lanzerath D (2020) A
ética dos aplicativos de rastreamento COVID-19: desafios e voluntariedade.
In: Ética em pesquisa. https://doi.org/10.1177/2F1747016120943622
Kleine D (2010) ICT4WHAT? Usando a estrutura de escolha para operacionalizar a abordagem de capacidade para
o desenvolvimento. J Int Dev 22:674–692. https://doi.org/10.1002/jid.1719 Klitzman R (2015) A polícia ética? A luta
para tornar a pesquisa humana segura, 1ª ed. Oxford University Press, Nova York Liu C (2019) Vários sistemas de
crédito social na China. Rede de Pesquisa em Ciências Sociais, Rochester,

Nova Iorque

Lyon D (2001) Sociedade de vigilância: monitorando a vida cotidiana. Open University Press, Buckingham,
Reino Unido

MacIntyre AC (2007) Depois da virtude: um estudo em teoria moral. Imprensa da Universidade de Notre Dame, Notre
Senhora, IN
Mayasandra R, Pan SL, Myers MD (2006) Vendo organizações de terceirização de tecnologia da informação através
de uma lente pós-colonial. In: Trauth E, Howcroft D, Butler T et al (eds) Inclusão social: implicações sociais e
organizacionais para sistemas de informação. Springer Science+Business Media, Nova York, pp 381–396

Mill JS (1861) Utilitarianism, 2ª ed. revisada. Hackett Publishing Co, Indianapolis Mullainathan S,
Thaler RH (2000) Economia comportamental. NBER Working Paper No. 7948. National Bureau of Economic Research,
Cambridge MA Myers MD, Klein HK (2011) Um conjunto de princípios para conduzir pesquisas críticas em
informações
sistemas. MIS Q 35:17–36
Comissão Nacional para a Proteção de Seres Humanos em Pesquisas Biomédicas e Comportamentais (1979)
Relatório Belmont: princípios éticos e diretrizes para a proteção de seres humanos em pesquisas. US Government
Printing Office, Washington DC Nussbaum MC (2011) Criando capacidades: a abordagem do desenvolvimento
humano. Harvard University Press, Cambridge, MA Oosterlaken I, van den Hoven J (eds) (2012) A abordagem de
capacidade, tecnologia e design.

Springer, Dordrecht, Holanda


Owen R (2014) O compromisso do UK Engineering and Physical Sciences Research Council com uma estrutura para
inovação responsável. J Responsável Innov 1:113–117. https://doi.org/10.1080/ 23299460.2014.882065
Machine Translated by Google

Referências 33

Owen R, Pansera M (2019) Inovação responsável e pesquisa e inovação responsáveis. In: Simon D, Kuhlmann S, Stamm J,
Canzler W (eds) Handbook on science and public policy. Edgar Elgar, Cheltenham Reino Unido, pp 26–48

Ryan M, Stahl BC (2020) Diretrizes éticas de inteligência artificial para desenvolvedores e usuários: esclarecendo seu conteúdo
e implicações normativas. J Inf Comun Ethics Soc. https://doi.org/10.1108/ JICES-12-2019-0138

Schrag ZM (2010) Imperialismo ético: conselhos institucionais de revisão e ciências sociais, 1965–2009, 1ª ed. Johns Hopkins
University Press, Baltimore, MD Schroeder D, Chatfield K, Singh M et al (2019) Parcerias de pesquisa equitativas: um código
de conduta global para combater o dumping ético. Springer Nature, Cham, Suíça

Sen A (2009) A ideia de justiça. Allen Lane, Londres Stahl BC (2008)


A natureza ética da pesquisa crítica em sistemas de informação. Inf Syst J 18:137–163.
https://doi.org/10.1111/j.1365-2575.2007.00283.x
Stahl BC (2012) Moralidade, ética e reflexão: uma categorização da pesquisa normativa em SI. J Assoc
Inf Syst 13:636–656. https://doi.org/10.17705/1jais.00304
Stark L (2011) Atrás de portas fechadas: IRBs e a realização de pesquisas éticas, 1ª ed. Universidade
da Chicago Press, Chicago
Stilgoe J, Owen R, Macnaghten P (2013) Desenvolvendo uma estrutura para inovação responsável. res
Política 42:1568–1580. https://doi.org/10.1016/j.respol.2013.05.008
Vallor S (2016) A tecnologia e as virtudes: um guia filosófico para um futuro que vale a pena desejar. Oxford
University Press, New York Van de
Poel I, Royakkers L (2011) Ética, tecnologia e engenharia: uma introdução. wiley
Blackwell, Chichester, Reino Unido
van den Hoven J (2010) O uso de teorias normativas na ética do computador. In: Floridi L (ed) O manual de Cambridge de
informação e ética informática. Cambridge University Press, Reino Unido, pp 59–76

Von Schomberg R (2013) Uma visão de pesquisa e inovação responsáveis. In: Owen R, Heintz M,
Bessant J (eds) Inovação responsável. Wiley, Chichester, Reino Unido, pp 51–74
Wiener N (1954) O uso humano de seres humanos. Doubleday, Nova York Wiggershaus R
(1995) A Escola de Frankfurt: sua história, teoria e significado político, Nova ed.
Polity Press, Associação
Médica Mundial de Londres (2008) Declaração de Helsinque: princípios éticos para pesquisa médica envolvendo seres
humanos. https://web.archive.org/web/20091016152009/http://www.wma.net/ en/30publications/10policies/b3/ Acessado em
24 de setembro de 2020
Zuboff PS (2019) A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira
de poder. Profile Books, Londres

Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons Attribution 4.0 (http://
creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento, adaptação, distribuição e reprodução em
qualquer meio ou formato, desde que você dê os devidos créditos ao(s) autor(es) original(ais) e à fonte, forneça um link para a
licença Creative Commons e indique se foram feitas alterações.

As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons do capítulo, a
menos que indicado de outra forma em uma linha de crédito para o material. Se o material não estiver incluído na licença
Creative Commons do capítulo e seu uso pretendido não for permitido pela regulamentação estatutária ou exceder o uso
permitido, você precisará obter permissão diretamente do detentor dos direitos autorais.
Machine Translated by Google

Capítulo 4
Questões éticas da IA

Resumo Este capítulo discute as questões éticas levantadas pelo desenvolvimento,


implantação e uso da IA. Ele começa com uma revisão dos benefícios (éticos) da IA e, em
seguida, apresenta as descobertas do projeto SHERPA, que usou estudos de caso e um estudo
Delphi para identificar o que as pessoas consideravam questões éticas. Eles são discutidos
usando a categorização de tecnologias de IA introduzida anteriormente. Relatos detalhados são
fornecidos sobre questões éticas decorrentes do aprendizado de máquina, da inteligência
artificial geral e de sistemas sócio-técnicos mais amplos que incorporam IA.

Palavras -chave Questões éticas da IA · Ética empírica · Ética e aprendizado de máquina ·


Ética da sociedade digital · Questões metafísicas

O florescimento humano como fundamento da ética da IA forneceu a base fundamental para


este livro. Agora estamos bem equipados para explorar questões éticas na prática. Isso significa
que agora passamos do conceitual para o empírico. Em uma primeira etapa, darei uma visão
geral das questões éticas, que classificarei de acordo com a categorização anterior de conceitos
de IA.

4.1 Benefícios éticos da IA

Quando falamos de questões éticas da IA, tende a haver uma suposição implícita de que
estamos falando de coisas moralmente ruins. E, claro, a maior parte do debate sobre IA gira
em torno desses resultados moralmente problemáticos que precisam ser abordados. No
entanto, vale destacar que a IA promete inúmeros benefícios. Conforme observado
anteriormente, muitos documentos de política de IA concentram-se nos benefícios econômicos
da IA que devem surgir de níveis mais altos de eficiência e produtividade. Esses são valores
éticos na medida em que prometem níveis mais altos de riqueza e bem-estar que permitirão
que as pessoas vivam vidas melhores e, portanto, podem ser favoráveis ou mesmo necessários para o florescim
Vale ressaltar que isso implica certos níveis de distribuição de riqueza e certas suposições
sobre o papel da sociedade e do Estado na redistribuição da riqueza em

© O(s) autor(es) 2021 35


BC Stahl, Artificial Intelligence for a Better Future,
SpringerBriefs in Research and Innovation Governance,
https://doi.org/10.1007/978-3-030-69978-9_4
Machine Translated by Google

36 4 questões éticas da IA

maneiras eticamente aceitáveis que devem ser explicitadas. O Grupo de Especialistas de Alto
Nível da UE em IA (2019: 4) deixa isso muito claro quando afirma:
A IA não é um fim em si mesma, mas um meio promissor para aumentar o florescimento
humano, melhorando assim o bem-estar individual e social e o bem comum, além de trazer
progresso e inovação.

A IA oferece vários outros recursos técnicos que podem trazer benefícios éticos imediatos.
O International Risk Governance Center (2018) nomeia a proeza analítica da IA, ou seja, a
capacidade de analisar quantidades e fontes de dados que os humanos simplesmente não
conseguem processar. A IA pode vincular dados, encontrar padrões e gerar resultados em
domínios e limites geográficos. A IA pode ser mais consistente do que os humanos, adaptar-
se rapidamente às mudanças de entrada e liberar os humanos de tarefas tediosas ou
repetitivas. Todos esses são exemplos de capacidades técnicas que podem ser facilmente
entendidas como conducentes ao florescimento humano porque levam a uma melhor
compreensão e percepções mais profundas de vários fenômenos. Por exemplo, reduzir o
tempo de deslocamento ou aumentar a eficácia dos filtros de spam de e-mail são dois
exemplos cotidianos de onde a IA pode facilitar a vida de profissionais ocupados (Faggella 2020).
Além desses exemplos de benefícios éticos incidentais, ou seja, benefícios que surgem
como efeito colateral das capacidades técnicas da IA, há tentativas crescentes de utilizar a IA
especificamente para fins éticos. Atualmente, isso é feito sob o título de “AI for Good” (Berendt
2019). O principal desafio que a AI for Good enfrenta é definir o que conta como (eticamente)
bom. Em um mundo pluralista, muitas vezes pode não haver muito acordo sobre o que é bom
ou por que seria considerado bom. No entanto, houve inúmeras tentativas (por exemplo,
Holmes et al. 2011) para identificar bens ou valores éticos compartilhados, como benevolência,
segurança, realização e autodireção.
Pode-se observar duas abordagens diferentes para identificar os bens éticos que a IA teria
de promover para contar como IA para o bem: bens substantivos e procedimentos para
alcançá-los. Bens substantivos são aqueles resultados práticos que são universalmente, ou
pelo menos amplamente, aceitos como bons. O exemplo dominante de tais bens morais
substantivos são os Objetivos de Desenvolvimento Sustentável (ODS) da ONU (Griggs et al. 2013).
Este conjunto de 17 objetivos abrangentes foi descrito como “o melhor plano do mundo para
construir um mundo melhor para as pessoas e para o nosso planeta” (Nações Unidas 2020).
Surgiu de décadas de discussão sobre política de desenvolvimento e sustentabilidade e
evoluiu dos Objetivos de Desenvolvimento do Milênio da ONU (Sachs 2012). Os ODS são
interessantes do ponto de vista da ética da IA porque podem ser entendidos como a coisa
mais próxima do consenso da humanidade em termos de objetivos morais. Eles foram
adotados pela ONU e pela maioria dos Estados membros e agora têm uma presença marcante
nos debates éticos. Além disso, eles não são apenas aspiracionais, mas divididos em metas
e medidos por indicadores e relatados anualmente pela ONU e pelos Estados membros.
Portanto, não é surpreendente que uma das tentativas mais visíveis de promover AI for Good
pela União Internacional de Telecomunicações da ONU, a série AI for Good Global Summit,1
tenha como slogan “Acelerando os Objetivos de Desenvolvimento Sustentável das Nações Unidas”.
Embora os ODS sejam uma medida dominante do benefício ético da IA, vale ressaltar que
eles não são os únicos bens morais sobre os quais existe amplo consenso.

1https://aiforgood.itu.int/.
Machine Translated by Google

4.1 Benefícios éticos da IA 37

Outro grande corpo de trabalho que indica amplo acordo global é construído em torno dos direitos
humanos (Latonero 2018). Assim como os ODS, estes foram desenvolvidos pela ONU e codificados.
Além disso, os direitos humanos tornaram-se, em muitos casos, aplicáveis por meio da legislação
nacional e dos tribunais locais. Defender os direitos humanos é uma condição para o florescimento
humano (Kleinig e Evans 2013)
Os ODS e os direitos humanos são duas formas de determinar os benefícios éticos da IA.
Eles, portanto, desempenham um papel crucial na discussão de como os benefícios e as questões
éticas podem ser equilibrados, como mostrarei com mais detalhes abaixo quando chegarmos à
discussão de como as questões éticas podem ser abordadas.

4.2 Relatos empíricos de questões éticas da IA

Existem inúmeros relatos sobre as questões éticas da IA, principalmente desenvolvimentos de uma
longa tradição de discutir ética e IA na literatura (Coeckel bergh 2019, Dignum 2019, Müller 2020), mas
cada vez mais também surgindo de uma perspectiva política (High- Grupo de especialistas de nível em
AI 2019). Neste livro e no projeto SHERPA2 que sustenta grande parte do argumento, o objetivo era ir
além das revisões de literatura e descobrir empiricamente o que as pessoas têm em mente quando
falam das questões éticas da IA. Vou me concentrar aqui em dez estudos de caso e no primeiro estágio
aberto de um estudo Delphi para entender melhor como a ética da IA é percebida por pessoas que
trabalham com e em sistemas de IA.

O nível de análise dos estudos de caso foi definido como organizações que fazem uso de IA. Os
estudos de caso são uma metodologia recomendada para fornecer respostas ao “como” e ao “porquê”
de um fenômeno e eventos sobre os quais o pesquisador tem pouco ou nenhum controle (Yin 2003a,
b). Para obter uma compreensão ampla, um conjunto de áreas de aplicação da IA foi definido e as
organizações de estudo de caso identificadas de acordo. Usando essa metodologia, os estudos de caso
cobriram os seguintes domínios sociais:

• monitoramento e administração de funcionários •


governo • agricultura • desenvolvimento sustentável •
ciência • seguros • energia e serviços públicos •
comunicações, mídia e entretenimento • comércio
varejista e atacadista • manufatura e recursos naturais

Para cada caso, foram entrevistados no mínimo dois membros da organização, com o objetivo de
envolver pelo menos um especialista técnico que entendesse o sistema e um entrevistado com
experiência gerencial ou organizacional. Ao todo, para os dez

2https://www.project-sherpa.eu/
Machine Translated by Google

38 4 questões éticas da IA

estudos de caso, 42 indivíduos foram entrevistados. Com base no rascunho inicial do relatório de
cada caso, foi realizada uma revisão por pares entre a equipe de pesquisa, para garantir que os
casos fossem consistentes e comparáveis. Para uma visão geral detalhada dos métodos,
descobertas e resultados da pesquisa de estudo de caso, consulte Macnish et al. (2019)
A segunda parte da pesquisa que informa este capítulo foi a primeira etapa de um estudo
Delphi de três etapas. Os estudos Delphi são uma metodologia bem estabelecida para encontrar
soluções para problemas complexos e multifacetados (Dalkey et al. 1969, Adler e Ziglio 1996,
Linstone e Turoff 2002). Eles são tipicamente baseados em especialistas e são usados para
encontrar consenso entre uma população de especialistas sobre uma questão complexa e para
produzir conselhos para os tomadores de decisão. Os estudos Delphi normalmente envolvem
várias rodadas de interação, começando com questões amplas e abertas, que são então reduzidas
e priorizadas.
A visão geral das questões éticas da IA que informa minha discussão baseia-se nas respostas
à pergunta na primeira rodada de nosso estudo Delphi. Isso foi enviado a 250 especialistas em
ética e IA, selecionados entre várias partes interessadas, incluindo especialistas técnicos,
representantes da indústria, formuladores de políticas e grupos da sociedade civil.
Destes, 93 se envolveram com a pesquisa online. Um total de 41 respostas utilizáveis foram
analisadas. A pergunta aberta que foi feita foi: “Quais você acha que são as três questões éticas
ou de direitos humanos mais importantes levantadas pela IA e/ou big data?”
A análise e os resultados da primeira rodada foram publicados e compartilhados com os
participantes do Delphi (Santiago 2020). Essas descobertas foram então combinadas com as
obtidas a partir da análise de dados do estudo de caso. Por meio de discussões em grupo,
questões relevantes semelhantes foram combinadas e receberam nomes ou rótulos adequados
para garantir que fossem distintas e reconhecíveis. Para cada um deles foi fornecida uma breve
definição de um parágrafo.
A lista a seguir enumera todas as questões éticas que foram identificadas nos estudos de caso
e no estudo Delphi, totalizando 39.

1. Custo da inovação 2.
Danos à integridade física 3. Falta de
acesso a serviços públicos 4. Falta de
confiança 5. “Despertar” da IA 6. Problemas
de segurança 7. Falta de dados de qualidade
8. Desaparecimento de empregos 9.
Assimetrias de poder 10. Impacto negativo
na saúde 11. Problemas de integridade 12.
Falta de precisão dos dados 13. Falta de
privacidade 14. Falta de transparência 15.
Potencial para uso militar 16. Falta de
consentimento informado 17. Preconceito e
discriminação
Machine Translated by Google

4.2 Relatos empíricos de questões éticas da IA 39

18. Desigualdade
19. Relações de poder desiguais 20.
Uso indevido de dados pessoais 21.
Impacto negativo no sistema de justiça 22.
Impacto negativo na democracia 23. Potencial
para uso criminoso e malicioso 24. Perda de liberdade e
autonomia individual 25. Propriedade contestada de dados
26 Redução do contato humano 27. Problemas de controle
e uso de dados e sistemas 28. Falta de precisão das
recomendações preditivas 29. Falta de precisão das recomendações
não individuais 30. Concentração do poder econômico 31. Violação
dos direitos humanos fundamentais na cadeia de suprimentos 32.
Violação dos direitos humanos fundamentais dos usuários finais 33.
Impactos adversos não intencionais e imprevisíveis 34. Priorização dos
problemas “errados” 35. Impacto negativo em grupos vulneráveis 36. Falta
de responsabilidade e responsabilidade 37. Impacto negativo no meio
ambiente 38. Perda de tomada de decisão humana 39. Falta de acesso e
liberdade de informação

Há várias observações que poderiam ser feitas sobre esta lista. Embora na maioria dos casos se
possa aceitar intuitivamente que as questões podem ser vistas como eticamente relevantes, nenhum
contexto ou razão é fornecido para explicar por que elas são percebidas como eticamente problemáticas.
Muitos deles não são apenas eticamente problemáticos, mas também diretamente ligados à
regulamentação e à legislação. Sendo uma questão ética, portanto, claramente não exclui uma dada
preocupação de ser uma questão legal ao mesmo tempo.
As questões éticas são, além disso, altamente diversas em sua especificidade e probabilidade de
ocorrência. Alguns certamente acontecerão, como problemas relacionados à proteção ou precisão de
dados. Outros são concebíveis e prováveis, como uso indevido ou falta de confiança. No entanto,
outros são um tanto difusos, como um impacto negativo na democracia ou na justiça.
Em alguns casos, é fácil ver quem deve lidar com os problemas, enquanto em outros isso não é tão
claro. Esta lista unidimensional de questões éticas é, portanto, interessante como uma primeira visão
geral, mas precisa ser processada posteriormente para ser útil ao considerar como essas questões
podem ser abordadas e quais são as prioridades.
É possível mapear as questões éticas para os diferentes significados do conceito de IA, conforme
descrito na Figura 2.1, pois muitas das questões estão ligadas às características dos diferentes
significados, conforme destacado na Figura 2.2. Eu, portanto, distingo três conjuntos diferentes de
questões éticas: aquelas decorrentes do aprendizado de máquina, questões gerais relacionadas à
vida em um mundo digital e questões metafísicas (ver Fig. 4.1).
A Figura 4.1 indica a relação entre as diferentes categorias de IA apresentadas no Capítulo 2 e
as questões éticas que serão discutidas na próxima seção. Essa relação é indicativa e deve ser
entendida como heurística,
Machine Translated by Google

40 4 questões éticas da IA

Problemas específicos
perguntas metafísicas
decorrentes do aprendizado de máquina

Aprendizado

de máquina IA geral
(IA estreita)
Usos do
termo IA

Convergindo
sócio-técnico

sistemas

Questões gerais sobre como viver


em um mundo digital

Fig. 4.1 Conceitos de IA e questões éticas que eles levantam

ou seja, resolução de problemas, pois as relações na prática são mais complexas e não necessariamente
tão lineares quanto a figura pode sugerir.

4.3 Questões éticas decorrentes do aprendizado de máquina

O primeiro conjunto de problemas consiste naqueles que surgem dos recursos do aprendizado de máquina.
Muitas das técnicas de aprendizado de máquina que levaram ao sucesso atual da IA são baseadas em
redes neurais artificiais. As características dessas abordagens que dão origem a preocupações éticas são
a opacidade, a imprevisibilidade e a necessidade de grandes conjuntos de dados para treinar as tecnologias.
Nem o desenvolvedor, nem o implantador nem o usuário (veja o quadro) normalmente podem saber com
antecedência como o sistema reagirá a um determinado conjunto de entradas. E como o sistema aprende
e, portanto, é adaptativo e dinâmico, os comportamentos passados não são um preditor perfeito para o
comportamento futuro em situações idênticas.

Desenvolvedor, implantador e usuário

A maioria dos trabalhos atuais de política de IA distingue entre desenvolvedores, implantadores e


usuários (Parlamento Europeu 2020). O desenvolvedor é o especialista técnico (ou organização)
que constrói o sistema. O implantador é quem decide seu uso e assim tem controle sobre riscos e
benefícios. No caso de um veículo autônomo, por exemplo, o desenvolvedor pode ser o fabricante

do carro e o implantador pode ser uma organização que oferece serviços de mobilidade. Um usuário
é aquele que se beneficia dos serviços. Essas funções podem coincidir e um desenvolvedor pode
Machine Translated by Google

4.3 Questões éticas decorrentes do aprendizado de máquina 41

seja um implantador. Fazer a distinção parece razoável, no entanto, porque pode-se esperar que
um desenvolvedor tenha uma compreensão detalhada da tecnologia subjacente, enquanto o
implantador pode ter muito menos percepção.

Uma questão ética primária e frequentemente citada é a da privacidade e proteção de dados.


Privacidade e proteção de dados não são idênticas (Buttarelli 2018), mas para fins de ética da IA, a principal
preocupação com a privacidade é a privacidade informacional, e a proteção de dados pode ser entendida
como um meio de salvaguardar a privacidade informacional. A IA baseada em aprendizado de máquina
apresenta vários riscos à proteção de dados. Por um lado, ele precisa de grandes conjuntos de dados para
fins de treinamento e o acesso a esses conjuntos de dados pode levantar questões de proteção de dados.
Mais interessante e mais específico da IA é o problema de que a IA e sua capacidade de detectar padrões
podem representar riscos à privacidade, mesmo quando não é possível o acesso direto aos dados pessoais.
O clássico estudo de Jernigan e Mistree (2009) afirmando ser capaz de identificar orientação sexual a partir
de amizades no Facebook é um bom exemplo.
Não obstante os méritos éticos e científicos deste estudo em particular, é fácil ver que a IA pode ser usada
para gerar insights que levantam questões de privacidade. A IA também tem o potencial de permitir a
reidentificação de dados pessoais anonimizados de maneiras que não foram previstas antes que os
recursos do aprendizado de máquina se tornassem aparentes. Embora a lei de proteção de dados esteja
bem estabelecida na maioria das jurisdições, a IA tem o potencial de criar novas formas de proteção de
dados riscos não previstos na legislação e, assim, criar novas preocupações éticas. A IA também pode
usar ou gerar tipos de dados pessoais atualmente menos empregados, como dados pessoais emocionais,
agravando ainda mais a situação (Tao et al. 2005, Flick 2016).

As preocupações com a proteção de dados estão diretamente ligadas às questões de segurança de


dados. A segurança cibernética é um problema perene das TIC, não apenas da IA. No entanto, os sistemas
de IA podem estar sujeitos a novos tipos de vulnerabilidades de segurança, como ataques de
envenenamento de modelo (Jagielski et al. 2018). Além disso, esses sistemas podem ser usados para
novos tipos de detecção e exploração de vulnerabilidades (Krafft et al. 2020).
Questões de privacidade e proteção de dados apontam, portanto, para questões mais amplas de
confiabilidade em sistemas de IA. Embora a confiabilidade seja uma preocupação para todos os artefatos
técnicos, a opacidade dos sistemas de aprendizado de máquina e sua imprevisibilidade significam que os
regimes de testes determinísticos tradicionais podem não ser aplicáveis a eles. As saídas dos sistemas de
aprendizado de máquina dependem da qualidade dos dados de treinamento, que podem ser difíceis de determinar.
A integridade dos dados pode ser ameaçada por brechas de segurança, mas também por aspectos técnicos
ou organizacionais. Isso significa que a confiabilidade dos sistemas de aprendizado de máquina pode
precisar ser avaliada de maneiras diferentes de outros tipos de sistemas, o que pode ser uma questão
ética, se a saída do sistema afetar o valor ético. Por exemplo, um sistema de IA usado para a identificação
de marcadores de doenças em patologia pode funcionar bem em condições de pesquisa, com dados de
treinamento bem rotulados e funcionar no nível de um patologista treinado, ou ainda melhor, nessas
condições. Isso não garante que o mesmo sistema usando o mesmo modelo tenha um bom desempenho
em condições clínicas, o que pode ser uma das razões pelas quais, apesar da grande promessa que a IA
Machine Translated by Google

42 4 questões éticas da IA

vale para a medicina, existem relativamente poucos sistemas de IA já na prática clínica (Topol 2019).

Os sistemas de aprendizado de máquina não são, por definição, transparentes, ou pelo menos não
são transparentes da maneira que outros sistemas de TIC poderiam ser. Onde são sistemas proprietários,
a confidencialidade comercial de algoritmos e modelos pode limitar ainda mais a transparência.
“Transparência” é em si um termo contestado, mas a falta de transparência levanta questões de
responsabilidade (USACM 2017). A falta de transparência torna mais difícil reconhecer e abordar questões
de preconceito e discriminação.
O viés é uma preocupação ética muito citada relacionada à IA (CDEI 2019). Um dos principais desafios
é que os sistemas de aprendizado de máquina podem, intencionalmente ou inadvertidamente, resultar na
reprodução de vieses já existentes. Existem inúmeros relatos de alto nível de tais casos, por exemplo,
quando os preconceitos de gênero no recrutamento são replicados por meio do uso de aprendizado de
máquina ou quando os preconceitos raciais são perpetuados por meio de aprendizado de máquina em
processos de liberdade condicional (Raso et al. 2018). A discriminação com base em certas características
(às vezes chamadas de protegidas) não é apenas uma questão ética, mas há muito tempo é reconhecida
como uma violação dos direitos humanos e, portanto, tal discriminação tende a ser ilegal em muitas
jurisdições. Como a IA representa um risco para esse direito humano, tem havido um foco em destacar o
potencial do aprendizado de máquina para infringir o direito à igualdade e à não discriminação (Access Now
Policy Team2018).
A segurança também é uma questão ética fundamental do aprendizado de máquina, em particular em
sistemas que interagem diretamente com o mundo físico, como veículos autônomos (BmVI 2017) ou
sistemas que regem a prestação de cuidados de saúde críticos. Embora atualmente não seja muito visível
no debate público, a segurança certamente emergirá com destaque quando os sistemas habilitados para
aprendizado de máquina começarem a se envolver fisicamente com humanos de maneira mais ampla.
As questões éticas definidas nesta seção estão diretamente relacionadas às características técnicas
do aprendizado de máquina. Existem, no entanto, inúmeras outras preocupações éticas que estão menos
claramente ligadas ao aprendizado de máquina, muitas das quais têm a ver com as características de
sistemas sociotécnicos mais amplos que são discutidos na próxima seção.

4.4 Questões Gerais Relacionadas à Vida em um Mundo Digital

O segundo conjunto de questões éticas consiste naqueles que se relacionam com o que chamei de “IA

como sistemas sociotécnicos convergentes”. Na Seção 2.3, sugeri que esses sistemas têm as características
de autonomia, impacto social e manipulação. Para ser claro, a distinção é analítica, pois os sistemas
sociotécnicos convergentes não são separados dos sistemas de aprendizado de máquina, mas tendem a
incluí-los e a se basear no aprendizado de máquina e em outros recursos de IA. A diferença é mais de
perspectiva, onde o termo “aprendizado de máquina” é usado para focar em tecnologias específicas para
aplicações definidas, enquanto os sistemas sociotécnicos convergentes tendem a envolver inúmeras
tecnologias e seu foco está no impacto social que elas causam.

Escolhi o rótulo “viver em um mundo digital” para descrever essas questões, a fim de deixar claro que a
maioria delas, embora ligadas à IA, não necessariamente se limitam à IA. Essas questões estão ligadas a
decisões sociais e políticas mais amplas sobre como
Machine Translated by Google

4.4 Questões Gerais Relacionadas à Vida em um Mundo Digital 43

estruturar e usar grandes sistemas sócio-técnicos. Eles não podem, portanto, ser vistos
separados de seu papel social, e muitas das questões éticas são causadas diretamente pela
maneira como a sociedade e seus atores trabalham com essas tecnologias.
Um conjunto inicial de questões que surgem da vida em um mundo digital está relacionado
à economia. O mais proeminente entre estes provavelmente diz respeito ao (des)emprego.
O potencial das tecnologias relacionadas à IA para criar uma nova onda de automação e,
assim, substituir empregos há muito é reconhecido (Collins , 1990). Na verdade, Norbert Wiener
sugeriu que os computadores competindo com os humanos por empregos teriam consequências
terríveis para o emprego: “É perfeitamente claro que isso produzirá uma situação de
desemprego, em comparação com a qual a atual recessão e até a depressão dos anos trinta
parecerão uma piada agradável” (Wiener 1954: 162).
Embora essa previsão sombria (ainda) não tenha acontecido, teme-se que a IA afete
negativamente o emprego. A novidade na ameaça percebida da IA, que difere dos temores
semelhantes anteriores sobre as TIC em geral ou outras tecnologias de automação, é que os
empregos atualmente sob aparente ameaça são os que pagam melhor: a IA pode colocar cada
vez mais em risco a renda dos profissionais de classe média (Boden 2018).
Perder o emprego não é, obviamente, apenas um problema econômico; também tem aspectos
sociais e psicológicos (Kaplan e Haenlein 2019). As consequências reais da introdução da IA
para o mercado de trabalho são, pelo menos em parte, uma questão empírica. Os resultados
podem ser diferentes do esperado: os empregos podem não desaparecer, mas mudar (AI Now
Institute 2017) e novos empregos podem ser criados, o que pode levar a novas questões de
justiça e distribuição (House of Lords 2018).
Os impactos econômicos da IA não se limitam ao emprego. Outra preocupação importante
é a concentração do poder econômico (e, por implicação, político). A dependência dos atuais
sistemas de IA em grandes recursos de computação e grandes quantidades de dados significa
que as organizações que possuem ou têm acesso a tais recursos estão bem posicionadas para
se beneficiar da IA. A concentração internacional desse poder econômico entre as grandes
empresas de tecnologia é independente da IA, mas as tecnologias relacionadas à IA têm o
potencial de exacerbar o problema (Nemitz 2018).
Essas mudanças podem não ser apenas quantitativas, ou seja, relacionadas à capacidade
das grandes empresas de obter ainda mais lucros do que antes do uso da IA, mas também
podem ser qualitativamente diferentes. O conceito de Zuboff (2019) de “capitalismo de
vigilância” visa capturar as mudanças fundamentais na economia que são facilitadas pela IA e
pelo uso de big data para previsão comportamental. Seu argumento é que esses
desenvolvimentos levantam questões de justiça quando grandes empresas exploram dados de
usuários que foram expropriados de indivíduos sem compensação. O desempenho econômico
de grandes empresas de internet que fazem uso intenso de IA certamente nos faz pensar. No
momento em que escrevo, a Apple acaba de ser avaliada como a empresa global mais valiosa,
atingindo um valor de mercado de US$ 2 trilhões. O valor de mercado das cinco grandes
empresas de internet – Apple, Microsoft, Amazon, Alphabet e Facebook – aumentou US$ 3
trilhões durante a pandemia de COVID-19, entre 23 de março e 19 de agosto de 2020 (Nicas
2020). Esse desenvolvimento pode ter mais a ver com as patologias do mercado de ações do
que qualquer outra coisa, mas mostra claramente que os investidores têm grandes esperanças
no futuro dessas empresas – esperanças que provavelmente estão relacionadas à sua
capacidade de aproveitar a IA.
Machine Translated by Google

44 4 questões éticas da IA

Não obstante esses números surpreendentes, provavelmente um problema ainda mais importante
é que essas empresas utilizam seus insights para estruturar o espaço de ação dos indivíduos,
reduzindo assim a capacidade do cidadão médio de fazer escolhas autônomas. Tais questões
econômicas estão, portanto, diretamente relacionadas a questões mais amplas de justiça e equidade.
Há questões imediatas, como a propriedade dos dados e como isso se traduz na possibilidade de
usufruir dos benefícios das novas tecnologias.
A propriedade intelectual tem sido um tópico muito debatido na ética da computação há muito tempo
(Spinello e Tavani 2004) e agora está se espalhando para o debate da IA.
Outra questão muito debatida é o acesso à justiça no sentido legal e como a IA transformará o
sistema de justiça. O uso de IA para policiamento preditivo ou serviços de liberdade condicional
criminal pode ampliar os preconceitos existentes e prejudicar ainda mais partes da população
(Richardson et al. 2019).
Embora o uso de IA no sistema de justiça criminal possa ser a questão mais debatida, é provável
que a IA também tenha impactos no acesso a outros serviços, potencialmente excluindo ainda mais
segmentos da população que já estão excluídos. A IA pode, portanto, exacerbar outra preocupação
ética bem estabelecida das TIC, ou seja, a chamada divisão digital (McSorley 2003, Parayil 2005,
Busch 2011). Categorias bem estabelecidas de divisões digitais, como as divisões entre países,
gêneros e idades, e entre rural e urbano, podem ser exacerbadas devido à IA e aos benefícios que
ela pode criar. Esses benefícios implicam que a falta de capacidade de acessar a tecnologia
subjacente leva a oportunidades perdidas, o que pode ser uma preocupação ética.

Outra categoria básica de questões éticas no mundo digital é a da liberdade.


É fácil ver como a liberdade de um indivíduo cuja decisão de liberdade condicional foi tomada ou
influenciada pela IA seria afetada. No entanto, a influência da IA na liberdade é mais ampla e sutil. Ao
fornecer ou retirar o acesso à informação, as tecnologias que nos cercam moldam o espaço de ação
possível. O argumento vai além do argumento de Lessig (1999) de que as TIC são uma forma de lei
que permite ou proíbe certas ações. As TIC em geral e a IA em particular podem fazer com que as
opções de um ser humano apareçam ou desapareçam sem que o ser humano perceba. Isso nem
mesmo implica um desejo consciente de enganar ou enganar, mas é simplesmente uma expressão
do fato de que nossa realidade social é tecnicamente mediada e essa mediação tem consequências.
Um exemplo seria os resultados de um mecanismo de pesquisa na Internet. Os mecanismos de
pesquisa dependem muito da IA. Eles também estruturam o que os usuários podem ver e, portanto,
perceberão como relevante e como eles agem. Os provedores de mecanismos de pesquisa usam
isso como parte de seu modelo de negócios, exibindo conteúdo pago com mais destaque e atraindo
os usuários para a compra.
O ponto é, no entanto, que mesmo sem essas tentativas conscientes de direcionar a atenção dos
usuários, um mecanismo de busca ainda estruturaria a percepção dos usuários sobre a realidade e,
portanto, seu escopo de ação.
Como nos outros casos, isso não é necessariamente negativo. A IA pode abrir enormes
oportunidades e criar espaços para ações que antes eram impensáveis, por exemplo, permitindo que
pessoas com deficiência visual conduzam veículos de forma autônoma ou criando soluções médicas
personalizadas além do que é atualmente possível. Mas, ao mesmo tempo, pode reduzir a autonomia
individual, retirando a liberdade de decidir e agir de formas mais ou menos sutis. Um exemplo pode
ser o uso de IA para orientar os visitantes de uma cidade em rotas que evitem congestionamentos e
promovam a segurança dos turistas (Ryan e
Machine Translated by Google

4.4 Questões Gerais Relacionadas à Vida em um Mundo Digital 45

Gregório 2019). Tal sistema é baseado em objetivos moralmente desejáveis, mas ainda reduz a
capacidade dos indivíduos de se moverem pela cidade como fariam na ausência do sistema. Isso
não precisa ser uma questão ética, mas pode ter consequências não intencionais que são
eticamente problemáticas, por exemplo, quando reduz o tráfego em partes da cidade que
dependem de visitantes.
Questões sociais mais amplas são relações de poder e assimetrias de poder. A dominância
econômica e a estruturação de opções de ação podem conferir grande poder e domínio a alguns
atores, a ponto de colocar em risco os princípios democráticos. O escândalo em torno do Facebook
e Cambridge Analytica (Isaak e Hanna 2018) é um lembrete de alto nível das potenciais
vulnerabilidades dos processos democráticos. Mas, como aponta Coeckelbergh (2020: 100), não
é apenas um problema de novas formas de vigilância, manipulação e autoritarismo. Nossas
estruturas democráticas podem ser igualmente prejudicadas por “mudar a economia de uma forma
que nos transforme em gado de smartphones ordenhado por nossos dados”, ligando assim de
volta ao tema generalizado de Zuboff do capitalismo de vigilância.

A lista de questões possivelmente problemáticas da IA em diferentes áreas de aplicação é tão


longa quanto a lista de possíveis benefícios. Na maioria dessas áreas, há questões difíceis sobre
como identificar benefícios e custos e o que fazer com eles. Um exemplo de destaque é o uso de
IA para a criação de armas autônomas. Embora seja fácil ver que salvar a vida dos soldados
substituindo-os por robôs seria um benefício ético, existem inúmeros contra-argumentos que vão
desde o prático, como a confiabilidade de tais sistemas, até o político, como se eles reduziriam o
limiar para iniciar guerras, para o fundamental, como se é apropriado tirar vidas humanas com
base na entrada da máquina (Sharkey 2017, Defense Innovation Board 2019, Babuta et al. 2020).

Preocupações semelhantes surgem na IA para a saúde, onde a tecnologia pode melhorar


diagnósticos e tratamentos, mas pode ter riscos e desvantagens. Um exemplo seriam as
tecnologias de cuidado: os sistemas robóticos há muito são propostos como uma forma de
enfrentar os desafios enfrentados pelo setor de cuidados, mas há preocupações sobre a
substituição do contato humano pela tecnologia, que muitas vezes é vista como uma questão ética
fundamental (Decker 2008, Sharkey e Sharkey 2010, Goeldner et al. 2015).
Essas questões sociais mais amplas não se limitam ao impacto direto nas vidas e ações
humanas, mas também abrangem o impacto da IA no meio ambiente. Embora a IA ofereça a
possibilidade de diminuir o consumo de energia ao simplificar os processos, ela requer
simultaneamente grandes quantidades de recursos e cria novos produtos e serviços que podem
ter impactos negativos no meio ambiente.

4.5 Questões Metafísicas

Essa discussão de questões éticas da IA começou com as questões mais imediatas decorrentes
de uma tecnologia específica, ou seja, aprendizado de máquina, e depois progrediu para
preocupações sociais mais amplas. A terceira e última categoria de questões éticas, que chamo
de “questões metafísicas”, é a mais aberta e inexplorada. Usei o termo “metafísico” porque as
questões aqui estão diretamente ligadas a aspectos fundamentais da realidade,
Machine Translated by Google

46 4 questões éticas da IA

da natureza do ser e da capacidade humana de dar sentido a isso. Eles também vão ao cerne da
natureza dos humanos e da humanidade.
Essas questões metafísicas estão principalmente relacionadas à inteligência artificial geral (AGI)
ou à boa e velha IA (GOFAI), que normalmente é conceituada em termos de uma representação
simbólica e lógica do mundo. A ideia é que o AGI (que pode se basear no GOFAI, mas não precisa)
exibiria habilidades de raciocínio humano. Para reiterar um ponto levantado anteriormente:
atualmente não há sistemas AGI disponíveis e há um desacordo considerável sobre sua
possibilidade e probabilidade. Pessoalmente, não estou convencido de que sejam possíveis com
as tecnologias atuais, mas não posso provar o ponto de forma mais definitiva do que outros, por
isso permanecerei agnóstico quanto à possibilidade fundamental. O que parece bastante claro, no
entanto, é que o progresso na direção da AGI é extremamente lento. Portanto, não espero que
nenhuma tecnologia que seja aceita como AGI pela maioria das comunidades de especialistas surja
nas próximas décadas.

As questões éticas metafísicas levantadas pela AGI não são, portanto, particularmente urgentes
e não conduzem a considerações políticas da mesma forma que questões como discriminação ou
desemprego o fazem. A maioria dos documentos de política sobre IA ignora essas questões, na
suposição implícita de que não precisam de desenvolvimento de políticas. Na pesquisa empírica
apresentada anteriormente nesta seção, essas questões metafísicas não foram identificadas como
questões com as quais as organizações se envolvem atualmente. Provavelmente também existe
um elemento de medo por parte de estudiosos e especialistas de serem estigmatizados como não
sendo sérios ou acadêmicos, já que essas questões metafísicas são a base da ficção científica.
No entanto, eu os incluo nesta discussão sobre questões éticas da IA por duas razões. Em
primeiro lugar, essas questões são instigantes, não apenas para especialistas, mas para a mídia e
a sociedade em geral, porque tocam em muitas das questões fundamentais da ética e da
humanidade. Em segundo lugar, algumas dessas questões podem esclarecer as questões práticas
da IA atual, forçando uma reflexão mais clara sobre conceitos-chave, como autonomia e
responsabilidade e o papel da tecnologia em uma boa sociedade.
A versão tecno-otimista da AGI é que haverá um ponto em que a IA estará suficientemente
avançada para começar a se autoaprimorar, e uma explosão de inteligência – a singularidade
(Kurzweil 2006) – ocorrerá devido a um ciclo de feedback positivo da IA sobre em si. Isso levará ao
estabelecimento de superinteligência (Bostrom 2016).
A implicação é que a AGI não será apenas melhor que os humanos na maioria ou em todas as
tarefas cognitivas, mas também desenvolverá consciência e autoconsciência (Torrance 2012). Os
contribuintes para esta discussão discordam sobre o que aconteceria a seguir. A AGI superinteligente
pode ser benevolente e tornar a vida humana melhor, pode ver os humanos como competidores e
nos destruir, ou pode residir em uma esfera diferente de consciência, ignorando a humanidade em
sua maior parte.
As especulações nesse sentido não são particularmente esclarecedoras: elas dizem mais sobre
a visão de mundo do especulador do que qualquer outra coisa. Mas o que é interessante é olhar
para algumas das questões éticas resultantes à luz das tecnologias atuais. Uma questão chave é
se tais AGIs poderiam ser sujeitos de responsabilidade. Poderíamos responsabilizá-los moralmente
por suas ações ou pelas consequências dessas ações (Bechtel 1985)? Em outras palavras, existe
algo como moralidade artificial (Wallach e Allen 2008, Wallach et al. 2011)? Esta questão é
interessante porque
Machine Translated by Google

4.5 Questões Metafísicas 47

isso se traduz na pergunta: podemos responsabilizar as IAs atuais? E essa é uma questão
prática nos casos em que as IAs podem criar consequências moralmente relevantes, como é o
caso de veículos autônomos e muitos outros sistemas que interagem com o mundo.

A questão de saber se uma entidade pode ser um sujeito de responsabilidade moral, ou


seja, alguém ou algo do qual ou de quem podemos dizer “X é responsável”, depende da
definição de responsabilidade (Fischer 1999). Existe uma vasta literatura sobre esta questão, e
os sujeitos de responsabilidade normalmente têm que cumprir uma série de requisitos, que
incluem uma compreensão da situação, um papel causal nos eventos, a liberdade de pensar e
agir e o poder de agir, de dê quatro exemplos.
A questão de saber se os computadores podem ser responsáveis é, portanto, um pouco
semelhante à questão de saber se eles podem pensar. Alguém poderia argumentar que, se
eles podem pensar, eles podem ser responsáveis. No entanto, Turing (1950) questionou se as
máquinas podem pensar sem sentido e propôs o jogo da imitação, ou seja, o teste de Turing.
À luz da dificuldade da questão, portanto, não é surpreendente que uma abordagem análoga à
responsabilidade da máquina tenha sido concebida, o teste moral de Turing, em que o status
moral de uma máquina poderia ser definido pelo fato de ela ser reconhecida como um agente
moral por um interlocutor independente. O problema com essa abordagem é que ela realmente
não resolve o problema. Sugeri em outro lugar que uma máquina que pode passar no teste de
Turing provavelmente também poderia passar em um teste de Turing moral (Stahl 2004).

Grande parte da discussão sobre o status moral da IA gira em torno da definição de “ética”.
Se alguém assumir uma posição utilitária, por exemplo, pareceria plausível supor que os
computadores seriam pelo menos tão bons quanto os humanos em realizar um cálculo moral,
desde que tivessem os dados para descrever de forma abrangente os possíveis estados do
mundo. Esta parece ser a razão pela qual o problema do bonde é tão proeminente na discussão
da ética dos veículos autônomos (Wolkenstein 2018). O problema do bonde,3 baseado na
premissa de que um agente deve tomar uma decisão dilemática entre duas alternativas, cada
uma das quais normalmente matará atores diferentes, chamou a atenção de alguns estudiosos
porque parece mapear possíveis cenários do mundo real em IA, nomeadamente no que diz
respeito à programação ou comportamento de veículos autónomos. Um veículo autônomo pode
ser colocado em uma situação semelhante ao problema do bonde, pois precisa tomar uma
decisão rápida entre dois resultados eticamente problemáticos. No entanto, eu argumentaria
que isso se baseia em um mal-entendido do problema do bonde, que foi concebido por Philippa
Foot (1978) como uma ferramenta analítica para mostrar as limitações do raciocínio moral, em
particular do utilitarismo. A estrutura do dilema é voltada para mostrar que não existe uma
resposta “eticamente correta”. Portanto, foi argumentado (Etzioni e Etzioni 2017), com razão
em minha opinião, que o problema do bonde não nos ajuda a determinar se

3Um problema típico de bonde veria um agente parado perto dos pontos onde duas linhas
ferroviárias se fundem em um único trilho. Da via única, um trem se aproxima. Sem saber do trem,
várias crianças brincam no trilho da esquerda, enquanto um único trabalhador, também sem saber
do trem, trabalha no trilho da direita. O trem está pronto para atingir as crianças. Ao trocar os
pontos, o agente pode mudar o trem para o trilho da direita, salvando a vida das crianças, mas
levando a uma única morte. O que o agente deve fazer? Esse é o problema do bonde.
Machine Translated by Google

48 4 questões éticas da IA

máquinas pode ser ético, porque pode ser totalmente resolvido com recurso aos padrões
existentes de responsabilidade humana.
Argumentei anteriormente que a chave para entender a ética é uma compreensão da condição
humana. Desenvolvemos e usamos a ética porque somos seres corpóreos e, portanto, vulneráveis
e mortais, que podem sentir empatia por outros que têm medos e esperanças semelhantes aos
nossos. Esta é a base de nossa natureza social e, portanto, de nossa ética. Se partirmos desse
ponto de partida, então a IA, para ser moralmente responsável e um agente ético, teria que
compartilhar essas características. No momento, nenhum sistema chega perto da empatia. Isso
não tem nada a ver com as habilidades computacionais da IA, que excedem em muito as nossas
há algum tempo, mas surge do fato de que a IA simplesmente não está na mesma categoria que
nós.
Isso não significa que não possamos atribuir um status moral à IA ou a algum tipo de IA. Os
humanos podem atribuir tal status a não-humanos e sempre o fizeram, por exemplo, vendo partes
da natureza ou artefatos como divinos ou protegendo certas entidades de serem tratadas de
certas maneiras.
Tal visão da IA tem a vantagem de resolver algumas das questões metafísicas imediatamente.
Se um compromisso existencialista com nosso mundo social compartilhado é uma condição para
ser um agente ético, então a IA atual simplesmente sai da equação.
Isso não significa que os desenvolvedores de veículos autônomos não precisem mais se
preocupar, mas significa que eles podem usar mecanismos estabelecidos de responsabilidade,
responsabilidade e responsabilidade para tomar decisões de design. Também não exclui
fundamentalmente agentes morais artificiais, mas estes teriam que ser de uma natureza muito
diferente das atuais tecnologias de computação.
Esta posição não resolve todas as questões metafísicas. Existem questões interessantes
decorrentes da combinação de humanos e máquinas que precisam de atenção.
As redes de atores contendo artefatos ativados por IA podem muito bem mudar algumas de
nossas percepções éticas. Quanto mais a IA se integra à nossa natureza, mais ela levanta novas
questões. Isso começa com aspectos aparentemente triviais da prevalência de dispositivos
onipresentes, como telefones celulares, e o que eles fazem com nossa agência. Tecnologias de
ponta, como interfaces de computador cerebral com suporte de IA, mudam o que podemos fazer,
mas também podem mudar a forma como atribuímos responsabilidades. Nesse sentido, questões
de pós-humanismo (Barad 2003) e aprimoramento humano (Bostrom e Sandberg 2009,
Coeckelbergh 2011) podem ser mais interessantes do ponto de vista da ética da IA porque
começam com a agência ética existente que pode precisar ser ajustada.
É claro que muito mais poderia ser dito sobre as questões éticas da IA, mas esperamos que
este capítulo tenha dado uma boa visão geral e fornecido uma categorização útil dessas questões,
conforme mostrado na Tabela 4.1.
A categorização na Tabela 4.1 não é oficial, e outras são possíveis. Uma visão diferente que
chegaria a conclusões semelhantes focaria na natureza temporal das questões. Ordenar questões
éticas de IA por proximidade temporal e urgência não é novidade. Baum (2018) sugeriu a distinção
entre “presentistas” e “futuristas”, chamando a atenção para questões de IA de curto e longo
prazo. Estendendo esse pensamento para a discussão das questões éticas da IA apresentadas
neste capítulo, pode-se dizer que as questões éticas do aprendizado de máquina são as mais
imediatas e as metafísicas são questões de longo prazo, se não perpétuas. A categoria de
problemas
Machine Translated by Google

4.5 Questões Metafísicas 49

Tabela 4.1 Três categorias de questões éticas da inteligência artificial


1. Problemas decorrentes do aprendizado de máquina

Privacidade e proteção de dados Falta de privacidade


Uso indevido de dados pessoais
problemas de segurança
Confiabilidade Falta de dados de qualidade
Falta de precisão dos dados
problemas de integridade
Transparência Falta de responsabilidade e responsabilidade
Falta de Transparência
Preconceito e discriminação
Falta de precisão das recomendações preditivas
Falta de precisão das recomendações não individuais
Segurança Danos à integridade física

2. Viver em um mundo digital

Questões econômicas desaparecimento de empregos


Concentração do poder econômico
Custo para inovação
Justiça e equidade Propriedade contestada de dados
Impacto negativo no sistema de justiça
Falta de acesso a serviços públicos
Violação dos direitos humanos fundamentais dos usuários finais
Violação dos direitos humanos fundamentais na cadeia de abastecimento
Impacto negativo em grupos vulneráveis
Injustiça
Liberdade Falta de acesso e liberdade de informação
Perda da tomada de decisão humana
Perda da liberdade e da autonomia individual
Questões sociais mais amplas Relações desiguais de poder
assimetrias de poder
Impacto negativo na democracia
Problemas de controle e uso de dados e sistemas
Falta de consentimento informado
Falta de confiança

Potencial para uso militar


Impacto negativo na saúde
Redução do contato humano
Impacto negativo no meio ambiente
Problemas de incerteza Impactos adversos não intencionais e imprevisíveis
Priorização dos problemas “errados”
Potencial para uso criminoso e malicioso

3. Questões metafísicas

Consciência da máquina
“Despertar” da IA
Agentes morais autônomos
Superinteligência
Singularidade
Mudanças na natureza humana
Machine Translated by Google

50 4 questões éticas da IA

decorrente de viver no mundo digital está localizado em algum lugar no meio. Essa visão
também pode ter implicações para a questão de como, quando e por quem as questões
éticas em IA podem ser abordadas, o que será discutido no próximo capítulo.

Referências

Access Now Policy Team (2018) Declaração de Toronto: protegendo o direito à igualdade e à não discriminação em
sistemas de aprendizado de máquina. Acesse Agora, Toronto. https://www.access now.org/cms/assets/uploads/2018/08/
The-Toronto-Declaration_ENG_08-2018.pdf. Acessado em 26 de setembro de 2020

Adler M, Ziglio E (eds) (1996) Olhando para o oráculo: o método Delphi e sua aplicação para
política social e saúde pública. Jessica Kingsley, Londres
AI Now Institute (2017) Relatório AI Now 2017. https://ainowinstitute.org/AI_Now_2017_Report. pdf. Acessado em 26 de
setembro de 2020
Babuta A, Oswald M, Janjeva A (2020) Inteligência artificial e segurança nacional do Reino Unido: considerações sobre
políticas. RUSI Ocasional Paper. Royal United Services Institute for Defense and Security Studies, Londres. https://
rusi.org/sites/default/files/ai_national_security_final_web_version.pdf.
Acessado em 21 de setembro
de 2020 Barad K (2003) Performatividade pós-humanista: em direção a uma compreensão de como a matéria surge
matéria. Sinais 28:801–831. https://doi.org/10.1086/345321
Baum SD (2018) Reconciliação entre facções com foco em ações artificiais de curto e longo prazo
inteligência. AI Soc 33:565–572. https://doi.org/10.1007/s00146-017-0734-3
Bechtel W (1985) Atribuindo responsabilidade a sistemas de computador. Metaphilosophy 16:296-306.
https://doi.org/10.1111/j.1467-9973.1985.tb00176.x
Berendt B (2019) AI para o bem comum?! Armadilhas, desafios e testes de ética. Paladyn J Behav Robot 10:44–65. https://
doi.org/10.1515/pjbr-2019-0004 BmVI (2017) Ethik-Kommission: Automatisiertes und vernetztes Fahren.
Bundesministerium für Verkehr und digitale Infrastruktur, Berlim. https://www.bmvi.de/SharedDocs/DE/Publikationen/ DG/
bericht-der-ethik-kommission.pdf?__blob=publicationFile. Acessado em 26 de setembro de 2020 Boden MA (2018)
Inteligência artificial: uma introdução muito curta, Reimpressão edn. Universidade de Oxford

Imprensa, Oxford
Bostrom N (2016) Superinteligência: caminhos, perigos, estratégias, Reimpressão edn. Oxford University Press, Oxford e
Nova York Bostrom N, Sandberg A (2009) Aprimoramento cognitivo: métodos, ética, desafios regulatórios.

Ética da Engenharia Científica 15:311–341

Busch T (2011) Capacidades dentro, capacidades fora: superando divisões digitais promovendo
cidadania e TIC justas. Ética Inf Technol 13:339–353
Buttarelli G (2018) Escolha a humanidade: devolvendo a dignidade ao digital. In: Discurso na 40ª conferência internacional
de comissários de proteção de dados e privacidade, Bruxelas. https://www.privacyco nference2018.org/system/files/
2018-10/Choose%20Humanity%20speech_0.pdf. Acessado em 26 de setembro de 2020

CDEI (2019) Relatório provisório: Revisão do viés na tomada de decisões algorítmicas. Centro de Ética e Inovação de
Dados, Londres. https://www.gov.uk/government/publications/interim-reports from-the-centre-for-data-ethics-and-
innovation/interim-report-review-into-bias-in-algorithmic decision-making. Acessado em 26 de setembro de 2020

Coeckelbergh M (2011) Desenvolvimento humano ou aprimoramento humano? Uma reflexão metodológica sobre
capacidades e avaliação de tecnologias de informação. Ética Inf Technol 13:81–92. https://doi.org/10.1007/
s10676-010-9231-9 Coeckelbergh M (2019) Inteligência Artificial: algumas questões éticas e desafios regulatórios. Em:
Tecnologia e regulamentação, pp 31–34. https://doi.org/10.26116/techreg.2019.003
Machine Translated by Google

Referências 51

Coeckelbergh M (2020) Ética da IA. The MIT Press, Cambridge, MA Collins


HM (1990) Especialistas artificiais: conhecimento social e sistemas inteligentes. Imprensa do MIT,
Cambridge, MA
Dalkey NC, Brown BB, Cochran S (1969) O método Delphi: um estudo experimental de opinião de grupo. Rand
Corporation, Santa Monica, CA Decker M (2008) Robôs cuidadores e reflexão ética: a perspectiva da
avaliação tecnológica interdisciplinar. AI Soc 22:315–330 Defense Innovation Board (2019) Princípios de IA:
recomendações sobre o uso ético de inteligência artificial pelo Departamento de Defesa. Departamento de
Defesa dos EUA, Washington DC. https://media.defense.gov/2019/Oct/31/2002204458/-1/-1/0/
DIB_AI_PRINCIPLES_PRIM ARY_DOCUMENT.PDF. Acessado em 26 de setembro de 2020

Dignum V (2019) Inteligência artificial responsável: como desenvolver e usar IA de forma responsável
caminho. Springer Nature Switzerland AG, Cham, Suíça
Etzioni A, Etzioni O (2017) Incorporando a ética na inteligência artificial. J Ética 21:403–418. https://doi.org/
10.1007/s10892-017-9252-2 Parlamento Europeu (2020) Projeto de relatório com recomendações à Comissão
sobre um quadro de aspectos éticos da inteligência artificial, robótica e tecnologias relacionadas. Parlamento
Europeu, Comissão dos Assuntos Jurídicos. https://www.europarl.europa.eu/doceo/document/JURI-PR
650508_EN.pdf. Acessado em 25 de setembro de 2020

Faggella D (2020) Exemplos cotidianos de inteligência artificial e aprendizado de máquina. Emerj, Boston, MA.
https://emerj.com/ai-sector-overviews/everyday-examples-of-ai/. Acessado em 23 de setembro de 2020
Fischer JM (1999) Trabalho recente sobre responsabilidade moral. Ética 110:93–139
Flick C (2016) Consentimento informado e o estudo de manipulação emocional do Facebook. Res Ethics 12.
https://doi.org/10.1177/1747016115599568 Pé P (1978) Virtudes e vícios e outros ensaios em filosofia moral.
Universidade da Califórnia
Imprensa, Berkeley e Los Angeles
Goeldner M, Herstatt C, Tietze F (2015) O surgimento da robótica assistencial: uma análise de patentes e
publicações. Technol Forecast Soc Change 92:115–131. https://doi.org/10.1016/j.techfore.2014. 09.005

Griggs D, Stafford-Smith M, Gaffney O et al (2013) Objetivos de desenvolvimento sustentável para as pessoas


e o planeta. Natureza 495:305–307. https://doi.org/10.1038/495305a Grupo de especialistas de alto nível em
inteligência artificial (2019) Diretrizes de ética para uma IA confiável. Comissão Europeia, Bruxelas. https://
ec.europa.eu/newsroom/dae/document.cfm?doc_ id=60419. Acessado em 25 de setembro de 2020

Holmes T, Blackmore E, Hawkins R (2011) O manual da causa comum: um guia de valores e estruturas para
ativistas, organizadores comunitários, funcionários públicos, arrecadadores de fundos, educadores,
empreendedores sociais, ativistas, financiadores, políticos e todos os demais. Centro de Pesquisa de Interesse
Público, Machynlleth Reino Unido
Câmara dos Lordes (2018) IA no Reino Unido: pronta, disposta e capaz? HL Paper 100. Select Committee on
Artificial Intelligence, House of Lords, Parliament, London. https://publications.parliament.uk/pa/ld201719/
ldselect/ldai/100/100.pdf . Acessado em 23 de setembro de 2020 International Risk Governance Center
(IRGC) (2018) A governança dos algoritmos de tomada de decisão. Centro Internacional de Governança de
Risco da EPFL, Lausanne. https://infoscience.epfl.ch/rec ord/261264/files/
IRGC%20%282018%29%20The%20Governance%20of%20Decision-Mak ing%20Algorithms-
Workshop%20report.pdf. Acessado em 26 de setembro de 2020
Isaak J, Hanna MJ (2018) Privacidade de dados do usuário: Facebook, Cambridge Analytica e proteção de
privacidade. Computador 51:56–59. https://doi.ieeecomputersociety.org/10.1109/MC.2018.3191268 Jagielski
M, Oprea A, Biggio B et al. (2018) Manipulando aprendizado de máquina: ataques de envenenamento e
contramedidas para aprendizado de regressão. In: Simpósio IEEE 2018 sobre segurança e privacidade (SP),
San Francisco. https://doi.org/10.1109/SP.2018.00057
Jernigan C, Mistree BFT (2009) Gaydar: amizades no Facebook expõem a orientação sexual. Primeira segunda-
feira 14. https://firstmonday.org/ojs/index.php/fm/article/download/2611/2302. Acessado em 26 de setembro
de 2020
Machine Translated by Google

52 4 questões éticas da IA

Kaplan A, Haenlein M (2019) Siri, Siri, na minha mão: quem é a mais bela da terra? Sobre as interpretações, ilustrações
e implicações da inteligência artificial. Ônibus Horiz 62:15–25 Kleinig J, Evans NG (2013) Florescimento humano,
dignidade humana e direitos humanos. Lei Philos
32:539–564. https://doi.org/10.1007/s10982-012-9153-2
Krafft T, Hauer M, Fetic L et al (2020) Dos princípios à prática: uma estrutura interdisciplinar para operacionalizar a ética
da IA. VDE e Bertelsmann Stiftung. https://www.ai-ethics-impact.org/res ource/blob/1961130/
c6db9894ee73aefa489d6249f5ee2b9f/aieig—report—download-hb-data. pdf. Acessado em 26 de setembro de 2020

Kurzweil R (2006) A singularidade está próxima. Gerald Duckworth & Co, Londres Latonero
M (2018) Governando a inteligência artificial: defendendo os direitos humanos e a dignidade. Dados & Sociedade.
https://datasociety.net/wp-content/uploads/2018/10/DataSociety_Governing_Artifi
cial_Intelligence_Upholding_Human_Rights.pdf. Acessado em 26 de setembro de 2020 Lessig L (1999) Código: e
outras leis do ciberespaço. Basic Books, Nova York Linstone HA, Turoff M (eds) (2002) O método Delphi: técnicas e
aplicações. Addison Wesley Publishing Company, Programa Avançado de Livros. https://web.njit.edu/~turoff/pubs/
delphibook/delphibook.pdf . Acessado em 26 de setembro de 2020 Macnish K, Ryan M, Gregory A et al. (2019)
Entregável SHERPA D1.1 Estudos de caso. De Montfort

Universidade. https://doi.org/10.21253/DMU.7679690.v3
McSorley K (2003) A história da salvação secular da exclusão digital. Ética Inf Technol 5:75–87. https://doi.org/10.1023/
A:1024946302065 Müller VC (2020) Ética da inteligência artificial e da robótica. In: Zalta EN (ed) A enciclopédia de
filosofia de Stanford, outono de 2020. Metaphysics Research Lab, Stanford University, Stanford, CA

Nemitz P (2018) Democracia constitucional e tecnologia na era da inteligência artificial. Phil Trans R Soc A 376:20180089.
https://doi.org/10.1098/rsta.2018.0089 Nicas J (2020) Apple atinge US$ 2 trilhões, pontuando o domínio da big tech.
O jornal New York Times. https://www.nytimes.com/2020/08/19/technology/apple-2-trillion.html . Acessado em 26 de
setembro de 2020 Parayil G (2005) A divisão digital e os retornos crescentes: as contradições da informação

capitalismo. Inf Soc 21:41–51. https://doi.org/10.1080/01972240590895900


Raso FA, Hilligoss H, Krishnamurthy V et al. (2018) Inteligência artificial e direitos humanos: oportunidades e riscos.
Publicação de pesquisa do Berkman Klein Center nº 2018-6. http://dx.doi.org/10. 2139/ssrn.3259344

Richardson R, Schultz J, Crawford K (2019) Dados sujos, previsões ruins: como as violações dos direitos civis afetam
os dados policiais, os sistemas de policiamento preditivo e a justiça. NY Univ Law Rev Online 192. https://ssrn.com/
abstract=3333423. Acessado em 26 de setembro de 2020
Ryan M, Gregory A (2019) Ética do uso de IA de cidade inteligente e big data: o caso de quatro grandes
cidades europeias. ORBIT J 2. https://doi.org/10.29297/orbit.v2i2.110
Sachs JD (2012) Dos objetivos de desenvolvimento do milênio aos objetivos de desenvolvimento sustentável. Lanceta
379:2206–2211. https://doi.org/10.1016/S0140-6736(12)60685-0
Santiago N (2020) Moldando as dimensões éticas dos sistemas de informação inteligentes: uma perspectiva europeia.
Estudo SHERPA Delphi, resultados da 1ª rodada. Projeto SHERPA. https://www.project-she rpa.eu/wp-content/
uploads/2020/03/sherpa-delphi-study-round-1-summary-17.03.2020.docx. pdf. Acessado em 26 de setembro de 2020
Sharkey A, Sharkey N (2010) Vovó e os robôs: questões éticas no cuidado de robôs para idosos.

Ética Inf Technol. https://doi.org/10.1007/s10676-010-9234-6 Sharkey N


(2017) Por que os robôs não devem ser delegados com a decisão de matar. Conn Sci 29:177–
186. https://doi.org/10.1080/09540091.2017.1310183
Spinello RA, Tavani HT (2004) Direitos de propriedade intelectual em um mundo em rede: teoria e
prática. Publicação de Ciência da Informação, Hershey PA
Stahl BC (2004) Informação, ética e computadores: o problema dos agentes morais autônomos.
Minds Mach (Dordr) 14:67–83. https://doi.org/10.1023/B:MIND.0000005136.61217.93 Tao J, Tan T, Picard
R (2005) Computação afetiva e interação inteligente. Springer, Berlim
Machine Translated by Google

Referências 53

Topol EJ (2019) Medicina de alto desempenho: a convergência da inteligência humana e artificial.


Nat Med 25:44–56. https://doi.org/10.1038/s41591-018-0300-7 Torrance S (2012)
Superinteligência e (super)consciência. Int J Mach Conscious 4:483–501. https://doi.org/10.1142/S1793843012400288 Turing
AM (1950) Máquinas de computação e inteligência. Mente 59:433–460. https://doi.org/10.

1093/mente/LIX.236.433
Nações Unidas (2020) Plataforma de conhecimento sobre desenvolvimento sustentável. https://sustainabledevelop
ment.un.org. Acessado em 25 de maio de 2020
Declaração do USACM (2017) sobre transparência e responsabilidade algorítmica. ACM US Public Policy Council, Washington
DC. https://www.acm.org/binaries/content/assets/public-policy/ 2017_usacm_statement_algorithms.pdf. Acessado em 26
de setembro de 2020 Wallach W, Allen C (2008) Máquinas morais: ensinando robôs do certo e do errado. Universidade de
Oxford
Imprensa, Nova York
Wallach W, Allen C, Franklin S (2011) Consciência e ética: agentes morais artificialmente conscientes. Int J Mach Conscious
3:177–192. https://doi.org/10.1142/S1793843011000674
Wiener N (1954) O uso humano de seres humanos. Doubleday, Nova York Wolkenstein A
(2018) O que o dilema do bonde já fez por nós (e o que fará no futuro)? Sobre alguns debates recentes sobre a ética dos
carros autônomos. Ética Inf Technol 1–11. https://doi.org/10.1007/s10676-018-9456-6 Yin RK (2003a) Aplicações da
pesquisa de estudo de caso, 2ª ed. Sage Publicações, Thousand Oaks

CA
Yin RK (2003b) Pesquisa de estudo de caso: projeto e métodos, 3ª ed. Publicações Sage, Mil
Oaks, Califórnia

Zuboff PS (2019) A era do capitalismo de vigilância: a luta por um futuro humano na nova fronteira
de poder. Profile Books, Londres

Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons Attribution 4.0 (http://
creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento, adaptação, distribuição e reprodução em
qualquer meio ou formato, desde que você dê os devidos créditos ao(s) autor(es) original(ais) e à fonte, forneça um link para
a licença Creative Commons e indique se foram feitas alterações.

As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons do capítulo, a
menos que indicado de outra forma em uma linha de crédito para o material. Se o material não estiver incluído na licença
Creative Commons do capítulo e seu uso pretendido não for permitido pela regulamentação estatutária ou exceder o uso
permitido, você precisará obter permissão diretamente do detentor dos direitos autorais.
Machine Translated by Google

capítulo 5
Abordando questões éticas em IA

Resumo Este capítulo analisa as propostas que foram apresentadas para abordar questões éticas da IA. Ele
os divide em propostas de nível de política, respostas organizacionais e orientação para indivíduos. Ele
discute como essas opções de mitigação são refletidas nos estudos de caso que exemplificam a realidade
social da ética da IA. O capítulo termina com uma visão geral dos grupos de partes interessadas afetados
pela IA, muitos dos quais desempenham um papel na implementação das estratégias de mitigação e na
abordagem de questões éticas na IA.

Palavras -chave Mitigação da ética da IA · Política de IA · Legislação de IA · Regulador de IA ·


Respostas organizacionais à IA · Orientação sobre a ética da IA · Partes interessadas da ética da IA

Agora temos uma visão detalhada, empiricamente informada e, espero, conceitualmente interessante da
ética da IA. Isso leva à pergunta: o que podemos fazer sobre isso?
Este capítulo oferece uma visão geral das possíveis respostas que estão sendo discutidas atualmente nos
discursos acadêmicos e políticos. Para facilitar a leitura, divide as opções em nível de política, nível
organizacional, mecanismos de orientação e atividades de apoio. Para cada uma dessas categorias, serão
introduzidas as principais medidas de mitigação e destacadas as principais questões e questões em aberto.

5.1 Opções no nível da política

As atividades ao nível das políticas são realizadas pelos decisores políticos. Estas podem situar-se a nível
nacional, mas também a nível regional e/ou internacional. Devido à natureza da IA como uma tecnologia
internacional e transfronteiriça, será dada atenção especial às iniciativas de políticas internacionais
provenientes de organismos internacionais como a ONU, a Organização das Nações Unidas para a Educação,
a Ciência e a Cultura (UNESCO) e a OCDE. E, como um europeu escrevendo um livro baseado em grande
parte na pesquisa europeia, concentro minha atenção principalmente na política europeia.

© O(s) autor(es) 2021 55


BC Stahl, Artificial Intelligence for a Better Future,
SpringerBriefs in Research and Innovation Governance,
https://doi.org/10.1007/978-3-030-69978-9_5
Machine Translated by Google

56 5 Abordando questões éticas em IA

5.1.1 Objetivos e iniciativas da política

O número de documentos de política sobre IA é significativo. Jobin e outros. (2019) forneceram


uma visão geral muito boa, mas não é mais abrangente, pois a publicação de documentos de
política continua inabalável. Vários indivíduos e grupos criaram sites, bancos de dados,
observatórios ou outros tipos de recursos para acompanhar esse desenvolvimento. Alguns dos
anteriores parecem ter sido visões gerais pontuais que não são mais mantidas, como os sites
de Tim Dutton (2018), Charlotte Stix (nd) e NESTA (nd).
Outros permanecem atualizados, como o site da AlgorithmWatch (nd), ou só recentemente
entraram online, como os sites da Ai4EU (nd), do Joint Research Centre da UE (Comissão
Europeia nd) e da OCDE (nd) .
O que a maioria dessas iniciativas políticas parece ter em comum é que visam promover o
desenvolvimento e o uso da IA, ao mesmo tempo em que prestam atenção às questões sociais,
éticas e de direitos humanos, muitas vezes usando o termo “IA confiável” para indicar atenção
a essas questões. . Um bom exemplo de objetivos políticos de alto nível destinados a orientar
o desenvolvimento de políticas adicionais é fornecido pela OCDE (2019). Recomenda aos seus
Estados membros que desenvolvam políticas para os seguintes cinco objetivos:

• investir em pesquisa e desenvolvimento de IA •


promover um ecossistema digital para IA • moldar
um ambiente político propício para IA • desenvolver a
capacidade humana • preparar-se para a transformação
do mercado de trabalho • cooperação internacional para
uma IA confiável

As iniciativas de políticas destinadas a seguir essas recomendações podem abranger uma


ampla gama de áreas, a maioria das quais tem relevância para questões éticas. Eles podem
abordar questões de acesso a dados, distribuição de custos e benefícios por meio de impostos
ou outros meios, sustentabilidade ambiental e TI verde, para dar alguns exemplos proeminentes.

Essas iniciativas políticas podem ser ambiciosas ou mais tangíveis. Para que façam uma
diferença prática, precisam ser traduzidas em legislação e regulamentação, como será discutido
na seção a seguir.

5.1.2 Legislação e Regulamentação

No momento em que escrevo este texto (verão europeu de 2020), há muita atividade na Europa
voltada para o desenvolvimento de legislação e regulamentação apropriadas da IA no nível da
UE. A Comissão Europeia lançou vários documentos e propostas de políticas (por exemplo,
Comissão Europeia 2020c, d), incluindo um Livro Branco sobre IA (Comissão Europeia 2020a).
O Parlamento Europeu compartilhou algumas contrapropostas (Parlamento Europeu 2020a, b)
e espera-se que o processo político leve a uma ação legislativa em 2021.
Machine Translated by Google

5.1 Opções no nível da política 57

Usando as categorias desenvolvidas neste livro, a questão é se – para os propósitos da


legislação – a pesquisa, desenvolvimento e uso de IA serão enquadrados em termos de
prosperidade, eficiência ou controle humanos. O Livro Branco da CE (Comissão Europeia 2020a)
é um exemplo interessante para usar ao estudar a relação entre esses diferentes propósitos.
Para entender essa relação, é importante observar que o CE utiliza o termo “confiança” para
representar aspectos éticos e sociais, seguindo o Grupo de Especialistas de Alto Nível em IA
(2019). Isso sugere que o papel da ética é permitir que as pessoas confiem em uma tecnologia
que foi pré-ordenada ou cuja chegada é inevitável. Na verdade, as frases iniciais na introdução
do White Paper afirmam exatamente isso: “À medida que a tecnologia digital se torna uma parte
cada vez mais central de todos os aspectos da vida das pessoas, as pessoas devem poder
confiar nela. A fiabilidade é também um pré-requisito para a sua aceitação” (Comissão Europeia
2020a: 1). Os aspectos éticos da IA são normalmente discutidos por órgãos europeus usando a
terminologia de confiança. O documento geralmente segue essa narrativa e o foco está nas
vantagens econômicas da IA, incluindo a melhoria da posição competitiva da UE na percebida
corrida internacional da IA.

No entanto, existem outras partes do documento que se concentram mais no aspecto do


florescimento humano: os sistemas de IA são descritos como tendo um “papel significativo na
consecução dos Objetivos de Desenvolvimento Sustentável” (Comissão Europeia 2020a: 2),
sustentabilidade ambiental e objetivos éticos. Não surpreende que uma iniciativa política de alto
nível como o Livro Branco da CE combine diferentes objetivos políticos. O que não deixa de ser
interessante notar é que o Livro Branco contém duas áreas principais de objetivos políticos:
excelência e confiança. Na Seção 4, intitulada “Um ecossistema de excelência”, o documento
apresenta políticas para fortalecer as bases científicas e técnicas da IA europeia, abrangendo
colaboração europeia, pesquisa, habilidades, trabalho com PMEs e setor privado e infraestrutura.
A Seção 5, a segunda parte principal do White Paper, sob “Um ecossistema de confiança”,
concentra-se em riscos, danos potenciais, responsabilidade e aspectos regulatórios semelhantes.
Essa estrutura do White Paper pode ser interpretada como sugerindo que a excelência e a
confiança são fundamentalmente separadas e que o desenvolvimento técnico da IA é fundamental,
exigindo ética e regulamentação a seguir.
Ao analisar a adequação da legislação e regulamentação para abordar questões éticas de IA,
pode-se perguntar se e em que medida essas questões já estão cobertas pela legislação
existente. Em muitos casos, a questão é se a legislação é adequada ao objetivo ou se precisa
ser alterada à luz dos desenvolvimentos técnicos.
Exemplos de corpos legais com clara relevância para algumas das questões éticas são a lei de
propriedade intelectual, a lei de proteção de dados e a lei de concorrência.
Uma área do direito que provavelmente será relevante e já levou a muitos debates de alto
nível é a lei de responsabilidade. A lei de responsabilidade é usada para lidar com riscos e danos
decorrentes do uso de produtos (de consumo), derivados ou não de novas tecnologias. É provável
que a lei de responsabilidade desempenhe um papel fundamental na distribuição de riscos e
benefícios da IA (Garden et al. 2019). Isso explica as várias iniciativas da UE (Grupo de
Especialistas em Responsabilidade e Novas Tecnologias 2019; Comissão Europeia 2020b;
Parlamento Europeu 2020b) que tentam estabelecer quem é responsável por quais aspectos da
IA. Da mesma forma, a alocação de responsabilidades estritas e de responsabilidade civil definirá
o cenário para um ambiente de IA mais amplo, incluindo seguros e litígios.
Machine Translated by Google

58 5 Abordando questões éticas em IA

Outro corpo de legislação e regulamentação existente sendo promovido para abordar as


questões éticas da IA é a legislação de direitos humanos. Já foi destacado que muitas das questões
éticas da IA são simultaneamente questões de direitos humanos, como privacidade e discriminação.
Vários contribuintes para o debate, portanto, sugerem que a regulamentação de direitos humanos
existente pode ser adequada para abordar questões éticas da IA. As propostas nesse sentido
podem se concentrar em tecnologias específicas, como aprendizado de máquina (Access Now
Policy Team 2018), ou em áreas de aplicação específicas, como saúde (Committee on Bioethics
2019), ou propor amplamente a aplicação de princípios de direitos humanos a todo o campo da IA
(Latonero 2018, Comissário para os Direitos Humanos 2019, WEF 2019).

A discussão dos princípios de responsabilidade a nível da UE é um bom exemplo das opções


regulamentares mais específicas que estão a ser exploradas. Durante uma recente revisão das
opções regulatórias para a governança legislativa da IA, em particular no nível europeu, Rodrigues
et al. (2020) pesquisou o cenário legislativo atual e identificou as seguintes propostas que estão
em discussão ativa:

• a adoção de definições comuns da UE •


avaliações de impacto algorítmicas sob o Regulamento Geral de Proteção de Dados
(RGPD)
• criação de status de personalidade eletrônica para sistemas autônomos • o
estabelecimento de um sistema abrangente da UE de registro de avançado
robôs
• uma força-tarefa da UE de reguladores específicos de campo para IA/
big data • uma lista especial a nível da UE de direitos de robôs • um fundo
geral para todos os robôs autônomos inteligentes • avaliação obrigatória
do impacto na proteção do consumidor • sandboxes regulatórios •
avaliações de impacto obrigatórias em três níveis para novas tecnologias
• o uso de regulamentações antitruste para acabar com a grande tecnologia e
nomear reguladores • certificação voluntária/obrigatória de sistemas de decisão algorítmica

Usando uma estratégia de avaliação pré-definida, todas essas propostas foram avaliadas.
A avaliação geral sugeriu que muitas dessas opções tinham escopo amplo e careciam de requisitos
específicos (Rodrigues et al. 2020). Eles se concentraram demais em questões bem estabelecidas,
como preconceito e discriminação, mas negligenciaram outras questões de direitos humanos, e as
restrições de recursos surgiriam de atividades intensivas em recursos, como a criação de agências
reguladoras e a obrigatoriedade de avaliações de impacto.
Sem entrar em mais detalhes do que o apropriado para um Springer Brief, o que parece claro é
que a legislação e a regulamentação desempenharão um papel crucial em encontrar maneiras de
garantir que a IA promova o florescimento humano. Uma revisão recente do discurso da mídia
sobre IA (Ouchchy et al. 2020) mostra que a regulamentação é um tópico-chave, embora não haja
acordo sobre se e qual regulamentação é desejável.
Há, no entanto, uma opção regulatória atualmente em debate acalorado que tem o potencial de
afetar significativamente a forma futura do uso da tecnologia na sociedade e que, portanto, discuto
separadamente na próxima seção.
Machine Translated by Google

5.1 Opções no nível da política 59

5.1.3 Regulador IA

A criação de um regulador para IA é uma das opções regulatórias. Só faz sentido ter uma se
houver algo a regulamentar, ou seja, se houver regulamentação que precise ser fiscalizada e
aplicada. Diante da multiplicidade de opções regulatórias descritas na seção anterior, pode-se
perguntar se há necessidade de um regulador específico para IA, uma vez que não está claro
qual será o regulamento.
É novamente instrutivo olhar para a atual discussão da UE. O Livro Branco da CE (Comissão
Europeia 2020a) caminha com muito cuidado a esse respeito e discute sob o título de
“Governança” uma rede de autoridades nacionais, bem como redes setoriais de autoridades
reguladoras. Além disso, propõe que um comitê de especialistas possa prestar assistência à
CE. Isso mostra uma relutância em criar uma nova instituição. A contraproposta do Parlamento
Europeu (2020a) assume uma posição muito mais forte. Renova um apelo anterior à designação
de uma “Agência Europeia para a Inteligência Artificial”. O Artigo 14 do regulamento proposto
sugere a criação de uma autoridade supervisora em cada estado membro europeu (ver, por
exemplo, missão Datenethikkom 2019) que seria responsável por fazer cumprir as formas de
lidar com questões éticas de IA. Estas autoridades nacionais de supervisão terão de colaborar
estreitamente entre si e com a Comissão Europeia, de acordo com a proposta do Parlamento
Europeu.

Uma rede de reguladores, ou mesmo a criação de todo um novo conjunto de órgãos


reguladores, provavelmente encontrará oposição significativa. Uma questão-chave que precisa
ser abordada é a competência exata do regulador. Uma possível fonte de confusão é indicada
nos títulos das respectivas propostas de política. Onde a CE fala apenas de inteligência artificial,
o Parlamento Europeu fala de IA, robótica e tecnologias relacionadas. A falta de uma definição
clara de IA provavelmente criará problemas
Uma segunda preocupação diz respeito à distribuição das responsabilidades existentes e
potenciais futuras. A questão da relação entre as autoridades de supervisão da IA e os
reguladores setoriais existentes não é clara. Se, por exemplo, um sistema de aprendizado de
máquina usado no setor financeiro levantasse preocupações sobre preconceito e discriminação,
não está claro se o regulador financeiro ou o regulador de IA seria responsável por lidar com o
problema.
Embora a questão de criar um regulador ou alguma outra estrutura de governança capaz de
assumir as funções de um regulador permaneça em aberto, é evidente que pode ser um
mecanismo de apoio útil para garantir que a regulamentação potencial possa ser aplicada.
De fato, a possibilidade de execução é uma das principais razões para pedidos de
regulamentação. Tem sido frequentemente observado que falar de ética pode ser apenas uma
tentativa de manter a regulamentação sob controle e, assim, tornar qualquer intervenção
impotente (Nemitz 2018, Hagendorff 2019, Coeckelbergh 2019). Não está claro, no entanto, que
os processos legislativos fornecerão os mecanismos para abordar com sucesso a ética da IA
(Clarke 2019a). É, por isso, útil compreender outras categorias de medidas de mitigação, pelo
que passo agora às propostas que têm sido dirigidas às organizações.
Machine Translated by Google

60 5 Abordando questões éticas em IA

5.2 Opções no Nível Organizacional

As organizações, sejam elas públicas ou privadas, com fins lucrativos ou não, desempenham
um papel central no desenvolvimento e implantação da IA. Muitas das decisões que influenciam
os resultados éticos são tomadas pelas organizações. As organizações também colherão muitos
dos benefícios da IA, principalmente os benefícios financeiros de desenvolver ou implantar a IA.
Eles estão, portanto, intimamente envolvidos no discurso da ética da IA. Nesta seção, distingo
entre compromissos da indústria, governança organizacional e iniciativas estratégicas que
organizações de diferentes tipos podem adotar para abordar questões éticas de IA.

5.2.1 Compromissos da Indústria

Para alcançar objetivos éticos na indústria, muitas vezes é útil que as organizações unam
forças, por exemplo, na formulação de objetivos éticos (Leisinger 2003). Embora as organizações
não necessariamente compartilhem objetivos, benefícios ou encargos, certamente existem
grupos de organizações que têm interesses e posições comuns. Uma ação que tais organizações
podem realizar é formar associações para formular seus pontos de vista e alimentá-los no
discurso social mais amplo. O exemplo mais proeminente de tal associação de organizações é
a Partnership on AI,1 que inclui os gigantes da Internet – Google, Apple, Facebook, Amazon,
Microsoft – bem como uma série de organizações acadêmicas e da sociedade civil. Outras
associações, como a Big Data Value Association2, concentram-se em questões ou áreas
específicas, como big data na Europa.
As associações industriais podem não ter a confiança do público quando representam
interesses industriais, onde estes são vistos como contrários ao bem público mais amplo. Por
exemplo, o abrangente Edelman Trust Barometer (Edelman 2020: 23) constatou que 54% dos
entrevistados acreditavam que as empresas eram injustas, pois atendia apenas aos interesses
de poucos, em vez de servir a todos de maneira igual e justa.

Por exemplo, parece razoável supor que um dos principais propósitos da Partnership on AI
é fazer lobby junto aos tomadores de decisão política de forma favorável às empresas. Ao
mesmo tempo, é reconfortante, e talvez um testemunho da alta visibilidade da ética da IA, que
os pronunciamentos da Parceria sobre IA enfatizem questões éticas com mais intensidade do
que a maioria das posições governamentais. A maioria dos membros da Partnership on AI são
entidades sem fins lucrativos, e suas declarações posicionam claramente o propósito da IA no
que descrevi como IA para o florescimento humano. A Partnership on AI tem um conjunto de
princípios publicados em seu site que começa dizendo:
Acreditamos que as tecnologias de inteligência artificial são uma grande promessa para melhorar a
qualidade de vida das pessoas e podem ser aproveitadas para ajudar a humanidade a enfrentar importantes
desafios globais, como mudança climática, alimentação, desigualdade, saúde e educação. (Parceria em AI nd)

1https://www.partnershiponai.org/ 2http://
www.bdva.eu/
Machine Translated by Google

5.2 Opções no Nível Organizacional 61

Os cínicos podem argumentar que este é um exemplo de lavagem ética (Wagner 2018) com o
objetivo principal de evitar a regulamentação (Nemitz 2018). No entanto, embora possa haver alguma
verdade na acusação de lavagem ética, as grandes empresas de internet estão se comprometendo
pública e coletivamente com esses nobres objetivos. Também é importante ver isso no contexto de
outras atividades corporativas, como o compromisso de longa data do Google de não ser mau,3 a
decisão do Facebook de instituir um processo de revisão ética (Hoffman 2016) e a abordagem da
Microsoft para uma IA responsável (Microsoft nd).
Cada uma dessas empresas foi individualmente criticada por motivos éticos e provavelmente
continuará a ser criticada, mas, no que diz respeito à ética da IA neste livro, vale a pena notar que
elas, pelo menos, são alguns dos desenvolvedores e implantadores mais visíveis da IA. , use uma
retórica totalmente alinhada com a IA para o florescimento humano.
Isso abre a questão: o que as empresas podem fazer se quiserem assumir um compromisso
sério com a IA ética? Examinarei algumas das opções na seção a seguir sobre governança
organizacional.

5.2.2 Governança Organizacional

Neste título, discuto uma série de atividades realizadas dentro das organizações que podem ajudá-
las a lidar com vários aspectos éticos ou de direitos humanos da IA. A maioria deles está bem
estabelecida e, em muitos casos, formalizada, muitas vezes sob regimes jurídicos.
Um exemplo dessa abordagem de governança existente é a governança corporativa de tecnologia
da informação que as organizações podem instituir seguindo os padrões existentes (ISO 2008). As
questões éticas da IA relacionadas a grandes conjuntos de dados podem, pelo menos até certo
ponto, ser abordadas por meio de governança de dados apropriada. A governança de dados
organizacionais não está necessariamente preocupada com questões éticas (Tallon 2013, British
Academy e Royal Society 2017), mas quase invariavelmente toca em questões de relevância ética.
Isso é mais óbvio em algumas áreas do que em outras. No campo da saúde, por exemplo, onde a
sensibilidade dos dados do paciente e da saúde é universalmente reconhecida, o gerenciamento e
a governança de dados são explicitamente vistos como formas de garantir objetivos éticos
(Rosenbaum 2010, OECD 2017). A proximidade de preocupações éticas e governança de dados
também levou ao desenvolvimento de abordagens de governança de dados explicitamente
desenvolvidas em torno de premissas éticas (Fothergill et al. 2019).

A proteção de dados faz parte do campo mais amplo de governança de dados, a parte que se
concentra na proteção de dados pessoais. A proteção de dados é uma exigência legal na maioria
das jurisdições. Na UE, onde o GDPR rege as atividades de proteção de dados, a proteção de dados
é estruturada de forma relativamente clara e as organizações estão cientes de suas responsabilidades.
O GDPR trouxe algumas novas práticas, como a nomeação de um data

3Houve uma mudança na forma como o Google comunica isso, mas em sua atual exposição de “Dez
coisas que sabemos serem verdadeiras”, o Google ainda afirma: “Você pode ganhar dinheiro sem fazer o mal”
(Google sem).
Machine Translated by Google

62 5 Abordando questões éticas em IA

responsável pela proteção de organizações, um cargo cuja obrigação de promover a proteção de dados
pode prevalecer sobre as obrigações para com o empregador. A proteção de dados na Europa é aplicada
pelas autoridades de proteção de dados: no Reino Unido, por exemplo, pelo Information Commissioner's
Office (ICO). As autoridades nacionais são apoiadas pelo Conselho Europeu de Proteção de Dados, que
promove a cooperação e a aplicação consistente da lei. O Supervisor Europeu de Proteção de Dados é
uma autoridade supervisora independente no nível da UE que faz parte do conselho. Este é um exemplo
de uma estrutura de governança multinível que define responsabilidades claras no nível organizacional,
mas se estende desde o funcionário individual até as atividades regulatórias nacionais e internacionais.
Voltarei a isso no capítulo de recomendações como um exemplo de um tipo de estrutura de governança
que pode ser apropriada para IA de forma mais ampla.

Violações de proteção de dados são, para muitas empresas, um risco que precisa ser gerenciado. Da
mesma forma, o tópico mais amplo da ética da IA pode envolver riscos, não apenas em termos de
reputação, mas também de responsabilidade, que as organizações podem tentar abordar por meio de
processos de gerenciamento de riscos novos ou existentes. Dado que a avaliação e o gerenciamento de
riscos são processos bem estabelecidos na maioria das organizações, eles podem fornecer o local para
abordar as questões éticas da IA. Clarke (2019b) , portanto, propõe um foco nesses processos para
estabelecer uma IA responsável.
Uma desvantagem da abordagem de gerenciamento de riscos organizacionais para a ética da IA é
que ela se concentra nos riscos para a organização, não nos riscos para a sociedade. Para que questões
sociais mais amplas sejam abordadas, o foco do gerenciamento de risco organizacional precisa ser
ampliado além dos limites organizacionais. Como Clarke (2019b) afirma com razão, isso exige que a
organização adote abordagens responsáveis para a IA, que precisam ser incorporadas a uma cultura
organizacional de suporte e a propósitos de negócios que fortaleçam a motivação para alcançar resultados
eticamente desejáveis.
O debate sobre a ética da IA na UE parece pender fortemente para uma abordagem baseada no risco.
Isso é perfeitamente razoável, pois muitos aplicativos de IA serão inofensivos e qualquer tentativa de
regulá-los não apenas provavelmente falhará, mas também será totalmente supérfluo. No entanto, existem
alguns aplicativos de IA que são de alto risco e precisam de um exame minucioso, e pode ser impossível
permitir que alguns deles avancem devido a considerações éticas (Krafft et al 2020). Isso levanta a
questão de quem é a responsabilidade de avaliar e gerenciar quaisquer riscos. O Parlamento Europeu
(2020b) sugeriu que o implantador de um sistema de IA está no controle de quaisquer riscos. O nível de
risco deve determinar o regime de responsabilidade ao abrigo do qual os danos são tratados. Para que o
implantador tenha clareza sobre o nível de risco, o Parlamento Europeu sugeriu que a CE deveria manter
uma lista de sistemas de IA de alto risco que requerem escrutínio especial e estariam sujeitos a um regime
de responsabilidade estrita. No anexo ao seu projeto de regulamento, o Parlamento Europeu enumera as
seguintes tecnologias: aeronaves não tripuladas, veículos autónomos (automação de nível 4 e 5), sistemas
autónomos de gestão de tráfego, robôs autónomos e dispositivos autónomos de limpeza de locais públicos
(Fig. 5.1).

Essa abordagem de foco em áreas de alto risco tem a vantagem de clareza jurídica para as
organizações envolvidas. Sua fraqueza é que ele faz suposições sobre o nível de risco que podem ser
difíceis de sustentar. Se o risco for determinado pela “gravidade de possíveis danos ou danos, a
probabilidade de que o risco se materialize e a maneira pela qual o
Machine Translated by Google

5.2 Opções no Nível Organizacional 63

não tripulado Veículos

aeronave autônomos
(nível 4 e 5)

Sistemas de IA de alto
risco de acordo com
europeu
Parlamento
Sistemas
Dispositivos
autônomos de
autônomos de
gerenciamento
limpeza de locais públicos
de tráfego

robôs autônomos

Fig. 5.1 Sistemas de IA de alto risco de acordo com o Parlamento Europeu (2020b)

O sistema AI está sendo usado” (Parlamento Europeu 2020b: art. 3(c)), então é difícil ver como
uma lista abstrata como a ilustrada na Figura 5.1 pode determinar o nível de risco. Os exemplos
dados na proposta de regulamento são todos de sistemas que comportam risco de lesões
corporais, o que é compreensível no contexto de um regulamento de responsabilidade fortemente
influenciado pela responsabilidade por sistemas existentes, nomeadamente do setor automóvel.
Não está claro, no entanto, como alguém compararia o risco de, digamos, ser atingido por um
drone em queda com o risco de ser acusado injustamente de um crime ou o risco de manipulação
política de uma eleição democrática.
No entanto, parece provável que prevaleça uma abordagem baseada no risco, e há boas
razões para isso. A Datenethikkommission alemã (2019) propôs um sistema de regulamentação
que pode servir como um bom exemplo da abordagem baseada em risco. O processo de
alocação de sistemas de IA para esses esquemas de risco (ou similares) será fundamental para
o sucesso de uma abordagem baseada em risco para a ética da IA em nível social, que é uma
condição para que as organizações a implementem com sucesso.
A gestão de riscos precisa ser baseada na compreensão dos riscos, e um aspecto dos riscos
são as possíveis consequências ou impactos na sociedade. Portanto, é importante que as
organizações que visam abordar a ética da IA de forma proativa realizem avaliações de impacto
apropriadas. Alguns tipos de avaliação de impacto já estão bem estabelecidos e muitas
organizações estão familiarizadas com eles. Avaliações de impacto de proteção de dados, um
desenvolvimento de avaliações de impacto de privacidade (Clarke 2009, ICO 2009, CNIL 2015),
por exemplo, fazem parte do regime de proteção de dados estabelecido pelo GDPR e, portanto,
são amplamente implementadas. Outros tipos de avaliação de impacto abrangem o impacto
ambiental (Hartley e Wood 2005), o impacto social (Becker 2001, Becker e Vanclay 2003), o
impacto ético (Wright 2011, CEN-CENELEC 2017) e qualquer impacto sobre os direitos humanos
(Latonero 2018). .
Machine Translated by Google

64 5 Abordando questões éticas em IA

No geral, as várias medidas que contribuem para a boa governança organizacional da IA constituem
uma parte importante das boas práticas que as organizações podem adotar para reduzir os riscos da IA.
Eles podem desejar tomar essas medidas porque querem fazer a coisa certa, mas uma adoção diligente
de boas práticas também pode servir como defesa contra reclamações de responsabilidade se algo der
errado. Isso aponta para o último aspecto das respostas organizacionais que quero discutir aqui, os
compromissos estratégicos de uma organização.

5.2.3 Iniciativas Estratégicas

Muitas empresas percebem que suas responsabilidades são amplas e, portanto, incluem o compromisso
com princípios e práticas éticas em seu pensamento estratégico.
Isso pode ser feito de várias maneiras. O termo mais comum usado para denotar o compromisso de
uma organização com o bem maior é “responsabilidade social corporativa” (CSR).
(Garriga e Melé 2004, Blue & Green Tomorrow 2013, Janssen et al. 2015).
Bibliotecas têm escrito sobre RSE. Para os propósitos deste livro, basta dizer que a RSE está bem
estabelecida como um conceito reconhecido pelas organizações que pode muito bem servir como ponto
de partida para a discussão dos aspectos éticos da IA.
Uma atividade frequentemente fomentada pela RSC e sem dúvida de importância central para
garantir a cobertura adequada de questões éticas nas organizações é o engajamento das partes interessadas.
As partes interessadas, seguindo Freeman e Reed (1983), são indivíduos ou grupos significativamente
afetados por uma ação ou potencialmente em risco, que, portanto, têm uma “participação” nela
(Donaldson e Dunfee 1999). O termo “stakeholder” foi cunhado por Freeman e seus colaboradores
(Freeman e Reed 1983) como um contraponto ao foco exclusivo nos acionistas. O engajamento das
partes interessadas é agora bem reconhecido como uma forma de as organizações entenderem melhor
seu ambiente (O'Riordan e Fairbrass 2014). No mundo das TIC, do qual a IA faz parte, pode haver uma
afinidade entre o envolvimento das partes interessadas e o envolvimento do usuário (Siponen e
Vartiainen 2002). Entende-se por usuários aquelas pessoas que se beneficiarão dos produtos ou serviços
de uma empresa, uma vez lançados, enquanto stakeholders são aqueles que podem sofrer impacto do
trabalho da empresa, sejam eles usuários do produto ou serviço ou não.

O engajamento das partes interessadas pode abranger uma ampla gama de atividades, e há pouco
consenso sobre quais métodos devem ser empregados para garantir resultados eticamente aceitáveis.
Uma forma mais estruturada para as organizações sinalizarem seu desejo estratégico de levar as
questões éticas a sério, que pode incluir o engajamento das partes interessadas, mas vai além disso, é
a integração dos direitos humanos na estratégia e nas práticas organizacionais.

Como várias das questões éticas de IA mais proeminentes também são questões de direitos
humanos (privacidade, igualdade e não discriminação), houve apelos para governos e também atores
do setor privado para promover os direitos humanos ao criar e implantar IA (Acesso Now Policy Team
2018). A natureza exata da relação entre ética e direitos humanos está em debate. Embora não sejam
idênticos, eles são pelo menos sinérgicos (WEF 2018).
Machine Translated by Google

5.2 Opções no Nível Organizacional 65

Felizmente, a questão da integração dos direitos humanos nos processos organizacionais não
é inteiramente nova. A ONU desenvolveu princípios orientadores para empresas e direitos
humanos que fornecem ajuda na implementação da estrutura da ONU “proteger, respeitar e
remediar” (Nações Unidas 2011). Embora sejam genéricos e não se concentrem especificamente
na IA, existem outras atividades que desenvolvem ainda mais o pensamento sobre IA e direitos
humanos. O Conselho da Europa desenvolveu princípios para a proteção dos direitos humanos
em IA (Comissário de Direitos Humanos 2019) e orientações mais detalhadas sob medida para
empresas foram desenvolvidas pela BSR (Allison-Hope e Hodge 2018).

As seções anteriores mostraram que existem inúmeras opções para as organizações


buscarem, se quiserem abordar questões éticas de IA. Uma questão fundamental é se as
organizações realmente percebem e implementam essas opções.

5.2.4 Insights empíricos sobre a ética da IA nas organizações

Como parte dos estudos de caso empíricos realizados para entender a realidade social da ética
da IA (consulte Macnish et al. 2019), os entrevistados foram questionados sobre suas respostas
organizacionais a essas questões. Vale destacar, no entanto, que a partir dos estudos de caso
ficou claro que as organizações são altamente sensíveis a algumas questões, notadamente
aquelas questões específicas relacionadas ao aprendizado de máquina que são discutidas com
destaque na mídia, como preconceito, discriminação, privacidade e proteção de dados , ou segurança de dados.
A Figura 5.2 resume e categoriza as estratégias seguidas pelas organizações investigadas.

As organizações pesquisadas dedicaram esforços significativos à conscientização e reflexão,


por exemplo, por meio do engajamento das partes interessadas, da criação de conselhos de ética

Descobertas empíricas

Consciência e
Técnico Formação e educação Equilibrar
reflexão Supervisão humana
abordagens ética produtos concorrentes
organizacional

• partes interessadas • Anonimização • • Necessário para • Especialistas • Controle sobre

engajamento • confiabilidade técnicos dados


Pseudo anonimização
Conselhos de • Tecnologia • Parcerias público-
revisão de ética Usuários privadas
• Armazenamento
• Adoção de seguro • Hackathons
códigos e
• Penetração
padrões
testando
• Ênfase nos
benefícios (éticos) •
Dilemas éticos (não
resolvidos)

Fig. 5.2 Como as organizações de estudo de caso abordam questões éticas de IA: descobertas empíricas
Machine Translated by Google

66 5 Abordando questões éticas em IA

e trabalhando com padrões, e eles consideraram explicitamente dilemas e questões sobre como
custos e benefícios poderiam ser equilibrados. Eles empregaram particularmente abordagens
técnicas, principalmente para segurança e proteção de dados. Houve ênfase repetida na
supervisão humana, e várias das empresas ofereceram treinamento e educação. Em suas
tentativas de equilibrar bens concorrentes, eles às vezes buscavam estruturas organizacionais
como parcerias público-privadas que pudessem ajudá-los a encontrar posições compartilhadas.

A pesquisa no nível organizacional mostrou que as organizações públicas e privadas na


Europa levam a ética da IA muito a sério, embora o tamanho da amostra não seja suficiente
para fazer essa afirmação de forma ampla. As organizações se envolveram proativamente com
o tema e estavam considerando ou já adotavam várias medidas para lidar com os desafios
éticos. É perceptível que essas medidas se concentraram em um subconjunto das questões
éticas descritas anteriormente, notadamente nas questões específicas decorrentes do
aprendizado de máquina e em particular aquelas que já eram bem regulamentadas, como a proteção de dados.
Da mesma forma, as organizações da amostra não utilizaram toda a gama de estratégias
organizacionais sugeridas pela literatura. Eles não faziam parte de nenhuma associação do
setor que visasse influenciar o ambiente de ética da IA. E, embora provavelmente tivessem
estruturas de gerenciamento de risco organizacional ou avaliação de impacto, elas não foram
destacadas como essenciais para abordar a ética da IA. O engajamento das partes interessadas
foi uma ferramenta importante em seu inventário. E embora reconhecessem a importância dos
direitos humanos, não faziam uso de métodos formalizados para a integração dos direitos
humanos em seus processos.
Resumindo, pode-se dizer que as descobertas empíricas do trabalho com organizações
sugerem que, apesar de um alto nível de interesse e conscientização sobre a ética da IA, ainda
existem inúmeras opções que poderiam ser usadas de forma mais ampla e há amplo espaço
para desenvolvimento.
Isso leva ao próximo ponto, que é a questão do que os indivíduos dentro e fora das
organizações podem fazer para entender melhor as questões éticas da IA e quais atividades
podem ser realizadas para lidar com essas questões de maneira eficaz.

5.3 Mecanismos de Orientação

O termo “mecanismos de orientação” é usado para descrever a infinidade de opções e


mecanismos de suporte destinados a ajudar indivíduos e organizações a navegar nas águas da
ética da IA, um ambiente muito dinâmico com muitos atores contribuindo para o debate e
fornecendo ferramentas.
Esta seção apresenta uma breve visão geral de algumas das atividades atuais. Ele pretende
fornecer uma ilustração de algumas das opções que estão disponíveis e que complementam as
atividades de política e nível organizacional. Os mecanismos de orientação não são
independentes das opções políticas e organizacionais, mas muitas vezes os sustentam ou
resultam deles e oferecem formas de implementá-los. Alguns dos mecanismos de orientação
listados aqui são anteriores ao debate sobre a ética da IA, mas são aplicáveis a ele, enquanto
outros foram criados em resposta direta à ética da IA.
Machine Translated by Google

5.3 Mecanismos de Orientação 67

O primeiro conjunto de mecanismos consiste em diretrizes que visam ajudar os usuários


a navegar no cenário ético da IA. Os mais proeminentes de uma perspectiva europeia
foram desenvolvidos pelo Grupo de Especialistas de Alto Nível em IA (2019) , reunido pela
Comissão Europeia. Essas diretrizes se destacam por causa de sua ligação direta com os
formuladores de políticas e provavelmente influenciarão fortemente a legislação em nível
europeu sobre IA. Eles não são de forma alguma o único conjunto de diretrizes. Jobin e
outros. (2019) identificaram 84 conjuntos de diretrizes éticas de IA. Em um estudo
relacionado, foram encontrados nove conjuntos adicionais de diretrizes (Ryan e Stahl
2020). E não há dúvida de que a produção de pautas continua, de modo que quando essas
palavras forem vistas por um leitor, haverá mais.
Jobin et al (2019) fazem um excelente trabalho ao fornecer uma visão geral do cenário
das diretrizes e dos temas e tópicos comuns que o permeiam. Eles também mostram que
existem temas comuns que os atravessam e são boas maneiras de destacar os princípios-
chave e explicar as expectativas gerais. As diretrizes têm uma série de deficiências, no
entanto. Eles tendem a ser de alto nível e, portanto, não fornecem conselhos imediatamente
acionáveis. O Grupo de Especialistas de Alto Nível da UE (2020) está, portanto,
desenvolvendo ferramentas mais aplicáveis.
Além das questões de implementação, há várias preocupações mais gerais sobre as
diretrizes. O grande número dessas diretrizes e suas iniciativas subjacentes podem causar
confusão e ambiguidade (Floridi e Cowls 2019). Há uma suspeita de que eles possam ser
dominados por interesses corporativos (Mittelstadt 2019), uma preocupação que foi
expressa com destaque por membros do Grupo de Especialistas de Alto Nível (Metzinger
2019). As diretrizes podem ser interpretadas como exemplos de lavagem ética ou de evitar
a legislação (Hagendorff 2019), conforme observado anteriormente.
Apesar de suas desvantagens, as diretrizes e estruturas éticas provavelmente
continuarão sendo um aspecto fundamental do debate sobre a ética da IA. Alguns deles
estão estreitamente ligados a entidades e associações profissionais, que podem ajudar na
fase de implementação. Alguns órgãos profissionais forneceram orientações específicas
sobre IA e ética (IEEE 2017, USACM 2017). Além disso, eles geralmente incluem questões
de ética da IA como parte de suas atribuições mais amplas. A Association for Computing
Machinery (ACM), por exemplo, o maior órgão profissional em computação, atualizou
recentemente seu código de conduta com o objetivo de garantir que ele cubra os desafios
atuais levantados pela IA (Brinkman et al. 2017). Embora o profissionalismo possa ter um
papel importante a desempenhar na ética da IA, um obstáculo importante é que na
computação, incluindo a IA, o profissionalismo é muito menos desenvolvido do que em
outras áreas, como medicina e direito, onde a governança profissional tem poderes de
execução que estão faltando na computação (Mittelstadt 2019).
Órgãos profissionais geralmente contribuem para a padronização e, em alguns casos,
são os proprietários dos padrões. Na área da IA existem atualmente várias atividades de
normalização, nomeadamente a ISO/IEC JTC 1/SC 42,4 que inclui algumas referências a
questões éticas. Os esforços de padronização mais proeminentes em termos de aspectos éticos

4https://www.iso.org/committee/6794475.html
Machine Translated by Google

68 5 Abordando questões éticas em IA

de IA está sendo realizada pelo Instituto de Engenheiros Elétricos e Eletrônicos (IEEE) em


sua família de padrões P70005 (Peters et al. 2020).
A padronização pode ser vinculada à certificação, algo que o IEEE foi pioneiro com seu
programa de certificação ética para sistemas autônomos e inteligentes.6 Os padrões podem
se tornar altamente influentes de várias maneiras. Uma maneira é exigir legalmente a
certificação em relação a um padrão. Esta parece ser uma ideia-chave atualmente proposta
pela Comissão Europeia (2020a) em seu Livro Branco de IA. Se implementado, isso
significaria que os sistemas de IA de um nível de risco significativo predefinido precisariam
passar por certificação para garantir que as questões éticas fossem tratadas adequadamente,
uma ideia que parece ter apoio significativo em outros lugares (Krafft et al. 2020).
A padronização também pode influenciar ou direcionar outras atividades ao definir
requisitos e atividades. Um exemplo bem estabelecido disso é a padronização em segurança
da informação, onde a série ISO 27000 define as melhores práticas. A padronização pode
fornecer orientação técnica e organizacional em uma série de questões. A série IEEE P7000
é um bom exemplo. Ele visa fornecer padronização para questões específicas, como
privacidade (P7002), tendências algorítmicas (P2003), segurança (P7009) e transparência
(P7001).
Um tipo de mecanismo de orientação com o qual a padronização pode ajudar, mas que
também pode se basear em outras fontes de longa data, são as metodologias de
desenvolvimento. Este é o tópico do IEEE P7000 (processo modelo para abordar questões
éticas durante o projeto de sistemas). A ideia de que as questões éticas podem e devem ser
consideradas no início do processo de desenvolvimento está agora bem estabelecida e é
uma tentativa de abordar o chamado dilema de Collingridge (1981) ou o dilema do controle (ver quadro).

O dilema de Collingridge
Collingridge observou que é relativamente fácil intervir e mudar as características de
uma tecnologia no início de seu ciclo de vida. No entanto, neste ponto, é difícil prever
suas consequências. Mais tarde, quando as consequências se tornam mais visíveis, é
mais difícil intervir. Este é um dilema para quem deseja abordar questões éticas
durante o processo de desenvolvimento.

O dilema de Collingridge não se limita à IA. No campo da computação, ela é composta


pela flexibilidade interpretativa e pela maleabilidade lógica das tecnologias de computação,
que também são claramente características da IA. Embora a incerteza sobre usos futuros de
sistemas continue sendo uma questão fundamental impossível de resolver, houve sugestões
de como abordá-la pelo menos até certo ponto. Muitas dessas sugestões referem-se a
metodologias de desenvolvimento e a maioria remonta a algum tipo de projeto sensível ao
valor (Friedman et al. 2008, van Wynsberghe 2013). A ideia por trás dessas metodologias
geralmente é identificar valores relevantes que devem informar o

5https://ethicsinaction.ieee.org/
6https://standards.ieee.org/industry-connections/ecpais.html
Machine Translated by Google

5.3 Mecanismos de Orientação 69

desenvolvimento e uso de uma tecnologia e, em seguida, envolver-se com as partes interessadas relevantes
na discussão sobre como isso pode ser alcançado.

O exemplo mais proeminente de tal metodologia é a privacidade desde a concepção (ICO 2008,
Cavoukian 2009), que o GDPR agora exige em algumas circunstâncias como proteção de dados desde a
concepção (Hansen 2016). Foram feitas tentativas para ir além da questão específica de privacidade e sua
implementação por meio da proteção de dados e identificar questões mais amplas por meio da ética desde
o design (Martin e Makoundou 2017, Beard e Longstaff 2018, Dignum et al. 2018).

As propostas de metodologias de desenvolvimento também abrangem etapas específicas do ciclo de


vida do desenvolvimento, como testes de sistemas, por exemplo, por meio de testes de penetração ética,
uma ideia retirada da prática de segurança de computadores (Berendt 2019) ou testes contraditórios (WEF
2019). Winfield e Jirotka (2018) sugerem transferir a ideia de caixa preta, bem conhecida da indústria da
aviação, para sistemas autônomos. Isso permitiria rastrear o curso dos eventos no caso de um incidente,
assim como a caixa preta de um avião nos ajuda a entender a causa de um acidente de tráfego aéreo. Além
disso, agora existem metodologias de desenvolvimento que visam especificamente abordar a ética da IA,
como o modelo VCIO (Values, Criteria, Indicators, Observables) sugerido pelo AIEI Group (Krafft et al. 2020)
ou os princípios ART de Virginia Dignum para IA responsável (Responsabilidade, Responsabilidade,
Transparência) (Dignum 2019).

Além disso, há um conjunto de ferramentas em rápido crescimento para abordar vários aspectos da ética
da IA (Morley et al. 2019). Estes são publicados por grupos associados a financiadores de pesquisa, como o
Wellcome Data Lab (Mikhailov 2019), enquanto outros são originários de organizações não governamentais
e da sociedade civil, como Doteveryone e seu kit de escaneamento de consequências. (TecnologiaTransformada
2019). Ainda outros são baseados em universidades, como o AI Now Institute, que publicou uma avaliação
de impacto algorítmico (Reisman et al. 2018), e ainda mais vêm de organizações profissionais como o Double
Diamond do UK Design Council (Design Council nd). Por fim, alguns conjuntos de ferramentas para abordar
a ética da IA são originários de empresas como a PWC, que publicou um guia prático para inteligência
artificial responsável (PWC 2019).

Além desses mecanismos de orientação voltados especificamente para fornecer suporte para lidar com
os desafios éticos da IA, existem muitas outras opções originadas em atividades de pesquisa e reflexão em
ciência e tecnologia que podem fazer parte do discurso mais amplo de como apoiar a ética da IA. Isso inclui
atividades como a antecipação de tecnologias futuras e suas questões éticas, algumas das quais estão
intimamente ligadas à tecnologia digital (Brey 2012, Markus e Mentzer 2014, Nordmann 2014), mas também
podem se basear no campo mais amplo de futuro e previsão (UNIDO 2005, Sardar 2010). O diálogo com as
partes interessadas e o envolvimento do público constituem outro grande campo de atividade que
desempenhará um papel central na ética da IA, com base em grandes quantidades de trabalho anterior para
fornecer muitas metodologias (Engage2020 nd). Um último ponto que vale a pena mencionar aqui é a
educação, que desempenha um papel fundamental em muitas das opções de mitigação. Ensinar, treinar,
conscientizar e educar são pilares para facilitar um discurso político e alcançar os formuladores de políticas,
mas também para provocar um senso de responsabilidade dos desenvolvedores e implantadores de IA.

A Tabela 5.1 resume as opções de mitigação discutidas neste capítulo.


Machine Translated by Google

70 5 Abordando questões éticas em IA

Tabela 5.1 Visão geral das opções para mitigar questões éticas em IA Nível
de política Iniciativas
de política Recomendações da OCDE Acesso aberto / fornecimento
de dados Tributação / redistribuição
Personalidade de TIC verde para agentes
autônomos White Paper da EC AI
Parlamento da UE Iniciativas nacionais
Regulação da IA Atual

iniciativas

Lei de propriedade intelectual


Lei da concorrência
Proteção de dados
Regulamentos existentes Legislação de direitos humanos
lei de responsabilidade

Propostas regulatórias
Princípios da regulamentação da IA
regulador de IA Novo regulador de IA
Expandir o escopo do regulador existente
Centro de competência para IA
Rede de reguladores
nível organizacional
Parceria em IA
Compromissos da indústria
Associação de valor de big data
Governança da informação (ISO)
governança Gestão de dados
organizacional Proteção de dados
Gerenciamento de riscos (Clarke 2019b)
Avaliação do impacto da proteção de dados
Avaliação de impacto ambiental
Avaliação impactante Avaliação de impacto social
Avaliação de impacto ético
Avaliação de impacto nos direitos humanos
Dever de cuidado / boas práticas
Iniciativas Responsabilidade social corporativa
estratégicas Engajamento das partes interessadas

concelho Europeu
Inteligência artificial: um modelo de negócios baseado
Direitos humanos em direitos
nas empresas princípios orientadores da ONU
Limites dos direitos humanos
Mecanismos de orientação
Diretrizes e
estruturas de ética
da IA
Profissionalismo
Estandardização Família IEEE P7000
ISO/IEC JTC 1/SC 42 – Inteligência artificial
Certificação (IEEE)
Técnico IA transparente/explicável
intervenções Segurança da IA

(contínuo)
Machine Translated by Google

5.3 Mecanismos de Orientação 71

Tabela 5.1 (continuação)


Metodologias de Design sensível ao valor
desenvolvimento Privacidade por design
Ética por design
Pentest de Ética
teste adversário
Caixa preta
modelo VCIO
ARTE (Dignum 2019)
Ferramentas de ética de IA Bem-vindo laboratório de dados

Ética ágil em IA
Escaneamento ágil de consequências de Doteveryone
Diamante duplo responsável “R2D2”
Estrutura de avaliação de impacto algorítmica do AI Now
SO ético (antecipação do impacto futuro)
Kit de ferramentas AS responsável pela PWC
Atividades Antecipação
gerais de Diálogo das partes interessadas
apoio Engajamento público
Educação / treinamento

A tabela representa as maneiras pelas quais a ética da IA pode ser abordada, destacando os
tópicos mencionados no texto acima. Ele ilustra as principais opções, mas não pode afirmar que
todas as estratégias são cobertas, nem que as opções individuais disponíveis para um determinado
ramo sejam exaustivas. Na verdade, muitos deles, por exemplo, as ferramentas de ética da IA e as
estruturas de ética da IA, abrangem dezenas, senão centenas de alternativas. Destacar as principais
vertentes do debate atual demonstra a riqueza do campo. Um ponto final que aumenta a complexidade
é o conjunto de partes interessadas envolvidas, que abordarei agora.

5.4 Partes interessadas da Ética da IA

Conforme observado anteriormente, e seguindo Freeman e Reed (1983), as partes interessadas


são indivíduos ou grupos que são significativamente afetados por uma ação ou potencialmente em risco.
O conceito é amplamente utilizado na literatura organizacional para ajudar as organizações a
identificar quem elas precisam considerar ao tomar decisões ou agir (Donaldson e Preston 1995,
Gibson 2000).
Existem metodologias para identificação e engajamento de partes interessadas que permitem
uma análise sistemática e abrangente das partes interessadas, incluindo métodos específicos de
análise de partes interessadas para sistemas de informação (Pouloudi e Whitley 1997).
Um desafio em relação à identificação das partes interessadas da IA é que, dependendo do
significado do termo “IA” usado e da extensão das consequências sociais cobertas, a maioria, senão
todos os seres humanos, organizações e órgãos governamentais são partes interessadas. Nesse
contexto, o termo perde sua utilidade, pois não auxilia mais na análise nem permite tirar conclusões.
Machine Translated by Google

72 5 Abordando questões éticas em IA

No entanto, é útil para os propósitos deste livro considerar as partes interessadas da IA, pois
uma revisão das partes interessadas informa a compreensão geral do cenário da IA e fornece
suporte importante para o uso da metáfora dos ecossistemas para descrever a IA. Portanto, ofereço
uma breve visão geral dos principais grupos e categorias de partes interessadas, indicando seus
interesses ou possíveis ações, que serão mencionadas posteriormente durante a discussão de
como os ecossistemas de IA podem ser moldados.
A categorização que proponho é entre órgãos orientados por políticas, outras organizações e
indivíduos. Esses três grupos têm papéis diferentes na formação, manutenção e interação nos
ecossistemas de IA. A Figura 5.2 dá uma visão geral dos três grupos principais, incluindo exemplos
das partes interessadas que os constituem. A figura assume a forma de um diagrama de Venn para
indicar que os diferentes grupos não estão completamente separados, mas se sobrepõem
consideravelmente. Um usuário individual, por exemplo, pode trabalhar em uma organização de
partes interessadas e também fazer parte da padronização e desenvolvimento de políticas.

A primeira categoria de partes interessadas na figura refere-se à política. Os formuladores de


políticas e instituições que estabelecem políticas relevantes para IA, incluindo políticas de pesquisa
e políticas de tecnologia, mas também outras políticas relevantes, como políticas que regem regimes
de responsabilidade, têm um papel importante na definição de como as questões éticas e de direitos
humanos relacionadas à IA podem ser abordadas. Isso inclui organizações internacionais como a
ONU, a OCDE e seus órgãos subsidiários, como a UNESCO e a União Internacional de
Telecomunicações.
A União Europeia é altamente influente na formulação de políticas dentro dos estados membros
da UE, e muitas de suas políticas são cumpridas por órgãos políticos fora da UE. A política
internacional é importante porque pode orientar a política nacional, onde normalmente se localiza a
política juridicamente vinculativa em termos de legislação e regulamentação. Os parlamentos e
governos nacionais, portanto, desempenham um papel fundamental em todas as políticas
relacionadas à ética da IA. Os órgãos reguladores que supervisionam a implementação da
regulamentação também tendem a estar situados em nível nacional. Outros órgãos públicos que
são os principais interessados nos debates sobre IA são órgãos de financiamento de pesquisas,
que podem traduzir políticas em estratégias de financiamento e requisitos de implementação.
Frequentemente, fazem parte de órgãos públicos, mas também podem ser financiados
separadamente, como no caso de financiadores de caridade. Na Figura 5.3, situei os órgãos de
ética na categoria de política. Esses órgãos de ética incluem o Grupo de Especialistas de Alto Nível
da UE em IA e também comitês nacionais de ética e comitês de ética em pesquisa ou conselhos
institucionais de revisão, que traduzem princípios gerais em práticas de pesquisa e supervisionam a implementação
A segunda categoria de stakeholders sugerida na Figura 5.3 é a das organizações.
Este grupo inclui membros numerosos e muitas vezes muito diferentes. Poderia ser facilmente
dividido em subcategorias. Para o propósito deste livro, os membros desta segunda categoria são
categorizados pelo fato de que, como organizações, eles têm algum nível de estrutura interna e
continuidade temporal e seu propósito principal não é desenvolver ou implementar políticas
internacionais ou governamentais.
Os principais membros dessa categoria de partes interessadas são organizações comerciais
que desempenham um papel no desenvolvimento, implantação e uso da IA. Isso inclui não apenas
empresas que desenvolvem e implantam IA comercialmente, mas também usuários e empresas que
Machine Translated by Google

5.4 Partes interessadas da Ética da IA 73

Política
Organismos europeu
internacionais União

Órgãos de formuladores
reguladores
fomento à de políticas nacionais
pesquisa

Órgãos de ética

Empresas desenvolvedoras/ Organismos de

implantadoras normalização
Desenvolvedores
ativistas
empresas usuárias Organizações de mídia

especialistas leigos
Corpos
Organizações Usuários
Não
profissionais
educacionais Usuários

Organizações indivíduos

Fig. 5.3 Visão geral das partes interessadas da IA

têm um papel especial a desempenhar, por exemplo, o seguro, que facilita e estabiliza as
relações de responsabilidade.
Existem inúmeras organizações que não estão no negócio de lucrar com a IA, mas estão
envolvidas na cadeia de valor da IA, em particular órgãos profissionais, órgãos de padronização
e instituições educacionais. Estes devem ser incluídos porque têm uma relação óbvia com
algumas das estratégias de mitigação discutidas anteriormente, principalmente o uso de padrões
profissionais, a integração de considerações éticas nos padrões e a conscientização e o
conhecimento por meio da educação. Da mesma forma, as organizações de mídia desempenham
um papel crucial na conscientização sobre questões éticas e na condução do discurso público,
o que, por sua vez, pode motivar o desenvolvimento de políticas.
A terceira e última categoria de partes interessadas nesta visão geral são os indivíduos.
Órgãos e organizações políticas são constituídos por indivíduos e deixariam de existir sem
membros individuais. Na categoria das pessoas singulares importa, no entanto, realçar que
existem pessoas com características que podem não estar abrangidas ou representadas nos
restantes grupos de stakeholders e que ainda têm um direito legítimo a serem ouvidas.

Algumas dessas partes interessadas individuais correspondem a grupos de partes


interessadas organizacionais. Um desenvolvedor pode ser uma grande empresa com fins
lucrativos, mas os aplicativos de IA também podem ser desenvolvidos por um tecnólogo amador
que tenha experiência para criar novas ideias ou aplicativos. Da mesma forma, existem usuários
finais corporativos de IA, mas eles tendem a ter interesses e motivações diferentes dos usuários
finais individuais. Ativistas e especialistas leigos, no entanto, tendem a contribuir para o discurso
público e, assim, moldar as percepções. Mas talvez as partes interessadas individuais mais
importantes, porque são mais facilmente ignoradas, sejam aquelas que se caracterizam pelo
fato de não terem um interesse ativo na IA e não buscarem moldá-la, mas ainda são afetadas
por sua existência. Podem ser indivíduos que não têm acesso a tecnologias de IA
Machine Translated by Google

74 5 Abordando questões éticas em IA

ou tecnologias facilitadoras e, portanto, são excluídos de possíveis benefícios, levantando assim


o problema das divisões digitais. Outro exemplo seria indivíduos que estão sujeitos ao impacto
da IA, mas não têm voz, opinião e escolha no assunto. Exemplos desse grupo seriam
prisioneiros cujas decisões de liberdade condicional são feitas usando IA ou pacientes cujo
diagnóstico e tratamento dependem de IA. Esses são grupos que se beneficiam substancialmente
da IA ou possivelmente sofrem com ela e, portanto, cumprem a definição de “parte interessada”,
mas muitas vezes não têm como fazer suas vozes serem ouvidas.
O objetivo desta visão geral das partes interessadas da IA tem sido demonstrar a
complexidade da população de partes interessadas e indicar os interesses múltiplos e muitas
vezes contraditórios que essas partes interessadas podem ter. Essa visão da distribuição das
partes interessadas acrescenta às visões anteriores da definição de “IA”, a revisão de questões
éticas e estratégias de mitigação. Isso mostra que não existe uma maneira simples e direta de
impulsionar a mudança e promover o florescimento. É importante, por exemplo, entender que a
IA pode levar a preconceitos e discriminação e que o funcionamento da IA pode não ser
transparente. Mas, para chegar a uma avaliação ética sólida, é preciso entender o funcionamento
detalhado da tecnologia em seu contexto de uso.
Para dizer algo útil sobre como os aspectos éticos da IA em um nível mais geral podem ser
compreendidos, avaliados e tratados, é importante ter uma perspectiva diferente: uma que nos
permita olhar para todos os vários aspectos e componentes, mas também permite uma visão
geral de alto nível. Sugiro, portanto, que o debate sobre a ética da IA poderia se beneficiar de
uma visão em nível de sistema, que apresentarei no próximo capítulo.

Referências

Access Now Policy Team (2018) Declaração de Toronto: protegendo o direito à igualdade e à não discriminação
em sistemas de aprendizado de máquina. Acesse Agora, Toronto. https://www.access now.org/cms/assets/
uploads/2018/08/The-Toronto-Declaration_ENG_08-2018.pdf. Acessado em 26 de setembro de 2020

Observatório AI4EU (nd). https://www.ai4eu.eu/observatory. Acessado em 7 de outubro de


2020 AlgorithmWatch (nd) Inventário global de diretrizes de ética de IA. https://inventory.algorithmwatch.org/.
Acessado em 7 de outubro de 2020

Allison-Hope D, Hodge M (2018) Inteligência artificial: um projeto baseado em direitos para negócios. Documento
3: Implementando a devida diligência em direitos humanos. BSR. https://www.bsr.org/reports/BSR-Artificial
Intelligence-A-Rights-Based-Blueprint-for-Business-Paper-03.pdf. Acessado em 6 de outubro de 2020 Beard
M, Longstaff S (2018) Ético desde o design: princípios para uma boa tecnologia. O Centro de Ética, Sydney.
https://ethics.org.au/wp-content/uploads/2018/05/The-Ethics-Centre_PRINCI PLES-FOR-GOOD-
TECHNOLOGY-29JAN.pdf. Acessado em 5 de outubro de 2020. Becker HA (2001) Avaliação de impacto
social. Eur J Oper Res 128:311–321. https://doi.org/10.1016/
S0377-2217(00)00074-6
Becker HA, Vanclay F (eds) (2003) O manual internacional de avaliação de impacto social: avanços conceituais
e metodológicos. Edward Elgar Publishing, Cheltenham, Reino Unido Berendt B (2019) IA para o bem
comum?! Armadilhas, desafios e testes de ética. Paladyn J Behav Robot 10:44–65. https://doi.org/10.1515/
pjbr-2019-0004
Machine Translated by Google

Referências 75

Blue & Green Tomorrow (2013) O guia de responsabilidade social corporativa 2013. http://blueandgr eentomorrow.com/
wp-content/uploads/2013/04/BGT-Guide-to-CSR-10MB.pdf. Acessado em 5 de outubro de 2020

Brey PAE (2012) Ética antecipatória para tecnologias emergentes. Nanoética 6:1–13. https://doi.
org/10.1007/s11569-012-0141-7
Brinkman B, Flick C, Gotterbarn D et al (2017) Ouvindo vozes profissionais: rascunho 2 do código de ética e conduta
profissional da ACM. Comum ACM 60:105–111. https://doi.org/10. 1145/3072528

British Academy, Royal Society (2017) Gerenciamento e uso de dados: governança no século XXI.
Um relatório conjunto da British Academy e da Royal Society, Londres. https://royalsociety.org/-/media/policy/
projects/data-governance/data-management-governance.pdf . Acessado em 5 de outubro de 2020 Cavoukian A
(2009) Privacidade desde o design: os 7 princípios fundamentais. Comissário de Informação e Privacidade de Ontário,
Ontário. https://www.ipc.on.ca/wp-content/uploads/resources/7foundationalprinciples.pdf . Acessado em 6 de
outubro de 2020 CEN-CENELEC (2017) Avaliação de ética para pesquisa e inovação, parte 2: estrutura de
avaliação de impacto ético. CWA 17145-2. Comitê Europeu de Normalização, Bruxelas. http://ftp. cencenelec.eu/EN/
ResearchInnovation/CWA/CWA17214502.pdf. Acessado em 6 de outubro de 2020 Clarke R (2009) Avaliação do
impacto da privacidade: suas origens e desenvolvimento. Comput Law Secur Rev

25:123–135. https://doi.org/10.1016/j.clsr.2009.02.002
Clarke R (2019a) Alternativas regulatórias para IA. Comput Law Secur Rev 35:398–409. https://doi. org/10.1016/
j.clsr.2019.04.008 Clarke R (2019b) Princípios e processos de negócios para IA responsável. Comput Law Secur
Rev
35:410–422. https://doi.org/10.1016/j.clsr.2019.04.007
CNIL (2015) Avaliação do impacto na privacidade (PIA): boa prática. Comissão Nacional de
l'Informatique et des Libertés, Paris
Coeckelbergh M (2019) Inteligência Artificial: algumas questões éticas e desafios regulatórios. Em: Tecnologia e
Regulamentação, pp 31–34. https://doi.org/10.26116/techreg.2019.003 Collingridge D (1981) O controle social da
tecnologia. Palgrave Macmillan, Comissário de Direitos Humanos de Londres (2019) Unboxing da inteligência artificial:
10 passos para proteger os direitos humanos . https://rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-
human-rights-reco/ 1680946e64. Acessado em 6 de outubro de 2020

Comitê de Bioética (DH-BIO) (2019) Plano de ação estratégico sobre direitos humanos e tecnologias em biomedicina
(2020–2025). Concelho Europeu. https://rm.coe.int/strategic-action-plan-final-e/ 16809c3af1. Acessado em 6 de
outubro de 2020
Datenethikkommission (2019) Gutachten der Datenethikkommission – Kurzfassung.
Datenethikkommission der Bundesregierung, Bundesministerium des Innern, für Bau und Heimat, Berlim. https://
www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it digitalpolitik/gutachten-datenethikkommission-
kurzfassung.pdf?__blob=publicationFile&v=4.
Acessado em 6 de outubro de 2020

Design Council (nd) Qual é a estrutura para inovação? O diamante duplo evoluído do conselho de design. https://
www.designcouncil.org.uk/news-opinion/what-framework-innovation-design Councils-evolved-double-diamond.
Acessado em 18 de junho de 2020
Dignum V (2019) Inteligência artificial responsável: como desenvolver e usar IA de forma responsável
caminho. Springer Nature Switzerland AG, Cham, Suíça
Dignum V, Baldoni M, Baroglio C et al (2018) Ética por design: necessidade ou maldição? In: Anais da conferência
AAAI/ACM 2018 sobre IA, ética e sociedade, Nova Orleans, fevereiro de 2018.
Association for Computing Machinery, Nova York, pp 60–66 Donaldson
T, Dunfee TW (1999) Laços que unem: uma abordagem de contratos sociais à ética nos negócios.
Harvard Business Press, Cambridge MA
Donaldson T, Preston LE (1995) A teoria dos stakeholders da corporação: conceitos, evidências e
implicações. Acad Manage Rev 20:65–91. https://doi.org/10.2307/258887
Dutton T (2018) Uma visão geral das estratégias nacionais de IA. https://medium.com/politics-ai/an-ove
rview-of-national-ai-strategies-2a70ec6edfd. Acessado em 7 de outubro de 2020
Machine Translated by Google

76 5 Abordando questões éticas em IA

Edelman (2020) Relatório global do barômetro de confiança da Edelman de 2020. https://edl.mn/2NOwltm. acessado
7 de outubro de 2020

Engage2020 (nd) Catálogo de ações. http://actioncatalogue.eu/. Acessado em 18 de junho de 2020


Comissão Europeia (2020a) Livro Branco sobre inteligência artificial: uma abordagem europeia para excelência e
confiança. Comissão Europeia, Bruxelas. https://ec.europa.eu/info/sites/info/files/mission-white-paper-artificial-
intelligence-feb2020_en.pdf . Acessado em 22 de setembro de 2020 Comissão Europeia (2020b) Relatório sobre
as implicações de segurança e responsabilidade da inteligência artificial, da internet das coisas e da robótica.
Comissão Europeia, Bruxelas. https://ec.europa.eu/info/files/commission-report-safety-and-liability-implications-ai
internet-things-and-robotics_en. Acessado em 22 de setembro de 2020

Comissão Europeia (2020c) Uma estratégia europeia para dados. Comunicação da Comissão ao Parlamento
Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões. Comissão Europeia,
Bruxelas. https://eur-lex.europa.eu/legal-con tent/EN/TXT/PDF/?uri=CELEX:52020DC0066&from=EN. Acessado
em 6 de outubro de 2020
Comissão Europeia (2020d) Moldar o futuro digital da Europa. Comunicação da Comissão ao Parlamento Europeu,
ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões. Comissão Europeia, Bruxelas.
https://ec.europa.eu/info/sites/info/files/communication-shaping-europes-digital-future-feb2020_en_3.pdf . Acessado
em 6 de outubro de 2020

Comissão Europeia (nd) Knowledge for policy: AI watch https://ec.europa.eu/knowledge4po


licy/ai-watch_en. Acessado em 7 de outubro de 2020
Parlamento Europeu (2020a) Projeto de relatório com recomendações à Comissão sobre um quadro de aspectos
éticos da inteligência artificial, robótica e tecnologias relacionadas. Parlamento Europeu, Comissão dos Assuntos
Jurídicos. https://www.europarl.europa.eu/doceo/document/ JURI-PR-650508_EN.pdf. Acessado em 25 de
setembro de 2020
Parlamento Europeu (2020b) Projeto de relatório com recomendações à Comissão sobre um regime de
responsabilidade civil por inteligência artificial. Parlamento Europeu, Comissão dos Assuntos Jurídicos. https://
www.europarl.europa.eu/doceo/document/JURI-PR-650556_EN.pdf. Acessado em 6 de outubro de 2020

Grupo de especialistas em responsabilidade e novas tecnologias (2019) Responsabilidade por inteligência artificial
e outras tecnologias digitais emergentes. Serviço de Publicações da União Europeia, Luxemburgo. https://
op.europa.eu/en/publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en/format-
PDF . Acessado em 23 de setembro de 2020
Floridi L, Cowls J (2019) Uma estrutura unificada de cinco princípios para IA na sociedade. Harv Data Sci
Ap 1:1. https://doi.org/10.1162/99608f92.8cd550d1
Fothergill BT, Knight W, Stahl BC, Ulnicane I (2019) Governança de dados responsável da neurociência
grandes dados. Frente Neuroinform 13:28. https://doi.org/10.3389/fninf.2019.00028
Freeman RE, Reed DL (1983) Acionistas e partes interessadas: uma nova perspectiva sobre governança corporativa.
Calif Manage Rev 25:88–106 Friedman B, Kahn P, Borning A (2008) Projeto sensível ao valor e sistemas de
informação. In: Himma K, Tavani H (eds) O manual de informação e ética informática. Wiley Blackwell, Hoboken, NJ,
pp 69–102

Garden H, Winickoff DE, Frahm NM, Pfotenhauer S (2019) Inovação responsável em neurotecnologia
empresas de nologia. Editora OCDE, Paris. https://doi.org/10.1787/9685e4fd-en
Garriga E, Melé D (2004) Teorias da responsabilidade social empresarial: cartografia do território. J Bus Ethics
53:51–71. https://doi.org/10.1023/B:BUSI.0000039399.90587.34 Gibson K (2000) A base moral da teoria das
partes interessadas. J Bus Ethics 26:245–257. https://doi.org/
10.1023/A:1006110106408
Google (nd) Dez coisas que sabemos serem verdadeiras. https://www.google.com/about/philosophy.html?hl=en_US .
Acessado em 8 de outubro de 2020 Hagendorff T (2019) A ética da ética da IA: uma avaliação das diretrizes.
Minds Mach (Dordr)
30:99–120. https://doi.org/10.1007/s11023-020-09517-8
Machine Translated by Google

Referências 77

Hansen M (2016) Data protection by design and by default à la European General Data Protection Regulation.
In: Lehmann A, Whitehouse D, Fischer-Hübner S et al (eds) Gerenciamento de privacidade e identidade:
enfrentando os próximos passos. Springer International Publishing, Cham, Suíça, pp 27–38

Hartley N, Wood C (2005) Participação pública na avaliação de impacto ambiental: implementação da convenção
de Aarhus. Avaliação de Impacto Ambiental Rev 25:319–340. https://doi.org/10.1016/j.eiar. 2004.12.002

Grupo de especialistas de alto nível em inteligência artificial (2019) Diretrizes de ética para uma IA confiável.
Comissão Europeia, Bruxelas. https://ec.europa.eu/newsroom/dae/document.cfm?doc_ id=60419. Acessado
em 25 de setembro de 2020
Grupo de especialistas de alto nível em inteligência artificial (2020) A lista de avaliação para IA confiável
(ALTAI). Comissão Europeia, Bruxelas. https://ec.europa.eu/newsroom/dae/document.cfm? doc_id=68342.
Acessado em 10 de outubro de 2020
Hoffmann AL (2016) O Facebook tem um novo processo para discutir ética. Mas é ético? The Guardian, 17 de
junho. https://www.theguardian.com/technology/2016/jun/17/facebook-ethics-but is-it-ethical. Acessado em 8
de outubro de 2020
ICO (2008) Privacidade por design. Gabinete do Comissário de Informação, Wilmslow, Reino Unido. https://
web. archive.org/web/20121222044417if_/http://www.ico.gov.uk:80/upload/documents/pdb_report_ html/
privacy_by_design_report_v2.pdf. Acessado em 6 de outubro de 2020 ICO (2009) Manual de avaliação de
impacto na privacidade, v. 2.0. Gabinete do Comissário de Informação, Wilmslow, Reino Unido. https://
www.huntonprivacyblog.com/wp-content/uploads/sites/28/2013/09/PIA handbookV2.pdf. Acessado em 6 de
outubro de 2020
IEEE (2017) A iniciativa global IEEE sobre ética de sistemas autônomos e inteligentes. https://standards.ieee.org/
develop/indconn/ec/autonomous_systems.html . Acessado em 10 de fevereiro de 2018 ISO (2008) BS ISO/
IEC 38500:2008: Governança corporativa de tecnologia da informação. British Standards Institute, Londres

Janssen C, Sen S, Bhattacharya C (2015) Crises corporativas na era da responsabilidade social corporativa.
Ônibus Horiz 58:183–192. https://doi.org/10.1016/j.bushor.2014.11.002 Jobin A, Ienca M, Vayena E (2019) O
cenário global das diretrizes de ética da IA. Nat Mach Intel
1:389–399. https://doi.org/10.1038/s42256-019-0088-2
Krafft T, Hauer M, Fetic L et al (2020) Dos princípios à prática: uma estrutura interdisciplinar para operacionalizar
a ética da IA. VDE e Bertelsmann Stiftung. https://www.ai-ethics-impact.org/res ource/blob/1961130/
c6db9894ee73aefa489d6249f5ee2b9f/aieig—report—download-hb-data. pdf. Acessado em 26 de setembro
de 2020 Latonero M (2018) Governando a inteligência artificial: defendendo os direitos humanos e a dignidade.

Data Soc. https://datasociety.net/wp-content/uploads/2018/10/DataSociety_Governing_Artifi


cial_Intelligence_Upholding_Human_Rights.pdf. Acessado em 26 de setembro de 2020
Leisinger KM (2003) Oportunidades e riscos do Pacto Global das Nações Unidas: o estudo de caso da Novartis.
J Corpor Citizensh 11:113–131. http://www.jstor.orgx/stable/jcorpciti.11.113 Macnish K, Ryan M, Gregory A
et al (2019) Entrega SHERPA D1.1 Estudos de caso. De Montfort
Universidade. https://doi.org/10.21253/DMU.7679690.v3
Markus ML, Mentzer K (2014) Previsão para um futuro responsável com as TIC. Sistema de Inf Frente 1–16.
https://doi.org/10.1007/s10796-013-9479-9 Martin CD, Makoundou TT (2017) Tomando o caminho certo:
ética desde o design em IA. ACM Inroads 8:35–37. https://doi.org/10.1145/3148541 Metzinger T (2019) Lavagem
ética feita na Europa. Der Tagesspiegel. https://www.tagesspiegel. de/politik/eu-guidelines-ethics-washing-
made-in-europe/24195496.html. Acessado em 6 de outubro de 2020 Microsoft (nd) IA responsável. https://
www.microsoft.com/en-us/ai/responsible-ai. Acessado 8

outubro de 2020

Mikhailov D (2019) Um novo método para ciência ética de dados. Wellcome Trust, Londres. https://wel
lcome.ac.uk/news/new-method-ethical-data-science. Acessado em 18 de junho de 2020
Mittelstadt B (2019) Os princípios por si só não podem garantir uma IA ética. Nat Mach Intell 1:501–507. https://
doi.org/10.1038/s42256-019-0114-4
Machine Translated by Google

78 5 Abordando questões éticas em IA

Morley J, Floridi L, Kinsey L, Elhalal A (2019) Do que ao como: uma visão geral das ferramentas, métodos e
pesquisa de ética da IA para traduzir princípios em práticas. https://arxiv.org/pdf/1905.06876.pdf Nemitz P
(2018) Democracia constitucional e tecnologia na era da inteligência artificial. Phil Trans R Soc A 376:20180089.
https://doi.org/10.1098/rsta.2018.0089 NESTA (nd) Mapeamento da governança de IA. National Endowment
for Science, Technology and the Arts. https://www.nesta.org.uk/data-visualisation-and-interactive/mapping-ai-
governance/. Acessado em 7 de outubro de 2020

Nordmann A (2014) Inovação responsável, a arte e o ofício da antecipação. J Respons Innov


1:87–98. https://doi.org/10.1080/23299460.2014.882064
O'Riordan L, Fairbrass J (2014) Gerenciando o engajamento das partes interessadas em RSE: uma nova
estrutura conceitual. J Bus Ethics 125:121–145. https://doi.org/10.1007/s10551-013-1913-x
OCDE (2017) Recomendação do Conselho da OCDE sobre governança de dados de saúde
OCDE (2019) Recomendação do Conselho sobre inteligência artificial. OECD/LEGAL/0449. https://
legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449. Acessado em 12 de outubro de 2020 OCDE
(nd) AI policy observatory. Organização para Cooperação e Desenvolvimento Econômico. https://www.oecd.org/
going-digital/ai/. Acessado em 7 de outubro de 2020
Ouchchy L, Coin A, Dubljevi´c V (2020) AI nas manchetes: o retrato das questões éticas da inteligência artificial
na mídia. AI & Soc. https://doi.org/10.1007/s00146-020-00965-5 Parceria em AI (nd) Tenets. https://
www.partnershiponai.org/tenets/. Acessado em 8 de outubro de 2020 Peters D, Vold K, Robinson D, Calvo RA
(2020) IA responsável: duas estruturas para design ético
prática. IEEE-TTS 1:34–47. https://doi.org/10.1109/TTS.2020.2974991
Pouloudi A, Whitley EA (1997) Identificação das partes interessadas em sistemas interorganizacionais: obtendo
insights para sistemas de gerenciamento de uso de drogas. Eur J Inf Syst 6:1–14. https://doi.org/10.1057/
pal grave.ejis.3000252
PWC (2019) Um guia prático para inteligência artificial responsável. https://www.pwc.com/gx/en/issues/data-
and-analytics/artificial-intelligence/what-is-responsible-ai/responsible-ai-practical guide.pdf. Acessado em 18
de junho de 2020
Reisman D, Schultz J, Crawford K, Whittaker M (2018) Avaliações de impacto algorítmico: uma estrutura
prática para a responsabilidade da agência pública. AI Now Institute, Nova York. https://ainowinstitute. org/
aiareport2018.pdf. Acessado em 18 de junho de 2020 Rodrigues R, Panagiotopoulos A, Lundgren B et al
(2020) SHERPA entregável 3.3 Relatório sobre opções regulatórias. https://s3-eu-west-1.amazonaws.com/
pstorage-dmu-5536699460/24574814/ D3.3RegulatoryoptionsforAI30July2020_final_CLEAN1.pdf. Acessado
em 6 de outubro de 2020 Rosenbaum S (2010) Governança e administração de dados: projetando entidades
de administração de dados e avançando no acesso a dados. Health Serv Res 45:1442–1455. https://doi.org/
10.1111/j.1475-6773. 2010.01140.x

Ryan M, Stahl BC (2020) Diretrizes éticas de inteligência artificial para desenvolvedores e usuários:
esclarecendo seu conteúdo e implicações normativas. J Inf Comun Ethics Soc. https://doi.org/10.1108/
JICES-12-2019-0138
Sardar Z (2010) O homônimo: futuros; estudos futuros; futurologia; futurista; previsão - o que está em
um nome? Futuros 42:177–184. https://doi.org/10.1016/j.futures.2009.11.001
Siponen MT, Vartiainen T (2002) Ensinando a ética do usuário final: questões e uma solução baseada na
universalização. Commun Assoc Inf Syst 8:422–443. https://doi.org/10.17705/1CAIS.00829 Stix C (nd)
Escrita. https://www.charlottestix.com/european-union-ai-ecosystem. Acessado 22
junho de 2020

Tallon PP (2013) Governança corporativa de big data: perspectivas sobre valor, risco e custo. Computador
46:32–38. https://doi.ieeecomputersociety.org/10.1109/MC.2013.155
TechTransformed (2019) Varredura de consequência. Doteeveryone. https://doteveryone.org.uk/dow
nload/2786/. Acessado em 18 de junho de 2020

UNIDO (2005) UNIDO technology foresight manual, vol 1: organização e métodos. Organização das Nações
Unidas para o Desenvolvimento Industrial, Viena. http://www.research.gov.ro/uploads/imp orted/
1226911327TechFor_1_unido.pdf. Acessado em 6 de outubro de 2020
Machine Translated by Google

Referências 79

Nações Unidas (2011) Princípios orientadores sobre negócios e direitos humanos: implementando a estrutura
das Nações Unidas “proteger, respeitar e remediar”. Direitos Humanos das Nações Unidas, Gabinete do Alto
Comissariado, Nova Iorque e Genebra. https://www.ohchr.org/documents/publications/gui
dingprinciplesbusinesshr_en.pdf. Acessado em 6 de outubro de 2020
Declaração do USACM (2017) sobre transparência e responsabilidade algorítmica. ACM US Public Policy
Council, Washington DC. https://www.acm.org/binaries/content/assets/public-policy/
2017_usacm_statement_algorithms.pdf. Acessado em 26 de setembro de 2020 por van Wynsberghe A (2013)
Projetando robôs para cuidados: design sensível ao valor centrado no cuidado. Science Eng Ethics 19:407–433.
https://doi.org/10.1007/s11948-011-9343-6 Wagner B (2018) A ética como fuga da regulação: da lavagem
ética à compra ética. In: Bayamlioglu E, Baraliuc I, Janssens LAW, Hildebrandt M (eds) Sendo perfilado: cogitas
ergo sum.
Amsterdam University Press, Amsterdã, pp 84–90
WEF (2018) White Paper: Como evitar resultados discriminatórios no aprendizado de máquina. Fórum Econômico
Mundial, Genebra. http://www3.weforum.org/docs/WEF_40065_White_Paper_How_
to_Prevent_Discriminatory_Outcomes_in_Machine_Learning.pdf. Acessado em 6 de outubro de 2020 WEF
(2019) White Paper: Uso responsável da tecnologia. Fórum Econômico Mundial, Genebra. http://www3.weforum.org/
docs/WEF_Responsible_Use_of_Technology.pdf . Acessado em 6 de outubro de 2020 Winfield AF, Jirotka M
(2018) A governança ética é essencial para criar confiança na robótica e na IA
sistemas. Philos Trans Royal Soc A 376. https://doi.org/10.1098/rsta.2018.0085 See More
Wright D (2011) Uma estrutura para a avaliação do impacto ético da tecnologia da informação. Ética
Inf Technol 13:199–226. https://doi.org/10.1007/s10676-010-9242-6

Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons
Attribution 4.0 (http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento, adaptação,
distribuição e reprodução em qualquer meio ou formato, desde que você dê os devidos créditos ao(s) autor(es)
original(ais) e à fonte, forneça um link para a licença Creative Commons e indique se foram feitas alterações.

As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons do
capítulo, a menos que indicado de outra forma em uma linha de crédito para o material. Se o material não estiver
incluído na licença Creative Commons do capítulo e seu uso pretendido não for permitido pela regulamentação
estatutária ou exceder o uso permitido, você precisará obter permissão diretamente do detentor dos direitos
autorais.
Machine Translated by Google

Capítulo 6
Ecossistemas de IA para o florescimento humano:
O fundo

Resumo Este capítulo analisa o conceito de ecossistemas de IA com o objetivo de identificar como a
metáfora do ecossistema pode ajudar a lidar com questões éticas.
O primeiro passo é apresentar com mais detalhes o conceito de ecossistemas, valendo-se
especificamente da literatura sobre ecossistemas de inovação. Isso permite a identificação de
características dos ecossistemas, como sua abertura, a coevolução e aprendizado mútuo de seus
membros e a interdependência e relacionamento complexo entre esses membros. Essas características
fundamentam os desafios que uma abordagem ética dos ecossistemas deve considerar.

Palavras -chave Ecossistemas de IA · Ecossistemas de inovação · Ética dos ecossistemas

As partes interessadas na IA são numerosas e as questões éticas são complexas. Proponho olhar
para a IA de uma perspectiva de sistemas, empregando especificamente a ideia de um ecossistema de IA.
Este capítulo preparará o trabalho de base para minhas recomendações posteriores, fornecendo o
histórico necessário sobre ecossistemas.

6.1 Uma Visão Ecossistêmica da IA

Falar de IA em termos de ecossistemas já está bem estabelecido. O White Paper da CE vê a IA como


composta por um ecossistema de excelência e um ecossistema de confiança (Comissão Europeia
2020a). A OCDE recomenda que os formuladores de políticas nacionais promovam um ecossistema
digital para IA (OCDE 2019: 3). Charlotte Stix (nd) usou o termo para cobrir a política de IA da UE. A
Catapulta Digital do Reino Unido (2020) usou o termo para se referir à ética da IA, para explorar quais
lições práticas podem ser aprendidas. O primeiro rascunho da recomendação da UNESCO sobre a
ética da inteligência artificial sugere que “os Estados Membros devem promover o desenvolvimento e
o acesso a um ecossistema digital para a IA ética” (UNESCO 2020).

Para usar a metáfora do ecossistema de forma produtiva e examinar como ela pode promover
nossa compreensão da IA e nos permitir deduzir recomendações sobre como tal

© O(s) autor(es) 2021 81


BC Stahl, Artificial Intelligence for a Better Future,
SpringerBriefs in Research and Innovation Governance,
https://doi.org/10.1007/978-3-030-69978-9_6
Machine Translated by Google

82 6 ecossistemas de IA para o florescimento humano…

ecossistema pode ser moldado, precisamos olhar para a história do uso dessa metáfora, os
propósitos para os quais ela foi desenvolvida e as limitações que ela pode ter.

6.1.1 Ecossistemas de inovação de IA

O uso de termos como “ecossistema de inovação” é relativamente difundido na gestão da


inovação e áreas afins e relaciona-se apenas vagamente com o uso original do termo em
biologia (ver quadro).

Ecossistemas
O termo ecossistema origina-se originalmente da biologia. De acordo com a National
Geographic (Rutledge et al. 2011) “um ecossistema é uma área geográfica onde plantas,
animais e outros organismos, bem como clima e paisagens, trabalham juntos para formar
uma bolha de vida”. Fora da biologia, os ecossistemas são considerados como redes
complexas e interconectadas de componentes individuais que vão desde o “ecossistema
televisivo dos EUA” (Ansari et al. 2016) a “avaliações de serviços ecossistêmicos [para]
saúde mental” (Bratman et al. 2019) a conclusões que “1,4 milhão de músicas são
inspiradas em ecossistemas” (Coscieme 2015). É um conceito popular que sugere que
os componentes do sistema são um organismo vivo.

Pode-se distinguir várias perspectivas que são utilizadas na literatura sobre ecossistemas
de inovação. A dominante é a perspectiva organizacional, em que os pesquisadores empregam
o termo para entender melhor como as organizações podem obter uma vantagem competitiva
dentro de um sistema. Ver a organização como parte de um ecossistema de inovação pode
fornecer insights sobre oportunidades de crescimento (Adner 2006). A perspectiva dos
ecossistemas ajuda as organizações a entender que podem moldar o ecossistema do qual
fazem parte, mas que a inovação geral é, pelo menos em parte, uma função do ecossistema
circundante (Nylund et al. 2019). Reconhecendo esse potencial, as organizações podem usar
a visão dos ecossistemas para desenvolver sua estratégia (Moore 1993) em geral, com foco
particular em suas atividades de gestão da inovação (Ritala e Almpanopoulou 2017).
Um exemplo de pergunta que o uso da metáfora do ecossistema pode ajudar a responder é:
como e por que as organizações se tornam mais ou menos bem-sucedidas? Moore (1993) usa
o exemplo da IBM no contexto dos ecossistemas. A IBM foi um dos membros mais bem-
sucedidos da nova comunidade empresarial ou ecossistema baseado em computadores
pessoais. Ela dominou esse sistema por um tempo, mas depois tornou-se menos lucrativa e
perdeu a liderança do mercado.
Embora esse uso funcional da metáfora do ecossistema pareça ser o dominante nos campos
dos estudos de negócios e organizações, não é o único. A perspectiva dos ecossistemas
também pode ser usada como uma perspectiva teórica que permite insights mais profundos
sobre o comportamento dos membros do ecossistema em geral.
Machine Translated by Google

6.1 Uma Visão Ecossistêmica da IA 83

A lente do ecossistema pode igualmente ser utilizada ao nível social, por exemplo pelas ciências
sociais para interpretar a economia global como um organismo vivo com vista à compreensão do
seu funcionamento (Gomes et al. 2018).
Desde o início da literatura sobre ecossistemas de inovação (Moore , 1993), foi sugerido que a
sociedade pode empregar essa perspectiva para fornecer um ambiente no qual os ecossistemas
possam prosperar. Outra sugestão é que a terminologia dos ecossistemas pode ser usada para
melhorar o desempenho de ecossistemas de inovação inteiros (Pombo-Juárez et al. 2017).
Também há muito se reconhece que pode ser apropriado que ecossistemas inteiros pereçam no
interesse da sociedade como um todo (Moore 1993).

Mas o que conta como um ecossistema de inovação? Eu uso este termo amplamente,
ignorando as nuances conceituais que distinguem entre termos como “ecossistema de negócios”
(Gomes et al. 2018), “ecossistema digital” (Senyo et al. 2019), “ecossistema de negócios digitais”
e “ecossistema de conhecimento” (Gomes et al. 2018) e outras ideias relacionadas, como cadeias
de valor. Essas distinções podem ser valiosas para propósitos específicos, mas para o uso do
conceito de ecossistemas para desenvolver insights normativos em IA, elas são de relevância
secundária.
Mais interessantes são as características que os vários tipos de ecossistema apresentam. Uma
característica chave é que os ecossistemas são o lugar onde a evolução ocorre.
A evolução darwiniana é amplamente aceita nas ciências naturais e sociais como uma teoria que
explica a mudança (Porra 1999). Isso torna a teoria evolutiva atraente para campos em rápida
evolução, como a inovação. O artigo seminal de Moore (1993) propondo a aplicação da metáfora
do ecossistema a sistemas sócio-técnicos propõe quatro estágios de desenvolvimento de
ecossistemas: nascimento, expansão, liderança e auto-renovação ou morte. A adoção da teoria
evolutiva darwinista e a aplicação dos princípios evolutivos a sistemas sócio-técnicos é contestada
e eticamente problemática, como mostrarei a seguir. No entanto, parece ser altamente atraente
como uma teoria geral da mudança.

Além de explicar a mudança, a lente dos ecossistemas pode ajudar a explicar as


interdependências entre os atores e por que eles se desenvolvem juntos ou coevoluem (Ritala e
Almpanopoulou 2017). Essa coevolução de atores interdependentes explica por que eles precisam
competir e cooperar. Ecossistemas de inovação, como ecossistemas naturais, são sistemas
abertos onde novos atores podem surgir e os já existentes precisam reagir de acordo. Os
ecossistemas também podem ser visualizados como redes interdependentes e interconectadas
nas quais a aprendizagem mútua pode ocorrer (Nylund et al. 2019). Essas redes costumam ter um
nó central (Gobble 2014), que pode ser o que Gomes et al. (2018) chamam de “líder chave”, ou
seja, uma organização dominante. No caso dos ecossistemas de inovação atuais, eles geralmente
são organizados em torno de uma plataforma tecnológica.
Esses insights que são gerados usando a metáfora do ecossistema implicam que é claro onde
estão os limites de um ecossistema. Pombo-Juárez et al. (2017) sugerem que os ecossistemas
consistem em quatro camadas – indivíduos, organizações, sistemas de inovação e paisagens – o
que parece sugerir que é possível delinear quais paisagens com seus habitantes constituem um
determinado ecossistema.
Exemplos de ecossistemas de inovação podem ser encontrados em diferentes níveis de
tamanho e complexidade. Eles podem ser limitados geograficamente, como no caso das cidades (Nylund
Machine Translated by Google

84 6 ecossistemas de IA para o florescimento humano…

e outros 2019) ou ecossistemas nacionais de inovação (Gomes et al. 2018), mas também podem
ser organizados por outros critérios. Adner (2006) dá o exemplo de indústrias como impressão
comercial, serviços financeiros, materiais básicos e provisão logística.
O que interessa a este livro é que os ecossistemas de inovação são geralmente reconhecidos
como sujeitos a intervenção e mudança. Estas intervenções podem ser catalisadas por membros
do ecossistema, normalmente organizações, mas também atores coletivos individuais ou não
organizacionais. Eles também podem ser acionados por atores que estão envolvidos, apoiam ou
contribuem para o ecossistema de inovação, mas não necessariamente desempenham um papel
como membros do ecossistema. Por exemplo, um ecossistema regional pode ser influenciado
por um ator nacional, ou um ecossistema de IA pode ser influenciado por desenvolvimentos
técnicos não relacionados à IA em, digamos, computação quântica. Os ecossistemas de inovação
são notavelmente diferentes dos ecossistemas naturais na medida em que têm a capacidade de
refletir sobre seu estado e pensar no futuro (Pombo-Juárez et al. 2017), com vistas a mudar e
melhorar a situação.
A Figura 6.1 resume algumas das principais características dos ecossistemas de inovação
que os tornam uma metáfora interessante para descrever um conjunto de atores sociotécnicos,
incluindo o cenário de IA. A representação na forma de elipses sobrepostas simboliza que essas
características não são independentes, mas se influenciam.

É fácil ver por que a metáfora do ecossistema é aplicada liberalmente à IA. Há muitos atores
e partes interessadas diferentes envolvidos. Estes interagem de formas complexas com
consequências difíceis de prever. Eles são todos mutuamente dependentes, mesmo que o
desaparecimento de qualquer um deles não prejudique necessariamente o sistema como um
todo. Eles co-evoluem e tentam prosperar.
Apesar dessas vantagens, existem desvantagens significativas na aplicação do conceito de
ecossistemas a sistemas sócio-técnicos. Oh e outros (2016) chamam de falha

Características dos
ecossistemas de inovação

Relações
Limites
complexas entre
pouco claros
atores

Interdependência dos Coevolução e


atores
aprendizado mútuo

Evolução como um
Abertura
motorista de mudança

Fig. 6.1 Características dos ecossistemas de inovação


Machine Translated by Google

6.1 Uma Visão Ecossistêmica da IA 85

analogia. Eles apontam para o fato de que, ao contrário dos ecossistemas naturais, os
ecossistemas de inovação não são eles próprios o resultado de processos evolucionários, mas
são intencionalmente projetados. Eles estão preocupados que uma analogia que não se baseie
em análises conceituais e empíricas rigorosas possa impedir pesquisas e políticas mais
detalhadas em torno da inovação. Além disso, descrever um sistema social em termos de um
sistema natural leva a possíveis armadilhas conceituais. A forte ênfase nos processos evolutivos
de seleção pode levar a um determinismo tecnológico implícito. Isso significa que a tecnologia
em questão é vista como um desenvolvimento exógeno e autônomo que é inevitável e obriga
indivíduos e organizações a se adaptarem (Grint e Woolgar 1997). Da mesma forma, é
problemático que a luta competitiva pela sobrevivência implícita na evolução se aplicasse não
apenas às organizações, mas também potencialmente a culturas onde apenas aqueles que
estão adaptados à tecnologia sobrevivem (Paterson 2007).
Existe uma ligação bem estabelecida entre o darwinismo e o capitalismo (Rauch 1993),
com o próprio Charles Darwin admitindo livremente que sua teoria da evolução foi inspirada
pelos economistas clássicos dos séculos XVII e XVIII que se concentraram no princípio do
individualismo competitivo (Priest 2017). Hawkes (2003: 134), portanto, chega a chamar a
teoria da evolução de Darwin de um “exemplo de manual da teoria marxista da ideologia na
prática”, sendo a ideologia uma ideia dominante das classes dominantes (Shaw 1989).

A metáfora do ecossistema de inovação pode servir a propósitos ideológicos ao naturalizar


e, assim, ocultar o fato de que os meios capitalistas de produção nos quais esses sistemas de
inovação são tipicamente baseados são o resultado de lutas históricas e processos políticos
que poderiam muito bem ter levado a outros resultados. Para piorar a situação, as ideias
darwinianas desenvolvidas para descrever o mundo natural têm uma história de serem
adotadas para legitimar os resultados da evolução, mesmo quando isso é indiscutivelmente
inapropriado. Esse fenômeno é chamado de darwinismo social (Crook 1996). O darwinismo
social não apenas explica a mudança social, mas também pode ser usado para justificar essa
mudança. Este é um erro de categoria cientificamente problemático que também pode ter
consequências moralmente ultrajantes. Na pior das hipóteses, os nazistas alemães adotaram
o darwinismo social em sua fantasia de que a “raça” ariana era superior às outras e precisava
preservar seu pool genético (Weikart 2013).
A metáfora do ecossistema empregada aqui para ajudar a explicar, entender e orientar o
campo da IA é, portanto, explicitamente não inofensiva ou neutra. A tentativa de aplicar o
pensamento ético a ela levanta algumas outras questões importantes que discutirei com mais
detalhes abaixo. No entanto, espero que destacar essas armadilhas torne possível evitá-las.
Para enfatizar o ponto, não uso o conceito de ecossistema como uma descrição científica, mas
apenas como uma metáfora, ou seja, uma figura de linguagem e uma representação simbólica.

O benefício desse uso da metáfora é que ela ajuda a destacar alguns recursos-chave da IA
que contribuem para questões éticas e afetam possíveis atenuações. Usarei a metáfora mais
tarde para derivar alguns requisitos para possíveis soluções que, espero, permitirão uma
abordagem mais coesa para mitigar os riscos éticos.
Antes de passarmos à ética dos ecossistemas e à questão de como esses ecossistemas
podem ser moldados, é importante descrever as partes relevantes do ecossistema de inovação
de IA. A Figura 6.2 fornece uma visão sistêmica do ecossistema com foco em
Machine Translated by Google

86 6 ecossistemas de IA para o florescimento humano…

Corpo
profissional fornece

informações especializadas
cria
fornece entrada representa

Diretrizes organização Usuário final

de consumidores
baseado em implementado
através de coloca usa
Padrões pressão sobre
consulta
com Avaliação de
desenvolve produto de IA
impacto
requer
algorítmica
Estandardização
corpo Legislatura
deve cumprir
usa
suprimentos
Negócios
trabalha para
Individual
é membro de desenvolvedor
pode ser membro de

Fig. 6.2 Visão de sistemas das partes interessadas e atividades para implementar uma avaliação de impacto algorítmica

uma estratégia de mitigação específica, ou seja, a exigência de fornecer avaliações de impacto


algorítmicas (ver caixa).

Avaliações de impacto algorítmico


Algoritmos podem fazer parte de sistemas que tomam decisões. Os sistemas de decisão
algorítmica (ADS) “confiam na análise de grandes quantidades de dados pessoais para
inferir correlações … [e] derivar informações consideradas úteis para tomar decisões”.
As decisões tomadas por um ADS podem estar erradas (Oswald et al. 2018). Para
minimizar esse risco, as avaliações de impacto algorítmicas são projetadas para reduzir
os riscos de viés, discriminação e tomada de decisão errada.

A introdução de avaliações de impacto algorítmicas é uma das inúmeras propostas para


abordar questões éticas em IA que foram apresentadas no Capítulo 5.
A figura captura as principais partes interessadas e processos que estariam envolvidos na
implementação de tal proposta. O que o exemplo mostra é que as características dos
ecossistemas de inovação retratadas na Figura 6.1, como não linearidade, interdependência,
abertura e limites pouco claros, são facilmente identificáveis na prática. Isso dá credibilidade à
minha tese de que a metáfora do ecossistema de inovação é útil para entender a IA. Se for
assim, vale a pena dar o próximo passo e pensar no que a metáfora pode nos ensinar sobre a
intervenção no ecossistema e como podemos usá-la para promover o florescimento humano.
Machine Translated by Google

6.2 Ética de e nos (Eco)Sistemas 87

6.2 Ética de e nos (Eco)Sistemas

O que mostrei até agora é que a metáfora dos ecossistemas é útil porque fala a um público de
tomadores de decisão políticos e empresariais. Uma referência mais geral às teorias de sistemas
pode ajudar o público de outros tipos a entender a complexidade e a interdependência dos
vários atores humanos e não humanos que compõem o campo da IA. O que não mostrei é que
a metáfora dos ecossistemas é útil para entender a ética da IA e obter recomendações para
lidar com os dilemas da ética da IA, o objetivo final deste livro. Alguém poderia objetar que os
(eco)sistemas como fenômenos do mundo natural podem ser interpretados como sendo
categoricamente separados da ética.

É uma posição há muito estabelecida na ética filosófica que declarações normativas


(declarações que podem ser expressas usando o termo “deveria”) não podem ser reduzidas ou
totalmente deduzidas de declarações descritivas. Há alguma plausibilidade nisso quando
aplicado a ecossistemas. Os ecossistemas naturais são o resultado da evolução e antecedem
os humanos e a análise ética humana. O que os membros individuais dos ecossistemas fazem
e como os ecossistemas se desenvolvem não está, portanto, sujeito à ética. Se pensarmos em
um ecossistema sem humanos, digamos um ecossistema paleontológico no período Jurássico,
é fácil perceber que uma análise ética seria difícil e provavelmente sem sentido.
No entanto, a relação entre declarações “é” e declarações “deve” é mais complexa do que
isso, e numerosas vozes sugerem que as declarações descritivas e normativas pelo menos
precisam informar uma à outra (Magnani 2007). Por exemplo, “dever implica poder” é
notoriamente atribuído a Immanuel Kant (Kohl 2015) e vincula propriedades descritivas a
propriedades normativas. O que um ser humano pode fazer é descritivo, e se – como qualquer
pessoa razoável concordaria – isso precisa informar o que deve ser feito, temos um link. Há
também uma longa tradição de filosofia que deriva declarações normativas de descritivas ou
que deriva obrigações morais de algum tipo de ser (Floridi 2010).

Um tipo diferente de argumento que parece impedir a dedução de insights éticos a partir de
descrições sistêmicas da realidade pode ser observado em correntes particulares da teoria dos
sistemas. O epítome desse tipo de pensamento sistêmico é representado pelo sociólogo Niklas
Luhmann (1987), que desenvolveu uma teoria de sistemas baseada em sistemas autopoiéticos.
Estes são sistemas cujo objetivo principal é reproduzir-se. Pode-se interpretar os sistemas
biológicos dessa maneira, mas o foco de Luhmann está nos sistemas sociais, que seguem uma
lógica interna particular e integram informações ambientais para manter a integridade do sistema
(Introna 1997). O sistema econômico, por exemplo, funciona em uma lógica de pagamentos
para gerar mais pagamentos. Levantar questões de ética em tal sistema é um erro de categoria
ou levará à tradução da ética em aspectos relacionados ao pagamento, o que provavelmente
seria inapropriado em si.

A relação entre ética e ecossistemas não é, portanto, direta. Ao deduzir declarações éticas
de uma descrição de sistemas, deve-se ter o cuidado de ser explícito sobre as suposições que
sustentam a dedução. O desafio de passar do “é” para o “deve” deve ser enfrentado. Esse é um
desafio geral deste livro.
Machine Translated by Google

88 6 ecossistemas de IA para o florescimento humano…

O leitor astuto notará que alternei entre diferentes conceitos de ética nos capítulos anteriores.
Apresentei o conceito de florescimento humano como parte de uma discussão normativa da
ética e concluí que promover o florescimento humano deveria ser o objetivo da IA. Em minha
discussão posterior sobre as questões éticas da IA, assumi uma postura mais descritiva,
simplesmente aceitando como uma questão ética aqueles fatos sociais que as pessoas
percebem como questões éticas. Isso levanta questões fundamentais sobre como podemos
passar de uma percepção de algo como eticamente problemático para a afirmação normativa
de que algo deve ser feito, o que normalmente implica uma obrigação de alguém fazer algo.

Usar a metáfora do ecossistema para descrever questões éticas em IA permanece nessa


tensão entre “é” e “deve”. Uma descrição do ecossistema não fornece por si só a base para
sugestões normativas sobre como lidar com ele. Embora reconheça essas questões conceituais,
não as vejo como intransponíveis. Os pronunciamentos éticos não decorrem diretamente da
perspectiva do ecossistema, mas os pronunciamentos éticos sem um bom entendimento das
questões da vida real, que a metáfora do ecossistema fornece, também não seriam úteis.

No discurso público podemos observar muitos exemplos de posições normativas que se


referem, por exemplo, a ecossistemas naturais. Salvar o meio ambiente em geral, mas também
proteger determinados ecossistemas naturais é amplamente reconhecido não apenas como
uma escolha possível, mas também como uma obrigação moral. Isso pode ser baseado em uma
série de premissas normativas (por exemplo, deve-se preservar qualquer coisa viva ou capaz
de sofrer; é nosso dever salvaguardar um ambiente adequado para a habitação humana e as
gerações futuras; deve-se preservar a criação de Deus; etc.) que muitas vezes não são
explicitamente enunciados, mas parecem ter forte apoio.
Além disso, tentei fornecer o fundamento normativo do livro anteriormente, baseando-me na
antiga tradição do florescimento humano, que está intimamente ligada à questão da boa vida.
Nossas vidas acontecem em ecossistemas naturais, sociais e técnicos, que têm forte influência
em nossa capacidade de viver bem. Baseando-me em Paul Ricoeur (1999: 256), sugiro que o
objetivo ético que pode motivar o uso da tecnologia é o objetivo da boa vida, vivida com e para
os outros em instituições justas. São esses componentes que permitem o florescimento humano
e motivam e fornecem os fundamentos normativos das recomendações relacionadas à IA que
desenvolvo abaixo.

Referências

Adner R (2006) Combine sua estratégia de inovação com seu ecossistema de inovação. Harv Bus Rev 84:98–107,
148. https://hbr.org/2006/04/match-your-innovation-strategy-to-your-innovation-eco system. Acessado em 12 de
outubro de 2020 Ansari S, Garud R, Kumaraswamy A (2016) O dilema do disruptor: TiVo e a televisão dos EUA

ecossistema. Strateg Manag J 37:1829–1853. https://doi.org/10.1002/smj.2442


Bratman GN, Anderson CB, Berman MG et al (2019) Natureza e saúde mental: uma perspectiva de serviço
ecossistêmico. Sci Adv 5. https://doi.org/10.1126/sciadv.aax0903 Castelluccia C, Le Métayer D (2019)
Entendendo a tomada de decisão algorítmica: oportunidades e desafios. Unidade de Prospectiva Científica, Serviço
de Estudos do Parlamento Europeu, Bruxelas.
Machine Translated by Google

Referências 89

https://www.europarl.europa.eu/RegData/etudes/STUD/2019/624261/EPRS_STU(2019)624 261_EN.pdf.
Acessado em 12 de outubro de 2020
Coscieme L (2015) Serviços ecossistêmicos culturais: o valor inspirador dos ecossistemas em
música. Ecosyst Serv 16:121–124. https://doi.org/10.1016/j.ecoser.2015.10.024
Crook P (1996) Social darwinismo: o conceito. Hist Eur Ideas 22(4):261–274. https://doi.org/10.
1016/S0191-6599(96)00005-8
Catapulta Digital (2020) Lições de ética prática em IA: levando o ecossistema de IA do Reino Unido de “o quê” para
“como”. Catapulta Digital, Londres. https://connectedeverythingmedia.files.wordpress.com/
2020/05/20200430_dc_143_ethicspaper.pdf . Acessado em 12 de outubro de 2020 Comissão Europeia (2020a)
Livro branco sobre inteligência artificial: uma abordagem europeia para excelência e confiança. Comissão Europeia,
Bruxelas. https://ec.europa.eu/info/sites/info/files/mission-white-paper-artificial-intelligence-feb2020_en.pdf . Acessado
em 22 de setembro de 2020 Comissão Europeia (2020b) Moldando o futuro digital da Europa. Comunicação da
Comissão ao Parlamento Europeu, ao Conselho, ao Comité Económico e Social Europeu e ao Comité das Regiões.
Comissão Europeia, Bruxelas. https://ec.europa.eu/info/sites/info/files/communication-shaping-europes-digital-future-
feb2020_en_3.pdf . Acessado em 6 de outubro de 2020

Floridi L (2010) Ética da informação. In: Floridi L (ed) O manual de informações e


ética do computador. Cambridge University Press, Reino Unido, pp 77–97
Gobble MM (2014) Mapeando o ecossistema de inovação. Res Technol Manage 57:55–59. https://
www.tandfonline.com/doi/abs/10.5437/08956308X5704005
Gomes LA de V, Facin ALF, Salerno MS, Ikenami RK (2018) Descompactando a construção do ecossistema de
inovação: evolução, lacunas e tendências. Technol Forecast Soc Change 136:30–48. https://doi.org/ 10.1016/
j.techfore.2016.11.009 Grint K, Woolgar S (1997) A máquina no trabalho: tecnologia, trabalho e organização.
Imprensa política,
Cambridge
Hawkes D (2003) Ideologia, 2ª ed. Routledge, Londres Introna LD
(1997) Gestão, informação e poder: uma narrativa do gestor envolvido.
Palgrave Macmillan, Londres Kohl
M (2015) Kant e “dever implica poder”. Philos Q 65: 690-710. https://doi.org/10.1093/pq/
pqv044
Luhmann N (1987) Soziale Systeme: Grundriß einer allgemeinen Theorie, 1st edn. Suhrkamp
Verlag, Frankfurt am Main
Magnani L (2007) Moralidade em um mundo tecnológico: conhecimento como dever. Cambridge University Press,
Cambridge, Reino Unido Moore JF (1993) Predadores e presas: uma nova ecologia da competição. Harv Bus Rev
71:75–86. https://hbr.org/1993/05/predators-and-prey-a-new-ecology-of-competition . Acessado em 12 de outubro de
2020 Nylund PA, Ferras-Hernandez X, Brem A (2019) Estratégias para ativar ecossistemas de inovação: introdução
de uma taxonomia. IEEE Eng Manage Rev 47:60–66. https://doi.org/10.1109/EMR. 2019.2931696

OCDE (2019) Recomendação do Conselho de Inteligência Artificial. OECD/LEGAL/0449. https://legalinstruments.oecd.org/


en/instruments/OECD-LEGAL-0449. Acessado em 12 de outubro de 2020 Oh DS, Phillips F, Park S, Lee E (2016)
Ecossistemas de inovação: um exame crítico. Technovation
54:1–6. https://doi.org/10.1016/j.technovation.2016.02.004
Oswald M, Grace J, Urwin S, Barnes G (2018) Modelos de policiamento de avaliação de risco algorítmica: lições do
modelo Durham HART e proporcionalidade 'experimental'. Inf Comun Technol Law 27:223–250. https://doi.org/
10.1080/13600834.2018.1458455 Paterson B (2007) Não podemos comer dados: a necessidade da ética do
computador para abordar os impactos culturais e ecológicos da computação. In: Hongladarom S, Ess C (eds) Ética da
tecnologia da informação: perspectivas culturais. Referência do Idea Group, Hershey PA, pp 153–168 Pombo-Juárez
L, Könnölä T, Miles I et al (2017) Conectando várias camadas de ecossistemas de inovação: contemplações do
Personal Health Systems Foresight. Technol Forecast Soc Change 115:278– 288. https://doi.org/10.1016/
j.techfore.2016.04.018
Machine Translated by Google

90 6 ecossistemas de IA para o florescimento humano…

Porra J (1999) Sistemas coloniais. Inf Syst Res 10:38–69. https://doi.org/10.1287/isre.10.1.38.


Acessado em 12 de outubro de 2020

Priest G (2017) A teoria dos sentimentos morais de Charles Darwin: o que a ética de Darwin realmente deve a Adam
Smith. J Hist Ideas 78(4):571–593. https://doi.org/10.1353/jhi.2017.0032. Acessado em 12 de outubro de 2020

Rauch J (1993) Kindly inquisitors: os novos ataques ao livre pensamento. Imprensa da Universidade de Chicago,
Chicago IL
Ricoeur P (1999) Lectures, vol 1: autour du politique. Points, Paris Ritala P,
Almpanopoulou A (2017) Em defesa do 'eco' no ecossistema de inovação. Technovation 60:39–42. https://doi.org/
10.1016/j.technovation.2017.01.004. Acessado em 12 de outubro de 2020 Rutledge K, Ramroop T, Boudreau D
(2011) Ecossistema. Geografia nacional. https://www.nation
algeographic.org/encyclopedia/ecosystem/. Acessado em 12 de outubro de 2020
Senyo PK, Liu K, Effah J (2019) Ecossistema de negócios digitais: revisão da literatura e uma estrutura para pesquisas
futuras. Int J Inf Gerenciar 47:52–64. https://doi.org/10.1016/j.ijinfomgt.2019.01.002 Shaw W (1989) Idéias
dominantes. Pode. J Philos 15 (Supl 1):425–448. https://doi.org/10.1080/004 55091.1989.10716806 Stix C (nd) Writing.
https://www.charlottestix.com/european-union-ai-ecosystem. Acessado 22

junho de 2020

UNESCO (2020) Primeiro rascunho do texto da recomendação sobre a ética da inteligência artificial. Grupo de
especialistas ad hoc (AHEG) para a preparação de um projeto de texto, UNESCO, Paris. https://unesdoc. unesco.org/
ark:/48223/pf0000373434. Acessado em 12 de outubro de 2020 Weikart R (2013) O papel do darwinismo no
pensamento racial nazista. Ger Stud Rev 36:537–556. https://doi.org/10.1353/gsr.2013.0106 _

Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons Attribution 4.0
(http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento, adaptação, distribuição e
reprodução em qualquer meio ou formato, desde que você dê os devidos créditos ao(s) autor(es) original(ais) e à fonte,
forneça um link para a licença Creative Commons e indique se foram feitas alterações.

As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons do capítulo,
a menos que indicado de outra forma em uma linha de crédito para o material. Se o material não estiver incluído na
licença Creative Commons do capítulo e seu uso pretendido não for permitido pela regulamentação estatutária ou
exceder o uso permitido, você precisará obter permissão diretamente do detentor dos direitos autorais.
Machine Translated by Google

Capítulo 7
Ecossistemas de IA para o florescimento humano:
As Recomendações

Resumo Este capítulo desenvolve as conclusões que podem ser tiradas da aplicação
da metáfora do ecossistema à IA. Ele destaca os desafios que surgem para a governança
ética dos ecossistemas de IA. Estes fornecem a base para a definição dos requisitos
que as intervenções de governança bem-sucedidas devem cumprir. Três requisitos
principais tornam-se aparentes: a necessidade de uma delimitação clara dos limites do
ecossistema em questão, o fornecimento e manutenção de conhecimentos e capacidades
dentro do ecossistema e a necessidade de estruturas de governança adaptáveis,
flexíveis e cuidadosas que sejam capazes de reagir às mudanças ambientais. Com base
nesses requisitos, o capítulo descreve algumas recomendações para intervenções que
provavelmente serão capazes de moldar os ecossistemas de IA de maneiras que
conduzam ao florescimento humano.

Palavras -chave Governança ética da IA · Requisitos para IA ética · Excelência e


prosperidade · Engajamento das partes interessadas · Regulação e fiscalização

Existem boas razões para pensar na IA em termos de ecossistemas, como mostrado no


Capítulo 5. Também há boas razões para pensar na ética da IA em termos de
ecossistemas, como mostrado no Capítulo 6. O que resta é a tarefa de traduzir insights
em intervenções práticas que tornem o ecossistema de IA propício ao florescimento
humano, levando em conta as descobertas conceituais e empíricas apresentadas nos
Capítulos 3 e 4. Essa é a tarefa realizada neste capítulo.

7.1 Desafios da Governança Ética do Ecossistema de IA

Comecemos com os insights obtidos com a pesquisa empírica descrita anteriormente.


Conforme descrito no Capítulo 2, há interpretações conflitantes do conceito de IA e
visões variadas sobre por que e como as tecnologias agrupadas sob esse rótulo devem
ser usadas. Qualquer posição tomada sobre esses conceitos influencia fortemente os tipos de

© O(s) autor(es) 2021 91


BC Stahl, Artificial Intelligence for a Better Future,
SpringerBriefs in Research and Innovation Governance,
https://doi.org/10.1007/978-3-030-69978-9_7
Machine Translated by Google

92 7 ecossistemas de IA para o florescimento humano…

questões éticas associadas à IA. Por exemplo, o aprendizado de máquina tem conjuntos
particulares de características que levantam preocupações específicas, que são diferentes daquelas
levantadas por uma compreensão mais ampla da IA como um sistema sócio-técnico com
implicações em toda a sociedade. A inteligência geral artificial levanta novamente outro conjunto de preocupações.
A multiplicidade de conceitos, questões, ações e atores é a motivação por trás da escolha da
metáfora do ecossistema para descrever o sistema de IA.
O que podemos aprender com essa maneira de ver a IA é que qualquer intervenção no nível
do ecossistema deve permanecer sensível a essa complexidade. Deve incorporar diferentes
compreensões dos conceitos envolvidos e levar em conta o papel e o impacto sobre os vários
stakeholders e a interação entre stakeholders, questões e intervenções.

O problema não é apenas que existem muitas questões, atores e respostas diferentes.
A metáfora do ecossistema destaca o fato de que as relações entre os componentes constituintes
do sistema costumam ser altamente não lineares. Isso significa que raramente podemos esperar
encontrar relações simples de causa e efeito. Uma intervenção em algum ponto do ecossistema
pode ter consequências inesperadas que podem ter o efeito contrário ao pretendido. Este é um
fenômeno bem descrito em ecossistemas naturais (Tenner 1997) que pode ser observado de forma
semelhante em sistemas sociotécnicos, incluindo ecossistemas de IA. Esses efeitos relacionados
aos sistemas contribuem para o problema geral das consequências não intencionais.

A ideia de intervir em um ecossistema de IA para promover o florescimento humano é ainda


mais complicada pelos limites muitas vezes pouco claros e mutáveis dos ecossistemas. A fronteira
de um ecossistema é pelo menos parcialmente determinada pelo observador que está interessado
no sistema. Os ecossistemas naturais podem fornecer um bom exemplo.
Poderíamos ver a Terra inteira como um ecossistema, mas isso também pode ser dividido em
subsistemas, por exemplo, por limites geográficos, que podem ser divididos ainda mais, por
exemplo, observando apenas o habitat de uma espécie. O valor de uma definição particular de um
sistema com limites especificados depende do que o observador que desenha os limites deseja
alcançar.
Da mesma forma, o ecossistema de IA não é apenas um sistema, mas um sistema de sistemas
de sistemas. Por exemplo, poderíamos olhar para o ecossistema global de IA. Existem alguns
aspectos da IA que são realmente globais, principalmente os princípios, técnicas e tecnologias, e
algumas das empresas dominantes que têm alcance e presença globais. Ao mesmo tempo, pode-
se distinguir diferenças regionais, por exemplo, entre EUA, Europa e China, que podem ser
descritos como ecossistemas separados (consulte a discussão sobre os diferentes propósitos do
uso da IA na Seção 3.3). A diferenciação por geografia e jurisdição poderia ir além, com, por
exemplo, o sistema alemão sendo diferente do espanhol, como mostram Kriechgaum et al. (2018)
usando o exemplo dos ecossistemas de inovação em torno da energia fotovoltaica. Também é
possível diferenciar ainda mais os ecossistemas de IA para diferentes setores ou áreas de
aplicação, como transporte autônomo, educação, produção e agricultura.

Todos os ecossistemas de IA estão inseridos em ambientes que os moldam parcialmente, mas


por sua vez são moldados por eles. Isso levanta novos desafios de governança, pois qualquer
intervenção tenta atingir alvos móveis e interconectados. Esses ambientes abrangem aspectos
técnicos, políticos, econômicos, jurídicos, sociais, éticos e outros que
Machine Translated by Google

7.1 Desafios da Governança Ética do Ecossistema de IA 93

interagem com a IA e são muito influentes na forma como as questões éticas e relacionadas se
materializam, são percebidas e podem ser abordadas. Eles levantam problemas porque sua taxa de
mudança provavelmente será diferente da do ecossistema de IA.
Como exemplo, vejamos o sistema legal, e mais especificamente a responsabilidade legal. As regras
de responsabilidade legal para a IA provavelmente terão um impacto significativo na maneira como as
sociedades lidam com a IA. Portanto, não é surpreendente que existam várias revisões e recomendações
apenas a nível europeu que reflitam sobre a aplicabilidade e possível desenvolvimento da legislação de
responsabilidade para torná-la adequada para IA (Grupo Especialista em Responsabilidade e Novas
Tecnologias 2019, Comissão Europeia 2020a, Parlamento Europeu 2020a). A legislação de
responsabilidade poderia, portanto, ser considerada um componente do ecossistema de IA. Ao mesmo
tempo, além da lei de letras negras existente, também existem práticas e experiências legais de direito
consuetudinário e outras. Profissionais jurídicos com experiência em responsabilidade não
necessariamente têm experiência em IA. Portanto, existem diferentes expectativas de diferentes campos
de aplicação da IA que conceituarão a responsabilidade de maneira diferente. A interação entre o
ecossistema de IA (com seus subsistemas) e o regime de responsabilidade legal provavelmente será
complexa.
Constelações semelhantes provavelmente serão relevantes para outros sistemas sociais ou técnicos.
Tomemos o sistema técnico como exemplo: a IA depende da infraestrutura de TIC existente e futura,
como rede, computação e capacidade de armazenamento. O progresso nessas áreas tem sido um fator
crucial para o sucesso do aprendizado de máquina. A disponibilidade de fontes de energia apropriadas é
um desafio técnico, mas cada vez mais também social, político e ambiental, devido ao consumo de
energia cada vez maior dos sistemas de IA e à possível interferência nas metas de sustentabilidade
(Knight 2020).
O ecossistema de IA é, portanto, crucialmente dependente da infraestrutura técnica e impulsiona e molda
seu desenvolvimento. Mas as decisões sobre a infraestrutura técnica não são necessariamente tomadas
pelos membros do ecossistema de IA e podem, portanto, parecer fazer parte do ambiente externo. A
avaliação do estado do ecossistema e as percepções de seu progresso, potencial e capacidade de
mudança dependerão muito de onde exatamente o limite é traçado.

Outro desafio importante para a governança ética dos ecossistemas de IA é o conceito de ética. No
Capítulo 2 , propus o conceito de florescimento humano como o conceito para orientar a compreensão
da ética na IA. “Florescimento” é um termo bem estabelecido fortemente ligado à antiga tradição da ética
da virtude; é um termo inclusivo que está aberto a figuras de pensamento de outras tradições filosóficas,
como utilidade, dever e cuidado. Ao mesmo tempo, essa abertura pode ser problemática porque é difícil
determinar quando e como exatamente o florescimento foi alcançado (veja o quadro).

Determinando o florescimento

Uma abordagem que visa o florescimento humano e simultaneamente tenta fornecer orientação
concreta sobre como medir as condições para o florescimento foi desenvolvida por Martha
Nussbaum: a abordagem de capacidades (Nussbaum 2000, Buckingham nd). As dez capacidades
necessárias para o florescimento, de acordo com Nussbaum, são a vida; saúde corporal;
integridade corporal; sentidos, imaginação e
Machine Translated by Google

94 7 ecossistemas de IA para o florescimento humano…

pensamento; emoções; razão prática; afiliação; outras espécies (ex. ligação aos
animais e à natureza); jogar; e controle sobre o ambiente (Nussbaum 2000: 78–80).
Os economistas pegaram o trabalho de Nussbaum e avaliaram se as capacidades e
intervenções relacionadas podem ser medidas de forma confiável (Anand et al 2008).
A conclusão deles é que os modelos econômicos focados nas capacidades de
Nussbaum podem medir e abordar alguns inibidores do florescimento humano, mas
não todos (ibid. 303) devido ao fato de que as capacidades têm múltiplas dimensões
(ibid. 302).

Portanto, não podemos assumir que existe uma maneira a priori de determinar se as
pessoas estão prosperando, então precisamos admitir que isso é, pelo menos em parte, uma
questão empírica que também está sujeita a mudanças ao longo do tempo. As percepções e
posições morais das pessoas mudam, enquanto os ecossistemas de IA são realizados dentro
dos limites mutáveis das preferências éticas. No momento, isso pode ser melhor ilustrado
usando os diferentes regimes de privacidade e proteção de dados em diferentes partes do
mundo, que sem dúvida refletem diferentes preferências sociais e dão origem a debates
interessantes sobre o que, se é que existe, é universal e deve ser aplicado em áreas
geográficas e outras. limites. Por exemplo, o direito à privacidade é reconhecido como um
direito humano na Convenção Europeia dos Direitos Humanos, que fornece uma base sólida
para a proteção de dados como um componente crucial da proteção da privacidade das
informações. Na UE, a proteção de dados é regulada pelo Regulamento Geral de Proteção
de Dados, que fornece orientação detalhada e exige certas atividades e procedimentos, como
a necessidade de ter uma base legal para o processamento de dados e requisitos para
realizar avaliações de impacto de proteção de dados e nomear dados oficiais de proteção. A
ênfase europeia na proteção de dados provavelmente influenciará fortemente como a IA será
regulamentada (EDPS 2020). Em outras partes do mundo, a privacidade e a proteção de
dados têm papéis e relevâncias diferentes. Embora exista legislação de proteção de dados
em muitas jurisdições, sua extensão e aplicação variam. Na China, por exemplo, as leis de
privacidade protegem os dados dos cidadãos contra o abuso por parte de terceiros, mas não
cobrem o acesso e uso de dados governamentais (Gal 2020).
O conceito de prosperidade humana tem algumas reivindicações universais, notadamente
que os humanos lutam pela felicidade e que alcançá-la é um objetivo eticamente justificado
que as sociedades e as tecnologias que empregam devem apoiar. Mas como exatamente
isso é alcançado e como podemos saber se foi alcançado permanecem questões em aberto.
E essa abertura não é apenas um fato historicamente contingente, mas parte da própria
questão. Não é uma pergunta que se pode esperar responder e fechar, mas que requer
reflexão e discussão contínuas, pois as respostas específicas diferem e variam com o tempo.
Isso também implica outro grande desafio para a governança ética dos ecossistemas de
IA, ou seja, a existência inevitável de discordâncias éticas e conflitos de valores.
Como parte do processo de reflexão e promoção do florescimento humano, as pessoas
entrarão em conflito. Os conflitos podem ser locais, por exemplo, onde recursos escassos
devem ser alocados para satisfazer demandas concorrentes. Um exemplo típico seria o uso
de água para manter os campos de golfe verdes versus outros usos (Scott et al. 2018). Mas eles podem
Machine Translated by Google

7.1 Desafios da Governança Ética do Ecossistema de IA 95

também pode ser mais fundamental, onde posições eticamente bem justificadas entram em
conflito e as resoluções de tais conflitos não são óbvias e diretas. Um exemplo pode ser a
controvérsia sobre aplicativos móveis de rastreamento e rastreamento durante a crise do COVID
19, na qual demandas concorrentes de ativistas de privacidade e especialistas em saúde
pública levaram a uma série de controvérsias sobre como essas tecnologias poderiam e
deveriam ser usadas para limitar a disseminação de a doença (Klar e Lanzerath 2020). Este
também é um bom exemplo dos problemas em traçar um limite em torno de um ecossistema de
inovação sociotécnica em termos de jurisdições, dados, plataforma técnica etc.
O desafio final para a governança ética bem-sucedida dos ecossistemas de IA é a incerteza
de todos os aspectos dos próprios ecossistemas e de seus ambientes, sejam eles técnicos,
sociais ou éticos. A incerteza técnica pode ser o exemplo mais visível, com os desenvolvimentos
técnicos relacionados à IA acontecendo em um ritmo rápido, o que torna o valor de tentar prever
a próxima etapa extremamente limitado. Isso é em parte uma função da própria tecnologia, mas
também em função da crescente realização das aplicações potenciais de tais tecnologias. A
aplicação das atuais tecnologias de aprendizado de máquina pode levar a mudanças radicais
nos próximos anos, mesmo sem nenhum progresso técnico adicional, simplesmente porque os
atores estão começando a entender o que essas tecnologias podem fazer e a aplicá-las a novos
problemas de maneiras inovadoras.
Mas a incerteza do futuro não está apenas ligada a artefatos técnicos. É igualmente
importante em termos de estruturas sociais e preferências éticas. As sociedades são sempre
dinâmicas, e isso pode afetar os ecossistemas tecnológicos de maneiras imprevisíveis. Mais
uma vez, a pandemia do COVID-19 pode servir como ilustração da mudança às vezes rápida
dos sistemas sociais. O trabalho em casa generalizado pode ser apoiado por tecnologias de IA
em benefício dos funcionários, mas também pode oferecer novos modos de vigilância e
exploração dos trabalhadores (Harwell 2020). Como outro exemplo, a maior conscientização
sobre o racismo que surgiu no contexto do movimento Black Lives Matter colocou um holofote
ainda mais forte sobre o preconceito e a discriminação, já um tópico bem discutido da ética da
IA. Embora o potencial da IA para levar a preconceitos e discriminação esteja bem estabelecido,
também foi observado que pode se tornar uma ferramenta útil na identificação de preconceitos
humanos existentes e, assim, superá-los (Stone et al. 2016). É impossível prever qual mudança
social trará o próximo conjunto de desafios e como a interação entre o ecossistema de IA e
outras partes de nosso ambiente social e técnico se desenvolverá.

A Figura 7.1 resume os pontos discutidos nesta seção, na qual indiquei que a maioria dos
principais desafios não é específica da IA. Algumas delas decorrem da natureza sistêmica do
ecossistema de inovação sociotécnica. Algumas delas estão relacionadas a aspectos
fundamentais do mundo social, técnico e natural em que vivemos.
Questões específicas da IA que estão ligadas às características das tecnologias subjacentes e
seu impacto no mundo formam apenas um subconjunto desses desafios. Isso indica que a
governança dos ecossistemas de IA é melhor compreendida como parte da governança das
tecnologias digitais, que, por sua vez, é um subconjunto da governança de tecnologia em geral.
Tendo agora explorado os desafios que qualquer tentativa de governar os ecossistemas de
IA para apoiar o florescimento humano provavelmente enfrentará, podemos passar para a
próxima etapa, uma exploração do que qualquer intervenção precisaria cobrir, a fim de enfrentar
os desafios discutidos aqui.
Machine Translated by Google

96 7 ecossistemas de IA para o florescimento humano…

Significado de ética/
florescimento humano

Incorporação em ambientes
Ampla gama de questões,
externos
tecnologias, opções
(técnico, político,
de mitigação, partes
econômico, legal,
interessadas
ético)
Principais desafios da
governança ética do
ecossistema de IA
Especificação dos limites do Relacionamentos não
sistema lineares e sistêmicos

Incerteza dos
desenvolvimentos técnicos,
sociais e éticos

Fig. 7.1 Principais desafios da governança ética dos ecossistemas de IA

7.2 Requisitos para moldar o ecossistema de IA

As intervenções destinadas a enfrentar os desafios éticos da IA podem ser desenvolvidas de


várias maneiras. O caminho escolhido aqui é situar as intervenções dentro da metáfora do
ecossistema de IA. Uma série de requisitos para que isso funcione são descritos abaixo.

7.2.1 Limite Claro do Ecossistema

O primeiro requisito destaca a importância de traçar limites claros em torno do ecossistema a


ser visado. Isso se refere aos limites geográficos, técnicos, culturais e outros que determinam o
que está incluído no ecossistema. Os limites de um ecossistema, como indicado anteriormente,
não são tanto fenômenos naturais quanto o resultado de decisões humanas.

Em alguns casos, esses limites podem parecer óbvios para os atores envolvidos. No caso
da discussão da União Europeia sobre IA, uma suposição implícita é que qualquer intervenção
que a UE empreenda será no nível europeu e cairá dentro da jurisdição da UE. É claro que isso
faz todo o sentido para instituições jurídicas que atuam em uma jurisdição definida e, portanto,
intervêm dentro dos limites dessa jurisdição. O mesmo vale para as intervenções regulatórias
nacionais, que normalmente visam os membros do ecossistema que atuam dentro das fronteiras
de uma nação.
No entanto, também está claro que a aplicação de limites jurisdicionais a ecossistemas de
IA não é necessariamente a abordagem mais promissora. Os princípios da IA, a ciência
subjacente e os algoritmos não são confinados localmente. Muitas das principais empresas do
Machine Translated by Google

7.2 Requisitos para moldar o ecossistema de IA 97

o campo são globais. A potencial incompatibilidade entre regulamentação regional e tecnologia


global não é nova e não se limita à IA (Xu et al. 2004). Vale a pena estar ciente e explícito
sobre isso, no entanto, para garantir que as expectativas levantadas nas intervenções sejam
realistas.
Um desafio semelhante ao estabelecimento de limites claros em torno dos ecossistemas
relevantes é a terminologia que descreve a tecnologia subjacente. Como mostrei no Capítulo
2, o desafio de definir IA significa que é difícil determinar quais questões éticas, ou quais
possíveis atenuações, são relevantes. Ao descrever o ecossistema de IA, nos referimos à IA
em um sentido restrito, principalmente a questões de aprendizado de máquina, rede neural,
aprendizado profundo etc.? Ou incluímos outros aspectos da IA, como lógica difusa e sistemas
especialistas? Ou incluímos os sistemas sociotécnicos mais amplos que podem ou não
abraçar a IA restrita em algum lugar ao longo da cadeia de valor?
Concentrar-se na IA em um sentido restrito tem a vantagem de que as tecnologias são
mais facilmente descritas. Podem ser identificadas as características que suscitam
preocupações e determinado um conjunto de questões éticas. Em muitos casos, o foco mais
estreito pode facilitar a localização de uma resolução. Um bom exemplo disso seriam os
vieses que os algoritmos de aprendizado de máquina captam dos conjuntos de dados
existentes, o que leva à discriminação injusta. Este é agora um problema bem reconhecido e
muito trabalho está sendo realizado para encontrar maneiras de abordá-lo (Holzinger et al. 2017).
Embora uma visão tão estreita das tecnologias que constituem o ecossistema de IA seja
adequada para resolver problemas específicos, pode-se argumentar que não é útil se alguém
busca chegar a uma abordagem mais abrangente que cubra a amplitude do atual discurso
ético da IA. A maioria das questões que surgem de viver em uma sociedade habilitada
digitalmente vai além de tecnologias específicas e cadeias causais facilmente identificáveis.
Embora muitas preocupações sobre justiça, distribuição de oportunidades e ônus, emprego
etc. estejam relacionadas à IA restrita, elas normalmente vão além da tecnologia imediata
usada.
A luta com a questão de como traçar o limite do ecossistema pode ser observada no nível
europeu. Por exemplo, o White Paper da Comissão Europeia sobre Inteligência Artificial
(2020c) fala apenas de IA e parece focar no aprendizado de máquina, mas também se refere
a outras tecnologias, como a computação quântica.
Isso significa que nenhum limite foi determinado: a IA não foi definida ou separada de outras
tecnologias. Em outro relatório sobre as implicações de segurança e responsabilidade da IA
(Comissão Europeia 2020a), o escopo técnico já foi ampliado no título para incluir “a internet
das coisas e a robótica”. Isso significa que há uma falta de acordo sobre o escopo exato e as
delimitações do termo, mesmo dentro de um único órgão de formulação de políticas, como a
Comissão Européia. Em seu esboço de política para o futuro digital da Europa (Comissão
Europeia 2020b), os autores usam o conceito de “tecnologia profunda”, que inclui
supercomputação, tecnologias quânticas, blockchain e capacidades de nuvem pan-europeias
seguras.
Isso mostra a dificuldade de delimitar claramente quais tecnologias são relevantes em
determinado debate ou em determinadas reportagens. Pode-se, em vez disso, usar o termo
“sistemas de informação inteligentes” (SIS), definindo SIS como aqueles sistemas sócio-
técnicos que têm como parte de suas capacidades centrais IA estreita e análise de big data,
mas também incluem outras tecnologias para coletar e processar dados e interagir com o ambiente externo.
Machine Translated by Google

98 7 ecossistemas de IA para o florescimento humano…

(Stahl e Wright 2018). Este é um termo útil, mas no discurso público e político o termo “IA” tornou-
se dominante. Para efeitos de delimitação do ecossistema importa, no entanto, deixar claro quais as
tecnologias abrangidas e quais, por implicação, não o são.

Um terceiro aspecto de traçar limites claros para o ecossistema, além dos limites geográficos e
terminologia técnica, envolve seus aspectos normativos.
Estes começam com os pressupostos normativos por trás da definição do ecossistema.
As decisões sobre os limites geográficos, técnicos e sociais de um ecossistema são baseadas em
pressupostos e valores subjacentes que devem ser explicitados. O que o observador do ecossistema
que usa a metáfora do ecossistema está tentando alcançar? No Capítulo 4 , sugeri que existem
diferentes propósitos que impulsionam o desenvolvimento e uso da IA (eficiência econômica,
controle social, prosperidade humana) e que a delimitação do ecossistema deve incluir um
esclarecimento de quais desses (ou talvez outros) propósitos motivam a descrição do ecossistema.

Se o propósito de usar a metáfora do ecossistema é encontrar maneiras de promover o


florescimento humano, isso não deve ser apenas explícito, mas também vir com um alerta de saúde.
Questões éticas não estão sujeitas a resoluções diretas. Qualquer pessoa que tente explicitamente
promover a ética faria bem em se envolver proativamente no gerenciamento de expectativas. É
improvável que a promessa de resolver a ética da IA seja bem-sucedida em todos os aspectos e,
portanto, pode resultar em desapontamento e desilusão. Portanto, pode ser mais proveitoso focar
em indicadores específicos de como o florescimento humano pode ser promovido. Isso pode ser
alcançado, por exemplo, concentrando-se em como alguns ou todos os direitos humanos
fundamentais podem ser fortalecidos em um ecossistema de IA ou referindo-se a como o ecossistema
de IA promoveria o alcance dos Objetivos de Desenvolvimento Sustentável (ODS) da ONU. Como
tal, a definição de limites implícita na declaração de que o florescimento humano é o foco ético do
ecossistema de IA é reduzida a objetivos específicos relacionados à promoção dos direitos humanos.

Definir e delimitar o ecossistema de IA em termos de fronteiras geográficas, jurisdicionais,


culturais ou outras, e esclarecer as tecnologias a serem cobertas e os objetivos normativos que
devem ser alcançados, constituem um primeiro passo importante para uma intervenção bem-
sucedida em tal ecossistema de IA . Mas, por si só, este passo não pode fazer diferença.

A próxima pergunta, então, é: o que é necessário para moldar este ecossistema para suportar
florescimento humano?

7.2.2 Conhecimento e Capacidade

Uma das características dos ecossistemas de inovação é que os membros do sistema não apenas
competem e cooperam, mas também coevoluem e aprendem uns com os outros. A existência e
disponibilidade de conhecimento são fatores chave que distinguem diferentes ecossistemas. O
conhecimento também desempenha um papel fundamental na compreensão das questões éticas e
nas formas de abordá-las. O alcance e a qualidade do conhecimento dentro de uma
Machine Translated by Google

7.2 Requisitos para moldar o ecossistema de IA 99

ecossistema são, portanto, fatores-chave que afetam a capacidade de compreender e abordar


questões éticas.
Moldar um ecossistema de IA de forma a promover o florescimento humano requer e se
baseia no conhecimento. Essa afirmação é incontestável para o lado técnico e econômico dos
ecossistemas de IA. Os focos do atual desenvolvimento de IA, principalmente áreas geográficas
importantes, como o Vale do Silício, são caracterizados por altos níveis de talento técnico
disponível e conhecimento concentrado em universidades e empresas de alto nível. Da mesma
forma, construir essa base de conhecimento técnico é um componente-chave da maioria das
estratégias nacionais de IA relacionadas a economias específicas. Esse conhecimento inclui o
conhecimento técnico no sentido estrito, mas também o conhecimento dos processos de
negócios, opções financeiras e assim por diante, necessários para que as organizações de IA operem com suces
O mesmo vale para o conhecimento não técnico ou normativo mais amplo que molda o
ecossistema de IA. Esse conhecimento cobre muito do que discuti nos capítulos anteriores,
como vários conceitos de ética, as questões éticas normalmente associadas à IA e as várias
opções de mitigação que foram propostas e estão sendo discutidas. Um ecossistema só pode
ser moldado para promover o florescimento humano quando um conhecimento significativo de
questões éticas e soluções potenciais para desafios éticos estiver disponível.

Além disso, é necessário o conhecimento processual necessário para lidar com questões
éticas. É o conhecimento de como organizar os processos necessários para lidar com questões
éticas. Por exemplo, se as possibilidades de discriminação devem ser reduzidas para aumentar
o florescimento humano, as opções de governança para alcançar isso precisam ser conhecidas,
desde soluções legais até soluções técnicas.
O conhecimento procedimental também deve abranger outros aspectos da reflexão e
avaliação sobre ciência e tecnologia. Com base no discurso sobre pesquisa e inovação
responsáveis, é possível identificar alguns processos importantes que podem contribuir para
garantir que questões éticas possam ser reconhecidas e tratadas. Estes incluem antecipação,
envolvimento, reflexividade e capacidade de resposta (Stilgoe et al. 2013).
Processos de antecipação são necessários para uma forma estruturada de pensar sobre
possíveis estados futuros que irão informar a maneira como agimos hoje e nos preparamos para
o futuro. Esses processos não devem ser mal interpretados como simples previsões que tentam
adivinhar como será o futuro. Previsões precisas são notoriamente difíceis, se não impossíveis,
e a literatura está repleta de previsões que se mostraram erradas e, em retrospectiva, tendem a
parecer ridículas, como a previsão do presidente da IBM em 1943 de que haveria um mercado
mundial. para talvez cinco computadores, ou a declaração do presidente da Digital Equipment
Corporation em 1977 de que não havia razão para alguém querer um computador em casa
(Himanen 2001: 187). Os processos de antecipação são baseados no reconhecimento da
impossibilidade de previsão. Eles, no entanto, visam explorar futuros possíveis, para ajudar as
sociedades a decidir quais ações tomar hoje (Cuhls 2003). Existem discursos e disciplinas
acadêmicas bem estabelecidos que desenvolveram métodos para estudos futuros e prospectivos
(Sardar 2010), alguns dos quais focam explicitamente nas questões éticas das tecnologias
emergentes (Brey 2011, Floridi e Strait 2020). Por exemplo, Flick et al. (2020) exploram uma
ampla gama de recursos, incluindo publicações acadêmicas, mas também discussões em mídias
sociais, para identificar desenvolvimentos técnicos esperados no
Machine Translated by Google

100 7 ecossistemas de IA para o florescimento humano…

domínio das TIC para o envelhecimento e as preocupações éticas que daí possam advir. Esse
tipo de trabalho abre espaços de possibilidades sem se comprometer com um resultado
específico. É útil para aumentar a conscientização e a sensibilidade para os desenvolvimentos
técnicos e sociais ou éticos e, portanto, oferece a probabilidade de que eles possam ser
moldados adequadamente. Esse tipo de trabalho pode beneficiar os ecossistemas de IA, mas
para que isso aconteça, o conhecimento de como realizar o trabalho antecipado precisa estar
disponível no ecossistema.
Um dos processos com potencial para atrair conhecimento para o ecossistema de ética da
IA é o engajamento de todas as partes interessadas. “Engajamento” refere-se a atividades que
reúnem diferentes partes interessadas de maneira aberta para uma troca de ideias mutuamente
informativa. A importância do engajamento em ciência, pesquisa e desenvolvimento tecnológico
está estabelecida há muito tempo (Arnstein 1969, Hart et al. 2009, Bick erstaff et al. 2010, Van
Est 2011, Boulton et al. 2012). Certos aspectos do engajamento também estão bem
estabelecidos em disciplinas técnicas, por exemplo, na forma de engajamento do usuário ou
pesquisa de experiência do usuário, que fazem parte da ciência da computação, a disciplina pai
da IA (Haenlein e Kaplan 2019). No entanto, para realizar atividades de engajamento de maneira
eticamente sensível e contribuir para um ecossistema de IA de modo a promover o florescimento
humano, elas precisam ser empregadas com cuidado. O envolvimento no desenvolvimento da
ciência e da tecnologia às vezes é limitado a exercícios para a compreensão pública da ciência,
que visam informar o público sobre percepções científicas ou conquistas técnicas. Não há nada
de errado com tais exercícios, mas eles são apenas uma parte do engajamento público, que,
para atender às expectativas éticas, precisa facilitar e abrir uma comunicação bidirecional, com
pesquisadores e outras partes interessadas dispostos a se envolver, ouvir e responder uns aos
outros e levar as posições a sério. Se isso não for feito de maneira inclusiva, conhecimentos
importantes a serem adquiridos sobre o ecossistema de ética da IA podem ser perdidos.

Embora esse processo de engajamento aberto prometa uma melhor compreensão do


ecossistema por meio de uma ampliação da base de conhecimento e níveis mais altos de
capacidade de aceitação das pesquisas e tecnologias resultantes, não há garantia de que isso
será alcançado. Debates públicos sobre ciência, pesquisa e tecnologia em muitas outras áreas,
como organismos geneticamente modificados, energia nuclear e nanotecnologia, mostram que
as atividades de engajamento podem ser altamente carregadas e conflituosas (Van Est 2011).
O potencial para divergências fundamentais sobre valores subjacentes, objetivos ou resultados
desejados permeia todos esses engajamentos de partes interessadas, sejam de alto nível em
nível nacional ou internacional ou conduzidos em nível local ou organizacional.
Todos esses diferentes aspectos do conhecimento precisam existir de forma prática e
aplicável. Não basta tê-los em repositórios não acessíveis ou não utilizados. Entre os requisitos
para moldar os ecossistemas de IA está, portanto, que a base de conhecimento seja
acompanhada e, em grande medida, realizada por uma capacidade correspondente de aplicar
o conhecimento. A capacitação é, portanto, outro requisito fundamental: as diferentes partes
interessadas precisam não apenas reconhecer a legitimidade de diferentes tipos de
conhecimento, mas também estar dispostas a se envolver com diferentes conhecimentos e,
idealmente, desenvolver suas próprias capacidades na aplicação desses diferentes
conhecimentos. Como Coeckel Bergh (2020: 179) coloca, “se os engenheiros aprenderem a
fazer coisas com textos e as humanidades aprenderem a fazer coisas com computadores, há mais esperança p
Machine Translated by Google

7.2 Requisitos para moldar o ecossistema de IA 101

e política que funciona na prática”. Claro, existem outras partes interessadas envolvidas em
ecossistemas de IA além de engenheiros e especialistas em humanidades, e outros domínios de
conhecimento além de “coisas com texto” e “coisas com computadores”. Mas o sentimento geral
de que as pessoas precisam estar dispostas a obter novos insights e aprender novas habilidades
é, sem dúvida, verdadeiro.
A questão de como isso pode ser alcançado nos leva ao terceiro grupo de requisitos para
moldar um ecossistema de IA para o florescimento humano: a questão da governança do sistema.

7.2.3 Princípios de Governança de Ecossistemas de IA

As características dos ecossistemas de inovação e os desafios resultantes para moldar os


ecossistemas de IA para promover o florescimento humano exigem abordagens para a
governança desses sistemas que sejam sensíveis a eles. Estou usando o termo “governança”
aqui para denotar todas as atividades e processos que são implementados para facilitar e regular
o comportamento dos membros do ecossistema de IA e a relação do ecossistema com seu
ambiente mais amplo. O termo freqüentemente se refere a estruturas e processos dentro das
organizações, enquanto em um nível mais alto o termo “regulação” é usado (Braith Waite e
Drahos 2000). No entanto, “governança” é cada vez mais usada para descrever uma gama muito
mais ampla de

processos de governar, seja empreendido por um governo, mercado ou rede, seja sobre uma família,
tribo, organização formal ou informal, ou território, seja por meio de leis, normas, poder ou linguagem.
(Bevir 2012: 1)

O termo também se refere a formas localizadas específicas de organizar (ou governar)


questões particulares, como na governança de dados (Khatri e Brown 2010) ou governança da
informação (ISO 2008), tornando-os adequados para descrever formas de lidar com ecossistemas
de IA que cobrem muitos atores e atividades sociais.
Um requisito fundamental para a governança dos ecossistemas de IA é a flexibilidade. Vimos
que os membros de um ecossistema de IA estão em relacionamentos complexos e não lineares.
Além disso, as tecnologias, organizações, dinâmicas sociais e outros aspectos do ecossistema
podem mudar rapidamente. Qualquer estrutura de governança, portanto, precisa ser capaz de
reagir com flexibilidade à mudança. Kuhlmann et ai. (2019) usam o termo “governança provisória”
para descrever essa flexibilidade. Eles consideram a governança uma tentativa

quando é concebido, praticado, exercido ou evolui como um processo dinâmico para gerir
interdependências e contingências de forma não finalizante ; é prudente (por exemplo, envolvendo
tentativa e erro, ou processos de aprendizagem em geral) e preliminar (por exemplo, limitado
temporalmente) em vez de assertivo e persistente. Atores provisórios de governança buscam flexibilidade e agem de forma incre
(Kuhlmann et al. 2019: 1093, ênfase no original).

Essa governança experimental precisa fornecer espaços para os atores aprenderem e


desenvolverem a compreensão das tecnologias, seu uso e sua avaliação. Deve ser baseado e
Machine Translated by Google

102 7 ecossistemas de IA para o florescimento humano…

promover a comunicação entre as partes interessadas. Também deve permitir o reconhecimento


de erros e ter a capacidade de reverter ou mudar de rumo quando as suposições iniciais se
mostrarem erradas ou onde surgirem novos insights ou consensos.
A governança do ecossistema de IA também deve estar aberta a conflitos e desacordos e
ser capaz de lidar com eles de forma construtiva. Como Genus e Stirling (2018) apontam com
razão, o envolvimento responsável com a tecnologia requer o que eles chamam de “qualidades
de Collingridge” (ver Collingridge 1981), ou seja, inclusão, abertura, diversidade, incrementalismo,
flexibilidade e reversibilidade. Em muitos casos, isso pode ser melhor ajudado explorando
desacordo e dissenso do que por consenso de engenharia.
A governança dos ecossistemas de IA deve ser sensível às motivações e incentivos dos
membros do ecossistema. Ele precisa equilibrar cuidadosamente os benefícios possíveis e
esperados da IA com as desvantagens possíveis e esperadas. Isso requer a capacidade de
utilizar o conhecimento e a capacidade descritos anteriormente, avaliar os desenvolvimentos e
estabelecer incentivos e sanções que reforcem os desenvolvimentos desejáveis e promovam o
florescimento humano.
O ecossistema de IA não existe no vácuo e, portanto, sua governança deve estar vinculada
às estruturas de governança existentes. Questões relacionadas à extensão da legislação de
responsabilidade para permitir que ela cubra a IA, conforme atualmente discutido no nível
europeu e em outros lugares, são uma categoria de questões relacionadas à extensão das
estruturas de governança existentes para incluir a IA.
A consideração das estruturas de governança existentes é importante para garantir a
consistência dos regimes de governança sobrepostos, o que, por sua vez, é importante para o
sucesso de qualquer esforço de governança. Em outro lugar (Stahl 2013, Stahl et al. 2019) ,
apresentei o conceito de meta-responsabilidade como uma parte importante da pesquisa e
inovação responsáveis (RRI). Esta ideia surge da existência de redes de responsabilidade
(Timmermans et al. 2017) que regem as práticas de ciência, investigação e inovação. O RRI
como uma meta-responsabilidade visa moldar, manter, desenvolver, coordenar e alinhar
processos, atores e responsabilidades relacionados à pesquisa e inovação existentes e novos,
com o objetivo de garantir resultados de pesquisa desejáveis e aceitáveis. Essa ideia também
é relevante para os ecossistemas de IA. Os ecossistemas de IA se baseiam e incorporam
muitas responsabilidades e estruturas de governança existentes.
Para que esses ecossistemas tenham sucesso e promovam o florescimento humano, não é
necessário reinventar os princípios de governança; eles devem, ao contrário, ser cuidadosamente
desenvolvidos, para ajudar as estruturas de governança existentes e as relações de
responsabilidade a funcionarem de forma eficaz. Para promover ecossistemas de IA que
conduzam ao florescimento humano, não precisamos reinventar a roda, mas precisamos
garantir que as muitas rodas que já existem apontem em uma direção aproximadamente
semelhante e que haja um forte e processo legítimo que permite que essa direção seja determinada.
A Figura 7.2 apresenta um resumo dos principais pontos discutidos nesta seção e visa
responder à pergunta: quais características uma intervenção em ecossistemas de IA deve ter
para poder lidar com aspectos éticos com sucesso? Estes são requisitos necessários, mas
podem não ser os únicos, e é muito improvável que sejam suficientes por conta própria. Eles
devem, no entanto, ser úteis na revisão e avaliação de intervenções práticas, políticas e
estruturas de governança e podem ajudar
Machine Translated by Google

7.2 Requisitos para moldar o ecossistema de IA 103

Requisitos para intervenções

Limites claros para


Conhecimento e capacidade princípios de governança
ecossistema

• Limites geográficos • Limites • Conhecimento técnico • Governança provisória •


técnicos • Conhecimento conceitual • Flexibilidade • Capacidade

• Limites conceituais Conhecimento sobre processos • de aprender • Meta-


Capacitação responsabilidade

Fig. 7.2 Requisitos para intervenções em ecossistemas de IA

para melhorar aqueles. Assim, eles contribuem para os tipos de recomendações que descrevo na
próxima seção.

7.3 Moldando ecossistemas de IA

As propostas a seguir não são recomendações prontas que podem ser implementadas para
resolver as questões éticas da IA. Além do fato de que isso é impossível porque as questões éticas
normalmente não se prestam a uma resolução simples, também me falta o espaço neste livro e o
conhecimento detalhado dos vários domínios de especialização que seriam necessários para
desenvolver planos de implementação detalhados.
O que estou tentando fazer é destacar alguns aspectos-chave de governança, mitigação e
intervenções que têm grande probabilidade de dar uma contribuição positiva para o objetivo de
moldar os ecossistemas de IA da maneira desejada.
O público previsto para essas propostas inclui tomadores de decisão que podem moldar
aspectos do ecossistema de IA, mas também pessoas que têm interesse e fazem parte do debate:
formuladores de políticas, bem como pesquisadores e usuários de IA em organizações públicas e
privadas, o representantes da mídia e da sociedade civil.
Os ecossistemas de IA existem em todo o mundo, mas geralmente são definidos
geograficamente, sujeitos às leis de uma jurisdição específica e podem ser específicos do setor.
Minhas sugestões visam ser amplamente aplicáveis em todas as regiões e jurisdições, mas devem
ser verificadas quanto à aplicabilidade local. Além disso, a maior parte do trabalho que sustenta
meu pensamento foi realizada nos contextos do Reino Unido e da UE, financiado por bolsas de pesquisa europeias
Muitas das questões que influenciam como os ecossistemas de IA podem e serão moldados estão
sendo muito debatidas no momento em que escrevo (o verão europeu de 2020). A nível europeu,
em particular, existe um conjunto de propostas da Comissão Europeia, do Parlamento Europeu e
de grupos de peritos de alto nível. Embora esta discussão esteja, portanto, claramente voltada
para a Europa, acredito que os princípios delineados são válidos – ou pelo menos de interesse –
fora da Europa.
Machine Translated by Google

104 7 ecossistemas de IA para o florescimento humano…

As subseções abaixo se concentram em propostas de ações destinadas a garantir que os


ecossistemas de IA sejam propícios ao florescimento humano.

7.3.1 Esclarecimento conceitual: vá além da IA

Qualquer intervenção bem-sucedida que promova o florescimento humano em ecossistemas de IA


precisa esclarecer qual conceito de IA está sendo usado. Embora isso seja trivialmente óbvio,
também é uma sugestão difícil de implementar. O conceito de IA continua difícil de definir e, como
indica minha discussão no Capítulo 2 , existem artefatos técnicos e sistemas sociotécnicos
fundamentalmente diferentes. Não estou sugerindo que seria possível alcançar a divergência
conceitual por decreto. Em vez disso, acredito que qualquer intervenção que vise afetar os
ecossistemas de IA deve declarar claramente o que pretende cobrir. A multiplicidade de significados
de IA e a falta de uma definição consensual levantam sérias dúvidas sobre a possibilidade de
regulamentar a IA (Stone et al. 2016).
Dependendo do conceito de IA escolhido, é possível que apenas uma parte muito específica do
ecossistema seja afetada, e as consequências para o ecossistema geral podem ser limitadas. Por
exemplo, as intervenções que visam um determinado conjunto de tecnologias, como o aprendizado
de máquina, serão limitadas a abordar efeitos claramente vinculados a essas tecnologias, como
vieses algorítmicos ou vieses que surgem do desenvolvimento de modelos baseados em dados
que contêm preconceitos. A escolha de uma área estreita de IA tem a vantagem de permitir a
definição de um alvo bem circunscrito para uma intervenção que, então, tem uma alta probabilidade
de ser implementada com sucesso. A desvantagem de tal abordagem é que intervenções desse
tipo provavelmente não terão um efeito importante em ecossistemas de IA mais amplos baseados
em definições mais amplas de IA. A abordagem atual da Comissão Europeia (2020c) , conforme
delineada em seu Livro Branco, parece seguir essa estratégia. Embora as definições de IA no
documento sejam mais amplas, o objetivo parece ser abordar as especificidades do aprendizado
de máquina. Minha afirmação aqui é que a definição e o alvo da intervenção precisam estar
alinhados.

O uso claro da terminologia é, portanto, uma recomendação importante para qualquer pessoa
que pretenda intervir em um ecossistema de IA. No entanto, entendimentos conflitantes do termo
“inteligência artificial” podem levar a confusão. Isso se deve em parte às definições variadas, mas
também em parte às conotações emotivas da IA. Os humanos tendem a se considerar inteligentes
e, portanto, a IA tem o potencial de ameaçar nossa percepção de nós mesmos. A cultura popular e
a ficção desenvolveram uma variedade de tropos facilmente reconhecíveis de IA, como o robô
maligno, que colore a percepção de tecnologias reais e esperadas. Pode haver pouca dúvida de
que esta é uma das causas do alto perfil do debate sobre IA, mas também é seu calcanhar de
Aquiles.
Como sugestão geral, eu defenderia o uso do termo IA com moderação e ir além dele para
termos que capturem melhor a tecnologia ou tecnologias específicas em questão. Se uma
intervenção visa um aspecto específico da IA, como aprendizado de máquina, isso deve ser
explícito. Se o objetivo é cobrir o mais amplo
Machine Translated by Google

7.3 Moldando ecossistemas de IA 105

ecossistema e abordar questões decorrentes da vida em um mundo digital, um termo mais


amplo seria mais adequado.
Minha sugestão seria falar de algo como “tecnologias digitais emergentes”, que
provavelmente abrange a ampla gama de tecnologias de relevância potencial, desde IA estreita
até computação neuromórfica, computação quântica, internet das coisas, robótica e futuras
tecnologias digitais. É claro que esse termo ainda terá que ser claramente definido, mas a
palavra “emergente” indica que é um alvo em movimento.
É também um termo muito menos emotivo do que “inteligência artificial”, provavelmente não tão
ameaçador e que atrai menos atenção. Considerando o atual hype em torno da IA, eu sugeriria
que um nível mais baixo de atenção pode ser uma coisa boa, pois pode permitir uma deliberação
mais cuidadosa no planejamento de possíveis intervenções.

7.3.2 Excelência e Florescimento: Reconheça Seus


Interdependência

A sugestão anterior apontava para a delimitação do ecossistema de IA em termos dos conceitos


e das tecnologias envolvidas, enquanto esta foca na clareza conceitual da dimensão normativa.
Uma intervenção em um ecossistema de IA requer o esclarecimento do propósito da intervenção:
qual é o resultado pretendido e por que a intervenção é considerada desejável?

No Capítulo 3 , discuti os diferentes propósitos da IA que permeiam grande parte da literatura


sobre políticas de IA: benefícios econômicos, controle social e prosperidade humana. Embora
esta seja uma distinção artificial e analítica, acredito que uma clara declaração de propósito
seria útil para a maioria das intervenções.
Uma intervenção em um ecossistema de IA para fins éticos deve declarar explicitamente a
intenção ética. Apresentei o conceito de florescimento humano como um termo amplo que
abrange muitas posições e tradições éticas diferentes. No entanto, existem muitos outros termos
que podem denotar objetivos semelhantes, como justiça, igualdade, dignidade e objetivos mais
específicos, como a prossecução dos ODS ou a promoção dos direitos humanos. O ponto é
que tal compromisso é importante para garantir que a intervenção no ecossistema possa ser
monitorada e avaliada em conformidade, e, portanto, deve ser explicitado.

Um aspecto importante do compromisso com uma postura ética é sua relação com o
ambiente técnico. Existe um amplo consenso de que os formuladores de políticas nacionais e
regionais têm um papel no desenvolvimento do ecossistema técnico de IA. Esse papel tende a
incluir medidas como o fortalecimento de caminhos educacionais que levam a uma força de
trabalho proficiente em IA, apoio a capital de risco e outros meios de financiamento de novos
modelos de negócios orientados a IA e estruturas de pesquisa e inovação que fornecem
financiamento para pesquisas relacionadas a IA . O fortalecimento do ecossistema de IA
também costuma ser visto como exigindo a criação de campeões ou centros de excelência de
IA nacionais ou regionais que sirvam como centros para reunir conhecimento e experiência. No Reino Unido
Machine Translated by Google

106 7 ecossistemas de IA para o florescimento humano…

esse papel é desempenhado pelo Alan Turing Institute. A Comissão Europeia propõe a criação
de redes de excelência em universidades de referência com um propósito semelhante.
Do meu ponto de vista, é importante estabelecer que a dimensão ética deve ser entendida
como parte integrante do ecossistema técnico de IA, não como um complemento.
Para que a IA se torne verdadeiramente voltada para o florescimento humano, ela deve superar
a divisão atual entre excelência científica e reflexão ética e reconhecer que a excelência
científica não pode ser verdadeiramente excelente se não considerar as consequências sociais
e éticas do desenvolvimento, implantação e uso do tecnologia.
À primeira vista, isso pode parecer um tanto trivial, mas exigiria uma reconceituação de
longo alcance da ética na ciência, pesquisa e desenvolvimento tecnológico. Atualmente, a ética
em pesquisa e inovação tende a se concentrar na ética em pesquisa, que normalmente assume
a forma de uma revisão no início de um projeto com base nos princípios de ética em pesquisa
biomédica. Minha sugestão é repensar fundamentalmente a relação entre pesquisa e inovação
em IA e ética. A ética no sentido amplo de promover o florescimento humano deve ser parte
integrante da excelência científica. Isso significaria que aspectos como consequências
pretendidas, análise detalhada de riscos e planos de contingência que cobrem questões éticas
conhecidas ou esperadas fariam parte da avaliação científica das propostas e determinariam
quais ideias são consideradas excelentes e, portanto, dignas de serem financiadas.

7.3.3 Medições de Florescimento: Compreensão


Impactos Esperados

Um ingrediente importante para garantir que os ecossistemas de IA conduzam ao florescimento


humano é a capacidade de refletir sobre os sucessos de intervenções anteriores e usá-los como
base para orientar o ecossistema. Isso requer uma compreensão dos impactos pretendidos e
reais das atividades no ecossistema. No que diz respeito ao desejo de promover o florescimento
humano, ele exige formas de entender o florescimento humano na prática.
No momento, não existe uma metodologia ou conjunto de critérios acordados que possam
ser usados para avaliar como as consequências do desenvolvimento e uso da IA afetaram ou
estão afetando o florescimento humano. Ou, em outras palavras, precisamos ter medidas para
o florescimento humano e elas precisam ser aplicáveis aos ecossistemas de IA. No entanto,
não precisamos começar do zero no desenvolvimento de tais medições.
Existem mecanismos bem aceitos que fornecem pelo menos parte do que é necessário.
Um método estabelecido para medir o florescimento humano é o Índice de Desenvolvimento
Humano (PNUD nd). Este conjunto de medidas foi inspirado na Abordagem da Capacidade
(Sen 1993, Alkire 2002, Nussbaum 2011), que pretende ir além da medição do produto interno
bruto e, em vez disso, avaliar a qualidade do desenvolvimento humano. Foi adotado pelo
Programa de Desenvolvimento das Nações Unidas como uma medida chave e também foi
aplicado com sucesso às TIC (Johnstone 2007, Zheng e Stahl 2011). Portanto, parece plausível
que possa ser facilmente adaptado para cobrir os aspectos específicos da IA.
Machine Translated by Google

7.3 Moldando ecossistemas de IA 107

Um conjunto semelhante de ideias impulsionou o desenvolvimento dos ODS, que atualmente


parecem mais proeminentes em relação à IA, notadamente no discurso “AI for Good” (Taddeo
e Floridi 2018). Orientar o desenvolvimento, a implantação e o uso da IA para a consecução
dos ODS é um componente-chave da IA para o Bem, conforme promovido pela União
Internacional de Telecomunicações (ITU nd). A ideia de avançar em direção aos ODS atualmente
não é muito controversa, embora na prática possa não ser trivial e levar a compensações entre
diferentes objetivos eticamente relevantes (Ryan et al. 2020)

Outra abordagem que também tem a vantagem de estar baseada em acordos internacionais
reconhecidos é o foco nos direitos humanos. Conforme discutido no Capítulo 4, já existem
várias propostas para encontrar formas de aplicar os ODS ou direitos humanos à IA (Raso et al.
2018, Latonero 2018, Comissário para os Direitos Humanos 2019).

Todas essas abordagens parecem ter um alto potencial para serem aplicáveis à IA e fornecer
maneiras de estruturar a discussão e a compreensão do impacto das intervenções no
ecossistema da IA. Uma compreensão mais clara de seus respectivos pontos fortes e fracos
seria útil para decidir quais deles podem ser mais apropriados em quais ecossistemas de IA.

A questão do florescimento humano e a influência que a IA pode ter sobre isso não é fácil
de resolver. As indicações nesta seção para o Índice de Desenvolvimento Humano, os ODS e
as medidas de direitos humanos destinam-se a fornecer indicações de como essa influência
pode ser alcançada. Tentar medir algo tão complexo e multifacetado quanto o florescimento
traz muitos desafios. Algumas delas são metodológicas e epistemológicas, girando em torno
das questões: o que podemos medir e como pode ser medido? O próprio termo “medida” sugere
uma abordagem quantitativa, e o grau em que um termo qualitativo complexo, como
florescimento, pode ser capturado usando medidas quantitativas está aberto ao debate. Os
desafios vão ainda mais longe e tocam no cerne da ética, na questão: é adequado tentar medir
o florescimento humano?

Este livro não pode oferecer uma resposta abrangente a essa pergunta. No entanto, pode
apontar para o fato de que vivemos em um mundo onde as medições orientam muitas políticas
e comportamentos. A capacidade de expressar se um objetivo específico, como o florescimento
humano, foi alcançado, ou se uma atividade ou processo pode levar ao progresso na direção
desse objetivo, ajudaria, portanto, a envolver os tomadores de decisão que estão acostumados
a esse tipo de discurso . O desenvolvimento de medições é altamente ambicioso e é muito
improvável que algum dia seremos capazes de medir o florescimento humano de forma abrangente.
Mas os benefícios de ter algumas medidas, embora imperfeitas, podem compensar as
divergências que essas medidas provavelmente evocarão.
Machine Translated by Google

108 7 ecossistemas de IA para o florescimento humano…

7.3.4 Benefícios, riscos e capacidades da IA:


comunicação, conhecimento e capacitação

No centro de qualquer tentativa de moldar os ecossistemas de IA e movê-los na direção do


florescimento humano deve estar uma compreensão dos benefícios e riscos das tecnologias e das
capacidades que elas podem oferecer aos usuários. A natureza dinâmica da IA significa que esse
conhecimento pode perder seu valor rapidamente, e é por isso que sugiro que uma base de
conhecimento de IA seja um requisito para a formação bem-sucedida de ecossistemas de IA.
Tal base de conhecimento seria, sem dúvida, baseada em estruturas existentes de conhecimento
e aprendizado, incluindo publicações e bancos de dados acadêmicos e recursos da web. Um papel
fundamental no estabelecimento e manutenção dessa base de conhecimento seria desempenhado
pelos centros de excelência – aqueles que já estão estabelecidos e os novos centros ou estruturas
de rede que estão sendo desenvolvidos. Além disso, várias organizações internacionais, como a
OCDE, a UNESCO e a Comissão Européia, estão desenvolvendo bancos de dados, observatórios
etc. para capturar o discurso. Os organismos de normalização têm um papel importante a
desempenhar na recolha dos conhecimentos disponíveis e na facilitação do consenso sobre aspetos
essenciais.
Uma sugestão importante que gostaria de fazer a esse respeito reflete a da seção sobre
excelência e florescimento (Seção 7.3.2), a saber, garantir que nenhuma divisão artificial seja imposta
entre o conhecimento científico e a compreensão ética e social. Isso significa que os centros de
excelência em IA devem incluir a excelência na ética da IA, posição que o Alan Turing Institute, no
Reino Unido, por exemplo, já adotou. Da mesma forma, embora haja espaço para padronização
especializada em ética e IA, como mostra a família de padrões IEEE P7000, seria desejável que os
padrões técnicos de IA se referissem e incluíssem aspectos éticos.

A base de conhecimento da IA precisa ser cientificamente sólida e confiável, mas também deve
ser visível, comunicada e compreendida, o que implica a necessidade de atividades educacionais,
desde a educação primária até o pós-doutorado. Isto, por sua vez, exige revisões dos currículos
nacionais e disciplinares, o desenvolvimento de apoio à aprendizagem e a criação de capacidade de
ensino.
A disseminação posterior e a utilidade prática para a sociedade desse conhecimento dependerão
se ele pode ser transmitido de maneira simples e compreensível. Uma abordagem para isso é
desenvolver rótulos e certificados para sistemas de IA, comparáveis a rótulos bem estabelecidos,
como os que codificam o consumo de energia, o conteúdo nutricional dos alimentos e a
sustentabilidade ambiental. Pode ajudar a usar as categorizações existentes de IA, como os seis
níveis de autonomia – níveis 0 a 5 (SAE 2018) – que são usados para veículos autônomos para
transmitir aspectos relevantes de benefício e risco.
Essas categorizações relativamente simples de aspectos importantes da IA podem ajudar a
representar visualmente possíveis benefícios e riscos e, assim, apoiar uma tomada de decisão equilibrada.
Machine Translated by Google

7.3 Moldando ecossistemas de IA 109

7.3.5 Engajamento das Partes Interessadas: Entendendo as


Preferências da Sociedade

As sugestões acima assumem que existe uma posição sobre IA que nos permite determinar
quais usos e aplicações de tecnologia são desejáveis e aceitáveis, que existe algum tipo de
acordo sobre o que conta como florescente ou quais benefícios justificam assumir riscos
específicos. Embora eu acredite que se possa realmente encontrar muito consenso sobre muitas
dessas questões, pelo menos dentro de comunidades e estados específicos, sempre haverá
fenômenos novos ou limítrofes que são menos claramente compreendidos e dão origem a
diferentes interpretações e avaliações.
A complexidade da IA e de outras tecnologias digitais emergentes, tanto em termos de suas
capacidades técnicas quanto em relação aos resultados e impactos sociais, significa que é
improvável que essas questões sejam fáceis de resolver. Além disso, em muitos casos, eles
estarão alinhados com as divergências sociais existentes, por exemplo, com relação ao que
conta como distribuição justa ou o que um estado pode razoavelmente exigir que seus cidadãos façam.
Uma compreensão completa do que conta como uma questão ética relacionada à IA, por que
ela conta e o que, se houver, poderia ou deveria ser feito sobre isso, portanto, exige debates
sociais que permitam que as partes interessadas se reúnam e debatam essas questões. Como
consequência, a ética da IA não pode ser um tópico tratado apenas por especialistas técnicos e
éticos: ela exige um envolvimento mais amplo das partes interessadas.
Em grande medida, os processos políticos que existem em um estado democrático podem
cuidar dessa tarefa e fornecer meios para a expressão de opiniões divergentes e decisões
legítimas sobre ações desejáveis. Para que os ecossistemas de IA sejam direcionados para o
florescimento humano, eles precisarão de mecanismos que institucionalizem as atividades de
engajamento das partes interessadas que dêem voz às partes interessadas e lhes permitam
contribuir significativamente para a tomada de decisões coletiva. Recomendações e políticas
apropriadas parecem exigir uma abordagem multissetorial que reúna as partes interessadas
relevantes de maneira inclusiva para avançar em direção ao florescimento humano ou, como
Cath et al. (2016: 18), para entregar uma “boa sociedade de IA”.
É mais fácil dizer do que fazer. Existem muitas armadilhas potenciais no envolvimento das
partes interessadas. Tais atividades precisam ser cuidadosamente definidas, planejadas e
executadas para evitar que sejam sequestradas por interesses particulares (Wehling 2012). Eles
precisam estar alinhados com os processos democráticos existentes. Existem questões difíceis
sobre a frequência e a intensidade dos engajamentos das partes interessadas que têm a ver
com os custos que incorrem e se eles podem realmente afirmar que representam as opiniões
das partes interessadas (Wynne 2006, Felt e Fochler 2010). Apesar desses problemas potenciais
e desvantagens, no entanto, é difícil ver como os ecossistemas de IA podem entender
adequadamente as questões éticas que enfrentam e as formas aceitáveis de lidar com elas, a
menos que tenham formas apropriadas de consultar as partes interessadas.
Machine Translated by Google

110 7 ecossistemas de IA para o florescimento humano…

7.3.6 Responsabilidade pela Regulamentação e Execução:


Definindo o(s) Nó(s) Central(is) dos Ecossistemas de IA

Minha última sugestão para moldar o ecossistema de IA tem relação com todas as outras
sugestões. Relaciona-se com a questão de onde reside a responsabilidade pelo planejamento,
realização, implementação e aplicação das sugestões feitas aqui e em outros lugares.
Isso se refere ao conceito de meta-responsabilidade, ou seja, a questão de quem ou o que é
responsável por garantir que indivíduos, organizações e Estados entendam suas
responsabilidades e as cumpram.
Acredito que uma condição fundamental para que qualquer sugestão ou recomendação seja
bem-sucedida é a capacidade de responder à pergunta: quem ou o que é responsável por
implementá-la? A nível nacional ou internacional, trata-se da questão de saber se deve haver
um regulador para a IA e que forma deve assumir. A nível europeu observamos várias opiniões
a este respeito. A Comissão Europeia (2020a) é favorável ao reforço da rede de reguladores
existentes, enquanto o Parlamento Europeu (2020b) propôs a criação de uma Agência Europeia
para a Inteligência Artificial.

Não vou comentar em detalhes esta discussão, mas gostaria de apontar alguns aspectos
que devem ser considerados ao buscar um caminho a seguir. Alguma estrutura ou órgão deve
assumir a responsabilidade por muitos aspectos da ética nos ecossistemas de IA. Deve haver
um lugar onde as posições conceituais são coletadas e definidas. A base de conhecimento e as
formas de medir e avaliar as tecnologias e seu impacto precisam de um lar institucional, que
uma rede de reguladores existentes ou um novo regulador poderia oferecer.

No Reino Unido, a organização sem fins lucrativos Doteveryone publicou um relatório (Miller
e Ohrvik-Stott 2018) sobre regulamentação de tecnologia responsável que contém uma forte
análise dos desafios e propõe a criação de um hub central para orientar e apoiar uma série de
atividades. Este relatório emprega a metáfora do ecossistema das tecnologias digitais e se
baseia nela para explorar maneiras pelas quais ecossistemas inteiros podem ser governados
para servir à sociedade. No centro das recomendações deste relatório está a criação do que os
autores chamam de Escritório de Tecnologia Responsável.
O escritório proposto não é explicitamente um regulador para IA. Tal regulador seria vítima
do problema da falta de clareza na definição de IA e poderia acabar sendo um regulador para
tudo. Em vez disso, seria criado como uma organização para apoiar e fortalecer os reguladores
existentes, como autoridades de proteção de dados e reguladores financeiros ou de outros
setores. Esses reguladores existentes estão, em sua maioria, bem estabelecidos e em melhor
posição para lidar com aplicações específicas, mas muitas vezes carecem de conhecimento e
experiência específicos para IA ou outras tecnologias emergentes. O Escritório de Tecnologia
Responsável é, portanto, descrito como uma organização que trabalha com os reguladores e
fornece o conhecimento específico de tecnologia e experiência que eles não possuem.
O relatório Doteveryone prevê outro conjunto de tarefas para este escritório que se alinha
diretamente com algumas das sugestões que fiz anteriormente. É designado como o lar do
envolvimento público, tanto para a troca de informações quanto como o local onde se desenvolve
uma visão para a tecnologia e a sociedade. O relatório também vê o Gabinete de
Machine Translated by Google

7.3 Moldando ecossistemas de IA 111

Tecnologia Responsável como o órgão responsável por garantir que os procedimentos de reparação
existam e sejam utilizáveis.
Alguns aspectos dessas propostas são discutíveis. Não creio que todas as diversas tarefas
propostas para o Escritório de Tecnologia Responsável devam estar localizadas em uma única
organização. Tal concentração de tarefas pode torná-la uma instituição grande, pesada e burocrática.
Ao mesmo tempo, é claro que esta ideia tem tração, como pode ser visto na atual discussão europeia
sobre um potencial regulador, bem como no fato de que organizações estão começando a surgir que
cobrem pelo menos parte deste mandato, como o Centro de Ética e Inovação de Dados do Reino
Unido.1 Essa organização é certamente necessária no nível político, seja chamada de regulador,
escritório, centro ou qualquer outra coisa. Não deve, no entanto, pretender regulamentar toda a IA,
nem que seja pela dificuldade de definir o termo.

Em vez disso, deve ter um mandato que abranja as tecnologias (digitais) emergentes e deve apoiar as
estruturas e processos regulatórios existentes. Isso seria um assunto de meta responsabilidade, ou
seja, o escritório seria a organização responsável por garantir que as responsabilidades relacionadas à
tecnologia sejam claramente definidas e possam ser cumpridas.
Vale ressaltar que esse princípio de ter um sujeito de meta-responsabilidade não se limita ao nível
político e aos ecossistemas de IA nacionais ou regionais. Uma organização ou função semelhante será
necessária em outros ecossistemas, para garantir que haja um mecanismo para que todos os membros
do ecossistema tenham acesso ao conhecimento, desenvolvam capacidades, recebam orientação e
forneçam informações às estruturas de governança. No nível de uma organização, essa pode ser uma
posição confiável com responsabilidade pela IA nessa organização. O titular poderia ser chamado de
oficial de IA ou, talvez melhor, de oficial digital. Isso pode ser desenvolvido de maneira semelhante ao
oficial de proteção de dados, uma função que é obrigatória para organizações europeias para garantir
que os requisitos de proteção de dados sejam atendidos. O responsável pela proteção de dados
trabalha para a organização e é pago por ela, mas tem uma responsabilidade definida em relação aos
requisitos de proteção de dados, não às necessidades organizacionais. Em caso de conflito entre estes,
a perspetiva do responsável pela proteção de dados é mais ampla do que a da organização. Um papel
semelhante em relação à IA pode ser de importância crucial para a governança dos ecossistemas
organizacionais de IA, que podem ser a base de ecossistemas maiores e abrangentes.

Quando apropriado, essas funções também podem ser combinadas, de modo que, em uma empresa
que faz uso significativo de IA, mas não é voltada centralmente para a IA, o responsável pela proteção
de dados pode atuar simultaneamente como responsável digital.
As sugestões apresentadas nesta seção oferecem exemplos dos tipos de ações e intervenções
que, acredito, podem ajudar a mover os ecossistemas de IA em uma direção favorável ao florescimento
humano, embora sua implementação exija mais reflexão e detalhes. A forma exata que essas ações e
intervenções eventualmente assumem será objeto de uma discussão mais aprofundada, mas minhas
sugestões vão de alguma forma no sentido de abordar os desafios dos ecossistemas de IA e são
consistentes com os requisitos para intervenções que estabeleci anteriormente. Eles poderiam
determinar a forma de uma estrutura de governança voltada para o futuro. Essa estrutura precisa de
flexibilidade para garantir que tecnologias futuras sejam acomodadas e deve abrir uma discussão
produtiva entre

1https://www.gov.uk/government/organizations/centre-for-data-ethics-and-innovation
Machine Translated by Google

112 7 ecossistemas de IA para o florescimento humano…

partes interessadas em organizações e países e internacionalmente para determinar como os


vários ecossistemas de IA e relacionados devem ser desenvolvidos.

Referências

Alkire S (2002) Valorizando a liberdade: abordagem de capacidade de Sen e redução da pobreza. Oxford
University Press, Oxford
Anand P, Santos C, Smith R (2008) Pobreza, capacidades e medição, Oxford University Press, Oxford. https://
www.poverty.ac.uk/system/files/poverty_capabilities-and-measurement. pdf. Acessado em 29 de outubro de 2020

Arnstein SR (1969) Uma escada de participação cidadã. J Am Inst Plann 35:216–224. https://doi.org/
10.1080/01944366908977225 _
Bevir M (2012) Governança: uma breve introdução. Oxford University Press, Oxford Bickerstaff K,
Lorenzoni I, Jones M, Pidgeon N (2010) Localizando a cidadania científica: os contextos institucionais e culturas
de engajamento público. Sci Technol Hum Values 35:474–500. https://doi.org/10.1177/2F0162243909345835 _

Boulton G, Campbell P, Collins B et al (2012) A ciência como uma empresa aberta. Royal Society, Londres. https://
royalsociety.org/-/media/policy/projects/sape/2012-06-20-saoe.pdf. Acessado em 29 de outubro de 2020

Braithwaite J, Drahos P (2000) Regulamentação de negócios globais. Cambridge University Press, Cambridge Brey
P (2011) Ética tecnológica antecipada para TI emergente. Em: Mauger J (ed) CEPE 2011:
cruzando fronteiras. INSEIT, Nice, França, pp 13–26
Buckingham W (nd) Vulnerabilidade e florescimento — Martha Nussbaum. https://gohighbrow.com/vulnerability-and-
flourishing-martha-nussbaum/ . Acessado em 3 de novembro de 2020 Cath CJN, Wachter S, Mittelstadt B,
Taddeo M, Floridi L (2016) Inteligência artificial e a 'boa sociedade': a abordagem dos EUA, UE e Reino Unido.
Social Science Research Network, Rochester, NY Coeckelbergh M (2020) Ética da IA. The MIT Press,
Cambridge, MA Collingridge D (1981) O controle social da tecnologia. Palgrave Macmillan, Comissário de Direitos
Humanos de Londres (2019) Unboxing da inteligência artificial: 10 passos para proteger os direitos humanos .
https://rm.coe.int/unboxing-artificial-intelligence-10-steps-to-protect-human-rights-reco/ 1680946e64. Acessado em
6 de outubro de 2020

Cuhls K (2003) Da previsão aos processos de previsão: novas atividades de previsão participativa na Alemanha. J
Previsão 22:93–111. https://doi.org/10.1002/for.848 AEPD (2020) Parecer da AEPD sobre o Livro Branco da
Comissão Europeia sobre Inteligência Artificial — uma abordagem europeia para a excelência e a confiança
(Parecer 4/2020). Supervisor Europeu de Proteção de Dados, Comissão Europeia de Bruxelas (2020a) Relatório
sobre as implicações de segurança e responsabilidade da inteligência artificial, da internet das coisas e da
robótica. Comissão Europeia, Bruxelas. https://ec.europa. eu/info/files/commission-report-safety-and-liability-
implications-ai-internet-things-and-roboti cs_en. Acessado em 22 de setembro de 2020 Comissão Europeia
(2020b) Moldando o futuro digital da Europa. Comunicação da Comissão ao Parlamento Europeu, ao Conselho,
ao Comité Económico e Social Europeu e ao Comité das Regiões. Comissão Europeia, Bruxelas. https://
ec.europa.eu/info/sites/info/files/communication-shaping-europes-digital-future-feb2020_en_3.pdf . Acessado em 6
de outubro de 2020 [FAZER ESTE 2020c]

Comissão Europeia (2020c) White paper sobre inteligência artificial: uma abordagem europeia para a excelência e
a confiança. Comissão Europeia, Bruxelas. https://ec.europa.eu/info/sites/info/files/mission-white-paper-artificial-
intelligence-feb2020_en.pdf . Acessado em 22 de setembro de 2020 Parlamento Europeu (2020a) Projeto de
relatório com recomendações à Comissão sobre um regime de responsabilidade civil para inteligência artificial.
Parlamento Europeu, Comissão Jurídica
Machine Translated by Google

Referências 113

Romances. https://www.europarl.europa.eu/doceo/document/JURI-PR-650556_EN.pdf. Acessado em 6 de outubro de


2020
Parlamento Europeu (2020b) Projeto de relatório com recomendações à Comissão sobre um quadro de aspectos éticos
da inteligência artificial, robótica e tecnologias relacionadas. Parlamento Europeu, Comissão dos Assuntos Jurídicos.
https://www.europarl.europa.eu/doceo/document/ JURI-PR-650508_EN.pdf. Acessado em 25 de setembro de 2020

Grupo de especialistas em responsabilidade e novas tecnologias (2019) Responsabilidade por inteligência artificial e outras
tecnologias digitais emergentes. Serviço de Publicações da União Europeia, Luxemburgo. https://op.europa.eu/en/
publication-detail/-/publication/1c5e30be-1197-11ea-8c1f-01aa75ed71a1/language-en/format-PDF . Acessado em 23 de
setembro de 2020
Felt U, Fochler M (2010) Máquinas para fazer públicos: inscrever e descrever públicos no engajamento público. Minerva
48:219–238. https://doi.org/10.1007/s11024-010-9155-x Flick C, Zamani ED, Stahl BC, Brem A (2020) O futuro das TIC
para a saúde e o envelhecimento: revelando questões éticas e sociais por meio da previsão do horizonte. Technol Forecast
Soc Change 155:119995. https://doi.org/10.1016/j.techfore.2020.119995

Floridi L, Strait A (2020) Análise de previsão ética: o que é e por que é necessária? Mentes Mach. https://doi.org/10.1007/
s11023-020-09521-y Gal D (2020) A abordagem da China à ética da IA. In: Elliott H (ed) O estado alimentado por IA: a
abordagem da China para a inovação do setor público. Nesta, Londres, pp 53–62 Genus A, Stirling A (2018) Collingridge e
o dilema do controle: em direção à inovação responsável e responsável. Norma de Res 47:61–69. https://doi.org/10.1016/
j.respol.2017.09.012 Haenlein M, Kaplan A (2019) Uma breve história da inteligência artificial: no passado, presente e futuro
da inteligência artificial. Calif Manage Rev 61:5–14. https://doi.org/10.1177/2F0008125 619864925

Hart A, Northmore S, Gerhardt C (2009) Auditoria, benchmarking e avaliação do engajamento público. Centro de
Coordenação Nacional para Engajamento Público, Bristol
Harwell D (2020) Os gerentes recorrem ao software de vigilância, webcams sempre ativas para garantir que os funcionários
estejam (realmente) trabalhando em casa. Washington Post. https://www.washingtonpost.com/technology/2020/04/30/
work-from-home-surveillance/ . Acessado em 30 de outubro de 2020 Himanen P (2001) A ética do hacker e o espírito da
era da informação. Casa Aleatória, Nova
Iorque
Holzinger A, Biemann C, Pattichis CS, Kell DB (2017) O que precisamos para construir sistemas de IA explicáveis para o
domínio médico? arXiv:1712.09923 [cs, estat]
ISO (2008) BS ISO/IEC 38500:2008: Governança corporativa de tecnologia da informação. British Standards Institute,
Londres
ITU (nd) AI para uma boa cúpula global. União Internacional de Telecomunicações e Fundação XPRIZE. https://
aiforgood.itu.int/. Acessado em 30 de outubro de 2020 Johnstone J (2007) Tecnologia como capacitação: uma abordagem
de capacidade para a ética do computador. Ética
Inf Technol 9:73–87. https://doi.org/10.1007/s10676-006-9127-x
Khatri V, Brown CV (2010) Projetando governança de dados. Comum ACM 53:148–152. https://doi. org/
10.1145/1629175.1629210 Klar R, Lanzerath D (2020) A ética dos aplicativos de rastreamento COVID-19 - desafios e
voluntariedade.
Res Ética 16:1–9. https://doi.org/10.1177/2F1747016120943622
Knight W (2020) AI pode fazer grandes coisas - se não queimar o planeta. Com fio. https://www.wired. com/story/ai-great-
things-burn-planet/. Acessado em 1 de novembro de 2020 Kriechbaum M, López Prol J, Posch A (2018) Olhando para o
futuro: dinâmica das expectativas coletivas sobre a tecnologia fotovoltaica na Alemanha e na Espanha. Technol Forecast
Soc Change 129:76–87. https://doi.org/10.1016/j.techfore.2017.12.003

Kuhlmann S, Stegmaier P, Konrad K (2019) A tentativa de governança da ciência e tecnologia emergentes: uma introdução
conceitual. Política de Res 48:1091–1097. https://doi.org/10.1016/j.res pol.2019.01.006
Machine Translated by Google

114 7 ecossistemas de IA para o florescimento humano…

Latonero M (2018) Governando a inteligência artificial: defendendo os direitos humanos e a dignidade.


Data Soc. https://datasociety.net/wp-content/uploads/2018/10/DataSociety_Governing_Artifi
cial_Intelligence_Upholding_Human_Rights.pdf. Acessado em 26 de setembro de 2020
Miller C, Ohrvik-Stott J (2018) Regulando para tecnologia responsável - capacidade, evidência e reparação: um novo
sistema para um futuro mais justo. Doteveryone, London Nussbaum M (2000) Mulheres e desenvolvimento
humano: a abordagem das capacidades. Cambridge University Press, Cambridge Nussbaum MC (2011) Criando
capacidades: a abordagem do desenvolvimento humano. Harvard University Press, Cambridge MA Raso FA,
Hilligoss H, Krishnamurthy V et al. (2018) Inteligência artificial e direitos humanos: oportunidades e riscos. Publicação
de pesquisa do Berkman Klein Center nº 2018-6. http://dx.doi.org/10. 2139/ssrn.3259344

Ryan M, Antoniou J, Brooks L et al (2020) O equilíbrio ético do uso de sistemas de informação inteligentes para
promover os Objetivos de Desenvolvimento Sustentável das Nações Unidas. Sustentabilidade 12:4826. https://
doi.org/10.3390/su12124826
SAE (2018) Taxonomia e definições de termos relacionados a sistemas de automação de direção para veículos
rodoviários J3016_201806. SAE Internacional, Warrendale PA. https://www.sae.org/standa rds/content/
j3016_201806/. Acessado em 30 de outubro de 2020
Sardar Z (2010) O homônimo: futuros; estudos futuros; futurologia; futurista; previsão - o que é
em um nome? Futuros 42:177–184. https://doi.org/10.1016/j.futures.2009.11.001
Scott D, Rutty M, Peister C (2018) Variabilidade climática e uso de água em campos de golfe: oportunidades de
otimização para um futuro mais quente. J Sustain Tour 26:1453–1467. https://doi.org/10.1080/096
69582.2018.1459629
Sen A (1993) Capacidade e bem-estar. In: Nussbaum M, Sen A (eds) A qualidade de vida. Clarendon
Press, Oxford, pp 30–53
Stahl BC (2013) Pesquisa e inovação responsáveis: o papel da privacidade em uma estrutura emergente.
Sci Public Policy 40:708–716. https://doi.org/10.1093/scipol/sct067
Stahl BC, Timmermans J, Rainey S, Shaw M (2019) Ética na gestão da inovação como meta responsabilidade: a
prática da pesquisa e inovação responsáveis na simulação do cérebro humano. In: Chen J, Brem A, Viardot E,
Wong PK (eds) The Routledge companion to innovation management, 1st edn. Routledge, Nova York, pp 435–454
Stahl BC, Wright D (2018) Ética e privacidade em IA e big data: implementando pesquisa e inovação responsáveis.
IEEE Secur Priv 16:26–33. https://doi.org/10.1109/MSP.2018.2701164 Stilgoe J, Owen R, Macnaghten P (2013)
Desenvolvendo uma estrutura para inovação responsável. res

Política 42:1568–1580. https://doi.org/10.1016/j.respol.2013.05.008


Stone P, Brooks R, Brynjolfsson E et al (2016) Inteligência artificial e vida em 2030: estudo de cem anos sobre
inteligência artificial. Relatório do painel de estudos 2015–2016. Universidade de Stanford, Stanford CA. http://
ai100.stanford.edu/2016-report. Acessado em 6 de setembro de 2016
Taddeo M, Floridi L (2018) Como a IA pode ser uma força para o bem. Ciência 361:751–752. https://doi.org/
10.1126/science.aat5991
Tenner E (1997) Por que as coisas mordem de volta: prevendo os problemas do progresso, nova ed. Quarto estado,
Londres
Timmermans J, Yaghmaei E, Stahl BC, Brem A (2017) Processos de pesquisa e inovação revisitados: responsabilidade
em rede na indústria. Sustentabilidade 8:307–334. https://doi.org/10.1108/SAMPJ 04-2015-0023

PNUD (nd) Índice de desenvolvimento humano (IDH). Programa de Desenvolvimento das Nações Unidas. http://
hdr.undp.org/en/content/human-development-index-hdi. Acessado em 2 de novembro de 2020
Van Est R (2011) O amplo desafio do engajamento público na ciência. Science Eng Ethics 17:639–648. https://doi.org/
10.1007/s11948-011-9296-9 Wehling P (2012) Da participação convidada à não convidada (e vice-versa?):
repensando o envolvimento da sociedade civil na avaliação e desenvolvimento de tecnologia. Poiesis Prax 1–18.
https://doi.org/10. 1007/s10202-012-0125-2
Machine Translated by Google

Referências 115

Wynne B (2006) Engajamento do público como meio de restaurar a confiança do público na ciência – Atingindo
as notas, mas perdendo a música? Commun Genet 9:211-220. https://doi.org/10.1159/000092659 Xu S, Zhu
K, Gibbs J (2004) Tecnologia global, adoção local: uma investigação internacional sobre a adoção da Internet
por empresas nos Estados Unidos e na China. Elétron Marcos 14:13–24. https://doi.org/
10.1080/1019678042000175261 Zheng Y , Stahl BC (2011) Tecnologia, capacidades e perspectivas críticas:
o que a teoria crítica pode contribuir para a abordagem de capacidade de Sen? Ética Inf Technol 13:69–80.
https://doi.org/10.1007/s10676-011-9264-8 _

Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons
Attribution 4.0 (http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento, adaptação,
distribuição e reprodução em qualquer meio ou formato, desde que você dê os devidos créditos ao(s) autor(es)
original(ais) e à fonte, forneça um link para a licença Creative Commons e indique se foram feitas alterações.

As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons do
capítulo, a menos que indicado de outra forma em uma linha de crédito para o material. Se o material não estiver
incluído na licença Creative Commons do capítulo e seu uso pretendido não for permitido pela regulamentação
estatutária ou exceder o uso permitido, você precisará obter permissão diretamente do detentor dos direitos
autorais.
Machine Translated by Google

Capítulo 8
Conclusão

Resumo A conclusão resume brevemente os principais argumentos do livro. Ele se concentra nos requisitos
para opções de mitigação a serem usadas para abordar as preocupações éticas e de direitos humanos da
inteligência artificial. Ele também fornece uma visão geral de alto nível das principais recomendações
trazidas no livro. Assim, mostra como percepções conceituais e empíricas sobre a natureza da IA, as
questões éticas assim levantadas e as estratégias de mitigação atualmente em discussão podem ser
usadas para desenvolver conclusões praticamente relevantes. Essas conclusões e recomendações ajudam
a garantir que os ecossistemas de IA sejam desenvolvidos e moldados de forma a favorecer o florescimento
humano.

Palavras -chave Requisitos para ética em IA · Recomendações para IA · Governança de IA


· Ética e ecossistemas de IA · Regulação de IA

A tecnologia faz parte da vida do ser humano. Seu desenvolvimento e uso têm o potencial de levantar
preocupações e questões éticas – e isso não vai mudar. A ética, entendida como nossa luta para determinar
o que é certo e errado e nossa reflexão sobre como e por que fazemos tal distinção, não está sujeita a
resolução. Embora possamos concordar sobre o que é certo e errado em muitos casos, esse acordo é
sempre parcial, temporário e sujeito a revisão. Podemos, no entanto, ser capazes de concordar com alguns
princípios gerais e abstratos. Neste livro, sugeri que o florescimento humano é um desses princípios.

Se concordarmos com isso, podemos pensar no que pode significar a aplicação do princípio a uma
tecnologia como a IA. Este exercício pode nos ajudar a entender as questões específicas que surgem, por
que surgem e como podemos avaliá-las. Também pode nos ajudar a pensar sobre o que podemos fazer a
respeito deles e pode até nos ajudar a resolver alguns deles para satisfação universal.

Vários aspectos nos quais me concentrei neste livro podem, espero, dar uma contribuição nova e
interessante para o debate sobre IA e ética. Comecei olhando para o conceito de IA. “Inteligência artificial”
não é um termo inocente e moralmente neutro.
É emotivo porque aponta para uma característica dos humanos (e até certo ponto de outros animais), ao
mesmo tempo em que sugere que essa característica pode ser replicada artificialmente.
Essa implicação tem consequências sobre como nós, como humanos, vemos a nós mesmos e nosso papel

© O(s) autor(es) 2021 117


BC Stahl, Artificial Intelligence for a Better Future,
SpringerBriefs in Research and Innovation Governance,
https://doi.org/10.1007/978-3-030-69978-9_8
Machine Translated by Google

118 8 Conclusão

no mundo. A inteligência artificial também é frequentemente contrastada com a inteligência humana,


sugerindo implicitamente ou afirmando explicitamente que as máquinas podem ou até devem substituir os
humanos. Mais uma vez, isso afeta visões profundamente enraizadas sobre o que são os humanos.
Para tornar a discussão mais acessível, propus uma nova categorização do debate sobre IA. Minha
sugestão é que distingamos entre três perspectivas sobre IA: aprendizado de máquina ou IA restrita, IA
geral e sistemas sociotécnicos convergentes. Essas três perspectivas sobre a tecnologia são esclarecedoras
porque se alinham com a categorização de questões éticas na IA: primeiro, questões éticas relacionadas ao
aprendizado de máquina; segundo, questões gerais relacionadas à vida em um mundo digital; e terceiro,
questões metafísicas colocadas pela IA. Essas distinções, portanto, fornecem uma melhor compreensão e
visão geral da ética da IA em um debate público e acadêmico muito movimentado e muitas vezes esmagador.

Embora essas categorizações esclareçam o debate, elas dizem muito pouco sobre o que poderia ou
deveria ser feito sobre as questões. Um dos problemas desse tipo de discussão normativa é que não está
claro como as recomendações ou prescrições podem ser justificadas.
Com base em que podemos dizer que aplicações técnicas devem ser desenvolvidas, promovidas, evitadas
ou proibidas? Recorrer à ideia de florescimento humano permite estabelecer um ponto de referência
normativo consistente e compatível com as principais teorias éticas e pode fornecer um quadro para pensar
questões normativas sem pressupor posições morais substantivas.

A ideia de florescimento humano tem a vantagem adicional de não exigir uma distinção estrita entre
ética e lei, ambas construções normativas que podem promover ou inibir o florescimento. Isso é
particularmente importante à luz das inúmeras regras legais e regulatórias existentes que já orientam o
desenvolvimento e o uso de tecnologia, incluindo a IA.

Com base em um rico trabalho empírico, analisei preocupações éticas e sugeri intervenções, mitigações
e abordagens de governança para promover os benefícios da IA e evitar ou abordar suas desvantagens.

Um problema na discussão da ética da IA é seu alto nível de complexidade. Qualquer tentativa de


combinar questões individuais com partes interessadas e opções de mitigação esbarra em vários problemas.
Primeiro, o número de combinações possíveis de partes interessadas, mitigações e questões éticas a serem
abordadas é tal que é impraticável tentar entender o campo usando uma abordagem tão direta. Em segundo
lugar, e mais importante, os diferentes componentes da interação não são independentes, e uma intervenção
em uma parte provavelmente terá consequências em outra parte. Como esse tipo de relacionamento
dinâmico se presta a ser descrito usando uma perspectiva de sistemas, adotei a agora amplamente usada
metáfora do ecossistema e a apliquei ao discurso da IA.

A questão do que precisa ser feito para garantir que os ecossistemas de IA conduzam ao florescimento
humano foi então abordada por meio da metáfora do ecossistema. Isso me levou a investigar, do ponto de
vista ético, as implicações do uso da metáfora do ecossistema, questão ainda pouco explorada no campo
da IA. Além disso, analisei os desafios que a abordagem ecossistêmica da IA e da ética levanta e os
requisitos que qualquer intervenção precisaria cumprir, e concluí com sugestões para aprofundar o debate
e contribuir para as discussões.
Machine Translated by Google

8 Conclusão 119

A análise apontou para três grupos de requisitos que as intervenções nos ecossistemas de IA
precisam atender, a fim de aumentar suas chances de promover com sucesso o florescimento
humano:

• As intervenções precisam delinear claramente os limites do ecossistema: os limites dos


sistemas não são necessariamente claros e óbvios. Para dar suporte aos ecossistemas de IA,
os limites do ecossistema em questão precisam estar claramente localizados. Isto refere-se
não só aos limites geográficos e jurisdicionais, mas também aos conceptuais, ou seja, à
questão de saber que conceito de IA é alvo de intervenção e que conceitos éticos e normativos
estão no centro das atenções.

• As intervenções precisam desenvolver, apoiar, manter e disseminar o conhecimento: Os


membros dos ecossistemas de IA precisam de conhecimento, se quiserem trabalhar juntos
para identificar estados futuros eticamente desejáveis e encontrar maneiras de trabalhar para alcançá-los.
A IA como um conjunto de tecnologias avançadas requer extensa experiência nas tecnologias,
suas capacidades e usos. Além disso, os ecossistemas de IA para o florescimento humano
exigem conhecimento sobre conceitos e processos que apoiem e sustentem reflexões éticas.
E, finalmente, os ecossistemas de IA precisam de mecanismos que permitam que esses vários
corpos de conhecimento sejam atualizados e disponibilizados aos membros desses
ecossistemas que precisam deles em uma situação específica. • As intervenções precisam
ser adaptáveis, flexíveis e capazes de aprender: a natureza dinâmica da inovação e
desenvolvimento tecnológico relacionados à IA, mas também das estruturas e preferências
sociais, bem como dos ecossistemas de inovação adjacentes, significa que qualquer
intervenção no ecossistema de IA precisa para incorporar a possibilidade e, de fato,
probabilidade de mudança. As estruturas de governança, portanto, precisam ser flexíveis e
adaptáveis. Eles precisam estar abertos ao aprendizado e revisões. Eles precisam estar cientes
das responsabilidades existentes e devem construí-las e moldá-las para desenvolver o
ecossistema na direção do florescimento humano.

Esses requisitos são deduzidos da natureza e das características dos ecossistemas de


inovação de IA. Eles provavelmente terão pesos diferentes em diferentes circunstâncias e podem
precisar ser suplementados por requisitos adicionais. Eles constituem a base das recomendações
desenvolvidas neste livro. Antes de retornar a essas recomendações, vale a pena refletir sobre
trabalhos futuros.
O trabalho descrito neste livro exige desenvolvimento em várias direções.
Um ponto de partida imediato é uma melhor compreensão empírica do impacto da IA e das
tecnologias digitais em vários campos e áreas de aplicação. Precisamos de uma compreensão
detalhada do uso de tecnologias em vários domínios e das consequências decorrentes. Também
precisamos de uma cobertura geográfica muito mais ampla para garantir que as especificidades
de diferentes nações, regiões e culturas sejam devidamente compreendidas.
Essa pesquisa empírica em ciências sociais deve ser integrada às atividades de pesquisa e
desenvolvimento científico e técnico no campo da IA. Precisamos de uma forte base de
conhecimento para ajudar as partes interessadas a entender como tecnologias específicas são
usadas em diferentes áreas, o que pode ajudar pesquisadores e desenvolvedores técnicos, bem
como usuários, implantadores, formuladores de políticas e reguladores.
Machine Translated by Google

120 8 Conclusão

Os insights desenvolvidos dessa maneira precisarão ser selecionados e disponibilizados às


partes interessadas de maneira adequada. Em grande medida, isso pode ser feito por meio das
estruturas existentes, principalmente o processo de publicação científica. No entanto, questões
de legislação, regulamentação e conformidade exigem guardiões especiais que podem reivindicar
não apenas um alto nível de especialização científica e técnica, mas também legitimidade normativa.
A ideia não é instalar uma tirania do regulador, mas estabelecer caminhos que ajudem os
stakeholders a navegar na complexidade do debate e nos espaços em que organizações e
sociedades possam conduzir um debate frutífero sobre futuros desejáveis e o papel que as
tecnologias devem desempenhar neles.
A discussão sobre a ética da IA continua em destaque. É provável que inúmeras propostas
de políticas e regulamentações sejam implementadas em breve. As causas do alto nível de
atenção que a IA recebe permanecem pertinentes. As tecnologias que constituem a IA continuam
a se desenvolver rapidamente e espera-se que tenham um impacto social e econômico
significativo. Eles prometem imensos benefícios e, simultaneamente, levantam profundas
preocupações. Atingir um equilíbrio adequado entre benefícios e riscos exige decisões difíceis
com base em conhecimentos técnicos, jurídicos, éticos, sociais, econômicos e outros campos.

Neste livro, fiz sugestões sobre como pensar sobre essas questões e como navegar na
complexidade do debate, e forneci algumas sugestões sobre o que deve ser feito para facilitar
essa discussão. Essas recomendações têm o objetivo de mover os ecossistemas de IA na direção
do florescimento humano. Eles satisfazem os três requisitos listados acima, ou seja, delinear os
limites dos ecossistemas, estabelecer e manter a base de conhecimento necessária e fornecer
estruturas de governança flexíveis e adaptáveis. Com um pouco mais de detalhes (consulte o
Capítulo 7 para ver o relato completo), as recomendações são:

• Esclarecimento conceitual: ir além da IA (7.3.1)


O conceito de IA é complexo e multifacetado (consulte o Capítulo 2). A extensão dos
ecossistemas envolvidos e as questões éticas e de direitos humanos que são relevantes neles
dependem em grande parte do significado do termo “inteligência artificial”.
Qualquer intervenção prática deve, portanto, ser clara sobre o significado do conceito.
Muitas vezes será apropriado usar um termo mais específico, como “aprendizado de máquina”
ou “rede neural”, onde as questões estão relacionadas às características da tecnologia.
Também pode ser apropriado usar um termo mais amplo, como “tecnologias digitais
emergentes”, onde amplas implicações sociais são de interesse. • Excelência e florescimento:
Reconhecer sua interdependência (7.3.2)
Na discussão atual sobre IA, incluindo alguns dos discursos orientados para políticas, há uma
tendência a distinguir entre o lado técnico da IA, em que a especialização científica e técnica
é uma prioridade, e o lado ético e dos direitos humanos. Isso confunde os limites do que é ou
deveria ser relevante em um ecossistema de IA. A recomendação aponta para o fato de que
a excelência científica e técnica deve incluir explicitamente aspectos sociais e éticos. O
trabalho em sistemas de IA que ignora as consequências sociais e éticas não pode ser
considerado excelente.
Machine Translated by Google

8 Conclusão 121

• Medições de florescimento: Compreendendo os impactos esperados (7.3.3)


Para reagir adequadamente ao desenvolvimento, implantação e uso da IA, devemos ser capazes de
entender o impacto que eles podem ter. Portanto, é importante construir uma base de conhecimento
que nos permita medir (não necessariamente usando métricas quantitativas) o impacto em toda a
gama de tecnologias de IA e áreas de aplicação. Embora seja improvável medir de forma abrangente
todos os possíveis impactos éticos, sociais e de direitos humanos, existem famílias de medidas de
aspectos do florescimento humano que podem ser aplicadas à IA e precisam ser desenvolvidas e
promovidas.

• Benefícios, riscos e capacidades da IA: comunicação, conhecimento e capacidade


construção (7.3.4)
A base de conhecimento dos ecossistemas de IA precisa cobrir o lado técnico das tecnologias de IA,
para garantir que os riscos e benefícios potenciais dessas tecnologias possam ser claramente
compreendidos. Esse conhecimento, combinado com as medidas do florescimento humano na
recomendação anterior, é necessário para uma visão medida do impacto dos sistemas de IA e uma
avaliação medida de seus benefícios e desvantagens. Essa base de conhecimento que os
ecossistemas de IA devem ser capazes de utilizar, a fim de tomar decisões justificáveis sobre IA, é
dinâmica e espera-se que evolua rapidamente. Necessita, portanto, desenvolver mecanismos de
atualização e desenvolvimento periódicos de expertise e meios de sua divulgação para quem dela
necessitar.
• Envolvimento das partes interessadas: Compreendendo as preferências da sociedade (7.3.5)
A natureza ampla e abrangente da IA e seus possíveis impactos significam que as decisões que
moldam o desenvolvimento, a implantação e o uso da IA e, portanto, seu impacto social devem estar
sujeitas ao debate público. Mecanismos estabelecidos de democracia representativa têm um papel
importante a desempenhar na orientação da governança da IA.
No entanto, a natureza dinâmica e complexa do campo significa que mecanismos adicionais para
entender as visões e percepções das partes interessadas devem ser empregados. Envolver as
partes interessadas em uma comunicação bidirecional significativa com pesquisadores, cientistas e
indústria tem a vantagem de aumentar a base de conhecimento que os especialistas técnicos podem
utilizar, bem como melhorar a legitimidade das decisões e políticas resultantes de tais engajamentos
das partes interessadas. • Responsabilidade pela regulamentação e aplicação: Definição do(s)
nó(s) central(is) dos ecossistemas de IA (7.3.6)

Os ecossistemas de IA não se desenvolvem no vácuo, mas emergem de ecossistemas técnicos,


sociais, legais e políticos existentes. Esses ecossistemas desenvolveram uma infinidade de
mecanismos de atribuição de responsabilidades com o objetivo de assegurar que os riscos e
benefícios das tecnologias emergentes sejam atribuídos de forma adequada. O surgimento de
ecossistemas de IA nesses ambientes existentes significa que as funções e responsabilidades
existentes precisam ser modificadas e desenvolvidas adequadamente. Isso exige uma maneira de
coordenar a transição para ecossistemas de IA e integrá-los a contextos estabelecidos. As redes
mutáveis de responsabilidades que governam as tecnologias emergentes precisarão, portanto,
desenvolver formas de desenvolver estruturas de governança formais e informais e monitorar sua
implementação. Isso exige o estabelecimento de nós centrais (por exemplo, reguladores, agências,
centros de excelência)
Machine Translated by Google

122 8 Conclusão

que conectam, orientam e supervisionam os ecossistemas de IA e conhecimentos e estruturas relevantes


para garantir que as tecnologias contribuam para o florescimento humano.

Espero que este livro e as recomendações dele decorrentes ajudem a fortalecer o debate sobre IA e
ética. O livro visa apoiar a modelagem apropriada dos ecossistemas de IA. Além disso, sua mensagem deve
ir além do foco atual na IA e ajudar a desenvolver nosso pensamento sobre as tecnologias que sucederão a
IA no centro das atenções do público.

Os humanos são e continuarão sendo animais que usam ferramentas. A importância das ferramentas
técnicas aumentará, se houver, em tempos de tecnologias onipresentes, difundidas, vestíveis e implantáveis.
Embora novas tecnologias possam afetar nossas capacidades e nossa visão de nós mesmos como
indivíduos e como espécie, acredito que alguns aspectos da humanidade permanecerão constantes. A
principal delas é a certeza de que continuaremos sendo seres sociais, conscientes da possibilidade e
realidade do sofrimento, mas também dotados de planos e esperanças de uma vida boa. Nós lutamos pela
felicidade e buscamos florescer sabendo que sempre estaremos negociando a questão: como exatamente
o florescimento pode ser melhor alcançado? A tecnologia pode promover, bem como reduzir o nosso
florescimento. Nossa tarefa é, portanto, perguntar como novas tecnologias podem afetar o florescimento e o
que podemos fazer individual e coletivamente para orientar essas tecnologias em direções que apoiem o
florescimento. Espero que este livro nos ajude a fazer uso positivo da IA e nos mover em direção a um
mundo bom e habilitado para a tecnologia.

Acesso Aberto Este capítulo está licenciado sob os termos da Licença Internacional Creative Commons
Attribution 4.0 (http://creativecommons.org/licenses/by/4.0/), que permite o uso, compartilhamento,
adaptação, distribuição e reprodução em qualquer meio ou formato, desde que você dê os devidos créditos
ao(s) autor(es) original(ais) e à fonte, forneça um link para a licença Creative Commons e indique se foram
feitas alterações.
As imagens ou outro material de terceiros neste capítulo estão incluídos na licença Creative Commons
do capítulo, a menos que indicado de outra forma em uma linha de crédito para o material. Se o material
não estiver incluído na licença Creative Commons do capítulo e seu uso pretendido não for permitido pela
regulamentação estatutária ou exceder o uso permitido, você precisará obter permissão diretamente do
detentor dos direitos autorais.
Machine Translated by Google

Índice

A Proteção de dados, 39, 41, 49, 57, 58, 61–63, 65,


IA para eficiência, 19, 23 66, 69, 70, 94, 110, 111
AI para sempre, 11, 24, 36, 107 Aprendizagem profunda, 10, 97
IA para controle social, 19, 23 Deontologia, 20, 21, 28
Pesquisa de IA, 10, 11, 13, 28, 30, 56, 57, 106 Discriminação, 1, 38, 42, 46, 49, 58, 59, 65, 74, 86,
Vieses algorítmicos, 1, 68, 104 95, 97, 99
Avaliações de impacto algorítmico, 58, 69, 71,
86
Aristóteles, 22 E
Inteligência artificial geral, 7, 35, 46, 92 Benefícios econômicos, 23, 24, 35, 105
Inteligência artificial, 1, 7, 25, 28, 49, 59, 60, 69, Ecossistema, 1, 3, 4, 56, 57, 72, 81–88, 91– 111,
70, 81, 97, 104, 105, 110, 117, 118, 120 117–122
Eficiência, 19, 23, 24, 35, 57, 98
Redes neurais artificiais, 13, 40 Benefícios éticos, 35–37, 45
Tecnologias digitais autônomas, 2 Questões éticas, 1–3, 7, 14, 19, 27, 35, 37–40, 42–
Autonomia, 8, 13, 14, 28, 29, 39, 42, 44, 46, 49, 108 46, 48–50, 55–61, 64–70, 73, 74, 81, 85,
86, 88, 92 , 97, 99, 103, 106, 109, 117, 118

Riscos éticos, 11, 85


B
Teoria ética, 3, 19
Grande volume de dados, 10, 12, 38, 43, 58, 60, 70, 97
Ética, 2–4, 7, 8, 10–12, 19–30, 35–38, 41, 44, 46–
Ética biomédica, 29, 30
48, 55, 57–72, 74, 81, 85, 87, 88, 91, 93,
95, 97–100, 106–111, 117, 118, 120, 122
C
Ética do cuidado, 20
Teoria da capacidade, 26–28
Agência Europeia de Inteligência Artificial, 59, 110
Ética informática, 20
Consequencialismo, 20, 21
Comissão Europeia, 8, 12, 23, 27, 56, 57, 59, 67,
Responsabilidade Social Corporativa (CSR), 64,
70 68, 81, 93, 97, 103, 104, 106, 108, 110

Covid, 25, 43, 95


Teoria crítica, 26, 28
Cibersegurança, 41
F
Justiça, 28, 29, 43, 44, 49, 97, 105
D Florescendo ética, 3, 22, 26, 28
Governança de dados, 29, 61, 70, 101 Liberdade, 27, 28, 39, 44, 47, 49

© O(s) autor(es) 2021 BC 123


Stahl, Artificial Intelligence for a Better Future, SpringerBriefs
in Research and Innovation Governance, https://doi.org/
10.1007/978-3-030-69978-9
Machine Translated by Google

124 Índice

G Redes neurais, 9, 10, 13, 40, 97, 120


General AI, 2, 9–14, 118 Neurociência, 13
Regulamento Geral de Proteção de Dados
(RGPD), 58, 61, 63, 69
Good Old-Fashioned AI (GOFAI), 11, 46 O
Governança, 4, 27, 29, 36, 58–62, 64, 67, 70, 91–96, Opacidade, 10, 40, 41
99, 101–103, 111, 118–121 Organização para Cooperação e Desenvolvimento
Diretrizes, 28, 29, 67, 70 Econômico, 2

H P
Grupo de especialistas de alto nível em IA, 67 Filosofia, 19, 21, 22, 27, 87
Condição humana, 20, 21, 48 Pós-humanismo, 48
Melhoria humana, 48
Assimetrias de poder, 38, 45, 49
Florescimento humano, 1, 3, 4, 19, 21, 22, 24–28, 30, Privacidade, 2, 24, 25, 28–30, 38, 41, 49, 58, 63–65,
35–37, 57, 58, 60, 61, 88, 91–95, 98–102, 68, 69, 71, 94, 95
104–109, 111, 117 –122 Profissionalismo, 67, 70
Direitos humanos, 1, 29, 37–39, 42, 49, 56, 58, 61, 63–
66, 70, 72, 94, 98, 105, 107, 117, 120, 121

R
Regulador para AI, 59, 110
Pesquisa e Inovação Responsáveis (RRI), 26–28, 99,
EU

102
Ideologia, 26, 85
Emanuel Kant, 20, 87
Ética da informação, 20
S
Internet das coisas, 12, 97, 105
Segurança, 1, 29, 42, 44, 49, 68, 97
Ficção científica, 11, 46
SHERPA, 35, 37
J
Sistema de informação inteligente, 12, 97
Jeremias Bentham, 20
Benefícios sociais, 1
John Stuart Mill, 20
Controle social, 19, 23–25, 98, 105
Justiça, 1, 20, 28, 29, 39, 44, 49
Impacto social, 2, 14, 42, 63, 70
Sistemas sociotécnicos, 7, 9, 12–14, 22, 24, 35, 42,
eu 43, 83, 84, 92, 97, 104, 118
Engajamento das partes interessadas, 64–66, 70, 100,
Responsabilidade, 39, 48, 49, 57, 58, 62–64, 70, 72,
109, 121
73, 93, 97, 102
Padronização, 67, 68, 70, 72, 73, 108
IA forte, 11
M Superinteligência, 46

Aprendizado de máquina, 2, 7, 9, 10, 12–14, 35, 39– Capitalismo de vigilância, 24, 43, 45, 49
42, 45, 48, 49, 58, 59, 65, 66, 92, 93, 95, 97, Objetivos de Desenvolvimento Sustentável, 36, 57, 98
104, 118, 120
Manipulação, 11, 14, 42, 45, 63
T
Metáfora, 1, 3, 14, 72, 81–88, 91, 92, 96, 98, 110, 118
Ética tecnológica, 20, 100
Meta-responsabilidade, 102, 110, 111 Problema do bonde, 47
Estratégias de mitigação, 2, 3, 55, 73, 74, 86, 117 Teste de Turing, 8, 47

N você

AI estreita, 9–13, 97, 105, 118 Imprevisibilidade, 10, 40, 41


Inteligência natural, 11, 13 Utilitarismo, 20, 21, 28, 47

Você também pode gostar