Inteligência artificial: uma visão prospectiva sobre seus principais efeitos
jurídicos
DOI: 10.31994/rvs.v12i2.784
Aryela Couto Costa1
Luís Antônio de Aguiar Bittencourt
2
RESUMO
O presente trabalho tem o intuito de demonstrar a evolução da inteligência artificial
no campo jurídico, tendo como principal objetivo analisar questões emblemáticas
sobre ética, personalidade jurídica e responsabilidade civil que norteiam o seu
desenvolvimento. Esse é um tema totalmente inovador ao meio social, dessa forma,
é fundamental realizar um estudo jurídico prévio a respeito da sua utilização. Para
isso, o trabalho contou com pesquisa qualitativa em artigos, livros, sítios da internet,
revistas e jornais. Feitas as análises necessárias, foi possível concluir que o uso
dessa nova tecnologia vai reestruturar as bases ontológicas e epistemológicas do
direito atual, de modo a reformular conceitos básicos já existentes na sociedade, tal
como o conceito de pessoa e personalidade, além de criar novas perspectivas e
concepções sociais. Consequentemente, a melhor alternativa é capacitar os juristas
para que possam entender o funcionamento dessa tecnologia, permitindo, assim, a
coexistência entre os humanos e as máquinas.
1
Graduada em Direito pela Faculdades Integradas Vianna Júnior em Juiz de Fora/MG; Graduada em
Ciências Humanas pela Universidade Federal de Juiz de Fora; Pós-graduanda em Direito
Administrativo e Direito Previdenciário (UniBF); e-mail:
[email protected]; ORCID:
https://orcid.org/0000-0002-7697-355X
2
Graduado em Direito pela Universidade Federal de Juiz de Fora (1992); graduado em Administração
pela Faculdade Machado Sobrinho (1986); Mestrado em Direito pela Universidade Gama Filho
(2002); MBA Executivo em Administração de Empresas com ênfase em Gestão pela Fundação
Getúlio Vargas (2008); MBA Administração Acadêmica & Universitária ? Carta Consulta (2018); email:
[email protected]; ORCID: https://orcid.org/0000-0002-9204-8372
494
PALAVRAS-CHAVE: INTELIGÊNCIA ARTIFICIAL. RESPONSABILIDADE CIVIL.
ÉTICA. PERSONALIDADE JURÍDICA. CORROBÓTICA.
Artificial intelligence: A prospective view of its main legal effects
ABSTRACT
This monograph has the purpose to demonstrate the evolution of artificial intelligence
in the legal field, having as main objective to analyze emblematic questions about
ethics, legal personality and civil responsibility that guide its development. This is a
totally innovative topic to the social environment, so it is essential to carry out a prior
legal study regarding its use. For this, the work relied on qualitative research in
articles, books, websites, magazines and newspapers. Having made the necessary
analyzes, it was possible to conclude that the use of this new technology will
restructure the ontological and epistemological bases of current law, in order to
reformulate basic concepts already existing in society such as person and
personality, in addition to creating new perspectives and social concepts.
Consequently, the best alternative is to train lawyers to understand how this
technology works, thus allowing coexistence between humans and machines in the
same environment
KEYWORDS: ARTIFICIAL INTELLIGENCE. CIVIL LIABILITY. ETHIC. LEGAL
PERSONALITY. CORROBOTIC.
495
INTRODUÇÃO
A inteligência artificial (doravante, IA), é uma nova realidade no meio social e
jurídico, sua evolução é constante, por esse motivo, quanto maior for a coexistência
entre os humanos e as máquinas, maior será a necessidade de normalizar e
regulamentar o seu uso.
No Brasil, em razão da sobrecarga de ações, o Poder Judiciário vem
desenvolvendo programas com a utilização da IA que possam contribuir, em
especial, para a superação de seu enorme acervo de processos que demandam
solução, bem como para imprimir maior celeridade na sua tramitação.
Para deixar claro essa inserção tecnológica no meio jurídico, Moraes e Boeing
(2020, p. 95-102) explicam que há três tipos de uso do aprendizado de máquina no
direito, sendo eles: (i) Robô-Classificador, que tem por função primordial encontrar
materiais úteis para que humanos fundamentem suas decisões (como exemplo
deste modelo tem-se o projeto Victor do Supremo Tribunal Federal); (ii) RobôRelator, cujo objetivo é extrair e condensar informações relevantes de documentos,
que pode ser utilizado para fins distintos; (iii) Robô-Julgador, sua função se
assemelha por demasiado aos modelos anteriores, no entanto, nesse caso o
resultado gerado pelo algoritmo será a própria decisão judicial, que poderá ser
aplicada, principalmente, em demandas repetitivas.
Poucos imaginavam que, um dia, funções tais como as anteriormente citadas
poderiam ser executadas por máquinas de modo eficiente. Há uma nítida
transformação da realidade com o uso da Inteligência artificial, logo, deve-se regular
a sua aplicação no meio social.
Sendo assim, este trabalho foi dividido em três partes, de modo que, em um
primeiro momento, será analisado o conceito de IA avaliando a mudança ontológica
e epistemológica do direito. Posteriormente, serão discutidas questões sobre a
possibilidade de atribuir personalidade jurídica eletrônica à IA e, por fim, será feito
um estudo sobre a responsabilidade civil em relação ao uso da inteligência artificial.
496
Para poder efetivar esse trabalho foi necessário realizar uma pesquisa
qualitativa em artigos, livros, sítios da internet, revistas e jornais com o objetivo de
realizar uma busca explicativa e exploratória, que contribua para aprofundar o
conhecimento da realidade, explicar a razão dos acontecimentos relacionados à
temática, desenvolver e esclarecer conceitos e ideias, podendo assim visar uma
possível solução para os problemas causados pelo assunto do tema proposto,
elaboradas a partir de materiais já publicados e que não receberam tratamento
analítico.
Esse estudo é relevante, pois mais que seus efeitos técnicos, a Inteligência
Artificial representa um novo paradigma que nos convida a repensar o modo como
vivemos: seja no que concerne à confiança jurídica, como por exemplo, no combate
às deep fakes, na construção de personalidade jurídicas para inteligências artificiais;
seja no que concerne às questões governamentais, já que a governança tende a se
automatizar. Isso demonstra que todos precisarão se adaptar à nova realidade
hiperconectada,
conforme
sugerem
Steibel,
Vicente
e
Jesus
(2019).
1 CONCEITOS INICIAIS DA INTELIGÊNCIA ARTIFICIAL
1.1 Definição da inteligência artificial
De acordo com Peter Skalfist et al. (2019) a Inteligência Geral Artificial (em
inglês artificial general intelligence - AGI) consiste na capacidade de uma máquina
em poder entender ou aprender qualquer tarefa intelectual praticada pelo ser
humano. Atualmente, os estudos dessa área subdividem a AGI em IA restrita, fraca
ou estreita e IA forte ou completa.
O primeiro grau (IA restrita) representa aqueles sistemas que possuem a
capacidade de atuar em áreas específicas, mas não conseguem solucionar
problemas em outras áreas de maneira autônoma (SKALFIST et al., 2019).
Já o segundo grau (IA completa) está associado com a habilidade de
497
reconhecer a informação, contextualizá-la a um ambiente de alta complexidade
cognitiva e tornar-se capaz de tomar decisões a partir disso (SKALFIST et al.,
2019).
Pesquisadores dessa área conciliaram que para o desenvolvimento da IA de
forma prática e eficaz são necessárias as seguintes características: raciocinar, usar
estratégia, resolver quebra-cabeças e fazer julgamentos sob incertezas; representar
conhecimento, incluindo conhecimento do senso comum; aprender; comunicar em
língua natural e integrar todas essas habilidades para objetivos comuns
(CARVALHO, 2011).
Observa-se pelos critérios expostos que o ser humano sempre almejou criar
uma máquina que fizesse o trabalho de agir e pensar de forma equânime ao
homem, por esse motivo, o desdobramento dessa pesquisa teve de ser explorado
por diversos campos da ciência.
De acordo com Andriei Gutierrez (2019), os sistemas mais importantes
desenvolvidos dentro do campo da IA foram os algoritmos de análise de dados que
fazem cruzamentos (analytics) e os sistemas que conseguem aprender sozinhos
por aprendizado de máquinas (machine learning). Esse último sistema usa uma
construção algorítmica que é feita de maneira a aprenderem com a interação em
um ambiente externo dinâmico e a partir dela fazerem correlações e reconhecerem
padrões.
A inteligência artificial, conforme pode ser observado por meio de suas
definições, representa um novo modo de agir e pensar semelhante ao do homem,
por essa razão, os conceitos básicos que envolvem o direito atual terão de ser
reformulados e atualizados.
1.2 A mudança de paradigmas no campo jurídico
A ascensão da inteligência artificial no cotidiano, desde situações mais
banais até contextos mais sofisticados, criou a necessidade de consolidação de
parâmetros
jurídicos
para
solucionar
eventuais
problemas
oriundos
do
498
desenvolvimento dessa atividade.
Atualmente, tem-se que o paradigma fundamental do direito é o
antropocentrismo, mas o crescente avanço tecnológico abre a possibilidade para a
criação de artefatos mais inteligentes e racionais que os humanos, o que poderá
ser determinante para uma ruptura de paradigma, de modo que será necessário
reconstruir as formas ontológicas e epistemológicas do direito.
A Inteligência Artificial, se concretizar as expectativas, tende a confrontar o
antropocentrismo de forma mais radical, deslocando o centro do poder na
sociedade. Nessa perspectiva, Harari (2016, p.347) afirma que “as novas
tecnologias do século XXI podem, assim, reverter a revolução humanista,
destituindo humanos de sua autoridade e passando o poder a algoritmos não
humanos”.
O autor ainda defende que com o desenvolvimento da IA duas
“tecnoreligiões” irão emergir, quais sejam: Tecno-Humanismo e Religião de dados.
A primeira tende a preservar muitos valores humanistas tradicionais e a segunda
tende a superar de forma radical o Humanismo, estabelecendo a crença de que o
Universo consiste em um fluxo de dados.
Para o tecno-humanismo, o Homo Sapiens, tal como o conhecemos,
já esgotou seu curso histórico e não será mais relevante no futuro;
portanto, deveríamos usar a tecnologia para criar Homo deus - um
modelo humano muito superior. O Homo deus manterá algumas
características humanas essenciais, porém usufruíra igualmente de
aptidões físicas e mentais aprimoradas, que o capacitarão a manterse firme mesmo contra os sofisticados algoritmos não conscientes.
(HARARI, 2016, p. 355).
Já do ponto de vista dataísta, podemos interpretar toda a espécie humana
como um sistema único de processamento de dados, no qual indivíduos humanos
servem como chips” (HARARI, 2016, p.380).
Harari (2016) acredita, portanto, em uma mudança de cenário extremamente
brusca, já que ele afirma que:
499
No século XVIII, o humanismo afastou Deus ao mudar de uma visão
de mundo geocêntrica para uma visão de mundo antropocêntrica. No
século XXI, o dataísmo pode afastar os humanos, mudando de uma
visão antropocêntrica para uma visão datacêntrica (HARARI, 2016, p.
392).
Essa mudança de paradigmas interfere diretamente nas questões ética e
morais de uma sociedade. Como consequência, o uso dessa nova tecnologia vai
influenciar no avanço jurídico-regulatório atual, que deverá ser acompanhado por
um debate ético maduro e inclusivo nas esferas públicas.
2 NOVAS PERSPECTIVAS SOBRE ÉTICA E PERSONALIDADE JURÍDICA DA
INTELIGÊNCIA ARTIFICIAL
2.1 Questões éticas que devem nortear o uso da IA
A ética está associada ao caráter e busca fundamentar o modo de viver pelo
pensamento humano. Se a IA representa uma nova entidade inteligente que
coexiste com a espécie humana, é legítimo supor que dessa fusão deva ser
moldada uma nova visão sobre a ética.
No dizeres de Russel e Norvirg (2009, p. 1035):
De Revolution Orbium Celestium (Copérnico, 1543) deslocou a Terra
do centro do sistema solar, e Descentof Man (Darwin, 1871) colocou
o Homo Sapiens no mesmo nível que outras espécies. A IA, se bem
sucedida, pode ser ao menos tão ameaçadora para os pressupostos
morais da sociedade do século XXI como a teoria da evolução de
Darwin foi para os do século XIX.
Considerando que o estudo da Inteligência Artificial no Direito está em
expansão, não foi possível, ainda, encontrar respostas seguras para a questão de
como lidar com os danos potenciais que poderão surgir em razão dos erros de
programação ou até mesmo em função de processos de aprendizado de máquina
500
que acabam por incorporar ao programa condutas indesejadas que não foram
previstas pelos desenvolvedores. Por esse motivo, se faz necessário a
programação de fundamentos éticos mínimos que possam regular o que se busca
produzir.
Kaufman (2016, p. 10-11) ao abordar em seu artigo sobre as questões éticas
a serem enfrentadas na IA, cita que a:
Conferência realizada pela NYU, outubro de 2016, abordou
conceitos como “MachineMorality”, “MachineEthics”, “Artificial
Morality”, “Friendly IA” no empenho de introduzir nos sistemas
inteligentes os princípios éticos e valores humanos. Como disse um
dos palestrantes, Peter Railton, Universityof Michigan, “a boa
estratégia é levar os sistemas de IA a atuarem como membros
adultos responsáveis de nossas comunidades”. A questão, contudo,
é complexa. Ned Block ponderou que o maior risco está no
processo de aprendizagem das máquinas. Se as máquinas
aprendem com o comportamento humano, e esse nem sempre está
alinhado com valores éticos, como prever o que elas farão?
Vejamos um exemplo bem simples: em março último, a Microsoft
excluiu do Twitter seu robô de chat “teen girl” 24 horas depois de
lançá-lo. O “Tay” foi concebido para “falar com uma garota
adolescente”, e acabou rapidamente se transformando num robô
defensor de sexo incestuoso e admirador de Hitler. Algumas de
suas frases: "Bush fez 9/11 e Hitler teria feito um trabalho melhor do
que o macaco que temos agora” e “Hitler não fez nada de errado”.
O processo de aprendizagem da Inteligência Artificial fez com que o
robô “Tay” modelasse suas respostas com base no que recebeu de
adolescentes-humanos. No caso das AWS (“Autonomous Weapons
Systems”), que são drones concebidos para assassinatos
direcionados, robótica militar, sistemas de defesa, mísseis,
metralhadoras, etc., os riscos são infinitamente maiores, como
ponderou Peter Asaro, da New School, na Conferência citada.
A instabilidade frente a IA se dá, pois pela primeira vez o homem pode criar
algo sob o qual não possui autonomia completa, nesse ponto, os especialistas não
são capazes de afirmar como essas entidades inteligentes vão se comportar no
futuro.
Um exemplo de orientação moral que pode dar início a essa discussão são
as leis da robótica proposta por Asimov (2007), que servem de paradigmas para a
programação da IA. Observa-se:
501
1ª lei: Um robô não pode fazer mal a um ser humano ou, por
omissão, permitir que um ser humano sofra algum tipo de mal. 2ª lei:
Um robô deve obedecer às ordens dos seres humanos, a não ser
que entrem em conflito com a Primeira Lei. 3ª lei: Um robô deve
proteger sua própria existência, a não ser que essa proteção entre
em conflito com a Primeira e Segunda Leis. É interessante notar que
as leis da robótica, são na verdade quatro, pois em 1985, ASIMOV
criou a Lei Zero da Robótica, considerando que “Um robô não pode
fazer mal à humanidade e nem, por inação, permitir que ela sofra
algum mal. Desse modo, o bem da humanidade prevalece sobre o
dos indivíduos (ASIMOV, 2007, p. 100).
Lehman-Wilzig (1981) acredita que a liberdade dos robôs irá levar a algum
comportamento nocivo, mesmo que bem intencionado. Isso ocorreria em parte por
conta do espírito literal do robô, que é lógico, mas não é sensato ou razoável e, por
isso, poderá cumprir ordens de modo absurdo.
À vista disso, com o intuito de se estabelecer um padrão de comportamento
adequado, sem afetar a moralidade já imposta pela sociedade foi criada a data
ethics, um novo ramo da ética, que estuda e avalia problemas morais relacionados
aos dados (incluindo geração, registro, curadoria, processamento, disseminação,
partilha e uso), aos algoritmos (incluindo IA, agentes artificiais, machine learning e
robôs)
e
às
práticas
correspondentes
(incluindo
inovação
responsável,
programação, hackinge códigos profissionais), a fim de formular e apoiar soluções
moralmente boas, por exemplo, condutas corretas ou valores adequados (FLORIDI;
TADDEO, 2016).
Há vários estudos que buscam obter um consenso razoável sobre o
estabelecimento dos parâmetros éticos adequados para o desenvolvimento desses
algoritmos inteligentes, sendo uma das sugestões doutrinárias, a possibilidade de
criar uma personalidade jurídica da IA de modo que essa possa arcar com suas
eventuais responsabilidades dentro do ordenamento jurídico.
2.2 Personalidade Jurídica da IA
A discussão sobre os direitos das IA’s, inicialmente, pode parecer um pouco
502
futurista e até mesmo dubitável se considerarmos a perspectiva do ordenamento
pátrio, especialmente considerando que, no Brasil, lidamos com mecanismo de IA
fraca e com um grau de sofisticação bem aquém daqueles desenvolvidos em outros
países. Ocorre que, no contexto internacional, o debate acerca da instituição de
uma personalidade jurídica eletrônica é concreto e vem ensejando calorosas
discussões acerca de sua viabilização.
Vários são os argumentos que se têm avançado para sustentar a atribuição
de personalidade jurídica aos mecanismos dotados de inteligência artificial. Um dos
argumentos encontra força nas próprias características desenvolvidas pela IA ao
longo do tempo como: autonomia, auto aprendizagem e adaptação do
comportamento ao meio ambiente (BARBOSA, 2017).
Para dar início a essa discussão é importante destacar alguns conceitos
importantes como o de sujeito de direito, pessoa e personalidade, pois são
assuntos co-dependentes com o tema em questão.
Conforme explica Mello (2013, p. 142):
Sujeito de direito é todo ente, seja grupo de pessoas, sejam
universalidades patrimoniais, a que o ordenamento jurídico atribui
capacidade jurídica (= capacidade de direito) e que, por isso, detém
titularidade de posição como termo, ativo ou passivo, em relação
jurídica de direito material (= ser titular de direito ou de dever, de
pretensão ou de obrigação, de ação ou de situação de acionado, de
exceção ou de situação de excetuado) ou de direito formal (= ser
autor, réu, embargante, opoente, assistente ou, apenas, recorrente),
ou, mais amplamente, de alguma situação jurídica.
Quanto ao conceito jurídico de pessoa, Marco Aurélio (2009) explica que
esta é uma definição mutável que está em constante evolução, como pode ser
observado, por exemplo, a partir da análise de que os afrodescendentes já foram
dele excluídos, na época da escravatura. Portanto, não se pode relacionar o
conceito jurídico de pessoa com o Homo sapiens. O autor explica que:
É lícito afirmar que se outro ente for encontrado dotado desses
mesmos elementos a conclusão lógica é a de se lhe atribuir o mesmo
503
status jurídico de pessoa, de indivíduo e não de pessoa por
equiparação ou por ficção como ocorre com as pessoas jurídicas.
[...]Hoje as legislações vigentes em Portugal e no Brasil aboliram
adjetivos dos seus conceitos de pessoa, abrindo a porta para que se
compreenda como pessoa, como dotado de personalidade jurídica,
não apenas o Homem, mas à moda da visão oriental sobre a
equiparação da dignidade de todos os seres com o Homem, dando
chances à teoria do direito animal e, assim, também a do direito
robótico para que um robô seja juridicamente qualificado como
Pessoa (CASTRO JÚNIOR, 2009, p. 104).
Já a personalidade deve ser vista como a eficácia de determinado fato
jurídico, se caracterizando por ser uma imputação do direito ao indivíduo (MELLO,
2013).
É importante esclarecer que isso não se trata de menosprezar a
inquestionável prevalência do ser humano enquanto epicentro do fenômeno
jurídico, mas apenas de compreender a personalidade sob uma perspectiva
científica de eficácia jurídica (EHRHARDT; SILVA, 2020). Nesse mesmo sentido,
Kelsen (1998) também compreende a personalidade como uma qualidade
emprestada pela ordem jurídica ao indivíduo ou a certos indivíduos.
O ordenamento jurídico brasileiro atrela a personalidade jurídica ao
nascimento com vida, conforme disposição do artigo 66 do Código Civil (2002), o
que impossibilita, em regra, a aplicação da personalidade a uma IA.
No entanto, as pessoas coletivas, que também são possuidoras de
personalidade jurídica, não adquirem a mesma por meio do nascimento pseudobiológico, mas sim através de uma forma artificial, material.
Verifica-se
que
tanto nas
pessoas
coletivas
quanto
numa
possível personalidade jurídica atribuível a IA, haverá um ser humano por detrás de
ambos que irá estipular os seus comportamentos e que os mesmos devem ser tidos
em conta aquando de uma apreciação das consequências de determinado ato
(RAMOS, 2020).
Ramos (2020) explica que Samir Chopra e Laurence F. White, autores de “A
Legal Theory for Autonomous Artificial Agents”, defendem que, a partir do momento
em que uma determinada entidade obtém um grau de autonomia tão grande que
504
seja susceptível de se falar de intenções, será passível de lhe conferir
personalidade jurídica. Observa-se, portanto, que alguns doutrinadores defendem a
atribuição de personalidade jurídica às IA's tomando como base as interpretações
extensivas referentes aos conceitos jurídicos de personalidade e pessoa. Seguindo
esse raciocínio, é importante trazer à baila as discussões proferidas pelo
parlamento Europeu, já que este foi o primeiro e mais convicto passo dado por uma
entidade competente com vista a uma uniformização e regulamentação legal da
Inteligência Artificial na União Europeia.
2.2.1 Orientações do Parlamento Europeu
Em razão da complexidade na atribuição de responsabilidade pelos possíveis
danos causados pela IA, o Parlamento Europeu editou, em 2017, uma Resolução
com orientações sobre regras de Direito Civil e Robótica, cujo objetivo é estabelecer
princípios básicos para o desenvolvimento, utilização e programação da Inteligência
Artificial.
A comissão estabeleceu elementos que são essenciais para o bom
funcionamento de uma inteligência artificial, conforme disposição:
1.
fator humano e de um controle humano: quer dizer que os
sistemas de inteligência artificial devem ser vetores para uma
sociedade igualitária, existindo à serviço do humano e dos direitos
fundamentais, sem, no entanto, restringir a autonomia humana.
2.
robustez e segurança: um sistema de inteligência artificial tido
como digno de confiança necessita que seus algoritmos sejam
suficientemente seguros, confiáveis e robustos para gerir os erros e
as incoerências em todas as fases do ciclo de vida de um sistema.
3.
respeito à privacidade e a governança de dados: é
indispensável que os cidadãos conheçam e tenham consciência total
de seus dados pessoais e que esses dados não sejam utilizados
contra eles mesmos de modo a gerar prejuízos ou discriminações.
4.
transparência: é imprescindível que seja assegurado a
possibilidade de rastrear e retraçar os sistemas de inteligência
artificial.
5.
diversidade, não discriminação e equidade: os sistemas de
inteligência artificial devem levar em consideração toda uma gama de
capacidades, aptidões e necessidades humanas, a acessibilidade a
505
essa diversidade e pluralidade deve ser garantida quando da
operabilidade do sistema.
6.
bem estar social e ambiental: os sistemas de IA devem ser
utilizados para sustentar e dar apoio às evoluções sociais positivas e
reforçar a durabilidade e a responsabilidade ecológica.
7.
responsabilização: é conveniente dar aplicabilidade a
mecanismos para garantir a responsabilidade humana em relação
aos sistemas de IA e a seus resultados, e os submeter a uma
obrigação de prestação de contas (SETA, 2019).
O relatório recente da União Europeia (2015/2103 (INL)) ao editar
regulamentações sobre o tema sugeriu a criação de seguros similares a aqueles
utilizados pelos seguros de automóveis, enquanto que o fundo poderia ser geral,
para todas as máquinas autônomas, ou individual, para cada categoria de máquina,
composto por taxas pagas no momento de colocação da máquina em mercado ou
contribuições pagas periodicamente durante todo o tempo de sua utilização na
sociedade.
O parlamento sugeriu a criação de uma espécie de personalidade jurídica
para robôs autônomos e inteligentes, que seriam denominados de e-personality ou
personalidade eletrônica, mas para isso, seria necessária a adoção de um registro
obrigatório dessas máquinas e a criação do seguro (XAVIER; SPALER, 2019).
Como uma de suas justificativas, destacou-se o seguinte:
[...] a humanidade se encontra no limiar de uma era em que
robôs <<bots>>, androides e outras manifestações de inteligência
artificial (IA) cada vez mais sofisticadas parecem estar preparadas
para desencadear uma nova revolução industrial, que provavelmente
não deixará nenhuma camada da sociedade intacta, é extremamente
importante que a legislatura pondere as suas implicações e efeitos a
nível jurídico e ético, sem colocar entraves à inovação
(PARLAMENTO EUROPEU, 2015/2103(INL)).
O problema dessa proposta é que a indenização está diretamente
relacionada com uma relação jurídica que envolve dois sujeitos, portanto, essa
interação só poderia prevalecer caso a IA fosse equiparada a um sujeito, por meio
da consideração de sua personalidade jurídica. Contudo, diante da legalidade
506
constitucional, poder-se-ia advogar pela impossibilidade dessa equiparação na
medida em que muitos consideram a IA como “coisa”, um objeto de criação do
homem.
Pensa-se na hipótese da IA ser totalmente autônoma de modo a ter ações
independentes e sem comando prévio; nesse caso, é crível pensar que estão
cientes de suas ações e consequentemente ser responsáveis por elas. Nessa
situação, é necessário o reconhecimento de sua personalidade jurídica, pois ser
reconhecida como entidade autônoma significa que está será dotada de direitos e
deveres. Isso retrata que os legisladores devem rever o arcabouço legal existente e
adaptá-lo às necessidades mutáveis da sociedade, dando brechas à possibilidade
de criação de um estatuto jurídico específico a longo prazo.
Feita essa análise jurídica é razoável pensar que, tendo em vista que o
ordenamento pátrio considerou compreensível conferir personalidade jurídica a
uma fundação, em razão do deslocamento de um patrimônio, não seria razoável
conceder a uma IA autônoma?
Ocorre que, há diversos posicionamentos contrários à ideia de personalidade
jurídica eletrônica, por faltar à inteligência artificial a característica básica de pessoa
natural.
2.2.2 Posicionamentos desfavoráveis à concessão da Personalidade Jurídica à IA
Magrani, Silva e Viola (2019), diferente do que defende Marco Aurélio (2009),
acredita que a IA não pode ser enquadrada como pessoa, por maior que seja sua
autonomia, já que ela é uma criação humana. Não se confunde com pessoa natural.
Além disso, o autor explica que criar uma personalidade jurídica eletrônica fazendo
uma analogia com as pessoas jurídicas é um tanto irrazoável, já que as
características e atribuições garantidas a essa última são totalmente distintas
daquelas atribuídas à IA.
Barbosa (2017, p.1486) explica que a personalidade atribuída às empresas:
507
Trata-se de uma personalidade jurídica funcionalizada à prossecução
de determinados interesses humanos coletivos ou comuns ou, e dito
de outro modo, de um expediente técnico que permite que os sujeitos
(pessoas físicas) prossigam determinados interesses de modo
diverso e mais consentâneo com a sua natureza.
Para a autora essa mesma lógica não pode prevalecer para o
desenvolvimento de uma personalidade eletrônica, pois ainda não foram
encontrados uma razão justificável à luz dos interesses da própria pessoa. Afinal,
não há como a IA suportar “pessoalmente” a responsabilidade, sem meios
materiais. Outros doutrinadores que corroboram com essas ideias explicam que:
Se pensarmos, por exemplo, no tópico da responsabilidade é óbvio
que avulta uma dúvida: como é que o robot vai suportar
pessoalmente a responsabilidade, sem que tenha meios materiais
para o fazer? Portanto, a responsabilidade há de ser, ainda e
sempre, assacada a uma pessoa que esteja por detrás da
inteligência artificial (BARBOSA,2017, p. 1487).
Ainda que se pretenda atribuir personalidade jurídica aos robôs
dotados de inteligência artificial – o que também parece ser
nonsense –, a responsabilidade civil será sempre imputada ao ser
humano, jamais à máquina em si. Reconhecer tal fato seria mais
bizarro do que se fazia séculos atrás, quando se julgavam animais
pelos danos por eles causados (TOMASEVICIUS, 2018, p. 142).
Observa-se que os doutrinadores citados não consideram ser possível a
responsabilidade da IA de forma autônoma. Para eles a IA é uma criação humana
que é programada para agir de determinada forma e por isso todos os possíveis
danos gerados por ela seria de responsabilidade do próprio homem, logo, não
haveria motivos plausíveis para a criação de uma personalidade eletrônica.
No entanto, uma solução razoável que se encontra dentro das normas
tradicionais do direito é a teoria proposta por Savigny que afastou as concepções
que admitiam a relação jurídica entre sujeito e coisa, mas, adotou situações
excepcionais em que, mesmo ausente um sujeito, há de prevalecer uma relação
jurídica, como é o caso da doação ao nascituro (MAGRANI; SILVA; VIOLA, 2019).
Por essa razão, sugere-se que a inteligência artificial seja dotada de
508
subjetividade, assim como ocorre nos casos do condomínio edilício, massa falida e
espólio. Dessa forma, a inteligência artificial poderia, ainda que desprovida de
personalidade, figurar nas relações jurídicas se considerada a sua subjetividade,
conforme argumentam Magrani, Silva e Viola (2019).
3 A RESPONSABILIDADE CIVIL DA INTELIGÊNCIA ARTIFICIAL
A ciência ainda não conseguiu desenvolver um sistema de IA que seja
totalmente independente, mas com o aperfeiçoamento da tecnologia, é crível
pensar que sejam criadas máquinas com a capacidade de tomar decisões de forma
autônoma, o que gera questionamentos sobre quem seria o responsável pelo
resultado de seus atos e por eventuais reparações pelos danos causados, como já
questionado nos tópicos anteriores.
O sistema jurídico atual estipula que na seara da responsabilidade civil, são
necessários três quesitos para que reste configurado o dano moral, quais sejam:
conduta, nexo causal e dano. O terceiro elemento é essencial para a sua
caracterização, visto que é a efetiva violação de um interesse jurídico tutelado,
podendo o mesmo ser patrimonial ou extrapatrimonial (CARVALHO, 2010). Nesse
sentido:
A responsabilidade civil tem como pressuposto o dano. Significa
dizer que o sujeito só é civilmente responsável se sua conduta, ou
outro fato, provocar danos a terceiros. Sem danos, inexiste
responsabilidade civil (CARVALHO, 2010, p. 603).
O campo da responsabilidade civil se subdivide em objetiva e subjetiva.
Nesse sentido, a responsabilidade civil objetiva é aquela que é apurada
independentemente de culpa do agente causador do dano, bastando apenas a
relação de causalidade entre a ação e o infortúnio. Isso permite que o ofensor atue
de forma mais diligente e cautelosa nas suas ações. Já a responsabilidade civil
subjetiva ocorre mediante a demonstração de culpa do agente causador do dano,
509
devendo esta ser provada pela vítima. Nesse caso, o incentivo para que as vítimas
adotem níveis de precauções é maior (TARTUCE, 2016).
Diante da alta complexidade da atividade desenvolvida no âmbito das IA’s,
afigura-se mais adequado o sistema de responsabilidade objetiva, que teria a
capacidade de melhor proteger a vítima (MAGRANI; SILVA; VIOLA, 2019).
3.1 Responsabilidade civil dos criadores
Caso a Inteligência Artificial cause danos decorrentes da negligência ou do
defeito de fabricação, resultado de uma programação ineficaz, as regras existentes
da responsabilidade indicariam, na maioria dos casos, a culpa de seus criadores.
Nesta situação, a atenção é direcionada para o papel dos fabricantes de hardware,
dos programadores e criadores de software.
Grande parte das programações aplicadas aos sistemas de IA contam com o
mecanismo de aprendizado de máquina (machine learning), cuja própria natureza
do software envolve a intenção de desenvolver uma atuação que não é previsível.
Isto pode, dependendo da situação, afastar a responsabilidade do seu
programador, sendo assim, o eventual dano causado a um terceiro deve ser
analisado com cautela, pois, de fato, há uma responsabilização do criador no
momento da inserção de códigos condizentes com a ética e a moral social, mas
também há o desenvolvimento autônomo da máquina que permite, a partir dos
dados inseridos, a sua adaptação ao ambiente em que foi inserida, podendo, em
alguns casos, tomar partido de forma autônoma, conforme já dito alhures.
Magrani, Silva e Viola (2019, p. 120) explicam que:
Cientistas de diversas áreas se preocupam e ponderam que conferir
essa capacidade de “pensamento” autônomo às máquinas
necessariamente pode lhes conferir a capacidade de agir de forma
contrária às regras que lhes são dadas. Por isso a importância de se
levar em consideração e investigar as esferas de controle e influência
dos designers e outros agentes durante a criação e o
desenvolvimento funcional dos artefatos técnicos.
510
Dessa forma, é crível pensar que aos engenheiros é dada a responsabilidade
de pensar nos valores que entrarão no design dos artefatos, na sua função e no
seu manual de uso, pois um software projetado de forma sensível aos valores
constitucionalmente previstos e garantidos poderia ser considerado como um
artefato responsável (MAGRANI; SILVA; VIOLA, 2019).
Visto isso, tem-se que a habilidade da IA de acumular experiências e
aprender com base em processamento e a capacidade de tomar decisões de forma
cada vez mais independente, podem ser consideradas pré-condições para a
responsabilidade por danos (MAGRANI; SILVA; VIOLA, 2019).
Parte da doutrina acredita que a pessoa natural ou a entidade que tenha
criado o programa da inteligência artificial deve ser o responsável pelos danos
eventualmente causados. Isso ocorre porque, atualmente, a IA não é reconhecida
como um sujeito de direitos, logo não pode ser considerada individualmente
responsável pelos danos que causar (MAGRANI; SILVA; VIOLA, 2019).
Consequentemente, essa perspectiva defende que a responsabilidade pelos
atos de uma IA pode recair sobre os usuários ou programadores responsáveis pela
sua atualização. Por analogia, seria a mesma responsabilidade atribuída aos pais
pelas ações de seus filhos quando incapazes, ou a responsabilidade de donos de
animais quando estes geram danos.
Pires (2018) informa que o risco do desenvolvimento pode ser uma
possibilidade de afastar a responsabilidade do fabricante ou proprietário de
tecnologias dotadas de IA. Essa tese aduz que determinado produto dotado de
inteligência artificial ao ser colocado no mercado não apresentou nenhum defeito
cognoscível de imediato, no entanto, posteriormente, após determinado período da
sua circulação no mercado de consumo, venha se detectar defeito, ante a evolução
dos meios técnicos e científicos, capaz de gerar danos aos consumidores. Ou seja,
nesse caso a falha no produto adveio de avanço nos estudos e testes realizados.
Por esse motivo, há quem entenda que, nesse caso, a responsabilidade do
fornecedor deveria ser excluída como medida para se garantir o desenvolvimento
tecnológico nesta seara. A ideia é a de que o dano ocorreria por ausência de
511
conhecimento técnico diante do presente estado da IA e não por falha nos deveres
de segurança ou diligência.
Em contrapartida, se aplicada essa teoria, o consumidor teria de arcar com a
incerteza da tecnologia adquirida, assumindo integralmente os danos que viesse a
sofrer decorrentes
do
uso
normal da
IA.
Por fim,
outra hipótese de
responsabilização defendida pelos doutrinadores é a aplicação da teoria norte
americana, Deep-Pocket, na qual:
(...) toda pessoa envolvida em atividades que apresentem riscos,
mas que ao mesmo tempo são lucrativas e úteis para a sociedade,
deve compensar os danos causados pelo lucro obtido. Seja o criador
da inteligência artificial, o fabricante de produtos que empregam
inteligência artificial, empresa ou profissional que não está na cadeia
produtiva da inteligência artificial, mas que a utiliza em sua atividade
(como transportadora que utiliza carros autônomos) – isto, , aquele
que tem “bolso profundo” e usufrui dos lucros advindos dessa nova
tecnologia – deve ser garante dos riscos inerentes às suas
atividades, sendo exigível, inclusive, que se faça um seguro
obrigatório de danos (PIRES, 2018, p.251).
Essa teoria é extremamente extensiva e acaba responsabilizando todos
aqueles envolvidos no desenvolvimento da IA.
3.2 Inteligência Artificial equiparada a produto
George S. Cole (1990) informa que há quatro modelos de responsabilidade
civil, quais sejam: por produto, por serviço, imperícia e negligência. Para aplicar a
responsabilidade por produto ele afirma que a IA deve ser considerada um produto
defeituoso que originou o dano e que o réu deve ser um vendedor da IA.
Tratar as máquinas dotadas de inteligência artificial como um mero produto
para fins de responsabilidade no ordenamento jurídico brasileiro não será tão
simples. Isso porque caso uma televisão, por exemplo, pegue fogo ao ser ligada na
tomada o fornecedor do produto ou serviço, ou qualquer ato da cadeia de consumo
do produto defeituoso é responsável pelo dano causado à pessoa do consumidor
ou à sua propriedade. No entanto, não é razoável pensar, diante do aumento
512
crescente dos níveis de autonomia e aprendizado de máquina, que a estrutura da
responsabilidade dos produtos tradicionais deve ser aplicada à nova geração de
ferramentas de tomada de decisão. O sistema consumerista exige para a
caracterização de um acidente de consumo a existência de um defeito, mas não é
crível pensar que a tomada de decisão da IA possa ser equiparada a um defeito de
concepção imputável ao fornecedor (MAGRANI; SILVA; VIOLA, 2019).
Nesse tópico é importante destacar que há uma linha tênue na separação do
tratamento de uma IA como produto ou como algo que tem capacidades próximas
ao ser humano (MAGRANI; SILVA; VIOLA, 2019).
Karni Chagal (apud MAGRANI; SILVA; VIOLA, 2019) afirma que para definir
se a IA tem aptidões próximas a do ser humano se faz necessário avaliar os níveis
de sua autonomia. Isto posto, a autora estipula que a mensuração dessa autosuficiência deve ser analisada a partir de quatro estágios diferentes baseado no
ciclo OODA (Observe-orient-decide-act) que visa as ações de observar,
orientar, decidir e agir. Para Chagal, quanto mais as características do sistema se
assemelham aos produtos tradicionais, maior a probabilidade de serem encaixadas
na lógica da responsabilidade consumerista. Caso contrário, serão classificados
como algoritmos de pensamento e precisarão de um tratamento diferenciado.
Nesse sentido, os autores afirmam que:
É preciso considerar que quanto mais estágios de OOODA um
sistema é capaz de operar, maior é a imprevisibilidade do fabricante
sobre as decisões tomadas pela inteligência artificial. No caso de um
smart contract(contrato inteligente por exemplo, a execução do
contrato ocorre de maneira automática, mas cada decisão tomada
depende de uma determinação humana prévia. Já no caso do robô
doutor (corresponde ao último estágio de autonomia pensado por
Karni Chagal em que os algoritmos de raciocínio são capazes de
substituir o ser humano em atividades altamente complexas), cabe à
máquina decidir até que ponto deve considerar o histórico médico do
paciente e quanto mais independente da ação humana está decisões
forem, mais distantes estará a responsabilidade humana (MAGRANI;
SILVA; VIOLA, 2019, p. 136).
513
Ocorre que a tecnologia ainda não atingiu o estágio de desenvolvimento de
uma IA altamente complexa, dotada de aptidões humanas, essa é uma etapa ainda
em desenvolvimento. No entanto, há máquinas dotadas de inteligência artificial com
programações mais simplórias que podem ter a sua responsabilidade atribuída ao
fabricante, seguindo a lógica consumerista. Mas, a partir do momento que a IA
atingir um nível de independência com relação aos humanos, preenchendo os
quatro estágios da OODA, surge a necessidade de atribuir direitos e possivelmente
uma personalidade jurídica a essas máquinas com nível de autonomia elevado,
além da possibilidade de criação de um seguro para casos de acidentes e danos
envolvendo essas máquinas (MAGRANI; SILVA; VIOLA, 2019).
CONSIDERAÇÕES FINAIS
Inteligência artificial e Direito consistem em produto tipicamente do século XX
e XXI, não simplesmente em função dos avanços tecnológicos que tornaram
possível falar em IA, mas também em razão do câmbio de paradigma na forma de
encarar a integração interdisciplinar das ciências como um novo modelo teórico para
responder a problemas que não são mais setorizados.
O trabalho demonstrou que o crescente avanço tecnológico abre a
possibilidade para a criação de artefatos mais racionalmente inteligentes que os
humanos, o que poderá ser determinante para uma ruptura de paradigma. E é por
esse motivo que diversos estudos estão sendo realizados nesse campo, com foco
nos temas da ética, responsabilidade civil e personalidade eletrônica da IA, de modo
a garantir os princípios basilares do Direito.
Conclui-se que no campo da ética está sendo desenvolvido o data ethics, que
tem o intuito de estabelecer um padrão de comportamento adequado, sem afetar a
moralidade já imposta pela sociedade.
Quanto à possibilidade de criação de uma personalidade eletrônica da IA,
alguns doutrinadores acreditam que esta pode ser uma alternativa na prevenção de
514
possíveis danos. O parlamento europeu, por exemplo, ao instituir essa
possibilidade sugeriu a criação de seguros similares a aqueles utilizados pelos
seguros de automóveis. No entanto, parte da doutrina defende ser inviável atribuir
personalidade a IA, já que ela é uma criação humana, programada para agir de
determinada forma e por esse motivo todos os possíveis danos gerados por ela
seria de responsabilidade do próprio homem.
Este é um assunto complexo que deve ser analisado com muita cautela, já
que envolve conceitos essenciais e basilares do direito como o de sujeito de
direitos, pessoa e personalidade. Apesar de se enquadrar em uma possível
solução, o assunto deve ser tratado de forma detalhada para evitar brechas que
possam prejudicar o ser humano.
Na responsabilidade civil há diversas teorias que tentam regular os possíveis
danos causados, como a equiparação da IA a um produto e a responsabilidade de
terceiros, no caso, seus criadores e desenvolvedores.
Em relação a este tema, Magrani, Silva e Viola (2019) apresentaram a
solução mais objetiva e eficaz ao utilizar a classificação do sistema OODA, de
modo que, caso a IA seja simplória deve-se aplicar a lógica consumerista, mas,
caso seja uma IA avançada retorna-se à possibilidade de lhe atribuir personalidade
eletrônica.
Ocorre que essas regulamentações ainda estão em elaboração, pois há
necessidade de criação de programas seguros e transparentes com uma visão
centrada nos humanos. Pois é extremamente complexo criar sistemas que
considerem todas as diversidades de segmentos e representações humanas
(incluindo gênero, raça e etnia, orientação sexual e classe, entre outros).
No momento, a inteligência artificial ainda não atingiu um nível tecnológico no
qual seja possível dispensar o auxílio do homem, logo, o que deve prevalecer é a
coexistência entre os humanos e as máquinas (corrobótica).
É importante ressaltar que ainda que a IA atinja um nível tecnológico
extremamente avançado, as decisões humanas devem continuar existindo,
justamente para que a máquinas tenham fontes fidedignas que possam auxiliá-las
515
em suas atualizações, ajustando parâmetros e, inclusive, adaptar-se às mudanças
sociais, já que a linguagem ordinária e as percepções sobre o fenômeno jurídico são
características que carecem à IA.
O que resta, portanto, é regular o uso dessa nova tecnologia para resguardar
a dignidade da pessoa humana, de modo a garantir os direitos que são inerentes ao
homem.
REFERÊNCIAS
ASIMOV, Isaac. As três leis da robótica. Porto Alegre: L&PM, 2007.
BARBOSA, Mafalda Miranda. Inteligência artificial, e-persons e direito: desafios e
perspectivas. Revista Jurídica Luso-Brasileira, v. 3, n. 6, 2017. Disponível em:
http://www.cidp.pt/revistas/rjlb/2017/6/2017_06_1475_1503.pdf. Acesso em: 18 jul.
2021.
BOEING, Daniel Henrique Arruda; ROSA, Alexandre Morais da. Ensinando um
robô a julgar. Florianópolis: Emais, 2020.
BRASIL. Código Civil. Lei n° 10406, de 10 de janeiro de 2002.
CAR ALHO, Andr Carlos Ponce de Leon Ferreira de et al. Inteligência Artificial:
uma abordagem de aprendizado de máquina. Rio de Janeiro: Grupo Editorial
Nacional, 2011.
CARVALHO FILHO, José dos Santos. Manual de Direito Administrativo. Rio de
Janeiro: Lumen Juris, 2020.
CASTRO JÚNIOR, Marco Aurélio de. Personalidade Jurídica do Robô e sua
efetividade no Direito. 2009. 222 f. Tese (Doutorado) - Curso de Direito,
Universidade Federal da Bahia, Salvador, 2009. Disponível em:
https://repositorio.ufba.br/ri/handle/ri/10719. Acesso em: 18 jul. 2021.
516
COLE, George S. Tort Liability For Artificial Intelligence And Expert Systems.
Computer/Law Journal, v. 10, n. 2, 1990. Disponível em:
https://repository.law.uic.edu/cgi/viewcontent.cgi?article=1416&context=jitpl. Acesso
em: 10 jul. 2021.
FLORIDI, Luciano; TADDEO, Mariarosaria. Introduction: What is data ethics? Phil.
Trans. R. Soc., v. 374, n. 2083, 2016. Disponível em:
https://royalsocietypublishing.org/doi/10.1098/rsta.2016.0360. Acesso em: 10 jul.
2021.
GUTIERREZ, Andriei. É possível confiar em um sistema de inteligência artificial?:
práticas em torno da melhoria da sua confiança, segurança e evidências de
accountability. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (coord.). Inteligência
artificial e direito: ética, regulação e responsabilidade. São Paulo: Revista dos
Tribunais, 2019. p. 83-97
HARARI, Y. N. Homo Deus: uma breve história do amanhã. São Paulo: Companhia
das Letras, 2016.
KAUFMAN, Dora. Inteligência Artificial: Questões éticas a serem enfrentadas.
Abciber, São Paulo, v. 9, n. 8, p. 1-16, dez. 2016. Disponível em:
https://abciber.org.br/anaiseletronicos/wpcontent/uploads/2016/trabalhos/inteligencia_artificial_questoes_eticas_a_serem_enfr
entadas_dora_kaufman.pdf. Acesso em: 10 jul. 2021.
KELSEN, Hans. Teoria pura do direito. 6. ed. São Paulo: Martins Fontes, 1998.
LEHMAN-WILZIG, Sam N.. Frankenstein unbound. Futures, [S.L.], v. 13, n. 6, p.
442-457, dez. 1981. Disponível em:
https://www.researchgate.net/publication/278394289_Frankenstein_unbound.
Acesso em: 10 jul. 2021.
MAGRANI, Eduardo; SILVA, Priscilla; VIOLA, Rafael. Novas perspectivas sobre
ética e responsabilidade de inteligência artificial Inteligência artificial e direito:
ética, regulação e responsabilidade. São Paulo: Revista dos Tribunais, 2019.
p.115-145.
517
MELLO, Marcos Bernardes de. Teoria do fato jurídico: plano da eficácia, 1ª parte.
8. ed. São Paulo: Saraiva, 2013. p. 142
PARLAMENTO EUROPEU. Projeto de Relatório que contém recomendações à
Comissão sobre disposições de Direito Civil sobre Robótica. Comissão dos
assuntos jurídicos. Disponível em:
https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_PT.html. Acesso
em: 18 jul. 2021.
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A
RESPONSABILIDADE CIVIL PELOS ATOS AUTÔNOMOS DA INTELIGÊNCIA
ARTIFICIAL: notas iniciais sobre a resolução do parlamento europeu. Revista
Brasileira de Políticas Públicas, Brasília, v. 7, n. 3, p. 238-254, 2018.
RAMOS, Nuno André Novo. Responsabilidade civil em dano causado por
mecanismo dotado de inteligência artificial. 2020. 100 f. Tese (Mestrado) Curso de Direito, Universidade Lusíada, Lisboa, 2019.
RUSSEL, S.J.; NORVIG, P. Artificial Intelligence: A Modern Approach. New
Jersey: Prentice Hall, 2009.
SETA, Paduan. O que é o Guia Ético de Inteligência Artificial, lançado pela
Comissão Europeia? 2019. Disponível em:
https://paduanseta.jusbrasil.com.br/artigos/712829184/o-que-e-o-guia-etico-deinteligencia-artificial-lancado-pela-comissao-europeia. Acesso em: 18 jul. 2021.
SILVA, Gabriela Buarque Pereira; EHRHARDT JÚNIOR, Marcos. Pessoa e sujeito
de direito: reflexões sobre a proposta europeia de personalidade jurídica eletrônica.
Revista Brasileira de Direito Civil, [S.L.], v. 23, n. 01, p. 57-79, mar. 2020.
Disponível em: https://rbdcivil.ibdcivil.org.br/rbdc/article/view/477/345. Acesso em:
10 jul. 2021.
SKALFIST, P. et al. Inteligência Artificial: a quarta revolução industrial. Tradução
de C.S.B Equipment. [Cambridge]: Cambridge Stanford Books, 2019.
518
STEIBEL, Fabro; VICENTE, Victor; JESUS, Diego. Possibilidades e potenciais da
utilização da Inteligência Artificial. Inteligência artificial e direito: ética, regulação
e responsabilidade. São Paulo: Revista dos Tribunais, 2019. p. 53-64.
TARTUCE, Flávio. Direito Civil. Obrigações e responsabilidade civil. São Paulo:
Método, 2016.
TOMASEVICIUS FILHO, Eduardo. Inteligência artificial e direitos da personalidade:
uma contradição em termos? Revista da Faculdade de Direito da Universidade de
São Paulo, v. 113, p. 133-149, jan./dez. 2018. Disponível em:
https://www.revistas.usp.br/rfdusp/article/view/156553. Acesso em: 10 jul. 2021.
XAVIER, Luciana Pedroso; SPALER, Mayara Guibor. Patrimônio de Afetação: uma
possível solução para os danos causados por sistemas de inteligência artificial.
Inteligência Artificial e Direito, São Paulo, v. 2, n.?, p. 541-560, jun. 2019.
Disponível em: https://thomsonreuters.jusbrasil.com.br/doutrina/secao/1196969668/
patrimonio-de-afetacao-uma-possivel-solucao-para-os-danos-causados-porsistemas-de-inteligencia-artificial-inteligencia-artificial-e-direito-ed-2020. Acesso em:
10 jul. 2021.
Recebido em 01/05/2021
Publicado em 03/09/2021
519