Academia.eduAcademia.edu

Inteligência artificial

Revista Vianna Sapiens

O presente trabalho tem o intuito de demonstrar a evolução da inteligência artificial no campo jurídico, tendo como principal objetivo analisar questões emblemáticas sobre ética, personalidade jurídica e responsabilidade civil que norteiam o seu desenvolvimento. Este é um tema totalmente inovador ao meio social, dessa forma, é fundamental realizar um estudo jurídico prévio a respeito da sua utilização. Para isso o trabalho contou com pesquisa qualitativa em artigos, livros, sítios da internet, revistas e jornais.  Feitas as análises necessárias foi possível concluir que o uso dessa nova tecnologia vai reestruturar as bases ontológicas e epistemológicas do direito atual, de modo a reformular conceitos básicos já existentes na sociedade como de pessoa e personalidade, além de criar novas perspectivas e concepções sociais. Consequentemente, a melhor alternativa é capacitar os juristas para que possam entender o funcionamento dessa tecnologia, permitindo assim, a coexistência entre os h...

Inteligência artificial: uma visão prospectiva sobre seus principais efeitos jurídicos DOI: 10.31994/rvs.v12i2.784 Aryela Couto Costa1 Luís Antônio de Aguiar Bittencourt 2 RESUMO O presente trabalho tem o intuito de demonstrar a evolução da inteligência artificial no campo jurídico, tendo como principal objetivo analisar questões emblemáticas sobre ética, personalidade jurídica e responsabilidade civil que norteiam o seu desenvolvimento. Esse é um tema totalmente inovador ao meio social, dessa forma, é fundamental realizar um estudo jurídico prévio a respeito da sua utilização. Para isso, o trabalho contou com pesquisa qualitativa em artigos, livros, sítios da internet, revistas e jornais. Feitas as análises necessárias, foi possível concluir que o uso dessa nova tecnologia vai reestruturar as bases ontológicas e epistemológicas do direito atual, de modo a reformular conceitos básicos já existentes na sociedade, tal como o conceito de pessoa e personalidade, além de criar novas perspectivas e concepções sociais. Consequentemente, a melhor alternativa é capacitar os juristas para que possam entender o funcionamento dessa tecnologia, permitindo, assim, a coexistência entre os humanos e as máquinas. 1 Graduada em Direito pela Faculdades Integradas Vianna Júnior em Juiz de Fora/MG; Graduada em Ciências Humanas pela Universidade Federal de Juiz de Fora; Pós-graduanda em Direito Administrativo e Direito Previdenciário (UniBF); e-mail: [email protected]; ORCID: https://orcid.org/0000-0002-7697-355X 2 Graduado em Direito pela Universidade Federal de Juiz de Fora (1992); graduado em Administração pela Faculdade Machado Sobrinho (1986); Mestrado em Direito pela Universidade Gama Filho (2002); MBA Executivo em Administração de Empresas com ênfase em Gestão pela Fundação Getúlio Vargas (2008); MBA Administração Acadêmica & Universitária ? Carta Consulta (2018); email: [email protected]; ORCID: https://orcid.org/0000-0002-9204-8372 494 PALAVRAS-CHAVE: INTELIGÊNCIA ARTIFICIAL. RESPONSABILIDADE CIVIL. ÉTICA. PERSONALIDADE JURÍDICA. CORROBÓTICA. Artificial intelligence: A prospective view of its main legal effects ABSTRACT This monograph has the purpose to demonstrate the evolution of artificial intelligence in the legal field, having as main objective to analyze emblematic questions about ethics, legal personality and civil responsibility that guide its development. This is a totally innovative topic to the social environment, so it is essential to carry out a prior legal study regarding its use. For this, the work relied on qualitative research in articles, books, websites, magazines and newspapers. Having made the necessary analyzes, it was possible to conclude that the use of this new technology will restructure the ontological and epistemological bases of current law, in order to reformulate basic concepts already existing in society such as person and personality, in addition to creating new perspectives and social concepts. Consequently, the best alternative is to train lawyers to understand how this technology works, thus allowing coexistence between humans and machines in the same environment KEYWORDS: ARTIFICIAL INTELLIGENCE. CIVIL LIABILITY. ETHIC. LEGAL PERSONALITY. CORROBOTIC. 495 INTRODUÇÃO A inteligência artificial (doravante, IA), é uma nova realidade no meio social e jurídico, sua evolução é constante, por esse motivo, quanto maior for a coexistência entre os humanos e as máquinas, maior será a necessidade de normalizar e regulamentar o seu uso. No Brasil, em razão da sobrecarga de ações, o Poder Judiciário vem desenvolvendo programas com a utilização da IA que possam contribuir, em especial, para a superação de seu enorme acervo de processos que demandam solução, bem como para imprimir maior celeridade na sua tramitação. Para deixar claro essa inserção tecnológica no meio jurídico, Moraes e Boeing (2020, p. 95-102) explicam que há três tipos de uso do aprendizado de máquina no direito, sendo eles: (i) Robô-Classificador, que tem por função primordial encontrar materiais úteis para que humanos fundamentem suas decisões (como exemplo deste modelo tem-se o projeto Victor do Supremo Tribunal Federal); (ii) RobôRelator, cujo objetivo é extrair e condensar informações relevantes de documentos, que pode ser utilizado para fins distintos; (iii) Robô-Julgador, sua função se assemelha por demasiado aos modelos anteriores, no entanto, nesse caso o resultado gerado pelo algoritmo será a própria decisão judicial, que poderá ser aplicada, principalmente, em demandas repetitivas. Poucos imaginavam que, um dia, funções tais como as anteriormente citadas poderiam ser executadas por máquinas de modo eficiente. Há uma nítida transformação da realidade com o uso da Inteligência artificial, logo, deve-se regular a sua aplicação no meio social. Sendo assim, este trabalho foi dividido em três partes, de modo que, em um primeiro momento, será analisado o conceito de IA avaliando a mudança ontológica e epistemológica do direito. Posteriormente, serão discutidas questões sobre a possibilidade de atribuir personalidade jurídica eletrônica à IA e, por fim, será feito um estudo sobre a responsabilidade civil em relação ao uso da inteligência artificial. 496 Para poder efetivar esse trabalho foi necessário realizar uma pesquisa qualitativa em artigos, livros, sítios da internet, revistas e jornais com o objetivo de realizar uma busca explicativa e exploratória, que contribua para aprofundar o conhecimento da realidade, explicar a razão dos acontecimentos relacionados à temática, desenvolver e esclarecer conceitos e ideias, podendo assim visar uma possível solução para os problemas causados pelo assunto do tema proposto, elaboradas a partir de materiais já publicados e que não receberam tratamento analítico. Esse estudo é relevante, pois mais que seus efeitos técnicos, a Inteligência Artificial representa um novo paradigma que nos convida a repensar o modo como vivemos: seja no que concerne à confiança jurídica, como por exemplo, no combate às deep fakes, na construção de personalidade jurídicas para inteligências artificiais; seja no que concerne às questões governamentais, já que a governança tende a se automatizar. Isso demonstra que todos precisarão se adaptar à nova realidade hiperconectada, conforme sugerem Steibel, Vicente e Jesus (2019). 1 CONCEITOS INICIAIS DA INTELIGÊNCIA ARTIFICIAL 1.1 Definição da inteligência artificial De acordo com Peter Skalfist et al. (2019) a Inteligência Geral Artificial (em inglês artificial general intelligence - AGI) consiste na capacidade de uma máquina em poder entender ou aprender qualquer tarefa intelectual praticada pelo ser humano. Atualmente, os estudos dessa área subdividem a AGI em IA restrita, fraca ou estreita e IA forte ou completa. O primeiro grau (IA restrita) representa aqueles sistemas que possuem a capacidade de atuar em áreas específicas, mas não conseguem solucionar problemas em outras áreas de maneira autônoma (SKALFIST et al., 2019). Já o segundo grau (IA completa) está associado com a habilidade de 497 reconhecer a informação, contextualizá-la a um ambiente de alta complexidade cognitiva e tornar-se capaz de tomar decisões a partir disso (SKALFIST et al., 2019). Pesquisadores dessa área conciliaram que para o desenvolvimento da IA de forma prática e eficaz são necessárias as seguintes características: raciocinar, usar estratégia, resolver quebra-cabeças e fazer julgamentos sob incertezas; representar conhecimento, incluindo conhecimento do senso comum; aprender; comunicar em língua natural e integrar todas essas habilidades para objetivos comuns (CARVALHO, 2011). Observa-se pelos critérios expostos que o ser humano sempre almejou criar uma máquina que fizesse o trabalho de agir e pensar de forma equânime ao homem, por esse motivo, o desdobramento dessa pesquisa teve de ser explorado por diversos campos da ciência. De acordo com Andriei Gutierrez (2019), os sistemas mais importantes desenvolvidos dentro do campo da IA foram os algoritmos de análise de dados que fazem cruzamentos (analytics) e os sistemas que conseguem aprender sozinhos por aprendizado de máquinas (machine learning). Esse último sistema usa uma construção algorítmica que é feita de maneira a aprenderem com a interação em um ambiente externo dinâmico e a partir dela fazerem correlações e reconhecerem padrões. A inteligência artificial, conforme pode ser observado por meio de suas definições, representa um novo modo de agir e pensar semelhante ao do homem, por essa razão, os conceitos básicos que envolvem o direito atual terão de ser reformulados e atualizados. 1.2 A mudança de paradigmas no campo jurídico A ascensão da inteligência artificial no cotidiano, desde situações mais banais até contextos mais sofisticados, criou a necessidade de consolidação de parâmetros jurídicos para solucionar eventuais problemas oriundos do 498 desenvolvimento dessa atividade. Atualmente, tem-se que o paradigma fundamental do direito é o antropocentrismo, mas o crescente avanço tecnológico abre a possibilidade para a criação de artefatos mais inteligentes e racionais que os humanos, o que poderá ser determinante para uma ruptura de paradigma, de modo que será necessário reconstruir as formas ontológicas e epistemológicas do direito. A Inteligência Artificial, se concretizar as expectativas, tende a confrontar o antropocentrismo de forma mais radical, deslocando o centro do poder na sociedade. Nessa perspectiva, Harari (2016, p.347) afirma que “as novas tecnologias do século XXI podem, assim, reverter a revolução humanista, destituindo humanos de sua autoridade e passando o poder a algoritmos não humanos”. O autor ainda defende que com o desenvolvimento da IA duas “tecnoreligiões” irão emergir, quais sejam: Tecno-Humanismo e Religião de dados. A primeira tende a preservar muitos valores humanistas tradicionais e a segunda tende a superar de forma radical o Humanismo, estabelecendo a crença de que o Universo consiste em um fluxo de dados. Para o tecno-humanismo, o Homo Sapiens, tal como o conhecemos, já esgotou seu curso histórico e não será mais relevante no futuro; portanto, deveríamos usar a tecnologia para criar Homo deus - um modelo humano muito superior. O Homo deus manterá algumas características humanas essenciais, porém usufruíra igualmente de aptidões físicas e mentais aprimoradas, que o capacitarão a manterse firme mesmo contra os sofisticados algoritmos não conscientes. (HARARI, 2016, p. 355). Já do ponto de vista dataísta, podemos interpretar toda a espécie humana como um sistema único de processamento de dados, no qual indivíduos humanos servem como chips” (HARARI, 2016, p.380). Harari (2016) acredita, portanto, em uma mudança de cenário extremamente brusca, já que ele afirma que: 499 No século XVIII, o humanismo afastou Deus ao mudar de uma visão de mundo geocêntrica para uma visão de mundo antropocêntrica. No século XXI, o dataísmo pode afastar os humanos, mudando de uma visão antropocêntrica para uma visão datacêntrica (HARARI, 2016, p. 392). Essa mudança de paradigmas interfere diretamente nas questões ética e morais de uma sociedade. Como consequência, o uso dessa nova tecnologia vai influenciar no avanço jurídico-regulatório atual, que deverá ser acompanhado por um debate ético maduro e inclusivo nas esferas públicas. 2 NOVAS PERSPECTIVAS SOBRE ÉTICA E PERSONALIDADE JURÍDICA DA INTELIGÊNCIA ARTIFICIAL 2.1 Questões éticas que devem nortear o uso da IA A ética está associada ao caráter e busca fundamentar o modo de viver pelo pensamento humano. Se a IA representa uma nova entidade inteligente que coexiste com a espécie humana, é legítimo supor que dessa fusão deva ser moldada uma nova visão sobre a ética. No dizeres de Russel e Norvirg (2009, p. 1035): De Revolution Orbium Celestium (Copérnico, 1543) deslocou a Terra do centro do sistema solar, e Descentof Man (Darwin, 1871) colocou o Homo Sapiens no mesmo nível que outras espécies. A IA, se bem sucedida, pode ser ao menos tão ameaçadora para os pressupostos morais da sociedade do século XXI como a teoria da evolução de Darwin foi para os do século XIX. Considerando que o estudo da Inteligência Artificial no Direito está em expansão, não foi possível, ainda, encontrar respostas seguras para a questão de como lidar com os danos potenciais que poderão surgir em razão dos erros de programação ou até mesmo em função de processos de aprendizado de máquina 500 que acabam por incorporar ao programa condutas indesejadas que não foram previstas pelos desenvolvedores. Por esse motivo, se faz necessário a programação de fundamentos éticos mínimos que possam regular o que se busca produzir. Kaufman (2016, p. 10-11) ao abordar em seu artigo sobre as questões éticas a serem enfrentadas na IA, cita que a: Conferência realizada pela NYU, outubro de 2016, abordou conceitos como “MachineMorality”, “MachineEthics”, “Artificial Morality”, “Friendly IA” no empenho de introduzir nos sistemas inteligentes os princípios éticos e valores humanos. Como disse um dos palestrantes, Peter Railton, Universityof Michigan, “a boa estratégia é levar os sistemas de IA a atuarem como membros adultos responsáveis de nossas comunidades”. A questão, contudo, é complexa. Ned Block ponderou que o maior risco está no processo de aprendizagem das máquinas. Se as máquinas aprendem com o comportamento humano, e esse nem sempre está alinhado com valores éticos, como prever o que elas farão? Vejamos um exemplo bem simples: em março último, a Microsoft excluiu do Twitter seu robô de chat “teen girl” 24 horas depois de lançá-lo. O “Tay” foi concebido para “falar com uma garota adolescente”, e acabou rapidamente se transformando num robô defensor de sexo incestuoso e admirador de Hitler. Algumas de suas frases: "Bush fez 9/11 e Hitler teria feito um trabalho melhor do que o macaco que temos agora” e “Hitler não fez nada de errado”. O processo de aprendizagem da Inteligência Artificial fez com que o robô “Tay” modelasse suas respostas com base no que recebeu de adolescentes-humanos. No caso das AWS (“Autonomous Weapons Systems”), que são drones concebidos para assassinatos direcionados, robótica militar, sistemas de defesa, mísseis, metralhadoras, etc., os riscos são infinitamente maiores, como ponderou Peter Asaro, da New School, na Conferência citada. A instabilidade frente a IA se dá, pois pela primeira vez o homem pode criar algo sob o qual não possui autonomia completa, nesse ponto, os especialistas não são capazes de afirmar como essas entidades inteligentes vão se comportar no futuro. Um exemplo de orientação moral que pode dar início a essa discussão são as leis da robótica proposta por Asimov (2007), que servem de paradigmas para a programação da IA. Observa-se: 501 1ª lei: Um robô não pode fazer mal a um ser humano ou, por omissão, permitir que um ser humano sofra algum tipo de mal. 2ª lei: Um robô deve obedecer às ordens dos seres humanos, a não ser que entrem em conflito com a Primeira Lei. 3ª lei: Um robô deve proteger sua própria existência, a não ser que essa proteção entre em conflito com a Primeira e Segunda Leis. É interessante notar que as leis da robótica, são na verdade quatro, pois em 1985, ASIMOV criou a Lei Zero da Robótica, considerando que “Um robô não pode fazer mal à humanidade e nem, por inação, permitir que ela sofra algum mal. Desse modo, o bem da humanidade prevalece sobre o dos indivíduos (ASIMOV, 2007, p. 100). Lehman-Wilzig (1981) acredita que a liberdade dos robôs irá levar a algum comportamento nocivo, mesmo que bem intencionado. Isso ocorreria em parte por conta do espírito literal do robô, que é lógico, mas não é sensato ou razoável e, por isso, poderá cumprir ordens de modo absurdo. À vista disso, com o intuito de se estabelecer um padrão de comportamento adequado, sem afetar a moralidade já imposta pela sociedade foi criada a data ethics, um novo ramo da ética, que estuda e avalia problemas morais relacionados aos dados (incluindo geração, registro, curadoria, processamento, disseminação, partilha e uso), aos algoritmos (incluindo IA, agentes artificiais, machine learning e robôs) e às práticas correspondentes (incluindo inovação responsável, programação, hackinge códigos profissionais), a fim de formular e apoiar soluções moralmente boas, por exemplo, condutas corretas ou valores adequados (FLORIDI; TADDEO, 2016). Há vários estudos que buscam obter um consenso razoável sobre o estabelecimento dos parâmetros éticos adequados para o desenvolvimento desses algoritmos inteligentes, sendo uma das sugestões doutrinárias, a possibilidade de criar uma personalidade jurídica da IA de modo que essa possa arcar com suas eventuais responsabilidades dentro do ordenamento jurídico. 2.2 Personalidade Jurídica da IA A discussão sobre os direitos das IA’s, inicialmente, pode parecer um pouco 502 futurista e até mesmo dubitável se considerarmos a perspectiva do ordenamento pátrio, especialmente considerando que, no Brasil, lidamos com mecanismo de IA fraca e com um grau de sofisticação bem aquém daqueles desenvolvidos em outros países. Ocorre que, no contexto internacional, o debate acerca da instituição de uma personalidade jurídica eletrônica é concreto e vem ensejando calorosas discussões acerca de sua viabilização. Vários são os argumentos que se têm avançado para sustentar a atribuição de personalidade jurídica aos mecanismos dotados de inteligência artificial. Um dos argumentos encontra força nas próprias características desenvolvidas pela IA ao longo do tempo como: autonomia, auto aprendizagem e adaptação do comportamento ao meio ambiente (BARBOSA, 2017). Para dar início a essa discussão é importante destacar alguns conceitos importantes como o de sujeito de direito, pessoa e personalidade, pois são assuntos co-dependentes com o tema em questão. Conforme explica Mello (2013, p. 142): Sujeito de direito é todo ente, seja grupo de pessoas, sejam universalidades patrimoniais, a que o ordenamento jurídico atribui capacidade jurídica (= capacidade de direito) e que, por isso, detém titularidade de posição como termo, ativo ou passivo, em relação jurídica de direito material (= ser titular de direito ou de dever, de pretensão ou de obrigação, de ação ou de situação de acionado, de exceção ou de situação de excetuado) ou de direito formal (= ser autor, réu, embargante, opoente, assistente ou, apenas, recorrente), ou, mais amplamente, de alguma situação jurídica. Quanto ao conceito jurídico de pessoa, Marco Aurélio (2009) explica que esta é uma definição mutável que está em constante evolução, como pode ser observado, por exemplo, a partir da análise de que os afrodescendentes já foram dele excluídos, na época da escravatura. Portanto, não se pode relacionar o conceito jurídico de pessoa com o Homo sapiens. O autor explica que: É lícito afirmar que se outro ente for encontrado dotado desses mesmos elementos a conclusão lógica é a de se lhe atribuir o mesmo 503 status jurídico de pessoa, de indivíduo e não de pessoa por equiparação ou por ficção como ocorre com as pessoas jurídicas. [...]Hoje as legislações vigentes em Portugal e no Brasil aboliram adjetivos dos seus conceitos de pessoa, abrindo a porta para que se compreenda como pessoa, como dotado de personalidade jurídica, não apenas o Homem, mas à moda da visão oriental sobre a equiparação da dignidade de todos os seres com o Homem, dando chances à teoria do direito animal e, assim, também a do direito robótico para que um robô seja juridicamente qualificado como Pessoa (CASTRO JÚNIOR, 2009, p. 104). Já a personalidade deve ser vista como a eficácia de determinado fato jurídico, se caracterizando por ser uma imputação do direito ao indivíduo (MELLO, 2013). É importante esclarecer que isso não se trata de menosprezar a inquestionável prevalência do ser humano enquanto epicentro do fenômeno jurídico, mas apenas de compreender a personalidade sob uma perspectiva científica de eficácia jurídica (EHRHARDT; SILVA, 2020). Nesse mesmo sentido, Kelsen (1998) também compreende a personalidade como uma qualidade emprestada pela ordem jurídica ao indivíduo ou a certos indivíduos. O ordenamento jurídico brasileiro atrela a personalidade jurídica ao nascimento com vida, conforme disposição do artigo 66 do Código Civil (2002), o que impossibilita, em regra, a aplicação da personalidade a uma IA. No entanto, as pessoas coletivas, que também são possuidoras de personalidade jurídica, não adquirem a mesma por meio do nascimento pseudobiológico, mas sim através de uma forma artificial, material. Verifica-se que tanto nas pessoas coletivas quanto numa possível personalidade jurídica atribuível a IA, haverá um ser humano por detrás de ambos que irá estipular os seus comportamentos e que os mesmos devem ser tidos em conta aquando de uma apreciação das consequências de determinado ato (RAMOS, 2020). Ramos (2020) explica que Samir Chopra e Laurence F. White, autores de “A Legal Theory for Autonomous Artificial Agents”, defendem que, a partir do momento em que uma determinada entidade obtém um grau de autonomia tão grande que 504 seja susceptível de se falar de intenções, será passível de lhe conferir personalidade jurídica. Observa-se, portanto, que alguns doutrinadores defendem a atribuição de personalidade jurídica às IA's tomando como base as interpretações extensivas referentes aos conceitos jurídicos de personalidade e pessoa. Seguindo esse raciocínio, é importante trazer à baila as discussões proferidas pelo parlamento Europeu, já que este foi o primeiro e mais convicto passo dado por uma entidade competente com vista a uma uniformização e regulamentação legal da Inteligência Artificial na União Europeia. 2.2.1 Orientações do Parlamento Europeu Em razão da complexidade na atribuição de responsabilidade pelos possíveis danos causados pela IA, o Parlamento Europeu editou, em 2017, uma Resolução com orientações sobre regras de Direito Civil e Robótica, cujo objetivo é estabelecer princípios básicos para o desenvolvimento, utilização e programação da Inteligência Artificial. A comissão estabeleceu elementos que são essenciais para o bom funcionamento de uma inteligência artificial, conforme disposição: 1. fator humano e de um controle humano: quer dizer que os sistemas de inteligência artificial devem ser vetores para uma sociedade igualitária, existindo à serviço do humano e dos direitos fundamentais, sem, no entanto, restringir a autonomia humana. 2. robustez e segurança: um sistema de inteligência artificial tido como digno de confiança necessita que seus algoritmos sejam suficientemente seguros, confiáveis e robustos para gerir os erros e as incoerências em todas as fases do ciclo de vida de um sistema. 3. respeito à privacidade e a governança de dados: é indispensável que os cidadãos conheçam e tenham consciência total de seus dados pessoais e que esses dados não sejam utilizados contra eles mesmos de modo a gerar prejuízos ou discriminações. 4. transparência: é imprescindível que seja assegurado a possibilidade de rastrear e retraçar os sistemas de inteligência artificial. 5. diversidade, não discriminação e equidade: os sistemas de inteligência artificial devem levar em consideração toda uma gama de capacidades, aptidões e necessidades humanas, a acessibilidade a 505 essa diversidade e pluralidade deve ser garantida quando da operabilidade do sistema. 6. bem estar social e ambiental: os sistemas de IA devem ser utilizados para sustentar e dar apoio às evoluções sociais positivas e reforçar a durabilidade e a responsabilidade ecológica. 7. responsabilização: é conveniente dar aplicabilidade a mecanismos para garantir a responsabilidade humana em relação aos sistemas de IA e a seus resultados, e os submeter a uma obrigação de prestação de contas (SETA, 2019). O relatório recente da União Europeia (2015/2103 (INL)) ao editar regulamentações sobre o tema sugeriu a criação de seguros similares a aqueles utilizados pelos seguros de automóveis, enquanto que o fundo poderia ser geral, para todas as máquinas autônomas, ou individual, para cada categoria de máquina, composto por taxas pagas no momento de colocação da máquina em mercado ou contribuições pagas periodicamente durante todo o tempo de sua utilização na sociedade. O parlamento sugeriu a criação de uma espécie de personalidade jurídica para robôs autônomos e inteligentes, que seriam denominados de e-personality ou personalidade eletrônica, mas para isso, seria necessária a adoção de um registro obrigatório dessas máquinas e a criação do seguro (XAVIER; SPALER, 2019). Como uma de suas justificativas, destacou-se o seguinte: [...] a humanidade se encontra no limiar de uma era em que robôs <<bots>>, androides e outras manifestações de inteligência artificial (IA) cada vez mais sofisticadas parecem estar preparadas para desencadear uma nova revolução industrial, que provavelmente não deixará nenhuma camada da sociedade intacta, é extremamente importante que a legislatura pondere as suas implicações e efeitos a nível jurídico e ético, sem colocar entraves à inovação (PARLAMENTO EUROPEU, 2015/2103(INL)). O problema dessa proposta é que a indenização está diretamente relacionada com uma relação jurídica que envolve dois sujeitos, portanto, essa interação só poderia prevalecer caso a IA fosse equiparada a um sujeito, por meio da consideração de sua personalidade jurídica. Contudo, diante da legalidade 506 constitucional, poder-se-ia advogar pela impossibilidade dessa equiparação na medida em que muitos consideram a IA como “coisa”, um objeto de criação do homem. Pensa-se na hipótese da IA ser totalmente autônoma de modo a ter ações independentes e sem comando prévio; nesse caso, é crível pensar que estão cientes de suas ações e consequentemente ser responsáveis por elas. Nessa situação, é necessário o reconhecimento de sua personalidade jurídica, pois ser reconhecida como entidade autônoma significa que está será dotada de direitos e deveres. Isso retrata que os legisladores devem rever o arcabouço legal existente e adaptá-lo às necessidades mutáveis da sociedade, dando brechas à possibilidade de criação de um estatuto jurídico específico a longo prazo. Feita essa análise jurídica é razoável pensar que, tendo em vista que o ordenamento pátrio considerou compreensível conferir personalidade jurídica a uma fundação, em razão do deslocamento de um patrimônio, não seria razoável conceder a uma IA autônoma? Ocorre que, há diversos posicionamentos contrários à ideia de personalidade jurídica eletrônica, por faltar à inteligência artificial a característica básica de pessoa natural. 2.2.2 Posicionamentos desfavoráveis à concessão da Personalidade Jurídica à IA Magrani, Silva e Viola (2019), diferente do que defende Marco Aurélio (2009), acredita que a IA não pode ser enquadrada como pessoa, por maior que seja sua autonomia, já que ela é uma criação humana. Não se confunde com pessoa natural. Além disso, o autor explica que criar uma personalidade jurídica eletrônica fazendo uma analogia com as pessoas jurídicas é um tanto irrazoável, já que as características e atribuições garantidas a essa última são totalmente distintas daquelas atribuídas à IA. Barbosa (2017, p.1486) explica que a personalidade atribuída às empresas: 507 Trata-se de uma personalidade jurídica funcionalizada à prossecução de determinados interesses humanos coletivos ou comuns ou, e dito de outro modo, de um expediente técnico que permite que os sujeitos (pessoas físicas) prossigam determinados interesses de modo diverso e mais consentâneo com a sua natureza. Para a autora essa mesma lógica não pode prevalecer para o desenvolvimento de uma personalidade eletrônica, pois ainda não foram encontrados uma razão justificável à luz dos interesses da própria pessoa. Afinal, não há como a IA suportar “pessoalmente” a responsabilidade, sem meios materiais. Outros doutrinadores que corroboram com essas ideias explicam que: Se pensarmos, por exemplo, no tópico da responsabilidade é óbvio que avulta uma dúvida: como é que o robot vai suportar pessoalmente a responsabilidade, sem que tenha meios materiais para o fazer? Portanto, a responsabilidade há de ser, ainda e sempre, assacada a uma pessoa que esteja por detrás da inteligência artificial (BARBOSA,2017, p. 1487). Ainda que se pretenda atribuir personalidade jurídica aos robôs dotados de inteligência artificial – o que também parece ser nonsense –, a responsabilidade civil será sempre imputada ao ser humano, jamais à máquina em si. Reconhecer tal fato seria mais bizarro do que se fazia séculos atrás, quando se julgavam animais pelos danos por eles causados (TOMASEVICIUS, 2018, p. 142). Observa-se que os doutrinadores citados não consideram ser possível a responsabilidade da IA de forma autônoma. Para eles a IA é uma criação humana que é programada para agir de determinada forma e por isso todos os possíveis danos gerados por ela seria de responsabilidade do próprio homem, logo, não haveria motivos plausíveis para a criação de uma personalidade eletrônica. No entanto, uma solução razoável que se encontra dentro das normas tradicionais do direito é a teoria proposta por Savigny que afastou as concepções que admitiam a relação jurídica entre sujeito e coisa, mas, adotou situações excepcionais em que, mesmo ausente um sujeito, há de prevalecer uma relação jurídica, como é o caso da doação ao nascituro (MAGRANI; SILVA; VIOLA, 2019). Por essa razão, sugere-se que a inteligência artificial seja dotada de 508 subjetividade, assim como ocorre nos casos do condomínio edilício, massa falida e espólio. Dessa forma, a inteligência artificial poderia, ainda que desprovida de personalidade, figurar nas relações jurídicas se considerada a sua subjetividade, conforme argumentam Magrani, Silva e Viola (2019). 3 A RESPONSABILIDADE CIVIL DA INTELIGÊNCIA ARTIFICIAL A ciência ainda não conseguiu desenvolver um sistema de IA que seja totalmente independente, mas com o aperfeiçoamento da tecnologia, é crível pensar que sejam criadas máquinas com a capacidade de tomar decisões de forma autônoma, o que gera questionamentos sobre quem seria o responsável pelo resultado de seus atos e por eventuais reparações pelos danos causados, como já questionado nos tópicos anteriores. O sistema jurídico atual estipula que na seara da responsabilidade civil, são necessários três quesitos para que reste configurado o dano moral, quais sejam: conduta, nexo causal e dano. O terceiro elemento é essencial para a sua caracterização, visto que é a efetiva violação de um interesse jurídico tutelado, podendo o mesmo ser patrimonial ou extrapatrimonial (CARVALHO, 2010). Nesse sentido: A responsabilidade civil tem como pressuposto o dano. Significa dizer que o sujeito só é civilmente responsável se sua conduta, ou outro fato, provocar danos a terceiros. Sem danos, inexiste responsabilidade civil (CARVALHO, 2010, p. 603). O campo da responsabilidade civil se subdivide em objetiva e subjetiva. Nesse sentido, a responsabilidade civil objetiva é aquela que é apurada independentemente de culpa do agente causador do dano, bastando apenas a relação de causalidade entre a ação e o infortúnio. Isso permite que o ofensor atue de forma mais diligente e cautelosa nas suas ações. Já a responsabilidade civil subjetiva ocorre mediante a demonstração de culpa do agente causador do dano, 509 devendo esta ser provada pela vítima. Nesse caso, o incentivo para que as vítimas adotem níveis de precauções é maior (TARTUCE, 2016). Diante da alta complexidade da atividade desenvolvida no âmbito das IA’s, afigura-se mais adequado o sistema de responsabilidade objetiva, que teria a capacidade de melhor proteger a vítima (MAGRANI; SILVA; VIOLA, 2019). 3.1 Responsabilidade civil dos criadores Caso a Inteligência Artificial cause danos decorrentes da negligência ou do defeito de fabricação, resultado de uma programação ineficaz, as regras existentes da responsabilidade indicariam, na maioria dos casos, a culpa de seus criadores. Nesta situação, a atenção é direcionada para o papel dos fabricantes de hardware, dos programadores e criadores de software. Grande parte das programações aplicadas aos sistemas de IA contam com o mecanismo de aprendizado de máquina (machine learning), cuja própria natureza do software envolve a intenção de desenvolver uma atuação que não é previsível. Isto pode, dependendo da situação, afastar a responsabilidade do seu programador, sendo assim, o eventual dano causado a um terceiro deve ser analisado com cautela, pois, de fato, há uma responsabilização do criador no momento da inserção de códigos condizentes com a ética e a moral social, mas também há o desenvolvimento autônomo da máquina que permite, a partir dos dados inseridos, a sua adaptação ao ambiente em que foi inserida, podendo, em alguns casos, tomar partido de forma autônoma, conforme já dito alhures. Magrani, Silva e Viola (2019, p. 120) explicam que: Cientistas de diversas áreas se preocupam e ponderam que conferir essa capacidade de “pensamento” autônomo às máquinas necessariamente pode lhes conferir a capacidade de agir de forma contrária às regras que lhes são dadas. Por isso a importância de se levar em consideração e investigar as esferas de controle e influência dos designers e outros agentes durante a criação e o desenvolvimento funcional dos artefatos técnicos. 510 Dessa forma, é crível pensar que aos engenheiros é dada a responsabilidade de pensar nos valores que entrarão no design dos artefatos, na sua função e no seu manual de uso, pois um software projetado de forma sensível aos valores constitucionalmente previstos e garantidos poderia ser considerado como um artefato responsável (MAGRANI; SILVA; VIOLA, 2019). Visto isso, tem-se que a habilidade da IA de acumular experiências e aprender com base em processamento e a capacidade de tomar decisões de forma cada vez mais independente, podem ser consideradas pré-condições para a responsabilidade por danos (MAGRANI; SILVA; VIOLA, 2019). Parte da doutrina acredita que a pessoa natural ou a entidade que tenha criado o programa da inteligência artificial deve ser o responsável pelos danos eventualmente causados. Isso ocorre porque, atualmente, a IA não é reconhecida como um sujeito de direitos, logo não pode ser considerada individualmente responsável pelos danos que causar (MAGRANI; SILVA; VIOLA, 2019). Consequentemente, essa perspectiva defende que a responsabilidade pelos atos de uma IA pode recair sobre os usuários ou programadores responsáveis pela sua atualização. Por analogia, seria a mesma responsabilidade atribuída aos pais pelas ações de seus filhos quando incapazes, ou a responsabilidade de donos de animais quando estes geram danos. Pires (2018) informa que o risco do desenvolvimento pode ser uma possibilidade de afastar a responsabilidade do fabricante ou proprietário de tecnologias dotadas de IA. Essa tese aduz que determinado produto dotado de inteligência artificial ao ser colocado no mercado não apresentou nenhum defeito cognoscível de imediato, no entanto, posteriormente, após determinado período da sua circulação no mercado de consumo, venha se detectar defeito, ante a evolução dos meios técnicos e científicos, capaz de gerar danos aos consumidores. Ou seja, nesse caso a falha no produto adveio de avanço nos estudos e testes realizados. Por esse motivo, há quem entenda que, nesse caso, a responsabilidade do fornecedor deveria ser excluída como medida para se garantir o desenvolvimento tecnológico nesta seara. A ideia é a de que o dano ocorreria por ausência de 511 conhecimento técnico diante do presente estado da IA e não por falha nos deveres de segurança ou diligência. Em contrapartida, se aplicada essa teoria, o consumidor teria de arcar com a incerteza da tecnologia adquirida, assumindo integralmente os danos que viesse a sofrer decorrentes do uso normal da IA. Por fim, outra hipótese de responsabilização defendida pelos doutrinadores é a aplicação da teoria norte americana, Deep-Pocket, na qual: (...) toda pessoa envolvida em atividades que apresentem riscos, mas que ao mesmo tempo são lucrativas e úteis para a sociedade, deve compensar os danos causados pelo lucro obtido. Seja o criador da inteligência artificial, o fabricante de produtos que empregam inteligência artificial, empresa ou profissional que não está na cadeia produtiva da inteligência artificial, mas que a utiliza em sua atividade (como transportadora que utiliza carros autônomos) – isto, , aquele que tem “bolso profundo” e usufrui dos lucros advindos dessa nova tecnologia – deve ser garante dos riscos inerentes às suas atividades, sendo exigível, inclusive, que se faça um seguro obrigatório de danos (PIRES, 2018, p.251). Essa teoria é extremamente extensiva e acaba responsabilizando todos aqueles envolvidos no desenvolvimento da IA. 3.2 Inteligência Artificial equiparada a produto George S. Cole (1990) informa que há quatro modelos de responsabilidade civil, quais sejam: por produto, por serviço, imperícia e negligência. Para aplicar a responsabilidade por produto ele afirma que a IA deve ser considerada um produto defeituoso que originou o dano e que o réu deve ser um vendedor da IA. Tratar as máquinas dotadas de inteligência artificial como um mero produto para fins de responsabilidade no ordenamento jurídico brasileiro não será tão simples. Isso porque caso uma televisão, por exemplo, pegue fogo ao ser ligada na tomada o fornecedor do produto ou serviço, ou qualquer ato da cadeia de consumo do produto defeituoso é responsável pelo dano causado à pessoa do consumidor ou à sua propriedade. No entanto, não é razoável pensar, diante do aumento 512 crescente dos níveis de autonomia e aprendizado de máquina, que a estrutura da responsabilidade dos produtos tradicionais deve ser aplicada à nova geração de ferramentas de tomada de decisão. O sistema consumerista exige para a caracterização de um acidente de consumo a existência de um defeito, mas não é crível pensar que a tomada de decisão da IA possa ser equiparada a um defeito de concepção imputável ao fornecedor (MAGRANI; SILVA; VIOLA, 2019). Nesse tópico é importante destacar que há uma linha tênue na separação do tratamento de uma IA como produto ou como algo que tem capacidades próximas ao ser humano (MAGRANI; SILVA; VIOLA, 2019). Karni Chagal (apud MAGRANI; SILVA; VIOLA, 2019) afirma que para definir se a IA tem aptidões próximas a do ser humano se faz necessário avaliar os níveis de sua autonomia. Isto posto, a autora estipula que a mensuração dessa autosuficiência deve ser analisada a partir de quatro estágios diferentes baseado no ciclo OODA (Observe-orient-decide-act) que visa as ações de observar, orientar, decidir e agir. Para Chagal, quanto mais as características do sistema se assemelham aos produtos tradicionais, maior a probabilidade de serem encaixadas na lógica da responsabilidade consumerista. Caso contrário, serão classificados como algoritmos de pensamento e precisarão de um tratamento diferenciado. Nesse sentido, os autores afirmam que: É preciso considerar que quanto mais estágios de OOODA um sistema é capaz de operar, maior é a imprevisibilidade do fabricante sobre as decisões tomadas pela inteligência artificial. No caso de um smart contract(contrato inteligente por exemplo, a execução do contrato ocorre de maneira automática, mas cada decisão tomada depende de uma determinação humana prévia. Já no caso do robô doutor (corresponde ao último estágio de autonomia pensado por Karni Chagal em que os algoritmos de raciocínio são capazes de substituir o ser humano em atividades altamente complexas), cabe à máquina decidir até que ponto deve considerar o histórico médico do paciente e quanto mais independente da ação humana está decisões forem, mais distantes estará a responsabilidade humana (MAGRANI; SILVA; VIOLA, 2019, p. 136). 513 Ocorre que a tecnologia ainda não atingiu o estágio de desenvolvimento de uma IA altamente complexa, dotada de aptidões humanas, essa é uma etapa ainda em desenvolvimento. No entanto, há máquinas dotadas de inteligência artificial com programações mais simplórias que podem ter a sua responsabilidade atribuída ao fabricante, seguindo a lógica consumerista. Mas, a partir do momento que a IA atingir um nível de independência com relação aos humanos, preenchendo os quatro estágios da OODA, surge a necessidade de atribuir direitos e possivelmente uma personalidade jurídica a essas máquinas com nível de autonomia elevado, além da possibilidade de criação de um seguro para casos de acidentes e danos envolvendo essas máquinas (MAGRANI; SILVA; VIOLA, 2019). CONSIDERAÇÕES FINAIS Inteligência artificial e Direito consistem em produto tipicamente do século XX e XXI, não simplesmente em função dos avanços tecnológicos que tornaram possível falar em IA, mas também em razão do câmbio de paradigma na forma de encarar a integração interdisciplinar das ciências como um novo modelo teórico para responder a problemas que não são mais setorizados. O trabalho demonstrou que o crescente avanço tecnológico abre a possibilidade para a criação de artefatos mais racionalmente inteligentes que os humanos, o que poderá ser determinante para uma ruptura de paradigma. E é por esse motivo que diversos estudos estão sendo realizados nesse campo, com foco nos temas da ética, responsabilidade civil e personalidade eletrônica da IA, de modo a garantir os princípios basilares do Direito. Conclui-se que no campo da ética está sendo desenvolvido o data ethics, que tem o intuito de estabelecer um padrão de comportamento adequado, sem afetar a moralidade já imposta pela sociedade. Quanto à possibilidade de criação de uma personalidade eletrônica da IA, alguns doutrinadores acreditam que esta pode ser uma alternativa na prevenção de 514 possíveis danos. O parlamento europeu, por exemplo, ao instituir essa possibilidade sugeriu a criação de seguros similares a aqueles utilizados pelos seguros de automóveis. No entanto, parte da doutrina defende ser inviável atribuir personalidade a IA, já que ela é uma criação humana, programada para agir de determinada forma e por esse motivo todos os possíveis danos gerados por ela seria de responsabilidade do próprio homem. Este é um assunto complexo que deve ser analisado com muita cautela, já que envolve conceitos essenciais e basilares do direito como o de sujeito de direitos, pessoa e personalidade. Apesar de se enquadrar em uma possível solução, o assunto deve ser tratado de forma detalhada para evitar brechas que possam prejudicar o ser humano. Na responsabilidade civil há diversas teorias que tentam regular os possíveis danos causados, como a equiparação da IA a um produto e a responsabilidade de terceiros, no caso, seus criadores e desenvolvedores. Em relação a este tema, Magrani, Silva e Viola (2019) apresentaram a solução mais objetiva e eficaz ao utilizar a classificação do sistema OODA, de modo que, caso a IA seja simplória deve-se aplicar a lógica consumerista, mas, caso seja uma IA avançada retorna-se à possibilidade de lhe atribuir personalidade eletrônica. Ocorre que essas regulamentações ainda estão em elaboração, pois há necessidade de criação de programas seguros e transparentes com uma visão centrada nos humanos. Pois é extremamente complexo criar sistemas que considerem todas as diversidades de segmentos e representações humanas (incluindo gênero, raça e etnia, orientação sexual e classe, entre outros). No momento, a inteligência artificial ainda não atingiu um nível tecnológico no qual seja possível dispensar o auxílio do homem, logo, o que deve prevalecer é a coexistência entre os humanos e as máquinas (corrobótica). É importante ressaltar que ainda que a IA atinja um nível tecnológico extremamente avançado, as decisões humanas devem continuar existindo, justamente para que a máquinas tenham fontes fidedignas que possam auxiliá-las 515 em suas atualizações, ajustando parâmetros e, inclusive, adaptar-se às mudanças sociais, já que a linguagem ordinária e as percepções sobre o fenômeno jurídico são características que carecem à IA. O que resta, portanto, é regular o uso dessa nova tecnologia para resguardar a dignidade da pessoa humana, de modo a garantir os direitos que são inerentes ao homem. REFERÊNCIAS ASIMOV, Isaac. As três leis da robótica. Porto Alegre: L&PM, 2007. BARBOSA, Mafalda Miranda. Inteligência artificial, e-persons e direito: desafios e perspectivas. Revista Jurídica Luso-Brasileira, v. 3, n. 6, 2017. Disponível em: http://www.cidp.pt/revistas/rjlb/2017/6/2017_06_1475_1503.pdf. Acesso em: 18 jul. 2021. BOEING, Daniel Henrique Arruda; ROSA, Alexandre Morais da. Ensinando um robô a julgar. Florianópolis: Emais, 2020. BRASIL. Código Civil. Lei n° 10406, de 10 de janeiro de 2002. CAR ALHO, Andr Carlos Ponce de Leon Ferreira de et al. Inteligência Artificial: uma abordagem de aprendizado de máquina. Rio de Janeiro: Grupo Editorial Nacional, 2011. CARVALHO FILHO, José dos Santos. Manual de Direito Administrativo. Rio de Janeiro: Lumen Juris, 2020. CASTRO JÚNIOR, Marco Aurélio de. Personalidade Jurídica do Robô e sua efetividade no Direito. 2009. 222 f. Tese (Doutorado) - Curso de Direito, Universidade Federal da Bahia, Salvador, 2009. Disponível em: https://repositorio.ufba.br/ri/handle/ri/10719. Acesso em: 18 jul. 2021. 516 COLE, George S. Tort Liability For Artificial Intelligence And Expert Systems. Computer/Law Journal, v. 10, n. 2, 1990. Disponível em: https://repository.law.uic.edu/cgi/viewcontent.cgi?article=1416&context=jitpl. Acesso em: 10 jul. 2021. FLORIDI, Luciano; TADDEO, Mariarosaria. Introduction: What is data ethics? Phil. Trans. R. Soc., v. 374, n. 2083, 2016. Disponível em: https://royalsocietypublishing.org/doi/10.1098/rsta.2016.0360. Acesso em: 10 jul. 2021. GUTIERREZ, Andriei. É possível confiar em um sistema de inteligência artificial?: práticas em torno da melhoria da sua confiança, segurança e evidências de accountability. In: FRAZÃO, Ana; MULHOLLAND, Caitlin (coord.). Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Revista dos Tribunais, 2019. p. 83-97 HARARI, Y. N. Homo Deus: uma breve história do amanhã. São Paulo: Companhia das Letras, 2016. KAUFMAN, Dora. Inteligência Artificial: Questões éticas a serem enfrentadas. Abciber, São Paulo, v. 9, n. 8, p. 1-16, dez. 2016. Disponível em: https://abciber.org.br/anaiseletronicos/wpcontent/uploads/2016/trabalhos/inteligencia_artificial_questoes_eticas_a_serem_enfr entadas_dora_kaufman.pdf. Acesso em: 10 jul. 2021. KELSEN, Hans. Teoria pura do direito. 6. ed. São Paulo: Martins Fontes, 1998. LEHMAN-WILZIG, Sam N.. Frankenstein unbound. Futures, [S.L.], v. 13, n. 6, p. 442-457, dez. 1981. Disponível em: https://www.researchgate.net/publication/278394289_Frankenstein_unbound. Acesso em: 10 jul. 2021. MAGRANI, Eduardo; SILVA, Priscilla; VIOLA, Rafael. Novas perspectivas sobre ética e responsabilidade de inteligência artificial Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Revista dos Tribunais, 2019. p.115-145. 517 MELLO, Marcos Bernardes de. Teoria do fato jurídico: plano da eficácia, 1ª parte. 8. ed. São Paulo: Saraiva, 2013. p. 142 PARLAMENTO EUROPEU. Projeto de Relatório que contém recomendações à Comissão sobre disposições de Direito Civil sobre Robótica. Comissão dos assuntos jurídicos. Disponível em: https://www.europarl.europa.eu/doceo/document/A-8-2017-0005_PT.html. Acesso em: 18 jul. 2021. PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A RESPONSABILIDADE CIVIL PELOS ATOS AUTÔNOMOS DA INTELIGÊNCIA ARTIFICIAL: notas iniciais sobre a resolução do parlamento europeu. Revista Brasileira de Políticas Públicas, Brasília, v. 7, n. 3, p. 238-254, 2018. RAMOS, Nuno André Novo. Responsabilidade civil em dano causado por mecanismo dotado de inteligência artificial. 2020. 100 f. Tese (Mestrado) Curso de Direito, Universidade Lusíada, Lisboa, 2019. RUSSEL, S.J.; NORVIG, P. Artificial Intelligence: A Modern Approach. New Jersey: Prentice Hall, 2009. SETA, Paduan. O que é o Guia Ético de Inteligência Artificial, lançado pela Comissão Europeia? 2019. Disponível em: https://paduanseta.jusbrasil.com.br/artigos/712829184/o-que-e-o-guia-etico-deinteligencia-artificial-lancado-pela-comissao-europeia. Acesso em: 18 jul. 2021. SILVA, Gabriela Buarque Pereira; EHRHARDT JÚNIOR, Marcos. Pessoa e sujeito de direito: reflexões sobre a proposta europeia de personalidade jurídica eletrônica. Revista Brasileira de Direito Civil, [S.L.], v. 23, n. 01, p. 57-79, mar. 2020. Disponível em: https://rbdcivil.ibdcivil.org.br/rbdc/article/view/477/345. Acesso em: 10 jul. 2021. SKALFIST, P. et al. Inteligência Artificial: a quarta revolução industrial. Tradução de C.S.B Equipment. [Cambridge]: Cambridge Stanford Books, 2019. 518 STEIBEL, Fabro; VICENTE, Victor; JESUS, Diego. Possibilidades e potenciais da utilização da Inteligência Artificial. Inteligência artificial e direito: ética, regulação e responsabilidade. São Paulo: Revista dos Tribunais, 2019. p. 53-64. TARTUCE, Flávio. Direito Civil. Obrigações e responsabilidade civil. São Paulo: Método, 2016. TOMASEVICIUS FILHO, Eduardo. Inteligência artificial e direitos da personalidade: uma contradição em termos? Revista da Faculdade de Direito da Universidade de São Paulo, v. 113, p. 133-149, jan./dez. 2018. Disponível em: https://www.revistas.usp.br/rfdusp/article/view/156553. Acesso em: 10 jul. 2021. XAVIER, Luciana Pedroso; SPALER, Mayara Guibor. Patrimônio de Afetação: uma possível solução para os danos causados por sistemas de inteligência artificial. Inteligência Artificial e Direito, São Paulo, v. 2, n.?, p. 541-560, jun. 2019. Disponível em: https://thomsonreuters.jusbrasil.com.br/doutrina/secao/1196969668/ patrimonio-de-afetacao-uma-possivel-solucao-para-os-danos-causados-porsistemas-de-inteligencia-artificial-inteligencia-artificial-e-direito-ed-2020. Acesso em: 10 jul. 2021. Recebido em 01/05/2021 Publicado em 03/09/2021 519