Renato Leite Monteiro: Tese de Doutorado Orientador: Professor Dr. Rafael Mafei Rabelo Queiroz
Renato Leite Monteiro: Tese de Doutorado Orientador: Professor Dr. Rafael Mafei Rabelo Queiroz
Renato Leite Monteiro: Tese de Doutorado Orientador: Professor Dr. Rafael Mafei Rabelo Queiroz
Tese de Doutorado
Orientador: Professor Dr. Rafael Mafei Rabelo Queiroz
Aprovado em:
BANCA EXAMINADORA
Sendo bem franco, a seção de agradecimentos foi uma das partes mais
difíceis de ser escrita desta tese. A dificuldade é oriunda, justamente, da
multiplicidade de pessoas que fizeram parte da minha vida e que a levaram até
esse momento. Como se você fosse um produto de todas elas, e não somente por
aquelas que dela fizeram parte durante o árduo período do doutoramento. Da
mesma forma que somente é possível entender como chegamos até aqui quando
paramos para olhar para trás e começamos a ligar os pontos das pessoas, lugares
e experiências que nos formaram, que moldaram nosso senso crítico e nos fizeram
quem somos. Por isso é tão difícil escrever agradecimentos. É fácil agradecer por
atitudes pontuais, mas não por conjuntos de experiências, conhecimento
acumulado e formação de personalidade, elementos que têm uma contribuição
direta à forma como a presente pesquisa foi desenvolvida. Mas sim, há atores e
atrizes que têm uma contribuição maior e específica e que merecem
agradecimentos individualizados.
Ao meu porto seguro, minha família. Meus pais, irmãs, sobrinhos, tios e tias,
primos, primas, avôs e avós. Somente me foi possível realizar minhas andanças
mundo afora por saber que sempre teria um lugar seguro para voltar. Sempre havia
uma rede de suporte na qual eu poderia me segurar. Um especial agradecimento
às mulheres dessa família, que são uma fonte inesgotável de admiração e respeito.
Sua resiliência deveria servir de inspiração para toda uma geração de homens e
mulheres que por vezes se encontram inseguros e na ausência de figuras fortes e
íntegras a quem se espelharem. Vocês são exemplos a serem seguidos por nossos
filhos, sobrinhos e netos ainda por vir.
Ao Data Privacy Brasil, instituição que surgiu dos devaneios de dois amigos
que achavam que podiam contribuir para a educação, capacitação, pesquisa e para
o desenvolvimento de uma cultura brasileira de privacidade e proteção de dados, e
se tornou um dos principais centros de referência sobre o tema no Brasil e no
mundo. Todos os dias aprendo com seus colaboradores incríveis, dedicados,
brilhantes e humildes. Os frutos dessa dedicação já são colhidos país afora, seja
na formação de toda uma nova geração de profissionais e pesquisadores na área
de proteção de dados, seja na árdua e contínua luta contra práticas abusivas,
desiguais e desproporcionais que podem impactar direitos fundamentais de
milhares de pessoas. Acredito que vocês ainda não têm noção do impacto e da
diferença que fazem na vida dessas pessoas. Por isso, e por muito mais, agradeço
de forma imensurável.
Por último, não poderia deixar de agradecer ao Twitter e ao nosso time global
de Proteção de Dados. Vocês surgiram num plot twist da minha vida que nem
mesmo o mais kafkiano dos roteiristas poderia prever e me permitiram ver a
proteção de dados na prática de uma forma que nem mesmo os melhores livros
conseguiriam descrever. A compreensão de todos vocês para que eu pudesse ao
mesmo tempo me dedicar ao trabalho, ao Data Privacy Brasil e ao desenvolvimento
desta tese permitiram a sua finalização. Vocês fazem a diferença em um mundo
que diariamente nos testa, por vezes nos decepciona, mas que ressurge
frequentemente melhor e mais forte.
Sei que provavelmente deixei muitas pessoas de fora, mas todos e todas
estão comigo e estão em cada linha desta tese. Ela é o resultado de cada palavra,
experiência e momento que vocês proporcionaram. Serei eternamente grato a
todos vocês.
RESUMO
Decisões automatizadas cada vez mais controlam nossas vidas, gerenciadas por
algoritmos, cujos resultados podem ter um impacto significativo sobre os cidadãos.
Todavia, a maior presença dessas decisões no cotidiano é acompanhada de pouca
transparência com relação ao seu funcionamento – o que torna mais complexa a
identificação de práticas abusivas, discriminatórias ou, ainda, monopolísticas, que
podem causar impactos nos planos individual e coletivo. Para mitigar tais efeitos,
legislações nacionais e internacionais de proteção de dados tentam assegurar os
direitos à transparência, à explicação e ao não estar sujeito a decisões
automatizadas. A presente pesquisa realizou uma análise dos aspectos jurídicos
da proteção de dados pessoais no Brasil e analisou, mais especificamente, a
existência de um direito à explicação no contexto de decisões automatizadas, assim
como os desafios acerca da sua implementação e execução. A principal hipótese
desta pesquisa é que existe um direito à explicação no contexto de decisões
automatizadas orientadas por algoritmos. Todavia, ainda é incerto como, na prática,
instrumentalizar tal direito, levando em consideração: (i) a complexidade de
sistemas algorítmicos, quase que opacos por natureza, principalmente nos que se
valem de aprendizado de máquina para tomar suas decisões; (ii) os limites
impostos pela própria legislação, como segredo de negócio e propriedade
intelectual; e (iii) limitações cognitivas podem dificultar a compreensão de
informações fornecidas. O objetivo deste trabalho é propor e colaborar com o
desenvolvimento de elementos, instrumentos e critérios sob um viés técnico-
jurídico que possam colaborar para explicações efetivas e úteis que permitam coibir
práticas discriminatórias, abusivas e desproporcionais, nos planos individual e
coletivo.
Des décisions automatisées contrôlent de plus en plus nos vies. Gérées par les
algorithmes, elles peuvent avoir une influence significative sur les citoyens.
Pourtant, la majeure partie de ces décisions dans le quotidien manquent de
transparence par rapport à son fonctionnement - ce qui rend plus complexe
l’identification de pratiques abusives, discriminatoires ou, encore, monopolistique,
ce qui peut causer des impacts tant au niveau individuel que collectif. Afin d’atténuer
ces effets, des législations nationales et internationales de protection des données
essayent d’assurer les droits à la transparence, à l'explication et au non-
assujettissement des décisions automatisées. Cette étude a effectué une analyse
des aspects juridiques de la protection des données personnelles au Brésil et a
analysé plus particulièrement l'existence d’un droit à l’explication en ce qui concerne
les décisions automatisées, ainsi que les défis posés par son implémentation et son
exécution. L’hypothèse principale de cette recherche, c’est qu’il existe en effet un
droit à l'explication lors des décisions automatisées orientées par des algorithmes.
Il n’est cependant pas encore évident comment l’instrumentaliser, lorsqu'on
considère : (i) la complexité des systèmes algorithmiques, presque opaques par
nature, surtout ceux qui s'appuient sur l'apprentissage automatique pour prendre
leurs décisions ; (ii) les limites imposées par la législation elle-même, comme les
secrets d’affaire et la propriété intellectuelle ; (iii) des fonctions cognitives limitées
qui peuvent faire obstacle à la compréhension des informations fournies. Par le
moyen d’une perspective technique et juridique, le but de cette étude est donc de
proposer des suggestions et de collaborer avec le développement d’éléments,
d’instruments et de critères qui puissent faciliter des explications efficaces et utiles
contre les pratiques discriminatoires, abusives et disproportionnées tant au niveau
individuel que collectif.
INTRODUÇÃO ......................................................................................... 11
1 PROBLEMA, HIPÓTESE, LACUNA E ORIGINALIDADE ....................... 18
1.1 ENUNCIAÇÃO DE PRESSUPOSTOS ..................................................... 19
1.1.1 O que são "dados pessoais"? Uma visão consequencialista e a
necessidade de um novo conceito ....................................................... 19
1.1.2 O que são “algoritmos”? Muito além da receita de bolo .................... 26
1.1.3 O que é “decidir”? Afinal, quem decide, a máquina ou o homem? ... 30
1.2 RECORTE METODOLÓGICO ................................................................. 34
1.3 SÍNTESE DO CAPÍTULO ......................................................................... 38
2 COMO É POSSÍVEL AFIRMAR A EXISTÊNCIA DE UM DIREITO À
EXPLICAÇÃO? ........................................................................................ 40
2.1 O QUE É O DIREITO À EXPLICAÇÃO? .................................................. 43
2.1.1 O que são decisões automatizadas? .................................................... 57
2.1.2 O que é uma explicação no contexto das decisões automatizadas? 61
2.2 COMO FUNDAMENTAR A EXISTÊNCIA DE UM DIREITO À
EXPLICAÇÃO? ........................................................................................ 74
2.2.1 O direito à explicação como direito moral de qualquer ser humano . 79
2.2.1.1 A identidade e a personalidade no mundo digital ..................................... 80
2.2.1.2 Direito à autodeterminação informacional como uma necessidade para
se garantir autonomia dentro de um paradigma técnico novo .................. 83
2.2.1.3 Direito à explicação como decorrência do direito à autodeterminação
informativa: colocando em perspectiva o regime de direito privado e a
jurisprudência constitucional brasileira ..................................................... 86
2.2.2 Direito à explicação como garantia de decisões mais justas e
adequadas ............................................................................................... 92
2.2.3 Direito à explicação como corolário do devido processo
informacional ........................................................................................ 101
2.3 SÍNTESE DO CAPÍTULO ....................................................................... 108
3 ELEMENTOS REGULATÓRIOS PARA O RECONHECIMENTO DO
DIREITO À EXPLICAÇÃO NO CONTEXTO DE DECISÕES
AUTOMATIZADAS ................................................................................ 110
3.1 CENÁRIO REGULATÓRIO INTERNACIONAL ...................................... 110
3.1.1 Estados Unidos .................................................................................... 111
3.1.2 União Europeia ..................................................................................... 124
3.1.2.1 GDPR..................... ................................................................................ 130
3.1.2.2 Autoridades de proteção de dados ......................................................... 144
3.1.2.3 As interpretações dos tribunais .............................................................. 149
3.2 CENÁRIO NACIONAL ............................................................................ 156
3.2.1 As regulações setoriais nacionais ...................................................... 157
3.2.2 A regulamentação específica da LGPD .............................................. 169
3.2.2.1 O regime jurídico da LGPD aplicável às decisões automatizadas ......... 170
3.2.2.2 Decisões automatizadas e direito à explicação na LGPD: o debate
brasileiro ................................................................................................. 175
3.2.2.3 O regime jurídico aplicável às decisões automatizadas: colocando em
perspectiva LGPD e GDPR .................................................................... 186
3.3 SÍNTESE DO CAPÍTULO ....................................................................... 195
4 LIMITES TEÓRICOS E PRÁTICOS PARA A EFETIVAÇÃO DO
DIREITO À EXPLICAÇÃO ..................................................................... 195
4.1 DESAFIOS LEGISLATIVOS: O MANTO DO SEGREDO DE NEGÓCIO
E A LIMITAÇÃO DO CONCEITO DE DADOS PESSOAIS ................... 198
4.1.1 O algoritmo como um segredo e uma estratégia comercial ............. 199
4.1.2 Limitações do conceito de dados pessoais ....................................... 206
4.2 DESAFIOS COGNITIVOS: LIMITAÇÕES HUMANAS À
COMPREENSÃO DE SISTEMAS COMPLEXOS .................................. 210
4.2.1 A complexidade de sistemas algorítmicos ........................................ 211
4.2.1.1 Opacidade inerente aos modelos complexos ......................................... 213
4.2.1.2 IA, ML e interpretabilidade...................................................................... 216
4.2.1.3 Explicando modelos complexos de Inteligência Artificial ........................ 219
4.2.2 Limitações associadas à capacidade de compreensão do titular
de dados pessoais ............................................................................... 225
4.3 DESAFIOS INSTITUCIONAIS ................................................................ 231
4.3.1 Entidades supervisoras ....................................................................... 232
4.3.2 ANPD: perspectivas e desafios ........................................................... 250
4.3.3 Tribunais e outras instâncias administrativas ................................... 256
4.4 SÍNTESE DO CAPÍTULO ....................................................................... 267
5 A GARANTIA E A IMPLEMENTAÇÃO DO DIREITO À EXPLICAÇÃO
NO ORDENAMENTO JURÍDICO BRASILEIRO NO CONTEXTO DE
DECISÕES AUTOMATIZADAS ............................................................. 268
5.1 IMPLEMENTAÇÃO A PARTIR DO DIREITO VIGENTE ........................ 268
5.1.1 Os Agentes de tratamento ................................................................... 270
5.1.2 Os direitos morais dos titulares de dados e obrigações de
transparência: acesso, explicação e revisão ..................................... 275
5.1.3 Accountability e responsabilidade demonstrável ............................. 280
5.1.4 Relatórios de impacto .......................................................................... 287
5.1.5 Os desenvolvedores: explainability by design .................................. 296
5.1.6 Auditoria ................................................................................................ 307
5.2 ORIENTAÇÕES PRÁTICAS PARA A GARANTIA DO DIREITO À
EXPLICAÇÃO: PROPOSTA DE UM FRAMEWORK DE
EXPLICABILIDADE A PARTIR DA CLÁUSULA GERAL DO DEVIDO
PROCESSO INFORMACIONAL ............................................................ 313
5.2.1 Diretrizes e pressupostos balizadores do framework de
explicabilidade proposto ..................................................................... 314
5.2.1.1 Uma caixa de ferramentas para a garantia do direito à explicação ........ 314
5.2.1.2 Por uma abordagem contextual: risco e opacidade do sistema como
variáveis norteadoras de um modelo de explicabilidade ........................ 315
5.2.1.3 Instrumentalização do direito à explicação a partir de uma abordagem
centrada no destinatário da explicação .................................................. 328
5.2.2 Proposta de um framework de explicabilidade a partir da
cláusula geral do devido processo informacional ............................ 337
5.3 SÍNTESE DO CAPÍTULO ....................................................................... 352
CONCLUSÃO ........................................................................................ 355
REFERÊNCIAS BIBLIOGRÁFICAS ...................................................... 358
11
INTRODUÇÃO
Nossas vidas são controladas por algoritmos. Eles estão presentes na definição
da melhor rota para fugir do trânsito1, na seleção de candidatos para vagas de
trabalho2, na determinação de penas de condenados por crimes3, podem influenciar
pleitos eleitorais4 e na formulação de políticas públicas5. Todavia, uma grande parte
desses algoritmos padece de uma grave opacidade, uma falta de transparência. Essa
opacidade impede que as pessoas, e a sociedade, entendam e verifiquem se seus
dados pessoais são tratados de forma legítima, adequada e proporcional 6, além da
verificação se há aspectos discriminatórios ou que possam impactar
desproporcionalmente direitos e liberdades fundamentais. Mitigar tal opacidade por
meio de obrigações de transparência é um dos objetivos de leis que versam sobre o
tratamento adequado de dados pessoais.
1 BOEGLIN, Jack. The Costs of Self-Driving Cars: Reconciling Freedom and Privacy with Tort Liability
in Autonomous Vehicle Regulation. p. 35, 2015.
2 PURAM, K.; SADAGOPAL, G. US Patent 6,289,340 (2001). Consultant matching system and method
for selecting candidates from a candidate pool by adjusting skill values. Disponível em: https://patents.
google.com/patent/US6289340B1/en. Acesso em: 02 jul. 2021.
3 ANGWIN, J. et al. (2016). “Machine Bias”. ProPublica. Disponível em: https://www.propublica.org/
article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 02 jul 2021.
4 INFORMATION COMMISSIONER’S OFFICE (2018). “Democracy disrupted? Personal information
and political influence”. ICO. Disponível em: https://ico.org.uk/media/2259369/democracydisrupted-
110718.pdf. Acesso em: 02 jul. 2021.
5 NEMITZ, Paul. Constitutional Democracy and Technology in the Age of Artificial Intelligence. SSRN
Scholarly Paper, no ID 3234336. Rochester, NY: Social Science Research Network, 18 ago. 2018.
Disponível em: https://papers.ssrn.com/abstract=3234336. Acesso em: 02 jul. 2021.
6 BRUNDAGE, Miles et al. The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and
Mitigation. arXiv:1802.07228 [cs], arXiv: 1802.07228, 20 fev. 2018. Disponível em:
http://arxiv.org/abs/1802.07228. Acesso em: 27 maio 2019.
7 WATCHER, Sandra. Show Me Your Data and I’ll Tell You Who You Are. Oxford Internet Institute
London Lecture. 2018. Disponível em: https://www.oii.ox.ac.uk/videos/oii-london-lecture-show-me-
your-data-and-ill-tell-you-who-you-are/. Acesso em: 02 jul. 2021.
12
8 “A proteção de dados pode ser vista como a soma de um conjunto de direitos que configuram a
cidadania do novo milênio”. Cf.: RODATÀ, Stefano. A vida na sociedade da vigilância. tradução: Danilo
Doneda e Luciana Cabral Doneda. Rio de Janeiro: Renovar, 2008, p. 17.
9 O'NEIL, C. (2016). Weapons of math destruction: How big data increases inequality and threatens
democracy. New York: Crown.
10 PASQUALE, F. (2016). The blackbox society: The secret algorithms that control money and
information. Cambridge: Harvard University Press.
11 WACHTER, S.; MITTELSTADT, B.; FLORIDI, L. (2017). “Why a right to explanation of automated
decision-making does not exist in the General Data Protection Regulation”. International Data Privacy
Law. Disponível em: https://ssrn.com/abstract=2903469. Acesso em: 02 jul. 2021.
12 SELBST, A. D.; POWLES, J. (2017). “Meaningful information and the right to explanation”.
International Data Privacy Law, vol. 7, nº 4, p. 233-242. Disponível em:
https://ssrn.com/abstract=3039125 Acesso em: 02 jul. 2021.
13 Op. cit.
14 MITTELSTADT, Brent; RUSSELL, Chris; WACHTER, Sandra. Explaining Explanations in AI.
Rochester, NY: Social Science Research Network, 2018. Disponível em: https://papers.ssrn.com/.
Acesso em: 02 jul. 2021.
13
Neste trabalho, a hipótese é que tal direito, no contexto da LGPD, existe, numa
proporção até maior do que na GDPR, devido à forma como o princípio da
transparência, obrigações de informação e o próprio conceito de dado pessoal foram
adotados pela legislação geral nacional. Todavia, a sua implementação prática
encontra diversos obstáculos, como os limites estabelecidos por regras de segredo
de negócio e propriedade intelectual, em paralelo à complexidade cada vez maior dos
algoritmos e sua opacidade quase que natural.18 Essa dificuldade de implementação
pode dificultar a garantia de exercício de outros direitos individuais e coletivos,
exacerbar a assimetria de informação e por consequência a assimetria de poder, além
de complexificar a demonstração de eventual responsabilidade por práticas
inadequadas e abusivas no tratamento de dados pessoais.
Data & Society. Disponível em: http://ssrn.com/abstract=2660674. Acesso em: 02 jul. 2021.
14
deste trabalho.
A partir dessa análise dos textos legais, é possível compreender seu escopo e
incidência, bem como as limitações que a aplicação desse direito pode encontrar na
prática. Essas limitações serão aprofundadas no capítulo quatro. O debate em torno
da transparência algorítmica apresenta três elementos como os principais desafios. O
primeiro deles são as limitações legislativas em torno do segredo de negócios e do
conceito de dados pessoais.
21 ALHADEFF, J.; VAN ALSENOY, B.; DUMORTIER, J. The Accountability Principle in Data Protection
Regulation: Origin, Development and Future Directions. In: GUAGNIN, D. et al. (org.). Managing Privacy
through Accountability. London: Palgrave Macmillan UK, 2012. p. 49–82. Disponível em:
https://doi.org/10.1057/9781137032225_4. Acesso em: 16 dez. 2020.
17
deve estar contida nas medidas necessárias desde a previsão de privacy by design
presente no GDPR e na LGPD.
Theses and Dissertations23 por meio das palavras chaves “right to explanation”,
apenas duas teses foram encontradas, uma da Universidade de Tilburg24, na Holanda,
e uma na Universidade de Helsinki25, na Finlândia.
A principal lacuna na compreensão do problema diz respeito à implementação
prática desse direito. Ainda é incerto como, na prática, instrumentalizar tal direito,
levando em consideração: (i) os limites impostos pela própria legislação, como
segredo de negócio e propriedade intelectual; (ii) limitações cognitivas para a
compreensão da tecnologias computacionais por não especialistas, e em alguns
casos, até mesmo para especialistas da área, como é o caso de algumas aplicações
de inteligência artificial; e, por fim, (iii) as limitações institucionais das entidades
responsáveis pela supervisão de tais sistemas, que não dispõem de instrumental
técnico-jurídico para enforcement desse direito.
Nesse sentido, a originalidade deste trabalho consiste na investigação desse
problema de forma mais detalhada, na apresentação dos desafios para a sua
implementação em face das limitações legais e técnicas impostas pela legislação e
pelos algoritmos e na proposição de formas de instrumentalização desse direito.
Trade Secret Rights in Automated Decision-making. 2017. Dissertation (Masters Thesis in Law) –
Faculty of Law, University of Helsinki, Helsinki, 2017. Disponível em:
http://hdl.handle.net/10138/231948. Acesso em: 20 jun. 2021.
25 JANSSEN, J. H. N. The right to explanation: means for ‘white-boxing’ the black-box?: research into
the ability of the 'right to explanation' about decisions based solely on automated decision-making of
Articles 13(2)(f), 14(2)(g), 15(1)(h) and 22(3) of the General Data Protection Regulation, as well as of
current explanation methods, to solve the legal problems arising from algorithmic decision-making.
Dissertação (Masters Thesis in Law and Technology) — Universiteit van Tilburg, Tilburg, 2019.
Disponível em: https://tilburguniversity.on.worldcat.org/search?queryString=scr.uvt.nl:8107234. Acesso
em: 20 jun. 2021.
20
26 BIONI, B. Xeque-Mate: o tripé de proteção de dados pessoais no xadrez das iniciativas legislativas
no Brasil. GPOPAI/USP, [S. l.], 2015. Disponível em:
https://www.researchgate.net/publication/328266374_Xeque-
Mate_o_tripe_de_protecao_de_dados_pessoais_no_xadrez_das_iniciativas_legislativas_no_Brasil.
Acesso em: 27 ago. 2020. p. 17; e BIONI, B. R. Proteção de dados pessoais: a função e os limites do
consentimento. 2. ed. Rio de Janeiro: Forense, 2021. p. 59.
27 Idem. Proteção de dados pessoais: a função e os limites do consentimento. 2. ed. Rio de Janeiro:
Forense, 2021.
28 BIONI, B. R. Proteção de dados pessoais: a função e os limites do consentimento. 2. ed. Rio de
dado pessoal. Em resumo, podem ser entendidos como dados anonimizados aqueles
incapazes de revelar a identidade de uma pessoa após passarem por um processo
de quebra do vínculo entre o dado e o seu titular (processo de anonimização), que
pode empregar diferentes técnicas, variando entre supressão, generalização,
randomização e pseudoanonimização.30 Por muito tempo acreditou-se na ideia de que
seria possível uma completa e irreversível anonimização, entendimento que se
revelou equivocado, havendo vários estudos empíricos que o contestam,
evidenciando a natureza tecnologicamente imperfeita do processo de anonimização,
que pode ser revertido, por exemplo, por meio da combinação de diferentes bases de
dados ou de pequenos bits de informação.31 Neste sentido assinala Bioni:
36 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD).
Brasília, DF: Presidência da República, 14 ago. 2018. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015- 2018/2018/lei/L13709.htm. Acesso em: 07. nov. 2020.
24
o debate público promovido pelo Ministério da Justiça sobre o Anteprojeto de Lei de Proteção de Dados
Pessoais. São Paulo: InternetLab, 2016. p. 158.
42 Ibidem, p. 79.
43 Sobre a análise geracional das leis de proteção de dados pessoais, cf. nota de rodapé nº 69.
44 RAVICHANDRAN, D.; VASSILVITSKII, S. Evaluation of Cohort Algorithms for the FLoC API. [S. l.],
Nesta tese, portanto, partimos desse paradigma conceitual mais amplo, que dá
origem à expectativa de reconhecimento de um direito à explicação de escopo mais
alargado do que aquele possível no cenário europeu, que englobaria não apenas
decisões automatizadas baseadas no tratamento de dados pessoais, mas toda e
qualquer decisão automatizada que possa vir a impactar a esfera de direitos de um
titular ou um grupo, ainda que não baseada no tratamento de dados estritamente
pessoais.
45 TENE, Omer. Privacy: The new generations. International Data Privacy Law, v. 1, n. 1, p. 15-27, fev.
2011. Disponível em: https://academic.oup.com/idpl/article/1/1/15/759641. Acesso em; 21 jun. 2021.
46 BIONI, B. R. Proteção de dados pessoais: a função e os limites do consentimento. 2. ed. Rio de
também dada por Tarteton Gillespie48, para quem os algoritmos são um truque, são
um procedimento utilizado para tornar uma tarefa operacionalizada.
Vê-se como o termo pode abarcar as funções mais básicas de um computador,
como a função de calculadora, onde o usuário insere uma série de números, requisita
um conjunto de operações e recebe um resultado. De fato, essa e todas as funções
de um computador são operacionalizadas por meio de algoritmos que, como dito, são
a peça básica de qualquer programa de computador.
No entanto, o termo algoritmo é uma palavra que entrou na moda e está
presente diariamente nas mídias e nas conversas cotidianas. Seu sentido extrapolou
o termo técnico, de forma que a palavra assumiu diversos sentidos. Com o crescente
uso de tecnologias digitais, a penetração de processamentos de dados na realidade
social é quase absoluta. Atualmente, é quase impossível ter uma interação humana
que não seja de alguma forma mediada, auxiliada ou acompanhada de serviços
digitais. E esses, por sua vez, são operados por algoritmos.
Tartenton Gillespie levanta alguns sentidos relevantes pelos quais a palavra é
utilizada. Um deles é chamado de “Talismã”, que corresponderia a todo o campo
simbólico existente em torno da palavra algoritmo, que evoca noções de objetividade
e cientificismo. O termo é utilizado, por exemplo, como uma proposta de marketing
em torno de serviços digitais mais eficientes.
O termo algoritmo ainda funciona como uma abreviação para a combinação de
diferentes sistemas, softwares, hardwares, coleta e processamento de dados,
modelos matemáticos e toda uma cadeia de processos digitais ou não. Ao se discutir
“o algoritmo do Facebook”, na verdade não está se discutindo apenas o conjunto de
operações matemáticas que operam o serviço da rede social, mas o que há por trás
de todo um conjunto de decisões da empresa Facebook que esculpiram aquele
serviço e que orientam tudo que o serviço faz. Ou seja, ao se referir ao algoritmo,
estas utilizações comuns do termo correm o risco de perder de vista a dimensão
consciente, deliberada e humana daqueles que conceberam o serviço e que o
operam.
O problema deste trabalho engloba as duas dimensões, por considerar as
decisões automatizadas como um momento específico de um processo sociotécnico
48GILLESPIE, T. Algorithm. In: PETERS, B. Digital Keywords. Princeton: Princeton University Press,
2016. p. 18-30.
28
49 FRY, H. Hello World: How to be Human in the Age of the Machine. London New York Toronto Sidney
Auckland: Doubleday, 2018.
50 DIAKOPOULOS, N. Algorithmic accountability reporting: on the investigation of black boxes. [S. l.]:
(Coords.). Enciclopédia jurídica da PUC-SP. Tomo: Teoria Geral e Filosofia do Direito. 1. ed. São Paulo:
Pontifícia Universidade Católica de São Paulo, 2017. Disponível em:
https://enciclopediajuridica.pucsp.br/verbete/57/edicao-1/decisao-judicial. Acesso em: 21 jun. 2021.
53 AZEVEDO, I. T. R.; SILVA, T. A. da. Reflexões sobre tomada de decisão e livre arbítrio sob a ótica
55 GILLESPIE, T. Algorithm. In: PETERS, B. Digital Keywords. Princeton: Princeton University Press,
2016. p. 18-30; MITTELSTADT, B. D. et al. The ethics of algorithms: Mapping the debate. Big Data &
Society, [S. l.], v. 3, n. 2, 2016. Disponível em: https://doi.org/10.1177/2053951716679679. Acesso em:
20 maio 2020. p. 205395171667967.
56 MOOR, J. Are There Decisions Computers Should Never Make. Nature and System, [S. l.], v. 1, 1985.
32
Uma das grandes evoluções da computação nos últimos anos diz respeito
justamente à capacidade de que algoritmos produzam novos códigos e que algoritmos
produzam novos algoritmos.57 A história dos algoritmos programados para jogar
xadrez pode ilustrar bem essa questão. As primeiras tentativas das máquinas
jogadoras de xadrez buscavam elencar todas as possibilidades de jogadas e as
probabilidades correspondentes de sucesso de cada uma delas. Nesse sentido, a
avaliação dos fatores relevantes, as consequências desejadas e esperadas, as
vantagens e desvantagens dessa decisão foram previamente consideradas pelo
programador. Esses modelos de computador não tiveram sucesso em vencer os
principais mestres humanos, mesmo que conseguissem realizar cálculos mais rápidos
e precisos que eles.
Contudo, desenvolveram-se aplicações que mantêm características diferentes.
Modelos onde o computador, em vez de seguir um código pré-definido, atualiza seu
código com base em outros exemplos. A programação inicial não diz o que o
computador deve fazer em cada caso. O programa diz apenas “como” o computador
deve agir frente ao problema. A partir disso, o computador toma determinado caminho
baseado no conjunto de eventos passados, que possuem uma contingência histórica,
e dos estímulos externos recebidos. Quanto mais o tempo passa e mais partidas essa
máquina realiza, melhor se tornam os seus movimentos no tabuleiro.
Nestas aplicações, o programador não insere previamente todos os critérios
utilizados para chegar ao resultado, oferece alguns objetivos, como “cercar o rei” e
operações pelas quais o programa poderá descobrir quais são os fatores mais
relevantes. É um modelo desse tipo o utilizado para a criação do Deep Blue, software
que conseguiu vencer o maior jogador de xadrez da época e tornou-se um marco na
discussão da inteligência artificial. É esse o tipo de aplicação chamada de aprendizado
de máquina (machine learning).
Nessa última modalidade de aplicação, Moor argumenta que é possível
observarmos o segundo tipo de significado do termo decisão, visto que um sistema
computacional não apenas escolheu um caminho, mas determinou os critérios
relevantes, ponderou as alternativas e fez uma escolha do caminho. Nesses modelos
57STAN, F. History, motivations, and core themes. In: FRANKISH, K.; RAMSEY, W. M. (org.). The
Cambridge Handbook of Artificial Intelligence. Cambridge: Cambridge University Press, 2014.
Disponível em: https://doi.org/10.1017/CBO9781139046855.007. Acesso em: 24 ago. 2020; e
BUCHANAN, B. G. A. (Very) Brief History of Artificial Intelligence. AI Magazine, [S. l.], v. 26, n. 4, 2005.
Disponível em: https://doi.org/10.1609/aimag.v26i4.1848. Acesso em: 21 jun. 2021. p. 53.
33
58 O trabalho do Nobel de Economia, Daniel Kahneman, “Think Fast, Think Slow”, lançado em 2013,
fornece uma perspectiva sobre os diferentes processos cognitivos, incluindo tomada de decisões e sua
relação com a consciência e a intuição. Uma das grandes descobertas do autor diz respeito à descrição
do funcionamento de dois módulos de pensamento distintos, um mais emocional e intuitivo, outro lógico
e deliberativo.
59 Essa questão encontra correspondência no campo das teorias da decisão jurídica. É possível
avaliação dos diferentes critérios e elementos objetivos e subjetivos que levaram a tal
conclusão.
A pergunta que orienta esse trabalho diz respeito à realidade jurídica brasileira.
No entanto, ela surge no contexto europeu. Pela clara ligação dos modelos de
regulação de proteção de dados adotados pelo GDPR e pela LGPD, é esperado que
as discussões do velho mundo encontrem reverberações em solo tupiniquim. No
entanto, a transposição de debates e interpretações exige um imenso cuidado. Nesse
sentido, a importação de conceitos não ocorre de forma simples e automática de
maneira que a construção da interpretação jurídica não se realiza com simplesmente
um “copia e cola” de conceitos de outras jurisdições.
Isso posto, cabe realizar algumas ponderações sobre as escolhas
metodológicas, tendo em vista a natureza interdisciplinar deste trabalho. A tese trata
sobre a existência de um direito, dessa forma, as escolhas sobre os temas abordados
se limitaram ao objetivo de esclarecer o problema do direito à explicação à luz da
regulação e dos princípios da proteção de dados no contexto brasileiro. Além dos
princípios, discute-se a realidade dos sistemas sociotécnicos por trás das decisões
automatizadas e outras regulações que podem impactar a existência desse direito.
Este trabalho, portanto, embora realize uma importação de uma pergunta
originada em um debate do continente europeu, não pode importar as respostas.
Nossa resposta deve ser composta a partir do direito brasileiro, reconhecendo a
influência europeia para a construção da nossa lei geral para a proteção de dados em
relação com nossas instituições e tradições, e também da influência estadunidense
em vários dos conceitos necessários para discutir o contexto que leve à pergunta.
Apesar das similaridades, a LGPD e o GDPR são dois regulamentos diferentes
que se inserem em sistemas jurídicos distintos. Para o caso brasileiro, além dos temas
comuns ao debate europeu, é preciso observar as regulações precedentes do país
que trataram do tema da proteção de dados e de obrigações de transparência por
tratamentos automatizados, como são o Código de Defesa do Consumidor e a Lei do
Cadastro Positivo, e mesmo algumas provisões constitucionais como a previsão do
Habeas Data.
Portanto, apesar da utilização de diferentes ordenamentos e documentos de
35
60 A partir de 2016, as publicações sobre o tema explodiram. Uma pesquisa na base de dados da
biblioteca digital da Association for Computing Machinery (ACM) pode fornecer uma dimensão desse
processo. Do início da base de dados de periódicos disponíveis, até o ano de 2015, foram 413
resultados de trabalhos com a palavra “explanation” no título dos artigos. No curto período entre 2016
e 2021, esse número atingiu mais de 73 mil resultados.
37
possível reconhecer a existência de tal direito em nosso ordenamento, por vezes com
escopo ainda mais amplo do que aquele previsto na legislação europeia. Como
salientado, a relevância desta investigação reside na escassez de estudos no cenário
brasileiro sobre o direito à explicação, bem como na originalidade do tema, uma vez
que, conforme mapeado, inexistem trabalhos a nível de mestrado e doutorado no
Brasil se debruçando especificamente sobre este assunto. Na seção 1.1.3
apresentamos ainda os conceitos centrais e balizadores de todo o trabalho, como os
conceitos de dado pessoal, algoritmo e de decisão. Por fim, na seção 1.2,
apresentamos o recorte e algumas considerações metodológicas do trabalho. Nos
capítulos seguintes da tese buscaremos apresentar o debate acadêmico e
hermenêutico em torno do direito à explicação, suas possíveis fontes e formas de
reconhecimento, bem como suas limitações e desafios práticos de implementação. O
Capítulo 2, apresentado a seguir, é o ponto de partida deste percurso argumentativo,
possuindo o objetivo de discutir o que é o direito à explicação no cenário brasileiro e
europeu, a partir de fontes positivadas, como a LGPD e a GDPR. Neste sentido, o
capítulo buscará desenvolver o argumento de que é possível defender a existência
desse direito no ordenamento brasileiro a partir de uma leitura sistemática da LGPD,
das legislações setoriais de proteção de dados pessoais, da Constituição e da
jurisprudência dos tribunais superiores. No âmbito da UE, apresentaremos de que
forma ele pode ser extraído da leitura do texto da GDPR, bem como a leitura que vem
sendo feita deste instrumento pela academia e pelas autoridades e órgãos de
enforcement da UE. Além das fontes legais, o capítulo buscará apresentar ainda como
o conceito de autodeterminação informativa, a cláusula geral dos direitos da
personalidade e do devido processo informacional podem servir também como
fundamento à existência do direito à explicação.
40
para pessoas naturais, em qualquer nível, o uso de dados pessoais 62. Regular o uso
e o tratamento de dados pessoais é o principal objeto de leis de proteção de dados.
Essas leis carregam efeitos diretos nas limitações e obrigações atinentes ao emprego
de algoritmos. Como veremos adiante, são camadas distintas do mesmo processo,
mas indissociáveis.
As leis de proteção de dados visam não somente proteger a privacidade, mas
também garantir outros direitos fundamentais e liberdades individuais63, que somente
podem ser exercidos na sua completude caso seja garantido o uso adequado dos
dados pessoais, entendidos como uma representação do indivíduo a partir de
múltiplas facetas arbitrárias64. Assim, pode-se entender as leis de proteção de dados
como um plexo regulatório que acaba por proteger outros direitos, uma vez que o
exercício de liberdades, principalmente na esfera digital, passa pelo tratamento de
dados pessoais65. Os contextos nos quais decisões automatizadas têm impactado no
exercício e acesso a uma série de direitos fundamentais são variados e complexos66,
e necessariamente passam pelo uso adequado ou inadequado de dados pessoais.
Todavia, a opacidade com a qual os dados pessoais são tratados impede que seus
titulares tenham total compreensão de como seus direitos podem ser limitados e suas
vidas impactadas67 .
Tais contextos dão origem à necessidade de um novo construto normativo
capaz de garantir proteção efetiva a seus titulares68, e não somente proteger os dados
pessoais em si. É necessário focar mais no impacto que o uso de dados pessoais
Law in the Age of Big Data and AI. Columbia Business Law Review, 2019, v. 2, 5 out. 2018. Disponível
em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3248829. Acesso em: 16 abr. 2021.
64 CHENEY-LIPPOLD, J. We are data: algorithms and the making of our digital selves. New York: New
Harvard University Press paperback edition ed. Cambridge, Massachusetts; London, England: Harvard
University Press, 2015.
68 ACCESS NOW; AMNESTY INTERNATIONAL. The Toronto Declaration: protecting the right to
equality and non-discrimination in machine learning systems. Toronto, 2018. Disponível em:
https://www.accessnow.org/cms/assets/uploads/2018/08/The-Toronto-Declaration_ENG_08-2018.pdf.
Acesso em: 15 dez. 2020.
42
pode ter nas pessoas do que simplesmente na conformidade de tais usos a uma
legislação vigente.69 É a partir desta demanda que se entende o chamado direito à
explicação, sobre o qual passaremos a tratar a seguir.
de Janeiro: Instituto Igarapé, dez. 2018. Artigo Estratégico nº 39. Disponível em:
https://igarape.org.br/wp-content/uploads/2018/12/Existe-um-direito-a-explicacao-na-Lei-Geral-de-
Protecao-de-Dados-no-Brasil.pdf. Acesso em: 21 jun. 2021.
72 EUROPEAN DATA PROTECTION BOARD. Guidelines on Automated individual decision-making and
Profiling for the purposes of Regulation 679/2016. Bruxelas: European Commission, 2016. Disponível
em: https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053;
44
dos dados e o responsável pelo tratamento; (b) se a decisão restar autorizada pelo
direito regional ou nacional do Estado-Membro ao qual o responsável estiver sujeito,
observadas as garantias e liberdades do titular; e (c) se a decisão estiver autorizada
pelo consentimento explícito do titular dos dados.
O art. 22(3), por sua vez, nas hipóteses das alíneas “a” e “c”, confere ao titular
sujeito à decisão automatizada o direito de ter salvaguardados seus direitos,
liberdades e legítimos interesses, designadamente o direito de, pelo menos, obter
intervenção humana por parte do responsável, manifestar o seu ponto de vista e
contestar a decisão.
Como se pode observar, a GDPR não prevê, ao menos explicitamente e de
modo vinculante, um “direito à explicação”, por mais que imponha práticas e direitos
de transparência e um direito de revisão. A existência de um direito à explicação tem
sido sustentada por alguns autores com base em uma interpretação holística do texto
do regulamento, a saber, de uma leitura sistemática dos arts. 13, 14, 15 e 22, bem
como do Considerando 71, que apesar de não ser juridicamente vinculante,
expressamente amplia as salvaguardas do art. 22(3) ao prever um “direito à
explicação” no contexto de decisões automatizadas73. Os arts 13 e 14 encerram um
conjunto de obrigações de transparência. O art. 15, por sua vez, consagra um direito
de acesso. Em conjunto, esses três dispositivos preveem a necessidade de que sejam
fornecidas informações significativas (meaningful information) sobre a existência de
decisão automatizada, incluindo profiling.74 O direito à explicação, assim, na GDPR,
seria derivado dos direitos e garantias de não sujeição a decisões automatizadas (art.
22(1) e (3)), bem como dos deveres de notificação e informação dos controladores e
do direito de acesso (arts. 13-15).
Conforme apontamos, não há, contudo, consenso no debate europeu acerca
da efetiva existência de um direito à explicação vinculante, ou mesmo acerca de seu
escopo e extensão.75 Nesse sentido, há ao menos duas correntes no debate europeu
73 Considerando 71: “In any case, such processing should be subject to suitable safeguards, which
should include specific information to the data subject and the right to obtain human intervention, to
express his or her point of view, to obtain an explanation of the decision reached after such assessment
and to challenge the decision. Such measure should not concern a child.” (UNIÃO EUROPEIA.
Regulamento Geral sobre a Proteção de Dados — Considerando 71. Disponível em: https://gdpr-
text.com/pt/read/recital-71/. Acesso em: 21 jun. 2021). (grifo nosso).
74 SELBST, A. D.; POWLES, J. Meaningful Information and the Right to Explanation. International Data
Explanation” Debate and the Rise of Algorithmic Audits in Enterprise. In: Berkeley Technology Law
Journal, v. 34, p. 145-189, 2018. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3143325. Acesso em: 19 maio 2019. p. 145-189.
45
Making Does Exist in the General Data Protection Regulation. In: International Data Privacy Law, vol.
7, n. 2, maio 2017, p. 76–99. Disponível em: https://academic.oup.com/idpl/article/7/2/76/3860948.
Acesso em: 6 nov. 2020.
78 A presente pesquisa possui como foco decisões automatizadas baseadas em Inteligência Artificial e
Machine Learning.
79 WACHTER; MITTELSTADT; FLORIDI, op. cit.
80 SELBST, A. D.; POWLES, J. Meaningful Information and the Right to Explanation. International Data
83 WACHTER, S.; MITTELSTADT, B.; RUSSELL, C. Counterfactual Explanations Without Opening the
Black Box: Automated Decisions and the GDPR. SSRN Electronic Journal, v. 31, n. 2, 2017. Disponível
em: https://www.ssrn.com/abstract=3063289. Acesso em: 27 maio. 2020.
84 CASEY, B.; FARHANGI, A.; VOGL, R. Rethinking Explainable Machines: The GDPR’s “Right to
Explanation” Debate and the Rise of Algorithmic Audits in Enterprise. In: Berkeley Technology Law
Journal, v. 34, p. 145-189, 2018. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3143325. Acesso em: 19 maio 2019. p. 180.
85 Ibidem, p. 181-184.
86 Ibidem, p. 181.
87 Ibidem, p. 182.
47
explicação, pois são capazes de promover uma transparência mais ampla sobre os
sistemas algorítmicos, possibilitando que a mídia, ONGs, especialistas e outros atores
auditem os sistemas, e não apenas os indivíduos. Ademais, essas metodologias
também têm sido documentadamente bem-sucedidas na identificação de vieses
discriminatórios nos sistemas algorítmicos.88
Ainda em 2017, Edwards e Veale escreveram o artigo “Slave to the Algorithm:
Why a Right to an Explanation is Probably Not the Remedy You Are Looking For”89,
cujo argumento central vai além da existência ou não de um direito à explicação e foca
na ideia de que um direito desta natureza dificilmente representaria um remédio
adequado para responder a todos os riscos apresentados por algoritmos e tecnologias
correlatas. O artigo afirma, em primeiro lugar, que o texto da GDPR é restritivo, incerto
e até paradoxal sobre quando um direito de explicação pode ser acionado. Depois,
sobre a questão de aplicabilidade prática, cogita a inviabilidade de que o tipo de
explicação almejada pelos seus defensores seja contemplada, ou até viável, pelos
tipos de explicação de machine learning que cientistas da computação têm
desenvolvido.
Os autores receiam que a busca pelo direito à explicação crie uma “falácia da
transparência”90 e argumentam que outros direitos, como o direito ao esquecimento e
portabilidade de dados e outros elementos, como Privacy by Design, Data Protection
Impact Assessments, certificações e selos de privacidade podem ser um caminho
melhor para tornar algoritmos mais responsáveis, explicáveis e centrados na
experiência humana.
Como introdução sobre o papel crescente do algoritmo na sociedade, os
autores afirmam que os indivíduos se tornaram “escravos dos algoritmos” e fazem
referência ao termo de Frank Pasquale da “sociedade black box”. Analisando os
principais problemas gestados neste contexto, com destaque para o avanço das
técnicas de machine learning, os autores destacam i) discriminação e vieses injustos;
ii) riscos à privacidade, diante do fato de que estas técnicas baseiam-se na ideia de
88 CASEY, B.; FARHANGI, A.; VOGL, R. Rethinking Explainable Machines: The GDPR’s “Right to
Explanation” Debate and the Rise of Algorithmic Audits in Enterprise. In: Berkeley Technology Law
Journal, v. 34, p. 145-189, 2018. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3143325. Acesso em: 19 maio 2019. p. 181-184.
89 EDWARDS, L.; VEALE, M. Slave to the Algorithm: Why a Right to an Explanation Is Probably Not the
Remedy You Are Looking for. Duke Law & Technology Review, v. 16, p. 18-84, 2017. p. 18.
90 HOOD, C.; HEAD, D. Transparency: The Key to Better Governance? Oxford: Oxford University Press,
dar novos propósitos para dados, o que contraria o princípio da finalidade na disciplina
da proteção de dados pessoais; iii) opacidade, ponto em que os autores discorrem
sobre a singularidade da transparência enquanto valor histórico insculpido nas
legislações de proteção de dados pessoais e como vem sendo elevada ao centro do
debate sobre accountability para algoritmos e machine learning.
Sobre o direito à explicação, Edwards e Veale alegam que a noção de um
direito à explicação já existia na Diretiva desde 1995, e foi incorporada à GDPR, mas
com uma série de limitações, tais como exceções à Propriedade Intelectual e segredo
de negócio, limitação do escopo a decisões tomadas “exclusivamente” por sistemas
automatizados e que produzam efeitos legais ou “significativos”, o timing da
explicação, a presença dos elementos mais “fortes” do direito à explicação nos
Considerandos e guidelines do Working Party 29, e não no texto em si do
Regulamento e, por fim, as dificuldades práticas. Dessa forma, pode-se dizer que,
quanto ao debate primordial sobre a existência do direito à explicação, os autores
filiam-se à corrente de Wachter et al.
A partir disso, o paper não só questiona a existência do direito, mas também
se este seria de fato o melhor direito a se buscar para garantir a accountability dos
algoritmos e decisões automatizadas. Um primeiro problema identificado pelos
autores é que os remédios tradicionais de proteção de dados pessoais, aos quais
associa este modelo de direito à explicação, são voltados para o indivíduo, já que o
sistema deriva de um paradigma de direitos humanos, mas os riscos envolvidos na
discussão normalmente são associados a grupos.
Também apontam que, em muitos casos, o titular de dados pessoais estará
menos interessado em uma explicação sobre uma decisão e mais em que a decisão
em questão sequer ocorra ou que, diante dela, haja recursos para que seja revertida 91.
Por fim, ainda que não se confirme esta assertiva e os indivíduos de fato tenham
interesse em obter informações, os autores vislumbram um obstáculo significativo na
falta de tempo, recursos e conhecimento da maioria dos indivíduos para que consigam
de fato absorver qualquer explicação que o sistema lhes ofereça. Assim, os autores
comparam o recurso a um direito individual à explicação ao status atual que atribuem
91 Ao desenvolver este argumento, os autores fazem referência ao caso Costeja v. Google, emblemático
para a discussão sobre direito ao esquecimento, e apontam que a demanda do titular de dados
pessoais, nesse caso, era voltada para o exercício de um direito de ação, com o objetivo de suprimir a
circulação destes dados, e em nenhum momento obter uma explicação sobre eles.
49
92 O livro “For a meaningful artificial intelligence: towards a french and european strategy”, organizado
por Cedric Villani, dá grande destaque também à questão do trade-off no capítulo 5, denominado “What
are the ethics of AI?”. (VILLANI, C. For a Meaningful Artificial Intelligence: Towards a French and
European Strategy. [S. l.]: European Commission, 2018. Disponível em:
https://www.aiforhumanity.fr/pdfs/MissionVillani_Report_ENG-VF.pdf).
93 “Art. 17 GDPR — Right to erasure (‘right to be forgotten’)
1. The data subject shall have the right to obtain from the controller the erasure of personal data
concerning him or her without undue delay and the controller shall have the obligation to erase personal
data without undue delay where one of the following grounds applies: [...].” (UNIÃO EUROPEIA.
Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the
protection of natural persons with regard to the processing of personal data and on the free movement
of such data, and repealing Directive 95/46/EC (General Data Protection Regulation) (Text with EEA
relevance). Official Journal of the European Union, 4 maio 2016. Disponível em; https://eur-
lex.europa.eu/eli/reg/2016/679/oj/eng. Acesso em: 27 ago. 2021).
94 “Art. 20. Right to data portability
1. The data subject shall have the right to receive the personal data concerning him or her, which he or
she has provided to a controller, in a structured, commonly used and machine-readable format and have
the right to transmit those data to another controller without hindrance from the controller to which the
50
personal data have been provided […]. (UNIÃO EUROPEIA. Regulation (EU) 2016/679 of the European
Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the
processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC
(General Data Protection Regulation) (Text with EEA relevance). Official Journal of the European Union,
4 maio 2016. Disponível em: https://eur-lex.europa.eu/eli/reg/2016/679/oj/eng. Acesso em: 27 ago.
2021).
51
95 CASEY, B.; FARHANGI, A.; VOGL, R. Rethinking Explainable Machines: The GDPR’s “Right to
Explanation” Debate and the Rise of Algorithmic Audits in Enterprise. In: Berkeley Technology Law
Journal, v. 34, p. 145-189, 2018. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3143325. Acesso em: 19 maio 2019.
52
diferença quanto à força das sanções respaldadas pelo novo Regulamento, a mais
expressiva mudança trazida pela GDPR diria respeito à própria natureza da norma.
Enquanto Diretivas criam regras gerais que precisam ser incorporadas pelas
legislações de cada país conforme considerem apropriado, um Regulamento é uma
lei única e diretamente aplicável sobre todos os Estados-membros.96
Considerados estes pontos, o artigo salienta dois Capítulos do Regulamento,
em especial. O Capítulo 6 prevê
96 CORBETT-DAVIES, S. et al. Algorithmic decision making and the cost of fairness. ArXiv, 2017.
Disponível em: http://arxiv.org/abs/1701.08230. Acesso em: 14 set. 2020.
97 UNIÃO EUROPEIA. Regulation (EU) 2016/679 of the European Parliament and of the Council of 27
April 2016 on the protection of natural persons with regard to the processing of personal data and on
the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation)
(Text with EEA relevance). Official Journal of the European Union, 4 maio 2016. Disponível em;
https://eur-lex.europa.eu/eli/reg/2016/679/oj/eng. Acesso em: 27 ago. 2021.
98 Justificam tal escolha por uma questão prática de eleger uma autoridade ao invés de 28 e também
por ser um exemplo emblemático de país que, a despeito do Brexit, quer manter o livre fluxo
transnacional de dados com a Europa por meio do compliance com a GDPR. Cabe pontuar que o
principal documento considerado pelos autores para a redação do artigo foi o “Guide to the UK General
Data Protection Regulation (UK GDPR)”, e que após a publicação do paper o ICO produziu várias outras
orientações sobre o direito à explicação no contexto de decisões automatizadas. Neste sentido, os
54
próprios autores destacam que a autoridade concebe o documento como um instrumento vivo, sujeito
a alterações e revisões de forma contínua. Uma importante iniciativa da autoridade britânica, em
conjunto com o The Alan Turing Institute, após a publicação do paper foi o lançamento de uma consulta
pública e de guidelines sobre a explicabilidade de decisões produzidas por meio de IA. Cf.
INFORMATION COMMISSIONER’S OFFICE; THE ALAN TURING INSTITUTE. ICO and Turing
consultation on Explaining AI decisions guidance. ICO, 24 jan. 2020. Disponível em:
https://ico.org.uk/about-the-ico/ico-and-stakeholder-consultations/ico-and-the-turing-consultation-on-
explaining-ai-decisions-guidance/. Acesso em: 16 abr. 2021.
99 UNIÃO EUROPEIA. Regulation (EU) 2016/679 of the European Parliament and of the Council of 27
April 2016 on the protection of natural persons with regard to the processing of personal data and on
the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation)
(Text with EEA relevance). Official Journal of the European Union, 4 maio 2016. Disponível em;
https://eur-lex.europa.eu/eli/reg/2016/679/oj/eng. Acesso em: 27 ago. 2021.
100 Casey et. al, op. cit.
55
101PRIVACY INTERNATIONAL. Data is Power: Profiling and Automated Decision-Making in GDPR. PI,
9 abr. 2017. Disponível em: https://privacyinternational.org/sites/default/files/2018-
04/Data%20Is%20Power-Profiling%20and%20Automated%20Decision-Making%20in%20GDPR.pdf.
Acesso em: 7 nov. 2020. p. 10.
56
102 EDWARDS, L.; VEALE, M. Slave to the Algorithm: Why a Right to an Explanation Is Probably Not
the Remedy You Are Looking for. Duke Law & Technology Review, v. 16, p. 18-84, 2017. Disponível
em: https://osf.io/preprints/lawarxiv/97upg/. Acesso em: 7 nov. 2020.
103 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD).
de Janeiro: Instituto Igarapé, dez. 2018. Artigo Estratégico nº 39. Disponível em:
https://igarape.org.br/wp-content/uploads/2018/12/Existe-um-direito-a-explicacao-na-Lei-Geral-de-
Protecao-de-Dados-no-Brasil.pdf. Acesso em: 21 jun. 2021. p. 5. “Assim como na Lei europeia, o direito
à explicação previsto no caso brasileiro pode encontrar algumas limitações, como a manutenção dos
57
segredos industriais dos responsáveis pelo tratamento. Porém, o regulamento europeu impõe mais
restrições do que a Lei brasileira, principalmente por não incluir o caso dos dados anonimizados e por
limitar o direito de oposição quando a base legal para tratamento dos dados for o consentimento
explícito ou a execução de um contrato. Nesse sentido, é bastante positivo que o rol de proteções
proposto pela legislação brasileira seja substancialmente mais amplo do que o presente na regulação
europeia, que inicialmente lhe serviu de inspiração.” (Ibidem, p. 14).
105 BURRELL, J. How the Machine “Thinks:” Understanding Opacity in Machine Learning Algorithms.
de decisão, apresenta o sentido estrito apontado por Moor109, de uma decisão como
uma escolha específica que permite o direito a uma revisão. Contudo, cumpre notar
que inclui também os processos necessários para aquela conclusão, que, se forem
realizados de forma unicamente automatizada de processamento de dados, fazem jus
ao direito, portanto, em seu sentido amplo.
Pelo disposto no artigo, não há uma diferença para o caso de os critérios serem
previamente programados por um ente humano ou criados de forma independente via
aprendizado da máquina. Não há uma definição sobre o aspecto subjetivo da decisão,
sobre quem desejou ou ordenou a decisão. O sentido para decisão está restrito à sua
objetividade e ao processo pelo qual ocorreu. A legislação não especifica se a
atividade de produção do conhecimento que baseou a decisão foi programada pelo
agente de tratamento ou pelo algoritmo, dispondo apenas que se o tratamento foi
realizado de forma automatizada, surge para o titular de dados um direito de revisão.
Nesse sentido, observamos que a redação do dispositivo, à semelhança do
GDPR, assume uma postura pragmática, de que determinadas atividades de
tratamento de dados, independentemente do seu aspecto volitivo, se realizada por
meio de atividades automáticas, sejam computacionais ou não, serão consideradas
como decisões automatizadas. Contudo, como todo processamento computacional de
dados pessoais se realiza de forma automatizada, qualquer atividade computacional
poderia ser considerada uma decisão. A inserção de um número de um cadastro num
banco de dados, por exemplo, a partir da digitação, realiza-se por uma infinidade de
operações aritméticas e rotinas de códigos computacionais cujo digitador não possui
controle.
No entanto, depreende-se do art. 20 da LGPD que o conceito de decisão
pressupõe que o resultado do processamento de dados seja contingente, ou seja,
possua alternativas, de forma que não faria sentido falar em revisão de algo que
permite apenas um resultado. No entanto, uma série de processamentos
computacionais de dados pessoais permitem resultados alternativos. O envio de um
terminal para um servidor de outra localidade ocorre pelo processamento
automatizado, que divide a informação em pacotes e envia os bits por um caminho
aleatório da rede. O caminho ocorre por uma série de decisões automatizadas
orientadas por protocolos e poderia ser outro caso se o protocolo ou a configuração
109MOOR, J. Are There Decisions Computers Should Never Make. Nature and System, [S. l.], v. 1,
1985.
60
110 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD).
Brasília, DF: Presidência da República, 14 ago. 2018. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015- 2018/2018/lei/L13709.htm. Acesso em: 07. nov. 2020.
111 MITTELSTADT, B. D. et al. The ethics of algorithms: Mapping the debate. Big Data & Society, [S. l.],
a sua positivação na LGPD. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR,
O. L.; BIONI, B. (Orgs.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p.
243-270.
61
Law in the Age of Big Data and AI. LawArXiv, 12 out. 2018. Disponível em:
https://doi.org/10.31228/osf.io/mu2kf. Acesso em: 27 maio 2020.
62
116
ANANNY, M.; CRAWFORD, K. Seeing without knowing: Limitations of the transparency ideal and its
application to algorithmic accountability. New Media & Society, v. 20, n. 3, p. 973–989, 2016.
63
117 BALL, C. What Is Transparency? Public Integrity, [S. l.], v. 11, n. 4, p. 293–308, 2009. Disponível
em: https://doi.org/10.2753/PIN1099-9922110400. Acesso em: 21 jun. 2021.
118 JAMES, W. What pragmatism means. In: MENAND, L. Pragmatism: A Reader. New York: Random
uma questão, como a corrupção, por exemplo, não tem alguma consequência
prática, ela pode perder o sentido e até criar um clima de ceticismo. A ideia
de que a transparência produz mudança depende da premissa de que quem
detém o poder sobre essa mudança é de fato vulnerável à transparência;
2. A transparência pode ser prejudicial. Se não houver clareza sobre os
porquês da transparência, ela pode trazer danos à privacidade dos indivíduos
e, com isso, inibir um diálogo honesto;
3. A transparência pode causar opacidade. Intencionalmente ou não, a
liberação de grandes volumes de informação pode efetivamente esconder os
pedaços dessa informação que são mais relevantes/úteis para a garantia de
accountability, no meio de uma “pilha de informação inútil”;
4. A transparência pode criar falsos binários. Sem entendimentos sutis sobre
o tipo de responsabilidade que a visibilidade é projetada para criar, as
chamadas à transparência podem ser lidas como falsas escolhas entre o sigilo
total e a total abertura;
5. A transparência pode invocar modelos neoliberais de agência. A
premissa da transparência é de um “mercado iluminado da informação”, isto
é, a noção de que dar informação às pessoas significa que elas terão
condições de empregá-las para tomar decisões melhores, que, por sua vez,
levarão a resultados sociais desejáveis;
6. A transparência não necessariamente garante confiança. Não há
evidências empíricas suficientemente sólidas para demonstrar que maior
transparência necessariamente gera maior confiança, pois isso varia
conforme os diferentes atores e contextos de interação social;
7. A transparência pode envolver limitações corporativistas. Comumente a
transparência é inviabilizada pois profissionais tendem a proteger a
exclusividade do seu trabalho e expertise;
8. A transparência pode privilegiar o ver em detrimento do entender.
Partindo de conceitos de teorias educacionais, como as de Piaget e Vygotsky,
que preconizam não apenas a demonstração da existência de sistemas para
crianças, mas seu envolvimento direto nos processos que caracterizam esses
sistemas, os autores alegam que a visão engessada de transparência resulta
em um menor, e não maior entendimento, sobre os sistemas que busca
revelar;
65
119HANSEN, H. K.; FKYVERBOM, M. The politics of transparency and the calibration of knowledge in
the digital age. Organization, v. 22, n. 6, p. 872–889, 2015.
66
120
ANANNY, M.; CRAWFORD, K. Seeing without knowing: Limitations of the transparency ideal and its
application to algorithmic accountability. New Media & Society, v. 20, n. 3, p. 973–989, 2016.
67
121 BOHLENDER, D.; KÖHL, M. A. Towards a Characterization of Explainable Systems. ArXiv [cs], [S.
l.], 2019. Disponível em: http://arxiv.org/abs/1902.03096. Acesso em: 6 out. 2020.
122 BOHLENDER, D.; KÖHL, M. A. Towards a Characterization of Explainable Systems. ArXiv [cs], [S.
desta representação por qualquer membro representativo deste grupo faz com que
este membro de fato entenda o aspecto do sistema em questão.
Aqui, faz-se uma distinção entre a informação e a representação da
informação, pois uma mesma informação pode ter representações variadas. A
informação é factual, a representação pode ser distorcida e a explicação, por sua vez,
é aquela representação que carrega informações relevantes e necessárias para que
o indivíduo possa compreender determinado explanandum. Essa noção de
informação também independe do agente envolvido, enquanto a representação de
uma informação se altera de acordo com quem a projeta e produz.
Dentro da categorização proposta, o processamento da representação de uma
informação é relevante, na medida em que a explicação só se o agente representativo
de um determinado grupo é capaz de processar a representação, enquanto a
representação faz algum sentido para esse agente. Tal processamento pode ser
influenciado pelo contexto, pelo tempo disponível para que o agente possa apreender
a representação, dentre outros fatores. Por outro lado, os autores salientam que o
mero processamento de uma representação (seja por via cognitiva ou computacional)
não a torna uma explicação, pois o processamento deve fazer com que o agente
entenda de fato o aspecto da informação relevante.
E o que significa entender? O texto defende que compreensão é um conceito
mais tangível do que explicação por conta do extenso acúmulo acadêmico em áreas
como a psicologia e a ciência comportamental. Partindo da literatura nessas áreas, a
autoridade de determinar o que é “entendível” pertence ao grupo visado e seus
membros, isto é, aos indivíduos a quem a explicação em tese se destina.
Outro ponto que Kohl e Bohlender fazem questão de sublinhar é que não é
suficiente que um agente pense que entendeu determinada representação, este
entendimento deve ser genuíno. Uma ideia de como mensurar este parâmetro
complexo é medir os efeitos de uma explicação. Como exemplo, remete à hipótese
do engenheiro em busca de erros em um sistema e aponta que uma explicação seria
considerada suficiente caso tal engenheiro fosse efetivamente capaz de localizar os
referidos erros depois de processar uma explicação a respeito.
A necessidade de explicação, conforme previamente mencionado, decorre do
fato de que algo não é entendido, mas o texto aponta que é necessário um avanço
substancial nos estudos sobre como descrever precisamente uma falta de
compreensão. Importante destacar também que, para o mesmo explanandum, pode
69
123 BOHLENDER, D.; KÖHL, M. A. Towards a Characterization of Explainable Systems. ArXiv [cs], [S.
l.], 2019. Disponível em: http://arxiv.org/abs/1902.03096. Acesso em: 6 out. 2020.
124 Em relação a estas últimas tecnologias, já há um campo profícuo de pesquisa, denominado
125 BRKAN, M.; BONNET, G. Legal and Technical Feasibility of the GDPR’s Quest for Explanation of
Algorithmic Decisions: of Black Boxes, White Boxes and Fata Morganas. European Journal of Risk
Regulation, v. 11, n. 1, 2020. p. 25-26.
126 Ibidem, p. 32.
127 WACHTER, S.; MITTELSTADT, B.; RUSSELL, C. Counterfactual Explanations Without Opening the
Black Box: Automated Decisions and the GDPR. SSRN Electronic Journal, v. 31, n. 2, 2017. Disponível
em: https://www.ssrn.com/abstract=3063289. Acesso em: 27 maio. 2020.
71
um ponto que consideram central tem sido negligenciado neste debate: que uma
explicação de decisões automatizadas, e um direito geral de explicação, não
dependem, necessariamente, de que o público entenda como um algoritmo funciona.
Em outras palavras, o objetivo do artigo é demonstrar que, a priori, explicações
podem ser fornecidas sem que se abra a “caixa preta”, a partir da proposta de três
objetivos principais que uma explicação deve cumprir: (i) informar e auxiliar o titular a
compreender por que uma determinada decisão foi atingida; (ii) fornecer a base para
a contestação de uma decisão; e (iii) compreender o que pode/deve ser alterado para
que um resultado diferente seja obtido no futuro. A solução apresentada pelos autores
para que todos os três objetivos sejam cumpridos consiste em fornecer “explicações
contrafactuais”, isto é, um raciocínio construído a partir de orações condicionais em
que uma delas é falsa.
Diferentemente da lógica que permeia a literatura sobre a explicação no
contexto de sistemas automatizados, essa proposta baseia-se em elementos externos
que conduzem a uma decisão e não sua lógica interna (se fator x fosse diferente,
então determinada classificação de um indivíduo seria y). Neste sentido, os autores
defendem que a GDPR não cria um direito que requeira o destrinchamento dos
sistemas de decisões automatizadas, de forma que a proposta de abordagem deste
paper se amoldaria às exigências dos seus dispositivos.
O art. 12 (7)128 do Regulamento, segundo os autores, corrobora esta tese, na
medida em que esclarece que o objetivo dos arts. 13 e 14 é “[...] de forma visível,
inteligível e legível oferecer um panorama significativo do tratamento pretendido.”129
O art. 12(1), por sua vez, estabelece que toda comunicação e informação destinada
ao titular de dados deve ser fornecida de maneira “concisa, transparente, inteligível e
128 “Article 12 EU GDPR – ‘Transparent information, communication and modalities for the exercise of
the rights of the data subject’.
[...] 7. The information to be provided to data subjects pursuant to Articles 13 and 14 may be provided
in combination with standardised icons in order to give in an easily visible, intelligible and clearly legible
manner a meaningful overview of the intended processing. Where the icons are presented electronically,
they shall be machine-readable.” (UNIÃO EUROPEIA. Regulation (EU) 2016/679 of the European
Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the
processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC
(General Data Protection Regulation) (Text with EEA relevance). Official Journal of the European Union,
4 maio 2016. Disponível em; https://eur-lex.europa.eu/eli/reg/2016/679/oj/eng. Acesso em: 27 ago.
2021).
129 UNIÃO EUROPEIA. Regulation (EU) 2016/679 of the European Parliament and of the Council of 27
April 2016 on the protection of natural persons with regard to the processing of personal data and on
the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation)
(Text with EEA relevance). Official Journal of the European Union, 4 maio 2016. Disponível em;
https://eur-lex.europa.eu/eli/reg/2016/679/oj/eng. Acesso em: 27 ago. 2021.
72
130 BRKAN, M.; BONNET, G. Legal and Technical Feasibility of the GDPR’s Quest for Explanation of
Algorithmic Decisions: of Black Boxes, White Boxes and Fata Morganas. European Journal of Risk
Regulation, v. 11, n. 1, 2020. p. 49.
131 SELBST, A. D.; POWLES, J. Meaningful Information and the Right to Explanation. International Data
fundamentos metajurídicos.
132 BOBBIO, N. Teoria do ordenamento jurídico. Apresentação: Tércio Sampaio Ferraz Júnior;
Tradução: Maria Celeste C. J. Santos; Rev. téc.: Cláudio de Cicco. 6. ed. Brasília: Editora Universidade
de Brasília, 1995. p. 115.
133 Ibidem, p. 146.
134 Ibidem, 147-150.
135 Ibidem, p. 147.
136 Ibidem, p. 150.
137 Ibidem, p. 151.
76
138 BOBBIO, N. Teoria do ordenamento jurídico. Apresentação: Tércio Sampaio Ferraz Júnior;
Tradução: Maria Celeste C. J. Santos; Rev. téc.: Cláudio de Cicco. 6. ed. Brasília: Editora Universidade
de Brasília, 1995. p. 159.
139 Ibidem, p. 12.
140 BOBBIO, N. Sobre os fundamentos dos direitos do homem. In: BOBBIO, N. A Era dos Direitos. 7.
ed. Apresentação: Celso Lafer; Tradução: Carlos Nelson Coutinho. Rio de Janeiro: Elsevier, 2004.
77
141 BOBBIO, N. Sobre os fundamentos dos direitos do homem. In: BOBBIO, N. A Era dos Direitos. 7.
ed. Apresentação: Celso Lafer; Tradução: Carlos Nelson Coutinho. Rio de Janeiro: Elsevier, 2004.
142 BOBBIO, N. Sobre os fundamentos dos direitos do homem. In: BOBBIO, N. A Era dos Direitos. 7.
ed. Apresentação: Celso Lafer; Tradução: Carlos Nelson Coutinho. Rio de Janeiro: Elsevier, 2004. p.
12-15.
143 Ibidem, p. 15.
144 BOBBIO, N. Sobre os fundamentos dos direitos do homem. In: BOBBIO, N. A Era dos Direitos. 7.
ed. Apresentação: Celso Lafer; Tradução: Carlos Nelson Coutinho. Rio de Janeiro: Elsevier, 2004.
78
145 BOBBIO, N. Sobre os fundamentos dos direitos do homem. In: BOBBIO, N. A Era dos Direitos. 7.
ed. Apresentação: Celso Lafer; Tradução: Carlos Nelson Coutinho. Rio de Janeiro: Elsevier, 2004. p.
16.
146 Ibidem, p. 9.
147 BIONI, B. R. Proteção de dados pessoais: a função e os limites do consentimento. 2. ed. Rio de
149 KELSEN, H. Pure theory of law. Union, N.J: Lawbook Exchange, 1967.; e FERRAZ JÚNIOR, T. S.
Introdução ao estudo do direito, técnica, decisão, dominação. São Paulo: Atlas, 2013.
150 BIONI, B. R. Proteção de dados pessoais: a função e os limites do consentimento. 1. ed. Rio de
Essa explicação foi ricamente desenvolvida por Friedler et al.151, que relata o
processo de tomada de decisões do computador como uma série de representações
e distorções que trazem um fenômeno mensurável de uma realidade infinitamente
complexa para um conjunto de dados e depois regras operáveis por um computador.
Luciano Floridi152 traz esse debate para a esfera da identidade, se interrogando
sobre o que constitui a identidade individual e como ela se traduz no âmbito digital.
Os dados pessoais não são, portanto, apenas uma projeção da personalidade no
campo digital, mas uma projeção de apenas uma faceta de infinitas possíveis. A
universalidade da identidade não consegue ser capturada e traduzida por essas
migalhas representativas, por mais inúmeras que elas sejam ou estatisticamente
relevantes que sejam as suas inferências.
Assim, o indivíduo não consegue ser plenamente representado com a sua
identidade completa153. Apenas os dados servem de substrato para o processamento
da máquina e não há espaço, ou meio, de apresentar o ser humano à máquina para
a orientar de forma mais adequada visando obter decisões mais informadas. Como
exemplo, temos os serviços que buscam aferir gostos e preferências do usuário,
usando os mais variados dados para produzir inferências sobre a psique do usuário.
Essa limitação pode ter efeitos muito concretos na vida de uma pessoa.
As informações sobre indivíduos são, na realidade, fatos jurídicos dos quais um
sem-número de inferências podem ser feitas, para produzir desde análises de
créditos, gostos pessoais e inferências biométricas. O grande produto desses
processamentos é, portanto, relacional. É da essência do tratamento automatizado
produzir elementos não só na esfera subjetiva (individual), mas sim posicionar o
indivíduo com relação a um grupo maior (intersubjetivo)154. Assim, a grande lógica do
sistema é a criação de perfis (essencialmente estereótipos) e alocar direitos a esses
perfis. A cada sistema, há um mecanismo discriminatório para determinar quem
recebe quais direitos, a partir da análise de dados pessoais.
Os dados pessoais substituem o indivíduo e o representam em todas as
566, 2011.
153 CHENEY-LIPPOLD, J. We are data: algorithms and the making of our digital selves. New York: New
155 WARREN, S. D.; BRANDEIS, L. D. The Right to Privacy. Harvard Law Review, v. 4, n. 5, 1890. p.
193.
156 BIONI, B. R. Proteção de dados pessoais: a função e os limites do consentimento. 1. ed. Rio de
157 RODOTÀ, S. El derecho a tener derechos. Madri: Editorial Trotta, S.A., 2014.
158 RODOTÀ, S. El derecho a tener derechos. Madri: Editorial Trotta, S.A., 2014.
84
Esta alteração para o paradigma biológico permite entender a vida como uma
construção da modernidade, em que é possível a autodeterminação. Rodotà, no
entanto, aponta como essa concepção nova carrega em si um potencial reducionismo
que a visão biológica pode implicar sobre a vida. O biodireito é um meio de colocar o
direito como um obstáculo a este reducionismo científico que o preocupa e valoriza a
pessoa. O biológico não pode se sobrepor ou reduzir o biográfico, e ressalta que,
apesar de a existência se desenvolver em um novo contexto criado pelas descobertas
biológicas, ela não pode ser resumida a um dado biológico, é a vida “pós-genômica”.
E assim há a reconstrução do paradigma biológico, o determinismo não é mais a
pauta, sendo substituído por um espaço decisório para a pessoa, tendo-se em vista
que a sua vontade influi sobre a sua vida.
A preservação do biológico, biográfico e o digital é o processo que a
autodeterminação informacional inaugura, ramo de conciliação no cruzamento de
valores sociais que precisam ser equilibrados.
Seguindo o raciocínio de Rodotà, é necessário observar as alterações na
distribuição de poder e a construção do ambiente jurídico que permitem a proteção da
pessoa para que possa se desenvolver. E proteção da pessoa contra o poder
governamental e contra a si própria, porque a sua individualização depende da
responsabilidade conferida aos sujeitos, públicos e privados, que têm o dever de
respeitar a sua autodeterminação. A individualização não é, portanto, um processo de
separação ou isolamento dos indivíduos, como se pode pensar.
Nesse viés, para o reconhecimento da autonomia da pessoa, deve-se mapear
como historicamente o direito referente à sua vida é juridicamente avaliado e
desenvolvido. A sua origem normativa está na Carta das Nações Unidas, de 1945,
atrelada à noção de povo, à "autodeterminação dos povos”, é subsequentemente
trazida pelo Pacto Internacional sobre Direitos Econômicos, Sociais e Culturais, de
1966, bem como na Declaração Universal dos Direitos dos Povos, de 1976, e
representa a necessidade de reorganizar as relações políticas em um mundo antes
pautado no colonialismo159. Contudo, essa garantia de autonomia aos povos
representa também a necessidade de autonomia do indivíduo.
Esta autonomia individual, configurada na autodeterminação da pessoa,
aparece também na decisão nº 438, de 2008, do Tribunal Constitucional Italiano, como
159 RODOTÀ, S. El derecho a tener derechos. Madri: Editorial Trotta, S.A., 2014.
85
162BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 22.337 – RS. Relator: Ruy Rosado
Aguiar. Data de Publicação: 20/03/1995. In: R. Sup. Trib. Just. Brasília, a.8 (77), jan. 1996.
87
163 BRASIL. Supremo Tribunal Federal. Medida Cautelar na Ação Direta de Inconstitucionalidade nº
6.387 Distrito Federal. Relator: Min. Rosa Weber. Data de Julgamento: 24/04/2020. Disponível em:
http://www.stf.jus.br/arquivo/cms/noticiaNoticiaStf/anexo/ADI6387MC.pdf. Acesso em: 25 nov. 2020.
164 MENDES, L. S.; RODRIGUES JÚNIOR, O. L.; FONSECA, G. C. S. da. O Supremo Tribunal Federal
e a Proteção Constitucional dos Dados Pessoais: Rumo a um Direito Fundamental Autônomo. In:
MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR, O. L.; BIONI, B. (Coords.).
Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p. 67.
88
que é oponível contra a sociedade toda e sujeito ao arbítrio do seu detentor 165.
Seguindo raciocínio aqui estabelecido, é impossível conciliar a abordagem apenas
patrimonial com a plena proteção da dignidade humana, visto que o regime patrimonial
sujeitaria o indivíduo a relações não isonômicas de troca, entregando direitos sobre a
sua personalidade (os dados) na aquisição de bens e serviços166. É por isso que o
legislador preferiu não se apoiar apenas nessa esfera, que em uma lógica de sistemas
automatizados apenas perpetuaria a assimetria entre o titular e os detentores do
sistema.
Se observarmos as disposições presentes no Código Civil brasileiro, os direitos
da personalidade são sistematizados com o objetivo de distingui-los dos direitos
subjetivos, recebendo características como sua intransmissibilidade e
irrenunciabilidade (art. 11). Como explica Doneda167, não é funcional igualar os dois
tipos de direitos, além de que a cláusula geral já possibilita esta distinção. Portanto, a
tutela da personalidade não pode ser limitada por atos ordinários, uma vez que é
estabelecida constitucionalmente. Por sua generalidade, a proteção conferida por ela
é integral, aplicável a qualquer situação. Garantindo, e mesmo ampliando, essa tutela,
o art. 12, do CC, prevê a responsabilidade civil e a legislação também estabelece
outras sanções.
O texto normativo também apresenta proteção à integridade psicofísica,
protegidas de forma conjunta (art. 13 a 15). O autor aponta que sobre este tema ainda
existem controvérsias quanto à aplicação do direito à personalidade, utilizando o
exemplo da cirurgia transexual, que tem como função primárias o favorecimento do
desenvolvimento da personalidade. No entanto, há controvérsias sobre a
interpretação do dispositivo ou também sobre a questão das diretivas antecipadas de
vontade. Dessa forma, destaca-se também o papel da interpretação ampla da norma,
para evitar uma restrição sobre a personalidade. O código também dá grande
importância para o direito ao nome, regulado de forma a evidenciar sua relação com
a formulação de um direito à identidade pessoal, propriamente dito.
Por fim, há a proteção da imagem e da honra nos artigos subsequentes, que
165 TEPEDINO, G. et al. (Ed.). Lei Geral de Proteção de Dados Pessoais e suas repercussões no direito
brasileiro. São Paulo: Thomson Reuters, Revista dos Tribunais, 2019.
166 DONEDA, D. Da privacidade à proteção de dados pessoais. 7. ed. São Paulo: Revista dos Tribunais,
2019.
167 DONEDA, D. Da privacidade à proteção de dados pessoais. 7. ed. São Paulo: Revista dos Tribunais,
2019.
89
168 TEPEDINO, G. et al. (Ed.). Lei Geral de Proteção de Dados Pessoais e suas repercussões no direito
brasileiro. São Paulo: Thomson Reuters, Revista dos Tribunais, 2019.
169 RAMGE, T.; MAYER-SCHONBERGER, V. Reinventing Capitalism in the Age of Big Data. New York:
um eixo onde antes não havia. Ganha-se uma tutela relacional cuja elasticidade
acompanha os usos de dados pessoais e os direitos dos titulares171.
Esse campo da tutela relacional é a essência do direito à explicação. A
explicação nada mais é que uma garantia de controle das decisões automatizadas
que operam sobre dados pessoais, sendo, portanto, uma garantia à autodeterminação
pessoal. Por isso, é elemento essencial de coerência desses diversos aspectos da
personalidade, da proteção de dados e da autonomia.
Tanto o seu objeto é uma garantia de controle que o art. 20 da LGPD, explorado
a fundo no subcapítulo 3.2.2, garante o direito de revisão a todos os titulares de dados,
sem condicioná-lo a nenhuma base legal, ou mesmo a fazer restrição do campo de
aplicação. In verbis:
Art. 20. O titular dos dados tem direito a solicitar a revisão de decisões
tomadas unicamente com base em tratamento automatizado de dados
pessoais que afetem seus interesses, incluídas as decisões
destinadas a definir o seu perfil pessoal, profissional, de consumo e de
crédito ou os aspectos de sua personalidade. (grifo nosso).
171
BIONI, B. R. Proteção de dados pessoais: a função e os limites do consentimento. 1. ed. Rio de
Janeiro: Forense, 2019.
91
172 BRASIL. Supremo Tribunal Federal. ADI nº 6.389/DF. Relator: Min. Rosa Weber. Data de
Julgamento: 26/11/2020. Data de Publicação: 30/11/2020. Disponível em:
http://portal.stf.jus.br/processos/detalhe.asp?incidente=5895168. Acesso em: 24 fev. 2021.
173 BIONI, B.; MARTINS, P. Devido processo informacional: um salto teórico-dogmático necessário?
177
EUBANKS, Virginia. Automating inequality: how high-tech tools profile, police, and punish the poor.
New York: St Martin’s Press, 2018.
93
178 THALER, R. H.; SUNSTEIN, C. R. Nudge: improving decisions about health, wealth, and happiness.
New York: Penguin Books, 2009.
179 MACHADO, C. C. V. Cidade dos algoritmos: A Ética da Informação nas Cidades Inteligentes.
Instituto de Tecnologia e Sociedade do Rio — ITS Rio, mar. 2018. Disponível em: https://itsrio.org/wp-
content/uploads/2018/03/caio_machado_etica.pdf. Acesso em: 19 abr. 2021.
180 PREFEITURA DE SÃO PAULO. Prefeitura de São Paulo anuncia parceria com Waze. Cidade de
181 KAK, A. Regulating Biometrics: Global Approaches and Urgent Questions. AI Now Institute, set.
2020. Disponível em: https://ainowinstitute.org/regulatingbiometrics.pdf. Acesso em: 20 abr. 2021. p.
31.
182 No estado de São Paulo, a Central de Regulação de Oferta de Serviços da Saúde (CROSS) reúne
informações sobre serviços hospitalares e opera a sua distribuição em toda a rede da saúde. Embora
as decisões ocorram por profissionais da saúde, o sistema divide o processo decisório entre diferentes
atores que atuam de forma independente. A alimentação das informações, bem como as avaliações de
risco e urgência são, portanto, realizadas de forma descentralizada. A CROSS veio ao centro da
discussão nos últimos meses devido ao seu papel durante a pandemia de COVID-19. É com base em
seu sistema que se realizam as alocações de vagas em hospitais e leitos em UTI no estado. A CROSS
permitiu que a gestão distribuísse pacientes para hospitais com disponibilidade de vagas em várias
regiões do estado. A plataforma foi utilizada, ainda, para reorganizar os leitos entre hospitais exclusivos
para o tratamento da COVID-19 e demais enfermidades. A centralização das decisões na CROSS na
pandemia pode ainda trazer conflitos entre as gestões estaduais e municipais. Diante da escassez de
vagas é possível que tal sistema tenha a capacidade de escolher quais regiões serão mais ou menos
demandadas nos serviços de saúde. Em CPI realizada em 2018, questionou-se o modelo de gestão do
acesso à saúde pela administração indireta. Embora a administração argumente que o sistema não
seja uma fila de espera e de que as decisões são tomadas apenas por profissionais, diante da sua
opacidade, é necessário problematizar a forma como o sistema informatizado pode influenciar as
decisões dos médicos e criar assimetrias regionais. Em última instância, é necessário verificar como o
sistema automatizado da CROSS, por meio de seus algoritmos, decide e define quais pacientes terão
preferência no atendimento, onde estes serão alocados e a quais serão negados serviços básicos
essenciais de saúde. Cf. SÃO PAULO. GOVERNO DO ESTADO DE SÃO PAULO. Central de
Regulação de Oferta de Serviços de Saúde. Disponível em: http://www.cross.saude.sp.gov.br/. Acesso
em: 20 abr. 2021; SÃO PAULO. Assembleia Legislativa do Estado de São Paulo. CPI – Organizações
Sociais da Saúde. 07 jun. 2018. Disponível em:
https://www.al.sp.gov.br/spl/2018/06/Transcricao/1000221166_1000187328_Transcricao.pdf. Acesso
em: 20 abr. 2021.
183 A pandemia de COVID-19 trouxe à tona questões importantes sobre o uso de dados pessoais pelo
poder público. O tratamento dos dados pessoais também entrou em questão para operacionalizar o
fornecimento do auxílio emergencial previsto na Lei nº 13.982/2020, regulamentado pelo Decreto nº
10.316/2020. Após uma intensa discussão para sua aprovação, veio à tona o problema de verificação
dos dados e dos critérios necessários para o recebimento do benefício. O decreto atribui ao Ministério
da Cidadania, com auxílio do Ministério da Economia, a tarefa de gerir a distribuição do benefício. A
solução encontrada para o caso, nos termos da Portaria nº 351/2020, do Ministério da Cidadania, foi a
contratação da Caixa Econômica Federal para a operacionalização dos pagamentos. Para tratamento
dos dados necessários para a verificação dos critérios de elegibilidade a portaria elegeu a empresa
pública Dataprev. No dia 7 de abril de 2020, a Caixa Econômica Federal disponibilizou o site e o
aplicativo para celular para que os cidadãos realizassem o pedido do benefício através do fornecimento
de seus dados. Esses dados, uma vez em posse da instituição financeira, são enviados à Dataprev,
que realiza o processamento dos dados, nos termos do art. 6º da referida portaria. Os dados dos
requerentes ao benefício são cruzados com bancos de dados de vários órgãos da administração
pública. Com autorização do Decreto nº 10.316/2020, o Ministério da Cidadania transferiu à empresa
as bases de dados do Cadastro Único (CadÚnico) e dos beneficiários do Bolsa Família. O dispositivo
ainda autorizou a utilização das bases de dados do Ministério da Economia com informações
necessárias para a verificação dos critérios de elegibilidade. Por meio do Contrato Administrativo nº
12/2020, assinado entre o Ministério da Cidadania e a empresa, foi assegurado a esta última o acesso
95
e interferência em quaisquer bases de dados necessárias à prestação de seus serviços. E, neste caso,
o critério de necessidade carece de uma definição precisa, o que pode levar a um acesso e uso de
dados em excesso ao estritamente necessário para a concessão do benefício, resultando em riscos no
tratamento dos dados dos cidadãos, que, inclusive, possivelmente se encontram na camada mais
vulnerável da população nacional. O primeiro problema enfrentado na verificação dos critérios de
elegibilidade foi o funcionamento do aplicativo, que apresentou falhas na instrucionalidade ou no
funcionamento da aplicação, ocasionando filas e aglomerações nas agências bancárias onde os
valores referentes ao benefício social poderiam ser sacados. Um segundo problema ocorreu após a
estabilização do aplicativo. Os problemas na análise relacionam-se principalmente à integridade dos
bancos de dados públicos. Segundo o portal da Dataprev, em publicação do dia 20 de junho de 2020,
são 23 bases governamentais utilizadas na avaliação dos critérios de elegibilidade, cujas informações
nem sempre se encontram atualizadas. Essa questão, por si, acende um sinal de alerta pela qualidade
dos sistemas informacionais das organizações públicas e indica que pode haver outras fragilidades.
Nesse contexto de baixa qualidade nas informações e a quantidade de bases de dados utilizadas, cabe
indagar acerca dos critérios objetivos utilizados para a concessão do benefício e como funciona o
processo de revisão das decisões. Embora os órgãos garantam essa possibilidade, o procedimento
não se encontra suficientemente esclarecido. O portal do Ministério da Cidadania não disponibilizou ao
público o Projeto Básico, anexo do contrato administrativo firmado com a Dataprev, no qual o processo
deveria estar detalhado. Além disso, cabe avaliar a explicação prestada àqueles que tiveram os
benefícios negados e quais seriam as possibilidades para que possam contestar a decisão. Milhões de
pedidos de benefícios foram negados sem que houvesse justificativas ou explicações suficientes.
Justificativas genéricas foram entregues, sem canais para questionamentos e argumentação. Muitas
vezes o sistema informava que havia incompatibilidade de informações entre os bancos de dados, sem
que se explicasse quais seriam as incompatibilidades, deixando os usuários na difícil situação caso
desejassem corrigir. Cf. BRASIL. Portaria nº 351, de 7 de abril de 2020. Ministério da Cidadania. Diário
Oficial da União, Brasília-DF, Seção 1 — Extra, edição 67-B, publicado em 7 abr. 2020, p. 13. Disponível
em: https://www.in.gov.br/en/web/dou/-/portaria-n-351-de-7-de-abril-de-2020-251562808. Acesso em:
24 fev. 2021; BRASIL. Decreto nº 10.316, de 7 de abril de 2020. Brasília: Presidência da República, 07
abr. 2020. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2019-
2022/2020/decreto/d10316.htm. Acesso em: 24 fev. 2021; BRASIL. Contrato Administrativo nº 12/2020.
Ministério da Cidadania, Secretaria Executiva, Subsecretaria de Assuntos Administrativos. Processo
Administrativo nº 71000.022387/2020-55. Diário Oficial da União, Brasília-DF, Seção 3, nº 91, de 14 de
maio de 2002, p. 5. Disponível em:
http://www.mds.gov.br/webarquivos/acesso_informacao/contratos/2020/12.2020/Contrato%20Adminis
ntrativo%20n%C2%BA%2012.2020%20-%20DATAPREV.pdf. Acesso em: 23 nov. 2020; AUXÍLIO
emergencial: Bases de dados utilizadas pela Dataprev. Dataprev. 20 jun. 2020. Disponível:
https://portal2.dataprev.gov.br/bases-de-dados-ultilizadas-no-processamento-do-auxilio-emergencial.
Acesso em: 23 nov. 2020; e VELOSO, A. C; CARDOSO, L.; BRÊTAS, P. Jogo dos 7 erros: auxílio de
R$ 600 é negado a quem tem requisites e concedido a quem não precisa. O Globo, 5 jun. 2020.
Disponível em: https://oglobo.globo.com/economia/jogo-dos-7-erros-auxilio-de-600-negado-quem-tem-
requisitos-concedido-quem-nao-precisa-1-24464513. Acesso em: 20 abr. 2021.
96
184 FORSYTH, D. R. Conflict. In: FORSYTH, D. R. Group dynamics. 5. ed. Belmont: CA: Wadsworth,
Cengage Learning, 2006.
185 GILLESPIE, T. Algorithm. In: PETERS, B. Digital Keywords. Princeton: Princeton University Press,
2016. p. 18-30.
186 CHENEY-LIPPOLD, J. We are data: algorithms and the making of our digital selves. New York: New
aplicação, que partirá dos critérios definidores do valor moral, a fim de concretizá-los,
através de etapas, em uma alocação real de recursos. Voltamos à antiga anedota das
crianças que disputam um pedaço de bolo e o pai que determina que um será
encarregado de cortar o bolo, enquanto o segundo terá direito de escolher o pedaço.
O valor subjacente é de que ambas as crianças são iguais e que devem receber
porções igualitárias do doce. Contudo, o procedimento de alocação torna-se um valor
em si, a partir do momento que concede aos interessados os meios de construírem
uma solução que seja aceitável para ambos e que tenha mecanismos de controle
contra abusos da outra parte. Esse valor procedimental acaba preponderando em
eficácia sobre o próprio valor abstrato de igualdade, pois as garantias efetivam uma
distribuição parecida (portanto “justa”), ainda que potencialmente o pai tivesse a
capacidade de cortar o bolo igualmente com mais precisão sozinho.
Nesse sentido, metaforicamente, é possível afirmar que um algoritmo opera o
corte e a distribuição do “bolo” para os interessados do bem jurídico que ele opera.
Nos exemplos apresentados acima, sobre a alocação de recursos no campo
da saúde e de auxílios do Estado, conseguimos perceber a importância da automação
nos mínimos critérios. No caso do CROSS, por exemplo, observa-se que o software
da regulação de leitos dá particular destaque a mulheres grávidas, por exemplo, para
que reguladores deem especial atenção àqueles casos e os tratem mais rápido.
O princípio governante do sistema é de que todos têm direito à vida e à saúde.
A escolha de dar tratamento prioritário a determinados pacientes emana de escolhas
éticas mais ou menos institucionalizadas, como, por exemplo, a prioridade a mulheres
grávidas. Essa escolha emana não da vida como um princípio abstrato, mas a partir
da concretização desse valor, que encontra barreiras à sua execução na vida real.
Barreiras essas que podem colocar os interesses individuais de dois pacientes em
posição de concorrência e obrigam o poder público a tomar decisões que podem violar
o direito à vida de um indivíduo ou outro. No caso do CROSS, a mera priorização de
uma paciente, dada através da indicação automática do software, pode significar lesão
aos interesses de outro paciente que se viu preterido em uma situação de urgência.
O ordenamento jurídico reconhece essas situações nas quais há um dever de
maximização de valores normativos gerais, muitas vezes impossíveis de serem
concretizados em conjunto diretamente a partir de sua forma abstrata. Alexy
reconhece um mecanismo assim quando discute os princípios jurídicos como
“comandos de maximização”, ou seja, ordens que devem ser alcançadas na melhor
98
188 ALEXY, R. Teoria dos direitos fundamentais. São Paulo: Malheiros, 2008.
189 MIT MEDIA LAB. The Moral Machine. Disponível em: http://moralmachine.mit.edu. Acesso em: 29
abr. 2020.
190 FRIEDLER, S. A.; SCHEIDEGGER, C.; VENKATASUBRAMANIAN, S. On the (im)possibility of
fairness. ArXiv [cs, stat], 2016. Disponível em: http://arxiv.org/abs/1609.07236. Acesso em: 18 jun.
2020.
99
191 RAWLS, J. Uma Teoria da Justiça. 3. ed. São Paulo: Martins Fontes, 2008.
101
O texto “Big Data and Due Process: Toward a Framework to Redress Predictive
Privacy Harms”192, de autoria de Kate Crawford e Jason Schultz, apresenta os
192 CRAWFORD, K.; SCHULTZ, J. Big Data and Due Process: Toward a Framework to Redress
102
Predictive Privacy Harms. Rochester, NY: Social Science Research Network, 2013. Disponível em:
https://papers.ssrn.com/abstract=2325784. Acesso em: 27 maio 2020.
193 CITRON, D. K. Technological Due Process. Washington University Law Review, v. 85, p. 1249-1313,
VI e XIV.
103
195 CITRON, D. K. Technological Due Process. Washington University Law Review, v. 85, p. 1249-1313,
2007. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1012360. Acesso em: 21
jun. 2021.
196 Ibidem, p. 18.
197 CITRON, D. K.; PASQUALE, F. The Scored Society: Due Process for Automated Predictions.
This is not to suggest that full due process guarantees are required as
a matter of current law. Given the etiolated state of “state action”
doctrine in the United States, FICO and credit bureaus are not state
actors; however, much of their business’s viability depends on the
complex web of state supports and rules surrounding housing finance.
Nonetheless, the underlying values of due process—transparency,
accuracy, accountability, participation, and fairness—should animate
the oversight of scoring systems given their profound impact on
people’s lives. Scholars have built on the “technological due process”
model to address private and public decision-making about individuals
based on the mining of Big Data.199
199 CITRON, D. K.; PASQUALE, F. The Scored Society: Due Process for Automated Predictions.
Washington Law Review, v. 89, 2014. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2376209. Acesso em: 2 abr. 2021. p. 19-20.
200 Ibidem, p. 20.
201 CITRON, D. K.; PASQUALE, F. The Scored Society: Due Process for Automated Predictions.
Além de garantir trilhas de auditoria dos algoritmos, uma outra forma de cercar
esses sistemas de transparência seria o que os autores chamam de interactive
modelling, mecanismo bastante similar à ideia de conterfactual explanations proposta
por Wachter et al.: “Another approach would be to give consumers the chance to see
what happens to their score with different hypothetical alterations of their credit
histories.”207
Garantir um maior nível de transparência em torno desses sistemas não é
tarefa fácil, contudo, sobretudo em razão da grande objeção apresentada por algumas
organizações. De acordo com os autores, os bureaus de crédito, por exemplo, tendem
208 CITRON, D. K.; PASQUALE, F. The Scored Society: Due Process for Automated Predictions.
Washington Law Review, v. 89, 2014. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2376209. Acesso em: 2 abr. 2021. p. 30-32.
209 “A partir da tradição norte-americana, também é possível identificar como corolário da dimensão
210 SECAF, H.; ZANATTA, R. A. F.; NUÑEZ, I. S. O Cadastro Base do Cidadão na mira do Supremo.
Jota, 9 abr. 2021. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/agenda-da-
privacidade-e-da-protecao-de-dados/o-cadastro-base-do-cidadao-na-mira-do-supremo-09042021.
Acesso em: 24 abr. 2021.
109
Nos Estados Unidos, apesar de não haver uma legislação geral de proteção de
dados pessoais, muito menos uma autoridade especializada de enforcement ou
disposições específicas versando sobre o direito à explicação, este tem sido derivado
a partir da cláusula geral do processo legal, conforme previsto na 5ª e 14ª emendas
da Constituição dos Estados Unidos, que, uma vez contextualizada, dá origem à
noção de devido processo informacional, construção que dá abertura ao
reconhecimento de um direito à explicação no contexto norte-americano.
Tendo em vista a centralidade desses dois cenários no atual debate sobre o
direito à explicação, é bastante provável que eles venham a influenciar o debate
brasileiro sobre a existência de um direito à explicação na LGPD. Ademais, o
mapeamento do debate internacional nos permite aprender com os erros e acertos da
experiência jurídica internacional, bem como ter contato com elementos e soluções
que podem ser transpostos para o cenário brasileiro, observadas suas
particularidades e especificidades.
211
NEWMAN, A. P. Protectors of Privacy: Regulating Personal Data in the Global Economy. London:
Cornell University Press, 2008. p. 26-35.
112
212 “Regimes governing the processing of personal data can be broadly categorized in two ways. The
first category is omnibus; the EU regime is categorized in this way. The second category of regime is
sectoral, also sometimes referred to as a ‘sectional’ or ‘limited’ regime. The regime in place in the United
States (US) typifies, albeit perhaps to a decreasing extent, this type of ‘sectoral’ regime.” (LYNSKEY,
O. The Foundations of EU Data Protection Law. Oxford: Oxford University Press, 2015. p. 15).
213 ESTADOS UNIDOS DA AMÉRICA. Electronic Communications Privacy Act, 18 U.S.C. §2510 e ss.,
Berti de Campos. Modelos regulatórios para proteção de dados pessoais. Rio de Janeiro: Instituto de
Tecnologia e Sociedade do Rio, 2017. Disponível em: https://itsrio.org/wp-
content/uploads/2017/03/Guilherme-Guidi-V-revisado.pdf. Acesso em: 22 mar. 2021. p. 10-15.
113
218GUIDI, Guilherme Berti de Campos. Modelos regulatórios para proteção de dados pessoais. Rio de
Janeiro: Instituto de Tecnologia e Sociedade do Rio, 2017. Disponível em: https://itsrio.org/wp-
content/uploads/2017/03/Guilherme-Guidi-V-revisado.pdf. Acesso em: 22 mar. 2021. p. 13.
219 FEDERAL TRADE COMMISSION. A Brief Overview of the Federal Trade Commission's
Investigative, Law Enforcement, and Rulemaking Authority. FTO, out. 2019. Disponível em:
https://www.ftc.gov/about-ftc/what-we-do/enforcement-authority. Acesso em: 22 mar. 2021; Neste
sentido, cf. também: FEDERAL TRADE COMMISSION. FTC Policy Statement on Deception. FTC,
Washington, D.C., 14 out. 1983. Disponível em:
https://www.ftc.gov/system/files/documents/public_statements/410531/831014deceptionstmt.pdf.
Acesso em: 22 mar. 2021.
114
uso de sistemas automatizados com base no “Fair Credit Reporting Act” e no “Equal
Credit Opportunity Act”:
Como visto acima, não há, no cenário norte-americano, uma lei geral de
proteção de dados pessoais nem mesmo qualquer normativa setorial tratando
especificamente sobre o direito à explicação. Não obstante, conforme buscaremos
desenvolver ao longo deste capítulo, mesmo sem uma lei geral de proteção de dados
pessoais, e na ausência de previsões normativas específicas, há um sistema que,
partindo das obrigações de transparência e da cláusula geral do devido processo legal
do constitucionalismo norte-americano, nos permite trabalhar com a ideia de um
direito à explicação em sistemas automatizados no seu cenário regulatório. Nesse
sentido, passaremos a apresentar a seguir os fundamentos da ideia de um devido
processo informacional nos EUA, quais sejam, os Fair Information Practice Principles
(FIPPs), bem como o debate teórico desenvolvido em torno desses princípios e do
direito à explicação sob a ótica do devido processo informacional.
O texto “Big Data and Due Process: Toward a Framework to Redress Predictive
Privacy Harms”221, de autoria de Kate Crawford e Jason Schultz, apresenta os
desafios, para os defensores da privacidade, trazidos pelo advento da tecnologia de
Big Data no setor privado e pelo fato de sua configuração muitas vezes “fugir” das
regulações tradicionais, criando um modelo de tratamento de dados que, ainda que
eventualmente não identifique indivíduos específicos, têm efeitos sobre suas vidas. O
artigo propõe uma nova abordagem para endereçar e mitigar riscos à privacidade
nesse contexto — a de um direito ao “devido processo de dados”, partindo de uma
análise do papel do devido processo legal no sistema anglo-americano.
220 JILLSON, E. Aiming for truth, fairness, and equity in your company’s use of AI. Federal Trade
Commision, 19 abr. 2021. Disponível em: https://www.ftc.gov/news-events/blogs/business-
blog/2021/04/aiming-truth-fairness-equity-your-companys-use-ai. Acesso em: 22 jun. 2021.
221 CRAWFORD, K.; SCHULTZ, J. Big Data and Due Process: Toward a Framework to Redress
Predictive Privacy Harms. Rochester, NY: Social Science Research Network, 2013. Disponível em:
https://papers.ssrn.com/abstract=2325784. Acesso em: 27 maio 2020.
115
222 CITRON, D. K. Technological Due Process. Washington University Law Review, v. 85, p. 1249-1313,
2007. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1012360. Acesso em: 21
jun. 2021. p. 1249.
223 ESTADOS UNIDOS DA AMÉRICA. Constituição dos Estados Unidos da América. 1787. Emendas
V e XIV.
116
Records, Computers and the Rights of Citizens, de 1973. O processo de criação dos
princípios presentes nesse relatório ocorreu no contexto das reuniões do Secretary’s
Advisory Committee on Automated Personal Data Systems (SACAPDS) do
Department of Health, Education and Welfare (HEW).
O relatório apresentou, baseado na análise dos diversos usos de bancos de
dados públicos e privados, os principais riscos na ótica de grandes especialistas da
época. Além disso, apresentou recomendações de medidas de segurança e limites de
utilização para garantir os direitos dos titulares. Os princípios apresentados são a base
de uma agenda regulatória que representa o momento de emergência de novas
tecnologias e configurações sociais, já premente à época.
O comitê foi composto por experts, profissionais de agências regulatórias, do
poder legislativo e de setores econômicos. Foram nove encontros ocorridos entre
1972 e 1973. Uma análise do encontro e dos debates pode ser encontrada em artigo
de Chris Jay Hoofnagle224. As questões debatidas são relevantes até os dias de hoje
e permitem apreender o contexto do surgimento das preocupações sobre proteção de
dados e privacidade que ocorreu em diversos países durante a década de 1970.
Esse contexto, que motivou a criação de diversos marcos legais para proteção
de dados, é bem apresentado na obra de Colin Bennett 225. Algumas características
emergentes das sociedades pós-industriais levaram a convergências nas regulações.
A rapidez da difusão da tecnologia da informação e sua opacidade; a criação de uma
comunidade internacional em defesa da proteção de dados; uma tendência de
padronização e cooperação internacional e a prevalência dos valores democráticos
liberais fizeram com que, em diferentes países, os legisladores chegassem a soluções
parecidas.
Embora os modelos de regulação variem de acordo com os arranjos
institucionais de cada país, é comum indicar os FIPs como origem dos atuais
instrumentos normativos de proteção de dados. São princípios cuja aplicação varia de
acordo com os tipos de dados, a natureza do controlador e os objetivos do tratamento.
Seu conteúdo pode ser encontrado em diversos instrumentos regulatórios dos EUA e
224 HOOFNAGLE, C. J. The Origin of Fair Information Practices: Archive of the Meetings of the
Secretary’s Advisory Committee on Automated Personal Data Systems (SACAPDS). Berkeley Law, 16
jul. 2014. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2466418. Acesso em:
21 jun. 2021.
225 BENNET, C. Regulating privacy: data protection and public policy in Europe and the United States.
226GELLMAN, R. Fair Information Practices: A Basic History. v. 2.19. Rochester, NY: Social Science
Research Network, 2019. Disponível em: https://papers.ssrn.com/abstract=2415020. Acesso em: 11
jun. 2020.
118
227 HOOFNAGLE, C. J. The Origin of Fair Information Practices: Archive of the Meetings of the
Secretary’s Advisory Committee on Automated Personal Data Systems (SACAPDS). Berkeley Law, 16
jul. 2014. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2466418. Acesso em:
21 jun. 2021.
228 KAMINSKI, M. E. The Right to Explanation, Explained. Berkeley Technology Law Journal, v. 34, n.
fundamentos, alguns autores defendem que é preciso avançar para uma concepção
mais sistêmica, de forma a garantir direitos e possibilitar a reparação de injustiças. A
transparência continua sendo uma peça fundamental na regulação da privacidade,
contudo, é vista como uma etapa inserida num processo mais amplo.
Mais do que procedimentos, Crawford e Schultz defendem um resgate dos
valores subjacentes ao devido processo legal, conforme consolidados na doutrina
jurídica. Tais valores podem ser identificados como: “(1) precisão; (2) aparência de
justiça; (3) igualdade de inputs no processo; (4) previsibilidade, transparência e
racionalidade; (5) participação; (6) revelação e (7) privacidade-dignidade.”231
Somados a estes, vêm também a noção de juiz imparcial e de separação de poderes,
que pode ser aplicada por analogia aos processos de Big Data quando se observa
que há pouca ou nenhuma regulação das interações entre os atores na cadeia de
tratamento, nem há um sistema de freios e contrapesos para evitar que haja vieses
no sistema.
A título de síntese, os autores definem o devido processo legal, conforme
historicamente desenvolvido no sistema estadunidense, como um requerimento
constitucional de que qualquer privação da liberdade ou propriedade de um indivíduo
seja precedida, no mínimo, por uma notificação e uma oportunidade de uma audiência
diante de um julgador imparcial.
Transportando cada um destes elementos para uma lógica informacional de
Big Data, os autores fazem as seguintes considerações: no que se refere à notificação,
este aviso deve conter o tipo de previsões feitas a partir de determinados dados, as
fontes de dados utilizados como inputs. No mínimo, defende-se que as pessoas
afetadas devem saber quais as questões previstas e, idealmente, os dados utilizados
e a metodologia. O aviso também deve proporcionar um mecanismo para acessar a
trilha ou registro de auditoria criada no processo preditivo.
No caso da oportunidade, concedida ao titular, de ser ouvido, trata-se de uma
segunda etapa que lhe possibilita desafiar determinada decisão tomada com base em
Big Data, e, se necessário, corrigir informações consideradas imprecisas, e até
mesmo se opor a elas caso não concordasse ou lhe impactasse negativamente. Isso
incluiria o exame das evidências empregadas para informar uma decisão, como o
231REDISH, M.; MARSHALL, L. Adjudicatory Independence and the Values of Procedural Due Process.
Yale Law Journal, [S. l.], v. 95, n. 3, 1986. Disponível em:
https://digitalcommons.law.yale.edu/ylj/vol95/iss3/1. Acesso em: 21 jun. 2021.
120
input de dados e a lógica algorítmica utilizada. A ideia de juiz imparcial, por fim, busca
endereçar a falácia de que processos que fazem uso de Big Data acabam por gerar
resultados neutros e objetivos, bem como, enquanto uma “função de separação de
poderes”, examinar as relações entre aqueles que desenvolvem softwares e sistemas
e aqueles que os aplicam para coletar, minerar e gerar dados relevantes.
No mesmo ano, outro trabalho, intitulado “The Scored Society: Due Process for
Automated Predictions”232 abordou a mesma questão, também no marco legal
estadunidense, a partir do contexto mais específico de scoring automatizado de
crédito baseado em mineração de Big Data. Nesse segundo paper, Citron e Pasquale
também clamam por uma construção de devido processo legal aplicado a estas
tecnologias e práticas, mas partem de argumentos relacionados à natureza e objetivos
da Inteligência Artificial. Segundo os autores, a Inteligência Artificial tem uma
perspectiva técnica, advinda da engenharia, que foca em garantir resultados pelo
trabalho de máquinas que “[...] requeririam inteligência se operados por seres
humanos.”233
A abordagem cognitiva, por outro lado, foca em desenhar sistemas que operem
tal qual uma mente humana. A distinção, embora sutil, é relevante, pois a perspectiva
técnica confere maior peso ao resultado, independente da forma com a qual ele é
obtido — invoca-se, aqui, a metáfora da “caixa preta”, em que inputs são convertidos
em outputs sem que se revele como. Os autores afirmam que sistemas de scoring
costumam ser abordados por esta perspectiva, como uma tecnologia de
gerenciamento de risco, mas que os potenciais prejuízos que implicam para os seres
humanos demandam uma retomada da abordagem cognitiva.
Diante da constatação de que os benefícios dos sistemas automatizados de
scoring são mais dificilmente vislumbrados do que os seus riscos, os autores apostam
na construção de um sistema de barreiras, por meio de transparência e mecanismos
individuais de contestação e sistêmicos de auditoria, com base em instrumentos e
organismos existentes no sistema jurídico-regulatório estadunidense.
Para atingir esta mudança, pensando especificamente na prática de scoring, os
232 CITRON, D. K.; PASQUALE, F. The Scored Society: Due Process for Automated Predictions.
Washington Law Review, v. 89, 2014. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2376209. Acesso em: 2 abr. 2021.
233 CHOPRA, S.; WHITE, L. F. A Legal Theory for Autonomous Artificial Agents. [S. l.]: University of
234 GELLMAN, R. Fair Information Practices: A Basic History. v. 2.19. Rochester, NY: Social Science
Research Network, 2019. Disponível em: https://papers.ssrn.com/abstract=2415020. Acesso em: 11
jun. 2020.
235 SMITH, A. Using Artificial Intelligence and Algorithms. Federal Trade Commission, 8 abr. 2020.
uma série de recomendações. Entre elas há, por exemplo, o dever de ser transparente
na coleta de dados, sobre finalidades e fontes de informações. Além disso, recomenda
que as empresas expliquem as decisões, ao menos sobre quais dados e quais foram
os fatores determinantes. Recomenda ainda que se realizem análises para evitar
discriminações e que deem uma oportunidade para que os consumidores possam
corrigir informações. O documento ainda sugere que as empresas se preocupem com
a robustez e a representatividade dos dados usados, bem como que se mantenham
padrões de governança e de accountability.
No entanto, tais medidas carecem de mecanismos efetivos de enforcement e
de que sejam estabelecidos critérios claros para o exercício da transparência. Citron
e Pasquale defendem que, no mínimo, todo titular de dados deve ter acesso a todas
as informações sobre dados relativos a si e, idealmente, a lógica por trás dos sistemas
preditivos de scoring deveria estar disponível para inspeção pela sociedade. As
objeções possivelmente levantadas quanto a este modelo aprofundado de
transparência — como empecilhos à inovação, segredos de negócio, propriedade
intelectual e a possibilidade de que os objetos das classificações passem a “burlar o
sistema” — são contrapostos, pelos autores, aos prejuízos incalculáveis a direitos
básicos dos cidadãos sujeitos a estas práticas, de forma que, embora legítimos,
devem ser argumentos excepcionais.
Convém apontar como o segredo de negócio tem se mostrado uma barreira no
processo de transparência e para a accountability dos algoritmos. Em algumas
aplicações esse fator pode trazer ameaças sérias aos direitos constitucionais. Na
justiça criminal, por exemplo, algoritmos estão relacionados a decisões importantes
como cálculo de pena237 ou mesmo de culpabilidade. A falta de conhecimento sobre
o algoritmo torna-se um obstáculo ao direito de defesa, uma vez que não é possível
questionar seus resultados.
Um projeto de lei238, de autoria do deputado californiano Mark Takano, pretende
impedir que os juízes neguem à defesa o acesso ao código fonte ou informações sobre
237 O software COMPAS, utilizado em vários estados, foi testado por uma agência de jornalismo
investigativo. O resultado da análise encontrou fortes evidências de viés racial no cálculo de
probabilidade de reincidência. Cf. ANGWIN, J. et al. Machine Bias. ProPublica, 23 maio 2016.
Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-
sentencing. Acesso em: 27 maio. 2020.
238 ESTADOS UNIDOS DA AMÉRICA. H.R.4368 — 116th Congress (2019-2020): Justice in Forensic
239 TAKANO, M. Opening the Black Box of Forensic Algorithms. Medium, 3 dez. 2019. Disponível em:
https://medium.com/@repmarktakano/opening-the-black-box-of-forensic-algorithms-6194493b9960.
Acesso em: 24 jul. 2020.
240 ESTADOS UNIDOS DA AMÉRICA. H.R. 2231 — 116th Congress (2019-2020): Algorithmic
242 WACHTER, S.; MITTELSTADT, B.; RUSSELL, C. Counterfactual Explanations Without Opening the
Black Box: Automated Decisions and the GDPR. SSRN Electronic Journal, v. 31, n. 2, 2017. Disponível
em: https://www.ssrn.com/abstract=3063289. Acesso em: 27 maio. 2020; SELBST, A. D.; POWLES, J.
Meaningful Information and the Right to Explanation. International Data Privacy Law, v. 7, n. 4, p. 233-
242, 2017. Disponível em: https://papers.ssrn.com/abstract=3039125. Acesso em: 27 maio 2020.
243 A despeito disso, é possível afirmar que as tipologias desenhadas pelos autores que estruturam o
debate sobre a existência do direito à explicação seguem presentes e influenciando os escritos mais
recentes. Em 2019, a fundação Bertelsmann Stiftung disponibilizou um discussion paper intitulado: “The
General Data Protection Regulation and Automated Decision-making: Will it deliver?” em que faz um
sobrevoo sobre todos os dispositivos relevantes da GDPR acerca de decisões automatizadas e os
riscos que elas produzem frente aos direitos de titulares de dados pessoais, grupos e a sociedade,
como um todo. Dentre as limitações observadas estão algumas daquelas pontuadas por Wachter et al.
125
244 KAMINSKI, M. E. The Right to Explanation, Explained. Berkeley Technology Law Journal, v. 34, n.
189, 2019. Disponível em: https://papers.ssrn.com/abstract=3196985. Acesso em: 27 maio. 2020.
245 Ibidem, p.
126
247 Recital 71: “[…] such as automatic refusal of an online credit application or e-recruiting practices
without any human intervention…in particular to analyse or predict aspects concerning the data subject’s
performance at work, economic situation, health, personal preferences or interests, reliability or
behaviour, location or movements, where it produces legal effects concerning him or her or similarly
significantly affects him or her.” (UNIÃO EUROPEIA. Regulamento Geral sobre a Proteção de Dados
— Considerando 71. Disponível em: https://gdpr-text.com/pt/read/recital-71/. Acesso em: 21 jun. 2021).
248 EUROPEAN DATA PROTECTION BOARD. Guidelines on Automated individual decision-making
and Profiling for the purposes of Regulation 679/2016. Bruxelas: European Commission, 2016.
Disponível em: https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053. Acesso em:
02 jul. 2021.
128
UNIÃO EUROPEIA. Regulamento Geral sobre a Proteção de Dados — Considerando 71. Disponível
249
250 PASQUALE, F. The Black box society: the secret algorithms that control money and information.
First Harvard University Press paperback edition ed. Cambridge, Massachusetts; London, England:
Harvard University Press, 2015.
130
3.1.2.1 GDPR
Regulamento, apenas nas suas considerandas, que não são vinculantes251, é possível
argumentar que há um direito à explicação no Regulamento Europeu de Proteção de
Dados. Ele teria como base o princípio da transparência e o direito de acesso aos
dados, que incluiria o direito a receber explicação sobre a lógica subjacente de
decisões totalmente automatizadas com impacto na vida dos indivíduos –
principalmente as que incluem perfis comportamentais.
Do outro lado do Atlântico, a discussão sobre práticas preditivas sobre dados
pessoais, avanço das tecnologias que lhes dão sustentação e demandas regulatórias
continuou a se estruturar em torno do novo Regulamento Geral de Proteção de Dados
europeu, cuja redação direcionou o debate para o direito à explicação, objeto desta
tese. Por isso, convém retomarmos em maior profundidade a discussão em torno da
legislação europeia.
Cerca de dois meses depois da aprovação do Regulamento, o paper “European
Union regulations on algorithmic decision-making and a “right to explanation”252 deu
início à discussão que vem ganhando novos contornos e se estende até o momento,
dois anos após a entrada em vigor do Regulamento. O argumento de Goodman e
Flaxman é simples: o art. 22 do Regulamento, que diz respeito a decisões
automatizadas, inclusive profiling, pode, a depender de sua interpretação e
enforcement, exigir uma completa revisão de técnicas algorítmicas amplamente
utilizadas e padronizadas na indústria. Mais do que isso, a escolha do Regulamento
em conferir o direito aos cidadãos de “receber uma explicação para decisões por
algoritmos evidencia a crescente relevância da possibilidade de interpretação humana
no design de algoritmos.”253 A consequência, naturalmente, é uma crescente
necessidade de algoritmos que possam operar efetivamente dentro deste novo marco
legal.
Em resumo, o art. 22, parágrafo 1, veda qualquer, com algumas exceções,
“decisão baseada exclusivamente em tratamento automatizado, inclusive profiling”,
desde que ela “afete significativamente” (sendo este efeito jurídico ou não) o titular. O
251 VEALE, M. Governing Machine Learning that Matters. 2019. Doctoral Thesis (PhD in Science,
Technology, Engineering and Public Policy) — University College London, London, 2019. Disponível
em: https://discovery.ucl.ac.uk/id/eprint/10078626/1/thesis_final_corrected_mveale.pdf. Acesso em 15
dez. 2020. p. 111-112.
252 GOODMAN, B.; FLAXMAN, S. European Union regulations on algorithmic decision-making and a
“right to explanation”. AI Magazine, [S. l.], v. 38, n. 3, p. 50–57, 2017. Disponível em:
https://arxiv.org/abs/1606.08813. Acesso em: 15 dez. 2020.
253 Ibidem, p. ....
132
254 GOODMAN, B.; FLAXMAN, S. European Union regulations on algorithmic decision-making and a
“right to explanation”. AI Magazine, [S. l.], v. 38, n. 3, p. 50–57, 2017. Disponível em:
https://arxiv.org/abs/1606.08813. Acesso em: 15 dez. 2020.
133
255 BURRELL, J. How the Machine “Thinks:” Understanding Opacity in Machine Learning Algorithms.
Rochester, NY: Social Science Research Network, 2015. Disponível em:
https://papers.ssrn.com/abstract=2660674. Acesso em: 27 maio. 2020.
256 WACHTER, S.; MITTELSTADT, B.; FLORIDI, L. Why a Right to Explanation of Automated Decision-
Making Does Not Exist in the General Data Protection Regulation. Rochester, NY: Social Science
Research Network, 2016. Disponível em: https://papers.ssrn.com/abstract=2903469. Acesso em: 27
maio. 2020.
134
257“[...] In any case, such processing should be subject to suitable safeguards, which should include
specific information to the data subject and the right to obtain human intervention, to express his or her
point of view, to obtain an explanation of the decision reached after such assessment and to challenge
the decision.” (UNIÃO EUROPEIA. Regulamento Geral sobre a Proteção de Dados — Considerando
71. Disponível em: https://gdpr-text.com/pt/read/recital-71/. Acesso em: 21 jun. 2021).
135
258WACHTER, S.; MITTELSTADT, B.; RUSSELL, C. Counterfactual Explanations Without Opening the
Black Box: Automated Decisions and the GDPR. SSRN Electronic Journal, v. 31, n. 2, 2017. Disponível
em: https://www.ssrn.com/abstract=3063289. Acesso em: 27 maio. 2020.
138
para que todos os três objetivos sejam cumpridos consiste em fornecer “explicações
contrafactuais”, isto é, um raciocínio construído a partir de orações condicionais em
que uma delas é falsa.
Diferentemente da lógica que permeia a literatura sobre a explicação no
contexto de sistemas automatizados, essa proposta baseia-se em elementos externos
que conduzem a uma decisão e não sua lógica interna (“se fator X fosse diferente,
então determinada classificação de um indivíduo seria Y”). Conforme explorado
minuciosamente no primeiro artigo, os autores defendem que a GDPR não cria um
direito que requeira o destrinchamento dos sistemas de decisões automatizadas, de
forma que a proposta de abordagem deste paper se amoldaria às exigências dos seus
dispositivos.
O art. 12 (7)259 do Regulamento, segundo os autores, corrobora esta tese, na
medida em que esclarece que o objetivo dos arts. 13 e 14 é “de forma visível, inteligível
e legível oferecer um panorama significativo do tratamento pretendido”. O art. 12(1),
por sua vez, estabelece que toda comunicação e informação destinada ao titular de
dados deve ser fornecida de maneira “concisa, transparente, inteligível e facilmente
acessível”, o que sugere que uma abordagem complexa e baseada em “juridiquês” ou
explicações altamente técnicas seria considerada inadequada.
Um terceiro passo na trajetória de Sandra Wachter e pesquisadores parceiros
em relação ao direito à explicação no âmbito do Regulamento se deu na forma do
artigo “A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age
of Big Data and AI”, que reafirma a inexistência de um direito à explicação, assim como
seu escopo limitado, caso existisse de forma vinculante na GDPR260. A partir disso, o
artigo envereda por outro caminho, na medida em que considera que o fornecimento
de explicações, quaisquer que sejam suas naturezas, é apenas um dos caminhos
259 “Art. 12. Transparent information, communication and modalities for the exercise of the rights of the
data subject. […] 7. The information to be provided to data subjects pursuant to Articles 13 and 14 may
be provided in combination with standardised icons in order to give in an easily visible, intelligible and
clearly legible manner a meaningful overview of the intended processing. Where the icons are presented
electronically, they shall be machine-readable.” (UNIÃO EUROPEIA. Regulation (EU) 2016/679 of the
European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard
to the processing of personal data and on the free movement of such data, and repealing Directive
95/46/EC (General Data Protection Regulation) (Text with EEA relevance). Official Journal of the
European Union, 4 maio 2016. Disponível em; https://eur-lex.europa.eu/eli/reg/2016/679/oj/eng. Acesso
em: 27 ago. 2021).
260 WACHTER, S.; MITTELSTADT, B. A Right to Reasonable Inferences: Re-Thinking Data Protection
Law in the Age of Big Data and AI. LawArXiv, 12 out. 2018. Disponível em:
https://doi.org/10.31228/osf.io/mu2kf. Acesso em: 27 maio 2020.
139
261 OII LONDON LECTURE. Show me your data and I’ll tell you who you are. 30 out. 2018. Disponível
em: https://www.oii.ox.ac.uk/videos/oii-london-lecture-show-me-your-data-and-ill-tell-you-who-you-
are/. Acesso em: 21 jun. 2021.
262 MAYER-SCHÖNBERGER, V. Delete. [S. l.]: Princeton University Press, 2009. Disponível em:
communications for intelligence and national security purposes. Bruxelas: European Commission, 10
abr. 2014. Disponível em: https://ec.europa.eu/justice/article-
29/documentation/opinionrecommendation/files/2014/wp215_en.pdf. Acesso em: 27 jul. 2020.
140
sentido. A primeira decisão264 apresentada por Wachter et al. afirma que análises não
podem ser consideradas dados pessoais, pois esta seria uma qualificação restrita a
fatos e, ainda, que o objetivo da proteção de dados pessoais não é garantir
transparência. Outra decisão265, mais recente, afirma que o conceito de dado pessoal
deve ter uma interpretação abrangente, conforme desenvolvido na referida Opinião nº
4. Entretanto, nesta mesma decisão, também se entendeu que a definição sobre a
aplicação dos direitos relativos à proteção de dados pessoais, o contexto deve ser
observado, partindo-se de uma abordagem teleológica.
Assim, por exemplo, no caso de respostas de um exame, apesar de serem
consideradas dados pessoais (pois são usadas para avaliar alguém), evidentemente
não seria possível exercer o correspondente direito de retificação. No caso de
comentários de avaliadores, por outro lado, entendeu-se que são dados pessoais da
pessoa avaliada, mas também do avaliador, de forma que o direito de acesso poderia
sofrer determinadas restrições. No caso de exercício do direito de retificação, ainda,
seria possível verificar se todo o conteúdo fora corrigido, se todas as folhas estavam
corretas, se a prova não fora confundida com a de outro aluno, mas nunca avaliar se
os comentários e a avaliação do corretor em si estão corretos.
Com estes exemplos, os autores pretendem demonstrar uma certa incerteza,
do ponto de vista de diferentes órgãos com relevantes funções interpretativas, em
relação a questões básicas sobre inferências e dados pessoais.
A próxima questão levantada é se existe uma proteção contra inferências feitas
a partir de informações sensíveis. Na GDPR, a definição de dados sensíveis
claramente abrange inferências, posição também adotada pelo Grupo de Trabalho do
Art. 29. A Corte Europeia, por outro lado, em julgamento de 2012, entendeu em outro
sentido, propondo uma interpretação restritiva de dado sensível que exige
intencionalidade e confiabilidade, ambos elementos que Wachter et al. apontam como
irrelevantes em uma era de Big Data.
A terceira questão levantada no artigo diz respeito às inferências e aos
segredos comerciais. A GDPR tem dois objetivos claros: a proteção de dados
264 UNIÃO EUROPEIA. Tribunal de Justiça da União Europeia (3. Câmara). Casos C-141/12 & 372/12,
YS, M e S v. Minister voor Immigratie, Integratie en Asiel, Data de Julgamento: 17/06/2014. Disponível
em: https://curia.europa.eu/juris/liste.jsf?num=C-141/12&language=en. Acesso em: 21 jun. 2021.
265 UNIÃO EUROPEIA. Tribunal de Justiça da União Europeia (2. Câmara). Caso C-434/16, Peter
Nowak v. Data Prot. Comm’r, Data de Julgamento: 20/12/2017. Disponível em: https://eur-
lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A62016CJ0434. Acesso em: 21 jun. 2021.
141
266SELBST, A. D.; POWLES, J. Meaningful Information and the Right to Explanation. International Data
Privacy Law, v. 7, n. 4, p. 233-242, 2017. Disponível em: https://papers.ssrn.com/abstract=3039125.
Acesso em: 27 maio 2020.
142
informação se ela “dá a sensação ao titular de que ele não está totalmente alijado do
controle”. Dessa forma, explicações simples e genéricas sobre a funcionalidade de
um sistema, sem entrar nas complexidades que permitem o entendimento de uma
decisão específica, poderiam ser consideradas suficientes. Mas, Selbst e Powles
defendem que essa lógica contraria o espírito da GDPR de conferir direitos mais
robustos aos titulares de dados pessoais.
Quanto à distinção de timing estabelecida por Wachter et al., os autores
também são categóricos em afastá-la, mais uma vez pela própria natureza dos
sistemas de machine learning. Além disso, ressaltam que, enquanto o argumento
contrário baseia-se em uma análise literal e rígida do texto do Regulamento, ele
parece ignorar que os arts. 13 a 15 não fazem nenhuma referência explícita a timing
de decisões, sendo a única referência a esta distinção proveniente do Considerando
71, que, por sua vez, está relacionado ao art. 22. Considerados estes pontos, os
autores afirmam que todos os argumentos de Wachter et al. não invalidam a existência
de um direito à explicação em si, mas apenas da sua própria versão limitada deste
direito.
Selbst e Powles defendem, então, que a posição contrária à sua é falha por se
prender a um framework analítico excessivamente estático e negligenciar o significado
mais profundo das previsões que de fato foram incorporadas ao texto final do
Regulamento, em especial o significado de “informação significativa”. Também não se
debruçam sobre outros dispositivos do Regulamento que reforçariam a existência de
um direito à explicação, como o art. 22(3).
Quanto aos argumentos de Wachter et al. em relação às limitações
apresentadas pelos interesses dos controladores e segredos de negócio/propriedade
intelectual, o artigo desconsidera os precedentes citados para sustentar este
argumento por serem interpretações da Diretiva, não mais vigente, produzidas no
âmbito dos Estados-Membros. Além da mudança na lógica de estabelecimento de
precedentes para um modelo mais centralizado com o advento da GDPR267, Selbst e
267Para compreender o que os autores querem dizer quando se referem a uma mudança na lógica de
estabelecimento de precedentes de um modelo descentralizado para um modelo mais centralizado com
o advento da GDPR, faz-se necessária uma breve nota acerca das especificidades do arranjo jurídico-
institucional europeu. De acordo com o art. 288 do Tratado de Funcionamento da União Europeia
(TFUE), dispositivo que define os vários tipos de atos jurídicos que a UE pode adotar, as diretivas
caracterizam-se como atos jurídicos que vinculam o Estado-Membro destinatário quanto ao resultado
a ser alcançado, deixando, no entanto, às instâncias nacionais a competência quanto à forma e aos
meios a serem utilizados. Sendo assim, cabe a cada Estado-Membro transpor para o ordenamento
144
interno as disposições da diretiva na forma de atos legislativos nacionais. Os regulamentos, por sua
vez, são atos jurídicos de caráter geral, sendo obrigatórios em todos os seus elementos e diretamente
aplicáveis a todos os Estados-Membros. É nesse sentido que se afirma que houve um movimento de
centralização com a mudança de regime da Diretiva 95/46/CE para o Regulamento (UE) 679/2016. Cf.
UNIÃO EUROPEIA. Tratado sobre o Funcionamento da União Europeia. 6 jul. 2016. Disponível em:
https://eur-lex.europa.eu/resource.html?uri=cellar:9e8d52e1-2c70-11e6-b497
01aa75ed71a1.0019.01/DOC_3&format=PDF. Acesso em: 25 nov. 2020.
145
268 INFORMATION COMMISSIONER'S OFFICE. Big data, artificial intelligence, machine learning and
data protection. 2017. Disponível em: https://ico.org.uk/media/for-
organisations/documents/2013559/big-data-ai-ml-and-data-protection.pdf. Acesso em: 28 jul. 2020.
269 INFORMATION COMMISSIONER’S OFFICE; THE ALAN TURING INSTITUTE. ICO and Turing
dos titulares.
A GDPR é um marco inserido numa estratégia da União Europeia para as
transformações digitais. Os princípios e direitos previstos no regulamento visam
garantir um ambiente confiável e robusto para o desenvolvimento econômico
associado à economia digital e principalmente à inteligência artificial. A Comissão
Europeia, órgão responsável por aplicar as decisões do Parlamento Europeu, bem
como propor legislações e medidas de defesa dos interesses da União Europeia, tem
desenvolvido uma série de documentos que devem orientar os desenvolvimentos
regulatórios no bloco e nos países membros. Em 2018, a Comissão Europeia, no
documento “Coordinated plan on Artificial Intelligence”, compara o surgimento da
inteligência artificial ao desenvolvimento da eletricidade na capacidade de
transformação da sociedade271.
Os desafios associados a essa transformação dizem respeito ao medo dos
trabalhadores de perderem seu emprego, aos riscos aos consumidores em relação à
responsabilidade por erros causados por falhas nos algoritmos ou mesmo às futuras
máquinas operadas por inteligência artificial. As pequenas empresas temem não
conseguirem aplicar a inteligência artificial nos seus negócios de forma adequada e
as startups temem não conseguirem competir com as concorrentes dos EUA e da
China. Nesse plano coordenado estão presentes alguns objetivos principais: a criação
de um pool de dados englobando todo o bloco, o incentivo à criação de talentos e
conhecimento na área bem como o fortalecimento da confiança na inteligência
artificial.
A implementação dessa estratégia depende, segundo a comissão, do
desenvolvimento de conhecimento avançado em técnicas de inteligência artificial,
uma quantidade massiva de dados e de um corpo regulatório robusto e eficiente que
permita a criação de um ambiente de excelência e confiança272. Esse ambiente inclui
a garantia dos valores da UE e da proteção de dados pessoais como a transparência,
a capacidade de os cidadãos interagirem com os sistemas e entenderem seu
funcionamento.
271 UNIÃO EUROPEIA. COM (2018) 785 — Coordinated Plan for Artificial Intelligence, 2018. Disponível
em: https://ec.europa.eu/knowledge4policy/publication/coordinated-plan-artificial-intelligence-
com2018-795-final_en#:~:text=7%20December%202018-
,Coordinated%20Plan%20on%20Artificial%20Intelligence%20. Acesso em 13 jul. 2020.
272 UNIÃO EUROPEIA. COM (2019) 168 — Building Trust in Human-Centric Artificial Intelligence. 2019.
Esses documentos têm afirmado que, para garantia dos valores da União
Europeia e dos direitos dos cidadãos, as novas tecnologias devem investir, desde o
design, em mecanismos que garantam a governança, a segurança e accountability.
Para garantir os direitos, entre as metas, a Comissão recomenda o desenvolvimento
da explicabilidade dos sistemas273.
Em 2019, um relatório do HLEG (High Level Expert Group in Artificial
Intelligence) encomendado pela Comissão criou um guia ético para o desenvolvimento
de inteligência artificial274. O objetivo do relatório é apresentar um guia de ética no
desenvolvimento e uso de inteligência artificial como forma de garantir o
desenvolvimento de uma inteligência artificial confiável (trustworthy artificial
intelligence), correspondendo à meta europeia de estabelecer um ambiente propício
para o desenvolvimento econômico e tecnológico de forma a respeitar os direitos
fundamentais. O guia foca o aspecto ético e técnico para atingir a inteligência artificial
confiável.
De acordo com o guia, a inteligência artificial confiável deve possuir três
elementos, que deverão estar presentes em todo o ciclo de vida do sistema: a)
legalidade (lawfulness); b) ética e; c) robustez sob o ponto de vista técnico e social. O
guia oferece elementos para lidar com os dois últimos e argumenta que muitas vezes
as recomendações se confundem com os deveres legais, visto que se baseiam nos
direitos fundamentais.
Os direitos fundamentais que servem de parâmetro no guia são a dignidade da
pessoa humana, a liberdade individual, a democracia, o devido processo legal, a
igualdade, a não discriminação e os direitos dos cidadãos. A maioria dos direitos
fundamentais estão positivados na legislação. O guia, contudo, delimita alguns
princípios necessários à garantia desses direitos no contexto da inteligência artificial.
Isso permite pensar em termos do que se deve fazer do ponto de vista ético e técnico
e não apenas no que é permitido fazer em termos legais.
Os princípios éticos devem guiar o desenvolvimento e aplicação de inteligência
artificial em todas as fases. Através deles é possível encontrar soluções no
273 UNIÃO EUROPEIA. COM (2018) 237 — Artificial Intelligence for Europe. 2018. Disponível em:
https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=COM%3A2018%3A237%3AFIN. Acesso em: 13
jul. 2020.
274 Idem. Ethics Guidelines for Trustworthy Artificial Intelligence. European Commission, 2019.
Disponível em: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai. Acesso
em: 13 jul. 2018.
148
275 UNIÃO EUROPEIA. COM (2020) 65 — White Paper on Artificial Intelligence: a European approach
to excellence and trust. Disponível em: https://ec.europa.eu/info/publications/white-paper-artificial-
intelligence-european-approach-excellence-and-trust_en. Acesso em: 01 ago. 2020.
149
276 GREENLEAF, G. The Influence of European Data Privacy Standards Outside Europe: Implications
for Globalisation of Convention 108. International Data Privacy Law, [S. l.], v. 2, 2011.
150
277 KAMINSKI, M. E. The Right to Explanation, Explained. Berkeley Technology Law Journal, v. 34, n.
189, 2019. Disponível em: https://papers.ssrn.com/abstract=3196985. Acesso em: 27 maio. 2020.
278 WACHTER, S.; MITTELSTADT, B. A Right to Reasonable Inferences: Re-Thinking Data Protection
Law in the Age of Big Data and AI. LawArXiv, 12 out. 2018. Disponível em:
https://doi.org/10.31228/osf.io/mu2kf. Acesso em: 27 maio 2020.
279 WACHTER, S.; MITTELSTADT, B.; FLORIDI, L. Why a Right to Explanation of Automated Decision-
Making Does Not Exist in the General Data Protection Regulation. Rochester, NY: Social Science
Research Network, 2016. Disponível em: https://papers.ssrn.com/abstract=2903469. Acesso em: 27
maio. 2020.
151
280 SELBST, A. D.; POWLES, J. Meaningful Information and the Right to Explanation. International Data
Privacy Law, v. 7, n. 4, p. 233-242, 2017. Disponível em: https://papers.ssrn.com/abstract=3039125.
Acesso em: 27 maio 2020.
281 BRAUN, I. High-Risk Citizens. 2018. Disponível em: https://algorithmwatch.org/en/story/high-risk-
284 PRIVACY INTERNATIONAL. Data Is Power: Profiling and Automated Decision-Making in GDPR.
[s.d.]. Disponível em: http://privacyinternational.org/report/1718/data-power-profiling-and-automated-
decision-making-gdpr. Acesso em: 31 jul. 2020.
285 “Art 22. Automated individual decision-making, including profiling […] 1. The data subject shall have
the right not to be subject to a decision based solely on automated processing, including profiling, which
produces legal effects concerning him or her or similarly significantly affects him or her. 2. Paragraph 1
shall not apply if the decision: (a) is necessary for entering into, or performance of, a contract between
the data subject and a data controller; (b) is authorised by Union or Member State law to which the
controller is subject and which also lays down suitable measures to safeguard the data subject's rights
and freedoms and legitimate interests; or (c) is based on the data subject's explicit consent. 3. In the
cases referred to in points (a) and (c) of paragraph 2, the data controller shall implement suitable
measures to safeguard the data subject's rights and freedoms and legitimate interests, at least the right
to obtain human intervention on the part of the controller, to express his or her point of view and to
contest the decision. 4. Decisions referred to in paragraph 2 shall not be based on special categories of
personal data referred to in Article 9(1), unless point (a) or (g) of Article 9(2) applies and suitable
measures to safeguard the data subject's rights and freedoms and legitimate interests are in place.”
(UNIÃO EUROPEIA. Regulation (EU) 2016/679 of the European Parliament and of the Council of 27
April 2016 on the protection of natural persons with regard to the processing of personal data and on
the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation)
(Text with EEA relevance). Official Journal of the European Union, 4 maio 2016. Disponível em;
https://eur-lex.europa.eu/eli/reg/2016/679/oj/eng. Acesso em: 27 ago. 2021).
155
286 ACDU. Uber Drivers Take Unprecedented International Legal Action To Demand Their Data. ACDU,
20 jul. 2020. Disponível em: https://www.adcu.org.uk/news-posts/uber-drivers-take-unprecedented-
international-legal-action-to-demand-their-data. Acesso em: 31 jul. 2020.
156
287 “Art. 4º. A Política Nacional das Relações de Consumo tem por objetivo o atendimento das
necessidades dos consumidores, o respeito à sua dignidade, saúde e segurança, a proteção de seus
interesses econômicos, a melhoria da sua qualidade de vida, bem como a transparência e harmonia
das relações de consumo, atendidos os seguintes princípios: I — reconhecimento da vulnerabilidade
do consumidor no mercado de consumo.” (BRASIL. Lei nº 8.078, de 11 de setembro de 1990. Dispõe
sobre a proteção do consumidor e dá outras providências. Brasília, DF: Presidência da República, 12
set. 1990. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/l8078compilado.htm. Acesso em: 8
abr. 2021).
288 “Art. 6º. São direitos básicos do consumidor: [...] III — a informação adequada e clara sobre os
Relator: Min. Paulo de Tarso Sanseverino. Data de Julgamento: 21/05/2013. Data de Publicação:
27/05/2013. Disponível em: https://stj.jusbrasil.com.br/jurisprudencia/23342165/embargos-de-
declaracao-no-recurso-especial-edcl-no-resp-1200105-am-2010-0111335-0-stj/inteiro-teor-
23342166?ref=amp. Acesso em: 17 ago. 2020.
292 “Art. 43. O consumidor, sem prejuízo do disposto no art. 86, terá acesso às informações existentes
em cadastros, fichas, registros e dados pessoais e de consumo arquivados sobre ele, bem como sobre
as suas respectivas fontes. § 1° Os cadastros e dados de consumidores devem ser objetivos, claros,
verdadeiros e em linguagem de fácil compreensão, não podendo conter informações negativas
referentes a período superior a cinco anos. § 2° A abertura de cadastro, ficha, registro e dados pessoais
e de consumo deverá ser comunicada por escrito ao consumidor, quando não solicitada por ele. § 3°
O consumidor, sempre que encontrar inexatidão nos seus dados e cadastros, poderá exigir sua
imediata correção, devendo o arquivista, no prazo de cinco dias úteis, comunicar a alteração aos
eventuais destinatários das informações incorretas.” (BRASIL. Lei nº 8.078, de 11 de setembro de 1990.
Dispõe sobre a proteção do consumidor e dá outras providências. Brasília, DF: Presidência da
República, 12 set. 1990. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/l8078compilado.htm.
Acesso em: 8 abr. 2021).
293 BRASIL. Ministério da Justiça. Portaria nº 5 de 27 de agosto de 2002. Dispõe sobre cláusulas
outras providências. Brasília, DF: Presidência da República, 12 set. 1990. Disponível em:
http://www.planalto.gov.br/ccivil_03/leis/l8078compilado.htm. Acesso em: 8 abr. 2021.
295 BRASIL. Lei Complementar nº 166, de 8 de abril de 2019. Altera a Lei Complementar nº 105, de 10
de janeiro de 2001, e a Lei nº 12.414, de 9 de junho de 2011, para dispor sobre os cadastros positivos
de crédito e regular a responsabilidade civil dos operadores. Brasília, DF: Presidência da República, 08
abr. 2019. Disponível em: http://www.planalto.gov.br/ccivil_03/LEIS/LCP/Lcp166.htm#art2. Acesso em:
8 abr. 2021.
160
296 BRASIL. Lei Complementar nº 166, de 8 de abril de 2019. Altera a Lei Complementar nº 105, de 10
de janeiro de 2001, e a Lei nº 12.414, de 9 de junho de 2011, para dispor sobre os cadastros positivos
de crédito e regular a responsabilidade civil dos operadores. Brasília, DF: Presidência da República, 08
abr. 2019. Disponível em: http://www.planalto.gov.br/ccivil_03/LEIS/LCP/Lcp166.htm#art2. Acesso em:
8 abr. 2021.
297 BRASIL. Lei nº 12.414, de 09 de junho de 2011. Disciplina a formação e consulta a bancos de dados
matéria de proteção de dados pessoais, Ricardo Villas Bôas Cueva destaca que muito
antes do advento de uma lei específica de proteção de dados pessoais no Brasil, já
se discutia na jurisprudência do STJ a emergência de um novo conceito de
privacidade, distinto daquele pautado na ideia de liberdade negativa.298
A formação dos primeiros precedentes nesta matéria teve início ainda na
década de 1990, no contexto da recente entrada em vigor do Código de Defesa do
Consumidor. Em 1995, o Superior Tribunal de Justiça julgou o RE nº 22.337-8/RS,
Rel. Min. Ruy Rosado Aguiar, um dos primeiros precedentes no STJ sobre a formação
de bancos de dados relativos a informações de crédito. O recorrido ajuizou
inicialmente ação cautelar e, posteriormente, ação ordinária em face do Serviço de
Proteção ao Crédito e da recorrente para cancelar seus registros negativos nos
arquivos do SPC, tendo as ações sido julgadas procedentes e excluído o SPC do polo
passivo. A recorrente, por sua vez, apelou das decisões, tendo o provimento ao apelo
negado pela 7ª CC do Tribunal de Justiça do Rio Grande do Sul. Irresignada, a
recorrente interpôs recurso especial, alegando, dentre outras razões, que a prescrição
da ação de cobrança dos débitos que deram origem ao registro negativo só ocorreria
em vinte anos, nos termos do art. 177 do Código Civil, e que os registros deveriam ser
mantidos por igual período. O STJ decidiu, por unanimidade, não conhecer do recurso,
ao reconhecer que o registro de dados pessoais no SPC deve ser cancelado após
cinco anos, nos termos do art. 43, § 1º, do CDC.
O voto do Min. Rel. Ruy Rosado Aguiar é paradigmático em ao menos quatro
aspectos. Primeiramente, ele constitui, como afirmado anteriormente, um dos
primeiros precedentes no STJ sobre registros envolvendo informações de crédito. Em
segundo lugar, seu voto torna clara a crescente preocupação da doutrina e
jurisprudência brasileiras já naquele período com a proteção dos direitos fundamentais
e dos direitos da personalidade no contexto do advento de novas tecnologias e do
risco trazido pelas aumentadas capacidades de produção, coleta e tratamento de
dados pessoais:
298 CUEVA, R. V. B. A proteção dos dados pessoais na jurisprudência do Superior Tribunal de Justiça.
In: TEPEDINO, G.; FRAZÃO, A.; OLIVA, M. D. Lei Geral de Proteção de Dados Pessoais e suas
repercussões no Direito Brasileiro. 2. ed. São Paulo: Thomson Reuters, 2020. p. 86.
162
299 BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 22.337 – RS. Relator: Ruy Rosado
Aguiar. Data de Publicação: 20/03/1995. In: R. Sup. Trib. Just. Brasília, a.8 (77), jan. 1996. p. 206.
300 BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 22.337 – RS. Relator: Ruy Rosado
Aguiar. Data de Publicação: 20/03/1995. In: R. Sup. Trib. Just. Brasília, a.8 (77), jan. 1996. p. 206.
301 CUEVA, R. V. B. A proteção dos dados pessoais na jurisprudência do Superior Tribunal de Justiça.
In: TEPEDINO, G.; FRAZÃO, A.; OLIVA, M. D. Lei Geral de Proteção de Dados Pessoais e suas
repercussões no Direito Brasileiro. 2. ed. São Paulo: Thomson Reuters, 2020. p. 87.
302 BRASIL. Supremo Tribunal Federal. ADI nº 6.387/DF. Rel. Min. Rosa Weber. Data de Publicação:
se positivado em seu art. 2º, II. Além de valer-se da experiência alemã como reforço
argumentativo, no referido REsp, o Min. Ruy Rosado Aguiar associou o direito de
acesso e de retificação de registros previsto no art. 43 do CDC à tutela da intimidade
e da vida privada prevista no art. 5º, X e XII, da CF.
Por fim, é possível afirmar que esse precedente é paradigmático ao, de um
lado, reconhecer a importância e relevância dos sistemas de proteção ao crédito para
o bom funcionamento do mercado e como importante mecanismo no atendimento às
legítimas expectativas dos credores, e, de outro, ao reconhecer a necessidade do
estabelecimento de limitações e salvaguardas ao seu emprego:
Desde então, o STJ passou a decidir sobre uma série de casos envolvendo a
análise dos cadastros negativos e positivos de crédito e sobre a utilização de sistemas
de avaliação de risco de crédito (credit scoring). Entre 2001 e 2010, Cueva chama a
atenção para dois casos analisados pelo STJ: em 2001, no julgamento do REsp nº
306.570/SP, Rel. Min. Eliana Calmon, a corte reconheceu que "[...] o contribuinte ou
o titular da conta bancária tem direito à privacidade em relação aos seus dados
pessoais." Em 2010, ao analisar o REsp nº 1.168.547/RJ, Rel. Min. Luís Felipe
303BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 22.337 – RS. Relator: Ruy Rosado
Aguiar. Data de Publicação: 20/03/1995. In: R. Sup. Trib. Just. Brasília, a.8 (77), jan. 1996. p. 207.
164
304 CUEVA, R. V. B. A proteção dos dados pessoais na jurisprudência do Superior Tribunal de Justiça.
In: TEPEDINO, G.; FRAZÃO, A.; OLIVA, M. D. Lei Geral de Proteção de Dados Pessoais e suas
repercussões no Direito Brasileiro. 2. ed. São Paulo: Thomson Reuters, 2020. p. 87.
305 Ibidem, p. 87-88.
306 Ibidem, p. 88.
307 DONEDA, Danilo. Current Judicial and Administrative Issues of Consumer Data Protection in Brazil.
In: METZ, R.; BINDING, J.; HAIFEND, P. (Eds.). Consumer Protection in Brazil, China and Germany: a
comparative study. Göttingen: Göttingen University Press, 2016. Disponível em:
https://www.univerlag.uni-goettingen.de/bitstream/handle/3/isbn-978-3-86395-236-
5/Huber_consumer.pdf?sequence=1&isAllowed=y. Acesso em: 08 abr. 2021. p. 154.
308 “O caso foi decidido por um tipo especial de recurso, chamado ‘recurso especial repetitivo’. No
Código de Processo Civil, isso significa que a interpretação definida por essa decisão aplica-se a todos
os casos semelhantes que compartilhem os mesmos elementos factuais. O julgamento ocorre por
amostragem, o que significa que um caso é escolhido como ‘representativo’ de outros [...].” (ZANATTA,
R. A. F. Pontuação de Crédito e Direitos dos Consumidores: o desafio brasileiro. São Paulo: Idec, 2017.
p. 13).
309 BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 1.419.697/RS. Relator: Min. Paulo de
Tarso Sanseverino. Julgado em: 12/11/2014. Data de Publicação: 17/11/2014. Disponível em:
https://bdjur.stj.jus.br/jspui/bitstream/2011/114173/REsp1419697.pdf. Acesso em: 8 abr. 2021.
310 BRASIL. Recurso Especial nº 1.457.199/RS. Relator: Min. Paulo de Tarso Sanseverino. Julgado em:
https://processo.stj.jus.br/processo/revista/documento/mediado/?componente=ITA&sequencial=14895
63&num_registro=201200318393&data=20160330&peticao_numero=-1&formato=PDF. Acesso em: 8
abr. 2021.
312 ZANATTA, R. A. F. Pontuação de Crédito e Direitos dos Consumidores: o desafio brasileiro. São
315 ZANATTA, R. A. F. Pontuação de Crédito e Direitos dos Consumidores: o desafio brasileiro. São
Paulo: Idec, 2017. p. 4.
316 Ibidem, p. 22.
317 ZANATTA, R. A. F. Pontuação de Crédito e Direitos dos Consumidores: o desafio brasileiro. São
318 ZANATTA, R. A. F. Pontuação de Crédito e Direitos dos Consumidores: o desafio brasileiro. São
Paulo: Idec, 2017. p. 16.
319 Ibidem, p. 22.
320 BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 1.419.697/RS. Relator: Min. Paulo de
Tarso Sanseverino. Julgado em: 12/11/2014. Data de Publicação: 17/11/2014. Disponível em:
https://bdjur.stj.jus.br/jspui/bitstream/2011/114173/REsp1419697.pdf. Acesso em: 8 abr. 2021.
321 Idem. Súmula 550. Julgado em: 14/10/2015. Data de Publicação: 19/10/2015.
322 BRASIL. Recurso Especial nº 1.304.736/RS. Relator: Min. Luís Felipe Salomão. Julgado em:
O STJ estabeleceu, assim, um critério que até então não encontrava respaldo
na lei, possibilitando reconhecer a existência do direito à explicação de decisões
totalmente automatizadas, desde que tais decisões tenham um impacto específico na
vida das pessoas.
Dessa forma, em conjunto com o CDC, a Lei do Cadastro Positivo forma um
microssistema de proteção de dados pessoais que, infelizmente, restringe-se apenas
ao caso da concessão de crédito, embora haja uma construção interpretativa no
sentido de reconhecer a possibilidade de extensão dessas salvaguardas para além
das situações envolvendo análise e pontuação de crédito, ampliando-a também para
situações envolvendo o emprego de sistemas automatizados no Brasil, conforme
apontado anteriormente. Nessas situações, o consumidor pode requisitar informações
sobre o uso de seus dados em uma decisão automatizada de classificação de risco
para concessão ou não do crédito. Caso não concorde com esta decisão por entender
que foi tomada em desacordo com os critérios estabelecidos na legislação e na
jurisprudência, pode pedir a sua revisão por uma pessoa, conforme garantido no rol
de direitos listado acima. A revisão humana, em tese, afastaria os elementos que
foram indevidamente utilizados pelo algoritmo, como dados em excesso ou dados
sensíveis. Todavia, cabe questionar se uma decisão tomada por uma pessoa, e não
por um sistema, seria menos enviesada.325
Nota-se, ainda, que os direitos e balizas previstos nas leis e precedentes
judiciais foram absorvidos pela Lei Geral de Proteção de Dados do Brasil, o que
sugere que o racional detalhado e analisado pelo Superior Tribunal de Justiça também
deve ser utilizado para interpretar a LGPD, a qual analisaremos no tópico a seguir.
325 MILLER, J. M. Dignity as a New Framework, Replacing the Right to Privacy. Rochester, NY: Social
Science Research Network, 2008. Disponível em: https://papers.ssrn.com/abstract=1127986. Acesso
em: 27 maio. 2020.
326 DONEDA, D. Da privacidade à proteção de dados pessoais: fundamentos da Lei Geral de Proteção
administrativas e coordenação intergovernamental. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.;
RODRIGUES JR., O. L. (Coords.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense,
2021. p. 376-377.
328 MONTEIRO, R. L. Lei Geral de Proteção de Dados do Brasil: uma análise detalhada. Jota, 14 jul.
conferir às pessoas maior controle sobre seus dados, mas também fomentar um
ambiente de desenvolvimento econômico e tecnológico, mediante regras flexíveis e
adequadas para lidar com os mais inovadores modelos de negócio baseados no uso
de dados pessoais. Isso inclui modelos de negócio que se valem de algoritmos para
auxiliar na tomada de decisões automatizadas.
A LGPD tem por objetivo, dentre outros, equilibrar interesses econômicos e
sociais, garantindo a continuidade desse tipo de processo decisório, mas também
limitando eventuais abusos, fazendo-o por meio da instituição de mecanismos aptos
a diminuir a assimetria informacional, e, por consequência, de poder, entre os titulares
sujeitos a decisões automatizadas e os agentes de tratamento responsáveis pelos
sistemas automatizados.
Nos subtópicos a seguir, apresentaremos a regulamentação específica da
LGPD em matéria de decisões automatizadas em três momentos. Primeiramente,
destacaremos as disposições da lei relevantes no contexto de decisões
automatizadas, elencando o conjunto de direitos e princípios consubstanciados no
texto que podem ser tomados como elementos estruturantes de um direito à
explicação. Em seguida, apresentaremos o debate brasileiro em torno de decisões
automatizadas e sobre a possibilidade de reconhecimento da existência de um direito
à explicação na LGPD, a partir dos principais e mais recentes trabalhos publicados
sobre o tema. Por fim, colocaremos em perspectiva os regimes da LGPD e da GDPR,
buscando analisar em que medida e em quais aspectos o direito à explicação que
pode ser derivado de uma interpretação sistemática da LGPD seria mais abrangente
ou mais restrito do que aquele previsto na normativa europeia.
329 BIONI, B. R. Proteção de dados pessoais: a função e os limites do consentimento. 2. ed. Rio de
Janeiro: Forense, 2021. p. 55-59.
330 “Art. 5º. Para os fins desta Lei, considera-se: [...] controlador: pessoa natural ou jurídica, de direito
público ou privado, a quem competem as decisões referentes ao tratamento de dados pessoais; [...]
172
[...] por meio de declaração clara e completa, que indique a origem dos
dados, a inexistência de registro, os critérios utilizados e a finalidade
do tratamento, observados os segredos comercial e industrial,
fornecida no prazo de até 15 (quinze) dias, contado da data do
requerimento do titular.331
operador: pessoa natural ou jurídica, de direito público ou privado, que realiza o tratamento de dados
pessoais em nome do controlador; [...] agentes de tratamento: o controlador e o operador.” (BRASIL.
Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília,
DF: Presidência da República, 14 ago. 2018. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015- 2018/2018/lei/L13709.htm. Acesso em: 07. nov. 2021).
331 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD).
a redação do art. 20 da lei, que trata sobre decisões automatizadas, e àquela do inciso II do art. 19,
que trata sobre o direito de acesso.
173
334 BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD).
Brasília, DF: Presidência da República, 14 ago. 2018. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015- 2018/2018/lei/L13709.htm. Acesso em: 07. nov. 2020.
335 “Art. 23 [...]. § 3º Os prazos e procedimentos para exercício dos direitos do titular perante o Poder
337 A Lei prevê duas exceções: os casos de segredo industrial e comercial. Observa-se que nessas
hipóteses, é importante analisar caso a caso, uma vez que a lei não especifica critérios para determinar
quando se trata do caso de segredo comercial/industrial.
338 PASQUALE, F. The Black box society: the secret algorithms that control money and information.
First Harvard University Press paperback edition ed. Cambridge, Massachusetts; London, England:
Harvard University Press, 2015.
176
brasileira; (ii) ainda que a LGPD não preveja expressamente o direito à explicação,
uma leitura sistemática da lei não impede que outros direitos sejam derivados da
própria racionalidade adotada, bem como dos princípios, dos objetivos, dos
fundamentos e dos outros direitos positivados; e (iii) o debate sobre o direito à
explicação no Brasil ocorre em paralelo ao debate travado na UE, sendo largamente
dele dependente tanto em termos de fundamentos teóricos quanto em termos de
construções hermenêuticas; neste ponto, é possível observar que há uma inevitável
comparação das disposições da LGPD e da GDPR, havendo o cuidado de, ao realizar
essa comparação e transposição do debate, destacar as especificidades e os desafios
próprios da lei brasileira.
Topograficamente, os direitos dos titulares encontram-se previstos no Capítulo
III da LGPD, mais especificamente nos arts. 18 e 20, que conferem ao titular os
direitos, que assim podem ser aglutinados, de confirmação da existência de
tratamento e de acesso aos dados (art. 18, I e II), direito de retificação (art. 18, III),
direito de cancelamento (art. 18, IV, VI e IX), direito de oposição (art. 18, § 2º), direito
à explicação (interpretação sistemática), direito à revisão de decisões automatizadas
(art. 20) e direito de portabilidade (art. 18, V).
Não obstante, parece-nos adequado reconhecer que, ainda que os direitos dos
titulares se encontrem concentrados no Capítulo III da LGPD e, em especial, em seus
arts. 18 e 20, é muito mais adequado concebê-los a partir de uma leitura sistemática
e abrangente da normativa.339 Nesse sentido, Frazão bem pontua que “[...] antes
mesmo de adentrar no capítulo específico sobre os direitos dos titulares, a LGPD já
havia traçado um robusto conjunto de direitos e garantias, que precisa ser considerado
para se entender a real extensão do Capítulo III.”340
Quanto ao referido, a autora afirma, ao discorrer sobre o art. 17, que assegura
à pessoa natural a titularidade de seus dados e lhe garante os direitos fundamentais
de liberdade, intimidade e privacidade, que, justamente por repetir alguns dos direitos
já mencionados anteriormente no texto e não dispor expressamente em relação a
outros, deverá ele ser interpretado em conformidade com os artigos que o antecedem,
339 MONTEIRO, R. L.; CRUZ, S. N. e. Direitos dos titulares na LGPD: fundamentos, limites e aspectos
práticos. In: FRANCOSKI, D. de S. L.; TASSO, F. A. (Coords.). A Lei Geral de Proteção de Dados
Pessoais: Aspectos Práticos e Teóricos Relevantes no Setor Público e Privado. São Paulo: Thomsom
Reuters, abr. 2021.
340 FRAZÃO, A. Nova LGPD: direitos dos titulares de dados pessoais. Jota, 24 out. 2018. Disponível
em: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/nova-lgpd-
direitos-dos-titulares-de-dados-pessoais-24102018. Acesso em: 06 jan. 2021.
177
341 FRAZÃO, A. Nova LGPD: direitos dos titulares de dados pessoais. Jota, 24 out. 2018. Disponível
em: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/nova-lgpd-
direitos-dos-titulares-de-dados-pessoais-24102018. Acesso em: 06 jan. 2021.
342 SILVA, P. R. Os direitos dos titulares de dados. In: MULHOLLAND, Caitlin (Org.). A LGPD e o novo
344 FRAZÃO, A. O direito à explicação e à oposição diante de decisões totalmente automatizadas. Jota,
05 dez. 2018. Disponível em: https://www.jota.info/paywall?redirect_to=//www.jota.info/opiniao-e-
analise/colunas/constituicaoempresa-e-mercado/o-direito-a-explicacao-e-a-oposicao-diante-de-
decisoes-totalmente-automatizadas-05122018. Acesso em: 11 abr.2021.
345 MULHOLLAND, C.; FRAJHOF, I. Z. Inteligência Artificial e a Lei Geral de Proteção de Dados
Pessoais: breves anotações sobre o direito à explicação perante a tomada de decisões por meio de
machine learning. In: FRAZÃO, A.; MULHOLLAND, C. (Coords.). Inteligência Artificial e Direito: Ética,
Regulação e Responsabilidade. 2. ed. São Paulo: Revista dos Tribunais, 2020.
346 SILVA, P. R. Os direitos dos titulares de dados. In: MULHOLLAND, Caitlin (Org.). A LGPD e o novo
a sua positivação na LGPD. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR,
O. L.; BIONI, B. (Orgs.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p.
243-270. p. 261.
179
348 SOUZA, C. A.; PERRONE, C.; MAGRANI, E. O direito à explicação entre a experiência europeia e
a sua positivação na LGPD. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR,
O. L.; BIONI, B. (Orgs.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p.
243-270. p. 262.
349 MATTIUZO, M. Discriminação algorítmica: reflexões no contexto da Lei Geral de Proteção de Dados
Pessoais. In: DONEDA, D.; MENDES, L. S.; CUEVA, R. V. B. (Coords.). Lei Geral de Proteção de
Dados (Lei nº 13.709/2018) — A caminho da efetividade: contribuições para a implementação da LGPD.
São Paulo: Thomsom Reuters, 2020. p. 118.
350 MATTIUZO, M. Discriminação algorítmica: reflexões no contexto da Lei Geral de Proteção de Dados
Pessoais. In: DONEDA, D.; MENDES, L. S.; CUEVA, R. V. B. (Coords.). Lei Geral de Proteção de
Dados (Lei nº 13.709/2018) — A caminho da efetividade: contribuições para a implementação da LGPD.
São Paulo: Thomsom Reuters, 2020.
180
354 MATTIUZO, M. Discriminação algorítmica: reflexões no contexto da Lei Geral de Proteção de Dados
Pessoais. In: DONEDA, D.; MENDES, L. S.; CUEVA, R. V. B. (Coords.). Lei Geral de Proteção de
Dados (Lei nº 13.709/2018) — A caminho da efetividade: contribuições para a implementação da LGPD.
São Paulo: Thomsom Reuters, 2020. p. 123.
355 Ibidem, p. 124.
356 Ibidem, p. 125.
357 ALIMONTI, Veridiana. Autodeterminação informacional na LGPD: antecedentes, influências e
desafios. In: DONEDA, D.; MENDES, L. S.; CUEVA, R. V. B. (Coords.). Lei Geral de Proteção de Dados
(Lei nº 13.709/2018) — A caminho da efetividade: contribuições para a implementação da LGPD. São
Paulo: Thomsom Reuters, 2020. p. 183.
182
362 SOUZA, C. A.; PERRONE, C.; MAGRANI, E. O direito à explicação entre a experiência europeia e
a sua positivação na LGPD. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR,
O. L.; BIONI, B. (Orgs.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p.
243-270. p. 263.
363 SOUZA, C. A.; PERRONE, C.; MAGRANI, E. O direito à explicação entre a experiência europeia e
a sua positivação na LGPD. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR,
184
nosso).
O. L.; BIONI, B. (Orgs.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p.
243-270. p. 264.
364 Ibidem, p. 268.
365 SOUZA, C. A.; PERRONE, C.; MAGRANI, E. O direito à explicação entre a experiência europeia e
a sua positivação na LGPD. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR,
O. L.; BIONI, B. (Orgs.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p.
243-270. p. 263.
185
366 SILVA, P. R. Os direitos dos titulares de dados. In: MULHOLLAND, Caitlin (Org.). A LGPD e o novo
marco normativo no Brasil. Porto Alegre: Arquipélago, 2020. p. 210.
367 MONTEIRO, R. L. Existe um direito à explicação na Lei Geral de Proteção de Dados do Brasil? Rio
de Janeiro: Instituto Igarapé, dez. 2018. Artigo Estratégico nº 39. Disponível em:
https://igarape.org.br/wp-content/uploads/2018/12/Existe-um-direito-a-explicacao-na-Lei-Geral-de-
Protecao-de-Dados-no-Brasil.pdf. Acesso em: 21 jun. 2021. p. 2-4.
368 MULHOLLAND, C.; FRAJHOF, I. Z. Inteligência Artificial e a Lei Geral de Proteção de Dados
Pessoais: breves anotações sobre o direito à explicação perante a tomada de decisões por meio de
machine learning. In: FRAZÃO, A.; MULHOLLAND, C. (Coords.). Inteligência Artificial e Direito: Ética,
Regulação e Responsabilidade. 2. ed. São Paulo: Revista dos Tribunais, 2020.
186
a sua positivação na LGPD. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR,
O. L.; BIONI, B. (Orgs.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p.
243-270. p. 261.
371 MULHOLLAND; FRAJHOF, op. cit.
188
372 Considerando 71: ““which should include specific information to the data subject and the right to
obtain human intervention, to express his or her point of view, to obtain an explanation of the decision
reached after such assessment and to challenge the decision. Such measure should not concern a
child.” (UNIÃO EUROPEIA. Regulamento Geral sobre a Proteção de Dados — Considerando 71.
Disponível em: https://gdpr-text.com/pt/read/recital-71/. Acesso em: 21 jun. 2021). (grifo nosso).
373 “Human intervention is a key element. Any review must be carried out by someone who has the
appropriate authority and capability to change the decision. The reviewer should undertake a thorough
assessment of all the relevant data, including any additional information provided by the data subject.”
Cf. EUROPEAN DATA PROTECTION BOARD. Guidelines on Automated individual decision-making
and Profiling for the purposes of Regulation 679/2016. Bruxelas: European Commission, 2016.
Disponível em: https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053. Acesso em:
21 jun. 2021.
374 Para uma ‘genealogia’ do direito à revisão de decisões automatizadas na LGPD, cf. DATA PRIVACY
BRASIL. Memória da LGPD: como a lei mudou desde 2010? Observatório da Privacidade, 2019.
Disponível em: https://www.observatorioprivacidade.com.br/memoria/como-a-lei-mudou-desde-2010/.
Acesso em: 11 abr. 2021; e SOUZA, C. A.; PERRONE, C.; MAGRANI, E. O direito à explicação entre
a experiência europeia e a sua positivação na LGPD. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.;
RODRIGUES JÚNIOR, O. L.; BIONI, B. (Orgs.). Tratado de Proteção de Dados Pessoais. Rio de
Janeiro: Forense, 2021. p. 243-270. p. 260-261; 266.
375 BIONI, B; MENDES, L. S. Regulamento Europeu de Proteção de Dados Pessoais e a Lei Geral
189
DONEDA, D.; MENDES, L. S.; CUEVA, R. V. B. (Coords.). Lei Geral de Proteção de Dados (Lei nº
13.709/2018) — A caminho da efetividade: contribuições para a implementação da LGPD. São Paulo:
Thomsom Reuters, 2020. p. 189.
377 SILVA, P. R. Os direitos dos titulares de dados. In: MULHOLLAND, Caitlin (Org.). A LGPD e o novo
a sua positivação na LGPD. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR,
O. L.; BIONI, B. (Orgs.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p.
243-270. p. 267.
380 MULHOLLAND, C.; FRAJHOF, I. Z. Inteligência Artificial e a Lei Geral de Proteção de Dados
190
Pessoais: breves anotações sobre o direito à explicação perante a tomada de decisões por meio de
machine learning. In: FRAZÃO, A.; MULHOLLAND, C. (Coords.). Inteligência Artificial e Direito: Ética,
Regulação e Responsabilidade. 2. ed. São Paulo: Revista dos Tribunais, 2020.
381 EUROPEAN DATA PROTECTION BOARD. Guidelines on Automated individual decision-making
and Profiling for the purposes of Regulation 679/2016. Bruxelas: European Commission, 2016.
Disponível em: https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053. Acesso em:
21 jun. 2021. p. 21.
191
alguém aos serviços de saúde; (iii) decisões que neguem o acesso a uma
oportunidade de emprego ou que coloquem o indivíduo em uma séria desvantagem;
e (iv) decisões que afetam o acesso de alguém à educação, como o processo de
admissão em uma universidade.
Como visto acima, a GDPR estabelece uma forte barreira a ser superada para
que se reconheça determinada decisão automatizada como dotada de efeitos jurídicos
relevantes ou similarmente significativos, apta, portanto, a atrair a proteção do art. 22.
No Brasil, esse limiar é menor: o direito à revisão existe quando o procedimento
automatizado for capaz de impactar os interesses do titular. “Interesses”, tal como
positivado no caput do art. 20 da LGPD, é uma barreira muito mais fácil de ser
ultrapassada do que o limite dos interesses jurídicos materiais exigidos pela GDPR. É
este o entendimento, por exemplo, de Hosni e Martins, que apontam para a existência
de uma noção de interesse muito mais ampla na LGPD do que aquela contida na
GDPR:
Por fim, ainda quanto ao art. 20 da LGDP, Mulholland e Frahjof fazem uma
importante ressalva quanto à competência da Autoridade Nacional de Proteção de
Dados para realizar auditorias em sistemas algorítmicos na hipótese de o controlador
se recusar, alegando segredo comercial ou industrial, a fornecer informações claras e
adequadas a respeito dos critérios e procedimentos empregados na decisão
automatizada. A redação do art. 20, § 2º, expressamente prevê que “a autoridade
nacional poderá realizar auditoria”383 (grifo nosso), o que, para as autoras, denota a
Pessoais: breves anotações sobre o direito à explicação perante a tomada de decisões por meio de
machine learning. In: FRAZÃO, A.; MULHOLLAND, C. (Coords.). Inteligência Artificial e Direito: Ética,
Regulação e Responsabilidade. 2. ed. São Paulo: Revista dos Tribunais, 2020.
193
385 MULHOLLAND, C.; FRAJHOF, I. Z. Inteligência Artificial e a Lei Geral de Proteção de Dados
Pessoais: breves anotações sobre o direito à explicação perante a tomada de decisões por meio de
machine learning. In: FRAZÃO, A.; MULHOLLAND, C. (Coords.). Inteligência Artificial e Direito: Ética,
Regulação e Responsabilidade. 2. ed. São Paulo: Revista dos Tribunais, 2020.
386 Ibidem.
194
Judiciário, que nas atividades que lhes são próprias ajudarão a definir
os contornos do direito à explicação.387
387 SOUZA, C. A.; PERRONE, C.; MAGRANI, E. O direito à explicação entre a experiência europeia e
a sua positivação na LGPD. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR,
O. L.; BIONI, B. (Orgs.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p.
243-270. p. 268.
388 MULHOLLAND, C.; FRAJHOF, I. Z. Inteligência Artificial e a Lei Geral de Proteção de Dados
Pessoais: breves anotações sobre o direito à explicação perante a tomada de decisões por meio de
machine learning. In: FRAZÃO, A.; MULHOLLAND, C. (Coords.). Inteligência Artificial e Direito: Ética,
Regulação e Responsabilidade. 2. ed. São Paulo: Revista dos Tribunais, 2020.
195
389 BURRELL, J. How the Machine “Thinks:” Understanding Opacity in Machine Learning Algorithms.
Rochester, NY: Social Science Research Network, 2015. Disponível em:
https://papers.ssrn.com/abstract=2660674. Acesso em: 27 maio. 2020.
198
390 MITTELSTADT, B. D. et al. The ethics of algorithms: Mapping the debate. Big Data & Society, [S. l.],
v. 3, n. 2, 2016. Disponível em: https://doi.org/10.1177/2053951716679679. Acesso em: 20 maio 2020.
199
cadeia, apoiada na própria existência do dado pessoal. Como a norma incide sobre o
substrato sobre o qual opera toda essa cadeia, e se valendo de proteções jurídicas
fortes ligadas ao direito da personalidade, as garantias que ela carrega acabam por
refletir também nos processos e implementações. Isso é coerente com a proteção
ampla da personalidade e no regime de controle de fluxos de dados, sobretudo no que
tange à autodeterminação, e não apenas uma questão de confidencialidade de
informações391.
Contudo, ao percorrer essa cadeia, ela encontra outros direitos que incidem
sobre os sistemas informacionais dentro dos quais os dados são tratados. Nesse
caso, a principal barreira vem da legislação de Propriedade Intelectual. O regime de
proteção de algoritmos, no Brasil, exige confidencialidade e gera uma força
antagônica à explicação, que é um mecanismo de transparência.
oferecer produtos mais ajustados para esse segmento392. Ter um algoritmo que faz
essa avaliação não é meramente uma questão de técnica, mas também uma questão
de estratégia comercial. A opção por atrair mulheres grávidas a fazerem compras em
suas lojas, por saberem que elas acabam atraindo toda uma família de consumidores,
foi uma decisão de mercado que deu à Target uma vantagem competitiva. Essa
decisão veio de uma visão de negócio de quem trabalhou a estratégia comercial da
empresa, e os algoritmos e a coleta de dados foram ferramentas eficazes para esse
fim.
Portanto, ter a visão de quais pontos devem ser analisados e manter a técnica
de análise em sigilo são duas facetas da ciência de dados que perpassam a economia
digital. Há uma infinidade de dados pessoais que poderiam ser utilizados para inferir
se determinada pessoa está grávida ou não, desde a compra de produtos para bebês
até visitas em sites sobre gravidez e maternidade.
Essa limitação ocorre porque a vantagem competitiva das empresas emana
justamente da capacidade que elas possuem de desenvolver essas metodologias de
análise e produzir resultados mais acurados que os seus concorrentes.393 Portanto,
há um investimento significativo no desenvolvimento desses sistemas. Em paralelo, a
abertura dessa informação pode inspirar os adversários, que podem se aproveitar dos
investimentos do concorrente para aprimorar seus próprios serviços, sem ter os custos
do aporte de capital. Portanto, por excelência, o segredo de negócio é um
conhecimento que não se encontra no domínio público e que, a partir dele, a empresa
que o obteve o mantém em confidencialidade e estabelece amarras contratuais com
aqueles que partilham desse conhecimento394
A grande desvantagem do segredo de negócio é que nada impede que
terceiros cheguem à mesma conclusão, através de suas próprias investigações. Por
isso mesmo, o regime de proteção desses segredos é muito rígido, visto que está
diretamente atrelado ao modelo de negócio das empresas de tecnologia. Além disso,
392 HILL, K. How Target Figured Out A Teen Girl Was Pregnant Before Her Father Did. Forbes, 16 fev.
2012. Disponível em: https://www.forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-
teen-girl-was-pregnant-before-her-father-did/. Acesso em: 27 ago. 2020.
393 “Data on users is highly valuable for targeting digital advertising (particularly display advertising) and
measuring its effectiveness. Advertisers and publishers have told us that Google and Facebook enjoy
significant competitive advantages in both targeting and measuring effectiveness because of their
extensive access to user data.” (COMPETITION & MARKETS AUTHORITY. Online platforms and digital
advertising: market study interim report. [S. l.]: CMA, 2019. Disponível em:
https://assets.publishing.service.gov.uk/media/5dfa0580ed915d0933009761/Interim_report.pdf.
Acesso em: 26 abr. 2021. p. 15).
394 DUARTE, M. de F.; BRAGA, C. P. Propriedade Intelectual. 1.. ed. [S. l.]: Sagah, 2018. p. 7.
201
amparado por tratados internacionais, as empresas podem fazer valer seu direito à
confidencialidade tanto na esfera civil quanto penal395. A legislação de Propriedade
Intelectual é altamente harmonizada ao redor do mundo, graças ao Acordo sobre
Aspectos dos Direitos de Propriedade Intelectual Relacionados ao Comércio
(TRIPS)396, que, em seu art. 39, determina a proteção à informação confidencial como
forma de combater a concorrência desleal.
O curioso é que a tutela legal do segredo industrial não decorre de uma
previsão explícita da lei, mas de uma interpretação conjunta do art. 195, incisos XI e
XII, da Lei de Propriedade Industrial brasileira397, e do art. 39, § 2º, do TRIPs. Essa
compreensão do segredo de negócio tem servido de instrumento para as empresas
protegerem seus algoritmos nas mais diversas esferas. Fora do país, a agressividade
das empresas em combater qualquer forma de intrusão é notória, sobretudo nos EUA.
São essas proteções, que isolam os sujeitos das decisões automatizadas de qualquer
acesso às suas “engrenagens” internas, que autores como Frank Pasquale398,
Burrel399 e Rudin400 chamam de “opacidade”. É o conjunto de instrumentos
organizacionais e jurídicos que tornam o complexo técnico das decisões efetivamente
uma caixa preta (black box), e que é usado de forma ostensiva contra qualquer um
que tenta descobrir um pouco mais sobre o funcionamento desses sistemas.
Outro ponto relevante ao se discutir as implicações dos direitos de propriedade
intelectual sobre a proteção de dados diz respeito à natureza probabilística dos
outputs de algoritmos. O ponto crucial de algumas estratégias de negócio, como a da
Target e a identificação de clientes grávidas, está ligado a técnicas estatísticas.
Algoritmos não são usados apenas para produzir resultados verificáveis sobre a vida
dos titulares de direitos, mas também informações de natureza probabilística, que
395 COELHO, F. U. Curso de Direito Comercial. Direito de Empresa. São Paulo: Revista dos Tribunais,
2018. 2 v.
396 WORLD TRADE ORGANIZATION. Trade-Related Aspects of Intellectual Property Rights. 15. abr.
First Harvard University Press paperback edition ed. Cambridge, Massachusetts; London, England:
Harvard University Press, 2015.
399 BURRELL, J. How the Machine “Thinks:” Understanding Opacity in Machine Learning Algorithms.
Interpretable Models Instead. ArXiv [cs, stat], [S. l.], 2019. Disponível em:
http://arxiv.org/abs/1811.10154. Acesso em: 10 ago. 2020.
202
402 KLEIN, A. Reducing bias in AI-based financial services. BROOKINGS. 10 jul. 2020. Disponível em:
https://www.brookings.edu/research/reducing-bias-in-ai-based-financial-services/. Acesso em: 1 set.
2020.
403 HOME Office drops “Racist” algorithm from Visa Decisions. BBC News, [S. l.], 4 ago. 2020.
Law in the Age of Big Data and AI. LawArXiv, 12 out. 2018. Disponível em:
https://doi.org/10.31228/osf.io/mu2kf. Acesso em: 27 maio 2020.
204
406 WACHTER, S.; MITTELSTADT, B. A Right to Reasonable Inferences: Re-Thinking Data Protection
Law in the Age of Big Data and AI. LawArXiv, 12 out. 2018. Disponível em:
https://doi.org/10.31228/osf.io/mu2kf. Acesso em: 27 maio 2020.
407 WACHTER, S.; MITTELSTADT, B. A Right to Reasonable Inferences: Re-Thinking Data Protection
Law in the Age of Big Data and AI. LawArXiv, 12 out. 2018. Disponível em:
https://doi.org/10.31228/osf.io/mu2kf. Acesso em: 27 maio 2020.
205
408 WACHTER, S.; MITTELSTADT, B. A Right to Reasonable Inferences: Re-Thinking Data Protection
Law in the Age of Big Data and AI. LawArXiv, 12 out. 2018. Disponível em:
https://doi.org/10.31228/osf.io/mu2kf. Acesso em: 27 maio 2020.
409 INTERNETLAB. O que está em jogo no debate sobre dados pessoais no Brasil? Relatório final sobre
o debate público promovido pelo Ministério da Justiça sobre o Anteprojeto de Lei de Proteção de Dados
Pessoais. São Paulo: InternetLab, 2016. Disponível em: https://www.internetlab.org.br/wp-
content/uploads/2016/05/reporta_apl_dados_pessoais_final.pdf. Acesso em: 4 maio 2021.
410 UNIÃO EUROPEIA. Regulation (EU) 2016/679 of the European Parliament and of the Council of 27
April 2016 on the protection of natural persons with regard to the processing of personal data and on
the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation)
(Text with EEA relevance). Official Journal of the European Union, 4 maio 2016. Disponível em;
https://eur-lex.europa.eu/eli/reg/2016/679/oj/eng. Acesso em: 27 ago. 2021.
206
O art. 5º, inciso I, da LGPD, estabelece que dado pessoal é uma informação
relacionada a uma pessoa natural identificada ou identificável. No limite, qualquer
informação que possa ser atribuída a um indivíduo tem enquadramento na norma,
ainda que a pessoa não tenha fornecido esse dado diretamente ao processador. O
enquadramento de dado pessoal advém de um fato jurídico, ou seja, a existência
dessa informação sobre pessoa identificada ou identificável, e não de um ato de
coleta.
Essa distinção mostra que a definição de dado pessoal, que foi positivada pela
LGPD, baseia-se na concepção expansionista de dado pessoal. O viés reducionista é
a dimensão mais precisa do dado, que versa sobre pessoa específica, determinada,
com vínculo direto à informação412. Contudo, o uso de termo “identificável” insere um
grau de indeterminação que alarga o conceito de dado pessoal, oferecendo também
411 INTERNETLAB. O que está em jogo no debate sobre dados pessoais no Brasil? Relatório final sobre
o debate público promovido pelo Ministério da Justiça sobre o Anteprojeto de Lei de Proteção de Dados
Pessoais. São Paulo: InternetLab, 2016. Disponível em: https://www.internetlab.org.br/wp-
content/uploads/2016/05/reporta_apl_dados_pessoais_final.pdf. Acesso em: 4 maio 2021.
412 BIONI, Bruno Ricardo, 2019.
207
413 BIONI, B. Xeque-Mate: o tripé de proteção de dados pessoais no xadrez das iniciativas legislativas
no Brasil. GPOPAI/USP, [S. l.], 2015. Disponível em:
https://www.researchgate.net/publication/328266374_Xeque-
Mate_o_tripe_de_protecao_de_dados_pessoais_no_xadrez_das_iniciativas_legislativas_no_Brasil.
Acesso em: 27 ago. 2020.
414 WACHTER, S.; MITTELSTADT, B. A Right to Reasonable Inferences: Re-Thinking Data Protection
Law in the Age of Big Data and AI. LawArXiv, 12 out. 2018. Disponível em:
https://doi.org/10.31228/osf.io/mu2kf. Acesso em: 27 maio 2020.
415 EUROPEAN DATA PROTECTION BOARD. Guidelines on Automated individual decision-making
and Profiling for the purposes of Regulation 679/2016. Bruxelas: European Commission, 2016.
Disponível em: https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=612053; EUROPEAN
DATA PROTECTION BOARD. Guidelines 2/2019 on the processing of personal data under Article
6(1)(b) GDPR in the context of the provision of online services to data subjects. [S. l.]: EDPB, 2019.
Disponível em: https://privacyblogfullservice.huntonwilliamsblogs.com/wp-
content/uploads/sites/28/2019/04/edpb_draft_guidelines-art_6-1-b-
final_public_consultation_version_en.pdf. Acesso em: 26 abr. 2021; e EUROPEAN DATA
PROTECTION BOARD. ARTICLE 29 Newsroom — Guidelines on the right to “data portability”.
Disponível em: https://ec.europa.eu/newsroom/article29/item-detail.cfm?item_id=611233. Acesso em:
26 abr. 2021.
208
416 EUROPEAN DATA PROTECTION BOARD. ARTICLE 29 Newsroom — Guidelines on the right to
“data portability”. Disponível em: https://ec.europa.eu/newsroom/article29/item-
detail.cfm?item_id=611233. Acesso em: 26 abr. 2021.
417 WACHTER, S.; MITTELSTADT, B. A Right to Reasonable Inferences: Re-Thinking Data Protection
Law in the Age of Big Data and AI. LawArXiv, 12 out. 2018. Disponível em:
https://doi.org/10.31228/osf.io/mu2kf. Acesso em: 27 maio 2020.
418 FLORIDI, L. Open Data, Data Protection, and Group Privacy. Philosophy & Technologys. v. 27, n. 1,
que o conteúdo relacional dos dados é resultado dos procedimentos aos quais eles
são submetidos.
Neste sentido, podemos observar uma diferença significativa entre a GDPR e
a LGPD. No regulamento europeu, por exemplo, os dados anonimizados não são
protegidos, estão fora do escopo de aplicação da norma. O Recital 26 estabelece um
conceito de anonimização e ressalta que processos passíveis de reversão deverão
ser considerados como pseudoanonimização e, portanto, dados pessoais. Neste
sentido, permite que determinadas categorias de dados sejam excluídas da proteção
de dados pessoais. Há objeções importantes sobre a possibilidade de uma
anonimização efetiva. Além disso, essa categorização exclui dados anonimizados que
eventualmente sejam utilizados para realizar inferências estatísticas sobre
determinados grupos sociais. O art. 12 da LGPD, por sua vez, no § 2°, estabelece que
mesmo dados anonimizados poderão ser considerados dados pessoais quando forem
utilizados para a construção de perfis que afetem pessoas naturais. Neste sentido, em
vista das consequências advindas do tratamento no livre desenvolvimento da
personalidade de pessoas naturais, os dados utilizados em algoritmos, mesmo que
por si só não sejam caracterizados como pessoais, poderão ser considerados
pessoais, mesmo que sejam anonimizados.
Essa possível interpretação do art. 12 permite afirmar que a LGPD teria
condições de tutelar efeitos não previstos no GDPR, incluindo a razoabilidade das
inferências realizadas sobre pessoas naturais. No entanto, por mais que a
interpretação em favor da proteção mais ampla de dados pessoais seja robusta, ainda
há uma intensa disputa sobre se inferências estatísticas configuram dados pessoais.
Esse alargamento ainda não tem definição clara no ordenamento brasileiro, mas
carrega decorrências importantes no escopo do direito à explicação.
Primeiro, porque o direito à explicação passa a valer para um titular indefinido
e, eventualmente, difuso ou coletivo. Portanto, existiria não só um direito subjetivo
individual de demandar os critérios de decisões automatizadas, mas um direito difuso,
que pode ser usado em nome de interesses que não são individuais ou
individualizáveis. Passa a existir um interesse mais amplo no funcionamento do
processo decisório, e não apenas no caso concreto onde decisões podem ter um
efeito lesivo.
A segunda consequência, que é um resultado da primeira, é que quanto mais
se expandir as garantias dos titulares de dados pessoais sobre as relações e
210
inferências que surgem dos seus dados, cada vez mais se invadirá o espaço que é
hoje dominado pelo segredo comercial. Esse espaço, como vemos pela própria
movimentação no processo legislativo da LGPD, é um ponto onde as empresas estão
dispostas a proteger com afinco a sua competitividade estratégica. Portanto, o
conceito de dado pessoal reconhecido pela legislação e a sua interpretação são
essenciais para definir em quais contextos o direito à explicação será garantido. Se
se defende que este deve ser garantido quando da existência de processos
automatizados baseados no tratamento de dados pessoais, a contrario sensu, ele não
existiria em procedimentos automatizados baseados em dados não-pessoais. O
conceito, portanto, limita o escopo de aplicação da norma e, por consequência, o
próprio direito à explicação.
420 BENNET, C. Regulating privacy: data protection and public policy in Europe and the United States.
Ithaca, New York: Cornell University Press, 1992.
421 BURRELL, J. How the Machine “Thinks:” Understanding Opacity in Machine Learning Algorithms.
a compreensão dos algoritmos difícil para não especialistas e, além disso, como
alguns modelos de aprendizado de máquina (machine learning) são opacos até
mesmo para quem os desenvolve.
Dessa forma, a aprovação do GDPR levantou questões importantes para a
comunidade das ciências computacionais. Essa seção pretende discutir as
especificidades das tecnologias. Em primeiro lugar é preciso discutir a natureza
especializada das tecnologias de informação e das linguagens computacionais, as
maneiras pelas quais podem ser conhecidas, bem como os limites do conhecimento
para não especialistas.
Então podemos discutir de forma específica os limites da explicação no campo
do machine learning. Nos últimos anos, uma série de trabalhos na área da ciência da
computação vem discutindo o problema da aplicabilidade de modelos algorítmicos
complexos e propondo metodologias para o desenvolvimento de explainable artificial
intelligence (XAI).
Por fim, discutiremos como o direito à explicação se apresenta frente ao
conhecimento geral da população sobre computação, matemática, ciência etc.
Discutiremos alternativas para o acesso à explicação para a heterogeneidade dos
grupos sociais. Devemos argumentar como o comprometimento das organizações é
essencial para o exercício dos direitos no contexto da desigualdade de conhecimento
sobre tecnologias da informação, conhecida como digital divide.
422 STREVENS, M. No understanding without explanation. Studies in History and Philosophy of Science
Part A. v. 44, n. 3, p. 510–515, 2013. Disponível em: https://doi.org/10.1016/j.shpsa.2012.12.005.
Acesso em: 21 jun. 2021.
423 BORGES, J. L. Sobre o Rigor na Ciência. In: BORGES, J. L. História Universal da Infâmia. Lisboa:
424 STREVENS, M. No understanding without explanation. Studies in History and Philosophy of Science
Part A. v. 44, n. 3, p. 510–515, 2013. Disponível em: https://doi.org/10.1016/j.shpsa.2012.12.005.
Acesso em: 21 jun. 2021.
425 STREVENS, M. No understanding without explanation. Studies in History and Philosophy of Science
427
DEVORE, J. L. Probabilidade e estatística: para engenharia e ciências. Tradução: Joaquim Pinheiro
Nunes da Silva. São Paulo: Cengage Learning, 2006. p. 45–75.
215
428
DEVORE, J. L. Probabilidade e estatística: para engenharia e ciências. Tradução: Joaquim Pinheiro
Nunes da Silva. São Paulo: Cengage Learning, 2006. p. 432–461.
216
429 O’NEIL, C. Weapons of Math Destruction: How Big Data Increases Inequality and Threatens
Democracy. New York, NY: Crown Books, 2016. E-book.
430 DIAKOPOULOS, N. Algorithmic accountability reporting: on the investigation of black boxes. [S. l.]:
CONFERENCE, 2019, Atlanta, GA, USA. Proceedings of the Conference on Fairness, Accountability,
and Transparency — FAT’19. Atlanta, GA, USA: ACM Press, 2019. p. 279–288. Disponível em:
https://doi.org/10.1145/3287560.3287574. Acesso em: 27 maio 2020.
217
432 BURRELL, J. How the Machine “Thinks:” Understanding Opacity in Machine Learning Algorithms.
Rochester, NY: Social Science Research Network, 2015. Disponível em:
https://papers.ssrn.com/abstract=2660674. Acesso em: 27 maio. 2020.
433 BUCHANAN, B. G. A. (Very) Brief History of Artificial Intelligence. AI Magazine, [S. l.], v. 26, n. 4,
esse objeto.435
Os modelos mais comuns nessas aplicações são as redes neurais. Esses
modelos são compostos por camadas. Uma camada de entrada, contendo, por
exemplo, as imagens, a camada de saída, contendo a classificação dessas imagens,
e as camadas intermediárias, que são capazes de calcular o peso de interconexões
em elementos decompostos das imagens.
No entanto, as camadas intermediárias, por meio das quais o algoritmo
reconhece uma imagem como pertencente ou não a uma categoria, não são
expressas em termos lógicos, em categorias comparáveis aos que seres humanos
utilizam para realizar a mesma classificação. Quando uma imagem é inserida no
modelo, esse decompõe aquela em pequenos fragmentos compostos por poucos
pixels que não correspondem a nenhuma forma conhecida ou comumente utilizada
por seres humanos para explicar esse objeto.
Se as ações humanas são refletidas em uma práxis e compreendidas de uma
forma simbólica, o processamento computacional funciona apenas com uma lógica
algébrica. Tais modelos precisam ser interpretados para serem compreendidos,
conforme discutido no trabalho de Burrell nos modelos que classificam spam nas
caixas de e-mail. Um dos tipos de sistemas usados para filtro de spam são os support
vector machines (SVMs). Consistem em uma forma de regressão usada para realizar
classificações em variáveis binárias ou categóricas como sim ou não. No caso, spam
ou não spam. A metodologia consiste em atribuir peso às palavras mais ou menos
associadas com spams.
Embora a metodologia de atribuir pesos possa ser compreendida pelos
humanos, é difícil de explicar como ou por que uma decisão sobre um e-mail em
específico teve determinado resultado. Se podemos compreender que os algoritmos
realizam classificações sobre a probabilidade de um e-mail ser um spam e possamos
compreender quais palavras são mais ou menos relacionadas a esse incômodo, é
difícil explicar por que um e-mail específico foi classificado como spam, visto que o
peso de uma palavram em um contexto diferente, poderia ser outro.
Nesse sentido, é comum encontrarmos a terminologia relacionada a
interpretabilidade dos modelos de machine learning. Dessa forma, para explicar os
435 GOOGLE INC. ML Practicum: Image Classification. Google Developers. Disponível em:
https://developers.google.com/machine-learning/practica/image-classification. Acesso em: 22 maio
2021.
219
CONFERENCE, 2019, Atlanta, GA, USA. Proceedings of the Conference on Fairness, Accountability,
and Transparency — FAT’19. Atlanta, GA, USA: ACM Press, 2019. p. 279–288. Disponível em:
https://doi.org/10.1145/3287560.3287574. Acesso em: 27 maio 2020.
220
438 RUDIN, C. Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use
Interpretable Models Instead. ArXiv [cs, stat], [S. l.], 2019. Disponível em:
http://arxiv.org/abs/1811.10154. Acesso em: 10 ago. 2020.
439 DIAKOPOULOS, N. Algorithmic accountability reporting: on the investigation of black boxes. [S. l.]:
of Any Classifier. ArXiv, 2016. Disponível em: http://arxiv.org/abs/1602.04938. Acesso em: 25 ago.
2020.
221
442 MITTELSTADT, B. D. et al. The ethics of algorithms: Mapping the debate. Big Data & Society, [S. l.],
v. 3, n. 2, 2016. Disponível em: https://doi.org/10.1177/2053951716679679. Acesso em: 20 maio 2020.
443 MILLER, T. Explanation in Artificial Intelligence: Insights from the Social Sciences. ArXiv [cs], [S. l.],
445RUDIN, C. Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use
Interpretable Models Instead. ArXiv [cs, stat], [S. l.], 2019. Disponível em:
http://arxiv.org/abs/1811.10154. Acesso em: 10 ago. 2020.
223
446
MILLER, T. Explanation in Artificial Intelligence: Insights from the Social Sciences. ArXiv [cs], [S. l.],
2018. Disponível em: http://arxiv.org/abs/1706.07269. Acesso em: 14 ago. 2020.
225
447 MITTELSTADT, B.; RUSSELL, C.; WACHTER, S. Explaining Explanations in AI. In: THE
CONFERENCE, 2019, Atlanta, GA, USA. Proceedings of the Conference on Fairness, Accountability,
and Transparency — FAT’19. Atlanta, GA, USA: ACM Press, 2019. p. 279–288. Disponível em:
https://doi.org/10.1145/3287560.3287574. Acesso em: 27 maio 2020.
448 BURRELL, J. How the Machine “Thinks:” Understanding Opacity in Machine Learning Algorithms.
450CHENEY-LIPPOLD, J. We are data: algorithms and the making of our digital selves. New York: New
York University Press, 2017.
451 DAVIES, R. S. Understanding Technology Literacy: A Framework for Evaluating Educational
disponível a todo mundo e como essa escassez pode impactar direitos básicos.452
Superar a questão do acesso, contudo, não implica que a tecnologia seja
compreendida e utilizada em todo o seu potencial. Autores argumentam que é
importante levar em consideração o contexto em que as pessoas usam a tecnologia.
Embora o acesso a smartphones de fato tenha aumentado nos últimos anos até
mesmo nas menores faixas de renda, sua utilização é limitada a poucos aplicativos.
Dessa forma, embora com acesso à internet e com smartphones, muitas pessoas não
possuíam familiaridade e facilidade para realizar configurações ou contornar bugs do
aplicativo.
Essa desigualdade no acesso e uso de tecnologias digitais é um problema que
diversos autores trabalharam a partir de uma questão apelidada de digital divide453.
Não é simples explicar a divisão, suas causas, consequências e formas de superação.
A começar pela variação do acesso e conhecimento em função da idade. É comum
percebermos os mais velhos como menos familiarizados com tecnologias digitais454.
Mas essa menor habilidade pode ser explicada tanto por características físicas,
decorrentes das características cognitivas dos mais velhos, ou geracionais,
decorrentes da experiência com o seu uso de tecnologias ser mais difundida entre os
mais novos.
Outro problema enfrentado diz respeito à variação em função da renda. O
aumento da renda pode significar mais familiaridade com tecnologias. Em um primeiro
momento podemos afirmar que isso se deve ao acesso mais facilitado às tecnologias.
Contudo, visto as transformações no mercado de trabalho, a falta de conhecimentos
sobre tecnologias digitais pode constituir também uma causa da desigualdade de
renda, e não sua consequência455.
452 FAMÍLIAS sem acesso à internet não conseguem usar o dinheiro do auxílio emergencial. Jornal
Nacional, 9 abr. 2021. Disponível em: https://g1.globo.com/jornal-nacional/noticia/2021/04/09/familias-
sem-acesso-a-internet-nao-conseguem-usar-o-dinheiro-do-auxilio-emergencial.ghtml. Acesso em: 22
maio 2021.
453 CHEN, W.; BARRY, W. Charting Digital Divides: Comparing Socioeconomic, Gender, Life Stage,
and Rural-Urban Internet Access and Use in Five Countries. In: DUTTON, W. H.; KAHIN, B.;
O'CALLAGHAN, R.; WYCKOFF, A. W. Transforming Enterprise: The Economic and Social Implications
of Information Technology. MITP, 2004. p. 467–497. E-book.
454 LOSH, S. C. Generation versus aging, and education, occupation, gender and ethnicity effects in
U.S. digital divides. In: 2009 Atlanta Conference on Science and Innovation Policy, Atlanta, 2009. p. 1–
8. Disponível em: https://doi.org/10.1109/ACSIP.2009.5367820. Acesso em: 21 jun. 2021.
455 TOMCZYK, L. et al. Digital Divide in Latin America and Europe: Main Characteristics in Selected
456 CHEN, W.; BARRY, W. Charting Digital Divides: Comparing Socioeconomic, Gender, Life Stage,
and Rural-Urban Internet Access and Use in Five Countries. In: DUTTON, W. H.; KAHIN, B.;
O'CALLAGHAN, R.; WYCKOFF, A. W. Transforming Enterprise: The Economic and Social Implications
of Information Technology. MITP, 2004. p. 467–497. E-book.
457 AHMED, N.; WAHED, M. The De-democratization of AI: Deep Learning and the Compute Divide in
Society. South Carolina Law Review, v. 69, n. 557, 2018. Disponível em: https://ttu-
ir.tdl.org/handle/2346/73913. Acesso em: 21 out. 2020.
461 PEW RESEARCH CENTER: INTERNET, SCIENCE & TECH. Code-Dependent: Pros and Cons of
the Algorithm Age. [S. l.]: Pew Research Center, 2017. p. 74 et seq.
462 WATSON, D. S.; FLORIDI, L. The explanation game: a formal framework for interpretable machine
463 SINHA, G.; SHAHI, R.; SHANKAR, M. Human Computer Interaction. In: INTERNATIONAL
CONFERENCE ON EMERGING TRENDS IN ENGINEERING AND TECHNOLOGY, 3., 2010. p. 1–4.
Disponível em: https://doi.org/10.1109/ICETET.2010.85. Acesso em: 21 jun. 2021.
464 KAIYAN, N. Exploratory study of implicit theories in human computer interaction. Proceedings Sixth
Australian Conference on Computer-Human Interaction. [S. l.: s. n.], 1996. p. 338–339. Disponível em:
https://doi.org/10.1109/OZCHI.1996.560158. Acesso em: 21 jun. 2021.
465 CHAO, G. Human-Computer Interaction: Process and Principles of Human-Computer Interface
Design. In: 2009 International Conference on Computer and Automation Engineering, [S. l.]: 2009. p.
230–233. Disponível em: https://doi.org/10.1109/ICCAE.2009.23. Acesso em: 21 jun. 2021.
231
466 FISCHER, G. User Modeling in Human–Computer Interaction. User Modeling and User-Adapted
Interaction, v. 11, n. 1, p. 65–86, 2001. Disponível em: https://doi.org/10.1023/A:1011145532042.
Acesso em: 21 jun. 2021.
232
467RAAB, C.; SZEKELY, I. Data Protection Authorities and Information Technology. Computer Law and
Security Review, 1 jul. 2017. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2994898. Acesso em: 14 maio 2021.
233
experiência comparada. In: PALHARES, Felipe (Coords.). Temas atuais de proteção de dados. São
Paulo: Thomson Reuters, 2020. p. 157.
470 DONEDA, D. A Autoridade Nacional de Proteção de Dados e o Conselho Nacional de Proteção de
Dados. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR, O. L.; BIONI, B.
(Coords.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p. 460; No mesmo
sentido, cf.: WIMMER, M. Autoridades de proteção de dados pessoais no mundo: fundamentos e
evolução na experiência comparada. In: PALHARES, Felipe (Coords.). Temas atuais de proteção de
dados. São Paulo: Thomson Reuters, 2020. p. 157.
471 Ibidem, p. 461.
234
472 RAAB, C.; SZEKELY, I. Data Protection Authorities and Information Technology. Computer Law and
Security Review, 1 jul. 2017. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2994898. Acesso em: 14 maio 2021. p. 3.
473 “Perhaps that was true of the relatively few DPAs at that time in the larger countries of the EU, but is
it still the case today, when the technological explosion, the proliferating demands placed upon DPAs,
and the growth in their numbers across the EU at national and sub-national levels cast some doubt on
their ability to deploy such knowledge in their activities ‘on the ground’?” (RAAB, C.; SZEKELY, I. Data
Protection Authorities and Information Technology. Computer Law and Security Review, 1 jul. 2017.
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2994898. Acesso em: 14 maio
2021. p. 3).
235
This survey aimed to find out the extent to which DPAs were abreast
of changes in ICTs with which personal data are processed and which
powerfully shape the terrain on which DPAs’ regulatory and
supervisory activities take place. The authors’ interest in this subject
was fuelled by a perception that DPAs – among other shortcomings –
were particularly deficient in their understanding of ICTs, so that their
ability to regulate information processing would be compromised by
deficiencies in their comprehension of technological changes that had
important consequences for the protection of rights to privacy and data
protection.474 (grifo nosso).
474RAAB, C.; SZEKELY, I. Data Protection Authorities and Information Technology. Computer Law and
Security Review, 1 jul. 2017. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2994898. Acesso em: 14 maio 2021. p. 3-4.
236
475RAAB, C.; SZEKELY, I. Data Protection Authorities and Information Technology. Computer Law and
Security Review, 1 jul. 2017. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2994898. Acesso em: 14 maio 2021. p. 8-9.
238
Both the analysis of the survey results and the opinions presented at
the public discussion showed that the present level of expertise
available in the DPAs’ offices is either not satisfactory or at least needs
to be further enhanced. With regard to rapid technological
developments and their impact on the processing and use of personal
data, it seems evident that even the mere preservation of the existing
level of ICT expertise in an organisation requires continuous
learning.476
476RAAB, C.; SZEKELY, I. Data Protection Authorities and Information Technology. Computer Law and
Security Review, 1 jul. 2017. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2994898. Acesso em: 14 maio 2021. p. 9.
239
The few DPAs that preferred reactive actions mentioned their limited
resources, or the fact that their organization is not involved in the
legislative process, however, one DPA clearly stated that the proper
strategy is to act only when the challenge is clear.477 (grifo nosso).
477RAAB, C.; SZEKELY, I. Data Protection Authorities and Information Technology. Computer Law and
Security Review, 1 jul. 2017. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2994898. Acesso em: 14 maio 2021. p. 11.
240
478 EUROPEAN UNION AGENCY FOR FUNDAMENTAL RIGHTS. Data Protection in the European
Union: the role of National Data Protection Authorities. Bruxelas: FRA, 2010. Disponível em:
https://fra.europa.eu/sites/default/files/fra_uploads/815-Data-protection_en.pdf. Acesso em: 16 maio
2021. p. 6.
479 MASSÉ, E. Two Years Under the EU GDPR: An Implementation Progress Report. [S. l.]: AccessNow,
While this growth is positive, the total number of fines is still low
compared to the 144,376 complaints that people had filed by May
2019. While not every complaint will result in a fine and other sanctions
are available as a remedy for data protection violations, a large number
of complaints remain unaddressed. DPAs are now facing a backlog of
complaints. In addition to watching any investigations they may launch
on their own, we are waiting for DPAs to respond to these complaints
to protect our rights.480 (grifo nosso).
480
MASSÉ, E. Two Years Under the EU GDPR: An Implementation Progress Report. [S. l.]: AccessNow,
2020. Disponível em: https://www.accessnow.org/cms/assets/uploads/2020/05/Two-Years-Under-
GDPR.pdf. Acesso em: 16 maio 2021. p. 7.
242
481
MASSÉ, E. Two Years Under the EU GDPR: An Implementation Progress Report. [S. l.]: AccessNow,
2020. Disponível em: https://www.accessnow.org/cms/assets/uploads/2020/05/Two-Years-Under-
GDPR.pdf. Acesso em: 16 maio 2021. p. 9.
244
The United Kingdom is therefore the authority with the most staff and
financial resources. It is also one of the few authorities to have in-house
technological expertise, which is extremely important in conducting
independent investigations. As the UK is set to exit the European
Union, the network of European authorities working together within the
EDPB will lose the support of this highly resourced authority. The UK’s
budget is double that of Italy and three times bigger than that of France,
even though the three countries have roughly the same number of
inhabitants and their economies are similar in size. And no, this does
not mean that the UK has too big a budget; it may actually be the only
authority with adequate resources.482
At the center of the success or failure of the GDPR are the Data
Protection Authorities. If they do not enforce the law, we as individuals
may never experience its benefits. For DPAs to function properly and
address the large number of complaints that have been filed, the
resources allocated to them must be increased. Politico Europe
reported that many DPAs have been expressing their dissatisfaction
with their current budget and resources. Out of 30 DPAs from all 27 EU
countries, the United Kingdom, Norway, and Iceland, only nine said
they were happy with their level of resourcing.483
482 MASSÉ, E. Two Years Under the EU GDPR: An Implementation Progress Report. [S. l.]: AccessNow,
2020. Disponível em: https://www.accessnow.org/cms/assets/uploads/2020/05/Two-Years-Under-
GDPR.pdf. Acesso em: 16 maio 2021. p. 11.
483 Ibidem, p. 9.
245
484
MASSÉ, E. Two Years Under the EU GDPR: An Implementation Progress Report. [S. l.]: AccessNow,
2020. Disponível em: https://www.accessnow.org/cms/assets/uploads/2020/05/Two-Years-Under-
GDPR.pdf. Acesso em: 16 maio 2021. p. 9.
246
485
MASSÉ, E. Two Years Under the EU GDPR: An Implementation Progress Report. [S. l.]: AccessNow,
2020. Disponível em: https://www.accessnow.org/cms/assets/uploads/2020/05/Two-Years-Under-
GDPR.pdf. Acesso em: 16 maio 2021. p. 11-12.
247
486 “In December 2015, during the negotiations of the GDPR, the legal services of the Council which
represents the EU states expressed concerns regarding the functioning of the one-stop-shop. They
indicated that ‘the lead authorities are a bad system if you want to protect citizens' fundamental rights’,
and noted further that while the system would be a one-stop-shop for companies, it would be “a three-
stop-shop” for people, as we would have to deal with several authorities and courts to get a complaint
resolved. At the time, these concerns were regarded as highly political, as they risked the extension of
already lengthy negotiations of the law. Two years into the application of the law, these comments do
unfortunately summarise the current situation. Several Data Protection Authorities are calling out the
bottleneck of cross-border cases, as leading authorities are neither being transparent nor moving quickly
enough to process complaints. Earlier this year, Ulrich Kelber, the head of Germany’s federal Data
Protection Authority, called the functioning of the current cross-border enforcement system ‘unbearable’.
A few months later, the Hamburg DPA called the one-stop-shop mechanism ‘cumbersome, time
consuming and ineffective’. One of the major hurdles for cooperation is, once again, budget and
resources. Out of all EU countries, only five considered that they have enough resources to dedicate
time to coordination tasks, including cross-border complaints. The five countries are the Czech Republic,
Denmark, Hungary, the UK (which left the EU), and Luxembourg (which has yet to resolve any major
case). All other countries report major issues. In the same survey, the Austrian Data Protection Authority
said that they are not equipped to deal with some cases requiring cooperation with other authorities
because ‘[a] lawyer of the authority is dealing with more than 100 cases (national and cross-border)
simultaneously at an average’. Many countries, including Belgium, Lithuania, Poland, and Bulgaria
indicated that the authority does not have staff allocated to this cooperation. The 17 German authorities
collectively indicated that ‘the current staffing is not found to be sufficient for the effective performance’
of cooperation tasks. The Spanish authority notes that while they have more staff since 2018, ‘the
increase in staff is insufficient to meet the growth in workload derived from the GDPR’. The French
authority indicates that it lacks the human resources to ‘effectively contribute to all cooperation
mechanisms’. Portugal’s situation is the most alarming as ‘there is only one person (almost entirely)
248
Uma dessas aberturas conferidas pela GDPR diz respeito justamente ao direito
à explicação. O art. 22(2)(b) assim dispõe: “O titular dos dados tem o direito de não
ficar sujeito a nenhuma decisão tomada exclusivamente com base no tratamento
automatizado, incluindo a definição de perfis, que produza efeitos na sua esfera
jurídica ou que o afete significativamente de forma similar. 2. O nº 1 não se aplica se
a decisão: [...] b) For autorizada pelo direito da União ou do Estado-Membro a que o
responsável pelo tratamento estiver sujeito, e na qual estejam igualmente previstas
medidas adequadas para salvaguardar os direitos e liberdades e os legítimos
interesses do titular dos dados”.
Em face deste dispositivo, os Estados-Membros têm adotado diferentes
legislações com diferentes estratégias de implementação do art. 22(2)(b), que podem
ser categorizadas de quatro formas. Primeiramente, tem-se a abordagem negativa ou
neutra. Países com abordagem negativa não se valem da abertura dada pelo art. 22
para legislarem de modo diverso por meio de instrumentos internos. Ou simplesmente
não legislam, ou se limitam a repetir o texto do art. 22 nas legislações nacionais. É
dedicated to that task.” (MASSÉ, E. Two Years Under the EU GDPR: An Implementation Progress
Report. [S. l.]: AccessNow, 2020. Disponível em:
https://www.accessnow.org/cms/assets/uploads/2020/05/Two-Years-Under-GDPR.pdf. Acesso em: 16
maio 2021. p. 13).
487 LYNSKEY, O. The Foundations of EU Data Protection Law. Oxford: Oxford University Press, 2015. p.
70.
488 Ibidem, p. 71.
249
489 SOUZA, C. A.; PERRONE, C.; MAGRANI, E. O direito à explicação entre a experiência europeia e
a sua positivação na LGPD. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR,
O. L.; BIONI, B. (Orgs.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p.
243-270. p. 254.
490 Ibidem, p. 254-255.
491 Ibidem, p. 256.
492 SOUZA, C. A.; PERRONE, C.; MAGRANI, E. O direito à explicação entre a experiência europeia e
a sua positivação na LGPD. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR,
O. L.; BIONI, B. (Orgs.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p.
243-270.
250
Dados. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR, O. L.; BIONI, B.
(Coords.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p. 466.
252
Dados. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.; RODRIGUES JÚNIOR, O. L.; BIONI, B.
(Coords.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense, 2021. p. 467.
253
seus quadros técnicos tem se dado por meio de requisição. Ademais, dentre os 9
pontos da LGPD vetados pelo presidente Bolsonaro, estava justamente a
possibilidade de a ANPD cobrar taxas pelos serviços prestados.502 Como esses
déficits institucionais e a ausência de recursos humanos e financeiros adequados irão
impactar o enforcement da LGPD e a garantia do direito à explicação é uma questão
ainda em aberto, cabendo observar como a autoridade se comportará e reagirá em
face desse cenário. Com base na experiência europeia, contudo, que conta com um
arranjo institucional muito mais robusto e consolidado, mas que, ainda assim, enfrenta
graves entraves às atividades de enforcement, é possível antever um cenário de
inúmeros desafios nos primeiros anos de atuação da ANPD.
Além do desenho institucional da ANPD, os gargalos institucionais para a
garantia do direito à explicação no Brasil podem ser ainda entendidos a partir dos
desafios de coordenação intergovernamental para a implementação da lei. Conforme
aponta Wimmer, a LGPD é uma lei de caráter transversal, que produz efeitos
horizontais sobre todos os setores econômicos e sobre quase todos os campos de
atuação do Poder Público, em seus diferentes níveis de atuação. De acordo com a
autora, essa incidência transversal traz consigo desafios relacionados ao cruzamento
de competências de outros órgãos e entidades da administração pública, em seus
diferentes níveis de atuação, seja direta ou indireta: “Tal complexidade suscita
importantes desafios hermenêuticos e impõe às diversas instâncias do Poder
Executivo, em nome da segurança jurídica, um gigantesco desafio de
coordenação.”503
Wimmer aponta ainda que o advento de uma norma com características de
transversalidade como a LGPD “[...] acarreta inúmeros desafios hermenêuticos
502“A lei também teve um veto sobre a cobrança de emolumentos pelos serviços prestados como fonte
de eventual de recursos financeiros para a Autoridade Nacional de Proteção de Dados. A incapacidade
de cobranças por serviços da ANPD retira a possibilidade de a entidade ter, a médio e longo prazo,
receita e estrutura para corresponder às demandas e necessidades que surgirão no seu
funcionamento.” (COALIZÃO DIREITOS NA REDE. Coalizão Direitos na Rede repudia os 9 vetos de
Bolsonaro à lei que cria a Autoridade Nacional de Proteção de Dados. Medium, 9 jul. 2019. Disponível
em: https://cdr-br.medium.com/coaliz%C3%A3o-direitos-na-rede-repudia-os-9-vetos-de-bolsonaro-
%C3%A0-lei-que-cria-a-autoridade-nacional-de-ee536f6baeb. Acesso em: 28 abr. 2021). Cf., também:
BRASIL. Câmara dos Deputados. Sancionada, com nove vetos, lei que cria Autoridade Nacional de
Proteção de Dados. Câmara dos Deputados, 9 jul. 2019. Disponível em:
https://www.camara.leg.br/noticias/561908-SANCIONADA,-COM-NOVE-VETOS,-LEI-QUE-CRIA-
AUTORIDADE-NACIONAL-DE-PROTECAO-DE-DADOS. Acesso em: 28 abr. 2021.
503 WIMMER, M. Os desafios do enforcement na LGPD: fiscalização, aplicação de sanções
administrativas e coordenação intergovernamental. In: MENDES, L. S.; DONEDA, D.; SARLET, I. W.;
RODRIGUES JR., O. L. (Coords.). Tratado de Proteção de Dados Pessoais. Rio de Janeiro: Forense,
2021. p. 377.
254
A partir desta análise do art. 20, § 2º, da LGPD, parece haver uma brecha a ser
explorada pelos agentes de tratamento que pode comprometer significativamente a
garantia e implementação do direito à explicação na LGPD.
509 ZANATTA, R. A. F. A tutela coletiva na proteção de dados pessoais. Revista do Advogado, n. 144,
nov. 2019. Disponível em:
https://aplicacao.aasp.org.br/aasp/servicos/revista_advogado/paginaveis/144/200/index.html. Acesso
em: 20 maio 2021. p. 202.
510 ZANATTA, R. A. F. A tutela coletiva na proteção de dados pessoais. Revista do Advogado, n. 144,
512 Para uma análise mais detalhada dos casos, cf. ZANATTA, R. A. F. Tutela coletiva e coletivização
da proteção de dados pessoais. In: PALHARES, F. (Org.). Temas Atuais de Proteção de Dados. São
Paulo: Thomson Reuters, 2020. p. 357-359.
513 ZANATTA, R. A. F. A tutela coletiva na proteção de dados pessoais. Revista do Advogado, n. 144,
Temas Atuais de Proteção de Dados. São Paulo: Thomson Reuters, 2020. p. 357-359.
259
texto da LGPD. Nas palavras do autor: “Não é sem razão que a LGPD possui uma
profunda conexão com o CDC e o sistema de tutela coletiva. A LGPD absorveu parte
da tradição de tutela coletiva no Brasil, abrindo espaço para que a proteção dos
direitos assegurados na legislação seja feita de forma coletiva, ao lado das múltiplas
formas de proteção individual dos direitos.”515 Há uma série de dispositivos da LGPD
que apontam para essa abertura à tutela coletiva, dentre os quais pode se destacar o
art. 18, § 8º, que prevê que os titulares também poderão peticionar em relação aos
seus direitos junto aos organismos de defesa do consumidor, o art. 22, que dispõe
que a defesa dos interesses e dos direitos dos titulares de dados poderá ser exercida
em juízo, individual ou coletivamente, na forma do disposto na legislação pertinente,
acerca dos instrumentos de tutela individual e coletiva, e o art. 42, § 3º, que prevê que
as ações de reparação por danos coletivos que tenham por objeto a responsabilização
dos agentes de tratamento podem ser exercidas coletivamente em juízo. Essas
disposições trazem uma série de implicações institucionais, uma vez que atraem para
o enforcement dos direitos dos titulares, dentre os quais o direito à explicação, uma
série de atores, com extensa e acumulada experiência de atuação na proteção de
dados pessoais e que deverão atuar paralelamente à ANPD, como o Judiciário em
suas diferentes instâncias e os órgãos integrantes do Sistema Nacional de Defesa do
Consumidor, como os Procons e a Secretaria Nacional do Consumidor. Essa
multiplicidade de atores com competências concorrentes ou sobrepostas em relação
ao enforcement dos direitos dos titulares no cenário brasileiro é bem destacada pelo
autor:
Conforme afirmado no início desta seção, essa abertura à tutela coletiva pode
ser positiva, ao ampliar a tutelabilidade do direito à explicação, mas traz também
alguns desafios institucionais relacionados à consistência da aplicação e
harmonização da interpretação deste direito.
Nos termos do art. 55-K, P.U., da LGPD, a ANPD deverá articular sua atuação
com outros órgãos e entidades com competências sancionatórias e normativas afetas
ao tema de proteção de dados pessoais e será o órgão central de interpretação da lei
e do estabelecimento de normas e diretrizes para a sua implementação.519 Embora a
LGPD ocupe lugar de centralidade na interpretação da lei, sendo ainda responsável
por sua regulamentação, é necessário pontuar que a ANPD, ainda em estágio inicial
de sua atuação, ainda não se afirmou como um órgão central de interpretação, ao
menos não em sua interface com o Poder Judiciário. Entre a promulgação da lei, o
início de sua vigência e a efetiva implementação da ANPD, houve um significativo
lapso temporal no qual predominou certa incerteza e insegurança jurídica entre os
agentes regulados e os diferentes atores responsáveis pelo enforcement da lei, o que
517 ZANATTA, R. A. F. Tutela coletiva e coletivização da proteção de dados pessoais. In: PALHARES,
F. (Org.). Temas Atuais de Proteção de Dados. São Paulo: Thomson Reuters, 2020. p. 362.
518 Ibidem, p. 363.
519 As recomendações recentemente emitidas ao WhatsApp Inc. em conjunto pela Autoridade Nacional
de Proteção de Dados, pelo Conselho Administrativo de Defesa Econômica, pelo Ministério Público
Federal e pela Secretaria Nacional do Consumidor, recomendando que a empresa adiasse a entrada
em vigência de sua nova política de privacidade e estabelecendo uma série de recomendações
regulatórias, é um claro exemplo de exercício desse dever de articulação na prática, abordagem que
deverá ser recorrente na atuação da ANPD. Cf. AUTORIDADE NACIONAL DE PROTEÇÃO DE
DADOS. Cade, MPF, ANDP e Senacon recomendam que WhatsApp adie entrada em vigor da nova
política de privacidade. ANPD, 7 maio 2021. Disponível em: https://www.gov.br/anpd/pt-
br/assuntos/noticias/cade-mpf-anpd-e-senacon-recomendam-que-whatsapp-adie-entrada-em-vigor-
da-nova-politica-de-privacidade. Acesso em: 21 jun. 2021.
261
520 BRASIL. Autoridade Nacional de Proteção de Dados. Portaria nº 11, de 27 de janeiro de 2021. Torna
pública a agenda regulatória para o biênio 2021-2022. Diário Oficial da União, Brasília-DF, Seção 1,
edição 19, publicado em 28 jan. 2021, p. 3. Disponível em: https://www.in.gov.br/en/web/dou/-/portaria-
n-11-de-27-de-janeiro-de-2021-301143313. Acesso em: 21 maio 2021.
521 ZANATTA, R. A. F. Tutela coletiva e coletivização da proteção de dados pessoais. In: PALHARES,
F. (Org.). Temas Atuais de Proteção de Dados. São Paulo: Thomson Reuters, 2020. p. 370-371.
262
LGPD.
Esse desafio de construção de uma interpretação sólida, sistemática,
harmônica e uniforme em torno do direito à explicação pode ser ilustrado a partir de
dois casos de grande repercussão envolvendo tensões entre demandas por maior
transparência no contexto de sistemas algorítmicos e a defesa do segredo de negócio
pelos agentes proprietários dos sistemas.
Em 2018, o Ministério Público do Rio de Janeiro moveu uma ação civil pública
contra a empresa de comércio eletrônico Decolar, especializada na comercialização
de passagens aéreas e pacotes de viagem. Na referida ação, o Ministério Público
acusa a empresa “[...] pelas práticas de geo-blocking – bloqueio da oferta com base
na origem geográfica do consumidor – e de geo-pricing – precificação diferenciada da
oferta também com base na geolocalização.”524 Em síntese, o Ministério Público
fundamentou seu pedido com base no entendimento de que a empresa
524 ZANATTA, R. A. F. Tutela coletiva e coletivização da proteção de dados pessoais. In: PALHARES,
F. (Org.). Temas Atuais de Proteção de Dados. São Paulo: Thomson Reuters, 2020. p. 358.
525 ZANATTA, R. A. F. Tutela coletiva e coletivização da proteção de dados pessoais. In: PALHARES,
F. (Org.). Temas Atuais de Proteção de Dados. São Paulo: Thomson Reuters, 2020. p. 358.
526 BRASIL. Superior Tribunal de Justiça. Recurso em Mandado de Segurança nº 61.306 – RJ
529RIO GRANDE DO SUL. Tribunal de Justiça do Estado do Rio Grande do Sul (6. Câmara Cível).
Apelação Cível nº 70059936971. Data de Julgamento: 16/12/2014.
530 BRASIL. Tribunal Regional do Trabalho da 9 o Região. Rito Sumaríssimo nº 0000335-
De acordo com o órgão julgador, nenhuma outra prova, que não o código fonte
do algoritmo, pode servir como elemento suficiente para sanar a questão da existência
ou não de uma relação de subordinação característica de relações de emprego. Por
determinação do tribunal, portanto, ficou determinada a realização de auditoria no
algoritmo.533 Ao final, contudo, em sede de conciliação, a empresa ofereceu uma
proposta de acordo para que a autora da ação desistisse da demanda sem a
necessidade de realização da auditoria. Não obstante o desfecho, esse caso aponta
para um entendimento em direção oposta ao primeiro caso relatado acima,
532Ibidem, p. 16-17.
533 Este também foi o entendimento do Tribunal Regional do Trabalho da 1ª Região em um caso
envolvendo a Uber do Brasil Tecnologia LTDA., no qual se buscava analisar a existência de relação de
emprego entre a empresa e um de seus motoristas, tendo sido determinada a realização de perícia no
algoritmo. A perícia havia sido determinada pelo juízo de primeira instância, que entendeu que a prova
era necessária à formação do livre convencimento do juiz. Alegando violação ao seu direito de
propriedade intelectual e aos princípios da concorrência e da livre iniciativa, a empresa impetrou
Mandado de Segurança requerendo a não realização da auditoria, argumentado que as provas
necessárias à formação do convencimento do juiz poderiam ser supridas por vias alternativas e menos
onerosas. Em síntese, a decisão do juízo foi a de determinar a realização de perícia no algoritmo, nos
seguintes termos: “[...] apesar da proteção legal, acaso útil e necessária, a perícia técnica não pode ser
inviabilizada no caso, tendo em vista que a própria legislação se encarrega de estabelecer parâmetros
a compor proporcionalmente o direito coletivo à investigação e o direito individualizado à garantia do
sigilo industrial.” (BRASIL. Tribunal Regional do Trabalho da 1ª Região. Mandado de Segurança Cível
— Processo nº 0103519-41.2020.5.01.0000. Julgado em: 29/04/2021).
267
envolvendo o MP-RJ e a Decolar.com, uma vez que o tribunal deu maior relevo às
obrigações de transparência, determinando a abertura e realização de perícia técnica
no algoritmo.
Não constitui nosso objetivo realizar uma análise exaustiva da jurisprudência
envolvendo o direito à explicação e obrigações de transparência no contexto de
sistemas automatizados, mas tão somente ilustrar, a partir de dois recortes muito
específicos e pontuais, como a interpretação descentralizada do direito à explicação
pelos tribunais pode impor desafios ao seu reconhecimento e à delimitação de sua
exata extensão.
534RUDIN, C. Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use
Interpretable Models Instead. ArXiv [cs, stat], [S. l.], 2019. Disponível em:
http://arxiv.org/abs/1811.10154. Acesso em: 10 ago. 2020.
268
535 VAN ALSENOY, B. Liability under EU Data Protection Law: From Directive 95/46 to the General Data
Protection Regulation. JIPITEC, [S. l.], v. 7, n. 3, 2017. Disponível em:
http://www.jipitec.eu/issues/jipitec-7-3-2016/4506. Acesso em: 21 jun; 2021.
536 VAN ALSENOY, B. Liability under EU Data Protection Law: From Directive 95/46 to the General Data
Defesa Do Consumidor. Revista dos Tribunais, [S. l.], n. 1009, supl. Caderno Especial, nov. 2019.
539 ZANATTA, R. A. F. Agentes De Tratamento De Dados, Atribuições e Diálogo Com O Código De
Defesa Do Consumidor. Revista dos Tribunais, [S. l.], n. 1009, supl. Caderno Especial, nov. 2019.
272
540EUROPEAN DATA PROTECTION BOARD. Guidelines 07/2020 on the concepts of controller and
processor in the GDPR. [S. l.]: EDPB, 2020. Disponível em:
273
https://edpb.europa.eu/sites/default/files/consultation/edpb_guidelines_202007_controllerprocessor_e
n.pdf. Acesso em: 3 maio 2021.
541 “Art. 20. [...] § 1º O controlador deverá fornecer, sempre que solicitadas, informações claras e
adequadas a respeito dos critérios e dos procedimentos utilizados para a decisão automatizada,
observados os segredos comercial e industrial.” (BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei
Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República, 14 ago. 2018.
Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015- 2018/2018/lei/L13709.htm. Acesso em:
07. nov. 2020).
274
Defesa do Consumidor e a Lei do Cadastro Positivo, garantem aos titulares dos dados
o direito de acesso à integralidade dos dados pessoais que uma organização, pública
e privada, detém sobre ele. Todavia, o mero fornecimento desses dados, como já
explicado anteriormente, provavelmente não permitirá ao titular ter um conhecimento
efetivo sobre a forma e para o que eles são tratados, muito menos compreender os
seus possíveis impactos na sua vida. Por isso que esse e outros direitos são
acompanhados de obrigações de transparência ativa e passiva, que estabelecem o
dever de fornecer ao titular um mínimo de informações sobre tratamento dos seus
dados, incluindo os fins para os quais estes serão utilizados.
A palavra transparência é utilizada amplamente em vários contextos. Já
discutimos como a mera obrigação de informar é inefetiva quando desacompanhada
de outros mecanismos de controle. Contudo, é impossível negar o seu papel central
na regulação de privacidade e proteção de dados. É a partir da obrigação de
transparência, como elemento de um devido processo informacional, que se pode
argumentar em favor de um direito à explicação.
Resgatar e entender o conceito de transparência, portanto, é importante, pois,
em geral, a transparência é usada como uma forma de descrever um fenômeno, mas
raramente é abordada como algo a ser explicado. Como já abordado no item 2.2.2, a
possibilidade de ver um sistema não significa necessariamente entender seu
funcionamento e governá-lo. Portanto, a instrumentalização da transparência não
necessariamente significa discernimento da tecnologia empregada. Nesse sentido,
cabe apresentarmos brevemente o histórico do conceito e como devemos interpretá-
lo no atual corpo regulatório da proteção de dados.
O conceito de transparência só tomou a forma atual no contexto do estado
democrático de direito na década de 1990. No artigo “Whats is transparency”542, Ball
analisa a evolução da definição de transparência na língua inglesa. A autora rastreia
o significado de transparência desde seu uso por organizações não governamentais
e supranacionais até seu uso na literatura de relações internacionais, organizações
sem fins lucrativos, políticas públicas e administração. Segundo a autora, a presença
da palavra transparência em documentos organizacionais inicia-se na década de 1990
542
BALL, C. What Is Transparency? Public Integrity, [S. l.], v. 11, n. 4, p. 293–308, 2009. Disponível
em: https://doi.org/10.2753/PIN1099-9922110400. Acesso em: 21 jun. 2021.
277
543 LODGE, J. Transparency and Democratic Legitimacy. JCMS: Journal of Commom Market Studies,
[S. l.], 1994. Disponível em: https://doi.org/10.1111/j.1468-5965.1994.tb00501.x. Acesso em: 4 dez.
2020.
544 MICHENER, G.; BERSCH, K. Identifying Transparency. Inf. Polity, v. 18, n. 3, p. 233-242, 2013.
Information Laws. Administrative Law Review, [S. l.], v. 58, n. 1, p. 85–130, 2006.
546 PASQUALE, F. The Black box society: the secret algorithms that control money and information. First
Harvard University Press paperback edition ed. Cambridge, Massachusetts; London, England: Harvard
University Press, 2015.
278
547 BENNET, C. Regulating privacy: data protection and public policy in Europe and the United States.
Ithaca, New York: Cornell University Press, 1992. p. 153-192.
548 UNIÃO EUROPEIA. WP 260rev.01 — Guidelines on Transparency under Regulation 2016/679. [S.
550 ANANNY, M.; CRAWFORD, K. Seeing without knowing: Limitations of the transparency ideal and its
application to algorithmic accountability. New Media & Society, v. 20, n. 3, p. 973–989, 2016.
280
551 MAHIEU, R.; AUSLOOS, J. Recognising and Enabling the Collective Dimension of the GDPR and
the Right of Access. LawArXiv, 2 jul. 2020. Disponível em: https://doi.org/10.31228/osf.io/b5dwm.
Acesso em: 9 dez. 2020.
552 MAHIEU, R.; ASGHARI, H.; VAN EETEN, M. Collectively Exercising the Right of Access: Individual
Effort, Societal Effect. Rochester, NY: Social Science Research Network, 2017. SSRN Scholarly Paper.
Disponível em: https://doi.org/10.2139/ssrn.3107292. Acesso em: 9 dez. 2020.
281
553ALHADEFF, J.; VAN ALSENOY, B.; DUMORTIER, J. The Accountability Principle in Data Protection
Regulation: Origin, Development and Future Directions. In: GUAGNIN, D. et al. (org.). Managing Privacy
through Accountability. London: Palgrave Macmillan UK, 2012. p. 49–82. Disponível em:
https://doi.org/10.1057/9781137032225_4. Acesso em: 16 dez. 2020.
554 MULGAN, R. Issues of Accountability. In: MULGAN, R. (Org.). Holding Power to Account:
Accountability in Modern Democracies. London: Palgrave Macmillan UK, 2003. p. 1–35. Disponível em:
https://doi.org/10.1057/9781403943835_1. Acesso em: 13 nov. 2020.
282
555 DONEDA, D. Da privacidade à proteção de dados pessoais: fundamentos da Lei Geral de Proteção
de dados. 2. ed. São Paulo: Thomson Reuters Brasil, 2019. p. 172–180.
556 BIONI, B. R. Proteção de dados pessoais: a função e os limites do consentimento. 1. ed. Rio de
Regulation: Origin, Development and Future Directions. In: GUAGNIN, D. et al. (org.). Managing Privacy
through Accountability. London: Palgrave Macmillan UK, 2012. p. 49–82. Disponível em:
https://doi.org/10.1057/9781137032225_4. Acesso em: 16 dez. 2020.
558 GELLERT, R. Understanding data protection as risk regulation. Journal of Internet Law, [S. l.], p. 3–
15, 2015.
283
559 ALHADEFF, J.; VAN ALSENOY, B.; DUMORTIER, J. The Accountability Principle in Data Protection
Regulation: Origin, Development and Future Directions. In: GUAGNIN, D. et al. (org.). Managing Privacy
through Accountability. London: Palgrave Macmillan UK, 2012. p. 49–82. Disponível em:
https://doi.org/10.1057/9781137032225_4. Acesso em: 16 dez. 2020; e CASEY, B.; FARHANGI, A.;
VOGL, R. Rethinking Explainable Machines: The GDPR’s “Right to Explanation” Debate and the Rise
of Algorithmic Audits in Enterprise. In: Berkeley Technology Law Journal, v. 34, p. 145-189, 2018.
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3143325. Acesso em: 19 maio
2019.
560 UNIÃO EUROPEIA. WP 173 — Opinion 3/2010 on the principle of accountability. [S. l.]: WP29,
Explanation” Debate and the Rise of Algorithmic Audits in Enterprise. In: Berkeley Technology Law
Journal, v. 34, p. 145-189, 2018. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3143325. Acesso em: 19 maio 2019.
562 INTERNETLAB. O que está em jogo no debate sobre dados pessoais no Brasil? Relatório final
sobre o debate público promovido pelo Ministério da Justiça sobre o Anteprojeto de Lei de Proteção de
Dados Pessoais. São Paulo: InternetLab, 2016. Disponível em: https://www.internetlab.org.br/wp-
content/uploads/2016/05/reporta_apl_dados_pessoais_final.pdf. Acesso em: 4 maio 2021.
284
563 RAJI, I. D. et al. Closing the AI accountability gap: defining an end-to-end framework for internal
algorithmic auditing. In: FAT* '20: Proceedings of the 2020 Conference on Fairness, Accountability, and
Transparency. New York, USA: Association for Computing Machinery, 2020. p. 33–44. Disponível em:
https://doi.org/10.1145/3351095.3372873. Acesso em: 1 set. 2020.
286
564 EUROPEAN DATA PROTECTION BOARD. Guidelines 1/2018 on certification and identifying
certification criteria in accordance with Articles 42 and 43 of the Regulation — version adopted after
public consultation. [S. l.]: EDPB, 2018. Disponível em: https://edpb.europa.eu/our-work-tools/our-
documents/leitlinien/guidelines-12018-certification-and-identifying-certification_en. Acesso em: 17 nov.
2020.
565 BIONI, B. R. Compreendendo o conceito de anonimização e dado anonimizado. Revista do
566 DEMETZOU, K. Data Protection Impact Assessment: A tool for accountability and the unclarified
concept of ‘high risk’ in the General Data Protection Regulation. Computer Law & Security Review, [S.
l.], v. 35, n. 6, p. 105342, 2019. Disponível em: https://doi.org/10.1016/j.clsr.2019.105342. Acesso em:
21 jun. 2021.
567 OAIC. Privacy Impact Assessment Guide. Sydney: OAIC, 2010. Disponível em:
http://www.icb.org.au/out/?dlid=38156. Acesso em: 14 abr. 2021.
568 TREASURY BOARD OF CANADA. Directive on Privacy Impact Assessment. 2010. Disponível em:
Regulation May Still Come to Foster Ethically Responsible Data Processing. Rochester, NY: Social
Science Research Network, 2015. SSRN Scholarly Paper. Disponível em:
https://doi.org/10.2139/ssrn.2695398. Acesso em: 24 abr. 2021.
570 EUROPEAN DATA PROTECTION BOARD. Guidelines on Data Protection Impact Assessment
571 BINNS, R. Data Protection Impact Assessments: A Meta-Regulatory Approach. International Data
Privacy Law, v. 7, n. 1, p. 22-35, 2017. Disponível em: https://papers.ssrn.com/abstract=2964242.
Acesso em: 24 abr. 2021.
572 GOMES, M. C. Relatório de impacto à proteção de dados. Uma breve análise da sua definição e
papel na LGPD. Revista do Advogado, [S. l.], v. 39, n. 144, p. 174–183, 2019. p. 8.
289
573 BRASIL. Supremo Tribunal Federal. ADI nº 6.387/DF. Rel. Min. Rosa Weber. Data de Publicação:
12/11/2020. Disponível em: http://portal.stf.jus.br/processos/detalhe.asp?incidente=5895165. Acesso
em: 12 abr. 2021.
574 GELLERT, R. Understanding the notion of risk in the General Data Protection Regulation. Computer
Law & Security Review, [S. l.], v. 34, n. 2, p. 279–288, 2018. Disponível em:
https://doi.org/10.1016/j.clsr.2017.12.003. Acesso em: 21 jun. 2021.
290
575 MACCARTHY, M. Standards of Fairness for Disparate Impact Assessment of Big Data Algorithms.
Cumberland Law Review, [S. l.], v. 48, n. 1, p. 67–148, 2017.
576 WRIGHT, D.; MORDINI, E. Privacy and Ethical Impact Assessment. In: WRIGHT, D.; DE HERT, P.
(org.). Privacy Impact Assessment. Dordrecht: Springer Netherlands, 2012. p. 397–418. Disponível em:
https://doi.org/10.1007/978-94-007-2543-0_19. Acesso em: 24 abr. 2021.
577 KAMINSKI, M. E.; MALGIERI, G. Algorithmic impact assessments under the GDPR: producing multi-
layered explanations. International Data Privacy Law, [S. l.], n. ipaa020, 2020. Disponível em:
https://doi.org/10.1093/idpl/ipaa020. Acesso em: 29 mar. 2021; e REISMAN, D. et al. Algorithm Impact
Assessment: a practical framework for public agency accountability. [S. l.]: AI Now Institute, 2018.
Disponível em: https://ainowinstitute.org/aiareport2018.pdf. Acesso em: 21 abr. 2021.
578 MANTELERO, A. AI and Big Data: A blueprint for a human rights, social and ethical impact
assessment. Computer Law & Security Review, [S. l.], v. 34, n. 4, p. 754–772, 2018. Disponível em:
https://doi.org/10.1016/j.clsr.2018.05.017. Acesso em: 21 jun. 2021.
292
579 FROOMKIN, A. M. Regulating Mass Surveillance as Privacy Pollution: Learning from Environmental
Impact Statements. U. Ill. L. Rev., [S. l.], v. 2015, 2015. p. 1713.
580 MANTELERO, A. AI and Big Data: A blueprint for a human rights, social and ethical impact
assessment. Computer Law & Security Review, [S. l.], v. 34, n. 4, p. 754–772, 2018. Disponível em:
https://doi.org/10.1016/j.clsr.2018.05.017. Acesso em: 21 jun. 2021.
581 KATYAL, S. Private Accountability in the Age of Artificial Intelligence. Rochester, NY: Social Science
582 WRIGHT, D.; MORDINI, E. Privacy and Ethical Impact Assessment. In: WRIGHT, D.; DE HERT, P.
(org.). Privacy Impact Assessment. Dordrecht: Springer Netherlands, 2012. p. 397–418. Disponível em:
https://doi.org/10.1007/978-94-007-2543-0_19. Acesso em: 24 abr. 2021.
583 KAMINSKI, M. E.; MALGIERI, G. Algorithmic impact assessments under the GDPR: producing multi-
layered explanations. International Data Privacy Law, [S. l.], n. ipaa020, 2020. Disponível em:
https://doi.org/10.1093/idpl/ipaa020. Acesso em: 29 mar. 2021; REISMAN, D. et al. Algorithm Impact
Assessment: a practical framework for public agency accountability. [S. l.]: AI Now Institute, 2018.
Disponível em: https://ainowinstitute.org/aiareport2018.pdf. Acesso em: 21 abr. 2021.
584 KAMINSKI, M. E.; MALGIERI, G. Algorithmic impact assessments under the GDPR: producing multi-
layered explanations. International Data Privacy Law, [S. l.], n. ipaa020, 2020. Disponível em:
https://doi.org/10.1093/idpl/ipaa020. Acesso em: 29 mar. 2021.
294
585 WALKER, S. M. The future of human rights impact assessments of trade agreements. [S. l.]: [s. n.],
2009.
586 MANTELERO, A. AI and Big Data: A blueprint for a human rights, social and ethical impact
assessment. Computer Law & Security Review, [S. l.], v. 34, n. 4, p. 754–772, 2018. Disponível em:
https://doi.org/10.1016/j.clsr.2018.05.017. Acesso em: 21 jun. 2021.
295
587 DEMETZOU, K. Data Protection Impact Assessment: A tool for accountability and the unclarified
concept of ‘high risk’ in the General Data Protection Regulation. Computer Law & Security Review, [S.
l.], v. 35, n. 6, p. 105342, 2019. Disponível em: https://doi.org/10.1016/j.clsr.2019.105342. Acesso em:
21 jun. 2021.
588 EUROPEAN DATA PROTECTION BOARD. Guidelines on Data Protection Impact Assessment
no mínimo, a descrição dos tipos de dados coletados, a metodologia utilizada para a coleta e para a
garantia da segurança das informações e a análise do controlador com relação a medidas,
salvaguardas e mecanismos de mitigação de risco adotados.” (BRASIL. Lei nº 13.709, de 14 de agosto
de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República, 14
ago. 2018. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015- 2018/2018/lei/L13709.htm.
Acesso em: 07. nov. 2020).
296
590 CAVOUKIAN, A. Privacy by Design: Origins, meaning, and prospects for assuring privacy and trust
in the information era. In: YEE, G. O. M. Privacy Protection Measures and Technologies in Business
Organizations: Aspects and Standards, [S. l.], IGI Global, 2012. p. 170–208. Disponível em:
https://doi.org/10.4018/978-1-61350-501-4.ch007. Acesso em: 21 jun. 2021.
591 MULLIGAN, D. K.; KING, J. Bridging the Gap between Privacy and Design. Rochester, NY: Social
GDPR592. Na lei brasileira, o conceito aparece no art. 46593, que determina adoção de
medidas técnicas e administrativas desde a concepção de um produto ou serviço. Em
razão dessa obrigação, alguns doutrinadores e atores do mercado têm defendido a
adoção da metodologia de explainability by design, que determina a necessidade de
incorporação, desde a concepção dos produtos e serviços, até à capacidade para
garantir o direito à explicação das decisões tomadas por sistemas automatizados.
Se a LGPD garante um direito a informações significativas sobre o
processamento desses dados, o mero fornecimento dessas informações pode não
contribuir para o objetivo principal do direito à explicação, que é garantir aos titulares
ou usuários de sistemas automatizadas de tomadas de decisão a capacidade de
questionar e desafiar tais decisões de forma efetiva594.
Os regulamentos de proteção de dados estabelecem critérios claros e precisos
em vários institutos, como na forma do consentimento (livre e informado), e definem
formas de exercer a transparência e o próprio conceito de privacy by design fornecem
um corpo cogente de normas que garantem maior controle sobre os dados pessoais
e uma maneira de superar as assimetrias informacionais. Mas o direito à explicação
encontra ainda pouca formulação legal sobre quais parâmetros deveriam ser
utilizados para a avaliação de sua efetividade. A ausência dessa previsão é o que
motiva autores a afirmar a inexistência desse direito595. No entanto, uma série de
592 “Art. 25. Data protection by design and by default. (1) Taking into account the state of the art, the
cost of implementation and the nature, scope, context and purposes of processing as well as the risks
of varying likelihood and severity for rights and freedoms of natural persons posed by the processing,
the controller shall, both at the time of the determination of the means for processing and at the time of
the processing itself, implement appropriate technical and organisational measures, such as
pseudonymisation, which are designed to implement data-protection principles, such as data
minimisation, in an effective manner and to integrate the necessary safeguards into the processing in
order to meet the requirements of this Regulation and protect the rights of data subjects.” (UNIÃO
EUROPEIA. Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016
on the protection of natural persons with regard to the processing of personal data and on the free
movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation) (Text
with EEA relevance). Official Journal of the European Union, 4 maio 2016. Disponível em; https://eur-
lex.europa.eu/eli/reg/2016/679/oj/eng. Acesso em: 27 ago. 2021).
593 “Art. 46. Os agentes de tratamento devem adotar medidas de segurança, técnicas e administrativas
aptas a proteger os dados pessoais de acessos não autorizados e de situações acidentais ou ilícitas
de destruição, perda, alteração, comunicação ou qualquer forma de tratamento inadequado ou ilícito.
[...] § 2º As medidas de que trata o caput deste artigo deverão ser observadas desde a fase de
concepção do produto ou do serviço até a sua execução.” (BRASIL. Lei nº 13.709, de 14 de agosto de
2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da República, 14
ago. 2018. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015- 2018/2018/lei/L13709.htm.
Acesso em: 07. nov. 2020).
594 DOSHI-VELEZ, F.; KIM, B. Towards A Rigorous Science of Interpretable Machine Learning. ArXiv
[cs, stat], [S. l.], 2017. Disponível em: http://arxiv.org/abs/1702.08608. Acesso em: 30 jun. 2020.
595 WACHTER, S.; MITTELSTADT, B.; FLORIDI, L. Why a Right to Explanation of Automated Decision-
299
Making Does Not Exist in the General Data Protection Regulation. Rochester, NY: Social Science
Research Network, 2016. Disponível em: https://papers.ssrn.com/abstract=2903469. Acesso em: 27
maio. 2020.
596 ADADI, A.; BERRADA, M. Peeking Inside the Black-Box: A Survey on Explainable Artificial
Intelligence (XAI). IEEE Access, [S. l.], v. 6, p. 52138–52160, 2018. Disponível em:
https://doi.org/10.1109/ACCESS.2018.2870052. Acesso em: 21 jun. 2021.
300
597MOLNAR, C. Interpretable Machine Learning. [S. l.]: [s. n.], 2020. E-book.
598DOSHI-VELEZ, F.; KIM, B. Towards A Rigorous Science of Interpretable Machine Learning. ArXiv
[cs, stat], [S. l.], 2017. Disponível em: http://arxiv.org/abs/1702.08608. Acesso em: 30 jun. 2020.
301
precisamente o que seja um grupo, explicações que não tenham intenção de realizar
generalizações e abstrações são pouco úteis a menos que pensemos em sistemas
completamente artesanais. Esse grupo alvo pode ser pensado a partir de agentes
representativos que possuem determinadas características comuns.
Por último, é preciso pensar em formas de implementar a explicação, que
podem ser geradas por outro sistema, pelo próprio sistema enquanto é utilizado ou
por um humano especializado. Estudos de interação humano-máquina, pela
psicologia cognitiva e os estudos de geração de linguagem natural são as disciplinas
mais envolvidas nesse campo. Com a disseminação de atividades automatizadas e
da utilização de dispositivos computacionais, as ciências sobre as interações entre os
usuários e os sistemas têm ganhado cada vez mais espaço.
Alguns estudos têm apresentado modelos de explicações dos sistemas
partindo de investigações sobre as possíveis necessidades dos usuários. A definição
desse usuário é de extrema importância e pode decorrer de estudos empíricos ou de
estudos de cenários. Ao focar nas necessidades dos usuários, destaca-se a diferença
entre a interpretabilidade e a explicação: a primeira é uma característica dos sistemas
e a segunda é uma ação intencional. Por isso, a explicação não se refere
necessariamente ao funcionamento do sistema, mas oferece informações
significativas e úteis para determinado interlocutor. Essas explicações poderiam se
situar entre categorias comuns da literatura de human computer interaction (HCI):
confiança, human-likeness, justificação adequada, e compreensibilidade599. Outros
trabalhos apontam como se utilizar metodologias empíricas para identificar as
melhores explicações e destacam a importância do desenvolvimento da
interdisciplinaridade e da sensibilização da comunidade de desenvolvedores e
cientistas de dados600 .
Um relatório produzido pelo ICO e pelo The Alan Turing Institute resume uma
série de recomendações de práticas para transparência e accountability para modelos
baseados em inteligência artificial e apresenta parâmetros para tornar explicações
599 EHSAN, U.; RIEDL, M. O. On Design and Evaluation of Human-centered Explainable AI systems.
Glasgow, 2019. Disponível em: https://www.cc.gatech.edu/~riedl/pubs/ehsan-chi-hcml19.pdf. Acesso
em: 22 set. 2020.
600 LIAO, Q. V.; GRUEN, D.; MILLER, S. Questioning the AI: Informing Design Practices for Explainable
AI User Experiences. Proceedings of the 2020 CHI Conference on Human Factors in Computing
Systems, [S. l.], p. 1–15, abr. 2020. Disponível em: https://doi.org/10.1145/3313831.3376590. Acesso
em; 21 jun. 2021.
303
601 INFORMATION COMMISSIONER’S OFFICE; THE ALAN TURING INSTITUTE. ICO and Turing
consultation on Explaining AI decisions guidance. ICO, 24 jan. 2020. Disponível em:
https://ico.org.uk/about-the-ico/ico-and-stakeholder-consultations/ico-and-the-turing-consultation-on-
explaining-ai-decisions-guidance/. Acesso em: 16 abr. 2021.
304
5.1.6 Auditoria
602 RAJI, I. D. et al. Closing the AI accountability gap: defining an end-to-end framework for internal
algorithmic auditing. In: FAT* '20: Proceedings of the 2020 Conference on Fairness, Accountability, and
Transparency. New York, USA: Association for Computing Machinery, 2020. p. 33–44. Disponível em:
https://doi.org/10.1145/3351095.3372873. Acesso em: 1 set. 2020.
603 RUDIN, C. Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use
Interpretable Models Instead. ArXiv [cs, stat], [S. l.], 2019. Disponível em:
http://arxiv.org/abs/1811.10154. Acesso em: 10 ago. 2020.
308
604BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD).
Brasília, DF: Presidência da República, 14 ago. 2018. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015- 2018/2018/lei/L13709.htm. Acesso em: 07. nov. 2020.
309
605ADA INSTITUTE. Examining Tools for assessing algorithmic systems the Black Box. [S. l.]: [s. n.],
2020.
310
606SANDVIG, C. et al. Auditing Algorithms: Research Methods for Detecting Discrimination on Internet
Platforms. [S. l.]: [s. n.], 2014. p. 23.
311
607 ADA INSTITUTE. Examining Tools for assessing algorithmic systems the Black Box. [S. l.]: [s. n.],
2020.
608 INFORMATION COMMISSIONER’S OFFICE. Guidance on the AI auditing framework. [S. l.]: ICO,
609 RAJI, I. D. et al. Closing the AI accountability gap: defining an end-to-end framework for internal
algorithmic auditing. In: FAT* '20: Proceedings of the 2020 Conference on Fairness, Accountability, and
Transparency. New York, USA: Association for Computing Machinery, 2020. p. 33–44. Disponível em:
https://doi.org/10.1145/3351095.3372873. Acesso em: 1 set. 2020.
313
framework de explicabilidade aqui proposto é a de que ele não consiste numa fórmula
pronta ou genérica (one size fits all), aplicável diretamente à generalidade de casos.
Como veremos, cada explicação demandará a articulação de instrumentos técnico-
jurídicos distintos, a depender do perfil e das necessidades de seus destinatários, do
domínio de aplicação do sistema automatizado em questão, do grau de risco envolvido
e das expectativas em torno da explicação a ser fornecida. Para além da proposição
de um modelo fixo e generalista, faz-se necessário conceber um modelo flexível,
adaptável às especificidades e necessidades subjacentes a cada caso concreto.
Neste sentido, o framework de explicabilidade proposto parte da constatação
de que não há uma solução única, mas sim uma “caixa de ferramentas”, composta
por diferentes instrumentos técnico-jurídicos, apresentados no tópico 5.1, que podem
ser combinados e empregados para a construção de modelo de explicação em uma
determinada situação concreta. Ademais, é preciso considerar que cada um dos
instrumentos à disposição na caixa de ferramentas possui potencialidades e
limitações que lhes são inerentes, o que os torna mais ou menos adequados em
função dos objetivos que se pretende atingir, do contexto considerado e dos
destinatários da explicação. Deve-se partir do pressuposto, portanto, de que não há
uma receita pronta, mas sim um amplo ferramental aplicável a uma infinidade de
casos.
Nesta seção propomos um quadro que deve auxiliar nas avaliações de risco de
uma organização, no contexto de aplicação e visando a implementação do direito à
explicação. Nossa proposta enquadra as aplicações em dois eixos centrais para a
análise contextual e para que a organização possa desenvolver as medidas
necessárias para garantir o direito à explicação. O primeiro eixo consiste no grau de
risco de uma aplicação, o segundo consiste no grau de opacidade do sistema. Cabe
destacar que esse quadro não substitui outras avaliações e metodologias de avaliação
de riscos, servindo apenas como um subsídio para o desenvolvimento de um
framework de explicabilidade, subsidiariamente ou de forma complementar aos
demais processos de proteção de dados de uma organização.
No item 5.1.3 tratamos sobre o princípio da accountability e no item 5.1.4 dos
316
610 GELLERT, R. Understanding data protection as risk regulation. Journal of Internet Law, [S. l.], p. 3–
15, 2015.
611 GOMES, M. C. Relatório de impacto à proteção de dados. Uma breve análise da sua definição e
papel na LGPD. Revista do Advogado, [S. l.], v. 39, n. 144, p. 174–183, 2019; e DEMETZOU, K. Data
Protection Impact Assessment: A tool for accountability and the unclarified concept of ‘high risk’ in the
General Data Protection Regulation. Computer Law & Security Review, [S. l.], v. 35, n. 6, p. 105342,
2019. Disponível em: https://doi.org/10.1016/j.clsr.2019.105342. Acesso em: 21 jun. 2021.
612 A classificação de alto risco proposta pelo GDPR está vinculada à obrigação de realização do DPIA
prevista no art. 35. O dispositivo prevê a obrigatoriedade da realização do relatório para aplicações de
alto risco. Neste sentido, o regulamento define, corretamente, o conceito de alto risco de uma forma
bem ampla, para que essa obrigação seja mandatória. No entanto, nos próprios exemplos traçados nos
recitais é possível depreender graus diferenciados de risco.
613 EDPS. Survey on Data Protection Impact Assessments under Article 39 of the Regulation. [S. l.]:
apresenta três níveis de riscos aos direitos dos titulares: baixo, moderado e alto614. As
aplicações de baixo risco consistem nos modelos cujos efeitos indesejados são
improváveis e muito baixos, ou seja, não causam mais que um mero aborrecimento e
podem ser revertidos facilmente. As aplicações de nível moderado de risco consistem
naquelas cujas probabilidades de eventos indesejados seja factível ou cujos efeitos
sejam relevantes, afetem de forma moderada a propriedade, o acesso a bens, direitos
ou a reputação, mas que possam ser facilmente revertidos. Utilizaremos, por fim, a
categoria de alto risco, nas quais há grande probabilidade de falhas, ou essas falhas
possam afetar os sujeitos ou grupos de maneira muito severa em seus direitos
fundamentais, liberdades, saúde física e mental, de maneira que as exigências para
o devido processo são mais prementes, como nos campos da segurança pública, da
saúde, dos direitos sociais ou mesmo em outras aplicações com alto potencial de
gerar efeitos sistêmicos com potenciais discriminatórios.
Discutimos no Capítulo 4 diferentes tipos de opacidade, baseados na
classificação proposta por Jenna Burrell que divide a opacidade em 3 categorias
diferentes615. Uma delas derivada das necessidades comerciais. As outras duas, que
nos interessam mais nessa seção, derivam de características técnicas ou cognitivas.
De um lado, há a opacidade derivada da natureza técnica dos algoritmos como um
campo específico do conhecimento, qual seja, a programação e tecnologia da
informação. A outra derivada da própria natureza não interpretável de alguns
resultados de aplicações de inteligência artificial. Discutimos essas questões na seção
4.2.1
Neste sentido, podemos conceber ao menos 3 níveis de opacidade. O primeiro
deles seria a ausência de opacidade, em aplicações facilmente compreensíveis, cujas
entradas, os processos intermediários e os resultados possam ser conhecidos de
forma imediata. O segundo nível de opacidade decorre de aplicações mais complexas
cujos dados de entrada, os processos intermediários ou os resultados demandam
conhecimentos técnicos específicos sobre áreas do conhecimento para serem
AEPD. Guía práctica para las evaluaciones de Impacto en la Protección de los datos sujetas al RGPD.
AEPD, 6 maio 2021. Disponível em: https://www.aepd.es/es/derechos-y-deberes/cumple-tus-
deberes/medidas-de-cumplimiento/evaluaciones-de-impacto. Acesso em: 6 jun. 2021.
614 Um documento da Unidad Reguladora y de Control de los Datos Personales, a autoridade de
proteção de dados da Argentina, oferece um modelo de matriz de riscos nos quais é possível encontrar
metodologias de classificação para níveis de probabilidade e de impacto.
615 BURRELL, J. How the Machine “Thinks:” Understanding Opacity in Machine Learning Algorithms.
616 PERKOWITZ, S. The Bias in the Machine: Facial Recognition Technology and Racial Disparities.
MIT Case Studies in Social and Ethical Responsibilities of Computing, [S. l.], 2021. Disponível em:
https://doi.org/10.21428/2c646de5.62272586. Acesso em: 29 maio 2021; e LESLIE, D. Understanding
bias in facial recognition technologies. ArXiv [cs], [S. l.], 2020. Disponível em:
https://doi.org/10.5281/zenodo.4050457. Acesso em: 29 maio 2021.
320
617 ZANATTA, R. A. F. A tutela coletiva na proteção de dados pessoais. Revista do Advogado, n. 144,
nov. 2019. Disponível em:
https://aplicacao.aasp.org.br/aasp/servicos/revista_advogado/paginaveis/144/200/index.html. Acesso
em: 20 maio 2021. p. 201-208; ZANATTA, R. A. F. Tutela coletiva e coletivização da proteção de dados
pessoais. In: PALHARES, F. (Org.). Temas Atuais de Proteção de Dados. São Paulo: Thomson
Reuters, 2020. p. 345–374.
618 DIGITAL rights alliance file legal complaints across Europe against facial recognition Company
621 SAXENA, D. et al. A Human-Centered Review of Algorithms used within the U.S. Child Welfare
System. In: CHI ‘2020, Proceedings of the 2020 CHI Conference on Human Factors in Computing
Systems. New York, NY, USA: Association for Computing Machinery, 2020. p. 1–15. Disponível em:
https://doi.org/10.1145/3313831.3376229. Acesso em: 26 maio 2021.
326
FELTON, R. Michigan unemployment agency made 20,000 false fraud accusations – report. The
622
623 GUIDOTTI, R. et al. Local Rule-Based Explanations of Black Box Decision Systems. ArXiv, 2018.
Disponível em: http://arxiv.org/abs/1805.10820. Acesso em: 30 jun. 2020.
624 WACHTER, S.; MITTELSTADT, B.; RUSSELL, C. Counterfactual Explanations Without Opening the
Black Box: Automated Decisions and the GDPR. SSRN Electronic Journal, v. 31, n. 2, 2017. Disponível
em: https://www.ssrn.com/abstract=3063289. Acesso em: 27 maio. 2020.
329
625 INTRODUCING A NEW FEATURE: DRIVING HOURS LIMIT. UBER, 2018. Disponível em:
https://www.uber.com/he/blog/driving-hours-limit/. Acesso em: 5 jun. 2021.
626 ROSENBLAT, A. et al. Discriminating Tastes: Uber’s Customer Ratings as Vehicles for Workplace
Discrimination. Policy & Internet, [S. l.], v. 9, n. 3, p. 256–279, 2017. Disponível em:
https://doi.org/10.1002/poi3.153. Acesso em: 21 jun. 2021.
331
que foi ou será realizada, deparamo-nos com a questão de quais são as informações
necessárias e que deveriam constar em uma explicação. Essa não é uma questão
simples, visto que há tantas explicações quanto sejam possíveis para fenômenos,
desde as mais simples às mais complexas. Neste sentido, a explicação mais correta
e mais completa possível nem sempre pode se demonstrar a mais útil e corresponder
a expectativa desse sujeito.
Muitos autores têm apontado que não há um conceito único sobre a explicação.
No entanto, a partir da compreensão da autodeterminação informativa e do devido
processo informacional, a nossa proposta se alinha àquelas perspectivas de que esta
deve ser centrada no sujeito, sob um ponto de vista pragmático, em relação à
possibilidade de exercício dos seus direitos627. A depender da aplicação, o tipo de
informação necessária para que se compreenda uma decisão pode ser diverso. Em
alguns casos pode ser necessário explicar o próprio direito envolvido, em alguns
deles, a natureza da decisão automatizada, em outros, sua segurança ou precisão, a
fonte dos dados utilizados no modelo.
Nesse sentido, é preciso depreender uma série de informações relevantes para
a interpretação da decisão. Essas informações são depreendidas a partir dos
diferentes instrumentos de avaliação disponíveis como os relatórios de impacto, os
princípios da proteção de dados e das demais legislações aplicáveis ao caso.
A título de exemplo, imaginemos uma aplicação de análise antifraude
apresentada na seção anterior. Apontamos como duas das principais causas de erros
neste tipo de aplicação consistem em erros derivados dos critérios utilizados na
programação ou das bases de dados utilizadas. Apontamos como tal decisão pode
causar um impacto significativo. Como etapa de um processo do direito administrativo,
argumentamos como tais decisões precisam constar dos princípios do processo
administrativo, na qual devem estar presentes os fundamentos de fato e de direito que
determinaram a decisão, conforme o art. 2º, inciso II, da Lei nº 9.784 de 1999, a “Lei
do Processo Administrativo”.
Isso posto, a pessoa sujeita a um bloqueio ou notificação resultando de tal
sistema necessita conhecer qual é o direito envolvido no benefício, a legislação que o
627WATSON, D. S.; FLORIDI, L. The explanation game: a formal framework for interpretable machine
learning. Synthese, 2020. Disponível em: https://doi.org/10.1007/s11229-020-02629-9. Acesso em: 8
jun. 2020; e DOSHI-VELEZ, F.; KIM, B. Towards A Rigorous Science of Interpretable Machine Learning.
ArXiv [cs, stat], [S. l.], 2017. Disponível em: http://arxiv.org/abs/1702.08608. Acesso em: 30 jun. 2020.
332
628 BOHLENDER, D.; KÖHL, M. A. Towards a Characterization of Explainable Systems. ArXiv [cs], [S.
l.], 2019. Disponível em: http://arxiv.org/abs/1902.03096. Acesso em: 6 out. 2020.
629 É importante destacar que as explicações podem ser endereçadas não apenas aos titulares dos
dados, mas aos agentes públicos, organizações da sociedade civil etc, principalmente em aplicações
cujos efeitos indesejados possam incluir efeitos sistêmicos. Contudo, a interlocução com essas
entidades pauta-se por uma abordagem institucional, diferente da abordagem centrada no sujeito de
direitos afetado pelas decisões.
333
630 MILLER, T. Explanation in Artificial Intelligence: Insights from the Social Sciences. ArXiv [cs], [S. l.],
2018. Disponível em: http://arxiv.org/abs/1706.07269. Acesso em: 14 ago. 2020.
631 MILLER, T. Explanation in Artificial Intelligence: Insights from the Social Sciences. ArXiv [cs], [S. l.],
633 EHSAN, U.; RIEDL, M. O. On Design and Evaluation of Human-centered Explainable AI systems.
Glasgow, 2019. Disponível em: https://www.cc.gatech.edu/~riedl/pubs/ehsan-chi-hcml19.pdf. Acesso
em: 22 set. 2020.
634 LIAO, Q. V.; GRUEN, D.; MILLER, S. Questioning the AI: Informing Design Practices for Explainable
AI User Experiences. Proceedings of the 2020 CHI Conference on Human Factors in Computing
Systems, [S. l.], p. 1–15, abr. 2020. Disponível em: https://doi.org/10.1145/3313831.3376590. Acesso
em; 21 jun. 2021.
635 MOLNAR, C. Interpretable Machine Learning. [S. l.]: [s. n.], 2020. E-book.
335
636
MULLIGAN, D. K.; KLUTTZ, D.; KOHLI, N. Shaping Our Tools: Contestability as a Means to Promote
Responsible Algorithmic Decision Making in the Professions. Rochester, NY: Social Science Research
Network, 2019. SSRN Scholarly Paper. Disponível em: https://doi.org/10.2139/ssrn.3311894. Acesso
em: 14 jan. 2021.
336
do devido processo informacional deve ser pautada pela ideia geral de prevenção,
sobretudo por dizer respeito a um objeto cada vez mais regulado a partir da noção de
risco e prevenção de danos. O princípio da prevenção, portanto, é tomado como
elemento estruturante e transversal a todo o framework de explicabilidade ora
proposto.
A este elemento estruturante somam-se cinco qualificadoras, a saber: (i)
isenção; (ii) informação; (iii) compreensão; (iv) recorribilidade; e (v) revisão. Embora
não haja clareza sobre quais seriam os elementos conformadores da cláusula geral
do devido processo legal637 e do devido processo informacional638, acreditamos que
estas cinco qualificadoras nos permitem reconhecer os contornos e a espinha dorsal
destas cláusulas “guarda-chuva”, permitindo estabelecer uma aproximação entre
ambos os contextos considerados (decisões privadas/estatais e decisões
automatizadas).
Ao longo desta seção, analisaremos cada uma dessas qualificadoras sob a
ótica tanto do devido processo legal quanto do devido processo informacional,
contextualizando-as nos processos automatizados que levam à elaboração de
decisões com impactos para os sujeitos de direitos. Após a apresentação destas cinco
qualificadoras, cuidaremos mais especificamente de duas delas (informação e
compreensão), por entendermos estarem mais diretamente relacionadas à construção
637 Conforme assinala Arruda, a doutrina estrangeira tem ressaltado a amplitude desta cláusula geral,
que se revela como um conceito bastante amplo e indefinido, abarcando uma série de liberdades e
garantias fundamentais do indivíduo em suas relações verticais e horizontais. De acordo com a autora,
e conforme destacado nos Capítulos 2 e 3, no contexto norte-americano, a cláusula geral do devido
processo legal tem sua origem em 1789 com a promulgação da 5ª e 14ª emendas à Constituição, “[...]
na carta denominada Bill of Rights, onde se declaravam os direitos dos cidadãos em face do poder do
governo, estabelecendo garantias expressas como o due process of law, princípio segundo o qual
nenhuma pessoa seria privada de sua vida, liberdade ou propriedade, ou seja, dos seus direitos
fundamentais, sem o devido processo legal.” (ARRUDA, C. S. L. de. Breve estudo hermenêutico-
epistemológico da cláusula do “devido processo legal”. Revista CEJ, Brasília, Ano XXI, n. 73, set./dez.
2017. p. 55). No Brasil, a Constituição Federal de 1988, claramente informada pelo texto da
Constituição norte-americana, igualmente previu uma cláusula bastante ampla garantindo o devido
processo legal quando estiverem em risco o patrimônio ou as liberdades do cidadão (CF 1988, art. 5º,
caput e LIV). Pela própria amplitude da cláusula, nela encontram-se incluídas todas as possíveis
garantias destinadas a salvaguardar as liberdades e a propriedade dos cidadãos, sendo impraticável
mensurar, em rol taxativo, todos os elementos que a integram, não tendo o presente trabalho tal
pretensão.
638 Assim como o devido processo legal, a cláusula geral do devido processo informacional possui
escopo amplo e contornos pouco claros, abarcando uma série de garantias voltadas à proteção dos
direitos e liberdades dos indivíduos no contexto de decisões automatizadas. Ao enunciarmos as cinco
qualificadoras que conformam a cláusula geral do devido processo informacional para os fins deste
trabalho não pretendemos conferir-lhe uma definição exaustiva e acabada. As cinco qualificadoras
foram extraídas da literatura sobre devido processo informacional e buscam em alguma medida
estabelecer certo paralelo com algumas das garantias do devido processo legal tal como
tradicionalmente concebido pela dogmática jurídica.
339
de uma explicação. Nessa fase, buscaremos analisar como essas duas qualificadoras
podem ser garantidas, contextualizando-as em relação às características e
necessidades dos sujeitos de direitos, a partir de uma perspectiva ex ante e ex post,
considerando a caixa de ferramentas técnico-jurídicas disponível. Neste ponto,
cumpre esclarecer que, embora as três qualificadoras restantes (isenção,
recorribilidade e revisão) sejam igualmente relevantes, não constitui objetivo deste
trabalho oferecer um framework de revisão de decisões automatizadas ou mesmo
orientações sobre como garantir que sistemas automatizados sejam livres de vieses,
aspectos que fogem ao escopo desta pesquisa.
A primeira qualificadora, portanto, consiste na garantia de isenção do processo.
No devido processo legal, esta garantia se traduz no direito do cidadão ter sua
violação de direitos analisada por um ente neutro e isento do Estado, como, por
exemplo, um juiz. De acordo com Cintra, Dinamarco e Grinover, a imparcialidade do
órgão de jurisdição é condição intrínseca para que este possa exercer sua função
dentro do processo, sendo ainda pressuposto de validade da relação processual.
Nesse sentido, o juiz deve colocar-se simetricamente entre as partes e acima delas,
em posição de imparcialidade. Uma vez constatada a incapacidade subjetiva do juiz,
ou seja, uma vez comprometida sua posição de isenção, a relação processual resta
profundamente afetada. É por esta razão que o direito constitucional procurou cercar
o juiz e o jurisdicionado de certos direitos e garantias, como é o caso das suspeições
e impedimentos, o princípio do juiz natural, as vedações aos tribunais de exceção,
dentre outros mecanismos de salvaguarda processual.639 Em suma, de acordo com
os autores:
639 CINTRA, A. C. de A.; GRINOVER, A. P.; DINAMARCO, C. R. Teoria Geral do Processo. 27. ed. São
Paulo: Malheiros, 2011. p. 58.
640 CINTRA, A. C. de A.; GRINOVER, A. P.; DINAMARCO, C. R. Teoria Geral do Processo. 27. ed. São
641 LARSON, J.; MATTU, S.; KIRCHNER, L.; ANGWIN, J. How We Analyzed the COMPAS Recidivism
Algorithm. ProPublica, 23 maio 2016. Disponível em: https://www.propublica.org/article/how-we-
analyzed-the-compas-recidivism-algorithm. Acesso em: 31 maio 2021; e SPIELKAMP, M. Inspecting
Algorithms for Bias. MIT Technology Review, 12 jun. 2017. Disponível em:
https://www.technologyreview.com/2017/06/12/105804/inspecting-algorithms-for-bias/. Acesso em: 31
maio 2021.
642 SILVA, T. Reconhecimento facial deve ser banido: veja dez razões. Tarcízio Silva, 16 maio 2021.
644 CINTRA, A. C. de A.; GRINOVER, A. P.; DINAMARCO, C. R. Teoria Geral do Processo. 27. ed. São
Paulo: Malheiros, 2011. p. 75.
645 CINTRA, A. C. de A.; GRINOVER, A. P.; DINAMARCO, C. R. Teoria Geral do Processo. 27. ed. São
646 CINTRA, A. C. de A.; GRINOVER, A. P.; DINAMARCO, C. R. Teoria Geral do Processo. 27. ed. São
Paulo: Malheiros, 2011. p. 62.
647 BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 1.419.697/RS. Relator: Min. Paulo de
Tarso Sanseverino. Julgado em: 12/11/2014. Data de Publicação: 17/11/2014. Disponível em:
https://bdjur.stj.jus.br/jspui/bitstream/2011/114173/REsp1419697.pdf. Acesso em: 8 abr. 2021.
648 BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 1.457.199/RS. Relator: Min. Paulo de
Tarso Sanseverino. Julgado em: 12/11/2014. Data de Publicação: 17/12/2014. Disponível em:
https://bdjur.stj.jus.br/jspui/bitstream/2011/114173/REsp1457199.pdf. Acesso em: 8 abr. 2021.
343
649 BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 1.457.199/RS. Relator: Min. Paulo de
Tarso Sanseverino. Julgado em: 12/11/2014. Data de Publicação: 17/12/2014. Disponível em:
https://bdjur.stj.jus.br/jspui/bitstream/2011/114173/REsp1457199.pdf. Acesso em: 8 abr. 2021. p. 74.
344
al.650, este princípio garante a possibilidade de revisão de uma causa já julgada pelo
juízo de primeiro grau, pela via recursal, por uma instância de segundo grau. Conforme
apontam os autores, o “[...] princípio do duplo grau de jurisdição funda-se na
possibilidade de a decisão de primeiro grau ser injusta ou errada, daí decorrendo a
necessidade de permitir sua reforma em grau de recurso”, dando ao ofendido uma
oportunidade de reexame da sentença que o afetou.651 Compreendida a partir da
lógica do devido processo informacional, essa garantia se traduz no direito do titular
de solicitar a revisão de decisões tomadas unicamente com base em tratamento
automatizado de dados pessoais que afetem seus interesses, incluídas as decisões
destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os
aspectos de sua personalidade, nos termos do art. 20 da LGPD. Nesse sentido, a
quarta qualificadora possui como requisito as duas anteriores, ou seja, devem ser
garantidas a informação e a compreensão, ou, em outras palavras, um efetivo direito
à explicação, para que o titular seja capaz de contestar ou recorrer de uma decisão
automatizada.
O caso envolvendo a Uber Inc. e a App Drivers & Couriers Union (ADCU),
mencionado no Capítulo 3 deste trabalho, é ilustrativo de como a qualificadora da
recorribilidade pode ser mobilizada em uma situação prática envolvendo decisões
automatizadas. Em julho de 2020, quatro motoristas da Uber associados à ADCU
entraram com uma ação em face da empresa na Corte de Amsterdam questionando
as decisões automatizadas que resultaram no seu desligamento da plataforma. No
caso em questão, os autores chamam a atenção para a forte opacidade em torno da
decisão automatizada, uma vez que não foram fornecidas pela empresa explicações
sobre o que teria motivado o desligamento ou quais foram os fundamentos da decisão,
tendo a Uber se limitado a afirmar que a razão do desligamento estaria relacionada a
atividade fraudulenta. Por acreditarem que a decisão era injusta e afetava
negativamente sua esfera de direitos, os autores decidiram contestá-la com base no
direito de revisão contido no art. 22(2) da GDPR, argumentando que as salvaguardas
legais não foram observadas e que a empresa falhou em fornecer uma explicação
650 BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 1.457.199/RS. Relator: Min. Paulo de
Tarso Sanseverino. Julgado em: 12/11/2014. Data de Publicação: 17/12/2014. Disponível em:
https://bdjur.stj.jus.br/jspui/bitstream/2011/114173/REsp1457199.pdf. Acesso em: 8 abr. 2021. p. 80.
651 BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 1.457.199/RS. Relator: Min. Paulo de
Tarso Sanseverino. Julgado em: 12/11/2014. Data de Publicação: 17/12/2014. Disponível em:
https://bdjur.stj.jus.br/jspui/bitstream/2011/114173/REsp1457199.pdf. Acesso em: 8 abr. 2021.
346
RUSSON, M. Uber sued by drivers over ‘automated robo-firing’. BBC News, 26 out. 2020. Disponível
652
The ADCU’s latest case alleges that Uber kicked drivers off its platform
based on algorithms and accused them of “fraudulent activity” without
offering any avenue for appeal. The filing acknowledges Uber’s
argument that it uses “specialized employees” to assess account
deactivations. But the drivers’ lawyer, Anton Ekker, argues that Uber
has not “further substantiated that this constitutes meaningful human
intervention” or that the employees have been trained to understand
“how the artificially intelligent system works.” The document reads: ‘In
particular, Uber has not demonstrated that the employees involved in
automated decision-making: Have a meaningful influence on the
decision, which means, among other things, that they must have the
“authority and competence” to oppose this decision.’653 (grifo nosso).
653SAWERS, Paul. Uber drivers union asks EU court to overrule ‘robo firing’ by algorithm. Venture Beat,
26 out. 2020. Disponível em: https://venturebeat.com/2020/10/26/uber-drivers-union-asks-eu-court-to-
overrule-robo-firing-by-algorithm/. Acesso em: 10 jan. 2021.
348
654 “Art. 4º. [...] §3º. Esta Lei não se aplica ao tratamento de dados pessoais: [...] III — realizado para
fins exclusivos de: a) segurança pública; b) defesa nacional; c) segurança do Estado; ou d) atividades
de investigação e repressão de infrações penais;[...]§ 3º A autoridade nacional emitirá opiniões técnicas
ou recomendações referentes às exceções previstas no inciso III do caput deste artigo e deverá solicitar
aos responsáveis relatórios de impacto à proteção de dados pessoais.” (BRASIL. Lei nº 13.709, de 14
de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF: Presidência da
República, 14 ago. 2018. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-
2018/2018/lei/L13709.htm. Acesso em: 07. nov. 2020).
351
655RUDIN, C. Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use
Interpretable Models Instead. ArXiv [cs, stat], [S. l.], 2019. Disponível em:
http://arxiv.org/abs/1811.10154. Acesso em: 10 ago. 2020.
352
CONCLUSÃO
REFERÊNCIAS BIBLIOGRÁFICAS
ACDU. Uber Drivers Take Unprecedented International Legal Action To Demand Their
Data. ACDU, 20 jul. 2020. Disponível em: https://www.adcu.org.uk/news-posts/uber-
drivers-take-unprecedented-international-legal-action-to-demand-their-data. Acesso
em: 31 jul. 2020.
ADA INSTITUTE. Examining Tools for assessing algorithmic systems the Black Box.
[S. l.]: [s. n.], 2020.
AEPD. Guía práctica para las evaluaciones de Impacto en la Protección de los datos
sujetas al RGPD. AEPD, 6 maio 2021. Disponível em:
https://www.aepd.es/es/derechos-y-deberes/cumple-tus-deberes/medidas-de-
cumplimiento/evaluaciones-de-impacto. Acesso em: 6 jun. 2021.
AHMED, N.; WAHED, M. The De-democratization of AI: Deep Learning and the
Compute Divide in Artificial Intelligence Research. ArXiv, 2020. Disponível em:
http://arxiv.org/abs/2010.15581. Acesso em: 9 nov. 2020.
ASGHARI, H.; VAN EETEN, M.; MAHIEU, R. Collectively Exercising the Right of
Access: Individual Effort, Societal Effect. Rochester, NY: Social Science Research
Network, 2017. SSRN Scholarly Paper. Disponível em:
https://doi.org/10.2139/ssrn.3107292. Acesso em: 9 dez. 2020.
AZEVEDO, I. T. R.; SILVA, T. A. da. Reflexões sobre tomada de decisão e livre arbítrio
sob a ótica da neurociência e seus efeitos no sistema punitivo. LINKSCIENCEPLACE
- Interdisciplinary Scientific Journal, [S. l.], v. 1, n. 1, 2014. Disponível em:
http://revista.srvroot.com/linkscienceplace/index.php/linkscienceplace/article/view/16.
Acesso em: 14 jun. 2021.
BAKER, J. J. Beyond the Information Age: The Duty of Technology Competence in the
Algorithmic Society. South Carolina Law Review, v. 69, n. 557, 2018. Disponível em:
https://ttu-ir.tdl.org/handle/2346/73913. Acesso em: 21 out. 2020.
360
BALL, C. What Is Transparency? Public Integrity, [S. l.], v. 11, n. 4, p. 293–308, 2009.
Disponível em: https://doi.org/10.2753/PIN1099-9922110400. Acesso em: 21 jun.
2021.
BENNET, C. Regulating privacy: data protection and public policy in Europe and the
United States. Ithaca, New York: Cornell University Press, 1992.
BOBBIO, N. Sobre os fundamentos dos direitos do homem. In: BOBBIO, N. A Era dos
Direitos. 7. ed. Apresentação: Celso Lafer; Tradução: Carlos Nelson Coutinho. Rio de
Janeiro: Elsevier, 2004.
BRASIL. Superior Tribunal de Justiça. Recurso Especial nº 22.337 – RS. Relator: Ruy
Rosado Aguiar. Data de Publicação: 20/03/1995. In: R. Sup. Trib. Just. Brasília, a.8
(77), jan. 1996.
BRASIL. Câmara dos Deputados. Sancionada, com nove vetos, lei que cria
Autoridade Nacional de Proteção de Dados. Câmara dos Deputados, 9 jul. 2019.
Disponível em: https://www.camara.leg.br/noticias/561908-SANCIONADA,-COM-
NOVE-VETOS,-LEI-QUE-CRIA-AUTORIDADE-NACIONAL-DE-PROTECAO-DE-
DADOS. Acesso em: 28 abr. 2021.
BRASIL. Superior Tribunal de Justiça. Súmula 550. Julgado em: 14/10/2015. Data de
Publicação: 19/10/2015.
BRASIL. Supremo Tribunal Federal. ADI nº 6.387/DF. Rel. Min. Rosa Weber. Data de
Publicação: 12/11/2020. Disponível em:
http://portal.stf.jus.br/processos/detalhe.asp?incidente=5895165. Acesso em: 12 abr.
2021.
BRASIL. Supremo Tribunal Federal. ADI nº 6.389/DF. Relator: Min. Rosa Weber. Data
de Julgamento: 26/11/2020. Data de Publicação: 30/11/2020. Disponível em:
http://portal.stf.jus.br/processos/detalhe.asp?incidente=5895168. Acesso em: 24 fev.
2021.
BRKAN, M.; BONNET, G. Legal and Technical Feasibility of the GDPR’s Quest for
Explanation of Algorithmic Decisions: of Black Boxes, White Boxes and Fata
Morganas. European Journal of Risk Regulation, v. 11, n. 1, 2020.
BURNS, K.; BECHARA, A. Decision making and free will: a neuroscience perspective.
Behavioral Sciences & the Law, [S. l.], v. 25, n. 2, p. 263–280, 2007. Disponível em:
https://doi.org/10.1002/bsl.751. Acesso em: 28 jun. 2021.
CASEY, B.; FARHANGI, A.; VOGL, R. Rethinking Explainable Machines: The GDPR’s
“Right to Explanation” Debate and the Rise of Algorithmic Audits in Enterprise. In:
Berkeley Technology Law Journal, v. 34, p. 145-189, 2018. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3143325. Acesso em: 19 maio
2019.
CHENEY-LIPPOLD, J. We are data: algorithms and the making of our digital selves.
New York: New York University Press, 2017.
CHOPRA, S.; WHITE, L. F. A Legal Theory for Autonomous Artificial Agents. [S. l.]:
University of Michigan Press, 2011. Disponível em:
https://www.jstor.org/stable/10.3998/mpub.356801. Acesso em: 27 maio. 2020.
CITRON, D. K.; PASQUALE, F. The Scored Society: Due Process for Automated
Predictions. Washington Law Review, v. 89, 2014. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2376209. Acesso em: 2 abr.
2021.
CNIL. Privacy Impact Assessment Methodology. [S. l.]: CNIL, 2018. Disponível em:
https://www.cnil.fr/sites/default/files/atoms/files/cnil-pia-1-en-methodology.pdf.
Acesso em: 9 jun. 2020.
CRAWFORD, K.; SCHULTZ, J. Big Data and Due Process: Toward a Framework to
Redress Predictive Privacy Harms. Rochester, NY: Social Science Research Network,
2013. Disponível em: https://papers.ssrn.com/abstract=2325784. Acesso em: 27 maio
2020.
DATA PRIVACY BRASIL. Memória da LGPD: como a lei mudou desde 2010?
Observatório da Privacidade, 2019. Disponível em:
https://www.observatorioprivacidade.com.br/memoria/como-a-lei-mudou-desde-
2010/. Acesso em: 11 abr. 2021.
DECIDIR. In: MICHAELIS. São Paulo: Editora Melhoramentos, 2021. Disponível em:
https://michaelis.uol.com.br/busca?r=0&f=0&t=0&palavra=decidir. Acesso em: 10 jun.
2021.
DEMETZOU, K. Data Protection Impact Assessment: A tool for accountability and the
366
unclarified concept of ‘high risk’ in the General Data Protection Regulation. Computer
Law & Security Review, [S. l.], v. 35, n. 6, p. 105342, 2019. Disponível em:
https://doi.org/10.1016/j.clsr.2019.105342. Acesso em: 21 jun. 2021.
DIGITAL rights alliance file legal complaints across Europe against facial recognition
Company Clearview AI. Noyb, 26 maio 2021. Disponível em: https://noyb.eu/en/digital-
rights-alliance-file-legal-complaints-against-facial-recognition-company-clearview-ai.
Acesso em: 29 maio 2021.
DUARTE, M. de F.; BRAGA, C. P. Propriedade Intelectual. 1.. ed. [S. l.]: Sagah, 2018.
Probably Not the Remedy You Are Looking for. Duke Law & Technology Review, v.
16, p. 18-84, 2017. Disponível em: https://osf.io/preprints/lawarxiv/97upg/. Acesso em:
7 nov. 2020.
EKKER. Uber drivers demand access to their personal data. Disponível em:
https://ekker.legal/2020/07/19/uber-drivers-demand-access-to-their-personal-data/.
Acesso em: 1 jun. 2021.
ESTADOS UNIDOS DA AMÉRICA. Privacy Act, 88 Stat. 1896 Public Law. Washington
D.C., 31 dez. 1974.
EUBANKS, Virginia. Automating inequality: how high-tech tools profile, police, and
punish the poor. New York: St Martin’s Press, 2018.
FLORIDI, L. The Informational Nature of Personal Identity. Minds and Machines, v. 21,
n. 4, p. 549–566, 2011.
FLORIDI, L. Open Data, Data Protection, and Group Privacy. Philosophy &
Technologys. v. 27, n. 1, p. 1–3, 2014. Disponível em: https://doi.org/10.1007/s13347-
014-0157-8. Acesso em: 21 jun. 2021.
FRAZÃO, A. Nova LGPD: direitos dos titulares de dados pessoais. Jota, 24 out. 2018.
Disponível em: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-
e-mercado/nova-lgpd-direitos-dos-titulares-de-dados-pessoais-24102018. Acesso
em: 06 jan. 2021.
FRY, H. Hello World: How to be Human in the Age of the Machine. London New York
Toronto Sidney Auckland: Doubleday, 2018.
GUNST, H. The Right to Explanation and the Right to Secrecy – Reconciling Data
Protection and Trade Secret Rights in Automated Decision-making. 2017. Dissertation
(Masters Thesis in Law) – Faculty of Law, University of Helsinki, Helsinki, 2017.
Disponível em: http://hdl.handle.net/10138/231948. Acesso em: 20 jun. 2021.
HILL, K. How Target Figured Out A Teen Girl Was Pregnant Before Her Father Did.
Forbes, 16 fev. 2012. Disponível em:
https://www.forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-teen-
girl-was-pregnant-before-her-father-did/. Acesso em: 27 ago. 2020.
HOME Office drops “Racist” algorithm from Visa Decisions. BBC News, [S. l.], 4 ago.
2020. Disponível em: https://www.bbc.com/news/technology-53650758. Acesso em:
27 ago. 2020.
HOOD, C.; HEAD, D. Transparency: The Key to Better Governance? Oxford: Oxford
University Press, British Academy, 2006.
JILLSON, E. Aiming for truth, fairness, and equity in your company’s use of AI. Federal
Trade Commision, 19 abr. 2021. Disponível em: https://www.ftc.gov/news-
events/blogs/business-blog/2021/04/aiming-truth-fairness-equity-your-companys-
use-ai. Acesso em: 22 jun. 2021.
LARSON, J.; MATTU, S.; KIRCHNER, L.; ANGWIN, J. How We Analyzed the
COMPAS Recidivism Algorithm. ProPublica, 23 maio 2016. Disponível em:
https://www.propublica.org/article/how-we-analyzed-the-compas-recidivism-
algorithm. Acesso em: 31 maio 2021.
LIAO, Q. V.; GRUEN, D.; MILLER, S. Questioning the AI: Informing Design Practices
for Explainable AI User Experiences. Proceedings of the 2020 CHI Conference on
Human Factors in Computing Systems, [S. l.], p. 1–15, abr. 2020. Disponível em:
https://doi.org/10.1145/3313831.3376590. Acesso em; 21 jun. 2021.
LOSH, S. C. Generation versus aging, and education, occupation, gender and ethnicity
effects in U.S. digital divides. In: 2009 Atlanta Conference on Science and Innovation
Policy, Atlanta, 2009. p. 1–8. Disponível em:
https://doi.org/10.1109/ACSIP.2009.5367820. Acesso em: 21 jun. 2021.
MAHIEU, R.; AUSLOOS, J. Recognising and Enabling the Collective Dimension of the
GDPR and the Right of Access. LawArXiv, 2 jul. 2020. Disponível em:
https://doi.org/10.31228/osf.io/b5dwm. Acesso em: 9 dez. 2020.
MAJOR EU-US data protection agreement struck down. BBC News, [S. l.], 2020.
Disponível em: https://www.bbc.com/news/technology-53418898 . Acesso em: 24 jul.
2020.
MANTELERO, A. AI and Big Data: A blueprint for a human rights, social and ethical
impact assessment. Computer Law & Security Review, [S. l.], v. 34, n. 4, p. 754–772,
2018. Disponível em: https://doi.org/10.1016/j.clsr.2018.05.017. Acesso em: 21 jun.
2021.
MASSÉ, E. Two Years Under the EU GDPR: An Implementation Progress Report. [S.
l.]: AccessNow, 2020. Disponível em:
https://www.accessnow.org/cms/assets/uploads/2020/05/Two-Years-Under-
GDPR.pdf. Acesso em: 16 maio 2021.
MITTELSTADT, B. D. et al. The ethics of algorithms: Mapping the debate. Big Data &
Society, [S. l.], v. 3, n. 2, 2016. Disponível em:
https://doi.org/10.1177/2053951716679679. Acesso em: 20 maio 2020.
MOLNAR, C. Interpretable Machine Learning. [S. l.]: [s. n.], 2020. E-book.
MOOR, J. Are There Decisions Computers Should Never Make. Nature and System,
[S. l.], v. 1, 1985.
MULLIGAN, D. K.; KING, J. Bridging the Gap between Privacy and Design. Rochester,
NY: Social Science Research Network, 2012. SSRN Scholarly Paper. Disponível em:
https://papers.ssrn.com/abstract=2070401. Acesso em: 23 set. 2020.
NUNES, Pablo. Levantamento revela que 90,5% dos presos por monitoramento facial
no Brasil são negros. The Intercept, 21 nov. 2019. Disponível em:
https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasil-negros/.
Acesso em: 31 maio 2021.
O’NEIL, C. Weapons of Math Destruction: How Big Data Increases Inequality and
Threatens Democracy. New York, NY: Crown Books, 2016. E-book.
OAIC. Privacy Impact Assessment Guide. Sydney: OAIC, 2010. Disponível em:
http://www.icb.org.au/out/?dlid=38156. Acesso em: 14 abr. 2021.
OII LONDON LECTURE. Show me your data and I’ll tell you who you are. 30 out. 2018.
Disponível em: https://www.oii.ox.ac.uk/videos/oii-london-lecture-show-me-your-data-
and-ill-tell-you-who-you-are/. Acesso em: 21 jun. 2021.
PASQUALE, F. The Black box society: the secret algorithms that control money and
information. First Harvard University Press paperback edition ed. Cambridge,
Massachusetts; London, England: Harvard University Press, 2015.
PERKOWITZ, S. The Bias in the Machine: Facial Recognition Technology and Racial
Disparities. MIT Case Studies in Social and Ethical Responsibilities of Computing, [S.
l.], 2021. Disponível em: https://doi.org/10.21428/2c646de5.62272586. Acesso em: 29
maio 2021.
PREFEITURA DE SÃO PAULO. Prefeitura de São Paulo anuncia parceria com Waze.
Cidade de São Paulo, 20 set. 2017. Disponível em:
http://www.capital.sp.gov.br/noticia/prefeitura-de-sao-paulo-anuncia-parceria-com-
waze/. Acesso em: 19 abr. 2021.
QUELLE, C. The Data Protection Impact Assessment, or: How the General Data
Protection Regulation May Still Come to Foster Ethically Responsible Data Processing.
Rochester, NY: Social Science Research Network, 2015. SSRN Scholarly Paper.
Disponível em: https://doi.org/10.2139/ssrn.2695398. Acesso em: 24 abr. 2021.
RAWLS, J. Uma Teoria da Justiça. 3. ed. São Paulo: Martins Fontes, 2008.
https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2020:1013.
Acesso em: 28 jul. 2020.
RIBEIRO, M. T.; SINGH, S.; GUESTRIN, C. “Why Should I Trust You?”: Explaining the
Predictions of Any Classifier. ArXiv, 2016. Disponível em:
http://arxiv.org/abs/1602.04938. Acesso em: 25 ago. 2020.
RIO GRANDE DO SUL. Tribunal de Justiça do Estado do Rio Grande do Sul (6.
Câmara Cível). Apelação Cível nº 70059936971. Data de Julgamento: 16/12/2014.
ROCK, D.; GRANT, H. Why Diverse Teams Are Smarter. Harvard Business Review,
4 nov. 2016. Disponível em: https://hbr.org/2016/11/why-diverse-teams-are-smarter.
Acesso em: 27 out. 2020.
RUDIN, C. Stop Explaining Black Box Machine Learning Models for High Stakes
Decisions and Use Interpretable Models Instead. ArXiv, [cs, stat], [S. l.], 2019.
Disponível em: http://arxiv.org/abs/1811.10154. Acesso em: 10 ago. 2020.
RUSSON, M. Uber sued by drivers over ‘automated robo-firing’. BBC News, 26 out.
2020. Disponível em: https://www.bbc.com/news/business-54698858. Acesso em: 1
jun. 2021.
SAWERS, Paul. Uber drivers union asks EU court to overrule ‘robo firing’ by algorithm.
Venture Beat, 26 out. 2020. Disponível em: https://venturebeat.com/2020/10/26/uber-
drivers-union-asks-eu-court-to-overrule-robo-firing-by-algorithm/. Acesso em: 10 jan.
2021.
SAXENA, D. et al. A Human-Centered Review of Algorithms used within the U.S. Child
Welfare System. In: CHI ‘2020, Proceedings of the 2020 CHI Conference on Human
Factors in Computing Systems. New York, NY, USA: Association for Computing
Machinery, 2020. p. 1–15. Disponível em: https://doi.org/10.1145/3313831.3376229.
Acesso em: 26 maio 2021.
SILVA, T. Reconhecimento facial deve ser banido: veja dez razões. Tarcízio Silva, 16
maio 2021. Disponível em: https://tarciziosilva.com.br/blog/reconhecimento-facial-
deve-ser-banido-aqui-estao-dez-razoes/. Acesso em: 31 maio 2021.
SPIELKAMP, M. Inspecting Algorithms for Bias. MIT Technology Review, 12 jun. 2017.
Disponível em: https://www.technologyreview.com/2017/06/12/105804/inspecting-
algorithms-for-bias/. Acesso em: 31 maio 2021.
380
STAN, F. History, motivations, and core themes. In: FRANKISH, K.; RAMSEY, W. M.
(org.). The Cambridge Handbook of Artificial Intelligence. Cambridge: Cambridge
University Press, 2014. Disponível em:
https://doi.org/10.1017/CBO9781139046855.007. Acesso em: 24 ago. 2020.
TAKANO, M. Opening the Black Box of Forensic Algorithms. Medium, 3 dez. 2019.
Disponível em: https://medium.com/@repmarktakano/opening-the-black-box-of-
forensic-algorithms-6194493b9960. Acesso em: 24 jul. 2020.
TENE, Omer. Privacy: The new generations. International Data Privacy Law, v. 1, n.
1, p. 15-27, fev. 2011. Disponível em:
https://academic.oup.com/idpl/article/1/1/15/759641. Acesso em; 21 jun. 2021.
TOMCZYK, L. et al. Digital Divide in Latin America and Europe: Main Characteristics
in Selected Countries. In: IBERIAN CONFERENCE ON INFORMATION SYSTEMS
AND TECHNOLOGIES (CISTI), 14., 2019. Disponível em:
https://doi.org/10.23919/CISTI.2019.8760821. Acesso em: 21 jun. 2021.
UNIÃO EUROPEIA. Regulation (EU) 2016/679 of the European Parliament and of the
Council of 27 April 2016 on the protection of natural persons with regard to the
processing of personal data and on the free movement of such data, and repealing
381
Directive 95/46/EC (General Data Protection Regulation) (Text with EEA relevance).
Official Journal of the European Union, 4 maio 2016. Disponível em: https://eur-
lex.europa.eu/eli/reg/2016/679/oj/eng. Acesso em: 27 ago. 2021.
UNIÃO EUROPEIA. COM (2018) 237 — Artificial Intelligence for Europe. 2018.
Disponível em: https://eur-lex.europa.eu/legal-
content/EN/TXT/?uri=COM%3A2018%3A237%3AFIN. Acesso em: 13 jul. 2020.
UNIÃO EUROPEIA. COM (2018) 785 — Coordinated Plan for Artificial Intelligence,
2018. Disponível em: https://ec.europa.eu/knowledge4policy/publication/coordinated-
plan-artificial-intelligence-com2018-795-final_en#:~:text=7%20December%202018—
,Coordinated%20Plan%20on%20Artificial%20Intelligence%20. Acesso em 13 jul.
2020.
VAN ALSENOY, B. Liability under EU Data Protection Law: From Directive 95/46 to
the General Data Protection Regulation. JIPITEC, [S. l.], v. 7, n. 3, 2017. Disponível
em: http://www.jipitec.eu/issues/jipitec-7-3-2016/4506. Acesso em: 21 jun; 2021.
VEALE, M. Governing Machine Learning that Matters. 2019. Doctoral Thesis (PhD in
Science, Technology, Engineering and Public Policy) — University College London,
London, 2019. Disponível em:
382
https://discovery.ucl.ac.uk/id/eprint/10078626/1/thesis_final_corrected_mveale.pdf.
Acesso em 15 dez. 2020.
WRIGHT, D.; MORDINI, E. Privacy and Ethical Impact Assessment. In: WRIGHT, D.;
DE HERT, P. (org.). Privacy Impact Assessment. Dordrecht: Springer Netherlands,
2012. p. 397–418. Disponível em: https://doi.org/10.1007/978-94-007-2543-0_19.
Acesso em: 24 abr. 2021.