Reg Ia-Sf249365035479

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 63

SF/24936.

50354-79
Gabinete do Senador Eduardo Gomes

PARECER Nº , DE 2024

Da COMISSÃO TEMPORÁRIA SOBRE


INTELIGÊNCIA ARTIFICIAL NO BRASIL, sobre
o Projeto de Lei nº 21, de 2020, do Deputado
Federal Eduardo Bismarck, que estabelece
fundamentos, princípios e diretrizes para o
desenvolvimento e a aplicação da inteligência
artificial no Brasil; e dá outras providências; o
Projeto de Lei nº 5.051, de 2019, do senador
Styvenson Valentim, que estabelece os
princípios para o uso da Inteligência Artificial no
Brasil; o Projeto de Lei nº 5.691, de 2019, do
senador Styvenson Valentim, que institui a

Página: 1/63 07/06/2024 18:08:13


Política Nacional de Inteligência Artificial; o
Projeto de Lei nº 872, de 2021, do Senador
Veneziano Vital do Rêgo, que dispõe sobre os
marcos éticos e as diretrizes que fundamentam
o desenvolvimento e o uso da Inteligência
Artificial no Brasil; o Projeto de Lei nº 2.338, de
2023, do Senador Rodrigo Pacheco, que dispõe
sobre o uso da Inteligência Artificial; o Projeto de
Lei nº 3.592, de 2023, do Senador Rodrigo
Cunha, que estabelece diretrizes para o uso de
imagens e áudios de pessoas falecidas por meio
de inteligência artificial (IA), com o intuito de

10fc24eb62579c5510bbb6d66cd2abdbb6633389
preservar a dignidade, a privacidade e os
direitos dos indivíduos mesmo após sua morte;
o Projeto de Lei nº 145, de 2024, do Senador
Chico Rodrigues, que altera a Lei nº 8.078, de
11 de setembro de 1990 (Código de Defesa do
Consumidor), para regular o uso de ferramentas
de inteligência artificial para fins publicitários e
coibir a publicidade enganosa com uso dessas
ferramentas; o Projeto de Lei nº 146, de 2024,
do Senador Chico Rodrigues, que altera o
Decreto-Lei nº 2.848, de 7 de dezembro de 1940
(Código Penal), para estabelecer causa de
aumento de pena para os crimes contra a honra
e hipótese qualificada para o crime de falsa
identidade, para quando houver a utilização de
tecnologia de inteligência artificial para alterar a
imagem de pessoa ou de som humano; o
SF/24936.50354-79
2

Projeto de Lei nº 210, de 2024, do Senador


Marcos do Val, que dispõe sobre os princípios
para uso da tecnologia de inteligência artificial
no Brasil; e o Projeto de Lei nº 266, de 2024, que
dispõe sobre o uso de sistemas de inteligência
artificial para auxiliar a atuação de médicos,
advogados e juízes.

Relator: Senador EDUARDO GOMES

I – RELATÓRIO

A Comissão Temporária Interna sobre Inteligência Artificial no Brasil


(CTIA) foi criada, em 15 de agosto de 2023, por força do Requerimento (RQS)

Página: 2/63 07/06/2024 18:08:13


nº 722, de 2023, de iniciativa do Senador Rodrigo Pacheco, com o objetivo de
examinar os projetos concernentes ao relatório final aprovado pela Comissão de
Juristas responsável por subsidiar a elaboração de substitutivo sobre Inteligência
Artificial no Brasil (CJSUBIA), criada pelo Ato do Presidente do Senado Federal
nº 4, de 2022, bem como eventuais novos projetos que disciplinem a matéria.

Dessa maneira, com a criação da CTIA, todas as proposições


relacionadas ao tema da IA passaram a tramitar em conjunto no Senado Federal,
inclusive os novos projetos apresentados após a finalização dos trabalhos da
CJSUBIA. Destaca-se que a citada Comissão de Juristas, como resultado de seus
trabalhos, apresentou minuta de proposição legislativa que, em grande medida, foi

10fc24eb62579c5510bbb6d66cd2abdbb6633389
aproveitada na elaboração do Projeto de Lei (PL) nº 2.338, de 2023, do Senador
Rodrigo Pacheco, o qual passou a centralizar as discussões acerca da Inteligência
Artificial (IA) no Senado Federal.

Portanto, nesse momento, vêm ao exame da CTIA:

– o PL nº 21, de 2020, de autoria do Deputado Federal Eduardo


Bismarck, que estabelece fundamentos, princípios e diretrizes para o
desenvolvimento e a aplicação da inteligência artificial no Brasil;

– o PL nº 5.051, de 2019, de autoria do Senador Styvenson Valentim,


que estabelece os princípios para o uso da Inteligência Artificial no Brasil;

– o PL nº 5.691, de 2019, também do Senador Styvenson Valentim,


que institui a Política Nacional de Inteligência Artificial;
SF/24936.50354-79
3

– PL nº 872, de 2021, de autoria do Senador Veneziano Vital do


Rêgo, que dispõe sobre o uso da Inteligência Artificial;

– o PL nº 2.338, de 2023, de autoria do Senador Rodrigo Pacheco,


que dispõe sobre o uso da inteligência artificial;

– o PL nº 3.592, de 2023, de autoria do Senador Rodrigo Cunha, que


estabelece diretrizes para o uso de imagens e áudios de pessoas falecidas por meio
de inteligência artificial (IA), com o intuito de preservar a dignidade, a privacidade e
os direitos dos indivíduos mesmo após sua morte;

– o PL nº 145, de 2024, do Senador Chico Rodrigues, que altera a Lei


nº 8.078, de 11 de setembro de 1990 (Código de Defesa do Consumidor), para
regular o uso de ferramentas de inteligência artificial para fins publicitários e coibir
a publicidade enganosa com uso dessas ferramentas;

– o PL nº 146, de 2024, também do Senador Chico Rodrigues, que


altera o Decreto-Lei nº 2.848, de 7 de dezembro de 1940 (Código Penal), para

Página: 3/63 07/06/2024 18:08:13


estabelecer causa de aumento de pena para os crimes contra a honra e hipótese
qualificada para o crime de falsa identidade, para quando houver a utilização de
tecnologia de inteligência artificial para alterar a imagem de pessoa ou de som
humano;

– o PL nº 210, de 2024, do Senador Marcos do Val, que dispõe sobre


os princípios para uso da tecnologia de inteligência artificial no Brasil; e, por fim,

– o PL nº 266, de 2024, do Senador Veneziano Vital do Rêgo, que


dispõe sobre o uso de sistemas de inteligência artificial para auxiliar a atuação de
médicos, advogados e juízes.

10fc24eb62579c5510bbb6d66cd2abdbb6633389
I.1 – DOS PROJETOS

Em breve síntese, são as seguintes as disposições dos citados


projetos, que tramitam conjuntamente.

– Projeto de Lei nº 21, de 2020

O PL nº 21, de 2020, oriundo da Câmara dos Deputados, visa


estabelecer fundamentos, princípios e diretrizes para o desenvolvimento e a
aplicação da inteligência artificial no Brasil; e dá outras providências.

O texto é composto por dez artigos.


SF/24936.50354-79
4

O conceito de inteligência artificial estabelecido no art. 2º.

O objetivo, os fundamentos e os princípios da IA são definidos nos


arts. 3º, 4º e 5º, respectivamente.

O art. 6º estabelece diretrizes que o Poder Público deverá observar


ao disciplinar a IA.

No art. 7º, são estabelecidas diretrizes para a atuação da União, dos


Estados, do Distrito Federal e dos Municípios em relação ao uso e ao fomento da
IA.

O art. 8º estabelece que a regulamentação da matéria será realizada


por órgãos e entidades setoriais com competência técnica na matéria.

No art. 9º, define-se a competência privativa da União para legislar e


normatizar o tema.

Página: 4/63 07/06/2024 18:08:13


– Projeto de Lei nº 5.051, de 2019

O PL nº 5.051, de 2019, contém sete artigos.

O reconhecimento de que a inteligência artificial é uma tecnologia


desenvolvida para servir as pessoas com a finalidade de melhorar o bem-estar
humano em geral encontra-se no art. 2º, que define ainda fundamentos para a
disciplina de seu uso.

Na art. 3º, determina-se como objetivo do uso da IA a promoção e a

10fc24eb62579c5510bbb6d66cd2abdbb6633389
harmonização da valorização do trabalho humano e do desenvolvimento
econômico.

O art. 4º estabelece que os sistemas baseados em IA serão sempre


auxiliares à tomada de decisão humana e que a responsabilidade civil por danos
decorrentes será atribuída ao supervisor do sistema.

No art. 5º são estabelecidas diretrizes para a atuação da União, dos


Estados, do Distrito Federal e dos Municípios, e, no art. 6º, se determina que as
aplicações de IA de entes do Poder Público buscarão a qualidade e a eficiência dos
serviços oferecidos à população.
SF/24936.50354-79
5

– Projeto de Lei nº 5.691, de 2019

Composto por sete artigos, o PL nº 5.691, de 2019, define os


princípios, as diretrizes e os instrumentos da Política Nacional de Inteligência
Artificial em seus arts. 2º, 3º e 5º, respectivamente.

O art. 4º estabelece parâmetros que as soluções de IA devem


observar, destacando: o respeito à autonomia e a preservação da intimidade e da
privacidade das pessoas, a inteligibilidade; a abertura ao escrutínio democrático e
a compatibilidade com a diversidade social e cultural.

No art. 6º, é disciplinada a celebração de convênios para obtenção de


recursos técnicos, humanos ou financeiros destinados a apoiar e fortalecer a
Política Nacional de Inteligência Artificial.

– Projeto de Lei nº 872, de 2021

Página: 5/63 07/06/2024 18:08:13


O PL nº 872, de 2021, composto por seis artigos, define os
fundamentos e objetivos da IA, respectivamente, em seus arts. 2º e 3º.

No art. 4º, são listadas obrigações aplicáveis às soluções de IA,


seguindo estrutura semelhante à observada no art. 4º do PL nº 5.691, de 2019

O art. 5º estabelece diretrizes para a atuação da União, dos Estados,


do Distrito Federal e dos Municípios no desenvolvimento da Inteligência Artificial, e
o art. 6º traz a cláusula de vigência.

10fc24eb62579c5510bbb6d66cd2abdbb6633389
– Projeto de Lei nº 2.338, de 2023

Contendo 45 artigos, o PL nº 2.388, de 2023, é organizado em nove


capítulos.

O Capítulo I apresenta conceitos, fundamentos e princípios para o


desenvolvimento e uso de sistemas de inteligência artificial no Brasil. O Capítulo II
trata dos direitos das pessoas afetadas por sistemas de inteligência artificial. O
Capítulo III define regras para categorização dos riscos eventualmente contidos nos
sistemas de IA, a serem identificados por meio de avaliação preliminar. Há ainda
parâmetros específicos para sistemas classificados como de risco excessivo e de
alto risco.

O Capítulo IV dispõe sobre as estruturas de governança que os


agentes de inteligência artificial deverão estabelecer para garantir a segurança dos
sistemas e o atendimento dos direitos das pessoas afetadas. O Capítulo V trata da
SF/24936.50354-79
6

responsabilidade civil de fornecedores ou operadores de sistema de IA e o Capítulo


VI dispõe sobre a possibilidade de elaboração de códigos de boas práticas e de
governança pelos agentes de inteligência artificial.

O Capítulo VII firma a obrigação de comunicação de incidentes graves


pelos agentes de inteligência artificial à autoridade competente e o Capítulo VIII
trata da supervisão e fiscalização do tema, definindo parâmetros para aplicação de
sanções administrativas, e também de medidas para fomento à inovação, além de
determinar a criação de uma base de dados pública de inteligência artificial de alto
risco. Por fim, no Capítulo IX, a cláusula de vigência estabelece que a norma entrará
em vigor um ano após a sua publicação.

– Projeto de Lei nº 3.592, de 2023

O PL nº 3.592, de 2023, estabelece, em seu art. 2º, que o uso da


imagem de pessoa falecida por meio de IA requer o consentimento prévio e
expresso da pessoa em vida ou, na ausência deste, dos familiares mais próximos.

Página: 6/63 07/06/2024 18:08:13


No art. 3º, é definido que o direito de controlar o uso dessa imagem
pertence aos herdeiros da pessoa falecida.

No art. 4º, define-se que, para a utilização comercial de imagem ou


áudio de pessoa falecida, é exigida autorização expressa dos herdeiros legais ou
da pessoa falecida em vida.

O respeito à vontade expressa em vida de não permitir o uso de sua


imagem após o falecimento é definido no art. 5º.

10fc24eb62579c5510bbb6d66cd2abdbb6633389
O uso de imagem e áudio de pessoa falecida para fins legais,
mediante autorização da autoridade competente, é previsto no art. 6º.

O art. 7º determina que peças publicitárias que utilizem imagem ou


áudio produzido por IA devem informar esse fato ostensivamente.

No art. 8º, é estabelecida a responsabilidade pela obtenção do


consentimento para uso da imagem ou áudio da pessoa falecida.

– Projeto de Lei nº 145, de 2024

Com três artigos, o PL nº 145, de 2024, em síntese, pretende


acrescentar ao Código de Defesa do Consumidor (CDC) novo art. 37-A.
SF/24936.50354-79
7

O caput do citado dispositivo proíbe a publicação de mensagem


publicitária contendo imagem ou voz de pessoa, viva ou falecida, manipulada com
o uso de inteligência artificial, salvo nas hipóteses de consentimento prévio do titular
(inciso I) e de informação ostensiva ao consumidor (inciso II).

No § 1º do citado art. 37-A, fica estabelecido que será considerada


publicidade enganosa a mensagem publicitária em desacordo com o prescrito pelo
caput.

Os § 2º trata da interrupção da divulgação após notificação, e o § 3º


detalha o processo de notificação.

Finalmente, o § 4º define que é considerado veículo de comunicação


qualquer meio de divulgação visual, auditiva ou audiovisual, incluindo rádio,
televisão, sítios de internet e redes sociais.

– Projeto de Lei nº 146, de 2024

Página: 7/63 07/06/2024 18:08:13


O PL nº 146, de 2024, em seu art. 2º, pretende alterar os arts. 141 e
307 do Código Penal.

No art. 141, que trata das disposições comuns aos crimes contra a
honra, propõem-se os novos § 3º, definindo que as penas sejam quintuplicadas
quando houver utilização de IA para alterar ou criar imagem, vídeo ou som; e § 4º,
que triplica a pena daquele que divulgar vídeo ou imagem falsos produzidas por IA.

Com relação ao art. 307, que tipifica o crime de falsa identidade, é


proposta a inclusão de § 1º, definindo pena de reclusão, de um a cinco anos, e

10fc24eb62579c5510bbb6d66cd2abdbb6633389
multa, se o crime for praticado com uso de IA para alterar vídeo, imagem ou som.
Propõe-se ainda § 2º, estabelecendo que incorre na mesma pena do § 1º, reduzida
de um terço até a metade, quem divulga o referido material criminoso.

– Projeto de Lei nº 210, de 2024

Composto por nove artigos, o PL nº 210, de 2024, define o conceito


de IA em seu art. 2º.

O art. 3º estabelece os princípios da IA.

No art. 4º, é estabelecido o direito individual de proteção contra


sistemas de IA inseguros ou ineficazes.
SF/24936.50354-79
8

O art. 5º veda discriminações por algoritmos, definida como


tratamentos ou impactos diferentes injustificados que desfavoreçam as pessoas
com base em classificação protegida por lei.

A proteção contra práticas abusivas de coleta e tratamento de dados


é estabelecida no art. 6º, e, no art. 7º, é garantido o direito a informações completas
sobre o funcionamento de sistemas de IA.

O art. 8º garante o direito individual de não utilizar sistemas de IA,


sempre que desejado, estabelecendo a possibilidade de opção pelo atendimento
humano.

– Projeto de Lei nº 266, de 2024

Em seu art. 2º, o PL nº 266, de 2024, propõe a inclusão de novo


art. 4º-A na Lei nº 12.842, de 10 de julho de 2013, que dispõe sobre o exercício da
Medicina.

Página: 8/63 07/06/2024 18:08:13


O dispositivo proposto, em seu caput, estabelece a possibilidade de
se utilizar sistemas de IA para auxiliar a atuação do médico no campo da atenção
à saúde. No § 1º, o dispositivo define que os sistemas deverão preservar a
autonomia do médico. O § 2º estabelece que o uso de sistemas sem a supervisão
de médico configura exercício ilegal da Medicina e o § 3º atribui ao Conselho
Federal de Medicina a fiscalização e a regulamentação da IA no exercício da
Medicina

O art. 3º do PL nº 266, de 2024, propõe a inclusão de novo art. 5º-A


na Lei nº 8.906, de 4 de julho de 1994, que dispõe sobre o Estatuto da Advocacia
e a Ordem dos Advogados do Brasil (OAB).

10fc24eb62579c5510bbb6d66cd2abdbb6633389
Nos termos do caput do art. 5º-A proposto, sistemas de IA poderão
ser utilizados para auxiliar a atividade de advocacia. No § 1º, o citado dispositivo
define que os sistemas deverão preservar a isenção técnica e a independência
profissional do advogado. O § 2º determina que o uso dos sistemas para a prática
de atos privativos de advogado por pessoa não inscrita na OAB configura exercício
ilegal da advocacia.

O mesmo art. 3º do PL nº 266, de 2024, propõe ainda a inclusão de


novo inciso XXI no art. 54 da referida Lei nº 8.906, de 1994, criando nova
competência para o Conselho Federal da OAB, qual seja a de regulamentar o uso
da IA nas atividades de advocacia.

Em seu art. 4º, o PL nº 266, de 2024, propõe alterar o Código Penal


para acrescentar novo art. 355-A, tipificando o exercício ilegal da advocacia.
SF/24936.50354-79
9

Por fim, no art. 5º, o PL nº 266, de 2024, pretende incluir novo art. 194-
A na Lei nº 13.105, de 16 de março de 2015 (Código de Processo Civil – CPC),
estabelecendo que sistemas de inteligência artificial poderão ser utilizados para
auxiliar a prática de atos processuais. Define ainda, no parágrafo único do citado
art. 194-A, que sentenças, decisões interlocutórias e despachos, quando
elaborados com auxílio de IA, serão submetidos a revisão judicial, sob pena de
nulidade.

I.2 – DAS EMENDAS

– Emendas ao PL nº 872, de 2021

Ao PL nº 872, de 2021, foram oferecidas 17 emendas.

A Emenda nº 1, de autoria do Senador Paulo Paim, propõe a inclusão


de novo artigo, estabelecendo que o uso da IA na prestação de serviços públicos
ou na prestação de serviços ao consumidor deverá ser precedida de estudo de

Página: 9/63 07/06/2024 18:08:13


impacto sobre a força de trabalho ou emprego de mão-de-obra, e condicionada à
comprovação de vantagem para a sociedade.

A Emenda nº 2, do Senador Weverton, sugere o acréscimo de


dispositivo vedando sistemas de IA que visem à promoção e difusão de notícias
falsas e de mensagens que promovam a intolerância, violência ou qualquer tipo de
preconceito.

A Emenda nº 3, também do Senador Weverton, propõe a alteração do


art. 3º, para disciplinar os objetivos da IA.

10fc24eb62579c5510bbb6d66cd2abdbb6633389
A Emenda nº 4, do Senador Weverton, propõe mudança no caput do
art. 5º, para estabelecer a implantação gradual da inteligência artificial na União,
nos Estados, no Distrito Federal e nos Municípios.

A Emenda nº 5, novamente do Senador Weverton, pretende


acrescentar, entre as diretrizes para a atuação da União, dos Estados, do Distrito
Federal e dos Municípios, do art. 5º, a inclusão social e educação das pessoas com
deficiência. De forma semelhante, a Emenda nº 12, da Senadora Rose de Freitas,
propõe que seja incluída a educação de jovens e adultos.

A Emenda nº 6, do Senador Weverton, propõe a inclusão de


dispositivo para definir o conceito de inteligência artificial.

A Emenda nº 7, igualmente do Senador Weverton, sugere a


supressão do inciso III do art. 5º, que propõe como diretriz para a aplicação de
SF/24936.50354-79
10

tecnologias de IA, a “garantia da adoção gradual da Inteligência Artificial”. No


mesmo sentido, também propõe a Emenda nº 11, da Senadora Rose de Freitas.

A Emenda nº 8, do Senador Zequinha Marinho, pretende a inclusão


da “busca por soluções voltadas para a melhoria da qualidade de vida da
população” entre as diretrizes para a atuação da União, dos Estados, do Distrito
Federal e dos Municípios (art. 5º).

A Emenda nº 9, do Senador Eduardo Braga, inclui parágrafo único ao


art. 4º, para vedar o uso de soluções de IA para a veiculação, compartilhamento ou
disseminação de notícias falsas em qualquer plataforma ou meio digital.

A Emenda nº 10, também do Senador Eduardo Braga, sugere incluir,


entre as diretrizes para a atuação da União, dos Estados, do Distrito Federal e dos
Municípios (art. 5º), “o desenvolvimento de mecanismos de fomento à inovação e
ao empreendedorismo digital”.

A Emenda nº 13, do Senador Jean Paul Prates, propõe incluir, como

Página: 10/63 07/06/2024 18:08:13


objetivo da IA (art. 3º), a fiscalização dos seus riscos e impactos à sociedade.
Propõe ainda a inclusão, como diretriz para a atuação da União, dos Estados, do
Distrito Federal e dos Municípios, no art. 5º, do “emprego de mecanismos de
diálogo com a sociedade civil e Academia para identificação de riscos e impactos
das aplicações”.

Emenda nº 14, do Senador Rogério Carvalho, altera o art. 4º para


determinar que a IA deve prover decisões rastreáveis, transparentes e explicáveis,
e sem vieses discriminatórios ou preconceitos.

Emenda nº 15, também do Senador Rogério Carvalho, inclui, como


diretriz para a atuação da União, dos Estados, do Distrito Federal e dos Municípios

10fc24eb62579c5510bbb6d66cd2abdbb6633389
(art. 5º), a ampliação das políticas de emprego, trabalho e renda.

Emenda nº 16, do Senador Rogério Carvalho, inclui nesse mesmo rol


de diretrizes” o desenvolvimento de mecanismos de fomento à inovação e ao
empreendedorismo digital, (…) preferencialmente as micro, pequenas e médias
empresas nacionais”.

Por fim, a Emenda nº 17, do Senador Styvenson Valentim, propõe a


inclusão de artigo determinando que os sistemas decisórios de IA serão sempre
auxiliares à tomada de decisão humana, e que a responsabilidade civil por danos
se sua utilização será de seu supervisor.
SF/24936.50354-79
11

– Emendas ao PL nº 2.338, de 2023

Foram ainda apresentadas seis emendas ao PL nº 2.338, de 2023.

Emenda nº 1, de autoria do Senador Astronauta Marcos Pontes, traz


texto substitutivo ao projeto. Contendo 22 artigos, organizados em nove capítulos.

O Capítulo I, das disposições preliminares, traz definições de


conceitos e define fundamentos, objetivos e princípios da IA.

O Capítulo II, composto exclusivamente pelo art. 5º, trata dos


princípios para a proteção da espécie humana e dos dados pessoais.

O Capítulo III, que trata do fomento ao desenvolvimento e uso da IA


no Brasil, estabelece que o Governo Federal destinará recursos financeiros e criará
de um programa de fomento à formação profissional, pesquisa e desenvolvimento
de sistemas de IA; que criará um programa avançado de segurança cibernética; e
que, por meio da autoridade competente, criará as correspondentes políticas

Página: 11/63 07/06/2024 18:08:13


públicas e fixará metas a serem atingidas no desenvolvimento da IA e segurança
cibernética no país.

No Capítulo IV, é abordada a avaliação de risco da IA, definindo que


o risco será avaliado com base na probabilidade e no impacto negativo do sistema.

O Capítulo V aborda as obrigações de desenvolvedores e operadores


de sistemas de ia segundo o nível de risco.

No Capítulo VI, é disciplinada a regulamentação da IA, estabelecendo


que o Governo Federal definirá o órgão ou entidade que será a “autoridade

10fc24eb62579c5510bbb6d66cd2abdbb6633389
competente” sobre o tema. Também é definida a criação do Conselho Nacional
sobre Inteligência Artificial (CNIA), com o objetivo de orientar e supervisionar o
desenvolvimento e aplicação da IA no país.

O Capítulo VII estabelece as diretrizes sobre o tratamento humano à


inteligência artificial.

O Capítulo VIII define dispõe sobre o regime de responsabilidade por


danos na utilização de IA e, finalmente, o Capítulo IX traz as disposições finais.

A Emenda nº 2 ao PL nº 2.338, de 2023, de autoria do Senador Carlos


Viana, propõe a supressão do art. 18, que confere à “autoridade competente” a
prerrogativa de atualizar a lista dos sistemas de alto risco ou de risco excessivo.

A Emenda nº 3, também de autoria do Senador Carlos Viana, objetiva


excluir do rol de alto risco (art. 17) os sistemas de avaliação da capacidade de
SF/24936.50354-79
12

endividamento e de estabelecimento de classificação de crédito. Pretende, ainda,


incluir nessa listagem os sistemas biométricos de identificação apenas quando
usados pelo Poder Público para investigação criminal e segurança pública.

A Emenda nº 4, do Senador Vanderlan Cardoso, propõe a inserção


de novo art. 20 ao texto, para determinar a inclusão de marcas identificadoras em
conteúdo gerado ou manipulado por inteligência artificial.

A Emenda nº 5, também do Senador Vanderlan Cardoso, pretende a


inclusão de novo art. 44, estabelecendo que o Governo Federal destinará recursos
financeiros e criará programas de fomento à educação, capacitação, formação
profissional, pesquisa e desenvolvimento de IA, bem como políticas de incentivo ao
empreendedorismo e ao ambiente de negócios para empresas que utilizem
ferramentas de IA em território nacional.

A Emenda nº 6, igualmente do Senador Vanderlan Cardoso, tem por


objetivo alterar o art. 141 do Código Penal, para incluir, entre as causas de aumento
de pena dos crimes contra a honra (calúnia, injúria e difamação), a utilização de

Página: 12/63 07/06/2024 18:08:13


conteúdo audiovisual gerado ou manipulado com alteração significativa da
realidade.

– Emendas aos demais projetos

Não foram apresentadas emendas aos demais projetos que tramitam


em conjunto.

II – ANÁLISE

10fc24eb62579c5510bbb6d66cd2abdbb6633389
Nos termos RQS nº 722, de 2023, compete à CTIA, examinar os
projetos concernentes ao relatório final aprovado pela Comissão de Juristas
responsável por subsidiar a elaboração de substitutivo sobre Inteligência Artificial
no Brasil, criada pelo Ato do Presidente do Senado Federal nº 4, de 2022, bem
como eventuais novos projetos que disciplinem a matéria. Nesses termos, todos os
projetos submetidos a exame encontram-se abarcados pela competência dessa
Comissão.

A inteligência artificial, por se tratar essencialmente de aplicação de


informática, é matéria incluída na competência legislativa da União e nas
atribuições do Congresso Nacional, nos termos dos art. 22, inciso IV, e art. 48 da
Constituição Federal. Os projetos, portanto, são formalmente constitucionais. Do
ponto de vista da constitucionalidade material, não se verifica qualquer elemento
que possa impedir o exame do mérito das proposições.
SF/24936.50354-79
13

Do mesmo modo, as proposições se revelam plenamente jurídicas,


por possuírem características de inovação do ordenamento legal, de abstração, de
generalidade, de imperatividade e de coercibilidade.

No mérito, a análise das proposições submetidas a esta CTIA, além


do extenso material de referência produzido ou organizado, tanto pela Comissão
de Juristas quanto por este Colegiado, deixam claro que a regulação da inteligência
artificial é uma das missões mais complexas que o Parlamento enfrenta atualmente.
O desafio de propor uma norma que seja capaz de proteger suficientemente direitos
e garantias e de, ao mesmo tempo, fomentar a inovação e o desenvolvimento
tecnológico é enorme.

Torna ainda mais complexa essa tarefa o fato de que a inteligência


artificial está presente numa infinidade de aplicações e em diferentes contextos. Há
usos de inteligência artificial extremamente simples ou triviais, já absorvidos pela
sociedade há muitos anos, que não representam risco significativo e que, dessa
forma, não demandam regulamentação específica. Nessa categoria, podemos citar
os sistemas de reconhecimento de caracteres, capazes de converter textos escritos
para um formato computacional editável; os sistemas de correção ortográfica ou

Página: 13/63 07/06/2024 18:08:13


gramatical de textos; os sistemas computacionais antivírus, que tentam identificar
ameaças ou comportamentos suspeitos das aplicações; os destinados à filtragem
de mensagens ou chamadas telefônicas indesejadas; e, ainda, a maior parte dos
jogos eletrônicos – sejam de cartas, de tabuleiro ou de ação –, nos quais o jogador
pode enfrentar um oponente virtual controlado por inteligência artificial.

De fato, boa parte dos sistemas de inteligência artificial já está


plenamente incorporada à vida cotidiana da sociedade, pois apresenta riscos
relativamente baixos ou desenvolveu mecanismos satisfatórios de controle de
riscos – geralmente por meio de supervisão humana, como ocorre nos sistemas de
diagnóstico médico, por exemplo.

10fc24eb62579c5510bbb6d66cd2abdbb6633389
Há contudo, sistemas que exigem maiores cuidados, geralmente
porque seus resultados podem ter impactos muito relevantes, seja de modo
individual, para as pessoas diretamente afetadas, seja para a própria estrutura
social ou para o debate público. Nessa categoria, destacam-se, por exemplo, os
sistemas de seleção de candidatos para ingresso em estabelecimentos de ensino
e os destinados a avaliar o acesso a serviços e benefícios públicos. Destacam-se
também os sistemas de recomendação de conteúdo, especialmente os utilizados
em grandes plataformas de comunicação, que têm potencial para enviesar debates
– inclusive os de natureza política – e para criar grupos “fechados”, com
realimentação de ideias homogêneas, dificultando a convivência social harmônica.

Também geram preocupação as aplicações de síntese ou


manipulação de conteúdo audiovisual ultrarrealista, a chamada inteligência artificial
generativa. Esses sistemas podem criar imagens ou vídeos capazes de burlar
verificações de identidade, permitindo a prática de fraudes diversas. Podem
também ser usados para a prática de crimes contra a honra, por meio da
SF/24936.50354-79
14

adulteração de registros ou da criação de imagens e vídeos sintéticos, mas


praticamente indistintos de gravações reais. Assim, podem enganar grande parte
da população e afetar até mesmo processos eleitorais.

Portanto, ao se propor uma regulamentação para a inteligência


artificial, todas essas situações diversas precisam ser contempladas, de modo a
garantir, em cada uma delas, as necessárias proteção e segurança, sem, contudo,
criar barreiras desnecessárias ao uso da tecnologia e à fruição de seus muitos
benefícios.

Para encontrar esse desejado equilíbrio, é necessária uma visão de


compromisso público, não apenas dos poderes do Estado, mas também dos
diversos setores da sociedade, notadamente do setor produtivo e da academia.

Nesse sentido, ressalto que os canais de diálogo foram mantidos


permanentemente abertos para a construção coletiva dessa regulação. Todos os
parlamentares envolvidos no processo estiveram acessíveis e disponíveis para
receber manifestações diversas sobre o tema, muitas vezes antagônicas entre si,

Página: 14/63 07/06/2024 18:08:13


mas que, articuladas em seu conjunto, permitem alcançar um resultado harmônico.

Relembro que, antes da apresentação deste relatório, foi publicado


um texto preliminar, dando ainda mais transparência ao processo, e possibilitando,
outra vez, o recebimento de sugestões e críticas, de modo a garantir a plena
participação democrática.

Destaco, ainda, que a apresentação do presente relatório consiste em


mais um passo nas discussões da matéria, que ainda ficará aberta para debates
antes de sua deliberação nessa Comissão, e que, posteriormente, seguirá o devido
processo legislativo.

10fc24eb62579c5510bbb6d66cd2abdbb6633389
Dentre os projetos submetidos a exame, o PL nº 2.338, de 2023, é o
que se revela mais abrangente, contando com normas de caráter principiológico –
mais conceituais e genéricas – e também com regras prescritivas – mais práticas e
específicas.

O PL nº 21, de 2020; o PL nº 5.051, de 2019; o PL nº 5.691, de 2019;


o PL nº 872, de 2021; e o PL nº 210, de 2024, trazem essencialmente uma
abordagem principiológica. De modo geral, esses projetos se encontram
contemplados no texto do PL nº 2.338, de 2023, ainda que possa haver alguma
variação com relação às opções legislativas adotadas.

Por outro lado, o PL nº 3.592, de 2023; o PL nº 145, de 2024; o PL


nº 146, de 2024; e o PL nº 266, de 2024, revelam uma abordagem mais prescritiva
e voltada para aspectos específicos da inteligência artificial. Os três primeiros,
tratam de sistemas de inteligência artificial generativa para disciplinar o uso de
imagens de pessoas vivas ou falecidas e dispor acerca de crimes contra a honra e
SF/24936.50354-79
15

de falsa identidade. O último, aborda o uso da inteligência artificial na medicina, na


advocacia e na judicatura.

Ainda que essas questões não estejam contempladas no PL nº 2.338,


de 2023, trata-se de aspectos meritórios e que devem ser incorporados.

Por essas razões, considerando serem positivas as iniciativas


avaliadas, optamos por construir um novo texto agregador. A base desse texto será
o PL nº 2.338, de 2023, ao qual serão feitos os necessários ajustes e
incorporações, de modo a contemplar, sempre que possível, as demais
proposições examinadas e suas emendas. Esse processo de agregação e
harmonização das diversas iniciativas ao texto inicial do PL nº 2.338, de 2023, dará
origem a um substitutivo consolidado.

Como consequência, para fins de processo legislativo, ficarão


prejudicados todos os demais projetos: PL nº 21, de 2020; PL nº 5.051, de 2019;
PL nº 5.691, de 2019; PL nº 872, de 2021; PL nº 3.592, de 2023; PL nº 145, de
2024; PL nº 146, de 2024; PL nº 210, de 2024; e PL nº 266, de 2024.

Página: 15/63 07/06/2024 18:08:13


I.2 – DO SUBSTITUTIVO

Seguindo a estrutura do PL nº 2.338, de 2023, o substitutivo a ser


apresentado contará com normas principiológicas e prescritivas.

No que tange às regras principiológicas, todos os projetos avaliados


mostram convergência significativa. A exigência de que a inteligência artificial seja
transparente, segura, confiável, ética e livre de vieses discriminatórios, que respeite
os direitos humanos, os valores democráticos e a pluralidade foi reiterada

10fc24eb62579c5510bbb6d66cd2abdbb6633389
sistematicamente nas iniciativas avaliadas. Do mesmo modo, a visão de que a
regulação deve buscar um equilíbrio em que, além da segurança e de direitos,
sejam contemplados o desenvolvimento tecnológico, a inovação, a livre iniciativa e
a produtividade foi observada permeando todas as proposições.

Portanto, no que concerne às regras principiológicas que disciplinam


a inteligência artificial, o substitutivo elaborado contempla o PL nº 21, de 2020; o
PL nº 5.051, de 2019; o PL nº 5.691, de 2019; o PL nº 872, de 2021; o PL nº 2.338,
de 2023; e o PL nº 210, de 2024. Contempla ainda as Emendas nos 1, 3, 6, 7, 8, 11,
13 e 14 ao PL nº 872, de 2021, além da Emenda nº 1 ao PL nº 2.338, de 2023, em
sua parte principiológica.

Foram ainda agregadas, na parte principiológica do substitutivo, as


propostas das Emendas nos 2 e 9 ao PL nº 872, de 2021, que tratam da vedação a
sistemas de inteligência artificial destinados à difusão de notícias falsas ou à
promoção do ódio, da discriminação ou da violência.
SF/24936.50354-79
16

Sobre regras principiológicas, somente não foi absorvida no


substitutivo o teor da Emenda nº 17, ao PL nº 872, de 2021, que propõe que os
sistemas decisórios de IA serão sempre auxiliares à tomada de decisão humana.
Como anteriormente apontado, há uma enorme variedade de sistemas de
inteligência artificial. Em muitos casos, esses sistemas são construídos com o exato
propósito de atuar sem supervisão humana. Isso pode ocorrer, por exemplo, em
sistemas que proporcionam a usuários não especialistas capacidades que
exigiriam conhecimentos especializados, como nos sistemas de controle de
parâmetros de câmeras fotográficas digitais. Também ocorre em sistemas que
atuam tomando decisões em velocidade incompatível com o tempo de reação
humana, como nos sistemas de controle de equipamentos de comunicação ou nos
sistemas de proteção elétrica.

Portanto, ainda que o substitutivo elaborado contemple o


fortalecimento da supervisão e da revisão humana, entendemos que não é possível
arbitrar que todos os sistemas de IA, sempre, em qualquer contexto, serão sempre
auxiliares à tomada de decisão humana.

A respeito das normas prescritivas, em linhas gerais, foi conservada

Página: 16/63 07/06/2024 18:08:13


a construção proposta no PL nº 2.338, de 2023. Desse modo, foram mantidas no
substitutivo:

– a abordagem baseada em direitos;

– a regulação baseada em riscos;

– a exigência de avaliação preliminar de risco;

– a definição de sistemas de risco excessivo, de utilização vedada;

– a definição de sistemas de alto risco, sujeitos a regulamentação

10fc24eb62579c5510bbb6d66cd2abdbb6633389
mais rigorosa;

– as regras de governança aplicadas aos sistemas de inteligência


artificial em geral;

– a análise de impacto algorítmico;

– os códigos de boas práticas;

– a obrigação de comunicação de incidentes graves;

– a designação de autoridade competente;

– as sanções administrativas;

– as medidas para fomentar a inovação;

– as regras relativas ao direito autoral; e


SF/24936.50354-79
17

– a previsão de criação de uma base de dados pública de


inteligência artificial.

Em atenção aos demais projetos avaliados e às emendas a eles


apresentadas, algumas questões relevantes foram acrescentadas à parte
prescritiva do texto, a exemplo da disciplina da inteligência artificial generativa,
contemplando, ainda que parcialmente, a temática do PL nº 3.592, de 2023; do PL
nº 145, de 2024; e do PL nº 146, de 2024. Ainda sobre a inteligência artificial
generativa, o texto passa a determinar que todo conteúdo sintético deverá incluir
marcas identificadoras, contemplando a proposta da Emenda nº 4 ao PL nº 2.338,
de 2023.

O substitutivo também passa a tratar em normas prescritivas sobre as


notificas falsas e à promoção da violência em sistemas de IA, alinhando-se à
preocupação que permeia o PL nº 146, de 2024, as Emendas nos 2 e 9 ao PL
nº 872, de 2021, e a Emenda nº 6 ao PL nº 2.338, de 2023.

A listagem de sistemas de alto risco foi revisada, tendo sido

Página: 17/63 07/06/2024 18:08:13


substancialmente reduzidos os sistemas de identificação biométrica considerados
de risco elevado, atendendo em parte ao proposto na Emenda nº 3 ao PL nº 2.338,
de 2023.

Foram incorporadas ao texto novas regras de proteção ao trabalho e


aos trabalhadores, organizadas em seção específica, na qual é determinada a
adoção de medidas para mitigar os impactos negativos e potencializar os positivos
da inteligência artificial. Com isso, foi contemplada a lógica das Emendas nos 1 e
15 ao PL nº 872, de 2021.

O papel dos reguladores setoriais for fortalecido, explicitando sua


competência no que tange a sistemas de inteligência artificial inseridos em sua

10fc24eb62579c5510bbb6d66cd2abdbb6633389
esfera de atuação. Além disso, foi proposta a criação de um Sistema Nacional de
Regulação e Governança de Inteligência Artificial (SIA), exatamente com o objetivo
de valorizar e reforçar as competências das autoridades setoriais e de harmonizá-
las com aquelas da autoridade competente central. Desse modo, a proposta do PL
nº 266, de 2024, foi incorporada e expandida.

Atendendo à preocupação manifestada na Emenda nº 16 ao PL


nº 872, de 2021, foi enfatizada a proteção às microempresas, empresas de
pequeno porte e startups, que estarão sujeitas a critérios diferenciados, como forma
de incentivo.

Assim, consideradas as emendas apresentadas ao PL nº 2.338, de


2023, que exigem manifestação específica, verifica-se o seguinte.

A Emenda nº 1, substitutiva, foi parcialmente aprovada, apenas no


que tange a sua parte principiológica.
SF/24936.50354-79
18

A Emenda nº 2, que prende retirar da autoridade competente a


prerrogativa de alterar a listagem dos sistemas de alto risco e de risco excessivo,
foi rejeitada. Diante da grande variedade de sistemas hoje existentes e da rápida
evolução tecnológica, com consequente surgimento frequente de novas aplicações
de inteligência artificial, entendemos que é necessário nesse ponto haver um
dinamismo que não se ajusta ao ritmo do processo legislativo.

A Emenda nº 3, que propõe excluir da categoria de alto risco os


sistemas de avaliação da capacidade de endividamento e limitar os sistemas
biométricos considerados de alto risco foi parcialmente aprovada. Com relação
aos sistemas de avaliação de capacidade de endividamento, trata-se de aplicação
que, inegavelmente, traz consequências relevantes aos afetados, devendo
permanecer classificada como de alto risco. No que tange à identificação
biométrica, por outro lado, sua utilização massiva para tem demonstrado que, em
regra, esses sistemas não têm potencial para causar dano significativo.

A Emenda nº 4, propondo a inclusão de marcas identificadoras em


conteúdo gerado ou manipulado por inteligência artificial, foi acatada.

Página: 18/63 07/06/2024 18:08:13


A Emenda nº 5, determinando ao Governo Federal a destinação de
recursos financeiros à educação, capacitação, formação profissional, pesquisa e
desenvolvimento de IA, foi parcialmente acatada. O substitutivo inclui diretriz de
atuação do poder público no sentido de estimular a capacitação e a preparação
para o mercado de trabalho.

Finalmente, a Emenda nº 6, que propõe aumento de pena nos crimes


contra a honra envolvendo conteúdo sintético, foi rejeitada. O projeto se limita a
abordar a disciplina da inteligência artificial no aspecto do Direito Civil, não sendo
apropriado, nesse momento, discutir questões Penais.

10fc24eb62579c5510bbb6d66cd2abdbb6633389
Além desses temas, que refletem as proposições e emendas
examinadas, o texto elaborado trouxe ainda algumas inovações, para promover
maior alinhamento da norma ao contexto internacional.

Nesse sentido, foram disciplinados os sistemas de inteligência


artificial de propósito geral, os quais, treinados com bases de dados em grande
escala, são capazes de realizar uma ampla variedade de tarefas distintas e servir
diferentes finalidades.

Foi também valorizada a autorregulação dos agentes de inteligência


artificial como forma de incentivar e assegurar melhores práticas de governança ao
longo de todo o ciclo de vida de sistemas de inteligência artificial.

Finalmente, no que tange à responsabilidade civil, o texto elaborado


optou por aplicar aos sistemas de inteligência artificial as regras gerais definidas no
Código Civil e no Código de Defesa do Consumidor. Como destacado
SF/24936.50354-79
19

anteriormente, grande parte dos sistemas de inteligência artificial já estão


sedimentados no cotidiano da sociedade, e esses instrumentos legais, por
experiência, já se provaram adequados.

Destaco aqui, por fim, toda a colaboração que esta Relatoria tem
recebido, desde o esforço destemido dos membros da Comissão de Juristas. De
igual forma, a colaboração imprescindível do Governo Federal, através da
Presidência da República e de seus Ministérios, bem como a todas as entidades,
pessoas físicas e jurídicas, de direito público e privado, que colaboraram com a
construção deste texto, tais como ABESE, ABIMED, ABRIA, Instituto Alana,
ANATEL, ANPD, Aqualtune Lab, Brasscom, BZCP, CADE, Coalizão Direitos na
Rede (CDR), CNPq, Conselho Digital, FEBRABAN, Fecomércio, Fórum de Saúde,
GSI, IBRAC, IDEC, IFPI, ILM, Information Technology Industry Council (ITI),
Instituto dos Advogados Brasileiros, ITS-Rio, LAWGORITHM, MBC, MPA, P&D,
Pro-Música Brasil, Produtores Fonográficos Associados, Zetta, entre outras
entidades e organizações, inclusive profissionais e especialistas. Sem a
colaboração da sociedade, este texto não teria alcançado o grau de maturidade em
que se encontra

Página: 19/63 07/06/2024 18:08:13


Com base em todo o exposto, considerado o grande esforço realizado
no sentido de contemplar e de harmonizar todas as ideias e posicionamentos
trazidos ao debate, entendemos que o texto que ora apresentamos, agregando
todos os projetos analisados e, ainda, alinhando-se ao contexto normativo
internacional, se mostra abrangente e equilibrado, capaz de responder ao desafio
enfrentado.

III – VOTO

Diante do exposto, o voto é pela aprovação do PL nº 2.338, de 2023;

10fc24eb62579c5510bbb6d66cd2abdbb6633389
pela aprovação da Emenda nº 4; pela aprovação parcial das Emendas nos 1, 3 e 5;
pela rejeição das Emendas nos 2 e 6, na forma do substitutivo apresentado a seguir;
e pela declaração de prejudicialidade do PL nº 21, de 2020; PL nº 5.051, de 2019;
PL nº 5.691, de 2019; PL nº 872, de 2021; PL nº 3.592, de 2023; PL nº 145, de
2024; PL nº 146, de 2024; PL nº 210, de 2024; e PL nº 266, de 2024.

Sala da Comissão,

, Presidente

, Relator
SF/24936.50354-79
20

EMENDA Nº – CTIA (SUBSTITUTIVO)

PROJETO DE LEI Nº 2.338, DE 2023

Dispõe sobre o desenvolvimento, fomento, uso


ético e responsável da inteligência artificial com
base na centralidade da pessoa humana.

O CONGRESSO NACIONAL decreta:

CAPÍTULO I
DISPOSIÇÕES PRELIMINARES

Página: 20/63 07/06/2024 18:08:13


Art. 1º Esta Lei estabelece normas gerais de caráter nacional para a
concepção, o desenvolvimento, a implementação, a utilização, a adoção e a
governança responsável de sistemas de inteligência artificial (IA) no Brasil, com o
objetivo de proteger os direitos fundamentais, estimular a inovação responsável e
garantir a implementação de sistemas seguros e confiáveis, em benefício da
pessoa humana, do regime democrático e do desenvolvimento social, científico,
tecnológico e econômico.

§ 1º Esta lei não se aplica ao sistema de inteligência artificial:

a) usado por pessoa natural para fim exclusivamente particular e não


econômico, salvo o disposto na Seção V, do Capítulo IV – Medidas de Governança

10fc24eb62579c5510bbb6d66cd2abdbb6633389
para Sistemas de Inteligência Artificial de Propósito Geral e Generativas – desta
Lei;

b) desenvolvidos e utilizados unicamente e exclusivamente para fins


de defesa nacional;

c) atividades de testagem, desenvolvimento e pesquisa e aqueles que


não sejam colocados em circulação no mercado, desde que mantida
exclusivamente sua finalidade de investigação e desenvolvimento científico, sem
prejuízo de observar a legislação pertinente, em especial a Lei nº 8.078, de 11 de
setembro de 1990 (Código de Defesa do Consumidor) e a Lei nº 13.709, de 14 de
agosto de 2018 (Lei Geral de Proteção de Dados Pessoais) e a Lei nº 6.938, de 31
de agosto de 1981 (Política Nacional do Meio Ambiente).
SF/24936.50354-79
21

§ 2º A fim de promover o desenvolvimento tecnológico nacional, o


Poder Executivo regulamentará regimes simplificados de obrigação, envolvendo
flexibilização de obrigações regulatórias previstas nesta Lei, nos seguintes casos:

I – padrões e formatos abertos e livres, com exceção daqueles


considerados de alto risco ou que se enquadrarem na Seção V, do Capítulo IV −
Medidas de Governança para Sistemas de Inteligência Artificial de Propósito Geral
e Generativas;

II – fomento nacional.

Art. 2º O desenvolvimento, a implementação e o uso de sistema de


inteligência artificial no Brasil têm como fundamentos:

I – centralidade da pessoa humana;

II – respeito e promoção aos direitos humanos e aos valores


democráticos;

Página: 21/63 07/06/2024 18:08:13


III – livre desenvolvimento da personalidade e liberdade de
expressão;

IV – proteção ao meio ambiente e ao desenvolvimento


ecologicamente equilibrado;

V – igualdade, não discriminação, pluralidade e diversidade;

VI – direitos sociais, em especial a valorização do trabalho humano;

10fc24eb62579c5510bbb6d66cd2abdbb6633389
VII – desenvolvimento socioeconômico, científico e tecnológico e
inovação;

VIII – defesa do consumidor, livre iniciativa e livre concorrência;

IX – privacidade, proteção de dados pessoais e autodeterminação


informativa;

X – promoção da pesquisa e do desenvolvimento com a finalidade de


estimular o desenvolvimento social e a redução de desigualdades, bem como a
inovação nos setores produtivos e no poder público e as parcerias público-privadas;

X – acesso à informação e a disseminação de dados, de forma aberta,


estruturada e segura;
SF/24936.50354-79
22

XI – proteção de direitos culturais e a promoção dos bens artísticos e


históricos;

XII – educação e a conscientização sobre os sistemas de inteligência


artificial para a promoção do pleno desenvolvimento e do exercício da cidadania;

XIV – proteção e promoção de direitos de grupos vulneráveis, em


especial de idosos, pessoas com deficiência e, com proteção integral e visando ao
melhor interesse, de crianças e adolescentes, reconhecendo a vulnerabilidade
agravada;

XV – integridade da informação mediante a proteção e a promoção da


confiabilidade, precisão e consistência das informações;

XVI – fortalecimento do processo democrático, pluralismo político e


enfrentamento da desinformação e dos discursos que promovam o ódio, a
discriminação ou a violência;

Página: 22/63 07/06/2024 18:08:13


XVII – proteção de direitos de propriedade intelectual, observada a
sua função social;

XVIII – garantia da segurança da informação e segurança cibernética;

XIX – inserção, integração e competitividade brasileira no mercado


internacional.

Art. 3º O desenvolvimento, a implementação e o uso de sistemas de


inteligência artificial observarão a boa-fé e os seguintes princípios:

10fc24eb62579c5510bbb6d66cd2abdbb6633389
I – crescimento inclusivo, desenvolvimento sustentável e bem-estar,
incluindo a proteção do trabalho e do trabalhador;

II – autodeterminação e liberdade de decisão e de escolha;

III – supervisão humana efetiva e adequada no ciclo de vida da


inteligência artificial, considerando o grau de risco envolvido;

IV – não discriminação ilícita e abusiva;

V – justiça, equidade e inclusão;

VI – transparência e explicabilidade, observado o segredo comercial


e industrial;
SF/24936.50354-79
23

VI – diligência devida e auditabilidade ao longo de todo o ciclo de vida


do sistema de inteligência artificial, de acordo com risco envolvido e o estado da
arte do desenvolvimento tecnológico;

VII – confiabilidade e robustez do sistema de inteligência artificial;

VIII – proteção dos direitos e garantias fundamentais, incluindo o


devido processo legal, contestabilidade e contraditório;

IX – prestação de contas, responsabilização e reparação integral de


danos;

X – prevenção, precaução e mitigação de riscos e danos;

XI – não maleficência e proporcionalidade entre os métodos


empregados e as finalidades determinadas e legítimas do sistema de inteligência
artificial;

Página: 23/63 07/06/2024 18:08:13


XII – desenvolvimento e uso ético e responsável da inteligência
artificial;

XIII – governança transparente, participativa e orientada à proteção


de direitos fundamentais individuais, sociais, coletivos e econômicos;

XIV – promoção da interoperabilidade de IA para permitir um acesso


mais amplo e uma inovação colaborativa;

XV – possibilidade e condição de utilização de sistemas e tecnologias


com segurança e autonomia, por pessoa com deficiência, garantida a plena

10fc24eb62579c5510bbb6d66cd2abdbb6633389
acessibilidade à informação e à comunicação; e

XVI – a proteção integral das crianças e dos adolescentes.

Art. 4º Para as finalidades desta Lei, adotam-se as seguintes


definições:

I – sistema de inteligência artificial (IA): sistema baseado em máquina


que, com graus diferentes de autonomia e para objetivos explícitos ou implícitos,
infere, a partir de um conjunto de dados ou informações que recebe, como gerar
resultados, em especial, previsão, conteúdo, recomendação ou decisão que possa
influenciar o ambiente virtual, físico ou real;

II – ciclo de vida: série de fases desde a concepção, planejamento,


desenvolvimento, treinamento, retreinamento, testagem, validação, implantação e
SF/24936.50354-79
24

monitoramento para eventuais modificações e adaptações de um sistema de


inteligência artificial, cuja descontinuidade pode ocorrer em quaisquer das etapas
referidas;

III – sistema de inteligência artificial de propósito geral (SIAPG):


sistema de IA baseado em um modelo treinado com bases de dados em grande
escala, capaz de realizar uma ampla variedade de tarefas distintas e servir
diferentes finalidades, incluindo aquelas para as quais não foram especificamente
desenvolvidos e treinados, podendo ser integrados em diversos sistemas ou
aplicações;

IV – inteligência artificial generativa (IA generativa): sistema de IA


especificamente destinado a gerar ou modificar significativamente, com diferentes
graus de autonomia, texto, imagens, áudio, vídeo ou código de software;

V – desenvolvedor de sistema de inteligência artificial: pessoa natural


ou jurídica, de natureza pública ou privada, que desenvolva um sistema de
inteligência artificial, diretamente ou por encomenda, com vistas a sua colocação

Página: 24/63 07/06/2024 18:08:13


no mercado ou a sua aplicação em serviço por ela fornecido, sob seu próprio nome
ou marca, a título oneroso ou gratuito;

VI – fornecedor: pessoa natural ou jurídica, de natureza pública ou


privada, que disponibiliza e distribui sistema de IA para que terceiro o opere a título
oneroso ou gratuito;

VII – aplicador: pessoa natural ou jurídica, de natureza pública ou


privada, que empregue ou utilize, em seu nome ou benefício, sistema de
inteligência artificial, inclusive configurando, gerenciando, mantendo ou apoiando
com o fornecimento de dados para sua operação e monitoramento;

10fc24eb62579c5510bbb6d66cd2abdbb6633389
VIII – agentes de inteligência artificial: desenvolvedores, fornecedores
e aplicadores que atuem na cadeia de valor e na governança interna de sistemas
de inteligência artificial, nos termos definidos por regulamento;

IX – autoridade competente: entidade da administração pública


federal, dotada de autonomia técnica e decisória, que coordenará o Sistema
Nacional de Regulação e Governança de Inteligência Artificial (SIA);

X – Sistema Nacional de Regulação e Governança de Inteligência


Artificial (SIA): ecossistema regulatório coordenado pela autoridade competente
que tem por finalidade precípua promover e garantir a cooperação e a
harmonização com as demais autoridades setoriais e órgãos reguladores, sem
vínculo de subordinação hierárquica entre eles, e outros sistemas nacionais para a
plena implementação e fiscalização do cumprimento desta Lei em todo o território
nacional com segurança jurídica;
SF/24936.50354-79
25

XI – discriminação abusiva ou ilícita: qualquer distinção, exclusão,


restrição ou preferência, em qualquer área da vida pública ou privada, cujo
propósito ou efeito seja anular ou restringir o reconhecimento, gozo ou exercício,
em condições de igualdade, de um ou mais direitos ou liberdades previstos no
ordenamento jurídico, em razão de características pessoais como origem
geográfica, raça, cor ou etnia, gênero, orientação sexual, classe socioeconômica,
idade, deficiência, religião, profissão ou opiniões políticas;

XII – discriminação indireta abusiva ou ilícita: discriminação que


ocorre quando normativa, prática ou critério aparentemente neutro tem a
capacidade de acarretar desvantagem para pessoa ou grupos afetados, ou as
coloquem em desvantagem, a menos que essa normativa, prática ou critério não
seja abusiva e ilícita;

XIII – mineração de textos e dados: processo de extração e análise,


com alto grau de automação, de grandes quantidades de dados, realizados de
forma direta, nos dados primários, ou indireta, a partir de outra ferramenta, a partir
dos quais são extraídos padrões e correlações que gerarão informações relevantes
para a pesquisa, o desenvolvimento ou a utilização de sistemas de inteligência

Página: 25/63 07/06/2024 18:08:13


artificial;

XIV – pessoa ou grupo afetado: pessoa natural ou grupo de pessoas


que seja direta ou indiretamente impactado por um sistema de inteligência artificial;

XV – avaliação preliminar: processo de autoavaliação prévia à


colocação no mercado ou utilização de um sistema de IA para classificação de seu
grau de risco para fins de cumprimento das obrigações definidas nesta Lei;

XVI – avaliação de impacto algorítmico: análise do impacto sobre os


direitos fundamentais, apresentando medidas preventivas, mitigadoras e de

10fc24eb62579c5510bbb6d66cd2abdbb6633389
reversão dos impactos negativos, bem como medidas potencializadoras dos
impactos positivos de um sistema de IA;

XVII – vulnerabilidade: estado de assimetria agravada de informação


ou de poder que afeta pessoas naturais ou grupos em decorrência de suas
condições cognitivas, sociais, étnicas, econômicas e de idade, entre outras, a
exemplo de crianças, adolescentes, idosos e pessoas com deficiência;

XVIII – ambiente regulatório experimental (sandbox): conjunto de


condições especiais estabelecidas para desenvolver, treinar, validar e testar, por
tempo limitado, um sistema de IA inovador, bem como modelos de negócio e
políticas públicas inovadoras, técnicas e tecnologias experimentais que envolvam
IA, mediante o cumprimento de critérios e de limites previamente estabelecidos e
por meio de procedimento facilitado;
SF/24936.50354-79
26

XIX – estado da arte do desenvolvimento tecnológico: meios técnicos


razoáveis e disponíveis, baseado em evidências científicas, tecnológicas e boas
práticas consolidadas;

XX – efeitos jurídicos relevantes: consequências jurídicas


modificativas, impeditivas ou extintivas negativas que atingem direitos e liberdades
fundamentais;

XXI – conteúdos sintéticos derivados: informações, como imagens,


vídeos, clipes de áudio e texto, que foram significativamente modificadas ou
geradas por sistemas de Inteligência Artificial;

XXXII – integridade informacional: característica de informações que,


em seu conjunto, sejam predominantemente precisas, consistentes e confiáveis;

XXXIII – identificação biométrica: método que envolve o


reconhecimento de características físicas, fisiológicas e comportamentais
humanas, com o propósito de identificar um indivíduo;

Página: 26/63 07/06/2024 18:08:13


XXXIV – autenticação biométrica: método que envolve a comparação
dos dados biométricos armazenados de um indivíduo para confirmar a identidade
do usuário, buscando singularizá-lo;

XXXV – encarregado: pessoa ou comitê indicada pelo agente de


inteligência artificial para atuar como o canal de comunicação com pessoas e
grupos afetados, autoridade competente e demais entidades do SIA, bem como
supervisionar o desenvolvimento e uso ético e responsável de sistemas de
inteligência artificial e em conformidade com as previsões desta Lei;

10fc24eb62579c5510bbb6d66cd2abdbb6633389
XXXVI – autoridade setorial: órgão ou entidade do Poder Executivo
Federal designado para garantir a fiscalização, a regulação e o bom funcionamento
de setor ou atividade econômica, conforme sua competência legal;

XXXVII – sistemas de armas autônomas (SAA): sistemas que, uma


vez ativados, podem selecionar e atacar alvos sem intervenção humana adicional.

CAPÍTULO II
DOS DIREITOS

Seção II
Dos Direitos da Pessoa e do Grupo Afetados por Sistema de IA

Art. 5º A pessoa ou o grupo afetado por sistema de inteligência


artificial, independentemente do seu grau de risco, têm os seguintes direitos, a
serem exercidos na forma e nas condições descritas neste Capítulo:
SF/24936.50354-79
27

I – direito à informação prévia quanto às suas interações com


sistemas de inteligência artificial, de forma acessível, gratuita e de fácil
compreensão, inclusive sobre caráter automatizado da interação, exceto nos casos
em que se trate de sistemas de IA dedicados única e exclusivamente à
cibersegurança e à ciberdefesa;

II – direito à privacidade e à proteção de dados pessoais, em especial


os direitos dos titulares de dados, nos termos da Lei nº 13.709, de 14 de agosto de
2018, e da legislação pertinente;

III – direito à determinação e à participação humana em decisões de


sistemas de inteligência artificial, levando-se em conta o contexto, o nível de risco
do sistema e o estado da arte do desenvolvimento tecnológico;

IV – direito à não-discriminação ilícita e abusiva e à correção de


vieses discriminatórios diretos, indiretos, ilegais ou abusivos;

§ 1º Sem prejuízo do fornecimento de informações de maneira

Página: 27/63 07/06/2024 18:08:13


completa em meio físico ou digital aberto ao público, a informação referida no inciso
I do caput deste artigo será também fornecida, com o uso de ícones ou símbolos
uniformizados facilmente reconhecíveis.

§ 2º Os sistemas de inteligência artificial que se destinem a grupos


vulneráveis deverão, em todas as etapas de seu ciclo de vida, ser transparentes e
adotar linguagem simples, clara e apropriada à idade e capacidade cognitiva, e
implementados considerando o melhor interesse desses grupos.

Seção III
Dos Direitos da Pessoa e Grupos Afetados por Sistema de IA que Produz
Efeitos Jurídicos Relevantes ou de Alto Risco

10fc24eb62579c5510bbb6d66cd2abdbb6633389
Art. 6º A pessoa ou o grupo afetado por sistema de IA que produza
efeitos jurídicos relevantes ou de alto risco tem os seguintes direitos:

I – direito à explicação sobre a decisão, recomendação ou previsão


feitas pelo sistema;

II – direito de contestar e de solicitar a revisão de decisões,


recomendações ou previsões de sistema de inteligência artificial; e

III – direito à intervenção ou revisão humana das decisões, levando-


se em conta o contexto, risco e o estado da arte do desenvolvimento tecnológico;
SF/24936.50354-79
28

Parágrafo único. A explicação solicitada no âmbito do inciso I,


respeitando o segredo comercial e industrial, incluirá informações suficientes e
inteligíveis sobre:

I – as características de funcionamento do sistema, bem como as


consequências previstas de tal decisão para a pessoa afetada;

II – o grau e o nível de contribuição do sistema de inteligência artificial


para a tomada de decisões;

III – os dados processados e a sua fonte, os critérios para a tomada


de decisão e, quando apropriado, a sua ponderação, aplicados à situação da
pessoa afetada;

IV – os mecanismos por meio dos quais a pessoa pode contestar a


decisão; e

V – o nível de supervisão humana e a possibilidade de solicitar

Página: 28/63 07/06/2024 18:08:13


intervenção humana, nos termos desta Lei.

Art. 7º O direito à informação previsto nesta seção será fornecido por


processo gratuito, em linguagem simples, acessível e adequada que facilite que a
pessoa compreenda o resultado da decisão ou previsão em questão, dentro de um
prazo razoável, a depender da complexidade do sistema de inteligência artificial e
do número de agentes envolvidos.

Parágrafo único. A autoridade competente disciplinará prazos e


procedimentos para o exercício do direito à informação, incluindo procedimento
simplificado, considerando, entre outros, os seguintes critérios:

10fc24eb62579c5510bbb6d66cd2abdbb6633389
I – a complexidade dos sistemas de inteligência artificial; e

II – o porte dos agentes.

Art. 8º A supervisão humana de sistemas de inteligência artificial


buscará prevenir ou minimizar os riscos para direitos e liberdades das pessoas que
possam decorrer de seu uso normal ou de seu uso em condições de utilização
indevida razoavelmente previsíveis, viabilizando que as pessoas responsáveis pela
supervisão humana possam:

I – compreender as capacidades e limitações do sistema de


inteligência artificial e controlar devidamente o seu funcionamento, de modo que
sinais de anomalias, disfuncionalidades e desempenho inesperado possam ser
identificados e resolvidos o mais rapidamente possível;
SF/24936.50354-79
29

II – ter ciência da possível tendência para confiar automaticamente ou


confiar excessivamente no resultado produzido pelo sistema de inteligência
artificial;

III – interpretar corretamente o resultado do sistema de inteligência


artificial tendo em conta as características do sistema e as ferramentas e os
métodos de interpretação disponíveis;

IV – decidir, em qualquer situação específica, por não usar o sistema


de inteligência artificial de alto risco ou ignorar, anular ou reverter seu resultado;

V – intervir no funcionamento do sistema de inteligência artificial de


alto risco ou interromper seu funcionamento; e

VI – priorizar o gerenciamento de riscos e impactos irreversíveis ao


desenvolvimento integral, à saúde ou à integridade psíquica especialmente de
grupos vulneráveis.

Página: 29/63 07/06/2024 18:08:13


Parágrafo único. A revisão humana não será exigida caso sua
implementação seja comprovadamente impossível ou que implique esforço
desproporcional, hipóteses em que o agente do sistema de inteligência artificial
implementará medidas alternativas eficazes, a fim de assegurar a reanálise da
decisão contestada, levando em consideração os argumentos suscitados pela
pessoa ou pelo grupo afetado.

Seção III
Disposições Finais

Art. 9º Os agentes de sistema de IA informarão, de forma clara e

10fc24eb62579c5510bbb6d66cd2abdbb6633389
acessível, os procedimentos necessários para o exercício dos direitos descritos
neste capítulo.

Art. 10. A autoridade competente poderá estabelecer, no que couber


e sempre em cooperação institucional formal com as autoridades setoriais do SIA,
diretrizes gerais sobre a forma e as condições de exercício de direitos perante cada
um dos agentes de sistema de IA.

Art. 11. A defesa dos interesses e dos direitos previstos nesta Lei
poderá ser exercida perante o órgão administrativo competente, bem como em
juízo, individual ou coletivamente, na forma do disposto na legislação pertinente
acerca dos instrumentos de tutela individual, coletiva e difusa.
SF/24936.50354-79
30

CAPÍTULO III
DA CATEGORIZAÇÃO DOS RISCOS

Seção I
Avaliação preliminar

Art. 12. Antes de sua introdução e circulação no mercado, emprego


ou utilização, o desenvolvedor e o aplicador de sistemas de inteligência artificial
deverão realizar avaliação preliminar que determinará seu grau de risco, baseando-
se nos critérios previstos neste capítulo e nas boas práticas, de acordo com o
estado da arte e do desenvolvimento tecnológico.

§ 1º Os desenvolvedores de sistemas de inteligência artificial de


propósito geral incluirão em sua avaliação preliminar as finalidades de uso
razoavelmente esperadas e os critérios previstos, respectivamente, nos termos da
Seção III deste Capítulo – Risco Alto Risco, sem prejuízo das disposições indicadas
nos Seção V, do Capítulo IV – Medidas de Governança para Sistemas de
Inteligência de Propósito Geral e Generativas.

Página: 30/63 07/06/2024 18:08:13


§ 2º Os agentes de inteligência artificial devem manter registro e
documentação de todas as avaliações preliminares nos últimos 05 (cinco) anos,
independentemente do grau de risco, para fins de responsabilização e prestação
de contas.

§ 3º Garantido o contraditório e a ampla defesa, a autoridade


competente poderá, em colaboração com as autoridades setoriais do SIA,
determinar a reclassificação do sistema de inteligência artificial, mediante
notificação prévia, bem como determinar, de forma fundamentada, a realização de
avaliação de impacto algorítmico.

10fc24eb62579c5510bbb6d66cd2abdbb6633389
§ 4º Caberá às autoridades setoriais definir as hipóteses em que a
avaliação preliminar será simplificada ou dispensada, observadas as normas gerais
da autoridade competente.

Seção II
Risco Excessivo

Art. 13. São vedados a implementação e o uso de sistemas de


inteligência artificial:

I - que empreguem técnicas subliminares que tenham por objetivo ou


por efeito induzir o comportamento da pessoa natural ou de grupos de maneira que
cause ou seja provável que cause danos à saúde, segurança ou outros direitos
fundamentais próprios ou de terceiros;
SF/24936.50354-79
31

II - que explorem quaisquer vulnerabilidades de pessoa natural ou de


grupos com o objetivo ou o efeito de induzir o seu comportamento de maneira que
cause ou seja provável que cause danos à saúde, segurança ou outros direitos
fundamentais próprios ou de terceiros;

III - pelo poder público, para avaliar, classificar ou ranquear as


pessoas naturais, com base no seu comportamento social ou em atributos da sua
personalidade, por meio de pontuação universal, para o acesso a bens e serviços
e políticas públicas, de forma ilegítima ou desproporcional;

IV - que possibilitem a produção, disseminação ou facilitem a criação


de material que caracterize ou represente abuso ou exploração sexual de crianças
e adolescentes;

V - que avaliem os traços de personalidade, as características ou o


comportamento passado, criminal ou não, de pessoas singulares ou grupos, para
avaliação de risco de cometimento de crime, infrações ou de reincidência;

Página: 31/63 07/06/2024 18:08:13


VI − sistemas de armas autônomas (SAA);

VII - sistemas de identificação biométrica à distância, em tempo real


e em espaços acessíveis ao público, com exceção das seguintes hipóteses:

a) instrução de inquérito ou processo criminal, mediante autorização


judicial prévia e motivada, quando houver indícios razoáveis da autoria ou
participação em infração penal, a prova não puder ser feita por outros meios
disponíveis e o fato investigado não constitua infração penal de menor potencial
ofensivo;

10fc24eb62579c5510bbb6d66cd2abdbb6633389
b) busca de vítimas de crimes, de pessoas desaparecidas ou em
circunstâncias que envolvam ameaça grave e iminente à vida ou à integridade física
de pessoas naturais;

c) flagrante delito de crimes punidos com pena privativa de liberdade


máxima superior a 2 (dois) anos, com imediata comunicação à autoridade judicial.

d) recaptura de réus evadidos, cumprimento de mandados de prisão


e de medidas restritivas ordenadas pelo Poder Judiciário.

Parágrafo Único. O uso de sistemas a que se refere o inciso VII deste


artigo deverá ser proporcional e estritamente necessário ao atendimento do
interesse público, observados o devido processo legal e o controle judicial, bem
como os princípios e direitos previstos nesta Lei, especialmente a garantia contra
a discriminação e a necessidade de revisão da inferência algorítmica pelo agente
público responsável.
SF/24936.50354-79
32

Seção IV
Alto Risco

Art. 14. Consideram-se sistemas de inteligência artificial de alto risco


aqueles desenvolvidos e utilizados para as seguintes finalidades e nos seguintes
contextos:

I – aplicação como dispositivos de segurança na gestão e no


funcionamento de infraestruturas críticas, tais como controle de trânsito e redes de
abastecimento de água e de eletricidade, quando houver risco relevante à
integridade física das pessoas e à interrupção de serviços essenciais;

II – educação e formação profissional, para a determinação de acesso


a instituições de ensino ou de formação profissional ou para avaliação e
monitoramento de estudantes;

III – recrutamento, triagem, filtragem, avaliação de candidatos,


tomada de decisões sobre promoções ou cessações de relações contratuais de

Página: 32/63 07/06/2024 18:08:13


trabalho, repartição de tarefas e controle e avaliação do desempenho e do
comportamento das pessoas nas áreas de emprego, gestão de trabalhadores e
acesso ao emprego por conta própria;

IV – avaliação de critérios de acesso, elegibilidade, concessão,


revisão, redução ou revogação de serviços privados e públicos que sejam
considerados essenciais, incluindo sistemas utilizados para avaliar a elegibilidade
de pessoas naturais quanto a prestações de serviços públicos de assistência e de
seguridade;

V – avaliação e classificação de chamadas, ou determinação de


prioridades para serviços públicos essenciais, tais como de bombeiros e assistência

10fc24eb62579c5510bbb6d66cd2abdbb6633389
médica;

VI – administração da justiça, no que toca o uso sistemas que


auxiliem autoridades judiciárias em investigação dos fatos e na aplicação da lei,
quando houver risco às liberdades individuais e ao Estado democrático de direito,
excluindo-se os sistemas que auxiliem atos e atividades administrativas;

VII – veículos autônomos em espaços públicos, quando seu uso


puder gerar risco relevante à integridade física de pessoas;

VIII – aplicações na área da saúde para auxiliar diagnósticos e


procedimentos médicos, quando houver risco relevante à integridade física e
mental das pessoas;
SF/24936.50354-79
33

IX – estudo analítico de crimes relativos a pessoas naturais,


permitindo às autoridades policiais pesquisar grandes conjuntos de dados,
disponíveis em diferentes fontes de dados ou em diferentes formatos, no intuito de
identificar padrões e perfis comportamentais;

X – investigação por autoridades administrativas para avaliar a


credibilidade dos elementos de prova no decurso da investigação ou repressão de
infrações, para prever a ocorrência ou a recorrência de uma infração real ou
potencial com base na definição de perfis de pessoas singulares;

XI – sistemas de identificação e autenticação biométrica para o


reconhecimento de emoções, excluindo-se os sistemas de autenticação biométrica
cujo único objetivo seja a confirmação de uma pessoa singular específica.

XII – gestão da imigração e controle de fronteiras para avaliar o


ingresso de pessoa ou grupo de pessoas em território nacional; e

XIII – produção, curadoria, difusão, recomendação e distribuição, em

Página: 33/63 07/06/2024 18:08:13


grande escala e significativamente automatizada, de conteúdo por provedores de
aplicação, com objetivo de maximização do tempo de uso e engajamento das
pessoas ou grupos afetados;

Art. 15. Caberá ao SIA regulamentar a classificação da lista dos


sistemas de inteligência artificial de alto risco, bem como identificar novas
hipóteses, levando em consideração a probabilidade e a gravidade dos impactos
adversos sobre pessoa ou grupos afetados, e com base em, pelo menos, um dos
seguintes critérios:

I – a implementação ser em larga escala, levando-se em


consideração o número estimado de pessoas afetadas e a extensão geográfica,

10fc24eb62579c5510bbb6d66cd2abdbb6633389
bem como a sua duração e frequência do uso;

II – o sistema produzir, de forma ilícita ou abusiva, efeitos jurídicos


relevantes e impactar negativamente o acesso a serviços públicos ou essenciais;

III – alto potencial danoso de ordem material ou moral, bem como viés
discriminatório ilegal;

IV – o sistema afetar significativamente pessoas de um grupo


vulnerável;

V – nível de irreversibilidade dos danos;

VI – histórico danoso, de ordem material ou moral;


SF/24936.50354-79
34

VII – grau de transparência, explicabilidade e auditabilidade do


sistema de inteligência artificial, que dificulte significativamente o seu controle ou
supervisão;

VIII – alto potencial danoso sistêmico, tais como à segurança


cibernética, higidez do processo eleitoral e violência contra grupos vulneráveis;

IX – extensão e probabilidade dos benefícios do sistema de


inteligência artificial, incluindo as medidas de mitigação dos riscos adotadas e
possíveis melhorias, de acordo com os princípios e fundamentos desta lei; ou

X – riscos significativos à saúde humana integral – física, mental e


social – nas dimensões individual e coletiva;

XI – risco à integridade da informação, o processo democrático e


pluralismo, como, por exemplo, através da disseminação de desinformação e de
discursos que promovam o ódio ou a violência;

Página: 34/63 07/06/2024 18:08:13


XII – possibilidade de impactar negativamente o desenvolvimento e a
integridade física, psíquica ou moral de crianças e adolescentes; e

Art. 16. A regulamentação da lista e classificação de novas hipóteses


de sistemas de IA de alto risco será precedida de procedimento que garanta
participação social e de análise de impacto regulatório, cabendo:

I – à autoridade competente garantir a aplicação harmônica desta Lei,


expedindo orientações normativas gerais em relação aos impactos dos sistemas
de inteligência artificial sobre os direitos e liberdades fundamentais ou que
produzam efeitos jurídicos relevantes;

10fc24eb62579c5510bbb6d66cd2abdbb6633389
II – às autoridades setoriais, no âmbito de suas atribuições e em
caráter prevalente aos órgãos do SIA, dispor sobre os aspectos técnicos e
específicos de aplicações de IA no mercado regulado, inclusive podendo:

a) estabelecer listas sobre hipóteses classificadas ou não


classificadas como de alto risco;

b) precisar o rol exemplificativo de sistemas de alto risco desta Lei.

§ 1º O SIA deverá considerar o estado da arte do desenvolvimento


tecnológico e evolução e a harmonização das boas práticas setoriais e não setoriais
para fins de monitoramento e reclassificação contínua dos sistemas de inteligência
artificial de alto risco;
SF/24936.50354-79
35

§ 2º O desenvolvedor e o aplicador que considerar que o sistema de


inteligência artificial não se enquadra na classificação de alto risco poderá
apresentar petição fundamentada às autoridades competentes, juntamente com
sua avaliação preliminar, nos termos do regulamento;

§ 3º Não são considerados de alto risco, quando utilizadas para as


finalidades previstas nesse artigo, as tecnologias intermediárias que não
influenciam ou determinem resultado ou decisão.

CAPÍTULO IV
DA GOVERNANÇA DOS SISTEMAS DE INTELIGÊNCIA ARTIFICIAL

Seção I
Disposições Gerais

Art. 17. Os agentes de inteligência artificial estabelecerão estruturas


de governança e processos internos aptos a garantir a segurança dos sistemas e
o atendimento dos direitos de pessoa ou grupos afetados, nos termos previstos no

Página: 35/63 07/06/2024 18:08:13


Capítulo II desta Lei e da legislação pertinente, observados os segredos comerciais
e industriais que incluirão, pelo menos:

I – medidas de transparência quanto ao emprego de sistemas de


inteligência artificial na interação com pessoas naturais;

II – transparência quanto às medidas de governança adotadas no


desenvolvimento e emprego do sistema de inteligência artificial pela organização
em especial para a mitigação e prevenção de potenciais vieses discriminatórios;

III – adoção de medidas adequadas de segurança da informação

10fc24eb62579c5510bbb6d66cd2abdbb6633389
durante todo o ciclo de vida do sistema, em especial contra acessos indevidos,
contra corrupção de dados e para assegurar a precisão e consistência das
informações em testes e validação.

§ 1º As medidas de governança dos sistemas de inteligência artificial


são aplicáveis ao longo de todo o seu ciclo de vida, desde a concepção inicial até
o encerramento de suas atividades e descontinuação.

§ 2º A documentação técnica de sistemas de inteligência artificial de


alto risco será elaborada antes de sua disponibilização no mercado ou de seu uso
para prestação de serviço e será mantida atualizada durante sua utilização.

§ 3º Os agentes de sistemas de IA devem adotar medidas de


conscientização, treinamento e capacitação do seu pessoal e outras pessoas que
se ocupam da operação e utilização de sistemas de IA em seu nome, tendo em
vista os seus conhecimentos técnicos, experiência, educação e formação e o
SF/24936.50354-79
36

contexto em que os sistemas de IA serão utilizados, e considerando as pessoas ou


grupos de pessoas afetadas, com especial atenção para grupos vulneráveis.

§ 4º Caberá às autoridades setoriais definir as hipóteses em que as


obrigações estabelecidas nos incisos do caput serão flexibilizadas ou dispensadas,
observadas as normas gerais da autoridade competente.

§ 5º Na definição das hipóteses de que trata o § 4º do caput, a


autoridade competente deverá levar em consideração, entre outros, os seguintes
fatores:

I – quantidade de pessoas afetadas;

II – o porte econômico do agente, em especial sua qualificação como


micro ou pequena empresa, nos termos da Lei Complementar nº 123, de 14 de
dezembro de 2006, ou como startup, nos termos da Lei Complementar nº 182, de
1º de junho de 2021.

Página: 36/63 07/06/2024 18:08:13


IV – outros critérios a serem definidos em regulamento, em especial
considerando os impactos negativos ainda que não se enquadre como sendo de
alto risco.

Seção II
Medidas de Governança para Sistemas de Alto Risco

Art. 18. Além das medidas indicadas Seção I deste Capítulo, os


agentes de inteligência artificial de sistemas de alto risco adotarão, dentre outras,
as seguintes medidas de governança e processos internos, de acordo com o estado
da arte do desenvolvimento tecnológico e com esforços razoáveis:

10fc24eb62579c5510bbb6d66cd2abdbb6633389
I – indicar um encarregado de governança;

II – documentação, no formato adequado à cada agente de IA e ao


processo de desenvolvimento e à tecnologia usada, a respeito do funcionamento
do sistema e das decisões envolvidas em sua construção, implementação e uso,
considerando todas as etapas relevantes no ciclo de vida do sistema;

III – uso de ferramentas de registro automático da operação do


sistema, de modo a permitir a avaliação de sua acurácia e robustez e a apurar
potenciais resultados discriminatórios, e implementação das medidas de mitigação
de riscos adotadas, com especial atenção para efeitos adversos;

IV – realização de testes para avaliação de níveis apropriados de


confiabilidade, performance consistente, segurança, proteção e robustez conforme
o setor e o tipo de aplicação do sistema de inteligência artificial;
SF/24936.50354-79
37

V – utilizar dados de treinamento, validação e teste que sejam


adequados, representativos, livres de erros e completos, contendo propriedades
estatísticas apropriadas em relação às pessoas afetadas e levando em conta
características e elementos específicos do contexto geográfico, comportamental ou
funcional no qual o sistema de IA de alto risco será utilizado;

VI – registro de fontes automatizadas e do grau de supervisão


humana que tenham contribuído para os resultados apresentados pelos sistemas
IA;

VI – medidas de gestão de dados para mitigar e prevenir vieses


discriminatórios e incentivar diversidade nas equipes de desenvolvimento, bem
como políticas de gestão e governança para promoção da responsabilidade social
e sustentável;

VII – adoção de medidas técnicas para viabilizar a explicabilidade dos


resultados dos sistemas de inteligência artificial e de medidas para disponibilizar
informações adequadas que permitam a interpretação dos seus resultados e

Página: 37/63 07/06/2024 18:08:13


funcionamento, respeitado o sigilo industrial e comercial;

VIII – adoção de procedimentos e mecanismos para notificação de


incidentes e de mau funcionamento do sistema de inteligência artificial;

Parágrafo único. Caberá às autoridades setoriais definir as hipóteses


em que as obrigações estabelecidas nos incisos do caput serão flexibilizadas,
observadas as normas gerais da autoridade competente.

Art. 19. Quando o sistema de Inteligência Artificial gerar conteúdo


sintético, deverá incluir, considerando estado da arte do desenvolvimento
tecnológico, identificador em tais conteúdos para verificação de autenticidade ou

10fc24eb62579c5510bbb6d66cd2abdbb6633389
características de sua proveniência, modificações ou transmissão.

Parágrafo único. A presença do identificador descrito no caput não


supre outros requisitos de informação e transparência, bem como outros
parâmetros a serem definidos em regulamento.

Art. 20. Os desenvolvedores de sistemas de IA de alto risco devem


garantir que seus sistemas estão de acordo com as medidas de governança
definidas em todo o Capítulo IV desta Lei, assim como em outras legislações
pertinentes em especial do seu respectivo setor.
SF/24936.50354-79
38

Seção III
Medidas de Governança Aplicadas pelo Poder Público

Art. 21. Ao desenvolver, contratar ou adotar os sistemas referidos


considerados de alto risco, o poder público deve garantir que:

I – o acesso integral aos bancos de dados no termos da Lei nº 13.709,


de 14 de agosto de 2018, e a plena portabilidade de dados dos cidadãos brasileiros
e da gestão pública;

III – a padronização mínima dos sistemas em termos de sua


arquitetura de dados e metadados, a fim de promover interoperabilidade entre
sistemas e promover uma boa governança de dados;

Art. 22. Adicionalmente às medidas de governança estabelecidas


neste capítulo, todos os entes da Administração Pública direta e indireta,
abrangendo órgãos dos Poderes Legislativo e Judiciário, quando no desempenho
das funções administrativas, e pessoas jurídicas de direito privado responsáveis

Página: 38/63 07/06/2024 18:08:13


pela gestão ou execução de serviços públicos, quando afetas a essas atividades,
desenvolver ou utilizar sistemas de inteligência artificial considerados de alto risco,
adotarão as seguintes medidas:

I – realização de consulta pública sobre a utilização planejada dos


sistemas de inteligência artificial, que possam gerar efeitos discriminatórios, em
especial em populações vulneráveis, com informações sobre os dados a serem
utilizados, parâmetros éticos e técnicos, a lógica geral de funcionamento e
resultados de testes realizados;

II – definição de protocolos de acesso e de utilização do sistema que


permitam o registro de quem o utilizou, para qual situação concreta, e com qual

10fc24eb62579c5510bbb6d66cd2abdbb6633389
finalidade;

III – garantia facilitada e efetiva ao cidadão, perante o poder público,


de direito à explicação e revisão humanas de decisão por sistemas de inteligência
artificial que gerem efeitos jurídicos relevantes ou que impactem significativamente
os interesses do afetado, a ser realizada pelo agente público competente;

IV publicização em veículos de fácil acesso, preferencialmente em


seus sítios eletrônicos, das avaliações preliminares dos sistemas de inteligência
artificial desenvolvidos, implementados ou utilizados pelo poder público da União,
Estados, Distrito Federal e Municípios, independentemente do grau de risco.

§ 1º A utilização de sistemas biométricos deverá observar os


princípios e as medidas de governança previstas nesta Lei e será precedida de
avaliação de impacto algorítmico, observadas as garantias para o exercício dos
SF/24936.50354-79
39

direitos das pessoas ou grupos afetados e a proteção contra a discriminação direta,


indireta, ilegal ou abusiva;

§ 2º Na impossibilidade de eliminação ou mitigação substantiva dos


riscos associados ao sistema de inteligência artificial identificados na avaliação de
impacto algorítmico prevista na Seção IV do Capítulo IV desta Lei, sua utilização
será descontinuada;

§ 3º As medidas previstas no presente artigo aplicam-se igualmente a


sistemas de inteligência artificial utilizados por empresas responsáveis pela gestão
ou execução de serviços públicos.

§ 4º Sistemas de inteligência artificial de alto risco já implementados


pelo poder público quando da publicação da presente Lei deverão se adequar em
prazo razoável, a ser definido pela autoridade competente.

Art. 23. Caberá ao Poder Executivo Federal fixar padrões mínimos de


transparência para os sistemas de IA utilizados por órgãos e entidades do setor

Página: 39/63 07/06/2024 18:08:13


público federal, além de monitorar regularmente o cumprimento dessas obrigações.

Parágrafo único. O Poder Executivo Federal fomentará a


transparência nos sistemas de IA utilizados por órgãos e entidades públicas em
todos os níveis de governo, visando promover e consolidar práticas de governança
responsável e aberta.

Art. 24. Para buscar a mitigação de riscos relacionados à produção e


circulação de conteúdo sintético, o poder público, em conjunto com a iniciativa
privada, sociedade civil, profissionais de pesquisa e desenvolvimento deverão, na
forma da regulamentação, promover capacidades para identificar e rotular
conteúdo sintético produzido por sistemas de IA e estabelecer a autenticidade e a

10fc24eb62579c5510bbb6d66cd2abdbb6633389
proveniência do conteúdo digital produzidos.

Seção IV
Avaliação de Impacto Algorítmico

Art. 25. A avaliação de impacto algorítmico de sistemas de


inteligência artificial é obrigação dos agentes de inteligência artificial, sempre que
o sistema for considerado de alto risco pela avaliação preliminar, nos termos do
art. 12 desta Lei.

Parágrafo único. Os desenvolvedores de sistemas de inteligência


artificial deverão compartilhar com a autoridade competente as avaliações
preliminares e de impacto algorítmico, nos termos do regulamento.
SF/24936.50354-79
40

Art. 26. A avaliação de impacto algorítmico será realizada por


profissional ou equipe de profissionais com conhecimentos técnicos, científicos,
regulatórios e jurídicos necessários e considerando as boas práticas setoriais e
internacionais.

§ 1º Caberá à autoridade competente regulamentar os casos em que


a realização ou auditoria da avaliação de impacto será necessariamente conduzida
por profissional ou equipe de profissionais externos aos agentes de inteligência
artificial.

§ 2º Caberá às agências e órgãos reguladores setoriais regulamentar


os critérios estabelecidos no § 1º, se o sistema de IA for relativo ao mercado
regulado de sua competência, respeitadas as regras gerais emitidas pela
autoridade competente.

Art. 27. A metodologia da avaliação de impacto conterá, ao menos,


as seguintes etapas:

Página: 40/63 07/06/2024 18:08:13


I – preparação;

II – cognição do risco;

III – mitigação dos riscos encontrados;

IV – monitoramento.

§ 1º A avaliação de impacto considerará e registrará, ao menos:

a) riscos a direitos fundamentais conhecidos e previsíveis associados

10fc24eb62579c5510bbb6d66cd2abdbb6633389
ao sistema de inteligência artificial à época em que foi desenvolvido, bem como os
riscos que podem razoavelmente dele se esperar;

b) benefícios associados ao sistema de inteligência artificial;

c) probabilidade, gravidade e a natureza de consequências adversas,


incluindo o número estimado de pessoas potencialmente impactadas e o esforço
necessário para mitigá-las;

d) finalidade e características relevantes de funcionamento do


sistema de inteligência artificial;

e) medidas adotadas para gestão de riscos, garantindo a eliminação


ou redução dos riscos tanto quanto possível por meio de um plano de mitigação e
SF/24936.50354-79
41

controle com metas e responsabilidades estabelecidas para gestão de riscos


residuais;

f) treinamento e ações de conscientização dos riscos associados ao


sistema de inteligência artificial; e

g) medidas de transparência ao público, especialmente aos potenciais


usuários do sistema, a respeito dos riscos residuais, principalmente quando
envolver alto grau de nocividade ou periculosidade à saúde ou segurança dos
usuários, nos termos dos artigos 9º e 10 da Lei nº 8.078, de 11 de setembro de
1990 (Código de Defesa do Consumidor).

§ 1º Em atenção ao princípio da precaução, quando da utilização de


sistemas de inteligência artificial que possam gerar impactos irreversíveis ou de
difícil reversão, a avaliação de impacto algorítmico levará em consideração também
as evidências incipientes, incompletas ou especulativas.

§ 2º A autoridade competente, a partir das diretrizes do Conselho de

Página: 41/63 07/06/2024 18:08:13


Cooperação Regulatória Permanente/CRIA, poderá estabelecer outros critérios e
elementos para a elaboração de avaliação de impacto e a periodicidade de
atualização das avaliações de impacto.

§ 3º Caberá às autoridades setoriais, a partir do estado da arte do


desenvolvimento tecnológico e melhores práticas, a regulamentação da
periodicidade de atualização das avaliações de impacto, considerando o ciclo de
vida dos sistemas de inteligência artificial de alto risco.

§ 4º Os agentes de inteligência artificial que, posteriormente à sua


introdução no mercado ou utilização em serviço, tiverem conhecimento de risco ou
impacto inesperado e relevante que apresentem a direitos de pessoas naturais,

10fc24eb62579c5510bbb6d66cd2abdbb6633389
comunicará o fato imediatamente às autoridades competentes e às pessoas
afetadas pelo sistema de inteligência artificial.

Art. 28. A elaboração da avaliação de impacto deve, sempre que


possível, conforme risco e porte econômico da organização, incluir a participação
pública dos diferentes segmentos sociais afetados, especialmente de grupos
vulneráveis potencialmente afetados pelos sistemas.

Parágrafo único. Caberá às autoridades competentes estabelecer as


hipóteses em que a participação pública referida no caput será dispensada, assim
como as hipóteses em que poderá ser realizada de maneira simplificada, indicando
os critérios para esta participação.
SF/24936.50354-79
42

Art. 29. A avaliação de impacto algorítmico consistirá em processo


interativo contínuo, executado ao longo de todo o ciclo de vida dos sistemas de
inteligência artificial de alto risco, requeridas atualizações periódicas.

§ 1º Considerando eventual regulamentação setorial existente,


caberá à autoridade competente a regulamentação, em colaboração com as
demais entidades do SIA, definir:

a) parâmetros gerais acerca da periodicidade de atualização das


avaliações de impacto que deve, ao menos, ser realizada quando da existência de
alterações significativas nos sistemas;

b) definir as hipóteses em que a avaliação de impacto algorítmico será


simplificada, considerando o tipo de agentes de sistemas de IA.

§ 2º A atualização da avaliação de impacto algorítmico contará


também com participação pública, a partir de procedimento de consulta a partes
interessadas, ainda que de maneira simplificada.

Página: 42/63 07/06/2024 18:08:13


Art. 30. Caso o agente de IA tenha que elaborar relatório de impacto
à proteção de dados pessoais, nos termos da Lei nº 13.709, de 14 de agosto de
2018, a avaliação de impacto algorítmico poderá ser realizada em conjunto com o
referido documento.

Art. 31. As conclusões da avaliação de impacto serão públicas,


observados os segredos industrial e comercial, nos termos do regulamento.

Seção V
Medidas de Governança para Sistemas de Inteligência Artificial de Propósito

10fc24eb62579c5510bbb6d66cd2abdbb6633389
Geral e Generativa

Art. 32. O desenvolvedor de um modelo de IA de propósito geral


deve, antes de o disponibilizar no mercado ou de o colocar em serviço, garantir o
cumprimento dos seguintes requisitos:

I – demonstrar, por meio de testes e análises adequados, a


identificação, a redução e a mitigação de riscos razoavelmente previsíveis para os
direitos fundamentais, o meio-ambiente, à integridade da informação, o processo
democrático e a disseminação de desinformação e de discursos que promovam o
ódio ou a violência antes e ao longo de seu desenvolvimento, com o envolvimento
de especialistas independentes;

II – documentação dos riscos não mitigáveis remanescentes após o


desenvolvimento, bem como sobre os impactos ambientais e sociais;
SF/24936.50354-79
43

III – apenas processar e incorporar conjuntos de dados coletados e


tratados em conformidade com as exigências legais, sujeitos a uma adequada
governança de dados, em especial de acordo com a Lei nº 13.709, de 14 de agosto
de 2018 (Lei Geral de Proteção de Dados Pessoais) e o Capítulo X desta lei;

IV – conceber e desenvolver o sistema de modo a permitir que


alcance, ao longo do seu ciclo de vida, níveis apropriados de desempenho,
previsibilidade, interpretabilidade, corrigibilidade, segurança e a cibersegurança
avaliadas por meio de métodos apropriados, tais como a avaliação de modelos com
o envolvimento de especialistas independentes, análise documentada e testes
extensivos durante a concepção, design e desenvolvimento;

V – conceber e desenvolver recorrendo às normas aplicáveis para


reduzir a utilização de energia, a utilização de recursos e os resíduos, bem como
para aumentar a eficiência energética e a eficiência global do sistema.

VI – elaborar documentação técnica e instruções de utilização


inteligíveis, a fim de permitir que os desenvolvedores posteriores cumpram as suas

Página: 43/63 07/06/2024 18:08:13


obrigações previstas neste capítulo;

VII – estabelecer um sistema de gestão da qualidade para garantir e


documentar a conformidade com o presente artigo, com a possibilidade de
experimentar o cumprimento deste requisito em ambientes de testagem;

§ 1º O cumprimento dos requisitos estabelecidos neste artigo


independe de o sistema ser fornecido como modelo autônomo ou incorporado a
outro sistema de IA ou em produto, ou fornecido sob licenças gratuitas e de código
aberto, como um serviço, assim como outros canais de distribuição.

§ 2º Os desenvolvedores e fornecedores de propósito geral e

10fc24eb62579c5510bbb6d66cd2abdbb6633389
generativa devem, por um período de 10 anos, contados da colocação no mercado
ou da entrada em serviço dos seus modelos, manter a documentação técnica
referida nos incisos V e VI à disposição da autoridade competente;

Art. 33. Os desenvolvedores de modelos de propósito geral e


generativa disponibilizados como serviços, como aqueles fornecidos por meio de
API, devem cooperar com os demais agentes de sistemas de inteligência artificial
ao longo do período em que esse serviço é prestado e apoiado, a fim de permitir
uma mitigação adequada dos riscos.

§ 1° As situações em que a obrigação de cooperação entre agentes


privados de IA prevista no caput não será exigida serão previstas em regulamento
e levarão em consideração:
SF/24936.50354-79
44

I – os variados riscos possíveis para as diversas áreas de utilização


dos serviços de sistemas fundacionais;

II – a capacidade técnica dos agentes de inteligência artificial em


mitigar os riscos de forma individual;

III – a viabilidade econômico-operacional da adoção de mecanismos


tecnológicos que garantam de forma suficiente e segura a mitigação de riscos;

IV – outros critérios relevantes presentes no regulamento.

§ 2° O disposto neste artigo não isenta os agentes de inteligência


artificial das obrigações dispostas na Seção IV do Capítulo X desta Lei.

Art. 34. Caberá à autoridade competente, em colaboração com as


demais entidades do SIA, definir em quais hipóteses tais obrigações serão
simplificadas de acordo com o risco envolvido e o estado da arte do
desenvolvimento tecnológico.

Página: 44/63 07/06/2024 18:08:13


Parágrafo único. Aplica-se no que couber o disposto no capítulo VI –
Boas Práticas e Governança -, cabendo à autoridade competente a aprovação de
códigos de conduta e de autorregulação de sistemas de inteligência artificial de
propósito geral.

CAPÍTULO V
DA RESPONSABILIDADE CIVIL

Art. 32. As hipóteses de responsabilização civil decorrentes de danos


causados por agentes de inteligência artificial no âmbito das relações de consumo

10fc24eb62579c5510bbb6d66cd2abdbb6633389
permanecem sujeitas às regras de responsabilidade previstas no Código de Defesa
do Consumidor e na legislação pertinente, sem prejuízo da aplicação das demais
normas desta Lei.

Art. 33. As hipóteses de responsabilização civil decorrentes de danos


causados por sistemas de inteligência artificial explorados, empregados ou
utilizados, direta ou indiretamente, por agentes de inteligência artificial
permanecem sujeitas às regras de responsabilidade previstas no Código Civil e na
legislação especial, sem prejuízo da aplicação das demais normas desta Lei.

§ 1º A definição, em concreto, do regime de responsabilidade civil


aplicável aos danos causados por sistemas de inteligência artificial deve levar em
consideração os seguintes critérios, salvo disposição em sentido contrário:

I – o nível de autonomia do sistema de inteligência artificial e o seu


grau de risco, conforme definido por esta lei;
SF/24936.50354-79
45

II – a natureza dos agentes envolvidos e a consequente existência de


regime de responsabilidade civil próprio na legislação;

III – grau de impacto sobre pessoa ou grupos afetados, em especial à


luz da violação a direitos fundamentais.

§ 2º Para os fins de aplicação do art. 927, parágrafo único, do Código


Civil, o juiz deverá avaliar a caracterização do alto risco nos termos definidos por
esta Lei e pela regulamentação do SIA.

Art. 34. O juiz inverterá o ônus da prova, a seu critério, quando a


vítima demonstrar sua hipossuficiência para produzir a prova ou quando as
características de funcionamento do sistema de inteligência artificial tornem
excessivamente oneroso para a vítima provar o nexo de causalidade entre a ação
humana e o dano causado pelo sistema.

Art. 35. Os participantes no ambiente de testagem da


regulamentação da inteligência artificial continuam a ser responsáveis, nos termos

Página: 45/63 07/06/2024 18:08:13


da legislação aplicável em matéria de responsabilidade, por quaisquer danos
infligidos a terceiros em resultado da experimentação que ocorre no ambiente de
testagem.

CAPÍTULO VI
BOAS PRÁTICAS E GOVERNANÇA

Seção I
Código de Conduta

Art. 35. Os agentes de inteligência artificial poderão, individualmente

10fc24eb62579c5510bbb6d66cd2abdbb6633389
ou por meio de associações, formular códigos de boas práticas e de governança
que estabeleçam as condições de organização, o regime de funcionamento, os
procedimentos, inclusive sobre reclamações das pessoas afetadas, as normas de
segurança, os padrões técnicos, as obrigações específicas para cada contexto
setorial de implementação, as ações educativas, os mecanismos internos de
supervisão e de mitigação de riscos e as medidas de segurança técnicas e
organizacionais apropriadas para a gestão dos riscos decorrentes da aplicação dos
sistemas no seu respectivo domínio de atividade.

§ 1º Ao se estabelecerem regras de boas práticas, serão


consideradas a finalidade, a probabilidade e a gravidade dos riscos e dos benefícios
decorrentes e os possíveis impactos a grupos vulneráveis, a exemplo da
metodologia disposta na seção IV, do Capítulo IV, desta Lei – Avaliação de Impacto
Algorítmico.
SF/24936.50354-79
46

§ 2º Os desenvolvedores e aplicadores de sistemas de inteligência


artificial, poderão:

I – implementar programa de governança que, de acordo com o


estado da arte do desenvolvimento tecnológico:

a) demonstre o seu comprometimento em adotar processos e


políticas internas que assegurem o cumprimento, de forma abrangente, de normas
e boas práticas relativas à não maleficência e proporcionalidade entre os métodos
empregados e as finalidades determinadas e legítimas dos sistemas de inteligência
artificial;

b) seja adaptado à estrutura, à escala e ao volume de suas


operações, bem como ao seu potencial danoso e de benefícios;

c) tenha o objetivo de estabelecer relação de confiança com a pessoa


e grupos afetados, por meio de atuação transparente e que assegure mecanismos
de participação, a exemplo do disposta na seção IV, do Capítulo IV, desta Lei –

Página: 46/63 07/06/2024 18:08:13


Avaliação de Impacto Algorítmico;

d) esteja integrado a sua estrutura geral de governança e estabeleça


e aplique mecanismos de supervisão internos e externos;

e) conte com planos de resposta para reversão dos possíveis


resultados prejudiciais do sistema de inteligência artificial;

f) seja atualizado constantemente com base em informações obtidas


a partir de monitoramento contínuo e avaliações periódicas; e

10fc24eb62579c5510bbb6d66cd2abdbb6633389
h) a existência de mecanismos e procedimentos internos de
integridade, auditoria e incentivo à denúncia de irregularidades e a aplicação efetiva
de códigos de ética;

§ 3º A adesão voluntária a código de boas práticas e a elaboração de


medidas de governança podem ser consideradas indicativo de boa-fé por parte do
agente e será levada em consideração pela autoridade competente e demais
autoridades setoriais para fins de aplicação de sanções administrativas.

§ 4º Cabe às autoridades setoriais:

I – a aprovação de códigos de boas condutas quanto à esfera de


competência outorgada por lei, devendo sempre informar a autoridade competente;
SF/24936.50354-79
47

II – observar as diretrizes e normas gerais para o procedimento de


análise, publicização e atualização periódica do código de conduta emitidas pela
autoridade competente.

Seção II
Da Autorregulação

Art. 37. Os agentes de inteligência artificial podem associar-se


voluntariamente sob a forma de pessoa jurídica de direito privado sem fins
lucrativos para promover a autorregulação com o objetivo de incentivar e assegurar
melhores práticas de governança ao longo de todo o ciclo de vida de sistemas de
inteligência artificial.

§ 1º A autorregulação pode compreender as seguintes funções:

I – estabelecer critérios técnicos dos sistemas de inteligência artificial


aplicada, inclusive de padronização, prudenciais e de atuação concertada dos
entes associados, desde que não impeçam o desenvolvimento tecnológico e em

Página: 47/63 07/06/2024 18:08:13


conformidade com esta Lei e as normas vinculantes do SIA;

II – compartilhamento de experiências sobre o uso de inteligência


artificial, sendo vedado o compartilhamento de informações concorrencialmente
sensíveis, nos termos da Legislação Concorrencial;

III – definição contextual de estruturas de governança previstas nesta


Lei;

IV – critérios para provocar da autoridade competente e autoridades


demais integrantes do SIA para emprego de medida cautelar e canal de

10fc24eb62579c5510bbb6d66cd2abdbb6633389
recebimento de informações relevantes sobre riscos do uso de inteligência artificial
por seus associados ou qualquer interessado.

§ 2º A associação entre agentes de inteligência artificial para fins de


autorregulação deverá observar os preceitos da Lei nº 12.529, de 30 de novembro
de 2011, vedada qualquer atuação que possa restringir a livre concorrência.

CAPÍTULO VII
DA COMUNICAÇÃO DE INCIDENTES GRAVES

Art. 38. Os agentes de IA comunicarão, em prazo razoável, às


autoridades pertinentes a ocorrência de graves incidentes de segurança, incluindo
quando houver risco à vida e integridade física de pessoas, a interrupção de
funcionamento de operações críticas de infraestrutura, graves danos à propriedade
ou ao meio ambiente, bem como graves violações aos direitos fundamentais, à
integridade da informação, ao processo democrático e à disseminação de
SF/24936.50354-79
48

desinformação e de discursos que promovam o ódio ou a violência, nos termos do


regulamento.

§ 1º A comunicação será devida, após definição, pela autoridade


competente, do prazo e dos critérios de determinação da gravidade do incidente,
observadas as características dos sistemas de inteligência artificial de acordo com
o estado da arte e o desenvolvimento tecnológico.

§ 2º A autoridade competente verificará a gravidade do incidente e


poderá, caso necessário, determinar ao agente a adoção de providências e
medidas para reverter ou mitigar os efeitos do incidente.

Art. 39. Os agentes de IA, adicionalmente às disposições desta lei,


permanecem sujeitos à legislação específica relativa a cibersegurança, proteção
de infraestruturas críticas, proteção à vida e à integridade física de pessoas, danos
a propriedade ou ao meio ambiente, proteção aos direitos fundamentais,
disseminação de desinformação, discursos que provam o ódio ou a violência e a
proteção ao processo democrático.

Página: 48/63 07/06/2024 18:08:13


CAPÍTULO VIII
BASE DE DADOS PÚBLICA DE INTELIGÊNCIA ARTIFICIAL

Art. 39. Cabe à autoridade competente, em colaboração com as


autoridades setoriais, a criação e manutenção de base de dados de inteligência
artificial de alto risco, acessível ao público, que contenha os documentos públicos
das avaliações de impacto, respeitados os segredos comercial e industrial, nos
termos do regulamento, em conformidade com a legislação pertinente, em especial
a Lei nº 13.709, de 14 de agosto de 2018, e a Lei nº 12.527, /2011.

Parágrafo único. A criação da base de dados central disposta no caput

10fc24eb62579c5510bbb6d66cd2abdbb6633389
não impede que as autoridades setoriais do SIA também criem seus respectivos
bancos de IAs de alto risco setoriais, devendo ser mantidas em formato
interoperável e com dados estruturados para facilitar o uso compartilhado.

CAPÍTULO IX
DA SUPERVISÃO E FISCALIZAÇÃO

Seção I
Sistema Nacional de Regulação e Governança de Inteligência Artificial

Art. 40. Fica estabelecido o Sistema Nacional de Regulação e


Governança de Inteligência Artificial – SIA.

§ 1º Integram o SIA:
SF/24936.50354-79
49

I – a autoridade competente a ser designada pelo Poder Executivo


Federal, que é o órgão de coordenação do SIA;

II – autoridades setoriais: órgãos e entidades públicos federais


responsáveis pela regulação de setores específicos da atividade econômica e
governamental;

III – Conselho de Cooperação Regulatória de Inteligência Artificial –


CRIA, observado e limitado ao disposto na Seção III, do Capítulo IX desta Lei.

§ 2° – Ato do Poder Executivo Federal definirá lista dos órgãos e


entidades que irão integrar o SIA, em conformidade com os incisos II e III, do § 1°
deste artigo.

§ 3º. O Conselho terá como atribuição a produção de diretrizes e será


fórum permanente de comunicação, inclusive por meio de acordos de cooperação
técnica, com órgãos e entidades da administração pública responsáveis pela
regulação de setores específicos da atividade econômica a fim de harmonizar e

Página: 49/63 07/06/2024 18:08:13


facilitar o exercício das atribuições da Autoridade Competente.

§ 4º O SIA tem por objetivos e fundamentos:

I – valorizar e reforçar as competências regulatória, sancionatória e


normativa das autoridades setoriais em harmonia com as correlatas gerais da
autoridade competente que coordena o SIA;

II – harmonização e colaboração com órgãos reguladores de temas


transversais;

10fc24eb62579c5510bbb6d66cd2abdbb6633389
§ 5º A autoridade competente coordenará o Conselho de Cooperação
Regulatória de Inteligência Artificial/CRIA disposto na Seção III do Capítulo IX desta
Lei, a fim de harmonizar e facilitar as suas competências regulatórias, fiscalizatória
e sancionatória.

Art. 41. Na qualidade de órgão de coordenação do SIA, compete à


autoridade competente:

I – atuar na representação do Brasil perante organismos


internacionais de inteligência artificial, sob a coordenação do Poder Executivo;

II – expedir, em colaboração com os demais integrantes do SIA,


normas vinculantes de caráter geral sobre os seguintes temas:

a) forma e requisitos das informações a serem publicizadas sobre a


utilização de sistemas de inteligência artificial;
SF/24936.50354-79
50

b) requisitos e procedimento para certificação do desenvolvimento e


utilização de sistemas de alto risco;

c) procedimentos e requisitos para elaboração da avaliação de


impacto algorítmico; e

d) procedimentos para a comunicação de incidentes graves,


notadamente quando afetarem direitos fundamentais.

III – expedir regras gerais sobre IA no país, além de acompanhar a


aplicação de regras específicas, dando suporte aos órgãos setoriais, quando
necessário;

IV – celebrar com os integrantes do SIA acordos regulatórios para


definir regras e procedimentos específicos de coordenação de competências;

V – manifestar-se oportunamente e a seu critério nos processos


normativos dos órgãos e entes estatais reguladores, sem caráter vinculante;

Página: 50/63 07/06/2024 18:08:13


VI – exercer competência normativa, regulatória, fiscalizatória e
sancionatória plena para desenvolvimento, implementação e uso de sistemas de
inteligência artificial para atividades econômicas em que não haja órgão ou ente
regulador setorial específico;

VII – nos ambientes regulatórios experimentais (sandbox regulatório)


que envolvam sistemas de inteligência artificial, conduzidos por autoridades
setoriais, a autoridade competente será cientificada, podendo se manifestar quanto
ao cumprimento das finalidades e princípios desta lei;

10fc24eb62579c5510bbb6d66cd2abdbb6633389
VIII – promover e incentivar o disposto no Capítulo VI – Boas Práticas
e Governança; e

IX – expedir orientações normativas gerais sobre certificados e


acreditação de organismos de certificação com o objetivo de incentivar e assegurar
melhores práticas de governança ao longo de todo o ciclo de vida de sistemas de
inteligência artificial.

Art. 42. Cabe às autoridades setoriais:

I – o exercício da sua competência regulatória, fiscalizatória e


sancionatória para desenvolvimento, implementação e uso de sistemas de
inteligência artificial e que se insere em sua esfera de competência outorgada por
lei;
SF/24936.50354-79
51

II – expedir regras específicas para a aplicação de IA, incluindo


aspectos relacionados a atividades de alto risco, observadas as normas gerais
expedidas pela Autoridade Competente;

III – promover e incentivar o disposto no Capítulo VI – Boas Práticas


e Governança;

IV – acreditar organismos de certificação e certificar sistemas


inteligência artificial com o objetivo de incentivar e assegurar melhores práticas de
governança ao longo de todo o seu ciclo de vida, observadas as diretrizes e normas
gerais emitidas pela autoridade competente;

Art. 43. Caberá à Câmara de Mediação e de Conciliação da


Administração Pública Federal a resolução da controvérsia entre a autoridade
competente e as demais entidades do SIA, nos termos do regulamento.

Seção II
Das Atribuições e Poderes da Autoridade Competente

Página: 51/63 07/06/2024 18:08:13


Art. 44. Cabe à autoridade competente:

I – zelar pela proteção a direitos fundamentais e a demais direitos


afetados pela utilização de sistemas de inteligência artificial;

II – estimular a adoção de boas práticas, inclusive códigos de


conduta, no desenvolvimento e utilização de sistemas de inteligência artificial;

III – promover ações de cooperação com autoridades de proteção e


de fomento ao desenvolvimento e à utilização dos sistemas de inteligência artificial

10fc24eb62579c5510bbb6d66cd2abdbb6633389
de outros países, de natureza internacional ou transnacional;

IV – solicitar, a qualquer momento, às entidades do poder público que


desenvolvam ou utilizem sistemas de inteligência artificial, informe específico sobre
o âmbito, a natureza dos dados e os demais detalhes do tratamento realizado, com
a possibilidade de emitir parecer técnico complementar para garantir o cumprimento
desta Lei;

V – celebrar, a qualquer momento, compromisso com agentes de


inteligência artificial para eliminar irregularidade, incerteza jurídica ou situação
contenciosa no âmbito de processos administrativos, de acordo com o previsto no
Decreto-Lei nº 4.657, de 4 de setembro de 1942;

V – elaborar relatórios anuais acerca de suas atividades;


SF/24936.50354-79
52

VII – realizar auditorias internas de sistemas de inteligência artificial


quando necessária para a aferição de conformidade com esta Lei, garantido o
tratamento confidencial das informações em atenção aos segredos comercial e
industrial;

VIII – determinar ao agente de inteligência artificial que realize


auditoria externa e independente;

IX – credenciar instituições, mediante critérios estabelecidos em


regulamento sujeito a consulta pública, para acesso a dados para fins de auditorias,
garantido a confidencialidade da informação em atenção aos segredos comercial e
industrial;

X – credenciar instituições de pesquisa, mediante critérios


estabelecidos em regulamento sujeito a consulta pública, para acesso a dados para
fins de pesquisa, observados os segredos comercial e industrial, a anonimização e
a proteção de dados pessoais conforme a Lei nº 13.709, de 14 de agosto de 2018;
e

Página: 52/63 07/06/2024 18:08:13


XII – recebimento e tratamento de denúncias anônimas,
estabelecendo mecanismos de reserva de identidade do denunciante.

§ 1° Tanto a autoridade competente quanto eventuais entidades por


ela credenciadas para realização de auditoria e para fins de pesquisa devem
cumprir requisitos de segurança e confidencialidade das informações e de proteção
de dados pessoais, nos termos da Lei nº 13.709, de 14 de agosto de 2018, em
atenção aos segredos comercial e industrial.

§ 2º A autoridade competente, em conjunto com as autoridades


setoriais, poderão realizar investigações conjuntas sobre os sistemas de IA de alto

10fc24eb62579c5510bbb6d66cd2abdbb6633389
risco, em casos de suspeita de violação aos princípios, direitos e deveres previstos
nesta Lei ou na legislação setorial aplicável.

§ 3º Os órgãos e entidades integrantes do SIA devem comunicar


imediatamente ao Conselho Administrativo de Defesa Econômica (CADE)
quaisquer informações identificadas no decurso das atividades de fiscalização que
possam ter interesse potencial para a aplicação da Lei Nº 12.529, de 2011.

§ 4º No exercício das suas atribuições e sempre no limite do que for


pertinente e necessário à apuração de indícios concretos de infrações à ordem
econômica, o CADE poderá ordenar aos desenvolvedores que seja concedido
acesso aos conjuntos de dados de treino, validação e teste utilizados para o
desenvolvimento dos sistemas de IA de alto risco.
SF/24936.50354-79
53

Art. 45. Os regulamentos e as normas editados pela autoridade


competente serão precedidos de consulta pública.

Art. 46. Os agentes de inteligência artificial, em razão das infrações


cometidas às normas previstas nesta Lei, ficam sujeitos às seguintes sanções
administrativas aplicáveis pela autoridade competente:

I – advertência;

II – multa simples, limitada, no total, a R$ 50.000.000,00 (cinquenta


milhões de reais) por infração, sendo, no caso de pessoa jurídica de direito privado,
ou de até 2% (dois por cento) de seu faturamento bruto, de seu grupo ou
conglomerado no Brasil no seu último exercício, excluídos os tributos;

III – publicização da infração após devidamente apurada e confirmada


a sua ocorrência;

IV – proibição ou restrição para participar de regime de sandbox

Página: 53/63 07/06/2024 18:08:13


regulatório previsto nesta Lei, por até cinco anos;

V – suspensão parcial ou total, temporária ou definitiva, do


desenvolvimento, fornecimento ou operação do sistema de inteligência artificial; e

VI – proibição de tratamento de determinadas bases de dados.

§ 1º As sanções serão aplicadas após procedimento administrativo


que possibilite a oportunidade da ampla defesa, de forma gradativa, isolada ou
cumulativa, de acordo com as peculiaridades do caso concreto e considerados os
seguintes parâmetros e critérios:

10fc24eb62579c5510bbb6d66cd2abdbb6633389
I – a gravidade e a natureza das infrações e a eventual violação de
direitos;

II – a boa-fé do infrator;

III – a vantagem auferida ou pretendida pelo infrator;

IV – a condição econômica do infrator;

V – a reincidência;

VI – o grau do dano;

VII – a cooperação do infrator;


SF/24936.50354-79
54

VIII – a adoção reiterada e demonstrada de mecanismos e


procedimentos internos capazes de minimizar riscos, inclusive a análise de impacto
algorítmico e efetiva implementação de código de ética;

IX – a adoção de política de boas práticas e governança;

X – a pronta adoção de medidas corretivas;

XI – a proporcionalidade entre a gravidade da falta e a intensidade da


sanção; e

XII – a cumulação com outras sanções administrativas eventualmente


já aplicadas em definitivo para o mesmo ato ilícito.

§ 2º Antes ou durante o processo administrativo do § 1º deste artigo,


poderá a autoridade competente adotar medidas preventivas, incluída multa
cominatória, observado o limite total a que se refere o inciso II do caput, quando
houver indício ou fundado receio de que o agente de inteligência artificial:

Página: 54/63 07/06/2024 18:08:13


I – cause ou possa causar lesão irreparável ou de difícil reparação; ou

II – torne ineficaz o resultado final do processo.

§ 3º O disposto neste artigo não substitui a aplicação de sanções


administrativas, civis ou penais definidas na Lei nº 8.078, de 11 de setembro de
1990, na Lei nº 13.709, de 14 de agosto de 2018, e em legislação específica.

§ 4º No caso do desenvolvimento, fornecimento ou utilização de


sistemas de inteligência artificial de risco excessivo haverá, no mínimo, aplicação

10fc24eb62579c5510bbb6d66cd2abdbb6633389
de multa e, no caso de pessoa jurídica, a suspensão parcial ou total, provisória ou
definitiva de suas atividades.

§ 5º A aplicação das sanções previstas neste artigo não exclui, em


qualquer hipótese, a obrigação da reparação integral do dano § 6º A autoridade
competente definirá, por meio de regulamento próprio, o procedimento de apuração
e critérios de aplicação das sanções administrativas a infrações a esta Lei, que
serão objeto de:

I – consulta pública e de análise de impacto regulatório, sem prejuízo


das disposições do Decreto-Lei nº 4.657, de 4 de setembro de 1942, Lei nº 9.784,
de 29 de janeiro de 1999, e demais disposições legais pertinentes.

II – publicação de metodologias que apresentará objetivamente as


formas e dosimetrias das sanções, devendo conter fundamentação detalhada de
SF/24936.50354-79
55

todos os seus elementos e demonstrando a observância dos critérios previstos


nesta Lei.

§ 7º O disposto nos incisos I, III, IV, V e VI do caput deste artigo


poderá ser aplicado às entidades e aos órgãos públicos, sem prejuízo do disposto
na Lei nº 8.112, de 11 de dezembro de 1990, na Lei nº 8.429, de 2 de junho de
1992, e na Lei nº 12.527, de 18 de novembro de 2011.

CAPÍTULO X
FOMENTO À INOVAÇÃO SUSTENTÁVEL

Seção I
Ambiente regulatório experimental (sandbox regulatório)

Art. 52. A autoridade competente e as autoridades setoriais que


compõem o SIA deverão promover e autorizar o funcionamento de ambiente
regulatório experimental para inovação em inteligência artificial (sandbox
regulatório de IA) por conta própria ou para as entidades que o requererem e

Página: 55/63 07/06/2024 18:08:13


preencherem os requisitos especificados por esta Lei e em regulamentação,
inclusive em regime de cooperação público-privado.

Art. 53. A autoridade competente e as autoridades setoriais que


compõem o SIA regulamentarão os procedimentos para a solicitação e autorização
de funcionamento de sandboxes regulatórios, podendo limitar ou interromper o seu
funcionamento e emitir recomendações, levando em consideração, dentre outros
aspectos, a preservação de direitos fundamentais, de direitos dos consumidores
potencialmente afetados e a segurança e proteção.

§ 1º As autoridades competentes deverão proporcionar às micro e


pequenas empresas e startups acesso prioritário aos ambientes de testagem, na

10fc24eb62579c5510bbb6d66cd2abdbb6633389
medida em que cumpram as condições de elegibilidade, os critérios de seleção e
demais regulamentos.

§ 2º A autoridade competente poderá criar mecanismos para reduzir


os custos regulatórios das empresas qualificadas na forma do § 1º do caput.

Seção II
Proteção ao trabalho e aos trabalhadores

Art. 55. O Conselho de Cooperação Regulatória de Inteligência


Artificial/CRIA, em cooperação com o Ministério do Trabalho, deverá desenvolver
diretrizes para dentre outros objetivos:
SF/24936.50354-79
56

I – mitigar os potenciais impactos negativos aos trabalhadores, em


especial os riscos de de deslocamento de emprego e oportunidades de carreira
relacionadas à IA;

II – potencializar os potenciais impactos positivos aos trabalhadores,


em especial para melhoria da saúde e segurança do local de trabalho;

III – valorizar os instrumentos de negociações e convenções


coletivas.

Seção III
Medidas de Incentivos e Sustentabilidade

Art. 56. A administração pública no âmbito da União, dos Estados, do


Distrito Federal e dos Municípios fomentará o desenvolvimento produtivo e
tecnológico e a inovação em inteligência artificial.

Parágrafo único. As medidas de fomento de que trata o caput serão

Página: 56/63 07/06/2024 18:08:13


pautadas pelas seguintes diretrizes:

I – promoção da inovação nos setores produtivos, inclusive por meio


da contratação de soluções inovadoras pelo Estado e celebração de parcerias
público-privadas nos termos da Lei nº 11.079, de 30 de dezembro de 2004;

II – investimento em pesquisa para o desenvolvimento de inteligência


artificial no país, voltadas ao contexto socioeconômico brasileiro, prezando pela
autonomia tecnológica e de dados do País e sua inserção e competitividade no
mercado interno e internacional.

10fc24eb62579c5510bbb6d66cd2abdbb6633389
III – financiamento de recursos físicos e tecnológicos de inteligência
artificial de difícil acesso para pequenas e médias empresas e centros de pesquisa
que promovam práticas sustentáveis.

Art. 57. Entidades públicas e privadas devem priorizar a utilização de


sistemas e aplicações de inteligência artificial que visem a eficiência energética e
racionalização do consumo de recursos naturais.

Art. 58. O Conselho de Cooperação Regulatória de Inteligência


Artificial/CRIA, em cooperação com o Ministério do Meio Ambiente e Mudança do
Clima, fomentará pesquisa e o desenvolvimento de programas de certificação para
redução do impacto ambiental de sistemas de inteligência artificial.
SF/24936.50354-79
57

Seção IV
Direitos de autor e conexos

Art. 59. O desenvolvedor e o aplicador de sistema de inteligência


artificial que utilizar conteúdo protegido por direitos de autor e conexos no seu
desenvolvimento deverá informar quais conteúdos protegidos foram utilizados nos
processos de treinamento dos sistemas de inteligência artificial, conforme disposto
em regulamentação.

Art. 60. Não constitui ofensa aos direitos autorais a utilização


automatizada de conteúdos protegidos em processos de mineração de textos e
dados para os fins de pesquisa ou desenvolvimento de sistemas de inteligência
artificial por organizações e instituições de pesquisa, jornalismo, museus, arquivos,
bibliotecas e educacionais, desde que observadas as seguintes condições:

I - o acesso tenha se dado de forma lícita;

II - não tenha fins comerciais;

Página: 57/63 07/06/2024 18:08:13


III - a atividade não tenha como objetivo principal a reprodução,
exibição ou disseminação da obra original em si; e

IV - a utilização de conteúdos protegidos por direitos de autor e


conexos seja feita na medida necessária para o objetivo a ser alcançado, não
prejudique injustificadamente os interesses econômicos dos titulares e não
concorra com a exploração normal das obras.

§1º Eventuais cópias de conteúdos protegidos por direitos de autor e


conexos utilizadas no treinamento de sistemas de inteligência artificial deverão ser

10fc24eb62579c5510bbb6d66cd2abdbb6633389
mantidas em estritas condições de segurança, e unicamente pelo tempo necessário
para a realização da atividade ou para a finalidade específica de verificação dos
resultados.

§2º Este artigo não se aplica a instituições coligadas ou controladas


por entidade com fins lucrativos que forneça ou opere sistemas de IA ou que
tenham, entre elas, participação acionária.

§ 3º A atividade de mineração de textos e dados que envolva dados


pessoais estará sujeita às disposições da Lei no 13.709, de 14 de agosto de 2018
(Lei Geral de Proteção de Dados Pessoais).

Art. 61. O titular de direitos de autor e conexos poderá proibir a


utilização dos conteúdos de sua titularidade no desenvolvimento de sistemas de
inteligência artificial nas hipóteses não contempladas pelo artigo 58 desta Lei, na
forma do regulamento.
SF/24936.50354-79
58

Art. 62. Configura infração à ordem econômica prevista na Lei n°


12.529/2011 a discriminação de titulares de direitos de autor e conexos que
exerçam as prerrogativas estabelecidas nesta Lei por agentes de sistemas de IA
ou por entidades do mesmo grupo econômico.

Parágrafo único. A discriminação prevista no caput levará em


consideração se um agente de sistemas de IA ou integrante do mesmo grupo
econômico prejudicao titular de direitos autorais ou conexos em serviços ou
aplicações oferecidos que não estejam diretamente ligados ao sistema em que o
titular exerceu a prerrogativa.

Art. 63. A autoridade setorial, ouvido o órgão central competente,


estabelecerá um ambiente regulatório experimental (sandbox) para dispor sobre a
transparência e a remuneração devida por agentes de sistemas de inteligência
artificial em relação a conteúdos protegidos por direitos autorais utilizados e
treinados no desenvolvimento de sistemas de inteligência artificial disponibilizados
com finalidade comercial, observado o disposto nesta Seção.

Página: 58/63 07/06/2024 18:08:13


Parágrafo único. O ambiente regulatório experimental (sandbox) deve
assegurar:

I - que os titulares de direitos de autor e conexos tenham plena


capacidade de negociar e autorizar direta ou coletivamente a utilização dos
conteúdos dos quais são titulares, podendo fazê-lo de forma gratuita ou onerosa.

II - que o cálculo da remuneração a que se refere o caput considere


elementos relevantes, tais como o poder econômico do agente de inteligência
artificial, o grau de utilização dos conteúdos e os efeitos concorrenciais dos
resultados em relação aos conteúdos originais utilizados.

10fc24eb62579c5510bbb6d66cd2abdbb6633389
III - a livre negociação na reutilização dos conteúdos protegidos, com
promoção de um ambiente de pesquisa e experimentação que possibilite o
desenvolvimento de práticas inovadoras, e que não restrinjam a liberdade de
pactuação entre as partes envolvidas, nos termos dos arts. 156, 157, 421, 422, 478
e 479 do Código Civil Brasileiro - Lei nº 10.406/2002 e o art. 4º. da Lei 9.610/1998.

IV – que a remuneração se aplicará somente nas hipóteses de


disponibilização comercial dos sistemas de inteligência artificial, em conformidade
com o art. 54 e ressalvadas as hipóteses de usos permitidos previstos no Art. 53.

V – que a remuneração a que se refere este artigo diz respeito:

a) aos titulares de direitos de autor e de direitos conexos nacionais ou


estrangeiros domiciliados no Brasil;
SF/24936.50354-79
59

b) a pessoas domiciliadas em país que assegure a reciprocidade na


proteção, em termos equivalentes a este artigo, aos direitos de autor e aos direitos
conexos de brasileiros, conforme disposto nos artigos 2°, parágrafo único, e 97, §
4°, da Lei n. 9.610, de 1998, sendo vedada a cobrança nos casos em que a
reciprocidade não estiver assegurada.

Art. 64. A utilização de conteúdos de imagem, áudio, voz ou vídeo


que retratem ou identifiquem pessoas naturais pelos sistemas de inteligência
artificial deverá respeitar os direitos da personalidade, na forma prevista no Código
Civil e na legislação pertinente.

Seção IV
Do Incentivo a Microempresas, empresas de Pequeno Porte e Startups

Página: 59/63 07/06/2024 18:08:13


Art. 65. As autoridades competentes deverão definir critérios
diferenciados para sistemas de IA ofertados por microempresas, empresas de
pequeno porte e startups que promovam o desenvolvimento da indústria
tecnológica nacional.

Parágrafo único. Critérios diferenciados devem considerar o impacto


concorrencial das atividades econômicas correlatas, o número de usuários
afetados e a natureza das atividades econômicas exercidas.

CAPÍTULO XI
DA ATUAÇÃO DO PODER PÚBLICO

10fc24eb62579c5510bbb6d66cd2abdbb6633389
Seção I
Disposições Gerais

Art. 66. Constituem diretrizes para a atuação da União, dos Estados,


do Distrito Federal e dos Municípios no desenvolvimento da inteligência artificial no
Brasil:

I – estabelecimento de mecanismos de governança multiparticipativa,


multissetorial transparente, colaborativa e democrática, com a participação do
governo, do setor empresarial, do terceiro setor e da comunidade acadêmica,
especialmente considerando os grupos vulneráveis;

II – promoção da confiança nas tecnologias de inteligência artificial,


com disseminação de informações e de conhecimento sobre seus usos éticos e
responsáveis;
SF/24936.50354-79
60

III – estímulo à capacitação e à preparação das pessoas para a


reestruturação do mercado de trabalho;

VI – promoção da interoperabilidade entre sistemas de IA, inclusive


entre os diferentes âmbitos federativos e diversos setores da sociedade, com a
adoção preferencial de tecnologias, padrões e formatos abertos e livres para evitar
a dependência tecnológica e propiciar a continuidade do emprego dos sistemas
desenvolvidos ou contratados;

VII – publicidade e disseminação de dados, de forma aberta,


estruturada e segura;

VIII – proteção ao meio ambiente e o desenvolvimento sustentável;

X – promoção da cooperação internacional, mediante estímulo ao


compartilhamento do conhecimento sobre sistemas de inteligência artificial e à
negociação de tratados, acordos e padrões técnicos globais que facilitem a
interoperabilidade regulatória e tecnológica.

Página: 60/63 07/06/2024 18:08:13


Art. 67. As aplicações de inteligência artificial de entes do poder
público devem buscar:

I – acessibilidade das pessoas, independentemente de suas


capacidades físico-motoras, perceptivas, sensoriais, intelectuais, mentais, culturais
e sociais, resguardados os aspectos de sigilo e restrições administrativas e legais;

II – compatibilidade tanto com a leitura humana, quanto com o


tratamento automatizado das informações;

10fc24eb62579c5510bbb6d66cd2abdbb6633389
III – facilidade de uso dos serviços de governo eletrônico que utilizem
sistemas de inteligência artificial;

IV – garantia de transparência ativa quanto ao uso de sistemas de


inteligência artificial, principalmente quando utilizadas para tomada de decisão.

VI – promoção da cultura e da língua portuguesa; e

VIII – estímulo ao desenvolvimento de sistemas de inteligência


artificial nacionais, com especial atenção para questões nacionais e nuances
culturais, de idioma e contexto socioeconômico.
SF/24936.50354-79
61

Seção II
Da Formação, da Capacitação e da Educação

Art. 68. A administração pública no âmbito da União, dos Estados, do


Distrito Federal e dos Municípios implementará programas de:

I – educação, formação, capacitação, qualificação e requalificação


técnica e superior em inteligência artificial alinhados às demandas do mercado e
do setor público;

II – letramento digital para os cidadãos fazerem o melhor uso


significativo e com equidade dos sistemas de inteligência artificial disponíveis,
priorizando-se a educação básica;

III – apoio para trabalhadores impactados e possivelmente afetados


pela adoção da IA, com foco na promoção do bem-estar, requalificação, adaptação
às novas exigências do mercado de trabalho e reinserção profissional.

Página: 61/63 07/06/2024 18:08:13


IV – conscientização e capacitação em sustentabilidade no campo
das tecnologias digitais avançadas, com ênfase em práticas responsáveis na
utilização de recursos; e

V – incentivo às instituições de ensino para incluir em seus currículos


disciplinas sobre impacto ambiental e sustentabilidade no desenvolvimento e
operação de sistemas e aplicações de inteligência artificial e outras tecnologias
digitais avançadas.

§ 1º Os programas de que trata o caput buscarão reduzir as


desigualdades, sobretudo entre as diferentes regiões do país.

10fc24eb62579c5510bbb6d66cd2abdbb6633389
§ 2º As medidas de letramento de que trata o inciso II do caput
incluirão noções e competências básicas sobre os sistemas de inteligência artificial
e o seu funcionamento, incluindo os diferentes tipos de produtos e utilizações, os
seus riscos e os benefícios.

Art. 69. O Estado deve, periodicamente, formular e fomentar estudos,


bem como fixar metas, estratégias, planos e cronogramas, referentes ao uso e
desenvolvimento da inteligência artificial no País.

CAPÍTULO XII
DAS DISPOSIÇÕES FINAIS E TRANSITÓRIAS

Art. 70. Os direitos e princípios expressos nesta Lei não excluem


outros previstos no ordenamento jurídico pátrio ou nos tratados internacionais em
que a República Federativa do Brasil seja parte.
SF/24936.50354-79
62

Art. 71. Poder Executivo poderá criar comitê de especialistas e


cientistas de Inteligência Artificial com o objetivo de reunir evidências científicas e
acompanhar tecnicamente e cientificamente o desenvolvimento e aplicação da IA
de forma responsável.

Art. 72. O caput do art. 3º da Lei nº 14.533, de 11 de janeiro de 2023,


passa a vigorar acrescido do seguinte inciso VI:

“Art. 3º.................................................................................
.......
.............................................................................................
.........
VI – letramento algorítmico crítico e computação crítica,
que envolve a leitura sobre as implicações sociais e humanas
das tecnologias, considerando especialmente a inteligência
artificial.
.............................................................................................

Página: 62/63 07/06/2024 18:08:13


”(NR)

Art. 73. O art. 12 da Lei nº 11.540, de 12 de novembro de 2007, passa


a vigorar acrescido do seguinte § 5º:

“Art. 12.................................................................................
........
.............................................................................................
.........
§ 5º Nas hipóteses do inciso I, alíneas “a”, “b” e “d”, será
priorizada a execução de pesquisas e projetos de inteligência

10fc24eb62579c5510bbb6d66cd2abdbb6633389
artificial por parte dos diversos atores no setor público e privado,
ou por meio de parceria público-privada” (NR)

Art. 74. Esta Lei entra em vigor 730 (setecentos e trinta) dias após a
sua publicação.

§ 1º As práticas vedadas pelos artigos 13 e 14, bem como as regras


previstas na Seção V, do Capítulo IV – Medidas de Governança para Sistemas de
Inteligência Artificial Fundacionais, de Propósito Geral e Generativas entram em
vigor após 180 (cento e oitenta) dias da publicação desta Lei.

§ 2º O Capítulo VIII desta Lei entra em vigor na data de publicação


desta Lei, cabendo ao Poder Executivo:

I – designar a autoridade competente no prazo;


SF/24936.50354-79
63

II – fornecer os recursos necessários à autoridade competente para


assegurar segurança jurídica e eficiência na supervisão e fiscalização desta Lei;

§ 3º A seção IV do capítulo X desta Lei entra em vigor na data de


publicação desta Lei.

Página: 63/63 07/06/2024 18:08:13


10fc24eb62579c5510bbb6d66cd2abdbb6633389

Você também pode gostar