Reunir, sistematizar e tornar acessíveis evidências concretas de danos causados por sistemas de inteligência artificial (IA), com o objetivo de qualificar o debate público e ampliar a discussão sobre danos causados por usos de sistemas de inteligência artificial no Brasil, ampliando esforços nacionais e internacionais de regulação e defesa de direitos.
Essa é uma iniciativa do projeto IA com Direitos.
Os impactos da IA deixaram de ser hipótese e se tornaram parte do cotidiano digital, principalmente os impactos negativos. Casos de discriminação algorítmica, violações de privacidade, desinformação automatizada, impactos ambientais e concentração de poder das plataformas estão amplamente documentadas - com efeitos particularmente graves em contextos de maior vulnerabilidade. Diante desse cenário, a Biblioteca de Danos em IA traz um acervo compacto qualificado de casos reais e verificáveis de danos causados por sistemas de IA. Mais do que um repositório, a iniciativa busca oferecer uma ferramenta visual e acessível que sirva de base para os debates do PL 2338 na Câmara dos Deputados para uma construção de um marco regulatório mais justo e inclusivo.
A Biblioteca de Danos em IA reúne casos concretos de impactos negativos causados por sistemas de inteligência artificial. O dano é definido como efeito adverso, documentado e verificável, que neste caso o dano em IA afete direitos fundamentais, trabalho, meio ambiente, democracia, segurança pública, crianças e adolescentes ou direitos autorais. A definição é importante porque demonstra que os riscos da IA já se materializam hoje, deixando de ser hipóteses futuras e tornando-se problemas reais que exigem respostas regulatórias. O objetivo é mostrar esses impactos e oferecer evidências para subsidiar o debate do PL 2338/2023.
A coleta de dados ocorreu entre junho de 2024 e fevereiro de 2026 [contínua] e usou apenas fontes públicas. Foram consideradas reportagens jornalísticas e investigações de veículos como A Pública, Intercept, Piauí, G1, Folha, DW e MIT Tech Review, além da leitura de documentos oficiais como relatórios, pareceres e ações judiciais, além de estudos acadêmicos, pesquisas de campo e testemunhos divulgados em veículos confiáveis. A busca foi orientada por palavras-chave como discriminação algorítmica, privacidade de dados, desinformação automatizada, impacto ambiental, direitos autorais e modelos generativos, transparência e auditoria algorítmica, responsabilidade em sistemas de alto risco.
Na curadoria e seleção, apenas foram incluídos casos públicos, verificáveis e bem documentados. O material foi revisado para garantir diversidade temática e representatividade. Cada caso foi sistematizado em uma base de dados padronizada, contendo título, descrição, link público para a fonte, imagem ilustrativa e referência cruzada aos artigos ou dispositivos relevantes do PL 2338/2023.
Para fins analíticos e de sistematização, os casos foram organizados em quatro tipologias principais de dano, que buscam refletir a pluralidade de impactos provocados por sistemas de IA:
A base é continuamente validada e atualizada para manter relevância política e social. Esse processo garante que a Biblioteca acompanhe as discussões legislativas em curso. Todo o trabalho é baseado exclusivamente em dados públicos, o que assegura transparência, possibilidade de verificação independente e legitimidade da iniciativa como instrumento de intervenção e qualificação do debate público sobre IA no Brasil.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Clique na imagem para acessar.
Ajude a fortalecer a Biblioteca de Danos em IA enviando casos reais, públicos e verificáveis de impactos negativos causados por sistemas de inteligência artificial.
O que é “dano” aqui?
Qualquer efeito adverso, documentado e verificável, que afete:
direitos fundamentais, trabalho, meio ambiente, democracia,
segurança pública, crianças e adolescentes, ou direitos autorais.
Como funciona
• Você não precisa se identificar.
• Aceitamos apenas casos com fonte pública (ex.: reportagem, decisão oficial, relatório, estudo).
• Prioridade para fatos reportados a partir de junho de 2024 (pode enviar fora desse período; avaliaremos a pertinência).
• Nossa equipe valida, cruza fontes e publica de forma sintetizada na Biblioteca.
Antes de enviar, confira:
• O caso tem link público?
• Dá para indicar quando foi reportado (data da primeira publicação)?
• Há local (cidade/estado/país) ou é “global”?
• Você consegue classificar o tema (ex.: desinformação, reconhecimento facial, direitos autorais, trabalho, impacto ambiental, segurança pública, crianças e adolescentes)?
Não envie dados pessoais sensíveis desnecessários. Não anexe conteúdo ilegal (ex.: imagens íntimas ou de abuso). Se o caso envolver risco imediato, procure as autoridades competentes.
Obrigado por contribuir!
Recebemos seu caso. Vamos verificar as fontes, cruzar informações e, se validado, incorporá-lo à Biblioteca de Danos em IA. Se você deixou um contato, podemos escrever para tirar dúvidas.
Essa é uma iniciativa do projeto IA com Direitos.
Entre em contato através de imprensa@dataprivacybr.org
Termos de Uso | Política de Privacidade e Proteção de Dados Pessoais
A Data Privacy Brasil é uma organização que nasce da união entre uma escola e uma associação civil em prol da promoção da cultura de proteção de dados e direitos digitais no Brasil e no mundo. Para isso, com o apoio de uma equipe multidisciplinar, realizamos formações, eventos, certificações, consultorias, conteúdos multimídia, pesquisas de interesse público e auditorias cívicas para promoção de direitos em uma sociedade datificada marcada por assimetrias e injustiças. Por meio da educação, da sensibilização e da mobilização da sociedade, almejamos uma sociedade democrática onde as tecnologias estejam a serviço da autonomia e dignidade das pessoas.