Avaliações de impacto da Inteligência Artificial

regulação jurídica no Brasil e União Europeia

Autores

DOI:

https://doi.org/10.63451/dti.v2i21.293

Palavras-chave:

Avaliação de Impacto, Direitos Fundamentais, Inteligência Artificial, Proteção de Dados Pessoais

Resumo

Avaliações de impacto são instrumentos que permitem identificar e avaliar os potenciais danos dos sistemas de Inteligência Artificial (IA). O presente artigo tem como proposta delinear os requisitos legais do Brasil em contraposição com os da União Europeia (UE) para a implementação das avaliações de impacto relacionadas aos sistemas de IA, à luz do Projeto de Lei nº 2338/2023, aprovado no Senado Federal, da Lei Geral de Proteção de Dados (Lei nº 13.709/2018) e dos Regulamentos 2024/1689 e 2016/679 da UE. O objetivo específico é realizar um estudo qualitativo das avaliações de impacto relacionadas aos sistemas de IA. Para tanto, este trabalho se utiliza do método comparativo com procedimento de análise de conteúdo documental e bibliográfico para se permitir o cotejo entre as regulações. A delimitação conceitual de IA e de avaliações de impacto serão analiticamente abordadas. Identificou-se três tipos de avaliações de impacto: algorítmico; sobre os direitos fundamentais; e sobre a proteção de dados. Embora esta última se restrinja ao tratamento de dados pessoais e à gestão de riscos a liberdades e direitos fundamentais afetados em virtude deste tratamento e as duas primeiras à atividade e à gestão dos riscos do próprio sistema de IA frente aos direitos fundamentais, é verificada uma correlação entre as ferramentas, tanto no seu conteúdo quanto no aspecto metodológico, particularmente quando os sistemas de IA efetuam o tratamento de dados pessoais. Ao final, constata-se as avaliações como importantes mecanismos de governança e segurança que devem ser consideradas pelos agentes de IA.

Downloads

Não há dados estatísticos.

Biografia do Autor

Giovanna Voorn Monteiro, Pontifícia Universidade Católica de Campinas

Mestra em Direito pela Pontifícia Universidade Católica de Campinas (2024). Bacharela em Direito, com
ênfase em Direito do Estado, pela mesma Instituição (2021). Advogada OAB / SP. Participa do Eixo II - Inovação Regulatória - do Centro Paulista de Estudos da Transição Energética (CPTEn) da UNICAMP,
sobretudo no âmbito da regulação jurídica da Inteligência Artificial. E-mail: giovanna.vm2@puccampinas.edu.br.

Referências

ALMADA, Marco; PETIT, Nicolas. The EU AI Act: A Medley of Product Safety and Fundamental Rights? RSC Working Paper 2023/59. European University Institute: Robert Schuman Centre for Advanced Studies, Fiesole, n.59, p.1-27, 2023. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4308072. Acesso em 10 mar. 2025.

ASHAR, Amar, et. al. Algorithmic Impact Assessments at Scale: Practitioners’ Challenges and Needs. Journal of Online Trust and Safety, [s.l.], v. 2, n.4, p.1-27, 2024. Disponível em: https://www.tsjournal.org/index.php/jots/article/view/206. Acesso em 10 mar. 2025.

BAUCHSPIESS, Adolfo. Introdução aos Sistemas Inteligentes: Aplicações em Engenharia de Redes Neurais Artificiais, Lógica Fuzzy e Sistemas Neuro-Fuzzy. Brasília, DF: Engenharia Elétrica Universidade de Brasília, 2008. Disponível em: https://www.ene.unb.br/adolfo/Lectures/IC/isi.pdf. Acesso em 10 mar. 2025.

BRASIL. Autoridade Nacional de Proteção de Dados. Análise Preliminar do Projeto de Lei (PL) nº 2338/2023. Brasília, DF: ANPD, 6 jul. 2023a. Disponível em: https://www.gov.br/anpd/pt-br/assuntos/noticias/analise-preliminar-do-pl-2338_2023-formatado-ascom.pdf. Acesso em: 22 fev. 2025.

BRASIL. [Constituição (1988)]. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Presidência da República, [2016]. Disponível em: https://www2.senado.leg.br/bdsf/bitstream/handle/id/518231/CF88_Livro_EC91_2016.pdf. Acesso em 20 jan. 2025.

BRASIL. Laboratório Nacional de Computação Científica. Qual a diferença entre dados pessoais e dados sensíveis? Brasília, DF: LNCC, 20 fev. 2024. Disponível em: https://www.gov.br/lncc/pt-br/centrais-de-conteudo/campanhas-deconscientizacao/campanha-lgpd/2024/qual-a-diferenca-entre-dados-pessoais-e-dadossensiveis#:~:text=Dados%20pessoais%20%C3%A9%20o%20conjunto,gerar%20algum%20tipo%20de%20discrimina%C3%A7%C3%A3o. Acesso em 10 mar. 2025.

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Dispõe sobre a proteção de dados pessoais e altera a Lei nº 12.965, de 23 de abril de 2014 (Marco Civil da Internet). Brasília, DF: Presidência da República [2018]. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm. Acesso em: 10 mar. 2025.

BRASIL. Ministério do Desenvolvimento, Indústria, Comércio e Serviços. O que é avaliação da conformidade? Brasília, DF: INMETRO, 2016. Disponível em: https://www.gov.br/inmetro/pt-br/acesso-a-informacao/perguntas-frequentes/avaliacaoda-conformidade/o-que-e-avaliacao-da-conformidade. Acesso em: 30 jan. 2025.

BRASIL. Projeto de Lei (PL) nº 2338/2023. Dispõe sobre o uso da Inteligência Artificial. Brasília, DF: Presidência da República [2023b]. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 22 fev. 2025.

CURY, Paula Maria Nasser. Métodos de Direito Comparado: desenvolvimento ao longo do século XX e perspectivas contemporâneas. Revista de Estudos Constitucionais, Hermenêutica e Teoria do Direito, [s.l.], v.6, p. 176-185. Disponível em: https://revistas.unisinos.br/index.php/RECHTD/article/view/rechtd.2014.62.06/4303. Acesso em: 25 jun. 2025.

FRANZOLIN, C. J.; MONTEIRO, G. V.; LAURENTIS, L. C. D. A (In) Existência De Um Direito À Explicação De Decisões Automatizadas. THEMIS: Revista da Esmec, [s.l.], v. 23, n. 1, p. 65–91, 2025. Disponível em: https://revistathemis.tjce.jus.br/THEMIS/article/view/1103. Acesso em: 10 mar. 2025.

HOSSAIN, Eklas, et. al. Application of Big Data and Machine Learning in Smart Grid, and Associated Security Concerns: A Review. IEEE, [s.l.], v. 7, p. 13960-13988, 2019. Disponível em: https://ieeexplore.ieee.org/document/8625421. Acesso em: 10 mar. 2025.

JANCZURA, Rosane. Risco ou vulnerabilidade social? Textos & Contextos (Porto Alegre), [S. l.], v. 11, n. 2, p. 301–308, 2012. Disponível em: https://revistaseletronicas.pucrs.br/fass/article/view/12173. Acesso em: 10 mar. 2025.

LEMOS, Alessandra; et. al. Avaliação de Impacto Algorítmico para a proteção dos direitos fundamentais. Relatório. Brasília: Laboratório de Políticas Públicas e Internet (LAPIN), 2023. Disponível em: https://lapin.org.br/wpcontent/uploads/2023/04/RelatorioAIA.pdf. Acesso em: 28 jan. 2025.

MCCARTHY, John; et. al. A Proposal For The Dartmouth Summer Research Project On Artificial Intelligence, [s.l.], p.1-13, 1955. Disponível em: http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf. Acesso em: 23 jan. 2025.

MCCARTHY, John. What is artificial intelligence? Stanford University. Califórnia: Condado de Santa Clara, 2007.

METCALF, Jacob, et. al. Algorithmic Impact Assessments and Accountability: The Coconstruction of Impacts. In: FAccT '21 (Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency). Proceedings [...]. Nova York: Association for Computing Machinery, 2021. Disponível em: https://dl.acm.org/doi/10.1145/3442188.3445935. Acesso em: 10 mar. 2025.

MONTEIRO, Giovanna Voorn. Smart Grids e a (Im) Possibilidade de Revisão de Decisões Automatizadas. 2024. Dissertação (Mestrado em Direito) – Faculdade de Direito, Pontifícia Universidade Católica de Campinas, Campinas, 2024. Disponível em: https://repositorio.sis.puc-campinas.edu.br/xmlui/handle/123456789/17576. Acesso em: 26 jun. 2025.

OECD. OECD/LEGAL/0449: Recommendation of the Council on Artificial Intelligence. Paris: OECD, 22 maio 2019. Disponível em: https://legalinstruments.oecd.org/en/instruments/OECD-LEGAL-0449. Acesso em: 26 jan. 2025.

O’NEIL, Cathy. Algoritmos de destruição em massa: como o big data aumenta a desigualdade e ameaça à democracia. 1. ed. Santo André: Editora Rua do Sabão, 2020.

SETZER, Valdemar W. Data, Information, Knowledge and Competence. In: 3RD CONTECSI (INTERNATIONAL CONFERENCE ON INFORMATION SYSYTEMS). Anais [...]. São Paulo: Universidade de São Paulo, 2006. Disponível em: https://www.tecsi.org/contecsi/index.php/contecsi/3contecsi/paper/view/1995/1109. Acesso em: 23 jan. 2025.

UNESCO. Recomendação sobre a Ética da Inteligência Artificial. Paris: UNESCO, 23 nov. 2021. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000381137_por. Acesso em: 26 jan. 2025.

UNIÃO EUROPEIA. [Carta dos Direitos Fundamentais (2012)]. Carta Dos Direitos Fundamentais da União Europeia de 2012. Bruxelas: Parlamento, Conselho e Comissão Europeia. Disponível em: https://www.europarl.europa.eu/charter/pdf/text_pt.pdf. Acesso em: 12 fev. 2025.

UNIÃO EUROPEIA. Regulamento (UE) 2016/679 do Parlamento Europeu e do Conselho, de 27 de abril de 2016. Relativo à proteção das pessoas singulares no que diz respeito ao tratamento de dados pessoais e à livre circulação desses dados e que revoga a Diretiva 95/46/CE (Regulamento Geral sobre a Proteção de Dados). Bruxelas: Parlamento Europeu e do Conselho [2018]. Disponível em: https://eurlex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:32016R0679. Acesso em: 26 jan. 2025.

UNIÃO EUROPEIA. Regulamento (UE) 2024/1689 do Parlamento Europeu e do Conselho, de 13 de junho de 2024. Relativo à criação de regras harmonizadas em matéria de inteli-gência artificial e que altera os Regulamentos (CE) n. 300/2008, (UE) n. 167/2013, (UE) n. 168/2013, (UE) 2018/858, (UE) 2018/1139 e (UE) 2019/2144 e as Diretivas 2014/90/UE, (UE) 2016/797 e (UE) 2020/1828 (Regulamento da Inteligência Artificial). Bruxelas: Parla-mento Europeu e do Conselho [2024]. Disponível em: https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?uri=OJ:L_202401689. Acesso em: 26 jan. 2025.

UNIÃO EUROPEIA. Verificador de conformidade com o Ato de IA da UE. Bruxelas: EU Artificial Intelligence Act and Future of Life Institute (FLI), 2024. Disponível em:https://artificialintelligenceact.eu/pt/assessment/verificador-deconformidade-com-a-lei-da-ue/. Acesso em: 1 fev. 2025.

WACHTER, Sandra; MITTELSTADT, Brent; RUSSELL, Chris. Bias Preservation in Machine Learning: The Legality of Fairness Metrics Under EU Non-Discrimination Law. West Virginia Law Review, Morgantown, v.123, n. 3, p.1-51, 2021. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3792772. Acesso em 10 mar. 2025.

WANG, Chenyue, et. al. The artificial intelligence divide: Who is the most vulnerable? New Media & Society, [s.l.], v.0, n.0, [s.p.], 2024. Disponível em: https://journals.sagepub.com/doi/epub/10.1177/14614448241232345. Acesso em 10 mar. 2025.

WATKINS, Elizabeth Anne, et. al. Governing Algorithmic Systems with Impact Assessments: Six Observations. In: AIES '21: Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society. Proceedings [...]. Nova York: Association for Computing Machinery, 2021. Disponível: https://dl.acm.org/doi/10.1145/3461702.3462580. Acesso em 10 mar. 2025.

WORLD ECONOMIC FORUM. Global Risks Report 2024. Disponível em: https://www3.weforum.org/docs/WEF_The_Global_Risks_Report_2024.pdf. Acesso em 26 jan. 2025.

ZWEIGERT, Konrad; KÖTZ, Hein. Einführung in die Rechtsvergleichung auf dem Gebiete des Privatrechts. 3. ed. Tübingen: Mohr Siebeck, 1996.

Downloads

Publicado

01-10-2025

Como Citar

MONTEIRO, Giovanna Voorn. Avaliações de impacto da Inteligência Artificial: regulação jurídica no Brasil e União Europeia. Direito & TI, [S. l.], v. 2, n. 21, p. 1–24, 2025. DOI: 10.63451/dti.v2i21.293. Disponível em: https://direitoeti.com.br/direitoeti/article/view/293. Acesso em: 2 out. 2025.

Edição

Seção

Artigos