Use este identificador para citar ou linkar para este item: http://hdl.handle.net/11624/4267
Autor(es): Paulo, Lucas Moreschi
Título: Discriminação algorítmica e proteção de grupos em situação de vulnerabilidade pela jurisdição constitucional : dever de proteção estatal à luz da lei material da ponderação.
Data do documento: 2026
Resumo: A pesquisa vincula-se ao Programa de Pós-Graduação em Direito da Universidade de Santa Cruz do Sul, na Área de Concentração em Direitos Sociais e Políticas Públicas e na Linha de Pesquisa Dimensões Instrumentais das Políticas Públicas, com ênfase no Controle Jurisdicional na efetivação de direitos fundamentais, ao articular constitucionalismo e direitos fundamentais com os desafios da inteligência artificial em um novo contexto discriminatório. A tese investiga a reprodução de discriminações estruturais por sistemas algorítmicos e propõe um arranjo normativo-hermenêutico para sua tutela, com ênfase na proteção de grupos em situação de vulnerabilidade. Questiona-se inicialmente em que medida e por quais parâmetros interpretativos a jurisdição constitucional deve proteger grupos em situação de vulnerabilidade contra discriminações algorítmicas, calibrando transparência/explicabilidade e segredo comercial-algorítmico? Para tanto, parte-se do mapeamento do fenômeno e de suas causas — seleção de variáveis, aprendizagem a partir de bases enviesadas, opacidades de modelo e governança — para demonstrar que a opacidade técnica não é acidente, mas expressão de racionalidade tecnocrática que demanda respostas jurídicas específicas. No plano constitucional, articula-se o dever estatal de proteção com a renovada dimensionalidade da igualdade e da não discriminação em ambiente de decisões automatizadas; no plano infraconstitucional, mobilizam-se os princípios e mecanismos da LGPD (art. 6º e art. 20) e a exigência de motivação adequada (CPC, art. 489, § 2º) como base para standards de prevenção, transparência e revisão. Utiliza-se, em um primeiro momento, de abordagem fenomenológica, através de revisão bibliográfica, para apreender, em sua inteireza, a emergência de uma vulnerabilidade jurídico-tecnológica nas estruturas decisórias digitais – evitando reduzi-la, aprioristicamente, a categorias jurídicas consolidadas; em seguida, adota se método dedutivo, partindo de premissas normativo-constitucionais para derivar conclusões específicas acerca dos contornos jurídicos exigíveis da atuação jurisdicional diante de violações praticadas por agentes automatizados. Metodologicamente, adota-se a lei material da ponderação, a partir das elaborações de Robert Alexy, para construir um modelo decisório que gradua a intervenção jurisdicional, integrando a fórmula do peso a partir de sua preocupação com o grau de certeza empírica e normativa (C), alocando ônus probatórios dinâmicos em contextos de assimetria informacional. O procedimento viabiliza a calibração da colisão explicabilidade/transparência versus segredo comercial-algorítmico por critérios reproduzíveis e auditáveis, permitindo acesso suficiente ao itinerário lógico-decisório sem desproteger os direitos da desenvolvedora. Resulta daí uma regra de decisão: quanto maior a interferência (I) e o peso abstrato (PeA) do princípio que cede, tanto maior deve ser o C exigido das premissas justificadoras e tanto mais ampla a abertura informacional, escalonadas por A1–A3. A contribuição reside em oferecer critérios operacionais e verificáveis para decisões judiciais sobre discriminação algorítmica — reduzindo assimetrias informacionais, fortalecendo a efetividade da igualdade material e consolidando uma cultura de justificação pública das escolhas automatizadas.
Resumo em outro idioma: This research is linked to the Postgraduate Program in Law at the University of Santa Cruz do Sul, within the Concentration Area of Social Rights and Public Policies and the Research Line “Instrumental Dimensions of Public Policies,” with an emphasis on Judicial Control in the enforcement of fundamental rights, by articulating constitutionalism and fundamental rights with the challenges of artificial intelligence in a new discriminatory context. The thesis investigates the reproduction of structural discrimination by algorithmic systems and proposes a normative–hermeneutic framework for their protection, with an emphasis on safeguarding groups in situations of vulnerability. It initially asks to what extent, and by which interpretive parameters, constitutional adjudication should protect groups in situations of vulnerability against algorithmic discrimination, calibrating transparency/explainability and trade secret/algorithmic secrecy. To that end, it begins by mapping the phenomenon and its causes—variable selection, learning from biased datasets, model and governance opacity—to show that technical opacity is not an accident but an expression of technocratic rationality that calls for specific legal responses. At the constitutional level, it articulates the State’s duty to protect with the renewed dimensionality of equality and non-discrimination in an environment of automated decision-making; at the infra constitutional level, it mobilizes the principles and mechanisms of the LGPD (Arts. 6 and 20) and the requirement of adequate reasoning (CPC, Art. 489, § 2) as the basis for standards of prevention, transparency, and review. First, a phenomenological approach is employed, through a literature review, to apprehend, in its entirety, the emergence of a legal-technological vulnerability within digital decision structures – avoiding, a priori, its reduction to established legal categories; next, a deductive method is adopted, starting from normative-constitutional premises to derive specific conclusions regarding the legally enforceable contours of judicial action in the face of violations committed by automated agents. Methodologically, the material law of balancing is adopted, drawing on Robert Alexy’s elaborations, to construct a decision model that grades judicial intervention, integrating the formula of weight in light of its concern with the degree of empirical and normative certainty (C), and allocating dynamic burdens of proof in contexts of informational asymmetry. The procedure enables the calibration of the collision between explainability/transparency and trade secret/algorithmic secrecy by means of reproducible and auditable criteria, allowing sufficient access to the logical-decisional itinerary without undermining the developer’s rights. From this follows a decision rule: the greater the interference (I) and the abstract weight (PeA) of the principle that yields, the greater must be the C required of the justifying premises and the broader the informational openness, tiered by A1–A3. The contribution lies in offering operational and verifiable criteria for judicial decisions on algorithmic discrimination—reducing informational asymmetries, strengthening the effectiveness of substantive equality, and consolidating a culture of public justification for automated choices.
Nota: Inclui bibliografia.
Instituição: Universidade de Santa Cruz do Sul
Curso/Programa: Programa de Pós-Graduação em Direito
Tipo de obra: Tese de Doutorado
Assunto: Direitos fundamentais
Discriminação
Algoritmos
Inteligência artificial
Orientador(es): Leal, Mônia Clarissa Hennig
Coorientador(es): Caño, Carlos Ignácio Aymerich
Aparece nas coleções:Programa de Pós-Graduação em Direito – Mestrado e Doutorado

Arquivos associados a este item:
Arquivo TamanhoFormato 
Lucas Moreschi Paulo.pdf1.99 MBAdobe PDFVisualizar/Abrir


Este item está licenciado sob uma Licença Creative Commons Creative Commons