http://repositorio.unb.br/handle/10482/45316
Fichier | Description | Taille | Format | |
---|---|---|---|---|
2022_JoséRenatoLaranjeiradePereira.pdf | 1,86 MB | Adobe PDF | Voir/Ouvrir |
Titre: | Openness doesn’t hurt : enforcing qualified machine-learning transparency for data protection through responsive regulation |
Autre(s) titre(s): | Abertura não faz mal : promovendo transparência qualificada de sistemas de aprendizagem de máquina para proteção de dados por meio da regulação responsiva |
Auteur(s): | Pereira, José Renato Laranjeira de |
Orientador(es):: | Aranha, Márcio Iorio |
Assunto:: | Aprendizagem de máquina Transparência Inteligência artificial - legislação Regulação responsiva |
Date de publication: | 16-déc-2022 |
Data de defesa:: | 5-aoû-2022 |
Référence bibliographique: | PEREIRA, José Renato Laranjeira de. Openness doesn’t hurt: enforcing qualified machine-learning transparency for data protection through responsive regulation. 2022. 182 f., il. Dissertação (Mestrado em Direito) — Universidade de Brasília, Brasília, 2022. |
Résumé: | Sistemas de aprendizagem de máquina (machine learning, ML) têm sido cada vez mais utilizados em processos de tomada de decisões que afetam aspectos-chave das vidas de pessoas. Entretanto, usuários e reguladores pouco sabem sobre como esses modelos funcionam, já que apenas informações escassas são divulgadas por seus desenvolvedores e operadores. A transparência dessas tecnologias surge assim como uma exigência feita por diferentes grupos de especialistas para que os usuários tenham controle sobre o quanto suas vidas devem depender dos julgamentos realizados por sistemas de machine learning, mas também para que reguladores responsabilizem os responsáveis por eles pelos danos que vierem a incorrer. Esta dissertação traça assim uma análise comparativa sobre como as leis brasileira e europeia de proteção de dados abordam a transparência de machine learning e avalia a adequação das estratégias participativas da teoria da regulação responsiva e de sua estrutura de incentivos para promover sistemas mais inteligíveis. |
Abstract: | Machine-learning (ML) models have been increasingly applied to make decisions that affect key aspects of people’s lives. However, users and regulators are barely aware of how these models work, as only scarce information is disclosed by developers and operators on this matter. ML transparency emerges thus as a recurrent demand made by stakeholders for users to gain control over how much their lives should rely on judgements carried out by machines, for regulators to render those responsible for them accountable for incurred damages and for scholars to understand algorithms' impacts in society. This dissertation thus traces a comparative analysis on how the Brazilian and European data protection legal frameworks address ML transparency and assesses the adequateness of the responsive regulation theory’s participatory strategies and incentives framework for promoting more intelligible systems. |
metadata.dc.description.unidade: | Faculdade de Direito (FD) |
Description: | Dissertação (mestrado) — Universidade de Brasília, Faculdade de Direito, Programa de Pós-Graduação em Direito, 2022. |
metadata.dc.description.ppg: | Programa de Pós-Graduação em Direito |
Licença:: | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. |
Collection(s) : | Teses, dissertações e produtos pós-doutorado |
Tous les documents dans DSpace sont protégés par copyright, avec tous droits réservés.