Skip navigation
Use este identificador para citar ou linkar para este item: http://repositorio.unb.br/handle/10482/42507
Arquivos associados a este item:
Arquivo Descrição TamanhoFormato 
2021_RaulCarvalhodeSouza.pdf3,13 MBAdobe PDFVisualizar/Abrir
Registro completo de metadados
Campo DCValorIdioma
dc.contributor.advisorFaleiros, Thiago de Paulo-
dc.contributor.authorSouza, Raul Carvalho de-
dc.date.accessioned2021-12-01T17:03:44Z-
dc.date.available2021-12-01T17:03:44Z-
dc.date.issued2021-12-01-
dc.date.submitted2021-07-28-
dc.identifier.citationSOUZA, Raul Carvalho de. Uma comparação entre métodos e classificadores em documentos jurídicos de atividades processuais repetitivas na PGDF. 2021. 94 f., il. Dissertação (Mestrado Profissional em Computação Aplicada)—Universidade de Brasília, Brasília, 2021.pt_BR
dc.identifier.urihttps://repositorio.unb.br/handle/10482/42507-
dc.descriptionDissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2021.pt_BR
dc.description.abstractOs processos judiciais repetitivos, aqueles que exigem muitas ações manuais e menos açõesintelectuais humanas, são uma realidade maçante nos trabalhos da Procuradoria Geral doDistrito Federal (PGDF). Geralmente esses processos repetitivos são causas conhecidasque o Governo do Distrito Federal (GDF) faz parte em muitas ações, corriqueiramentepeticionadas de uma só vez. Essa repetitividade causa muito trabalho manual, desperdíciode recursos e alta contenção desses processos para a identificação e resposta por parte daPGDF. Por isso, há necessidade de otimizar recursos e acelerar o andamento dos processos,bem como as análises relacionadas a eles, para tentar mudar essa situação de contenção.Assim, este trabalho busca a assistência do computador em tarefas rotineiras de PGDF,que atualmente gastam muito dinheiro em recursos humanos para agrupar e classificaresses processos repetitivos. A expectativa da organização com os avanços deste trabalho éde se evoluir as automatizações para acelerar os processos e economizar recursos, já que ocomputador deve realizar as tarefas de classificação em uma velocidade maior, em maiorvolume do que o processo atual e com o uso de menos pessoas. A principal motivaçãodeste trabalho é encontrar um método eficiente de classificação de documentos jurídicos.Para este fim, além de experimentos com diversos algoritmos de aprendizagem de máquinapara classificação em diversos dados da PGDF, iniciando pelos precatórios, é feita umacomparação entre os melhores modelos que classificaram documentos jurídicos na PGDF.O esforço utilizado neste trabalho é para encontrar o melhor método dentro do contextodo PGDF para a classificação de documentos jurídicos. O trabalho conseguiu acelerar oprocesso de classificação.pt_BR
dc.language.isoPortuguêspt_BR
dc.rightsAcesso Abertopt_BR
dc.titleUma comparação entre métodos e classificadores em documentos jurídicos de atividades processuais repetitivas na PGDFpt_BR
dc.typeDissertaçãopt_BR
dc.subject.keywordAlgoritmos combinadospt_BR
dc.subject.keywordClassificação de documentos jurídicospt_BR
dc.subject.keywordAprendizagem de máquinapt_BR
dc.rights.licenseA concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data.pt_BR
dc.description.abstract1Repetitive lawsuits, those that require a lot of manual work and less human intellectualactivity, are a massive reality in the Federal District Attorney General (PGDF) day byday. Generally, these repetitive lawsuits are known litigation issues in which the PGDFis part, routinely petitioned at once. This repetitiveness lawsuits causes a lot of manualwork, waste of resources and high contention of these judicial processes, principally, forthe identification and response by PGDF lawyers. Therefore, there is a need to optimizeresources and speed up these judicial processes, as well as the analysis related to them, inorder to try to change this contention situation. Thus, this work seeks computer assistancein routine tasks in PGDF, which currently spend a lot of money on human resources togroup and classify these repetitive judicial processes without due velocity and precision.The expectation is to speed up the process of work and save resources, since the computermust perform the classification tasks at a higher speed, in greater volume than the currentprocess and using fewer people. The main motivation of this work would be to find anefficient method of classifying legal documents. To this end, in addition to experimentswith several machine learning algorithms for classification, a comparison will be madeamong these classifiers with the application of multi-class classification problem in legaldocuments from PGDF’s business. The effort used in this work is to find the best onemethod within the context of the PGDF to classify legal documents.pt_BR
dc.description.unidadeInstituto de Ciências Exatas (IE)pt_BR
dc.description.unidadeDepartamento de Ciência da Computação (IE CIC)pt_BR
dc.description.ppgPrograma de Pós-Graduação em Computação Aplicada, Mestrado Profissionalpt_BR
Aparece nas coleções:Teses, dissertações e produtos pós-doutorado

Mostrar registro simples do item Visualizar estatísticas



Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.