http://repositorio.unb.br/handle/10482/36959
File | Description | Size | Format | |
---|---|---|---|---|
2019_WitenbergSantiagoRodriguesSouza.pdf | 9,67 MB | Adobe PDF | View/Open |
Title: | Um modelo de aprendizagem profunda para reconhecimento de pragas em milharais |
Other Titles: | A deep learning model for recognition of pest insects in maize plantations |
Authors: | Souza, Witenberg Santiago Rodrigues |
Orientador(es):: | Borges, Díbio Leandro |
Assunto:: | Inseto Milho - doenças e pragas Aprendizagem residual profunda |
Issue Date: | 19-Feb-2020 |
Data de defesa:: | 30-Jul-2019 |
Citation: | SOUZA, Witenberg Santiago Rodrigues. Um modelo de aprendizagem profunda para reconhecimento de pragas em milharais. 2019. xvi, 70 f., il. Dissertação (Mestrado em Sistemas Mecatrônicos)—Universidade de Brasília, Brasília, 2019. |
Abstract: | Este trabalho aborda o reconhecimento de pestes artrópodes em milharais por imagens de campo. Primeiramente, construiu-se um novo conjunto de imagens de pragas primárias e secundárias, tomadas em campo aberto. O banco contém imagens originais e ampliadas em número, as quais foram empregadas em uma abordagem de classificação supervisionada de imagens. Foram propostas também, modificações para um modelo original residual de aprendizagem profunda (Inception-V3), doravante chamado Inception-V3*. As modificações realizadas no modelo possibilitaram uma maior velocidade de aprendizagem, i.e., menor quantidade de épocas de treinamento para alcançar o menor erro quadrático, além da maior exatidão em comparação ao modelo original. Os testes foram sub-agrupados em dois experimentos, um com as pragas primárias somente e o segundo com todas as pragas (primárias e secundárias). A eficácia dos modelos convolucionais foi avaliada e os modelos foram comparados a um classificador de padrão linear binário associado a máquinas de vetores de suporte. Em média, o modelo Inception-V3* proposto obteve a melhor taxa de acerto com 97,0% de precisão usando validação cruzada. |
Abstract: | This work approaches the recognition of arthropod pests in maize plantations by field images. Firstly, it was built a new image dataset of primary and secondary pests in open field. The dataset contains original and augmented images, which were used in a supervised classification approach. There were also proposed modifications for a deep learning residual model (Inception-V3), named from here on as Inception-V3*. The modifications made in the model provided a faster learning rate, i.e., less training epochs to reach the lowest squared error, besides greater precision in comparison to the original model. The tests were clustered in two experiments, one with primary pests only, and the second with all pests (primary and secondary). The efficcacy of the CNN models were evaluated and compared to a Linear Binary Pattern followed by SVM classifier. On average the proposed Inception-V3* model achieved the best accuracy rate of 97.0% using cross validation. |
metadata.dc.description.unidade: | Faculdade de Tecnologia (FT) Departamento de Engenharia Mecânica (FT ENM) |
Description: | Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Mecânica, 2019. |
metadata.dc.description.ppg: | Programa de Pós-Graduação em Sistemas Mecatrônicos |
Licença:: | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.bce.unb.br, www.ibict.br, http://hercules.vtls.com/cgi-bin/ndltd/chameleon?lng=pt&skin=ndltd sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra disponibilizada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. |
Appears in Collections: | Teses, dissertações e produtos pós-doutorado |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.