Campo DC | Valor | Idioma |
dc.contributor.advisor | Rocha Filho, Geraldo Pereira | pt_BR |
dc.contributor.author | Oliveira, Matheus Schmitz | pt_BR |
dc.date.accessioned | 2024-08-13T21:09:19Z | - |
dc.date.available | 2024-08-13T21:09:19Z | - |
dc.date.issued | 2024-08-13 | - |
dc.date.submitted | 2023-03-10 | - |
dc.identifier.citation | OLIVEIRA, Matheus Schmitz. Modelo contextual de negociação no mercado de ações brasileiro com algoritmo de aprendizado por reforço profundo. 2023. 87 f., il. Dissertação (Mestrado em Informática) — Universidade de Brasília, Brasília, 2023. | pt_BR |
dc.identifier.uri | http://repositorio2.unb.br/jspui/handle/10482/49828 | - |
dc.description | Dissertação (Mestrado) — Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Ciência da Computação, 2023. | pt_BR |
dc.description.abstract | As bolsas de valores estão presentes na sociedade ao longo dos últimos séculos, sendo
fundamentais para a movimentação da economia e construção de grandes fortunas. No
entanto, os preços das companhias oscilam, tornando desafiadora a tarefa de identificação
das melhores oportunidades de compra e venda de suas ações. Nesse sentido, o uso de
algoritmos para a negociação automática nas bolsas de valores ganhou evidência, apresentando características positivas como a velocidade e isenção de sentimentos na tomada de
decisão. O Aprendizado por Reforço (RL) é aplicado em problemas envolvendo sequências
de decisões em ambientes complexos, sendo promissor para a modelagem de ambientes
de negociação de ativos. Apesar do grande avanço observado nas publicações recentes,
foi identificada uma lacuna relacionada à combinação de dados numéricos do mercado e
dados textuais provenientes de múltiplas fontes de informação. Dessa forma, o presente
trabalho preenche a lacuna encontrada ao investigar, propor e validar o desenvolvimento
de um modelo contextual baseado em Aprendizado por Reforço Profundo (DRL) para
a negociação individualizada de ativos no mercado financeiro brasileiro. A proposta foi
avaliada em quatro diferentes cenários, a partir de combinações entre a quantidade de
dados utilizados e diferentes esquemas de recompensa adotado pelo agente de DRL do
modelo contextual treinado. Para a avaliação foram escolhidos três benchmarks: investimento inicial, Buy & Hold da empresa específica e Buy & Hold do BOVA11. Os resultados
mostraram que o modelo contextual desenvolvido superou o patrimônio líquido inicial investido em 94.5% dos casos no melhor caso. Além disso, os cenários que utilizaram o
índice Sharpe como função de recompensa reportaram mais patrimônios líquidos finais
acima dos benchmarks selecionados. Por fim, todos os cenários consideram a simulação
de taxas de transação cobradas pelas instituições financeiras, tornando o resultado ainda
mais realista. | pt_BR |
dc.description.sponsorship | Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES). | pt_BR |
dc.language.iso | por | pt_BR |
dc.rights | Acesso Aberto | pt_BR |
dc.title | Modelo contextual de negociação no mercado de ações brasileiro com algoritmo de aprendizado por reforço profundo | pt_BR |
dc.type | Dissertação | pt_BR |
dc.subject.keyword | Aprendizado por reforço | pt_BR |
dc.subject.keyword | Mercado de ações - Brasil | pt_BR |
dc.subject.keyword | Negociação por algorítimos | pt_BR |
dc.rights.license | A concessão da licença deste item refere-se ao termo de autorização impresso assinado pelo autor com as seguintes condições: Na qualidade de titular dos direitos de autor da publicação, autorizo a Universidade de Brasília e o IBICT a disponibilizar por meio dos sites www.unb.br, www.ibict.br, www.ndltd.org sem ressarcimento dos direitos autorais, de acordo com a Lei nº 9610/98, o texto integral da obra supracitada, conforme permissões assinaladas, para fins de leitura, impressão e/ou download, a título de divulgação da produção científica brasileira, a partir desta data. | pt_BR |
dc.description.abstract1 | Stock exchanges have been present in society over the last few centuries, being fundamental for moving the economy and building great fortunes. However, company prices
fluctuate, making the task of identifying the best opportunities for buying and selling
their shares a challenge. In this sense, the use of algorithms for automatic trading on
stock exchanges gained evidence, showing positive characteristics such as efficiency and
support of feelings in decision-making. Reinforcement Learning is applied to problems
involving sequences of decisions in complex environments, being promising for modeling
asset trading environments. Despite the significant advance seen in recent news, a gap
was identified related to the combination of numerical market data and textual data from
multiple sources of information. Thus, the present work fills a gap found when investigating, proposing, and validating the development of a contextual model based on Deep
Reinforcement Learning for the individualized trading of assets in the Brazilian financial
market. The proposal was evaluated in four different scenarios, based on the combination
between the amount of data used and various reward schemes adopted by the DRL agent
of the trained contextual model. For the evaluation, three benchmarks were chosen: initial
investment, Buy & Hold of the specific company and Buy & Hold of BOVA11. The results
appreciated that the developed contextual model outperformed the invested initial equity
in 94.5% of cases in the best case. Furthermore, the scenarios that used the Sharpe ratio
as the reward function reported more net worth above the selected benchmarks. Finally,
all scenarios consider the simulation of transaction fees charged by financial institutions,
making the result even more realistic. | pt_BR |
dc.description.unidade | Instituto de Ciências Exatas (IE) | pt_BR |
dc.description.unidade | Departamento de Ciência da Computação (IE CIC) | pt_BR |
dc.description.ppg | Programa de Pós-Graduação em Informática | pt_BR |
Aparece nas coleções: | Teses, dissertações e produtos pós-doutorado
|