Resumo

Título do Artigo

LONG SHORT-TERM MEMORY APLICADO A PREÇOS DE AÇÕES BRASILEIRAS: um estudo sobre o número de épocas no aprendizado de uma rede neural recorrente
Abrir Arquivo
Ver apresentação do trabalho
Assistir a sessão completa

Palavras Chave

Algorithmic Trading
Preços de Ações
Long Short-Term Memory

Área

Finanças

Tema

Decisões de Investimento

Autores

Nome
1 - Camilo Ilzo Shimabukuro
CENTRO ESTADUAL DE EDUCAÇÃO TECNOLÓGICA PAULA SOUZA - CPS - São Paulo - Bom Retiro
2 - Napoleão Verardi Galegale
Centro Paula Souza - FATEC/ETEC - Unidade de Pós-Graduação, Extensão e Pesquisa
3 - JOSÉ ODÁLIO DOS SANTOS
PONTIFÍCIA UNIVERSIDADE CATÓLICA DE SÃO PAULO (PUCSP) - FEA ADMINISTRAÇÃO

Reumo

Os resultados recentes obtidos por fundos quantitativos baseados em algoritmos de negociação, Algorithmic Trading, contribuíram para impulsionar o uso de abordagens baseadas em Machine Learning e Deep Learning. Abordagens baseadas em Deep Learning têm se mostrado promissoras em áreas como o reconhecimento de imagens e o processamento da linguagem natural. Nos últimos quatro anos, observa-se um número crescente de artigos sobre Deep Learning aplicado ao Algorithmic Trading. Época é um parâmetro de rede neural que indica quantas vezes o aprendizado percorre os dados.
Como o erro de predição de preços de ações varia em função do número de épocas no treinamento de uma rede neural recorrente baseada em Deep Learning? Objetivo: estudar o efeito do número de épocas sobre o erro de predição de uma rede neural recorrente baseada em Deep Learning, utilizando a abordagem Long Short-Term Memory sobre séries de preços de ações negociadas na bolsa de valores brasileira
Long Short-Term Memory (LSTM) é uma rede neural recorrente que extrai características de relações não lineares, memoriza séries temporais longas, retém seletivamente informações passadas relevantes, descarta os dados não relevantes, como ruídos. Seus nós fecham circuitos de realimentação recorrentes, resultando em característica de memorização extensa. Mantém a capacidade de aprendizado durante o treinamento, com gradientes da função de perda estáveis, propagando-se com menor risco de vanishing gradients.
Medidas de dispersão e do coeficiente de determinação do erro de predição em função do número de épocas indicam que no intervalo de 10 a 50 épocas houve maior redução do erro de predição, e que de 50 a 100 épocas os resultados variam de forma quase assintótica, estabelecendo um ponto de partida em torno de 50 épocas para a rede da pesquisa, resultando em redução do tempo de processamento e eficiência do treinamento.
Escolha da abordagem LSTM justificada em revisão da literatura, por análise de características e funcionalidade. Redes neurais de requerem ajuste de hiperparâmetros para um aprendizado eficiente. O estudo analisa o comportamento do erro de predição em função do número de épocas e identifica um valor inicial que minimize o tempo de processamento sem prejuízo para a predição.
BAO, W.; YUE, J.; RAO, Y. A deep learning framework for financial time series using stacked autoencoders and long-short term memory. PLoS ONE. 2017 BUCHANAN, B. G. Artificial intelligence in finance. The Alan Turing Institute. 2019 BUKHARI, Q.; JAMEEL, Y. Will coronavírus pandemic diminish by summer? MIT, 2020 CHONG, E.; HAN, H.; PARK, F. C. Deep learning networks for stock market analysis and prediction. Expert Systems w. Applications, 2017 FISCHER, T.; KRAUSS, C. Deep learning with Long Short-Term Memory Networks for Financial Market Predictions. European Journal of Operation Research