XVII Congresso Nacional de Administração e Contabilidade - AdCont e 29 de outubro de Rio de Janeiro, RJ

Tamanho: px
Começar a partir da página:

Download "XVII Congresso Nacional de Administração e Contabilidade - AdCont e 29 de outubro de Rio de Janeiro, RJ"

Transcrição

1 Redes Neurais Artificiais na Predição do Preço Futuro de Papéis com Alta e Baixa Volatilidade na Bovespa e na Bolsa de Valores de Nova Iorque Resumo Theo Barbante Papadoulos Graduado em Sistema de Informação Fundação Comunitária de Ensino Superior de Itabira theodoros.barsante@gmail.com Felipe Lacerda Diniz Leroy Doutor em Economia Fundação João Pinheiro felipeecon@hotmail.com Marconi Martins de Laia Doutor em Ciência da Informação Fundação João Pinheiro marconi.laia@gmail.com Lara Dzenkauskas Galante Graduanda em Administração Faculdade Ibmec MG laradzenk@hotmail.com É cada vez mais evidente a necessidade de antever valores nos mercados financeiros e seu ganho frente aos concorrentes. Esse trabalho tem por objetivo analisar o grau de predição das Redes Neurais Artificiais (RNAs) aplicadas no prognóstico de valores do mercado de ações. Essa é uma pesquisa quantitativa, do tipo explicativa e experimental. O universo é formado por todo o histórico dos valores das ações PETR4, VALE5, OGXP3, GS e JPM, no período de julho de 2008 até agosto de Os dados foram coletados através do software Economática e foram tratados através de simulações geradas pelo software Matlab e, por fim, analisados através da estatística descritiva. Foram selecionados papéis com baixa e com alta volatilidade, com comportamentos conservadores e agressivos, a fim de testar o grau de predição da RNA quando aplicada em ambas as situações. Para o uso dessa rede foram normalizados os dados utilizados. Após projetada, foram realizados treinamentos da RNA utilizando uma amostra, para validar o algoritmo e o projeto da rede. Além disso, posteriormente foram realizados testes da predição dos valores em um ambiente real e a conseguinte comparação dos resultados. Estes foram analisados e o grau de ajuste de predição do preço futuro de fechamento de papéis com alta e baixa volatilidade, negociados na Bovespa e na Bolsa de Valores de Nova Iorque usando RNA, se mostraram significativos. Portanto, a RNA aplicada na predição de valores de ações com alta e baixa volatilidade é possível e possui um resultado satisfatório. Palavras chave: Mercado de Ações; Redes Neurais Artificiais; Volatilidade 1 Introdução Com o crescimento dos mercados financeiros e com as mudanças nos valores dos ativos, fica cada vez mais evidente a necessidade da utilização de métodos eficientes pelos profissionais da área de finanças para analisar o comportamento dos mesmos e nortear os investimentos no mercado de ações. Uma série de abordagens matemáticas vem sendo utilizadas na predição do comportamento desses ativos, incluindo os sistemas inteligentes, como é o caso das Redes Neurais Artificiais (RNA s), que por sua vez atuam na predição de séries temporais. Elas apresentam um modelo matemático baseado na estrutura neural de organismos inteligentes e tem uma grande capacidade de aprendizado e generalização, derivado dos erros identificados por elas através da comparação do resultado previsto com o obtido. O resultado 1

2 satisfatório para RNA é alcançado através da combinação da saída desejada com a parametrização da rede no momento de sua criação, definindo, por exemplo, a taxa de erro. O objetivo deste artigo é analisar o grau de predição do preço futuro de fechamento de papéis com alta e baixa volatilidade negociados na Bovespa e na Bolsa de Valores de Nova Iorque usando Redes Neurais Artificias (RNA). Este artigo tem o mercado de ações como cenário para predição de valores. As ações selecionadas da Bovespa foram a PETR4, a VALE5 e a OGXP3, enquanto na Bolsa de Valores de Nova Iorque as ações selecionadas foram a GS e JPM. O histórico dessas ações foram buscadas no software Economática. Com base nos resultados é possível identificar a aplicabilidade das RNA s na predição dos valores das ações e na previsão de ações que possuem comportamentos mais agressivos. Para se alcançar o objetivo proposto esse artigo se estruturou da seguinte forma: além desta introdução, o segundo capítulo abordará a teoria relevante ao tema da pesquisa, que são as Redes Neurais Artificiais. No terceiro capítulo, por sua vez, a metodologia seguida para a realização desse trabalho será exposta. O quarto capítulo contém a análise dos dados coletados e, por fim, no quinto capítulo serão apresentadas as considerações finais. 2 Fundamentação As Redes Neurais Artificiais (RNA s) são estruturas computacionais, compostas por um modelo matemático, construído e inspirado na estrutura neural de organismos inteligentes, capazes de adquirir conhecimento por meio da experiência. Uma rede neural artificial pode ser composta por milhares de unidades de processamento; enquanto o cérebro de um mamífero, por exemplo, pode conter bilhões de neurônios (HAYKIN, 2001). Apesar de ser formada por neurônios artificias simples que executam atividades elementares, uma RNA possui a habilidade computacional para solução de problemas complexos. Segundo Haykin (2001) ela tem a capacidade de solucionar problemas de aproximação de função contínua, não importando a quantidade de variáveis. Assim sendo, se faz necessário definir o número de entradas e saídas relacionadas diretamente aos dados. Para que se obtenha um bom desempenho, deve-se levar em consideração que quanto mais complexo for o problema, mais neurônios serão necessários para se obter um bom desempenho da RNA. O processo de aprendizagem dessas redes está diretamente associado à sua habilidade em adaptar os seus parâmetros de treinamento como resultado de sua interação com o meio em que faz parte (RESENDE, 2003). De acordo com Haykin (2001), nesse processo, a RNA, durante um ciclo interativo, eleva o seu desempenho de forma gradativa, à medida que ela interage com o ambiente externo. Seu desempenho no decorrer do processo de aprendizado é utilizado para determinar tanto o momento de término quanto a qualidade do modelo neural computacional. Para Resende (2003) e Haykin (2001), em ambos os casos é amplamente utilizado o erro quadrático médio das respostas. As RNA s podem ser aplicadas na previsão do estado futuro de um determinado sistema problema de extrapolação. Um cenário de predição usual é o mercado financeiro. Para sua solução não é necessário uma RNA específica, basta apenas considerar que sua saída é uma função das entradas e saídas passadas. Segundo Haykin (2001) as RNA s podem ser divididas em três grandes classes, a partir da análise do método utilizado para treinamento dos pesos da rede. A primeira classe é chamada de treinamento supervisionado, em que as saídas que se desejam atingir são conhecidas antes do treinamento. A rede perceptron de múltiplas camadas é um exemplo pertencente a essa classe. A segunda classe é chamada de aprendizagem por reforço, em que não são conhecidos os valores de saída e é empregado apenas um critério para verificar e validar o desempenho da rede na fase de retropropagação. E, finalmente, a terceira e última classe é chamada de aprendizagem não supervisionada, em que não existe uma 2

3 retroalimentação que possa informar à rede se o objetivo daquele aprendizado foi atingido ou não (HAYKIN, 2001). Segundo Haykin (2001) as redes do tipo perceptron de multicamadas, também conhecida como Multilayer perceptron (MLP) têm poder computacional muito além da RNA de camada única. Essa classe tem resolvido problemas complexos com sucesso, utilizando o algoritmo de retropropagação de erro, onde a sua base é a regra de aprendizagem através da correção de erro. Basicamente consiste em dois passos: um para frente, que é conhecido como propagação, e um para trás, a retropropagação. Cada neurônio dessa RNA possui uma função de ativação não-linear, para que a relação entrada-saída não seja reduzida a de uma perceptron de uma única camada, sendo a função log-sigmóide função logística a mais utilizada, pois possui uma não-linearidade suave. Para Braga, Carvalho e Ludermir (2000) na rede MLP, pelo fato dos neurônios estarem conectados, o que é processado por eles é a resultante dos processamentos já realizados pelos neurônios pertencentes à camada antecessora a atual. A cada passo adiante da RNA, as funções que são implementadas são cada vez mais complexas, e, é devido a elas que ocorre a divisão do espaço de decisão mapeado. Após estudos mais detalhados, foi comprovado que todo o processo realizado por uma RNA de n camadas intermediárias pode ser feito por uma rede que possui uma única camada intermediária. O fator relevante para a solução do problema então reside em definir a quantidade de neurônios que essa camada intermediária deve conter, sendo que se for definido uma quantidade muito grande a rede torna-se extremamente especialista e com isso compromete a sua capacidade de generalização. Por outro lado se essa quantidade for pequena a rede pode não obter êxito no processo de aprendizado. Conclui-se então que a rede MLP pode ser utilizada para solucionar grande parte dos problemas, porém a escolha da quantidade de neurônios na camada escondida está diretamente ligada ao sucesso da rede, afinal, é a partir dessa escolha que é possível atingir o máximo que ela pode oferecer. Para que seja possível a realização do processo de aprendizagem, é utilizado um método chamado de algoritmo de treinamento. Esse algoritmo modifica os pesos sinápticos da RNA de forma sistemática, com o objetivo de atingir aquilo que foi estipulado na fase de concepção. O mais popular dos algoritmos, no que tange o treinamento de redes multicamadas, é o backpropagation do tipo supervisionado. Seu trabalho é feito aos pares, a partir da existência de entradas e saídas desejada, as quais ajustam os pesos da rede, utilizando-se de um método de correção de erros (HAYKIN, 2001). No algoritmo de backpropagation, o treinamento se passa em duas fases: fase forward e fase backward. Na primeira delas, é gerada uma saída dessa rede para o conjunto de treinamento informado, enquanto na segunda a saída gerada pela rede é comparada com o pretendido, a fim de se identificar o erro e, então ajustar os pesos das conexões. Há também um outro método de otimização, comumente conhecido com Algoritmo de Levenberg-Marquardt (LM). Segundo Ranganathan (2004), Levenberg-Marquardt é atualmente o algoritmo de otimização mais utilizado nos projetos de RNA s. Isso porque ele tem uma performance elevada na solução de diversos problemas. Para Haykin (2001) ele possui destaque principalmente pelo ajuste célere e eficaz dos pesos. O algoritmo LM tem como objetivo a resolução, de forma iterativa, de problemas de minimização de funções não-lineares, através do método de mínimos quadrados. Sua base é o algoritmo do gradiente descendente e o método iterativo de Gauss-Newton. O que define qual dos métodos será fundamental é o fator de ajuste. Para grandes ajustes o método gradiente descendente é predominante e os pesos são atualizados de forma categórica, no entanto quando ocorre o inverso o método de Gauss-Newton predomina e a atualização acontece no sentido da curvatura da função. 3

4 Conclui-se que a retropropagação tem grande valia no processo de aprendizado e ajuste de erro, pois a partir dela, a rede pode realizar o treinamento sem intervenção humana, o que acelera o processo e reduz a margem de erro. Após discorrer sobre a RNA, seu funcionamento e classificação, a seguir será feita uma exposição acerca de sua aplicabilidade no mercado de capitais. Este se constitui como um sistema responsável pela distribuição de valores mobiliários, proporcionando liquidez aos títulos de emissão de empresas, possibilitando assim o processo de capitalização por instituições financeiras devidamente autorizadas a agir nesse mercado. (PINHEIRO, 2009) Em se tratando de mercado de capitais, a ação pode ser traduzida como a menor parte do capital social de uma organização separada por ações. O local onde essas ações são negociadas é conhecido como bolsa de valores, que são organizações sem fins lucrativos, derivadas de esforços das corretoras de valores a fim de prover um ambiente físico para o mercado de ações (FORTUNA, 2009). O valor de uma ação é derivado das condições do mercado, como oferta e procura, condições estas que são um espelho da saúde econômica da organização e do País. Como a negociação no mercado de ações é diária, ocorrendo apenas em dias úteis de forma eletrônica, o preço das ações oscila em duas situações: se há muitos compradores, o preço da ação tende a subir; do contrário, quando há muitos investidores vendendo essas ações, seu preço tende a cair. Essa é a lei da oferta e da procura (FORTUNA, 2009). A BOVESPA é o mercado de ações do Brasil e reúne os papéis das principais organizações brasileiras de capital aberto, como por exemplo, a Vale, a Petrobrás, a Cemig, entre outras. Ela cresceu consideravelmente nas últimas décadas. E o Índice Bovespa (IBOVESPA) é o principal indicador do mercado de ações do Brasil. Ele afere a lucratividade dos papéis pertencentes à carteira do investidor, além de descrever o comportamento do mercado de ações. 3 Metodologia Este artigo apresenta uma pesquisa quantitativa para analisar um conjunto de dados, prevendo o seu comportamento com base em análises passadas dos papeis negociados na Bovespa, sendo possível chegar a valores próximos da realidade, e com um grau mínimo de ajuste. A pesquisa também é explicativa, pois tem como objetivo reconhecer os componentes que influenciam ou afetam o processo; e é experimental, já que utiliza as amostras com todos os elementos que influenciaram, até o último dado coletado, o comportamento das ações em determinada situação. Portanto, a pesquisa tem por finalidade encontrar padrões comportamentais dos papéis analisados. A amostra deste estudo é formada pelos valores de fechamento dos papéis VALE5, PETR4, OGX3 negociados na Bovespa e dos papéis JPM e GS, negociados na Bolsa de Valores de Nova Iorque, no período de julho de 2008 até agosto de 2013, obtidos através do software Economática. As ações negociadas na Bovespa possuem 269 registros e as ações negociadas na Bolsa de Valores de Nova Iorque possuem 290 registros. A quantidade de registros é diferente, apesar de o período ser o mesmo, pela quantidade de dias de pregão, pois o funcionamento das bolsas varia de acordo com cada país. Os papéis VALE5, PETR4 e GS são papéis que possuem baixa volatilidade, seus valores possuem poucas oscilações, enquanto os papéis OGX3 e JPM possuem oscilações mais acentuadas. 4 Resultados Segundo Zárate, Helman e Gálvez (2003), a etapa que antecede o treinamento e a simulação de uma RNA consiste na normalização dos dados de entrada e saída. Para a RNA utilizada nessa pesquisa, a etapa de pré-processamento consiste na normalização desses 4

5 valores no intervalo de 0 a 1. A normalização consiste em adaptar as escalas que possuem grandezas distintas. Na função sigmoide, os valores dentro do intervalo de 0 e 1 são infinitos, portanto é aconselhável reduzir esse intervalo utilizado na normalização dos dados para 0.2 e 0.8, pois são valores mais suaves e auxiliam a convergência durante a etapa de treinamento. Na Tabela 01 são apresentados os valores mínimos e máximos de cada ação, ou também conhecidos nas equações de normalização como limite inferior e limite superior, respectivamente. Esses valores representam o menor e o maior valor negociado de cada ação registrado no intervalo estudado, que foi de 10 de julho de 2013 até 21 de agosto de Destaca-se que as figuras e as tabelas dos resultados apresentam apenas o período de 2012 e 2013 e não de todo o espectro de dados coletados e utilizados na rede neural 2008 a 2013 porque trata-se do período de maior volatilidade observada no mercado financeiro entre 2008 e Tabela 1 - Valores mínimos e máximos de cada ação utilizada na pesquisa Ação Mínimo (R$) Máximo (R$) PETR4 13,78 37,61 VALE5 16,52 46,07 OGXP3 0,39 23,27 GS 49,15 183,62 JPM 14,67 56,67 Fonte: Elaborado pelo próprio autor A seguir serão apresentados os valores reais de fechamento que serão comparados com os valores gerados pela RNA. Figura 1 Comportamento dos valores reais de fechamento dos papéis e suas volatilidades 5

6 A Figura 1 apresenta os valores reais de fechamento das ações VALE5, PETRO4 e GS no período entre 30 de junho de 2012 e 30 de setembro de No caso da PETRO4, nota-se que é uma ação de baixa volatilidade, a oscilação nos valores apresentados é de aproximadamente 20% do valor inicial contido no período analisado de julho de 2012 a agosto de No caso da GS, o mês de julho de 2013 foi o início do período estudado e nele, essa ação era negociada no valor aproximado de R$ 90,00, enquanto no término do período, no mês de agosto de 2013, ela foi negociada por aproximadamente R$ 170,00, uma alta de quase 90%. Na Figura 2 são apresentados o os valores reais de fechamento da ação OGXP3 e JPM no período entre 30 de junho de 2012 e 30 de setembro de É possível observar que OGXP3 trata-se de uma ação de alta volatilidade, pois existe uma queda de seu preço, próximo dos 90% comparado com o valor apresentado no início do período estudado. Figura 2 Comportamento dos valores reais de fechamento dos papéis com alta volatilidade Em relação à JPM, apesar da alta apresentada ser discreta, os valores das ações elevaram-se em quase 100% no mês de agosto de 2013, quando comparado com os valores apresentado no início de julho de Sendo assim, após a identificação, coleta e análise dos dados, esses foram normalizados e portanto, já podem ser inseridos na RNA. O início do projeto se dá com a identificação da quantidade de entradas que serão fornecidas para a RNA. Para que a RNA possa ser utilizada como ferramenta de predição de valores é necessário projetá-la para se adequar à realidade do mercado financeiro. Segundo Hull (2005), algumas análises de mercado são feitas através do seu comportamento no 6

7 decorrer de uma semana. Portanto, foi definido que a quantidade de entradas da rede seria a quantidade de valores obtidos em uma semana, ou seja, em cinco dias de pregão. Em seguida é necessário definir a quantidade de neurônios pertencentes à camada escondida da RNA. Para tal, foi aplicado o teorema, representado por Hecht-Nielsen (1989) e Hecht-Nielsen (1990) citado por Kovacs (1996), que diz: Teorema de Kolmogorov Nielsen: Dada uma função contínua arbitrária ƒ:[0,1] n R m, f (x) = y, existe sempre para f, uma implementação exata com uma rede neural de três camadas, sendo a camada de entrada um vetor de dimensão n, a camada oculta composta por (2n+1) neurônios, e a camada de saída com m neurônios representando as m componentes do vetor y (Kovacs, 1996, p.95). Sabe-se que a complexidade da representação dos métodos está diretamente relacionada com a quantidade de neurônios da camada escondida. Mesmo utilizando o teorema de Kolmogorov Nielsen não existe nenhuma garantia de que se atingiu a quantidade ideal de neurônios da camada escondida. Não é possível saber qual ajuste deve ser feito para obter a quantidade ideal de neurônios da camada escondida, caso não seja atingida. Faz-se necessário realizar diversas tentativas até que se atinja essa quantidade ideal (HAYKIN, 2001). Com base no teorema apresentado a quantidade de neurônios da camada escondida deve então ser definida pela quantidade de neurônios de entrada, multiplicada por dois, somado a um. Portanto no projeto da RNA utilizado nessa pesquisa foi definido que a camada escondida foi composta por 11 (onze) neurônios. Para a grande maioria dos problemas onde a RNA é aplicada, uma camada escondida é o suficiente. Entretanto, quando os dados analisados não sejam de origem homogênea, uma camada escondida adicional pode ajudar no resultado (HAYKIN, 2001). Por fim é necessário definir a quantidade de saídas da RNA. O objetivo dessa pesquisa é a predição do valor de fechamento de um papel, com base nos seus cinco últimos resultados. Isso porque, segundo Hull (2005), a capacidade de predição é menor quando se trabalha com informações financeiras de longo prazo. Essa saída corresponde a predição do preço futuro de fechamento que a ação atingirá no próximo pregão, portanto a RNA possuirá 1 (uma) saída. Então, a RNA utilizada nessa pesquisa possui cinco entradas, que correspondem as cinco últimas cotações do papel analisado. Esses dados interagem com os neurônios da camada escondida e, por fim, geram um dado de saída. Essa saída corresponde à predição do valor de fechamento desse papel no próximo pregão. A RNA foi implementada no software Matlab, na versão R2012a, com auxílio da sua toolbox NNTOOL. O algoritmo de treinamento utilizado nessa pesquisa é o Levenberg Marquardt. Esse algoritmo é invocado pela função pertencente ao Matlab nomeada TRAINLM. Esse algoritmo é o aperfeiçoamento do tradicional algoritmo de backpropagation. A rede MLP treinada com algoritmo de backpropagation é comumente utilizada nos dias de hoje. Após a etapa de normalização, esses dados são divididos em dois conjuntos: treinamento e simulação. O conjunto de treinamento será utilizando na fase de treinamento e o conjunto de simulação será utilizado na fase de testes da RNA. Para iniciar a RNA é preciso definir os parâmetros da rede como quantidade de épocas, taxa de aprendizado, algoritmo de treinamento e a função de ativação. Após definir os parâmetros dá-se início ao treinamento da RNA. Nessa fase é necessário informar os limites inferior e superior das ações, a quantidade de neurônios da camada escondida, além da função de ativação e o algoritmo utilizado na fase de treinamento. 7

8 As simulações, ou testes, são iniciadas ao término da fase de treinamento. É necessário informar a RNA e o conjunto que será utilizado nessa fase. Concluída a etapa de simulações, os resultados são desnormalizados. Os dados são apresentados em forma de texto e em seguida exportados para uma planilha eletrônica com o objetivo de confrontar os valores obtidos através das simulações com os valores reais obtidos pelas ações. Em seguida, gráficos são gerados com esses valores para analisar superficialmente os resultados. Por fim, é calculada a variância desses valores e a diferença da variância entre o real e o observado, a fim de obter o grau de ajuste da predição. Neste artigo foram realizadas duas etapas de simulações. Na primeira etapa, a RNA recebeu 80% da amostra como dados de treinamento e 20% da amostra como dados de simulação. Na segunda etapa, a RNA recebeu toda a amostra como dados de treinamento e os cinco últimos dias de pregão que antecederam o dia a ser previsto foram utilizados como entrada para a simulação dessa etapa, com o objetivo de prever os dados utilizando a RNA em um ambiente real. Em ambas as etapas, os dados gerados pela saída da RNA foram comparados com os dados registrados no histórico da ação, e através da diferença da variância do real pela variância do observado foi possível obter o grau de ajuste da predição, afinal, segundo Freund (2006), quanto mais próximo de zero é o valor do resultado encontrado, mais homogêneas serão as distribuições dos valores. Foram realizadas 10 (dez) simulações para cada papel analisado nessa pesquisa. O objetivo foi verificar o desempenho da RNA e analisar o pior e o melhor resultado encontrado. Tabela 2 - Diferença da variância dos valores reais e observados das ações analisadas que obtiveram o melhor grau de ajuste Ação Variância do Real Variância do Observado Diferença PETR4 3, , , VALE5 11, , , OGX3 4, , , GS 518, , , JPM 45, , , É possível observar então, que a diferença da variância nos valores das ações GS e JPM é superior quando comparada aos demais papéis analisados. Isso se dá pelo fato dessas ações serem de alta volatilidade e o preço dos papéis ser elevado, portanto qualquer variação de valor é expressiva. Tabela 3 - Diferença da variância dos valores reais e observados das ações analisadas que obtiveram o pior grau de ajuste Ação Variância do Real Variância do Observado Diferença PETR4 3, , , VALE5 11, , , OGX3 4, , , GS 518, , , JPM 45, , ,

9 Com base nos resultados apresentados na tabela 3 é possível identificar as ações com alta volatilidade. Essa diferença evidente no pior resultado é reflexo dessa alta volatilidade e esse valor é relativamente menor nas ações de baixa volatilidade, mesmo no pior resultado da rede. Tabela 4 - Média da diferença da variância do real em cada valor observado obtido através das 10 simulações Ação Média PETR4 0, VALE5 0, OGXP3 0, GS 3, JPM 5, A tabela 4 apresenta a média da variância das 10 (dez) simulações de cada ação. Notase que através do cálculo da média aritmética da variância das simulações é possível identificar que os valores das demais simulações não encontram-se tão distante do valor obtido no melhor grau de ajuste. A seguir serão apresentados os resultados das simulações da primeira etapa, ou seja, as simulações com base em um histórico conhecido. Com base nos dados históricos de cada ação, foram realizadas 10 (dez) simulações com exatamente os mesmos parâmetros. O período utilizado foi do dia 01 de julho de 2008 ao dia 21 de agosto de Esse período foi selecionado para que todos os históricos das ações trabalhados possuíssem a mesma data de início, pois a OGXP3 iniciou sua negociação na Bovespa apenas nessa data, portanto não possuía histórico anterior. A pesquisa possui ações negociadas na Bovespa e na Bolsa de Valores de Nova Iorque e o funcionamento dessas bolsas varia de acordo com o seu país. A Bolsa de Valores de Nova Iorque operou 21 (vinte e um) dias a mais que a Bovespa. Essa diferença foi utilizada na simulação, o que não impactou no treinamento da RNA. Em primeiro lugar serão apresentados os resultados obtidos através das simulações utilizando as ações com baixa volatilidade, consequentemente os papéis que possuem os comportamentos mais conservadores. Em seguida serão apresentados os resultados obtidos através das simulações utilizando as ações com alta volatilidade. Figura 3 Resultado da simulação da PETR4 que obteve o melhor grau de ajuste 9

10 A figura 3 apresenta o resultado da predição da ação PETR4 e o compara com os valores reais atingidos durante os pregões. A figura 4 apresenta o resultado da predição da ação VALE5 e também o compara com os valores reais de fechamento. É notório que a predição obteve sucesso e que a RNA compreendeu o comportamento das ações de baixa volatilidade analisadas. É perceptível que as ações PETR4 e VALE5 são mais conservadoras, isto é, apesar da queda no seu preço e da variação de 10% a 20% no valor de fechamento, elas são ações com baixa volatilidade e que apresentam uma capacidade de predição um pouco mais elevada. Os resultados encontrados na pesquisa demonstram que utilizando a RNA é possível prever esses valores de fechamento. Figura 4 Resultado da simulação da VALE5 que obteve o melhor grau de ajuste 10

11 R$ 45,00 R$ 40,00 R$ 35,00 R$ 30,00 R$ 25,00 R$ 20,00 R$ 15,00 R$ 10,00 R$ 5,00 R$ - VALE5 Real Observado É perceptível que as ações PETR4 e VALE5 são mais conservadoras. Seus valores oscilam pouco no período estudado. Percebe-se ainda que, apesar da queda no seu preço e da variação de 10% a 20% no valor de fechamento, elas são ações com baixa volatilidade e que apresentam uma capacidade de predição um pouco mais elevada. Os resultados encontrados na pesquisa demonstram que utilizando a RNA é possível prever esses valores de fechamento. R$ 60,00 Figura 5 Resultado da simulação da JPM que obteve o melhor grau de ajuste JPM R$ 50,00 R$ 40,00 R$ 30,00 R$ 20,00 R$ 10,00 R$ - Real Observado Já a figura 5 apresenta o resultado da predição da ação JPM e o compara com os valores reais atingidos durante os pregões. Percebe-se que a ação JPM apresentou uma alta 11

12 expressiva no período estudado e que a RNA acompanhou o comportamento da ação e foi capaz de prever boa parte dos valores. Nos dois últimos meses houve uma alta considerável, o que alterou um pouco a predição desses valores. Isso ocorreu por fatores externos, os quais a RNA não é capaz de prever. Entretanto, a JPM teve seu faturamento estimado para o ano de 2013 em 22 bilhões de dólares, o que a tornou um dos bancos mais rentáveis dos Estados Unidos. Essa previsão do faturamento da JPM é um dos fatores que atingiram o preço da ação no período estudado. Mesmo com fatores externos atuando diretamente no valor da ação, a predição foi satisfatória e que a RNA também foi capaz de compreender o comportamento dessa ações. R$ 8,00 Figura 6 - Resultado da simulação da OGXP3 que obteve o melhor grau de ajuste OGXP3 R$ 7,00 R$ 6,00 R$ 5,00 R$ 4,00 R$ 3,00 R$ 2,00 R$ 1,00 R$ - Real Observado A figura 6 apresenta o resultado da predição da ação OGXP3 e o compara com os valores reais atingidos durante os pregões. Percebe-se que ela apresentou uma queda expressiva no período estudado, e que a RNA também foi capaz de acompanhar o comportamento dessa ação e foi capaz de prever seus valores. Nos últimos doze meses a OGXP3 apresentou uma queda acentuada originada por fatores externos. Como dito anteriormente, apesar da RNA não ser capaz de prever esses fatores, a predição foi satisfatória. Até o fechamento dessa pesquisa, a OGXP3 apresentava, noticiado por jornais e revistas, uma dívida altíssima e passava por um processo de recuperação, o que originou essa queda e tornou o valor da ação o mais baixo da história da OGXP3. Nota-se, na figura 7, que a ação GS obteve uma alta considerável no período estudado e que a RNA também foi capaz de acompanhar o comportamento dessa ação. É notório que o valor da ação GS cresceu consideravelmente nos últimos meses. Mesmo com essa alta volatilidade, a RNA foi capaz de prever seus valores de forma aproximada e com base no entendimento de seu comportamento realizou uma predição satisfatória. 12

13 R$ 180,00 Figura 7 Resultado da simulação da GS que obteve o melhor grau de ajuste GS R$ 160,00 R$ 140,00 R$ 120,00 R$ 100,00 R$ 80,00 R$ 60,00 R$ 40,00 R$ 20,00 R$ - Real Observado Os gráficos demonstram que a RNA obteve sucesso na interpretação do comportamento das ações utilizadas na pesquisa e realizou de forma satisfatória a predição dos valores futuros. Os valores atingidos com a simulação foram, na grande maioria dos casos, bem próximos dos valores reais de fechamento dos papéis, mesmo quando aplicados às ações com maior volatilidade, que são consequentemente mais difíceis de serem previstas. Quando o valor da ação é elevado, fica mais evidente a diferença entre o preço real e o preço observado, porém mesmo nesses casos a RNA atingiu uma previsão satisfatória. A tabela 5 apresenta a variância dos valores reais e a variância dos valores observados de cada ação utilizada na pesquisa durante o período de análise em tempo real, além da diferença entre eles. Tabela 5 - Diferença da variância dos valores reais e observados da predição diária Ação Variância do Real Variância do Observado Diferença PETR4 0, , , VALE5 2, , , OGX3 0, , , GS 9, , , JPM 1, , , A predição das ações da PETR4 que obteve o melhor grau de ajuste em um ambiente com dados históricos foi de 0, e o que obteve o melhor grau de ajuste em um ambiente real foi de 0,

14 A predição das ações da VALE5 que obteve o melhor grau de ajuste em um ambiente com dados históricos foi de 0, e o que obteve o melhor grau de ajuste em um ambiente real foi de 0, A das ações da OGXP3 em um ambiente com dados históricos foi de 0, e em um ambiente real foi de 0, A das ações da GS que obteve o melhor grau de ajuste em um ambiente com dados históricos foi de 1, e em um ambiente real foi de 1, Por fim, a predição das ações da JPM que obteve o melhor grau de ajuste em um ambiente com dados históricos foi de 1, e o que obteve o melhor grau de ajuste em um ambiente real foi de 0, A aplicação da RNA na predição dos valores de fechamento dos papéis negociados nas bolsas de valores mostrou-se válido e o resultado gerado foi satisfatório. Considerando as análises apresentadas é possível observar que a RNA gerou resultados aceitáveis para o problema em questão, tanto na aplicação de um cenário passado, quanto aplicada em um cenário real de negociações, com predições realizadas diariamente. Conclui-se então que a predição dos valores de fechamento de ações de alta e volatilidade utilizando as Redes Neurais Artificiais é possível. Mesmo com a interferência de fatores externos, como foi o caso da OGXP3 e da JPM, ambos de alta volatilidade, cenários como esses demonstram a capacidade de predição da RNA proposta nesse trabalho. Portanto pode-se dizer que o resultado da RNA na predição dos valores do preço de fechamento tanto de papéis com baixa volatilidade, quanto na predição das ações de alta volatilidade foi satisfatório. 5 Análise Este artigo teve por objetivo analisar o grau de predição das RNA s, que são técnicas computacionais capazes de realizar a predição de valores de séries temporais, aplicadas na predição de valores do mercado de ações. Os papéis foram identificados através da análise de sua volatilidade. Foram selecionados papéis com baixa e com alta volatilidade, com comportamentos conservadores e agressivos, a fim de testar o grau de predição da RNA quando aplicada em ambas as situações. Em um segundo momento, esses dados foram normalizados em um intervalo entre 0.2 e 0.8 para uso na RNA. A RNA projetada foi a multilayer perceptron, com cinco entradas, uma camada intermediária contendo onze neurônios, e uma camada de saída. A RNA foi implementada no software Matlab na versão R2102a. O treinamento e os testes foram realizados com parte da amostra, com o objetivo de validar o funcionamento da rede. Os resultados gerados pela simulação foram analisados e o grau de ajuste das predições foi encontrado utilizando o cálculo da diferença entre a variância do real pela variância do observado. Com esse resultado foi possível identificar qual das simulações obteve o melhor grau de ajuste em cada papel analisado, e com isso identificar qual é o grau de ajuste na predição desses valores, consequentemente qual é o grau de predição dos papéis analisados. O grau de predição do preço futuro de fechamento de papéis com alta e baixa volatilidade negociados na Bovespa e na Bolsa de Valores de Nova Iorque usando RNA é significativo. Portanto, de acordo com os resultados atingidos, a RNA aplicada na predição de valores de ações com alta e baixa volatilidade é possível e possui um resultado satisfatório. Sugere-se como pesquisa futura que a RNA seja testada novamente a partir dos valores de ações dos anos de 2014, 2015 e Referências Bibliográficas 14

15 BRAGA, Antônio Pádua, CARVALHO, André C. P. L. F., LUDERMIR, Teresa Bernarda. Redes neurais artificiais: teoria e aplicações. Rio de Janeiro: LTC, ECONOMATICA. Quem somos. Disponível em < Acesso em: 10 set FORTUNA, Eduardo. Mercado financeiro: produtos e serviços. 17. ed. Rio de Janeiro: Qualitymark, 2009.FREUND, John E. Estatística aplicada: economia, administração e contabilidade. 11. ed. Porto Alegre: Bookman, HAYKIN, Simon. Redes neurais: princípios e prática. 2. ed. Porto Alegre: Bookman, HECHT-NIELSEN, Robert. Neurocomputing. New York: Addison Wesley Publ. Co HULL, John C. Fundamentos dos mercados futuros e de opções. 4. ed. São Paulo: Bolsa de Mercadorias e Futuros, KOVACS, Zsolt Laszlo. Redes Neurais Artificiais: fundamentos e aplicações. 1. ed. São Paulo: Collegium Cognitio, PINHEIRO, Juliano Lima. Mercado de capitais: fundamentos e técnicas. 5. ed. São Paulo: Atlas, RANGANATHAN, Ananth. The Levenberg-Marquardt Algorithm. Disponível em: < Acesso em: 23 mai (2004) RESENDE, Solange Oliveira. Sistemas inteligentes: fundamentos e aplicações. Barueri: Manole, ZÁRATE, Luis Enrique, HELMAN, Horacio, GÁLVEZ, José Maria. Representação e Controle de Laminadores Tandem Baseado em funções de Sensibilidade Obtidos Através de Redes Neurais. Revista Controle & Automação, Volume 14 no.2, Abril, Maio, Junho

Theodoros Barsante Papadopoulos Facci/Funcesi Fabricio Roulin Bittencout Facci/Funcesi

Theodoros Barsante Papadopoulos Facci/Funcesi Fabricio Roulin Bittencout Facci/Funcesi REDES NEURAIS ARTIFICIAIS NA PREDIÇÃO DO PREÇO FUTURO DE FECHAMENTO DE PAPÉIS COM ALTA E BAIXA VOLATILIDADE NEGOCIADOS NA BOVESPA E NA BOLSA DE VALORES DE NOVA IORQUE Theodoros Barsante Papadopoulos Facci/Funcesi

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador.

O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. O uso de uma Rede Neural Artificial Supervisionada para obtenção do fator de carga de um alimentador. Resumo: Lucas da Silva Assis Universidade Federal de Goiás lucasilvassis@gmail.com Esse trabalho apresenta

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE PREÇOS DE FRUTAS E HORTALIÇAS

UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE PREÇOS DE FRUTAS E HORTALIÇAS UTILIZAÇÃO DE REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE PREÇOS DE FRUTAS E HORTALIÇAS 1 Leandro Oliveira Araujo; 1 Heder Saito Nunes; 1 Alex Vinicius de Bastos Rangel; 1 Thiago Santiago Barbosa; 1 Aluno

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

Felix da Cunha 412, Pelotas RS Home-Page: s: Bolsista BIC/FAPERGS

Felix da Cunha 412, Pelotas RS Home-Page:    s: Bolsista BIC/FAPERGS UTILIZAÇÃO DE REDES NEURAIS PARA PREVISÕES EM SÉRIES TEMPORAIS 1 A. T. Gonçalez, A. C. R. Costa, G. P. Dimuro UCPEL Universidade Católica de Pelotas, ESIN Escola de Informática GMFC Grupo de Matemática

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Redes Neurais Artificiais. Professor: Juan Moises Villanueva

Redes Neurais Artificiais. Professor: Juan Moises Villanueva Redes Neurais Artificiais Mestrando: Lucas Nicolau Email: lucasfnicolau@gmail.com Professor: Juan Moises Villanueva Rede Neural Direta Arquitetura com múltiplas camadas com fluxo de informação apenas em

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

5.1 Modelo de Previsão da Volatilidade por Redes Neurais Artificiais

5.1 Modelo de Previsão da Volatilidade por Redes Neurais Artificiais 5 Modelo Proposto 5.1 Modelo de Previsão da Volatilidade por Redes Neurais Artificiais Na literatura são propostos vários modelos para previsão da volatilidade entre paramétricos e não paramétricos, considerando

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas

Leia mais

REDE NEURAL DE ELMAN APLICADA NA PREVISÃO DE PREÇOS DE COMBUSTÍVEIS

REDE NEURAL DE ELMAN APLICADA NA PREVISÃO DE PREÇOS DE COMBUSTÍVEIS REDE NEURAL DE ELMAN APLICADA NA PREVISÃO DE PREÇOS DE COMBUSTÍVEIS Renan Pires de Araújo 1 ; Adrião Duarte Dória Neto 2 1 Universidade Federal do Rio Grande do Norte, Programa de Pós-Graduação em Ciência

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.1. Introdução às Redes Neurais Artificiais (RNAs) 2.1.1. Motivação

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

5 Estudo de Caso e Resultados

5 Estudo de Caso e Resultados 5 Estudo de Caso e Resultados 5.1. Introdução Finalizado o desenvolvimento da ferramenta, é indispensável testar suas funcionalidades e a eficácia da aplicação conjunta dos seus módulos de geração de experimentos

Leia mais

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL

PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL PREVISÃO CLIMÁTICA DE PRECIPITAÇÃO USANDO REDE NEURAL Juliana A. ANOCHI 1, Sabrina B. M. SAMBATTI 1, Eduardo F. P. da LUZ 1, Haroldo F. de CAMPOS VELHO 1 Instituto Nacional de Pesquisas Espaciais - INPE

Leia mais

5 RNA para Diagnóstico de Falhas em Turbinas a Gás

5 RNA para Diagnóstico de Falhas em Turbinas a Gás 5 RNA para Diagnóstico de Falhas em Turbinas a Gás 5.1. Introdução Neste capítulo, a aplicação de RNAs para diagnosticar as falhas no caminho do gás de turbinas a gás foi investigada. As redes neurais

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

Análise da Complexidade de Tempo e Espaço em Algoritmos para Classificação de Padrões em sinais de ECG

Análise da Complexidade de Tempo e Espaço em Algoritmos para Classificação de Padrões em sinais de ECG Análise da Complexidade de Tempo e Espaço em Algoritmos para Classificação de Padrões em sinais de ECG Eduardo Luz David Menotti Universidade Federal de Ouro Preto 05/07/2011 Summary Rede Neuronal Artificial

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica PERCEPTRON MULTICAMADAS: TÉCNICAS DE VALIDAÇÃO Prof. Dr. André A. P. Biscaro 2º Semestre de 2016 UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT Aspectos de seleção topológica de redes PMC A especificação

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS.

CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS. CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS. A. B. B. GIOPATTO 1, E. A. SILVA 2, T. D. MARTINS 1 1 Universidade Federal de São Paulo, Departamento

Leia mais

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA Marlon Luiz Dal Pasquale Junior, UNESPAR/FECILCAM, jr.marlon@hotmail.com Solange Regina dos Santos (OR), UNESPAR/FECILCAM, solaregina@fecilcam.br

Leia mais

Previsão de consumos a curto prazo

Previsão de consumos a curto prazo Previsão de consumos a curto prazo Cláudio Monteiro Distribuição de Energia II 5º ano da LEEC - ramo de Energia (FEUP) O que são? são técnicas computacionais que apresentam um modelo matemático inspirado

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

ESTUDO DE ALGORITMO MLP COMO APROXIMADOR DE FUNÇÃO

ESTUDO DE ALGORITMO MLP COMO APROXIMADOR DE FUNÇÃO Congresso Técnico Científico da Engenharia e da Agronomia CONTECC 2016 Rafain Palace Hotel & Convention Center- Foz do Iguaçu - PR 29 de agosto a 1 de setembro de 2016 ESTUDO DE ALGORITMO MLP COMO APROXIMADOR

Leia mais

VRS usando redes neurais

VRS usando redes neurais IX G E G E VRS usando redes neurais Wagner Carrupt Machado GIGA Conteúdo VRS x RNA (Redes Neurais Artificiais) RNA Experimentos com ionosfera Conclusões VRS x RNA Modelagem dos erros que afetam os sinais

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA

Inteligência Artificial. Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA Inteligência Artificial Prof. Tiago A. E. Ferreira Aula 21 Projeto de RNA Projeto de Redes Neurais Projeto de Redes Neurais Baseado apenas em dados Exemplos para treinar uma rede devem ser compostos por

Leia mais

6 Aplicação da Metodologia Proposta

6 Aplicação da Metodologia Proposta 6 Aplicação da Metodologia Proposta 6.1 Introdução A utilização da metodologia Box & Jenkins para a identificação da estrutura adequada é tarefa difícil para um usuário sem conhecimento prévio. Por isso,

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

4 Análise da Volatilidade

4 Análise da Volatilidade 4 Análise da Volatilidade 4.1 Metodologia da Regressão Uni-variada Esse estudo utilizou a volatilidade histórica dos ativos para descrever uma relação com a volatilidade futura por uma regressão uni-variada.

Leia mais

MODELO MATEMÁTICO NEURAL ARTIFICIAL PARA CÁLCULO DE RENDIMENTO METÁLICO TEÓRICO de um laminador de tiras a frio

MODELO MATEMÁTICO NEURAL ARTIFICIAL PARA CÁLCULO DE RENDIMENTO METÁLICO TEÓRICO de um laminador de tiras a frio MODELO MATEMÁTICO NEURAL ARTIFICIAL PARA CÁLCULO DE RENDIMENTO METÁLICO TEÓRICO de um laminador de tiras a frio Arlei Fonseca Barcelos arlei@csn.com.br AEDB Hugo Shokychi Toshimitsu Hugo.Toshimitsu@csn.com.br

Leia mais

Perceptron de Múltiplas Camadas e Backpropagation

Perceptron de Múltiplas Camadas e Backpropagation Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net

Leia mais

Figura 5.1: Normalizações referentes à classe e ao módulo de Young da matriz. Figura 5.2: Normalização referente à classe da partícula.

Figura 5.1: Normalizações referentes à classe e ao módulo de Young da matriz. Figura 5.2: Normalização referente à classe da partícula. 5 Resultados Neste capítulo são apresentados os resultados detalhados de cada procedimento descrito na metodologia de estudo (capítulo 4). Na seção 5.1, os resultados parciais para a aquisição da melhor

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

Análise Quantitativa de Tecidos em Úlceras de Perna

Análise Quantitativa de Tecidos em Úlceras de Perna 49 5 Análise Quantitativa de Tecidos em Úlceras de Perna A avaliação das áreas proporcionais de cada tecido interno das úlceras fornece informações importantes sobre seu estado patológico [BERRISS, 2000],

Leia mais

Ajuste de dados de Volatilidade Implí cita por meio da parametrizaça o SVI

Ajuste de dados de Volatilidade Implí cita por meio da parametrizaça o SVI Ajuste de dados de Volatilidade Implí cita por meio da parametrizaça o SVI 1 Resumo Esta proposta apresenta a parametrização SVI (de Stochastic Volatility Inspired) como alternativa à parametrização por

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

RECONHECIMENTO DE CARACTERES EM PLACAS AUTOMOTIVAS UTILIZANDO REDES NEURAIS

RECONHECIMENTO DE CARACTERES EM PLACAS AUTOMOTIVAS UTILIZANDO REDES NEURAIS RECONHECIMENTO DE CARACTERES EM PLACAS AUTOMOTIVAS UTILIZANDO REDES NEURAIS Eduarda Gonçalves Dias 1 ; Wanderson Rigo 2 ; Manassés Ribeiro 3 INTRODUÇÃO Os sistemas de visão artificial vêm auxiliando o

Leia mais

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos

Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Minicurso: Inteligência Artificial Aplicada a Sistemas Elétricos Introdução a Machine Learning: Teoria, Aplicações e IA na Arquitetura Intel Vitor Hugo Ferreira, DSc - UFF Flávio Mello, DSc UFRJ e Ai2Biz

Leia mais

ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS.

ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS. ESTIMATIVA DE RADIAÇÃO SOLAR NA REGIÃO DO MACIÇO DE BATURITÉ: ABORDAGEM VIA REDES NEURAIS ARTIFICIAIS. Arini de Menezes Costa 1, Kaio Martins Ramos 2, Hugo Hermano da Costa Castro 3, Antonio Alisson P.

Leia mais

Aplicações de redes neurais artificiais em simulações

Aplicações de redes neurais artificiais em simulações Aplicações de redes neurais artificiais em simulações Resumo Marcelo Bilobrovec (UEPG - CEFET - PR) mbilo@uepg.br Rui Francisco Martins Marçal (CEFET - PR) marcal@pg.cefetpr.br Luiz Alberto Pilatti (CEFET

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs

Leia mais

7. Resultados. 7 MATLAB é um produto da The MathWorks, Inc.

7. Resultados. 7 MATLAB é um produto da The MathWorks, Inc. 7. Resultados O modelo foi implementado por meio da linguagem computacional utilizada no software Matlab 7 e através da utilização do otimizador GLPK (GNU Linear Programming kit), em uma plataforma de

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

Por que Redes Neurais?

Por que Redes Neurais? Redes Neurais Profa. Jaqueline Brigladori Pugliesi Por que Redes Neurais? Utilizar máquinas efetivamente para resolver problemas simples (humanos) Exemplo: distinguir padrões visuais previsão do valor

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Usando MLP para filtrar imagens

Usando MLP para filtrar imagens Usando MLP para filtrar imagens Thiago Richter, Ediel Wiezel da Silva, e Adilson Gonzaga Departamento de Engenharia Elétrica, Universidade de São Paulo, Brasil thiago.richter@yahoo.com.br, edielws@gmail.com,

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

Mineração de Dados em Biologia Molecular

Mineração de Dados em Biologia Molecular Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP

Leia mais

ESTIMAÇÃO DA VELOCIDADE DE DESLOCAMENTO DE UMA ESTEIRA TRANSPORTADORA UTILIZANDO REDES NEURAIS ARTIFICIAIS

ESTIMAÇÃO DA VELOCIDADE DE DESLOCAMENTO DE UMA ESTEIRA TRANSPORTADORA UTILIZANDO REDES NEURAIS ARTIFICIAIS ESTIMAÇÃO DA VELOCIDADE DE DESLOCAMENTO DE UMA ESTEIRA TRANSPORTADORA UTILIZANDO REDES NEURAIS ARTIFICIAIS Samuel Vieira DIAS (1); Geraldo Luis Bezerra RAMALHO (2); (1) Instituto Federal de Educação, Ciência

Leia mais

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)

Redes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Implementação de um phmetro através de Redes Neurais Artificiais e Algoritmos Genéticos

Implementação de um phmetro através de Redes Neurais Artificiais e Algoritmos Genéticos Prof. Emílio Del Moral Hernandez Implementação de um phmetro através de Redes Neurais Artificiais e Algoritmos Genéticos Alexandre Kimiyaki Ligo César Augusto Mayor Herrera Massaki de Oliveira Igarashi

Leia mais