IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS

Tamanho: px
Começar a partir da página:

Download "IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS"

Transcrição

1 Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de 2002 p IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ-SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS ROMUALDO WANDRESEN EDSON APARECIDO MITISHITA 2 JOSÉ BITTENCOURT DE ANDRADE 3 Universidade Federal do Paraná Departamento de Geomática Setor de Ciências da Terra Curso de Pós-Graduação em Ciências Geodésicas, Curitiba-PR wandrese@rla0pucprbr; 2 mitishit@geocufprbr; 3 jbittencourt@bbs2sulcombr RESUMO Este trabalho apresenta uma introdução às redes neurais artificiais como uma alternativa para a identificação de pontos de apoio pré-sinalizados Inicialmente é feita uma rápida revisão bibliográfica sobre redes neurais artificiais, onde são apresentados os modelos de um neurônio, o perceptron, as redes feedforward e retropropagação, bem como um resumo de seu algoritmo Em seguida são realizadas as etapas que compõem as redes neurais artificiais: coleta de dados, treinamento e simulação dos dados São analisados dois tipos de pontos de apoio pré-sinalizados: em forma de cruz e em forma circular São apresentados, examinados e comparados os resultados das identificações dos pontos pré-sinalizados, nas duas formas em cruz e circulares usando códigos fonte em MATLAB, tanto para a fase de treinamento dos dados, quanto para a fase de testes dos mesmos ABSTRACT This work presents an introduction to artificial neural networks as an alternative for the signalized point recognition Initially a fast bibliographical revision on artificial neural networks is made, where the models of a neuron, perceptron, the networks are presented feedforward and backpropagation, as well as a summary of its algorithm After that the stages are carried through that compose artificial the neural networks: it collects of data, training and simulation of the data Two types of signalized point are analyzed: in cross form and circular form They are presented, examined and compared the results of the identifications of the signalized point, in the two form using codes source in MATLAB, for the phase of training and for the phase of simulation of the data Introdução A identificação e medição das coordenadas fotogramétricas dos pontos participantes de uma fototriangulação podem ser realizadas manualmente em imagens digitais, no entanto oferecem o potencial de permitir automatização de inúmeras tarefas (ANDRADE, 998, p2) No tratamento digital de imagens, a correlação, que se constitui na comparação de imagens para a identificação de pontos homólogos que melhor se adaptam pela comparação de uma imagem de referência com outra imagem de busca é uma ferramenta possível de ser usada para a identificação de pontos de apoio nas imagens digitais de fotos aéreas Entretanto, a área da matriz de busca deve ser restrita àquela em que se saiba, com certeza, que contém o ponto homólogo (ANDRADE, 998, p24) Isto pode se constituir em uma limitação se for utilizado métodos de correlação para identificar pontos de apoio Neste sentido, técnicas aplicando redes neurais artificiais podem ser uma importante alternativa 2 CONCEITOS BÁSICOS SOBRE REDES NEURAIS As redes neurais artificiais são sistemas computacionais que imitam as habilidades computacionais do sistema nervoso biológico, usando um grande número de simples neurônios artificiais 2 Modelo de um neurônio Um neurônio é uma unidade de processamento de informação fundamental para as operações em uma rede neural A figura mostra o modelo de um neurônio que forma a base para o projeto de redes neurais artificiais Identificam-se os seguintes elementos básicos em um modelo de neurônio artificial (HAYKIN, 200, p36):

2 Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de 2002 x x2 wk wk2 Sinais de vk entrada ϕ( ) xm wkm Pesos sinápticos Bias bk Junção aditiva Saída Figura - Modelo não linear de um Neurônio a) Um conjunto de sinapses ou elos de conexão, cada uma caracterizada por um peso O sinal x j na entrada da sinapse j, conectada ao neurônio k é multiplicado pelo peso sináptico w kj O primeiro subscrito (k) se refere ao neurônio k e o segundo (j) ao sinal de entrada relativo ao respectivo peso (w kj ) b) Uma somatória, caracterizada por uma combinação linear entre os sinais de entrada e os seus respectivos pesos c) Uma função de ativação, cuja finalidade é restringir a amplitude de saída (y k ) do neurônio d) Uma perturbação (bias), aplicada externamente, representada por bk (figura) A perturbação tem o efeito de aumentar ou diminuir a entrada líquida da função de ativação, dependendo de ela ser positiva ou negativa, respectivamente Do anteriormente exposto, pode-se então expressar um neurônio k pelas equações () e (2) u k = m j= w kj x ( u b ) y k = ϕ k + k (2) A forma mais comum de função de ativação utilizada na elaboração de redes neurais artificiais é a denominada função logística sigmóide e apresenta forma de S, como mostrado na Figura j yk () e cuja derivada é dada por: df () x = f () x [ f () x ] (4) dx 22 O Perceptron O Perceptron é a forma mais simples de uma rede neural artificial É constituído basicamente por um neurônio simples, com pesos sinápticos ajustáveis e bias É a forma mais simples de uma rede neural usada para a classificação de padrões linearmente separáveis, isto é, padrões que se encontram em lados opostos de um hiperplano Um perceptron simples está esquematizado na Figura 3, conforme (HAYKIN 994) x x 2 x p w 2 w p w θ Bias Função de transferência v j ϕ(v j ) - Figura 3 - O Perceptron simples Saída y j Na Figura 3, os pesos sinápticos do perceptron são w, w 2,, w p As entradas correspondentes aplicadas ao perceptron são x, x 2,, x p O bias aplicado externamente é denotado por θ Do conceito de neurônio artificial, o combinador de saída v j é: v j = p i= w x θ (5) A saída do neurônio é obtida por y j = ϕ( v() j ) (6 ) A função de transferência está representada na Figura 4 ϕ(v j ) i i v j Figura 2 Função logística sigmóide A função logística sigmóide que dá origem ao gráfico da Figura 2, obtido com o uso do MATLAB é f () x = (3) x + e Figura 4 Função de transferência do Perceptron -

3 Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de 2002 O propósito do Perceptron é classificar o conjunto estimulado aplicado externamente em duas classes A regra de decisão para a classificação é assinalar os padrões representados pelas entradas para uma das classes se a saída do Perceptron for + e para a outra classe se a saída do Perceptron for Assim, no caso de um Perceptron elementar, há duas regiões de decisão separadas por um hiperplano, dado pela equação i= w i x i θ = 0 (7) p A Figura 5 ilustra a fronteira de decisão para o caso de apenas duas variáveis de entrada x e x 2 classe 2 x 2 classe x Fronteira de decisão w x +w 2 x 2 - θ = 0 Figura 5 - Fronteira de decisão O ponto (x,x 2 ) que se situa acima da linha fronteira é assinalado para a classe e o que se situa abaixo é assinalado para a classe 2 23 Redes Feedforward e Retropropagação Uma rede Feedforward (alimentadas para frente) ou Perceptron de múltiplas camadas consiste de um conjunto de unidades sensoriais formando a camada de entrada, uma ou mais camadas ocultas e uma camada de saída de nós computacionais Este tipo de rede é uma generalização do perceptron simples (HAYKIN, 200, p83) Na Figura 6 está representada a estrutura de um Perceptron de múltiplas camadas Sinais de entrada (estímulos) Camada de entrada Primeira camada oculta Segunda camada oculta Figura 6 - Perceptron de múltiplas camadas Camada de saída Sinais de saída (respostas) O termo retropropagação (backpropagation), refere-se a um método de treinamento empregado na arquitetura do Perceptron de múltiplas camadas, no qual os pesos das conexões são ajustados pela retropropagação de erro Esta retropropagação consiste de dois passos através das diferentes camadas da rede: um passo para frente, a propagação, e um passo para trás, a retropropagação No passo de propagação, os pesos sinápticos são invariantes No passo para trás, os pesos sinápticos são ajustados por uma regra de correção de erro que consiste na diferença entre a resposta real da rede e a resposta desejada Isto produz um sinal de erro, que é propagado para trás através da rede em direção contrária às conexões sinápticas 24 Resumo do algoritmo de retropropagação A apresentação do n-ésimo exemplo de treinamento, isto é, o sinal de erro na saída do neurônio j, na iteração n é definido por e j () n = d j () n y j (n) (8) onde e j (n) se refere ao sinal de erro na saída do neurônio j, para a iteração n e y j (n) se refere ao sinal funcional que aparece na saída do neurônio j, para a iteração n O valor instantâneo da energia do erro para o neurônio j é definida por e 2 ( ) 2 n j Correspondentemente, o valor instantâneo ε () n da energia total do erro é obtido, conforme (HAYKIN,200,p88), somando-se os termos e 2 ( ) 2 n j de todos os neurônios da camada de saída: 2 ε () n = e j () n (9) 2 j C onde o conjunto C inclui todos os neurônios da camada de saída da rede Seja N o número total de padrões contidos no conjunto de treinamento A energia média do erro quadrático é obtida por: N ε = (0) med ε () n N m= A energia instantânea do erro ε () n, e conseqüentemente a energia média do erro ε med, é uma função de todos os parâmetros livres ( pesos sinápticos e bias) da rede Para um dado conjunto de treinamento, ε med representa a função de custo como uma medida de desempenho de aprendizagem O objetivo do processo de aprendizagem é ajustar os parâmetros livres da rede para minimizar ε med A Figura 7, conforme (HAYKIN, 200, p89),representa o neurônio j sendo alimentado por um conjunto de sinais funcionais produzidos por uma camada de neurônios à sua esquerda O campo local induzido v j () n produzido na entrada da função de ativação associada ao neurônio j, é: v j m () n = w () n y () n i= 0 ji i () onde m é o número total de entradas aplicadas ao neurônio j O peso sináptico w j0, que corresponde à

4 Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de 2002 entrada fixa y 0 = +, é igual ao bias b j aplicado ao neurônio j Desta forma, o sinal funcional y j () n que aparece na saída do neurônio j na iteração n é y j () n = ϕ j ( v j () n ) (2) A correção w ji () n aplicada ao peso sináptico w ji () n, isto é, o acréscimo nos valores dos pesos na direção do máximo descendente para cada par entradasaída é definida pela regra delta: ε () () n w ji n = η () w ji () n onde η é o parâmetro da taxa de aprendizagem O uso do sinal negativo na equação () indica a descida do gradiente no espaço dos pesos, isto é, a busca de uma direção para a mudança do peso que reduza o valor de ε n () y 0 =+ y i (n) w ji (n) Neurônio j w j0 (n)=b j(n) v j(n) ϕ () y j(n) - d j(n) e j(n) v m0 () l () () l () ( l n w n y ) () n j =, () i= 0 onde y ( l ) i () n é o sinal (função) da saída do neurônio i na camada anterior (l-), na iteração n e w () l ji () n é o peso sináptico do neurônio j da camada l, que é alimentado pelo neurônio i da camada (l-) Para i=0, ( y l ) ( 0 () n = + e w l ) () n b () 0 = j () n é o bias aplicado ao neurônio j da camada l A função de ativação é, normalmente, a sigmóide e o sinal de saída do neurônio j da camada l é () l y j = ϕ j ( v j () n ) (5) Se o neurônio j está na primeira camada oculta, isto é, l=, faça: (0) j = ji () n y x j (6) onde x j () n é o j-ésimo elemento do vetor de entrada x () n Se o neurônio j está na camada de saída, isto é, l=l, onde L é a profundidade da rede, faça ( L y ) j = o j () n (7) Calcule o sinal de erro e j () n = d j () n o j () n (8) onde d j () n é o j-ésimo elemento do vetor resposta desejada d () n i Figura 7 - Detalhes do neurônio simples de saída j Para a atualização dos pesos, o algoritmo circula através da amostra de treinamento { x( n), d( n) } N n=, como segue: I Inicialização dos pesos sinápticos II III Apresentação dos exemplos de treinamento: apresenta-se uma época de exemplos de treinamento Computação para a frente (propagação): Se um exemplo de treinamento da época é representado por ( x () n, d() n ), com o vetor de entrada x () n aplicado à camada de entrada de nós computacionais, ocorre o campo local induzido IV Computação para trás (retropropagação) Calculam-se os gradientes locais ( δ j ) da rede, de acordo com (HAYKIN,200,p202) por: ( L) ( L e ϕ ( v ) () n ) para o neurônio j da j j j () camadade saída L l δ j () n = l ( ()) ( l + ) () ( l + ϕ v n n w ) j j δ k kj () n neurônioj k na camada oculta l (9) Ajuste dos pesos sinápticos da rede na camada l: w () l ( ) () l () () l n = w n + α w ( n ) ji ji [ ] () l () ( l n y ) ji + j j () n + ηδ (20) onde η é o parâmetro da taxa de aprendizagem e α é a constante momento, conforme (HAYKIN,200,p202) Observações: ) Quanto menor for o valor de α, tanto mais a rede terá aprendido 2) O termo momento η é responsável para redirecionar o gradiente para a

5 Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de 2002 descida mais íngreme, isto é, em direção ao mínimo do erro quadrático 3 ETAPAS Na aplicação de redes neurais, como em qualquer pesquisa de ordem prática, deve-se estabelecer etapas lógicas de execução De acordo com (FILHO, p), numa etapa inicial, deve ser feita a coleta de dados do problema em questão Com os dados coletados, a etapa seguinte é estabelecer um conjunto de treinamento Em seguida é elaborado o treinamento da rede com o uso do conjunto de dados coletados Após o treinamento vem a fase de testes (simulações) da rede com os dados usados no conjunto de treinamento, e principalmente com os dados do problema que não foram envolvidos no conjunto de treinamento 3 Coleta de Dados Nesta etapa inicial, ocorre a decisão de que tipos de pontos pré-sinalizados são convenientes para um início de identificação, utilizando inteligência artificial, através de redes neurais artificiais Numa das paredes externas do Centro Politécnico da Universidade Federal do Paraná foram fotografados pontos em forma de cruz e também pontos em forma de círculo, como está mostrado na Figura 8, parte desta imagem Figura 8 - Imagem 527x464 pixels com as bandas R,G,B Com o auxílio do software Jasc Paint Shop Pro transformou-se esta imagem para tons de cinza, como mostrado na Figura 9 Figura 9 - Imagem 527x464 pixels em tons de cinza 32 Treinamento Após a coleta de dados, ocorre a fase de treinamento Esta é também conhecida como fase de aprendizagem Nesta fase é preciso fornecer à rede todas as informações necessárias, isto é, informações que sejam capazes de abranger o problema em estudo Como o problema em foco é a identificação de pontos présinalizados procedeu-se diversas tentativas, trabalhandose com informações da imagem representada na Figura 9 A imagem para o treinamento que forneceu melhores resultados foi aquela contendo os valores dos tons de cinza dos pixels de dois pontos distintos présinalizados escolhidos aleatoriamente em forma de círculo e dois pontos pré-sinalizados em forma de cruz, bem como partes da imagem do fundo da parede A codificação do programa fonte para o treinamento com a finalidade de identificar o ponto de apoio pré-sinalizado foi elaborada no MATLAB O treinamento foi executado por feed forward-backpropagation Os primeiros treinamentos foram executados para que o ponto présinalizado fosse identificado na posição os quais foram fotografados, como aparecem na Figura 9 Estes primeiros treinamentos foram elaborados para duas situações Na primeira foi considerado o ponto de apoio pré-sinalizado como sendo aquele em forma de cruz Na segunda situação, considerou-se o ponto de apoio pré-sinalizado como sendo aquele em forma de círculos concêntricos A Figura 0 apresenta o conjunto de treinamento utilizado para o treinamento da primeira situação Este conjunto é uma imagem de 83x33 pixels 32 Treinamento do alvo na forma de cruz A Figura 0 apresenta o conjunto de treinamento utilizado para o treinamento no sentido de identificar o alvo na forma de cruz Este conjunto é uma imagem de 83x33 pixels O ponto pré-sinalizado cruz foi treinado em sua posição original, e também em várias outras

6 Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de 2002 posições, desde zero grau até 90, com intervalo de variação de o 25 (KËPUSKA e MASON,995,p92) 322 Treinamento de alvo na forma de círculos Figura 0 Conjunto de treinamento 83x33 pixels Para que a rede neural reconheça a posição exata do alvo cruz, considera-se esta cruz contida, como no presente caso em um "template" de 20x20 pixels, cujo canto esquerdo superior tem as coordenadas Y=5;X=5 e a partir daí é feito um cálculo para saber se o pixel está ou não contido neste template Este procedimento é feito novamente para a posição do canto esquerdo superior da segunda cruz da imagem de treinamento com as coordenadas Y=5; X=05, isto é, na linha 5 e coluna 05 As últimas linhas do código fonte MATLAB indicam a criação da rede neural propriamente dita A rede neural foi configurada com duas camadas A primeira com três neurônios logsig e a segunda com um neurônio logsig,isto é, neurônios que utilizam a função de transferência logística sigmóide Aqui deve ser observado que esta configuração foi obtida por sucessivas experimentações, isto é, variando o número de camadas e de neurônios Para que o treinamento fosse encerrado, estabeleceu-se o número máximo de 600 iterações (épocas) no processo de retro-propagação, bem como o mínimo valor para o erro médio quadrático (MSE), isto é, o desvio padrão (GEMAEL,994,P88) de 0-20 Finalmente, o treinamento é levado a efeito, onde a saída para o mesmo será binária, indicando 0 para o template de 20x20 pixels não-alvo e para o template de 20x20 pixels alvo Foram obtidos os resultados mostrados na Tabela, para o treinamento com alvo cruz Figura Conjunto de treinamento 62x36 pixels Nesta hipótese, na qual o ponto pré-sinalizado é considerado a imagem dos círculos concêntricos, o código fonte é praticamente o mesmo para identificar cruzes As mudanças neste caso são: o tamanho da imagem de treinamento que é de 62x36 pixels, mostrada na Figura ; as coordenadas do canto esquerdo superior do primeiro template que contém a imagem de círculos concêntricos são Y=8 e X=8 Neste caso também o treinamento ficou simplificado: bastou treinar o ponto pré-sinalizado em forma de círculos para a posição de zero grau, para que a rede reconheça na fase de simulação (testes) outras posições com ângulos diferentes de zero grau A curva que representa o desempenho deste treinamento está representada na Figura 2 Tabela Treinamento com alvo cruz Giro em Itera ções , , , , , , Desvio Padrão MSE Gradiente 0, ,7374x0-2 20,8554,79299x0-0 0, ,65 09,296x0-8,60283x0-0, ,7 6,57463x0-2 5,989x0-0, ,959 06,32x0-5,389x0-0, , ,63644x0-2,9565x0-0, ,6 9 4,8847x0-2 4,794x0-0, ,6 23,2425x0-9,27268x0 - O, ,845 25,3605x0-8,967x0 - Tempo (min) Figura 2 - Desempenho do treinamento com alvos circulares No gráfico da Figura 2, o eixo das abscissas representa o número de iterações do treinamento e o eixo das ordenadas o desvio padrão correspondente em determinada iteração Os resultados do treinamento apresentam-se na Tabela 2 Giro em Tabela 2 Treinamento com alvos circulares Itera ções Desvio Padrão MSE Gradiente Tempo (min) 0, , ,42969x0-2 4,4685x0 - Neste caso não há a necessidade de efetuar o treinamento para giros diferentes de zero grau, por ser o alvo circular

7 Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de Teste da Rede (simulação) Após o treinamento sucede a fase de teste (simulação) da rede, isto é, a fase de testes de validação Os testes devem ser feitos não apenas para o conjunto de treinamento, mas também para todo o conjunto universo dos dados de onde o conjunto de treinamento foi retirado 33 Testes para os alvos O código fonte para os testes dos alvos elaborou-se em separado do código fonte de treinamento Inicialmente é levada a efeito a leitura da imagem na qual se pretende identificar o alvo Os tamanhos dos templates para os testes devem ser aqueles do treinamento, isto é, 20x20 pixels Se o teste for para identificar alvos do tipo cruz, então devem ser considerados todos os giros dos alvos candidatos do tipo cruz, desde zero grau até 78 o 45 Se for identificado um alvo, então estará indicada a sua posição central no template 20x20 justifica devido à simetria que o símbolo cruz apresenta Nas segunda e terceira colunas estão indicadas respectivamente a linha (L) e a coluna ( C ) da posição central do símbolo Na quarta coluna se tem o valor da simulação, que devido à função de transferência ser a função logística sigmóide representada na Figura 2, quando o alvo é identificado, o valor da simulação tende ao limite, daí o valor, como por exemplo, em 45 o 00 ' (0, ) para a simulação Tabela 4 - Teste na imagem I3x3raw Giro/Imagem L C Simulação 0 o 90 o (0 o ) 5 0, , Resultados obtidos na identificação automática dos alvos 80 o (0 o ) 5 0, O primeiro teste elaborado foi na imagem I83x33raw representada na Figura 0, que é a própria imagem de treinamento Os resultados estão indicados na Tabela 3 Tabela 3 - Simulação da imagem de treinamento 270 o (0 o ) o 5 0 o 5 ( o 5 ) 5 0, , , Giro em Linha Coluna Simulação valor de y 0 5 0, , , , , , , Analisando a Figura 0, nota-se duas imagens que representam o símbolo de cruz Os resultados dos centros dessas cruzes estão indicados em negrito na Tabela 3, isto é, o centro do template da primeira cruz ocorre na posição Linha 5 e Coluna 5, onde o valor da simulação 0, é maior do que para as outras três posições indicadas e o centro do template da ocorrência da segunda cruz está na posição Linha 5 e Coluna 5, como o valor de simulação 0, , que é maior do que as outras duas posições indicadas Na seqüência, apresenta-se na Tabela 4, a simulação da imagem I3x3raw, que representa um símbolo de cruz contido no template de 3 por 3 pixels Nesta tabela será também mostrado o motivo pelo qual não foi necessário o treinamento do símbolo em forma de cruz para rotações superiores ou iguais a 90 Com relação à Tabela 4, faz-se as seguintes observações: Na primeira coluna aparece a imagem representada e o giro e este acrescido de respectivamente 90, 80 e 270 Isto se 9 o 5 ( o 5 ) 28 o 5 ( o 5 ) 45 o 00 5 o 00 (45 o 00 ) 225 o 00 (45 o 00 ) 35 o 00 (45 o 00 ) 7 o 30 (67 o 30 ) 6 o 30 (67 o 30 ) 25 o 30 (67 o 30 ) 34 o 30 (67 o 30 ) 78 o o 45 (78 o 45 ) 258 o 45 (78 o 45 ) 348 o 45 (78 o 45 ) , , , , , , , , , , , , , ,

8 Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de 2002 Um outro teste foi feito com a imagem representada na Figura : Figura - Imagem I7x67raw O centro do ponto pré-sinalizado cruz foi encontrado na posição L=8 e C=6, com o respectivo valor de simulação 0, A Figura foi obtida a partir da Figura, pela inclusão de alguns símbolos de cruz com diferentes rotações na Figura Os resultados deste teste indicam-se na tabela 7 Tabela 7 - Simulação da imagem de treinamento Giro em Linha Coluna Simulação valor de y , , A seguir apresenta-se na Tabela 8 o teste na imagem representada na Figura 5 Figura - Imagem I7x67araw O resultado do teste está apresentado na Tabela 5 Tabela 5 - Simulação na imagem I7x67araw Giro L C Simulação Posição , (,) 30 o (33 o 45 ) , (,2) 300 O (33 o 45 ) , (3,2) 50 o (56 o 5 ) 03 0, (,3) 75 o (78 o 45 ) , (3,) Em seguida apresentam-se, na Tabela 6, os resultados obtidos pelo teste feito na Figura 9 Tabela 6 Simulação na imagem da Figura 9 L C Simulação Posição , (,) , (,2) , (2,2) , (2,) , (2,3) , (3,2) 209 0, (3,) , (4,) , (4,2) , (5,2) , (6,3) , (6,) , (6,2) Considere-se agora o teste nas imagens levando em conta o treinamento da situação na qual os pontos présinalizados são os círculos concêntricos Inicialmente considera-se a própria imagem de treinamento, definida Figura 5 - Imagem I92x202raw Tabela 8 - Teste na imagem I92x202raw Giro em Linha Coluna Simulação , , , Na Tabela 9 apresentam-se os resultados da simulação na imagem I92x202araw, da Figura 6, onde os pontos pré-sinalizados são os círculos concêntricos, em diversas posições Figura 6 - Imagem I92x202araw Tabela 9 - Simulação na imagem I92x202araw

9 Anais do Simpósio Brasileiro de Geomática, Presidente Prudente SP, 9- de julho de 2002 L C Simulação Posição , (,) , (,2) 33 0, (,3) , (,4) , (2,) , (2,2) 92 0, (2,3) , (3,) , (3,2) , (3,3) , (3,4) , (4,) 77 0, (4,3) , (4,4) As duas primeiras colunas da Tabela 8 representam as coordenadas do centro dos círculos, que são identificados como pontos pré-sinalizados Na terceira coluna estão representados os valores da simulação, isto é, os valores aplicados à função de transferência logística sigmóide A quarta coluna identifica a posição onde os círculos concêntricos estão contidos em relação à imagem da Figura 6 Não foi necessário indicar o giro em cada posição dos pontos pré-sinalizados, porque todos foram identificados pela rede neural, como posição de zero grau, isto é, sem giro Na Tabela 0 estão apresentados os resultados obtidos para o teste de identificação dos centros dos alvos círculos concêntricos cruz Esta vantagem também se verifica quando da simulação (testes de validação) da rede neural Nas tabelas 3, 4 e 5 estão representadas simulações para a identificação de cruzes e nas tabelas 6,7 e 8 simulação para a identificação de círculos Tanto na fase de treinamento, quanto na fase de simulação o esforço computacional para o treinamento e posterior identificação do ponto pré-sinalizado círculo foi bem inferior ao do ponto pré-sinalizado cruz REFERÊNCIAS ANDRADE, JB Fotogrametria Curitiba: SBEE, 998, 258p DEPENAU, J Automated Design of Neural Network Architecture for Classification Aarhus, 995, 87p PhD Thesis Daimi, Computer Science Department, Aarhus University FAUSETT, L Fundamentals of Neural Networks: Architectures, Algorithms, and Aplications New Jersey: Florida Institut of Technology, 99 46p FILHO, Elson Felix Mendes (2002) Uma Introdução a Redes Neurais Artificiais < Acesso: 27 fevereiro 2002 GEMAEL,C Introdução ao Ajustamento de Observações Aplicações Geodésicas Curitiba: Editora UFPR, 994, 39p Tabela 0 Simulação na imagem da Figura 9 L C Simulação Posição , (,) , (2,) , (2,2) , (3,2) , (3,) , (4,2) , (4,) , (5,) , (6,5) , (6,2) , (7,) 4 CONCLUSÕES Ao se utilizar o ponto pré-sinalizado cruz foi suficiente treinar posições de rotação conforme se indica na Tabela, para que a rede neural, assim treinada seja capaz de identificar este ponto em qualquer outro giro diferente daquele indicado nesta tabela Por outro lado, quando se considerou o ponto sinalizado círculo foi suficiente realizar o treinamento apenas na posição zero grau Desta forma se for feita comparação entre os treinamentos dos pontos pré-sinalizados círculo e cruz, o círculo leva enorme vantagem em relação à HAYKIN, S Neural Networks A Comprehensive Foundation New York: IEEE Computer Society Press, 994, 696p Redes Neurais Princípios e Prática Tradução de Paulo Martins Engel Porto Alegre: Bookman, p Título original: Neural Networks A Comprehensive Foundation KËPUSKA, V Z; MASON, S O A Hierarchical Neural Network System for Signalized Point Recognition in Aerial Photographs Photogrammetric Engineering & Remote Sensing, vol 6, N o 7, pp , jul995 Automatic Signalized Point Recognition With Feed-Forward Neural Network In: IEE International Conference on Artificial Neural Networks, 2, 99, Bournemouth, United Kindom, p KOVÁCS, L Z Redes Neurais Artificiais: Fundamentos e Aplicações 2 a ed São Paulo: Collegium Cognitio, 996, 73p LOESCH, C; SARI, ST, Redes Neurais Artificiais Fundamentos e Modelos Blumenau: Ed Da FURB, 996, 66p

IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ- SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS E CORRELAÇÃO

IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ- SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS E CORRELAÇÃO IDENTIFICAÇÃO DE PONTOS DE APOIO PRÉ- SINALIZADOS COM O USO DE REDES NEURAIS ARTIFICIAIS E CORRELAÇÃO Identifying Pre-signalized Points by the Use of Artificial Networks and Correlation ROMUALDO WANDRESEN

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho marcela@enecar.com.br IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho hipolito.barbosa@ifg.edu.br IFG/Câmpus Goiânia Programa Institucional

Leia mais

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA

UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA UM MODELO NEURAL PARA A PREVISÃO DA DEMANDA DE ENERGIA ELÉTRICA NA CIDADE DE FRANCA SOUZA, REGIANE MÁXIMO YOSHINO, RUI TADASHI HANISC,H, WERNER SIEGFRIED ETO, REGINA FUMIE Palavras-chaves: Artificial Neural

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais

UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais UNIVERSIDADE FEDERAL DE LAVRAS DEPARTAMENTO DE CIÊNCIAS EXATAS (DEX) Orientador: Prof. Fabiano Lemes Ribeiro Estudo de Algoritmos de Aprendizado em Redes Neurais Artificiais Nome: João Vitor Squillace

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Camada Única Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs)

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs) Aprendizagem de Máquina Redes Neurais Artificiais (RNAs) Plano de Aula Introdução Motivação Biológica Perceptron Superfície de Decisão Descida do Gradiente Redes Multicamadas (Multilayer) Retropropagação

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Inteligência Computacional

Inteligência Computacional Inteligência Computacional INTRODUÇÃO ÀS REDES NEURAIS ARTIFICIAIS Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Na Aula Passada... O que é uma

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

Previsão de consumos a curto prazo

Previsão de consumos a curto prazo Previsão de consumos a curto prazo Cláudio Monteiro Distribuição de Energia II 5º ano da LEEC - ramo de Energia (FEUP) O que são? são técnicas computacionais que apresentam um modelo matemático inspirado

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS

SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS SELEÇÃO DE VARIÁVEIS STEPWISE APLICADAS EM REDES NEURAIS ARTIFICIAIS PARA PREVISÃO DE DEMANDA DE CARGAS ELÉTRICAS MARLEIDE F. ALVES 1, ANNA DIVA P. LOTUFO 1, MARA LÚCIA M. LOPES 2 1. Laboratório de Sistemas

Leia mais

GENERALIZAÇÃO DE REDES NEURAIS ARTIFICIAS USANDO DADOS DE DIFERENTES SENSORES - LANDSAT E CBERS - UMA ABORDAGEM ORIENTADA A REGIÕES

GENERALIZAÇÃO DE REDES NEURAIS ARTIFICIAS USANDO DADOS DE DIFERENTES SENSORES - LANDSAT E CBERS - UMA ABORDAGEM ORIENTADA A REGIÕES GENERALIZAÇÃO DE REDES NEURAIS ARTIFICIAS USANDO DADOS DE DIFERENTES SENSORES - LANDSAT E CBERS - UMA ABORDAGEM ORIENTADA A REGIÕES Igor Amazonas de Andrade 1 Mosar Faria Botelho 2 Selma Regina Aranha

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas II Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de

Leia mais

Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos

Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos Avaliação de Desempenho de Redes LVQ em Comparação com Redes MLP com Backpropagation na Classificação de Cromossomos Otávio Roberto Martins de Souza UFSC otavio@eps.ufsc.br Silvana Pezzi, M.Eng UFSC spezzi@eps.ufsc.br

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Thiago Christiano Silva

Thiago Christiano Silva Thiago Christiano Silva Conteúdo Conceitos Relevantes Problemas de Otimização Conceitos de Estabilidade e Convergência Teoremas de Lyapunov Rede Neural de Hopfield Aplicações do modelo de Hopfield Clusterização

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes Neurais Artificiais (RNA)

Redes Neurais Artificiais (RNA) Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

Redes Neurais Artificiais. Professor: Juan Moises Villanueva

Redes Neurais Artificiais. Professor: Juan Moises Villanueva Redes Neurais Artificiais Mestrando: Lucas Nicolau Email: lucasfnicolau@gmail.com Professor: Juan Moises Villanueva Rede Neural Direta Arquitetura com múltiplas camadas com fluxo de informação apenas em

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

SCC Capítulo 5 Perceptron Multicamadas

SCC Capítulo 5 Perceptron Multicamadas Introdução Back-propagation (BP) MLPs Convolução SCC-5809 - Capítulo 5 Perceptron Multicamadas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes

Leia mais

SCC Capítulo 4 Perceptron de Camada Única

SCC Capítulo 4 Perceptron de Camada Única Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

Profa. Josiane M. Pinheiro outubro/2008

Profa. Josiane M. Pinheiro outubro/2008 Baseada em: Stuart Russel e Peter Norving - Inteligência Artificial seção 20.5 Jorge M. Barreto Introdução às Redes Neurais Artificiais - http://www.inf.ufsc.br/~barreto/tutoriais/survey.pdf Cassia Yuri

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Redes Neurais Pulsadas João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas Introdução Modelos de redes neurais podem ser classificados em gerações. Primeira Geração Neurônios de McCulloch-Pitts

Leia mais

Classificadores Lineares

Classificadores Lineares Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificadores Lineares David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Funções Discriminantes Lineares Perceptron Support

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais

Protótipo de Software para Reconhecimento de Impressões Digitais

Protótipo de Software para Reconhecimento de Impressões Digitais Protótipo de Software para Reconhecimento de Impressões Digitais Aluno: Alex Sandro da Silva Orientador: Paulo de Tarso Mendes Luna Semestre - 99/1 Roteiro da Apresentação INTRODUÇÃO CONCEITOS BÁSICOS

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

SCC Capítulo 2 Topologia e Representação

SCC Capítulo 2 Topologia e Representação Modelos Arquiteturas Representação do Conhecimento SCC-5809 - Capítulo 2 Topologia e Representação João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809:

Leia mais

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís

Resolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve

Leia mais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS.

CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS. CÁLCULO DO EQUILIBRIO DE TROCA-IÔNICA DO SISTEMA Na + -Pb 2+ -Cu 2+ USANDO REDES NEURAIS ARTIFICIAIS. A. B. B. GIOPATTO 1, E. A. SILVA 2, T. D. MARTINS 1 1 Universidade Federal de São Paulo, Departamento

Leia mais

Aula 1 Introdução - RNA

Aula 1 Introdução - RNA Aula 1 Introdução - RNA Sumário 1- Conceitos Iniciais; 2- Neurônio Biológico; 3- Neurônio Artificial; 4- Funções de Ativação; 5- Comparação Neurônio Biológico e Artificial. 1- Conceitos Iniciais - Computadores

Leia mais

3 Redes Neurais Introdução

3 Redes Neurais Introdução 3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior

Mineração de Dados aplicada a Gestão de Negócios. Aula 2. Prof. Dr. Sylvio Barbon Junior Aula 2 Introdução Redes Neurais Prof. Dr. Sylvio Barbon Junior barbon@uel.br Sumário 1- Inteligência Artificial 2- Introdução às Redes Neurais Artificiais 3- Modelos de Redes Neurais supervisionados e

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

Aplicação de redes neurais artificiais na classificação de imagens obtidas por sensoriamento remoto

Aplicação de redes neurais artificiais na classificação de imagens obtidas por sensoriamento remoto Aplicação de redes neurais artificiais na classificação de imagens obtidas por sensoriamento remoto Alexandre G. de Lima 1, Adrião Duarte Dória Neto 1, Jailton Carlos de Paiva 1, Vitor Meneghtetti 1, Xiankleber

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Modelos de classificação por Redes Neurais Artificiais Prof. Paulo Martins Engel Motivação Classificadores baseados em representação simbólica (AD, RD,...) estão limitados a particionar

Leia mais

Perceptron de Múltiplas Camadas e Backpropagation

Perceptron de Múltiplas Camadas e Backpropagation Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas

Redes Neurais 1. Redes Neurais. cont.) Definição (cont( Definição. Histórico. Características básicas Redes Neurais Dalma M. Falcão falcao@nacad.ufr.br http://www.nacad.ufr.br/~falcao/ Redes Neurais Definição Histórico Áreas de aplicação RNs biológicas Modelos de neurônios artificiais Arquiteturas de RNs

Leia mais

Reconhecimento de Faces Utilizando Redes Neurais MLP

Reconhecimento de Faces Utilizando Redes Neurais MLP Reconhecimento de Faces Utilizando Redes Neurais MLP Autor: Adilmar Coelho Dantas 1, Orientador: Márcia Aparecida Fernandes 1 1 Programa de Pós-Graduação em Ciência da Computação Universidade Federal do

Leia mais

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann:

A evolução natural deu ao cérebro humano muitas características desejáveis que não estão presentes na máquina de von Neumann: Faculdade de Engenharia de Computação Centro de Ciências Exatas, Ambientais e de Tecnologias PUC-Campinas João Luís Garcia Rosa 2004 2 A evolução natural deu ao cérebro humano muitas características desejáveis

Leia mais

Análise de um aproximador funcional utilizando as Redes Neurais artificiais MLP treinada com o algoritmo Backpropagation

Análise de um aproximador funcional utilizando as Redes Neurais artificiais MLP treinada com o algoritmo Backpropagation Análise de um aproximador funcional utilizando as Redes Neurais artificiais MLP treinada com o algoritmo Backpropagation Martinez, S. C. 1, Ferrara, L. F. P. 2, Mario, M. C. 2. 1 Aluna do Curso de Mestrado

Leia mais

Mineração de Dados em Biologia Molecular

Mineração de Dados em Biologia Molecular Mineração Dados em Biologia Molecular Principais tópicos André C. P. L. F. Carvalho Monitor: Valéria Carvalho Res Neurais Artificiais Introdução Arquitetura Aprendizado Principais molos Perceptron MLP

Leia mais

Unidade 08 MATLAB Neural Network Toolkit

Unidade 08 MATLAB Neural Network Toolkit Unidade 08 MATLAB Neural Network Toolkit 1. Introdução Uma rede neural artificial (NN daqui em diante) é um modelo matemático que consiste de neurônios interconectados que imitam, em uma escala menor,

Leia mais

PROPOSTA DE UTILIZAÇÃO DE REDES NEURAIS PARA ANÁLISES FÍSICO- QUÍMICA UTILIZANDO DADOS ESPECTROMÉTRICOS NO UV-VIS

PROPOSTA DE UTILIZAÇÃO DE REDES NEURAIS PARA ANÁLISES FÍSICO- QUÍMICA UTILIZANDO DADOS ESPECTROMÉTRICOS NO UV-VIS PROPOSTA DE UTILIZAÇÃO DE REDES NEURAIS PARA ANÁLISES FÍSICO- QUÍMICA UTILIZANDO DADOS ESPECTROMÉTRICOS NO UV-VIS 1 SILVA, J. N., 2 MONTEIRO, G. S., 3 SILVA, S. K., 4 AVELINO, M. C., 5 FRANÇA, M. I. C,.

Leia mais