Aprendizagem de Máquina

Tamanho: px
Começar a partir da página:

Download "Aprendizagem de Máquina"

Transcrição

1 Aprendizagem de Máquina Modelos de classificação por Redes Neurais Artificiais Prof. Paulo Martins Engel Motivação Classificadores baseados em representação simbólica (AD, RD,...) estão limitados a particionar o domínio utilizando retas (planos) alinhadas com os eixos do espaço de características. Entretanto, se utilizarmos representação não-simbólica, podemos relaxar esta limitação. A Redes Neurais Artificiais paticionam o espaço com linhas (superfícies) de qualquer formato. Categorias de problemas: lógicos linearmente separáveis não-linearmente separáveis

2 Problema Lógico com ruído Problema LS Problema NLS Solução por MLP Conceitos básicos de Redes Neurais As Redes Neurais Artificiais (RN) são sistemas físicos celulares que podem adquirir, armazenar e utilizar conhecimento extraído da experiência, por meio de algoritmos de aprendizagem. O conhecimento está na forma de mapeamentos incorporados numa rede de processadores simples, os neurônios artificiais, interligados por elos que possuem parâmetros ajustáveis, os pesos sinápticos, que controlam a intensidade das conexões. A computação por RN é realizada por uma densa malha de nós processadores e conexões. O elemento processador básico é o neurônio artificial.

3 Conceitos Topologia da rede: grafo direcionado rotulado, determina a conectividade da rede. Neurônio: função elementar (nó). Calcula um valor de saída, função dos valores de entrada do nó e dos pesos sinápticos correspondentes. Conexão: determina um caminho para o fluxo de informação entre dois nós (elo). Peso sináptico: determina a força de conexão entre dois nós da rede (rótulo). Funcionalidade da rede: composição das funções elementares determinada pela conectividade da rede. Topologia da Rede Uma rede com apenas uma única camada de neurônios só consegue resolver problemas linearmente separáveis. w 0 x 0 w y x 0 x w w w 0 y x x i i i 0 3 y x w x 0 Pode-se provar que uma rede neural multicamadas, com pelo menos uma camada oculta de neurônios, além da camada de saída, é um classificador universal, ou seja, pode resolver problemas não-linearmente separáveis. Na verdade, a prova é mais genérica, mostrando que uma rede multicamadas pode aproximar qualquer função (de valor discreto ou contínuo), ou seja, é um aproximador universal de funções.

4 Exemplo de uma rede multicamadas peso sináptico sinal intermediário sinal de entrada neurônio x x conexão x x camada de entrada w o w o w o w o w o 3 w o 3 w o 4 w o i i i 3 i 4 camada oculta w s w s w s 3 w s 4 w s w s w s 3 w s 4 camada de saída y y sinal de saída Fluxo do processamento (propagação) Funcionalidade: [y y ] T = F(x, x ) Funcionalidade de uma RN sinal de entrada x y x y sinal de saída sinal de entrada x F y x y Funcionalidade: [y y ] T = F(x, x ) Mapeamento sinal de saída

5 Mais conceitos A topologia da rede determina uma funcionalidade genérica adequada para uma certa classe de aplicações. A funcionalidade específica (mapeamento) de uma RN depende dos valores dos seus pesos sinápticos. Os valores dos pesos sinápticos são ajustados ao problema específico através de procedimentos iterativos de treinamento (processo de aprendizagem indutiva). Para o processo de aprendizagem é necessário se dispor de um conjunto de exemplos do mapeamento desejado (aprendizagem supervisionada). Alternativamente, uma RN pode ser treinada para extrair o modelo de um conjunto de dados de forma autônoma (aprendizagem não-supervisionada). Computação realizada por uma RN O mapeamento que uma rede neural implementa pode envolver valores binários de saída, ou então valores contínuos. No primeiro caso, normalmente o conjunto de saídas binárias da rede é interpretado como rótulo de classe e a RN desempenha o papel de um classificador. No segundo caso, a rede atua como um regressor, fornecendo estimativas de valores do mapeamento aprendido (os valores de saída correspondentes a valores apresentados na entrada). Normalmente, os valores de entrada para a rede devem pertencer a um intervalo numérico adequado previamente definido, o que usualmente exige algum tipo de pré-processamento dos valores do domínio da aplicação.

6 Conceitos básicos da lógica de limiar A funcionalidade básica de um neurônio artificial é a de uma porta lógica genérica da lógica de limiar (LTU, Logic Threshold Unit ou perceptron). Considere o elemento computacional abaixo (neurônio artificial binário) cujo valor de saída depende do valor (u) da soma ponderada entre as entradas do neurônio e os seus pesos (sinápticos). No modelo binário, o valor de saída corresponde ao resultado da comparação de u com um limiar z. A operação de comparação é modelada por uma função de ativação, (u). Em geral, cada neurônio artificial tem uma entrada extra utilizada para ajustar o seu limiar. O valor default do limiar de um neurônio é zero. x x : x m w w : w m u z u > z y y = m u = w j x j j = se u > z 0 se u z Implementação de funções booleanas por perceptrons Um neurônio artificial é uma porta lógica universal que pode implementar as diversas funções booleanas elementares, que formam a base da lógica booleana, apenas alterando o seu conjunto de pesos e limiar: A B + + u 0 u > z y A B u y A B AB A B + + u + u > z y A B u y + A B AB

7 A superfície de decisão do perceptron A funcionalidade do perceptron equivale a uma tomada de decisão segundo uma superfície de decisão linear no espaço de entrada. Isto se deve ao fato de que a soma ponderada na entrada do perceptron representa uma reta, no espaço bidimensional, um plano no espaço 3-D, e um hiperplano em espaços de alta dimensionalidade. x() x() x(3) x(4) x x z OU (0,+) (0, 0) x (+,+) (+, 0) x x x w w u u > z y y = se u > z 0 se u z w x + w x z = 0 Classificação de padrões por um perceptron A classificação é uma tarefa de previsão, que consiste em mapear (classificar) um determinado item, representado por um vetor de características (de entrada), para uma entre várias classes pré-definidas. Inicialmente, é necessário construir o classificador que implementa a função de mapeamento dos vetores de entrada para os rótulos numéricos de saída. No caso de um problema de classificação linear, o classificador pode ser implementado por um perceptron elementar. Neste caso, o mapeamento desejado se dá por aprendizado a partir de um conjunto de treinamento, com itens previamente classificados. Para problemas de classificação não linear o modelo de rede neural mais indicado é o perceptron de múltiplas camadas (MLP), que implementa um classificador universal. Quando o valor de saída do perceptron é contínuo, a sua funcionalidade é de um aproximador universal de funções.

8 Resolução gráfica do problema de classificação Dada a solução geométrica abaixo, determine os pesos do perceptron que implementa esta solução Mau Bom Renda z Renda w Dívida w u u > z y y = se u > z 0 se u z O treinamento de um perceptron Uma das formas mais eficientes de se ajustar os pesos de um perceptron é através do algoritmo do mínimo quadrado médio, ou least mean square (LMS). O algoritmo LMS é um processo iterativo no qual, a cada instante discreto de tempo n, um dos vetores de treinamento, representado por x(n), é propagado através do neurônio gerando a saída correspondente y(n). O erro quadrado instantâneo na saída é então calculado, correspondente à diferença entre o valor desejado d e a saída obtida y(n), representado por: e (n) = ((d(n) -y(n)) O vetor de pesos é então ajustado de modo a diminuir e (n): w(n + ) = w(n) + e(n).x(n) O processo é repetido para todos os vetores de treinamento. A apresentação do conjunto completo de treinamento é denominada de época. O processo de apresentação de vetores de treinamento e ajuste de pesos é repetido por várias épocas até que o erro médio quadrado se torne suficientemente pequeno ou então que ele não se modifique mais.

9 O método da decida mais íngreme O algoritmo LMS se baseia na minimização de uma função de custo E(w), proporcional ao erro quadrático instantâneo: E(w) = e (n) E(w) representa uma superfície de erro no espaço dos pesos. Os pesos são ajustados de modo que o erro quadrático instantâneo e (n) diminua. Isto é feito ajustando-se os pesos na direção oposta ao vetor gradiente E(w). O gradiente E(w) é um vetor composto pelas derivadas parciais da função de erro (quadrático) em relação a cada peso. Para um determinado valor de w, E(w) aponta na direção de máximo crescimento do erro. E(w) E(n) w(n) Ajustando-se os pesos na direção de E(w) nós estaremos nos deslocando na direção da descida mais íngreme da superfície de erro. O método da descida mais íngreme é um processo iterativo que, a partir de um ponto inicial sobre a superfície de erro, procura o mínimo global, modificando os pesos a cada iteração na direção do gradiente descendente, E(w). E(w) E(w) min E() E(n) E(w) E(n+) w w * w * w Com base neste método, o ajuste de pesos é feito pela expressão: w(n + ) = w(n) E(w) onde é o parâmetro da taxa de aprendizagem, que determina o passo da descida.

10 Exemplo de cálculo do gradiente Se considerarmos o erro em relação à saída linear: E( w) n d ( n) y( n) d( n) w( n) x( ) Com isso, o gradiente é calculado como: E(w) = e(n)x(n) Assim, o ajuste de pesos é feito pela expressão: w(n + ) = w(n) E(w) = w(n) + e(n).x(n) onde é o parâmetro da taxa de aprendizagem, que determina o passo da descida. Se considerarmos o erro em relação à saída não-linear, aplicando a função de ativação (.), o cálculo do gradiente resulta na multiplicação pela derivada da função de ativação: E(w) = e(n) (u)x(n) Hipóteses LMS e ML Supomos que a tarefa seja aprender uma função desconhecida do espaço das instâncias (X) para o conjunto dos números reais (R), f : X R, considerando um espaço de hipóteses H, consistindo de funções h : X R A tarefa do algoritmo de aprendizagem L é aprender f, dado H. Para tanto, dispõe-se de um conjunto de m exemplos na forma {x i, d i } onde o valor alvo d i de cada exemplo está corrompido por um ruído aleatório, e obedecendo uma distribuição normal com desvio padrão centrada no valor alvo f(x i ), ou seja: di f ( xi ) ei d x f( ) d (x, d ) e (x 3, d 3 ) e (x 5, d 5 ) e 3 (x, d ) e5 e 4 (x 4, d 4 ) f(x) x

11 Hipóteses LMS e ML Mostraremos que uma hipótese que minimiza a soma dos erros quadráticos (h LMS ) é também uma hipótese de máxima verossimilhança (h ML ). Uma hipótese de máxima verossimilhança é aquela que maximiza a probabilidade de o conjunto de dados de treinamento (D) ter sido gerado por ela, ou seja: h ML arg max p( D h) hh Supondo que as instâncias de treinamento sejam mutuamente independentes dado h, podemos escrever P(D h) como o produto dos p(d i h) de cada instância: h ML arg max hh m i p( d i h) onde m é o tamanho do conjunto de treinamento. Hipóteses LMS e ML Como assume-se que o ruído e i é normal com média zero e variância desconhecida, cada d i deve obedecer também a uma distribuição normal com variância centrada no valor alvo f(x i ), ao invés do zero. Como p(d i h) expressa a probabilidade de d i dado que uma determinada hipótese h seja a descrição correta para a função alvo f, esta probabilidade será uma distribuição normal de média = f(x i ) = h(x i ) e variância desconhecida. Com isso, a hipótese ML pode ser escrita como: h ML arg max hh exp m i i Alternativamente, podemos maximizar o logaritmo desta expressão: d h( xi ) h ML arg max hh m i ln d i h( xi )

12 h ML Hipóteses LMS e ML arg max hh Como o primeiro termo é uma constante, independente da hipótese h, ele pode ser descartado: h ML h ML m i hh ln arg max arg min hh m i m di h( xi ) i d i h( xi ) Descartando também as constantes independentes de h, e lembrando que a maximização de uma quantidade negativa é equivalente à minimização da quantidade positiva correspondente, obtemos: d i h( xi ) Esta expressão mostra que a hipótese da máxima verossimilhança h ML é aquela que minimiza a soma dos erros quadráticos entre os valores de treinamento d i e as predições da hipótese h(x i ) Exemplo de ajuste de curva Considere o problema de ajustar os parâmetros de um polinômio de certa ordem (M) por minimização da soma do erro quadrático: h( x, w) w w x w x w 0 O ajuste dos pesos do polinômio ocorre por minimização da função de custo: N E( w) h( x n, w) t n n A figura mostra um conjunto de treinamento com N = 0 pontos constituídos da observação da variável de entrada x, e da variável alvo correspondente, t. A curva verde mostra a função sin(x) usada para gerar os dados. M x M M j0 w j x j

13 Exemplo de ajuste de curva Gráficos de polinômios de várias ordens M, em vermelho, ajustados ao conjunto de dados. Função de custo regularizada Uma forma de diminuir o sobre ajuste em funções com muitos parâmetros é adicionar um termo de regularização, que penaliza valores elevados dos parâmetros, diminuindo, na prática, o número efetivo de parâmetros do modelo. onde: N E( w) h( x n, w) t n w w n w T w w 0 w w Resultado de ajuste de um polinômio de ordem M = 9, usando função de erro regularizada com diferentes valores de. M

14 A função de ativação Como o algoritmo LMS se baseia no cálculo do gradiente do erro, isto implica que a função de ativação, (v) do neurônio deve ser contínua. Em particular, são usadas as funções contínuas em forma de S, chamadas sigmóides, que são limitadas na saída a valores nos intervalos [-, ] ou [0, ]. Exemplos de funções sigmóides são a tangente hiperbólica, tanh(v), limitada ao intervalo [-, ], e a função logística, no intervalo [0, ]. (v) a = 0 (v) a = 0 a = a = v (v) = + exp( av) v (v) = tanh(av) Função logística Regressão: o Adaline Prof. Paulo Martins Engel O Adaline, Adaptive Linear Element, é o modelo neural elementar de regressão. O Adaline é composto de um combinador linear adaptavio, CLA, e de uma função de ativação contínua (sigmóide). Como o elemento adaptativo do ADALINE é o CLA, podemos definir o erro linear instantâneo do ADALINE como sendo relativo à saída do CLA. Dadas amostras (x, d ), (x, d ),, (x k, d k ),, (x L, d L ), de alguma função que mapeie vetores de entrada x(i) para os valores desejáveis na saída d(i), desejamos determinar o melhor vetor de pesos w* para um CLA realizar este mapeamento. + x k w w 0 CLA x k w v k (.) y k Para um vetor x k particular na entrada podemos definir o erro linear instantâneo relativo à saída do CLA: e k = d k v k com : v k = w T.x k 8

15 Erro Quadrático Médio (EQM) Prof. Paulo Martins Engel O melhor vetor de pesos será aquele para o qual resulta o menor erro médio, considerando todo o conjunto de treinamento. Define-se como Erro Quadrático Médio (EQM), em um instante k, o valor médio dos erros quadráticos instantâneos de um conjunto de combinadores lineares adaptativos, CLA, todos com o mesmo vetor de pesos instantâneos w k. Cada CLA terá um vetor de entrada x k e a resposta desejada correspondente d k escolhidos ao acaso, de uma população estatisticamente estacionária. Com isso, para cada CLA pode-se definir: Erro instantâneo quadrado: e k = (d k v k ) Considerando-se que o vetor de pesos varie a cada iteração: v k = w kt.x k Com isso, e k = d k d k w kt.x k + w kt.x k x kt.w k Calculando a média sobre o conjunto, define-se o EQM no instante k ( k ): E k < e k >= <d k > < d k x kt >.w k + w kt. < x k x kt >.w k Sendo < > o operador valor esperado = L L k f k 9 Prof. Paulo Martins Engel Expressão do Erro Quadrático Médio Definindo-se o vetor p como a correlação cruzada entre a resposta desejada d (escalar) e o vetor x : p T < d k x kt > = < d k, d k x k,..., d k x nk > T e a matriz de correlação das entradas R definida em termos da média em relação aos conjuntos de ALC: R < x k x kt > R = x k... x nk x k x k x k... x k x nk x nk x nk x k... x nk x nk < > Com isso o MSE no instante k pode ser expresso como: E k < e k >= < d k > p T.w k + w kt. R.w k 30

16 Prof. Paulo Martins Engel Análise da função EQM do ADALINE A expressão do EQM como função dos pesos define uma superfície parabolóide convexa, sempre positiva, com um mínimo global: E k < e k >= < d k > p T.w k + w kt. R.w k E E min w w * w * w 3 Prof. Paulo Martins Engel Determinação do mínimo global da função EQM A posição do mínimo global do EQM pode ser determinada diretamente encontrando o valor de w* que corresponde ao gradiente nulo da função. E k = < e k > = < d k > p T.w k + w kt. R.w k O gradiente do EQM é encontrado por diferenciação, resultando em uma função linear dos pesos: k E E k w k = p + R w k O vetor de pesos ótimo w*, é encontrado igualando o gradiente a zero: Rw* p = 0 Resolvendo para w*, obtém-se a equação de Wiener-Hopf: w* = R p Substituindo esta expressão de w* na expressão do EQM encontramos a expressão do EQM mínimo: E min = < d k > p T.w* 3

17 O perceptron de múltiplas camadas (MLP) A solução para problemas não-linearmente separáveis está baseada na rede MLP (Multilayer Perceptron), ou perceptron de múltiplas camadas, que apresenta uma organização topológica em pelo menos 3 camadas: Camada de entrada: composta de neurônios sensoriais; distribui o vetor de entrada para todos os neurônios da camada oculta; Camada oculta: composta de neurônios computacionais; realiza um mapeamento intermediário do problema, gerando vetores linearmente separáveis para a camada de saída; Camada de saída: composta de neurônios computacionais; realiza rotulação das classes ou o mapeamento desejado. Alternativamente, o mapeamento intermediário do problema pode ser realizado por sucessivas camadas ocultas. Pode-se provar que qualquer problema pode ser solucionado por um MLP de 3 camadas, com um número suficiente de neurônios na camada oculta. A topologia do Perceptron de Múltiplas Camadas MLP Camada de entrada Camada oculta x 0 = i 0 = Camada de saída x (n) x (n) i (n) y (n) d (n) x(n) x i (n) i x i (n) w o j w o ji w o j0 j i j (n) w s k w s kj w s k0 k y k (n) d k (n) w o jn w s kl x N (n) N x N (n) L i L (n) M y M (n) d M (n) i j (n) : valor de saída do neurônio genérico (j) da camada oculta gerado por x(n). y k (n): valor de saída do neurônio genérico (k) da camada de saída gerado por x(n). d k (n): valor de saída desejado do neurônio k correspondente a x(n). w o ji e w s kj : pesos genéricos da camada oculta e de saída, respectivamente.

18 O processamento de informação na rede MLP O processamento de informação em MLPs acontece em duas fases: A fase de propagação, onde o sinal de entrada é propagado através de toda a rede, camada por camada. Esta fase é responsável pela atuação da rede e, portanto, ocorre on-line. A fase de adaptação, onde ocorrem os ajustes dos pesos da rede. Nesta fase, o fluxo de informação se dá da camada de saída em direção à camada de entrada. As diferenças entre os valores de saída da rede e os valores desejados causam parcelas individuais de erro para cada neurônio, que são usadas para corrigir os pesos, segundo o algoritmo backpropagation. Esta fase é utilizada apenas durante o treinamento da rede, que é realizado offline, ou seja, sem que a rede atue no ambiente. Representação da saída e regra de decisão O problema de classificar um vetor numa determinada classe C k entre M classes possíveis, para o qual a união das M classes distintas forma o espaço de entrada, requer M saídas para representar todas as possíveis decisões de classificação. y,j x j MLP y k,j Se o MLP for treinado com a função logística para os neurônios de saída e com os valores das saídas desejadas correspondendo à rotulação binária: y M,j d kj se x j C k 0 se x j C k Então, após o treinamento, quando um vetor x for propagado pela rede, o valor de um nó de saída, y k, corresponde à probabilidade a posteriori que x pertença a classe C k, isto é, P(C k x).

19 Desta forma, cada nó de saída do MLP apresentará um valor que é uma estimativa de probabilidade a posteriori que o vetor de entrada pertença à classe respectiva. Com isso, nós podemos utilizar a regra de Bayes para decidir a que classe o vetor de entrada pertence. A regra de Bayes decide a classificação de um vetor pela máxima estimativa da probabilidade a posteriori. Esta regra é utilizada nos classificadores estatístico por máxima verossimilhança. Então, considerando que um vetor x foi propagado através de um MLP treinado segundo as condições descritas anteriormente, gerando as saídas da rede y (x), y (x),, y j (x),, y M (x), a regra de classificação em uma das M classes possíveis pode ser expressa como: Classifique o vetor x como pertencente a C k se y k (x) > y j (x) para todo j k O algoritmo Backpropagation Os MLP são treinados pelo algoritmo de retropropagação de erros, que é baseado na regra delta de aprendizado por correção de erro [Paul Werbos 74]. O algoritmo Backprop pode ser visto como uma generalização do algoritmo LMS (Least Mean Square) desenvolvido para um único neurônio. Como existem vários neurônios na camada de saída, deve-se definir a soma instantânea dos quadrados dos erros em cada nó de saída da rede, E(n), quando o n-ésimo vetor de treinamento x(n) é apresentado na entrada da rede: M E(n)= e k= k(n) Com o erro quadrado instantâneo na unidade k de saída definido por: e k (n)= (d k (n) y k (n) ) e k é o erro numa unidade de saída k, quando o vetor x(n) é propagado pela rede: e k (n)= d k (n) y k (n) d k (n) é a saída desejada, correspondente a x(n), e y k (n) é a saída instantânea obtida no neurônio de saída k, pela propagação de x(n).

20 Resumo do treinamento BP. Inicializar os pesos com valores arbitrários não nulos.. Apresentar um padrão de entrada x(n) e propagá-lo até a saída da rede. 3. Calcular os erros instantâneos na saída da rede, e k (n). 4. Calcular os gradientes locais dos neurônios da camada de saída, s k(n). 5. Ajustar os pesos da camada de saída pela expressão: w s kj n w s kj n+ s k(n).i j (n) 6. Calcular os gradientes locais dos neurônios da camada oculta, o j (n). 7. Ajustar os pesos da camada oculta pela expressão: w o ji n w o ji n+ o j (n).x i (n) 8. Repetir os passos de a 7 para todos os padrões de treinamento ( época). 9. Calcular o erro médio quadrado (EMQ) para o arquivo de treinamento. 0. Se o EMQ for maior que o valor desejado, repetir o passo 8. Ajuste dos pesos da camada de saída w s kj n w s kj n+ s k(n).i j (n) s k(n) e k (n) f s v s k(n) s k(n) (d k (n) y k (n)). ( y k (n) ) s (n) (d (n) y (n)). ( y (n) ) s (n) (d (n) y (n)). ( y (n) ) x 0 = x (n) x (n) w o 0 w o i 0 = i (n) w s 0 w s s (n) y (n) d (n) w o w s x (n) x (n) w o w o w o 0 i (n) w s w s w s 0 s (n) y (n) d (n)

21 Ajuste dos pesos da camada oculta Prof. Paulo Martins Engel w o ji n w o ji n+ o j (n).x i (n) o j (n) M k= s k(n) w s kj(n) f o (v o j(n)) o (n) i (n) s (n) w s s (n) w s o (n) i (n) s (n) w s s (n) w s x 0 = x (n) x (n) o (n) w o i 0 = 0 i (n) w o w s 0 w s s (n) y (n) d (n) w o w s x (n) x (n) w o w o w o 0 o (n) i (n) w s w s w s 0 s (n) y (n) d (n) Soluções do problema do jogo de tênis por BP

22 Composição de funções de limiar Dobra : Função de saída de uma unidade de limiar Dobra : Função de saída de uma unidade de limiar para um outro conjunto de pesos Cume : unidade de limiar combinando Dobra e Dobra. Cume : unidade de limiar combinando duas dobras com outros pesos Pico: unidade de limiar combinando Cume e Cume Modos de Treinamento Prof. Paulo Martins Engel Há dois modos de treinamento para os algoritmos iterativos supervisionados:. Modo sequencial. Neste modo, também referenciado como modo incremental, ou on-line, a atualização dos pesos é realizada após a apresentação de cada exemplo de treinamento (adapt).. Modo por lote. Neste modo, o ajuste de pesos é realizado após a apresentação de todos os exemplos de treinamento, que constituem uma época (train). Do ponto de vista operacional, o modo sequencial é preferível porque requer menos armazenamento local para cada conexão sináptica. Além disso, pela aleatoriedade na apresentação dos padrões, a atualização dos pesos na base de padrão por padrão torna a busca no espaço de pesos de natureza estocástica, tornando o algoritmo menos propenso a ficar preso em mínimos locais. Por outro lado, a natureza estocástica do modo sequencial torna difícil estabelecer as condições teóricas para convergência do algoritmo. Já o modo por lote fornece, por exemplo, uma estimativa precisa do vetor gradiente, garantindo assim a convergência para um mínimo local. 44

23 Prof. Paulo Martins Engel Heurísticas para melhorar a convergência e a generalização Valores-alvo: É importante escolher os valores-alvo (resposta desejada) dentro do intervalo da função de ativação, ou seja afastados por uma quantidade do valor limite da sigmóide. Caso contrário, o algoritmo BP tende a levar os pesos para o infinito, reduzindo a velocidade do processo de treinamento, levando os neurônios ocultos à saturação. Solução: escolher d = 0,9 quando a da função de ativação for. Normalizar as entradas: Cada variável de entrada deve ser pré-processada de modo que o seu valor médio seja pequeno comparado com o desvio padrão. Isto pode ser feito em três passos: remoção da média, descorrelação e equalização das covariâncias. Com isso, os pesos sinápticos aprendem aproximadamente com a mesma velocidade. 45 Prof. Paulo Martins Engel dados originais Normalização das entradas remoção da média descorrelação equalização da covariância 46

24 Prof. Paulo Martins Engel Heurísticas para melhorar a convergência e a generalização Inicialização: Os valores dos pesos devem ser inicializados uniformemente dentro de um intervalo de valores pequenos, para reduzir a probabilidade de que os neurônios da rede saturem, produzindo gradientes pequenos. Entretanto, se os pesos forem muito pequenos, os gradientes serão também muito pequenos no início. Quando utilizamos a função de ativação especificada anteriormente, uma solução é inicializar os pesos aleatoriamente dentro do intervalo (,4/F i, +,4/F i ) onde F i é o fan-in do neurônio i da rede. Pelo método de Nguyen e Widrow, os pesos são inicializados aleatoriamente num intervalo regulado pelo número de unidades ocultas (H) e a dimensão dos padrões (N), 0,7H /N. Regra delta generalizada: Para aumentar a taxa de aprendizagem, evitando a instabilidade, introduz-se um termo de momento na expressão de correção dos pesos, correspondente a uma parcela () da correção no passo anterior: w s kj n s k(n).i j (n) + w s kj n 47

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

Redes Neurais Artificiais (RNA)

Redes Neurais Artificiais (RNA) Redes Neurais Artificiais (RNA) Definições: 1. Técnica inspirada no funcionamento do cérebro, onde neurônios artificiais, conectados em rede, são capazes de aprender e de generalizar. 2. Técnica de aproximação

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP)

Aprendizado de Máquinas. Multi-Layer Perceptron (MLP) Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Multi-Layer Perceptron (MLP) David Menotti, Ph.D. web.inf.ufpr.br/menotti Redes Neuronais Cérebro humano.

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

Resumo. Filtragem Adaptativa. Filtros adaptativos. Tarefas desempenhadas pelos filtros

Resumo. Filtragem Adaptativa. Filtros adaptativos. Tarefas desempenhadas pelos filtros Resumo Filtragem Adaptativa Luís Caldas de Oliveira lco@istutlpt Instituto Superior Técnico Sistemas de filtragem adaptativa Conceitos de filtragem adaptativa Filtro de Wiener Algoritmo steepest descent

Leia mais

Reconhecimento de Padrões/Objetos

Reconhecimento de Padrões/Objetos Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 2 de Gonzales Classificação Linear Introdução Para utilizar uma função discriminante linear (Linear Discriminant Function)

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron

Leia mais

SCC Capítulo 4 Perceptron de Camada Única

SCC Capítulo 4 Perceptron de Camada Única Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Redes Neurais. Conexionismo. Redes Neurais, IA e IC. Abordagem Simbólica. Apresentação da disciplina Inteligência Computacional e conexionismo

Redes Neurais. Conexionismo. Redes Neurais, IA e IC. Abordagem Simbólica. Apresentação da disciplina Inteligência Computacional e conexionismo Redes Neurais, IA e IC Redes Neurais Apresentação da disciplina Inteligência Computacional e conexionismo No âmbito da Ciência da Computação, as Redes Neurais são estudadas na grande área de Inteligência

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.5. Support Vector Machines 2.5. Support Vector Machines (SVM) 2.5.2.

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos

GT-JeDi - Curso de Desenv. de Jogos IA para Jogos GT-JeDi - Curso de Desenv. de Jogos IA para Jogos Gustavo Pessin 2006/2 - A07 Cronograma Conceitos Neurônio artificial Redes: Perceptron e Multi Layer Perceptron (MLP), Exemplos Separando cores Prevendo

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas II Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica PERCEPTRON MULTICAMADAS: TÉCNICAS DE VALIDAÇÃO Prof. Dr. André A. P. Biscaro 2º Semestre de 2016 UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT Aspectos de seleção topológica de redes PMC A especificação

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs)

Aprendizagem de Máquina. Redes Neurais Artificiais (RNAs) Aprendizagem de Máquina Redes Neurais Artificiais (RNAs) Plano de Aula Introdução Motivação Biológica Perceptron Superfície de Decisão Descida do Gradiente Redes Multicamadas (Multilayer) Retropropagação

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

3 INTELIGÊNCIA COMPUTACIONAL (IC)

3 INTELIGÊNCIA COMPUTACIONAL (IC) 40 3 INTELIGÊNCIA COMPUTACIONAL (IC) Inteligência Computacional é a área da ciência da computação que estuda a teoria e aplicação de técnicas computacionais inspiradas na natureza. Deste modo, tem por

Leia mais

Funções Discriminantes Lineares

Funções Discriminantes Lineares Funções Discriminantes Lineares Revisão Cap. 2 Classificação Bayesiana: Fdp s conhecidas, w ) P e x w ) ( i p. ( i Cap. 3 Formas das fdp s conhecidas, idem No. de parâmetros. a) Máxima verossimilhança:

Leia mais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas

Leia mais

Multiple Layer Perceptron

Multiple Layer Perceptron Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Multiple Layer Perceptron David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Multiple Layer Perceptron (MLP) Backpropagation

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos crisnv@ic.uff.br 2 Computação baseada em aprendizado

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS INTRODUÇÃO Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 REDES NEURAIS ARTIFICIAIS - RNAs Inspiradas no cérebro humano São modelos computacionais inspirados nos mecanismos

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Prof. Dr. Hugo Valadares Siqueira Semana de Eletrônica e Automação 2014 Redes Neurais Artificiais Uma rede neural artificial é um circuito composto por uma grande quantidade de

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

Considerações de Desempenho

Considerações de Desempenho Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem

Leia mais

Profa. Josiane M. Pinheiro outubro/2008

Profa. Josiane M. Pinheiro outubro/2008 Baseada em: Stuart Russel e Peter Norving - Inteligência Artificial seção 20.5 Jorge M. Barreto Introdução às Redes Neurais Artificiais - http://www.inf.ufsc.br/~barreto/tutoriais/survey.pdf Cassia Yuri

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal

Leia mais

Back Propagation. Dicas para o BP

Back Propagation. Dicas para o BP Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem

Leia mais

PROVAS Ciência da Computação. 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta)

PROVAS Ciência da Computação. 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta) PROVAS Ciência da Computação 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta) Ajuste de Curvas Objetivo Ajustar curvas pelo método dos mínimos quadrados 1 - INTRODUÇÃO Em geral, experimentos

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

5HGHV1HXUDLV$UWLILFLDLV

5HGHV1HXUDLV$UWLILFLDLV 7 5GXUDL$UWLILFLDL A motivação pelo uso das Redes Neurais Artificiais RNA, comumente chamadas de redes neurais, é pelo reconhecimento de que o cérebro processa informações de uma forma diferente dos computadores

Leia mais

GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS

GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS Universidade Federal de Lavras Departamento de Ciência da Computação GUIA DE AULAS PRÁTICAS DE REDES NEURAIS ARTIFICIAIS v. 1.2 Prof. Wilian Soares Lacerda Lavras, agosto de 2018 Ficha catalográfica elaborada

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

Neural Networks. Neurônios: Elementos aritméticos simples. Redes Neuronais: conj de neurônios interligados.

Neural Networks. Neurônios: Elementos aritméticos simples. Redes Neuronais: conj de neurônios interligados. Neural Networks Neural Networks Do ponto de vista computacional: métodos para representar funções usando redes de elementos aritméticos simples, e aprender tais representações através de exemplos. Do ponto

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Aspectos Temporais Modelagem de sistemas As tarefas que estudamos, classificação e regressão, podem ser vistas como atividades de modelagem de sistemas. As técnicas de modelagem

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCENS UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy

Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy Redes Neurais Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy Um Sistema de Inferência Fuzzy (SIF) é um tipo especial de Sistema Baseado em Conhecimento (SBC).

Leia mais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja

Leia mais

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN

Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Previsão de Vazões utilizando Redes Neurais Artificiais MLP e NSRBN Alan Caio Rodrigues MARQUES 1, Gelson da Cruz JUNIOR 2, Cassio Dener Noronha VINHAL 3 Escola de Engenharia Elétrica e de Computação 1

Leia mais

Lista 2 Sistemas Inteligentes (INE5633) 2014s2

Lista 2 Sistemas Inteligentes (INE5633) 2014s2 Lista 2 () 2014s2 Sistemas de Informação Universidade Federal de Santa Catarina 1. (Baseado em questão do POSCOMP 2009) Considere a árvore minimax abaixo representando um jogo, onde queremos maximizar

Leia mais

SCC Capítulo 5 Perceptron Multicamadas

SCC Capítulo 5 Perceptron Multicamadas Introdução Back-propagation (BP) MLPs Convolução SCC-5809 - Capítulo 5 Perceptron Multicamadas João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes

Leia mais

SCE REDES NEURAIS Redes Neurais Multi-Camadas Parte 2

SCE REDES NEURAIS Redes Neurais Multi-Camadas Parte 2 SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 2 Profa. Roseli Ap. Francelin Romero 1 Teorema de Aprox. Universal Qual é o número mínimo de camadas num PMC que fornece uma aproximação para

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais