Redes Neurais e Sistemas Fuzzy

Tamanho: px
Começar a partir da página:

Download "Redes Neurais e Sistemas Fuzzy"

Transcrição

1 Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização de um índice de desempenho médio sobre o arquivo de treinamento (algoritmo LMS). A especificação dos pesos do ADALINE segue critérios bem definidos que visam minimizar o erro quadrático médio (EQM) na saída do ADALINE. O elemento adaptativo do ADALINE é o Combinador Linear Adaptativo (CLA), e a saída do ADALINE pode ser binária, se a função de ativação utilizada for a hardlimiter (degrau), ou contínua, se a função for do tipo sigmóide (ou linear). Quando a saída do ADALINE for contínua, o elemento realiza a tarefa de regressão. Bernard Widrow [1962] propôs o uso de redes de múltiplos ADALINEs, MADALINEs, para problemas de classificação. Neste caso, a primeira camada era adaptativa e a segunda (de saída) era composta de funções de limiar fixas (AND, OR, MAJ). O ADALINE é capaz de solucionar problemas linearmente separáveis não determinísticos (com ruído). 2

2 Problema LS com ruído 3 Regressão O problema de estimar uma função a partir de um conjunto de exemplos entrada-saída com algum ou nenhum conhecimento da forma da função é comum a várias áreas, recebendo nomes distintos: regressão, aproximação de funções, identificação de sistemas e aprendizagem indutiva. No domínio das RN, este problema genérico é tratado como aprendizagem supervisionada e na estatística como regressão. O poder computacional do ADALINE é equivalente a um regressor linear. Entretanto, a saída do ADALINE pode ser modificada por uma função de ativação não-linear, o que o torna um componente não-linear em redes mais complexas capazes de aproximação de funções não-lineares. 4

3 Regressão linear O problema consiste em ajustar uma linha reta f(x) = ax + b a um conjunto T de p pontos: y T = {(x i, y i )} i=1 p h 3 h 2 h 1 (x 1, y 1 ) (x 2, y 2 ) (x 3, y 3 ) (x 5, y 5 ) (x 4, y 4 ) menor EQM Qual é a melhor solução? depende da métrica de avaliação h 1 : passa pelo maior número de pontos em T h 2 : passa pelos 2 pontos em T com valores extremos da entrada (x) h 3 : produz o menor erro quadrático médio (EQM) em T (h LMS : Least Mean Square ) x 5 O Problema da Filtragem Adaptativa Considere um sistema dinâmico cuja caracterização matemática seja desconhecida. Nós dispomos apenas de um conjunto rotulado de dados de entrada-saída gerados pelo sistema em instantes discretos de tempo. Quando, no instante i um estímulo x(i) de dimensão m é aplicado aos terminais de entrada do sistema, este responde produzindo uma saída escalar correspondente d(i), onde i = 1, 2,, n, O comportamento externo do sistema é portanto descrito pelo conjunto de dados onde T : {x(i), d(i) ; i = 1, 2,, n,...} x(i) = [x 1 (i), x 2 (i),, x m (i)] T O problema consiste em criar um modelo do sistema dinâmico desconhecido, utilizando um único neurônio linear. 6

4 Modelo neural para filtragem adaptativa O modelo neural opera sob a influência de um algoritmo que controla os ajustes necessários para os pesos sinápticos do neurônio. O algoritmo começa com um conjunto arbitrário de pesos que são ajustados em resposta a variações estatísticas do comportamento do sistema. Para um determinado estímulo x(i), o modelo calcula uma saída y(i). Calcula-se então um sinal de erro e(i), como a diferença entre a resposta desejada d(i) e a saída real do modelo y(i). O processo adaptativo consiste em ajustar os pesos de acordo com e(i). x 1 (i) x 2 (i) x m (i) Sistema dinâmico desconhecido d(i) x 1 (i) x 2 (i) +1 w 0 (i) w 1 (i) w 2 (i) v(i) CLA w m (i) = y(i) - d(i) + + e(i) x m (i) 7 2. Definições Como o elemento adaptativo do ADALINE é o CLA, podemos definir o erro linear instantâneo do ADALINE como sendo relativo à saída do CLA. Dado um conjunto de vetores de entrada pertencentes a uma de 2 classes linearmente separáveis, o problema é encontrar o conjunto de pesos capaz de associar cada vetor de entrada com o seu rótulo de classe. Dadas amostras (x 1, d 1 ), (x 2, d 2 ),, (x k, d k ),, (x L, d L ), de alguma função que mapeie vetores de entrada x(i) para os valores desejáveis na saída d(i), determinar o melhor vetor de pesos w* para um CLA realizar este mapeamento. +1 x k 1 w 1 w 0 CLA x k 2 w 2 v k (.) y k Para um vetor x k particular na entrada podemos definir o erro linear instantâneo relativo à saída do CLA: e k = d k v k com : v k = w T.x k 8

5 Plano de mapeamento do ADALINE O plano de mapeamento do ADALINE corresponde à superfície de regressão. v(n) = w 0 + w 1 x 1 (n) + w 2 x 2 (n) (+1, +1, +1,5) x 1 x 2 d v = 0,5x 1 + 0,5x 2 + 0,5 e ,5 0, ,5 + 0, ,5 +0, ,5 0,5 v ( 1, +1, +1) (+1, 1, +1) (+1, +1, +1) ( 1, +1, 0,5) (+1, 1, +0,5) ( 1, 1, 1) x 2 ( 1, 1, 0,5) x 1 x 1 x 2 9 Erro Quadrático Médio (EQM) O melhor vetor de pesos será aquele para o qual resulta o menor erro médio, considerando todo o conjunto de treinamento. Define-se como Erro Quadrático Médio (EQM), em um instante k, o valor médio dos erros instantâneos, elevados ao quadrado para evitar cancelamento de erros com sinais diferentes, de um conjunto de CLA, todos com o mesmo vetor de pesos instantâneos w k. Cada CLA terá um vetor de entrada x k e a resposta desejada correspondente d k escolhidos ao acaso, de uma população estatisticamente estacionária. Com isso, para cada CLA pode-se definir: Erro instantâneo quadrado: e k2 = (d k v k ) 2 Considerando-se que o vetor de pesos varie a cada iteração: v k = w kt.x k Com isso, e k2 = d k2 2 d k w kt.x k + w kt.x k x kt.w k Calculando a média sobre o conjunto, define-se o EQM no instante k ( k ): E k < e k2 >= <d k2 > 2 < d k x kt >.w k + w kt. < x k x kt >.w k L Sendo < > o operador valor esperado = 1 f L k k 1 10

6 Expressão do Erro Quadrático Médio Definindo-se o vetor p como a correlação cruzada entre a resposta desejada d (escalar) e o vetor x : p T < d k x kt > = < d k, d k x 1k,..., d k x nk > T e a matriz de correlação das entradas R definida em termos da média em relação aos conjuntos de ALC: R < x k x kt > R = 1 x 1k... x nk x 1k x 1k x 1k... x 1k x nk x nk x nk x 1k... x nk x nk < > Com isso o MSE no instante k pode ser expresso como: E k < e k2 > = < d k2 > 2 p T.w k + w kt. R.w k 11 Análise da função EQM do ADALINE A expressão do EQM como função dos pesos define uma superfície parabolóide convexa, sempre positiva, com um mínimo global: E k < e k2 > = < d k2 > 2 p T.w k + w kt. R.w k E E min w 2 w 1 * w 2 * w 1 12

7 Determinação do mínimo global da função EQM A posição do mínimo global do EQM pode ser determinada diretamente encontrando o valor de w* que corresponde ao gradiente nulo da função. E k = < e k2 > = < d k2 > 2 p T.w k + w kt. R.w k O gradiente do EQM é encontrado por diferenciação, resultando em uma função linear dos pesos: k E E k w k = 2p + 2R w k O vetor de pesos ótimo w*, é encontrado igualando o gradiente a zero: 2Rw* 2p = 0 Resolvendo para w*, obtém-se a equação de Wiener-Hopf: w* = R 1 p Substituindo esta expressão de w* na expressão do EQM encontramos a expressão do EQM mínimo: E min = < d k2 > p T.w* 13 Resolução da equação de Wiener-Hopf para o OR x 1 w 1 x 2 w 2 1 w 0 v y x(1) x(2) x(3) x(4) x 0 x 1 x d p T < d k x kt > = 0,25 {[1 1 1] + [1 1 1] + [1 1 1] + [1 1 1]} = [0,5 0,5 0,5] R < x k x kt > = 0, R = I w* = R 1 p = I.p = p [0,5 0,5 0,5] T = E min = < d k2 > p T.w* = 0,25 14

8 Plano de mapeamento para o OR Plano de mapeamento de um neurônio de duas entradas com w 0 = w 1 = w 2 = 0,5 x 1 x 2 v = 0,5x 1 + 0,5x 2 + 0, 5 e v(n) = 0,5 x 1 (n) + 0,5 x 2 (n) + 0,5 (+1, +1, +1,5) 1 1 0,5 0, , 5 0, , 5 0, , 5 0, 5 EQM = 0, 25 v ( 1, +1, +1) (0, 0, +0,5) (+1, 1, +1) (+1, +1, +1) ( 1, +1, 0,5) (+1, 1, +0,5) ( 1, 1, 1) x 2 ( 1, 1, 0,5) x 1 x 1 x 2 15 Superfície de regressão do ADALINE para o OR v(n) = 0,5 x 1 (n) + 0,5 x 2 (n) + 0,25 OR unipolar x 1 x 2 v = 0,5x 1 + 0,5x 2 + 0,25 e 0 0 0,25 0, ,75 0, ,75 0, ,25 0,25 EQM = 0,0625 Comprovar este resultado pela equação de Wiener-Hopf 16

9 Superfície de regressão do perceptron para o OR v(n) = 2 x 1 (n) + 2 x 2 (n) 1 x 1 x 2 v =2x 1 + 2x 2 1 e EQM = 1, Método da descida mais íngreme do erro Método iterativo que, a partir de um ponto inicial sobre a superfície do EQM, procura o mínimo global, modificando os pesos a cada iteração na direção do gradiente descendente da função EQM. E E(1) E min w 1 * E( E(n) w 2 * w 2 w 1 18

10 Algoritmo iterativo para a descida mais íngreme do erro 1. Inicializar os pesos com valores arbitrários, não nulos. 2. Do ponto inicial na superfície do erro EQM determinar a direção da inclinação mais íngreme para baixo na superfície. 3. Fazer pequena alteração nos pesos de forma que o novo vetor de pesos esteja um pouco mais abaixo, na superfície de erro. w(k + 1) = w( + ( k E ) 4. Repetir os passos 2 e 3 até encontrar o mínimo 19 Aplicações do ADALINE Como o algoritmo de treinamento do ADALINE a cada iteração diminui o EQM, é possível aplicá-lo com sucesso em problemas linearmente separáveis não determinísticos. Neste caso, o EQM dá a medida de desempenho alcançada no treinamento w 1.renda + w 2.dívida = t Dívida Mau Bom Renda 20

11 Gradiente do erro quadrado instantâneo: Algoritmo µ -LMS Sendo: e (= d( y( e y( w( T.x( ^ k E k e k2 (e 2 () w ( Aplicando a regra da cadeia das derivadas: 2 com: E( e ( 2e( e( e( E k E( E( e( y( w( e( y( w( e( y( y( y( w( w( d( y( 1 T w( x( x( k E E( w ( = 2 e(. x( 21 Descida do gradiente: algoritmo µ -LMS A cada iteração, os pesos são atualizados por uma parcela do gradiente descendente, instantâneo: com: e assim: w(k + 1) = w( + ( k E ) k E ^ k E k E 2 e(. x( Com isso, os pesos são corrigidos por: w(k + 1) = w( + 2µ e(. x( com µ o parâmetro taxa de aprendizagem. 22

12 Observações sobre o processo de treinamento Nos algoritmos de aprendizagem supervisionada, o aprendizado resulta da apresentação múltipla de um conjunto predeterminado de exemplos de treinamento. Uma apresentação completa do conjunto inteiro de treinamento durante o processo de aprendizagem é denominada uma época. O processo de aprendizagem é continuado para várias épocas até que os pesos se estabilizem e a função de custo a ser minimizada convirja para um valor mínimo. É aconselhável tornar aleatória a ordem de apresentação dos exemplos de treinamento de uma época para a seguinte, para que a busca no espaço de pesos seja estocástica sobre os ciclos de treinamento, evitando os ciclos limites. 23 Regras para o ajuste dos pesos Todos os algoritmos iterativos estudados se baseiam no princípio da perturbação mínima: Adaptar para reduzir o erro na saída para um padrão de treinamento corrente, perturbando o mínimo as respostas já aprendidas. Regras de descida mais íngreme do gradiente O objetivo é reduzir uma função de custo calculada como média sobre o conjunto de treinamento. A função de custo mais comum é o EQM. Apesar de esta ser a abordagem mais popular para ajuste de pesos, existem abordagens mais sofisticadas, como o métodos de quase- Newton e do gradiente conjugado, com melhores propriedades de convergência, mas com condições mais restritas de aplicação. 24

13 Regras não-lineares: Regra delta para o Adaline sigmóide Considera o erro na saída não-linear do ADALINE: x 1 w 1 x 0 w 0 v f(v) y x 2 w 2 Utiliza função de ativação diferenciável, sigmóide, f(x): A tangente hiperbólica: Ou a função logística: 1 e 2v k y k tanh(v k ) = 1 e 2v k f(v)= tanh(v) 1 y k = 1 e v k f(v)= (1+exp(v)) v v 25 Algoritmo -LMS Minimiza o EQM pela descida mais íngreme do gradiente do erro quadrado instantâneo, como no µ-lms. O erro instantâneo é agora medido na saída não-linear: e k d k y k d k f (v k ) com v k = w kt.x k Aproximação assumida: ^ k E k E A expressão do gradiente do erro quadrado instantâneo é a mesma: w ( ^ k E k e k2 (e 2 () O gradiente desta nova função de custo é calculado pela regra da cadeia das derivadas parciais. 26

14 Gradiente do erro quadrado instantâneo: Algoritmo -LMS ^ k E k e k2 (e 2 () w ( Sendo, e 2 (= (d( y() 2 d( fv()) 2 d( fw( T.x()) 2 e aplicando a regra da cadeia das derivadas: com: E k E( E( e( y( v( w( e( y( v( w( E( e( 2e( e( y( 1 y( v( f ( v( w( x( Então: k E E( w ( = 2 e( f v(). x( 27 Descida do gradiente: algoritmo -LMS A cada iteração, os pesos são atualizados por uma parcela do gradiente descendente, instantâneo: com: e assim: w(k + 1) = w( + ( k E ) k E ^ k E k E 2 e( f v(). x( Com isso, os pesos são corrigidos por: w(k + 1) = w( + 2µ e( f v(). x( com µ o parâmetro taxa de aprendizagem. 28

15 tanh(x) = 1 e 2x Análise das funções sigmóides 1.5 f(x) = e 1 1 e 2x x tanh (x) = 1 tanh 2 (x) f (x) = f(x).(1f(x)) 29 Ajuste dos pesos do algoritmo -LMS Para a função logística: f v() = f (v().(1 f v()) = y(.(1 y() Com isso, os pesos são corrigidos por: w(k + 1) = w( + 2µ e( y(.(1 y(). x( Para a função tangente hiperbólica: f v() = 1 (f v()) 2 = 1 (y() 2 Com isso, os pesos são corrigidos por: w(k + 1) = w( + 2µ e(.(1 (y() 2 ). x( 30

16 Análise do EQM do Adaline sigmóide EQM do OR com função logística EQM do OR com tangente hiperbólica 31 Superfície de regressão do Adaline sigmóide para a função OU v tanh(v) tanh(v) EQM = 0, Resultado do treinamento: w 0 = w 1 = w 2 = 2,25 y = tanh(2,25*x + 2,25*y + 2,25) 32

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Modelos de classificação por Redes Neurais Artificiais Prof. Paulo Martins Engel Motivação Classificadores baseados em representação simbólica (AD, RD,...) estão limitados a particionar

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Resumo. Filtragem Adaptativa. Filtros adaptativos. Tarefas desempenhadas pelos filtros

Resumo. Filtragem Adaptativa. Filtros adaptativos. Tarefas desempenhadas pelos filtros Resumo Filtragem Adaptativa Luís Caldas de Oliveira lco@istutlpt Instituto Superior Técnico Sistemas de filtragem adaptativa Conceitos de filtragem adaptativa Filtro de Wiener Algoritmo steepest descent

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais

SCC Capítulo 4 Perceptron de Camada Única

SCC Capítulo 4 Perceptron de Camada Única Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - [email protected] 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco

Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais [email protected] http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação [email protected] Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana

Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)

Leia mais

Filtragem Adaptativa

Filtragem Adaptativa Filtragem Adaptativa Luís Caldas de Oliveira lco@istutlpt Instituto Superior Técnico Filtragem Adaptativa p1/45 Resumo Sistemas de filtragem adaptativa Filtragem Adaptativa p2/45 Resumo Sistemas de filtragem

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado

PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais

4 Redes Neurais Artificiais

4 Redes Neurais Artificiais 4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java

Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

Introdução ao Processamento Estatístico de Sinais

Introdução ao Processamento Estatístico de Sinais Charles Casimiro Cavalcante [email protected] Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Departamento de Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/

Leia mais

Inteligência Computacional

Inteligência Computacional Inteligência Computacional REDES NEURAIS ARTIFICIAIS ADALINE Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Adaline Adaline = Adaptive Linear

Leia mais

Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi

Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos O problema de controle ótimo Considere

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva [email protected] Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes Neurais MLP: Exemplos e Características

Redes Neurais MLP: Exemplos e Características Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1

Leia mais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a

Leia mais

Redes Neurais Artificial. Prática. Inteligência Artificial

Redes Neurais Artificial. Prática. Inteligência Artificial Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais

Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

INTELIGÊNCIA ARTIFICIAL

INTELIGÊNCIA ARTIFICIAL INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos

Leia mais

JAI 6 - Deep Learning Teoria e Prática

JAI 6 - Deep Learning Teoria e Prática JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos [email protected] 2 Computação baseada em aprendizado

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: [email protected]

Leia mais

Redes Neurais Artificial

Redes Neurais Artificial Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial 1 Redes Neurais - Definição O que é Rede Neural ou Rede Neuronal Artificial (RNA)? É um modelo computacional que objetiva

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy

Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy Redes Neurais Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy Um Sistema de Inferência Fuzzy (SIF) é um tipo especial de Sistema Baseado em Conhecimento (SBC).

Leia mais

BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017

BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira   22 de novembro de 2017 BCC465 - TÉCNICAS DE OTIMIZAÇÃO MULTI-OBJETIVO Aula 04 - Otimização Não-linear Gladston Juliano Prates Moreira email: [email protected] CSILab, Departamento de Computação Universidade Federal de Ouro

Leia mais

4. O algoritmo LMS e variantes

4. O algoritmo LMS e variantes Apontamentos de Processamento Adaptativo de Sinais 4. O algoritmo LMS e variantes Família de algoritmos do gradiente Na prática usam-se estimativas do gradiente, ˆ (n), em vez do verdadeiro gradiente (n),

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

Disciplina que estuda métodos analíticos para auxiliar na tomada de decisões.

Disciplina que estuda métodos analíticos para auxiliar na tomada de decisões. Edgard Jamhour Disciplina que estuda métodos analíticos para auxiliar na tomada de decisões. Procura encontrar soluções ótimas ou próximo de ótimas para problemas de engenharia industrial, economia e finanças,

Leia mais

Sistemas Inteligentes

Sistemas Inteligentes Sistemas Inteligentes UNIDADE 5 Redes Neurais Artificiais (Perceptron Multicamadas Conceitos) Prof. Ivan Nunes da Silva. Rede Perceptron Multicamadas Aspectos de arquitetura Redes Perceptron de Múltiplas

Leia mais

Filtro de Kalman. Teoria e Aplicação para Iniciantes. Prof. Dr. Marco Antonio Leonel Caetano. M&V Consultoria e Treinamento

Filtro de Kalman. Teoria e Aplicação para Iniciantes. Prof. Dr. Marco Antonio Leonel Caetano. M&V Consultoria e Treinamento Filtro de Kalman Teoria e Aplicação para Iniciantes Prof. Dr. Marco Antonio Leonel Caetano M&V Consultoria e Treinamento www.mudancasabruptas.com.br A História da Filtragem de Sinais 930 940 960 Filtro

Leia mais

Introdução à Teoria do Aprendizado

Introdução à Teoria do Aprendizado Introdução à Teoria do Aprendizado Carlos Hall Os processos no mundo real são intrinsecamente: dinâmicos (dependem do tempo) não lineares não gaussianos não estacionários com restrições com interações

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ

RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho [email protected] IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho [email protected] IFG/Câmpus Goiânia Programa Institucional

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

PROVAS Ciência da Computação. 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta)

PROVAS Ciência da Computação. 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta) PROVAS Ciência da Computação 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta) Ajuste de Curvas Objetivo Ajustar curvas pelo método dos mínimos quadrados 1 - INTRODUÇÃO Em geral, experimentos

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.5. Support Vector Machines 2.5. Support Vector Machines (SVM) 2.5.2.

Leia mais

Redes Neurais Artificiais. Capítulos 1 e 2

Redes Neurais Artificiais. Capítulos 1 e 2 Redes Neurais Artificiais Introdução Capítulos 1 e 2 Redes Neurais Artificiais (RNA) São modelos computacionais inspirados nos mecanismos de aprendizagem do cérebro humano. São modelos computacionais que

Leia mais

SCE 5809 REDES NEURAIS

SCE 5809 REDES NEURAIS Sistemas de SCE 5809 REDES NEURAIS Profa. Roseli Ap. Francelin Romero Os diversos sistemas de possuem características particulares e comuns que permitem sua classif.: linguagem de descrição modo paradigma

Leia mais

ESTIMAÇÃO PARAMÉTRICA UTILIZANDO ALGORITMO RLS. Rodrigo Urban de Morais

ESTIMAÇÃO PARAMÉTRICA UTILIZANDO ALGORITMO RLS. Rodrigo Urban de Morais UNIVERSIDADE FEDERAL DO PARANÁ PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA PPGEE ESTIMAÇÃO PARAMÉTRICA UTILIZANDO ALGORITMO RLS Rodrigo Urban de Morais CURITIBA, JUNHO DE 2007. Sumário 1. Introdução...3

Leia mais

Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC

Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC Regressão Linear Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Ordinary Least Square 2. Gradiente Descendente 1 Aprendendo com exemplos Uma das formas de aprendizado de máquina é definido

Leia mais

Aprendizado de Máquina

Aprendizado de Máquina Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: [email protected]

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica

Leia mais