Redes Neurais e Sistemas Fuzzy
|
|
|
- Luiz Henrique Nobre Esteves
- 8 Há anos
- Visualizações:
Transcrição
1 Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização de um índice de desempenho médio sobre o arquivo de treinamento (algoritmo LMS). A especificação dos pesos do ADALINE segue critérios bem definidos que visam minimizar o erro quadrático médio (EQM) na saída do ADALINE. O elemento adaptativo do ADALINE é o Combinador Linear Adaptativo (CLA), e a saída do ADALINE pode ser binária, se a função de ativação utilizada for a hardlimiter (degrau), ou contínua, se a função for do tipo sigmóide (ou linear). Quando a saída do ADALINE for contínua, o elemento realiza a tarefa de regressão. Bernard Widrow [1962] propôs o uso de redes de múltiplos ADALINEs, MADALINEs, para problemas de classificação. Neste caso, a primeira camada era adaptativa e a segunda (de saída) era composta de funções de limiar fixas (AND, OR, MAJ). O ADALINE é capaz de solucionar problemas linearmente separáveis não determinísticos (com ruído). 2
2 Problema LS com ruído 3 Regressão O problema de estimar uma função a partir de um conjunto de exemplos entrada-saída com algum ou nenhum conhecimento da forma da função é comum a várias áreas, recebendo nomes distintos: regressão, aproximação de funções, identificação de sistemas e aprendizagem indutiva. No domínio das RN, este problema genérico é tratado como aprendizagem supervisionada e na estatística como regressão. O poder computacional do ADALINE é equivalente a um regressor linear. Entretanto, a saída do ADALINE pode ser modificada por uma função de ativação não-linear, o que o torna um componente não-linear em redes mais complexas capazes de aproximação de funções não-lineares. 4
3 Regressão linear O problema consiste em ajustar uma linha reta f(x) = ax + b a um conjunto T de p pontos: y T = {(x i, y i )} i=1 p h 3 h 2 h 1 (x 1, y 1 ) (x 2, y 2 ) (x 3, y 3 ) (x 5, y 5 ) (x 4, y 4 ) menor EQM Qual é a melhor solução? depende da métrica de avaliação h 1 : passa pelo maior número de pontos em T h 2 : passa pelos 2 pontos em T com valores extremos da entrada (x) h 3 : produz o menor erro quadrático médio (EQM) em T (h LMS : Least Mean Square ) x 5 O Problema da Filtragem Adaptativa Considere um sistema dinâmico cuja caracterização matemática seja desconhecida. Nós dispomos apenas de um conjunto rotulado de dados de entrada-saída gerados pelo sistema em instantes discretos de tempo. Quando, no instante i um estímulo x(i) de dimensão m é aplicado aos terminais de entrada do sistema, este responde produzindo uma saída escalar correspondente d(i), onde i = 1, 2,, n, O comportamento externo do sistema é portanto descrito pelo conjunto de dados onde T : {x(i), d(i) ; i = 1, 2,, n,...} x(i) = [x 1 (i), x 2 (i),, x m (i)] T O problema consiste em criar um modelo do sistema dinâmico desconhecido, utilizando um único neurônio linear. 6
4 Modelo neural para filtragem adaptativa O modelo neural opera sob a influência de um algoritmo que controla os ajustes necessários para os pesos sinápticos do neurônio. O algoritmo começa com um conjunto arbitrário de pesos que são ajustados em resposta a variações estatísticas do comportamento do sistema. Para um determinado estímulo x(i), o modelo calcula uma saída y(i). Calcula-se então um sinal de erro e(i), como a diferença entre a resposta desejada d(i) e a saída real do modelo y(i). O processo adaptativo consiste em ajustar os pesos de acordo com e(i). x 1 (i) x 2 (i) x m (i) Sistema dinâmico desconhecido d(i) x 1 (i) x 2 (i) +1 w 0 (i) w 1 (i) w 2 (i) v(i) CLA w m (i) = y(i) - d(i) + + e(i) x m (i) 7 2. Definições Como o elemento adaptativo do ADALINE é o CLA, podemos definir o erro linear instantâneo do ADALINE como sendo relativo à saída do CLA. Dado um conjunto de vetores de entrada pertencentes a uma de 2 classes linearmente separáveis, o problema é encontrar o conjunto de pesos capaz de associar cada vetor de entrada com o seu rótulo de classe. Dadas amostras (x 1, d 1 ), (x 2, d 2 ),, (x k, d k ),, (x L, d L ), de alguma função que mapeie vetores de entrada x(i) para os valores desejáveis na saída d(i), determinar o melhor vetor de pesos w* para um CLA realizar este mapeamento. +1 x k 1 w 1 w 0 CLA x k 2 w 2 v k (.) y k Para um vetor x k particular na entrada podemos definir o erro linear instantâneo relativo à saída do CLA: e k = d k v k com : v k = w T.x k 8
5 Plano de mapeamento do ADALINE O plano de mapeamento do ADALINE corresponde à superfície de regressão. v(n) = w 0 + w 1 x 1 (n) + w 2 x 2 (n) (+1, +1, +1,5) x 1 x 2 d v = 0,5x 1 + 0,5x 2 + 0,5 e ,5 0, ,5 + 0, ,5 +0, ,5 0,5 v ( 1, +1, +1) (+1, 1, +1) (+1, +1, +1) ( 1, +1, 0,5) (+1, 1, +0,5) ( 1, 1, 1) x 2 ( 1, 1, 0,5) x 1 x 1 x 2 9 Erro Quadrático Médio (EQM) O melhor vetor de pesos será aquele para o qual resulta o menor erro médio, considerando todo o conjunto de treinamento. Define-se como Erro Quadrático Médio (EQM), em um instante k, o valor médio dos erros instantâneos, elevados ao quadrado para evitar cancelamento de erros com sinais diferentes, de um conjunto de CLA, todos com o mesmo vetor de pesos instantâneos w k. Cada CLA terá um vetor de entrada x k e a resposta desejada correspondente d k escolhidos ao acaso, de uma população estatisticamente estacionária. Com isso, para cada CLA pode-se definir: Erro instantâneo quadrado: e k2 = (d k v k ) 2 Considerando-se que o vetor de pesos varie a cada iteração: v k = w kt.x k Com isso, e k2 = d k2 2 d k w kt.x k + w kt.x k x kt.w k Calculando a média sobre o conjunto, define-se o EQM no instante k ( k ): E k < e k2 >= <d k2 > 2 < d k x kt >.w k + w kt. < x k x kt >.w k L Sendo < > o operador valor esperado = 1 f L k k 1 10
6 Expressão do Erro Quadrático Médio Definindo-se o vetor p como a correlação cruzada entre a resposta desejada d (escalar) e o vetor x : p T < d k x kt > = < d k, d k x 1k,..., d k x nk > T e a matriz de correlação das entradas R definida em termos da média em relação aos conjuntos de ALC: R < x k x kt > R = 1 x 1k... x nk x 1k x 1k x 1k... x 1k x nk x nk x nk x 1k... x nk x nk < > Com isso o MSE no instante k pode ser expresso como: E k < e k2 > = < d k2 > 2 p T.w k + w kt. R.w k 11 Análise da função EQM do ADALINE A expressão do EQM como função dos pesos define uma superfície parabolóide convexa, sempre positiva, com um mínimo global: E k < e k2 > = < d k2 > 2 p T.w k + w kt. R.w k E E min w 2 w 1 * w 2 * w 1 12
7 Determinação do mínimo global da função EQM A posição do mínimo global do EQM pode ser determinada diretamente encontrando o valor de w* que corresponde ao gradiente nulo da função. E k = < e k2 > = < d k2 > 2 p T.w k + w kt. R.w k O gradiente do EQM é encontrado por diferenciação, resultando em uma função linear dos pesos: k E E k w k = 2p + 2R w k O vetor de pesos ótimo w*, é encontrado igualando o gradiente a zero: 2Rw* 2p = 0 Resolvendo para w*, obtém-se a equação de Wiener-Hopf: w* = R 1 p Substituindo esta expressão de w* na expressão do EQM encontramos a expressão do EQM mínimo: E min = < d k2 > p T.w* 13 Resolução da equação de Wiener-Hopf para o OR x 1 w 1 x 2 w 2 1 w 0 v y x(1) x(2) x(3) x(4) x 0 x 1 x d p T < d k x kt > = 0,25 {[1 1 1] + [1 1 1] + [1 1 1] + [1 1 1]} = [0,5 0,5 0,5] R < x k x kt > = 0, R = I w* = R 1 p = I.p = p [0,5 0,5 0,5] T = E min = < d k2 > p T.w* = 0,25 14
8 Plano de mapeamento para o OR Plano de mapeamento de um neurônio de duas entradas com w 0 = w 1 = w 2 = 0,5 x 1 x 2 v = 0,5x 1 + 0,5x 2 + 0, 5 e v(n) = 0,5 x 1 (n) + 0,5 x 2 (n) + 0,5 (+1, +1, +1,5) 1 1 0,5 0, , 5 0, , 5 0, , 5 0, 5 EQM = 0, 25 v ( 1, +1, +1) (0, 0, +0,5) (+1, 1, +1) (+1, +1, +1) ( 1, +1, 0,5) (+1, 1, +0,5) ( 1, 1, 1) x 2 ( 1, 1, 0,5) x 1 x 1 x 2 15 Superfície de regressão do ADALINE para o OR v(n) = 0,5 x 1 (n) + 0,5 x 2 (n) + 0,25 OR unipolar x 1 x 2 v = 0,5x 1 + 0,5x 2 + 0,25 e 0 0 0,25 0, ,75 0, ,75 0, ,25 0,25 EQM = 0,0625 Comprovar este resultado pela equação de Wiener-Hopf 16
9 Superfície de regressão do perceptron para o OR v(n) = 2 x 1 (n) + 2 x 2 (n) 1 x 1 x 2 v =2x 1 + 2x 2 1 e EQM = 1, Método da descida mais íngreme do erro Método iterativo que, a partir de um ponto inicial sobre a superfície do EQM, procura o mínimo global, modificando os pesos a cada iteração na direção do gradiente descendente da função EQM. E E(1) E min w 1 * E( E(n) w 2 * w 2 w 1 18
10 Algoritmo iterativo para a descida mais íngreme do erro 1. Inicializar os pesos com valores arbitrários, não nulos. 2. Do ponto inicial na superfície do erro EQM determinar a direção da inclinação mais íngreme para baixo na superfície. 3. Fazer pequena alteração nos pesos de forma que o novo vetor de pesos esteja um pouco mais abaixo, na superfície de erro. w(k + 1) = w( + ( k E ) 4. Repetir os passos 2 e 3 até encontrar o mínimo 19 Aplicações do ADALINE Como o algoritmo de treinamento do ADALINE a cada iteração diminui o EQM, é possível aplicá-lo com sucesso em problemas linearmente separáveis não determinísticos. Neste caso, o EQM dá a medida de desempenho alcançada no treinamento w 1.renda + w 2.dívida = t Dívida Mau Bom Renda 20
11 Gradiente do erro quadrado instantâneo: Algoritmo µ -LMS Sendo: e (= d( y( e y( w( T.x( ^ k E k e k2 (e 2 () w ( Aplicando a regra da cadeia das derivadas: 2 com: E( e ( 2e( e( e( E k E( E( e( y( w( e( y( w( e( y( y( y( w( w( d( y( 1 T w( x( x( k E E( w ( = 2 e(. x( 21 Descida do gradiente: algoritmo µ -LMS A cada iteração, os pesos são atualizados por uma parcela do gradiente descendente, instantâneo: com: e assim: w(k + 1) = w( + ( k E ) k E ^ k E k E 2 e(. x( Com isso, os pesos são corrigidos por: w(k + 1) = w( + 2µ e(. x( com µ o parâmetro taxa de aprendizagem. 22
12 Observações sobre o processo de treinamento Nos algoritmos de aprendizagem supervisionada, o aprendizado resulta da apresentação múltipla de um conjunto predeterminado de exemplos de treinamento. Uma apresentação completa do conjunto inteiro de treinamento durante o processo de aprendizagem é denominada uma época. O processo de aprendizagem é continuado para várias épocas até que os pesos se estabilizem e a função de custo a ser minimizada convirja para um valor mínimo. É aconselhável tornar aleatória a ordem de apresentação dos exemplos de treinamento de uma época para a seguinte, para que a busca no espaço de pesos seja estocástica sobre os ciclos de treinamento, evitando os ciclos limites. 23 Regras para o ajuste dos pesos Todos os algoritmos iterativos estudados se baseiam no princípio da perturbação mínima: Adaptar para reduzir o erro na saída para um padrão de treinamento corrente, perturbando o mínimo as respostas já aprendidas. Regras de descida mais íngreme do gradiente O objetivo é reduzir uma função de custo calculada como média sobre o conjunto de treinamento. A função de custo mais comum é o EQM. Apesar de esta ser a abordagem mais popular para ajuste de pesos, existem abordagens mais sofisticadas, como o métodos de quase- Newton e do gradiente conjugado, com melhores propriedades de convergência, mas com condições mais restritas de aplicação. 24
13 Regras não-lineares: Regra delta para o Adaline sigmóide Considera o erro na saída não-linear do ADALINE: x 1 w 1 x 0 w 0 v f(v) y x 2 w 2 Utiliza função de ativação diferenciável, sigmóide, f(x): A tangente hiperbólica: Ou a função logística: 1 e 2v k y k tanh(v k ) = 1 e 2v k f(v)= tanh(v) 1 y k = 1 e v k f(v)= (1+exp(v)) v v 25 Algoritmo -LMS Minimiza o EQM pela descida mais íngreme do gradiente do erro quadrado instantâneo, como no µ-lms. O erro instantâneo é agora medido na saída não-linear: e k d k y k d k f (v k ) com v k = w kt.x k Aproximação assumida: ^ k E k E A expressão do gradiente do erro quadrado instantâneo é a mesma: w ( ^ k E k e k2 (e 2 () O gradiente desta nova função de custo é calculado pela regra da cadeia das derivadas parciais. 26
14 Gradiente do erro quadrado instantâneo: Algoritmo -LMS ^ k E k e k2 (e 2 () w ( Sendo, e 2 (= (d( y() 2 d( fv()) 2 d( fw( T.x()) 2 e aplicando a regra da cadeia das derivadas: com: E k E( E( e( y( v( w( e( y( v( w( E( e( 2e( e( y( 1 y( v( f ( v( w( x( Então: k E E( w ( = 2 e( f v(). x( 27 Descida do gradiente: algoritmo -LMS A cada iteração, os pesos são atualizados por uma parcela do gradiente descendente, instantâneo: com: e assim: w(k + 1) = w( + ( k E ) k E ^ k E k E 2 e( f v(). x( Com isso, os pesos são corrigidos por: w(k + 1) = w( + 2µ e( f v(). x( com µ o parâmetro taxa de aprendizagem. 28
15 tanh(x) = 1 e 2x Análise das funções sigmóides 1.5 f(x) = e 1 1 e 2x x tanh (x) = 1 tanh 2 (x) f (x) = f(x).(1f(x)) 29 Ajuste dos pesos do algoritmo -LMS Para a função logística: f v() = f (v().(1 f v()) = y(.(1 y() Com isso, os pesos são corrigidos por: w(k + 1) = w( + 2µ e( y(.(1 y(). x( Para a função tangente hiperbólica: f v() = 1 (f v()) 2 = 1 (y() 2 Com isso, os pesos são corrigidos por: w(k + 1) = w( + 2µ e(.(1 (y() 2 ). x( 30
16 Análise do EQM do Adaline sigmóide EQM do OR com função logística EQM do OR com tangente hiperbólica 31 Superfície de regressão do Adaline sigmóide para a função OU v tanh(v) tanh(v) EQM = 0, Resultado do treinamento: w 0 = w 1 = w 2 = 2,25 y = tanh(2,25*x + 2,25*y + 2,25) 32
Aprendizagem de Máquina
Aprendizagem de Máquina Modelos de classificação por Redes Neurais Artificiais Prof. Paulo Martins Engel Motivação Classificadores baseados em representação simbólica (AD, RD,...) estão limitados a particionar
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Resumo. Filtragem Adaptativa. Filtros adaptativos. Tarefas desempenhadas pelos filtros
Resumo Filtragem Adaptativa Luís Caldas de Oliveira lco@istutlpt Instituto Superior Técnico Sistemas de filtragem adaptativa Conceitos de filtragem adaptativa Filtro de Wiener Algoritmo steepest descent
Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
SCC Capítulo 4 Perceptron de Camada Única
Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - [email protected] 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron
Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Redes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que
Redes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Primeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
Aprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em
3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais [email protected] http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Redes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
3 REDES CLÁSSICAS PERCEPTRON E ADALINE
w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados
3 Aprendizado por reforço
3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina
Inteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação [email protected] Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Introdução à Redes Neurais. Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana
Introdução à Redes Neurais Artificiais Prof. Matheus Giovanni Pires EXA 868 Inteligência Artificial Não-Simbólica B Universidade Estadual de Feira de Santana 2 Introdução Redes Neurais Artificiais (RNAs)
Filtragem Adaptativa
Filtragem Adaptativa Luís Caldas de Oliveira lco@istutlpt Instituto Superior Técnico Filtragem Adaptativa p1/45 Resumo Sistemas de filtragem adaptativa Filtragem Adaptativa p2/45 Resumo Sistemas de filtragem
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas
PERCEPTRON. Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado
PERCEPTRON Características Básicas Modelo de Neurônio Estrutura da Rede Algoritmo de Aprendizado CARACTERISTICAS BASICAS - Regra de propagação net - Função de ativação: Degrau = x w + - Topologia: uma
Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,
4 Redes Neurais Artificiais
4 Redes Neurais Artificiais Inteligência computacional pode ser definida como um conjunto de modelos, algoritmos, técnicas, ferramentas e aplicações em sistemas computadorizados que emulem características
3 Modelos Comparativos: Teoria e Metodologia
3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito
Redes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Redes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
REDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Introdução ao Processamento Estatístico de Sinais
Charles Casimiro Cavalcante [email protected] Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Departamento de Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Inteligência Computacional
Inteligência Computacional REDES NEURAIS ARTIFICIAIS ADALINE Renato Dourado Maia Faculdade de Ciência e Tecnologia de Montes Claros Fundação Educacional Montes Claros Adaline Adaline = Adaptive Linear
Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi
Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos O problema de controle ótimo Considere
Classificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva [email protected] Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Redes Neurais MLP: Exemplos e Características
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais MLP: Exemplos e Características DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1
Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions
Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a
Redes Neurais Artificial. Prática. Inteligência Artificial
Redes Neurais Artificial Prática Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Introdução a MLP 2. Base de dados e Pré-Processamento 3. Prática MLP - Introdução Redes
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Introdução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Classificação de Padrões. Abordagem prática com Redes Neurais Artificiais
Classificação de Padrões Abordagem prática com Redes Neurais Artificiais Agenda Parte I - Introdução ao aprendizado de máquina Parte II - Teoria RNA Parte III - Prática RNA Parte IV - Lições aprendidas
Rede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
INTELIGÊNCIA ARTIFICIAL
INTELIGÊNCIA ARTIFICIAL REDES NEURAIS Caracterização Intuitiva: Em termos intuitivos, Redes Neurais Artificiais (RNAs) são modelos matemáticos inspirados nos princípios de funcionamento dos neurônios biológicos
JAI 6 - Deep Learning Teoria e Prática
JAI 6 - Deep Learning Teoria e Prática Esteban Clua e Cristina Nader Vasconcelos Universidade Federal Fluminense Fundamentos Computação baseada em modelos [email protected] 2 Computação baseada em aprendizado
Paradigmas de Aprendizagem
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: [email protected]
Redes Neurais Artificial
Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado
Tópicos Especiais: Inteligência Artificial REDES NEURAIS
Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig
Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO
Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial 1 Redes Neurais - Definição O que é Rede Neural ou Rede Neuronal Artificial (RNA)? É um modelo computacional que objetiva
Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy
Redes Neurais Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy Um Sistema de Inferência Fuzzy (SIF) é um tipo especial de Sistema Baseado em Conhecimento (SBC).
BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017
BCC465 - TÉCNICAS DE OTIMIZAÇÃO MULTI-OBJETIVO Aula 04 - Otimização Não-linear Gladston Juliano Prates Moreira email: [email protected] CSILab, Departamento de Computação Universidade Federal de Ouro
4. O algoritmo LMS e variantes
Apontamentos de Processamento Adaptativo de Sinais 4. O algoritmo LMS e variantes Família de algoritmos do gradiente Na prática usam-se estimativas do gradiente, ˆ (n), em vez do verdadeiro gradiente (n),
Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Disciplina que estuda métodos analíticos para auxiliar na tomada de decisões.
Edgard Jamhour Disciplina que estuda métodos analíticos para auxiliar na tomada de decisões. Procura encontrar soluções ótimas ou próximo de ótimas para problemas de engenharia industrial, economia e finanças,
Sistemas Inteligentes
Sistemas Inteligentes UNIDADE 5 Redes Neurais Artificiais (Perceptron Multicamadas Conceitos) Prof. Ivan Nunes da Silva. Rede Perceptron Multicamadas Aspectos de arquitetura Redes Perceptron de Múltiplas
Filtro de Kalman. Teoria e Aplicação para Iniciantes. Prof. Dr. Marco Antonio Leonel Caetano. M&V Consultoria e Treinamento
Filtro de Kalman Teoria e Aplicação para Iniciantes Prof. Dr. Marco Antonio Leonel Caetano M&V Consultoria e Treinamento www.mudancasabruptas.com.br A História da Filtragem de Sinais 930 940 960 Filtro
Introdução à Teoria do Aprendizado
Introdução à Teoria do Aprendizado Carlos Hall Os processos no mundo real são intrinsecamente: dinâmicos (dependem do tempo) não lineares não gaussianos não estacionários com restrições com interações
Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons
RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ
RECONHECIMENTO DE GÊNERO ATRAVÉS DA VOZ Marcela Ribeiro Carvalho [email protected] IFG/Câmpus Goiânia Hipólito Barbosa Machado Filho [email protected] IFG/Câmpus Goiânia Programa Institucional
SUPPORT VECTOR MACHINE - SVM
SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento
PROVAS Ciência da Computação. 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta)
PROVAS Ciência da Computação 2 a Prova: 13/02/2014 (Quinta) Reavaliação: 20/02/2014 (Quinta) Ajuste de Curvas Objetivo Ajustar curvas pelo método dos mínimos quadrados 1 - INTRODUÇÃO Em geral, experimentos
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.5. Support Vector Machines 2.5. Support Vector Machines (SVM) 2.5.2.
Redes Neurais Artificiais. Capítulos 1 e 2
Redes Neurais Artificiais Introdução Capítulos 1 e 2 Redes Neurais Artificiais (RNA) São modelos computacionais inspirados nos mecanismos de aprendizagem do cérebro humano. São modelos computacionais que
SCE 5809 REDES NEURAIS
Sistemas de SCE 5809 REDES NEURAIS Profa. Roseli Ap. Francelin Romero Os diversos sistemas de possuem características particulares e comuns que permitem sua classif.: linguagem de descrição modo paradigma
ESTIMAÇÃO PARAMÉTRICA UTILIZANDO ALGORITMO RLS. Rodrigo Urban de Morais
UNIVERSIDADE FEDERAL DO PARANÁ PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA PPGEE ESTIMAÇÃO PARAMÉTRICA UTILIZANDO ALGORITMO RLS Rodrigo Urban de Morais CURITIBA, JUNHO DE 2007. Sumário 1. Introdução...3
Regressão Linear. Fabrício Olivetti de França. Universidade Federal do ABC
Regressão Linear Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Ordinary Least Square 2. Gradiente Descendente 1 Aprendendo com exemplos Uma das formas de aprendizado de máquina é definido
Aprendizado de Máquina
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Aprendizado de Máquina Inteligência Artificial Site: http://jeiks.net E-mail: [email protected]
Aprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Engenharia Elétrica Universidade Federal do Paraná (UFPR) Redes Neurais Artificiais Plano de Aula Introdução Motivação Biológica
