Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions
|
|
- Branca Flor Estrada Angelim
- 6 Há anos
- Visualizações:
Transcrição
1 Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a uma classe de modelos de redes neurais na qual a ativação de uma unidade oculta é determinada pela distância entre o vetor de entrada e um vetor protótipo. As redes RBF unificam diversas teorias importantes envolvendo aproximação de funções, regularização, interpolação ruidosa, estimação de densidade, classificação ótima e funções de potencial. Como conseqüência, os procedimentos de treinamento destas redes podem ser muito mais rápidos que os métodos usados para treinar redes LP. As unidades ocultas formam representações internas interpretáveis o que leva a um treinamento em dois estágios: Primeiro, são determinados os parâmetros das funções de base (não-supervisionado). Segundo, são determinados os pesos da camada de saída (problema linear). Redes RBF: Radial-Basis Functions Regressão não paramétrica O proeto de uma rede neural é visto como um problema de auste de curva. Aprendizado é equivalente a encontrar uma superfície no espaço multidimensional do mapeamento que resulta no melhor auste aos dados de treinamento. Generalização corresponde a interpolar dados nesta superfície multidimensional. A camada de entrada é constituída de nós sensoriais. As unidades ocultas fornecem um conunto de funções que constituem uma base arbitrária para vetores de entrada, quando eles são proetados no espaço das unidades ocultas. Estas funções são denominadas Funções de Base. A transformação do espaço de entrada para o espaço das unidades ocultas é não-linear. A camada de saída fornece a resposta da rede para os padrões de ativação apresentados na entrada. A transformação do espaço das unidades ocultas para o espaço de saída é linear. O problema é resolvido transformando-o na tarefa de classificação em um espaço multidimensional. 3 Na regressão não paramétrica, não se assume conhecimento a priori sobre a forma da função que se quer estimar. A função é estimada usando uma equação contendo parâmetros livres mas numa forma que permite ao modelo representar uma classe muito ampla de funções. Tipicamente a regressão não paramétrica envolve um grande número de parâmetros sem significado físico em relação ao problema. As redes neurais, e particularmente as redes de função de base radial (RBF) são modelos não paramétricos e seus pesos não têm um significado particular em relação aos problemas aos quais elas estão sendo aplicadas. Neste caso, o obetivo principal não é estimar os valores dos parâmetros (pesos) e sim estimar a função subacente, ou no mínimo as suas saídas para certos valores deseados de entrada. A rede RBF implementa uma combinação linear de funções de base radiais, elas mesmo não lineares: N h(x) = Σ w φ (x) = 4
2 Topologia da Rede RBF A rede RBF típica tem uma camada de entrada para distribuir o sinal de entrada, uma camada oculta, composta de nós de funções radiais, e uma camada de saída com um nó linear. x x i x p φ (x) φ (x) φ N (x) w + w w N w Σ h(x) N h(x) = Σ w φ (x) = Funções Radiais As funções radiais são uma classe especial de funções. A sua característica principal é que sua resposta diminui (ou aumenta) monotonamente com a distância de um ponto central. O centro, a escala de distância e a forma da função radial são parâmetros do modelo. Uma função radial típica é a gaussiana, que no caso esférico tem a forma: exp[ (x c φ (x) = ) ] σ onde c corresponde ao centro da função e σ controla a suavidade da interpolação. Tipicamente, numa rede RBF, a forma das funções de base é escolhida a priori, de modo que ela tenha um comportamento adequado ao problema de regressão: a sua resposta deve decrescer (ou crescer) monotonamente com a distância em relação a um ponto central. O problema consiste então em localizar os centros e outros parâmetros das funções de base e austar os pesos em relação ao arquivo de treinamento. 5 6 Gaussiana multivariada A função radial gaussiana pode ser generalizada para permitir matrizes de covariâncias arbitrárias Σ. T φ ( x) = exp ( x µ ) ( x µ ) σ = σ σ σ gaussiana Algumas funções radiais de base ( ν / ) φ( ν ) = exp β multiquádrica inversa φ( ν ) = ( ν + β ) / thin-plate spline ( ν ) ν log( ν ) φ = multiquádrica φ( ν ) = ( ν + β ) / 7 8
3 Funcionamento da rede O Problema de Interpolação exata A rede RBF é proetada para realizar um mapeamento não linear do espaço de entrada para o espaço oculto, seguido de um mapeamento linear do espaço oculto para o espaço de saída. Considerando que a rede tenha p entradas, N unidades ocultas e uma saída, podemos pensar que a rede represente um mapeamento s de um espaço p para um espaço unidimensional: s: R p R O mapeamento s representa uma hiper-superfície (gráfico) Γ R p+ A rede opera em duas fases: treinamento e generalização: Fase de treinamento: procedimento de auste otimizado da superfície Γ, de mapeamento da entrada para a saída, baseado nos pontos de dados apresentados à rede na forma de exemplos de padrões entrada-saída. Fase de generalização: interpolação entre dados, sendo realizada ao longo da superfície gerada pelo processo de auste. 9 Os métodos de funções de base radiais têm origem em técnicas para realizar interpolação exata de um conunto de dados num espaço multidimensional. O problema da interpolação exata requer que cada vetor de entrada sea mapeado exatamente para o seu vetor de saída correspondente. Considere um mapeamento do espaço de entrada x de dimensão d para um espaço de saída t unidimensional. O conunto de dados consiste de N vetores de entrada x n, com os seus alvos t n. O obetivo é encontrar uma função h(x) tal que h(x n ) = t n, n =,..., N A abordagem RBF para interpolação exata introduz um conunto de N funções de base, uma para cada dado, da forma φ( x x n ), onde φ(.) é uma função não linear. A saída do mapeamento é uma combinação linear das funções de base: n ( x x ) h( x) = φ n w n Solução do problema de interpolação exata A condição de interpolação, h(x n ) = t n, pode ser então escrita na forma matricial: Φ w = t onde t (t n ), w (w n ) e a matriz quadrada Φ tem elementos Φ nn = φ ( x n x n ). φ φ φ N ( x x ) φ( x x ) L φ( x x ) N ( x x ) φ( x x ) L φ( x x ) w w t = t ( ) ( ) ( ) N N N N N x x φ x x L φ x x wn t Interpolação exata A interpolação passando exatamente por todos os pontos do arquivo de dados tende a gerar uma função de interpolação oscilatória para dados ruidosos. No ATLAB, a função newrbe(x,d,spread) gera uma rede RBF com um neurônio para cada vetor de entrada, com uma largura das funções de base determinada por spread. Desde que exista a matriz inversa Φ, pode-se resolver para w: w = Φ t Pode-se mostrar que para uma ampla classe de funções φ(.), a matriz Φ é não-singular, desde que os pontos de dados seam distintos. A função h(x) resultante é uma superfície contínua diferenciável passando pelos dados. RBF: 3 neurônios
4 RBF incremental No ATLAB, a função newrb(x,d,goal,spread) gera uma rede RBF de maneira incremental, acrescentando um neurônio por vez, até que o erro da rede satisfaça o EQ dado por goal. A Rede GRNN Generalized Regression Network A rede GRNN (do ATLAB), é uma alternativa à rede RBF exata, onde a camada oculta se conecta à de saída por meio de pesos de valor igual aos valores deseados: w = t x φ (x) i w x i φ (x) i w y w N x p φ N (x) i N RBF final: 4 neurônios 3 O valor de saída é dado pela média ponderada das ativações intermediárias. A rede responde com a média ponderada dos vetores alvo mais próximos ao vetor de entrada: i y = w i 4 Interpolação por GRNN A interpolação por GRNN tende a ser mais suave. Estratégias de Aprendizado. Seleção das funções radiais:. Assumir funções fixas gaussianas esféricas, centradas em pontos c escolhidos aleatoriamente do arquivo de treinamento. Sendo d a distância máxima entre os centros, cada gaussiana terá a forma: (x c ) φ (x) = exp ( ) d Com isso, o desvio padrão de todas as gaussianas é dado por: d σ =. Os centros podem ser escolhidos por clusterização dos vetores de treinamento. No ATLAB, a função newgrnn(x,d,spread) gera uma rede GRNN com um neurônio para cada vetor de entrada, com uma largura das funções de base determinada por spread. 5. Cálculo dos pesos:. Inversão da matriz de interpolação;. Aplicação do algoritmo LS como regra de correção do erro na saída da rede. 6
5 Comparação com o LP. A ativação de uma unidade oculta (UO) de um LP é constante sobre um hiperplano (dimensão d ) no espaço de entrada (dimensão d). A ativação de uma unidade oculta de uma rede RBF é constante sobre um hiper-elipsóide.. Um LP forma uma representação distribuída no espaço dos valores de ativação das UO; para um vetor de entrada muitas UO contribuem para a determinação do valor de saída. Uma rede RBF com funções de base localizadas forma uma representação local no espaço das unidades ocultas; para um vetor de entrada, apenas algumas UO têm ativação significativa. Isto faz com que sea mais fácil treinar uma rede RBF. Comparação com o LP 3. LP tem uma arquitetura mais complexa, podendo ter várias camadas ocultas (CO) e um padrão de conectividade complexo, onde nem todos os pesos estão presentes. Além disso, usa-se mais de uma função de ativação na mesma rede; Uma rede RBF tem arquitetura mais simples, apenas uma CO. 4. Todos os parâmetros de um LP são austados simultaneamente, como parte de uma estratégia única de treinamento supervisionado. Uma rede RBF é treinada em duas etapas de auste: parâmetros das funções de base a partir dos dados de entrada (não supervisionado), pesos encontrados por métodos lineares supervisionados. 7 8 Exemplo de rede RBF: O Problema do XOR ϕ (x) = exp( x t ), t = [, ] T ϕ (x) = exp( x t ), t = [, ] T Utilizando as duas FBR gaussianas abaixo, especifique uma rede RBF, para resolver o problema do XOR (unipolar). ϕ (x),353 ϕ (x) x x φ (x) φ (x) w w + Σ w y(x) x x d i ϕ (x) ϕ (x) ϕ (x) ϕ (x),3678 ϕ (x) = exp( x t ), t = [, ] T ϕ (x) = exp( x t ), t = [, ] T,3678,353 9,44
6 Solução do problema do XOR Transformação de entrada-saída calculada para as FBR escolhidas apeamento de entrada-saída da rede RBF x x φ (x, x ),353,3678,3678, φ (x, x ),,3678,3678,353 d (,) (,) (,) (,) x = x x φ (x) φ (x) w w + Σ w y(x) w φ (x) + w φ (x) + w = y(x),353 w +, w + w =,3678 w +,3678 w + w =,3678 w +,3678 w + w =, w +,353 w + w = F(x, x ) F(x, ) x = x w = w =,58; w =,844 (,) (,) (,) (,) Superfícies de regressão para o problema do XOR obtidas com a rede BP 3
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia mais( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)
Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação
Leia maisAlgoritmos de Aprendizado
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron
Leia maisRedes de Funções de Base Radial Radial Basis Functions (RBFs)
Redes de Funções de Base Radial Radial Basis Functions (RBFs) Germano C. Vasconcelos Centro de Informática - UFPE Introdução Em uma RBF, a rede é definida do ponto de vista de um problema de aproximação
Leia maisRedes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisAprendizagem por treinamento de redes de aproximação
Aprendizagem por treinamento de redes de Marco H. Terra Departamento de Eng. Elétrica - EESC - USP SEL 0362 - Inteligência Artificial 1 Introdução Neste capítulo, serão apresentados conceitos sobre redes
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisRedes de Função de Base Radial. Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática
Redes de Função de Base Radial Aluizio Fausto Ribeiro Araúo Universidade Federal de Pernambuco Centro de Informática Conteúdo Introdução Histórico Teoria que Fundamenta Redes RBF Redes de Função de Base
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Leia maisAPRENDIZADO EM MODELOS CONEXIONISTAS
APRENDIZADO EM MODELOS CONEXIONISAS Aprendizado é o processo pelo qual os parâmetros (os pesos das coneões entre os neurônios) de uma rede neural são austados através de uma forma continuada de estímulo
Leia maisInteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida
Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas
Leia maisTópicos sobre Redes Neurais
Tópicos sobre Redes Neurais -Memórias Matriciais -Modelos Híbridos -Redes de Base Radial(RBF) -Redes Construtivas -Redes Recorrentes Prof João Alberto Fabro IF67D Sistemas Inteligentes 1 Dep de Informática
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
Leia maisAGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares
1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,
Leia maisGeração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada.
Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada [alessandro@psr-inc.com] Conteúdo Introdução Estimação não paramétrica (Kernel density) Transformação
Leia maisCapítulo 7. Mapas Auto-Organizados de Kohonen - SOM
Capítulo 7 Mapas Auto-Organizados de Kohonen - SOM Neste capítulo estudaremos um dos mais populares algoritmos na categoria de aprendizado não-supervisionado, as RNAs conhecidas como Mapas Auto-Organizados
Leia maisUniversidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um
Leia maisSUPPORT VECTOR MACHINE - SVM
SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento
Leia maisSistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy
Redes Neurais Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy Um Sistema de Inferência Fuzzy (SIF) é um tipo especial de Sistema Baseado em Conhecimento (SBC).
Leia maisAprendizagem por treinamento de redes de aproximação Marco Henrique Terra
Aprendizagem por treinamento de redes de aproimação Marco Henrique Terra Introdução à Inteligência Artificial Introdução Neste capítulo, serão apresentados conceitos sobre redes de aproimação e interpolação.
Leia maisClassificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Leia maisMapas Auto-Organizáveis de Kohonen SOM
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisCC-226 Introdução à Análise de Padrões
CC-226 Introdução à Análise de Padrões Estimação Não-Paramétrica e Aprendizado por Instâncias Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 16 de
Leia maisMapas Auto-Organizáveis de Kohonen SOM
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisCC-226 Aula 07 - Estimação de Parâmetros
CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal
Leia maisMétodos Não Paramétricos
Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Métodos não Paramétricos Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Métodos Não Paramétricos Introduzir
Leia maisAdriana da Costa F. Chaves. Máquina de Vetor Suporte (SVM) para Classificação Binária 2
Máquina de Vetor Suporte (SVM) para Classificação Binária Adriana da Costa F. Chaves Conteúdo da Apresentação Introdução Máquinas de Vetor Suporte para Classificação binária Exemplos Conclusão Máquina
Leia mais3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução
3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução Como já mencionado na seção 1.1, as SVMs geram, da mesma forma que redes neurais (RN), um "modelo caixa preta" de
Leia maisAprendizado por Instâncias Janelas de Parzen & Knn
Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Aprendizado por Instâncias Janelas de Parzen & Knn David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Aprendizado por
Leia maisFundamentos de Inteligência Artificial [5COP099]
Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução
Leia maisSCE 5809 REDES NEURAIS
Sistemas de SCE 5809 REDES NEURAIS Profa. Roseli Ap. Francelin Romero Os diversos sistemas de possuem características particulares e comuns que permitem sua classif.: linguagem de descrição modo paradigma
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas
Leia maisExercícios de programação
Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,
Leia maisDefine-se o regressor,ϕ,como. e o vector de parâmetros a estimar, θ,como. O modelo escreve-se:
22 Mínimos Quadrados - Notação matricial Se quisermos resolver o problema de estimação para um número arbitrário de parâmetros temos de usar a notação matricial. Define-se o regressor,,como [ ] e o vector
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Leia mais3 Modelos Comparativos: Teoria e Metodologia
3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito
Leia maisRedes Neurais Artificiais: Funções de Base Radial
Treinamento COELCE CEFET UFC MÓDULO II 2008.1 Redes Neurais Artificiais: Funções de Base Radial Prof. Dr. Guilherme de Alencar Barreto Depto. Engenharia de Teleinformática (DETI/UFC) URL: www.deti.ufc.br/~guilherme
Leia maisAlgoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.
CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado
Leia maisCONSTRUÇÃO DO METAMODELO SOLUÇÃO POR ELEMENTOS FINITOS MÉTODO DE OTIMIZAÇÃO SOLUÇÃO APROXIMADA SOLUÇÃO. (função de aproximação)
Escola Politécnica da Universidade de São Paulo Laboratório de Eletromagnetismo Aplicado LMAG-PEA-EPUSPEPUSP FUNÇÕES DE APROXIMAÇÃO APLICADAS AO PROJETO DE EQUIPAMENTOS ELETROMAGNÉTICOS INTRODUÇÃO: OTIMIZAÇÃO
Leia maisMapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995))
Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995)) que realiza simultaneamente agrupamento e visualização SOM usa aprendizagem não supervisionada para mapear dados
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisSeja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma:
46 VALOR ESPERADO CONDICIONADO Seja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma: Variável contínua E + ( X Y
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia maisRegra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem
Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja
Leia maisParadigmas de Aprendizagem
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisO Uso de Famílias de Circuitos e Rede Neural Artificial para Previsão de Demanda de Energia Elétrica
O Uso de Famílias de Circuitos e Rede Neural Artificial para Previsão de Demanda de Energia Elétrica José Leomar Todesco (Stela, INE UFSC) tite@stela.ufsc.br Francisco J. S. Pimentel (CELESC) franciscosp@celesc.com.br
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy Mapas Auto-Organizáveis 1. O Mapa Auto-Organizável (SOM) Sistema auto-organizável inspirado no córtex cerebral. Nos mapas tonotópicos do córtex, p. ex., neurônios vizinhos
Leia maisSistemas Inteligentes
Sistemas Inteligentes UNIDADE 5 Redes Neurais Artificiais (Perceptron Multicamadas Conceitos) Prof. Ivan Nunes da Silva. Rede Perceptron Multicamadas Aspectos de arquitetura Redes Perceptron de Múltiplas
Leia maisRede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Modelos preditivos A tarefa de classificação Modelos Preditivos A tarefa de geração de um modelo preditivo consiste em aprender um mapeamento de entrada para a saída. Neste caso,
Leia maisSEMINÁRIO DOS ARTIGOS:
SEMINÁRIO DOS ARTIGOS: Text Detection and Character Recognition in Scene Images with Unsupervised Feature Learning End-to-End Text Recognition with Convolutional Neural Networks Fernanda Maria Sirlene
Leia mais3 Filtro de Kalman Discreto
3 Filtro de Kalman Discreto As medidas realizadas por sensores estão sujeitas a erros, como pode ser visto no Capítulo 2. Os filtros são aplicados aos sinais medidos pelos sensores para reduzir os erros,
Leia maisTeorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.
SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,
Leia maisAplicações da RMC. Avaliação de Algoritmos. Tratamento nos dados 27/8/2010. Roseli A F Romero SCC 5809 REDES NEURAIS
SCC 5809 REDES NEURAIS Profa. ROSELI ROMERO Aplicações da RMC Reconhecimento de Imagens: FACES/GESTOS Reconhecimento de Voz Transformação de Texto em Voz Previsão de Bolsa de Valores Análise de Dados Financeiros
Leia mais3 INTERVALOS DE CONFIANÇA
3 INTEVALOS DE CONFIANÇA 3.1 Introdução A estimativa de intervalos de confiança é utilizada para se obter medidas de incerteza dos dados analisados. A análise da incerteza de uma previsão, por exemplo,
Leia maisTP537 Transmissão Digital 1ª Avaliação 27/10/ :00h Prof. Dayan Adionel Guimarães. Aluno(a):
TP537 Transmissão Digital ª Avaliação 7//4 8:h Prof. Dayan Adionel Guimarães ota: Aluno(a): ª questão (4 pontos) Prova com consulta ao livro texto, com duração de 3 horas. A interpretação é parte integrante
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
Leia maisPerceptron de Múltiplas Camadas e Backpropagation
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem
Leia maisFORECASTING OF EUCALYPTUS WOOD PRICES FOR CELLULOSE AND SAWMILL USING RADIAL BASIS FUNCTION NEURAL NETWORK AND CLUSTERING METHOD
FORECASTING OF EUCALYPTUS WOOD PRICES FOR CELLULOSE AND SAWMILL USING RADIAL BASIS FUNCTION NEURAL NETWORK AND CLUSTERING METHOD Roberto Max Protil - PUCPR Leandro dos Santos Coelho PUCPR Wesley Vieira
Leia maisRedes Neurais Feedforward e Backpropagation. André Siqueira Ruela
Redes Neurais Feedforward e Backpropagation André Siqueira Ruela Sumário Introdução a redes feedforward Algoritmo feedforward Algoritmo backpropagation Feedforward Em uma rede feedforward, cada camada
Leia maisIntrodução às Redes Neurais Artificiais
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
Leia maisModelagem Computacional. Parte 8 2
Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 8 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 10 e 11] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons
Leia maisTÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Leia maisRedes Neurais Artificiais - Introdução. Visão Computacional
Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos
Leia maisProcessamento digital de imagens
Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que
Leia mais1. Conceitos básicos dos Sistemas Auto-organizáveis. Os sistemas auto-organizáveis estão relacionados com aprendizagem nãosupervisionada.
Redes Neurais Sistemas Auto-Organizáveis. Conceitos básicos dos Sistemas Auto-organizáveis Os sistemas auto-organizáveis estão relacionados com aprendizagem nãosupervisionada. O objetivo de um algoritmo
Leia maisModelos de Regressão
Renato Martins Assunção DCC - UFMG 2015 Renato Martins Assunção (DCC - UFMG) 2015 1 / 19 Exemplo de preço de apto Y = y 1 y 2 y 1499 y 1500 b 0 1 1 1 1 + b 1 área 1 área 2 área 1499 área 1500 + b 2 idade
Leia maisMAP Segundo exercício programa Splines cúbicos
MAP-2121 - Segundo exercício programa - 26 Splines Cúbicos Instruções gerais - Os exercícios computacionais pedidos na disciplina Cálculo Numérico têm por objetivo fundamental familiarizar o aluno com
Leia maisNoções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23
Noções de Simulação Ciências Contábeis - FEA - Noturno 2 o Semestre 2013 MAE0219 (IME-USP) Noções de Simulação 2 o Semestre 2013 1 / 23 Objetivos da Aula Sumário 1 Objetivos da Aula 2 Motivação 3 Geração
Leia maisComunicaçõ. ções Digitais II. Texto original por Prof. Dr. Ivan Roberto Santana Casella
PTC-43 Comunicaçõ ções Digitais II Texto original por Prof. Dr. Ivan Roberto Santana Casella Representaçã ção o Geométrica de Sinais A modulação digital envolve a escolha de um sinal específico s i (t)
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
Redes Neurais Artificiais MATLAB Prof. Dr. André A. P. Biscaro 2º Semestre de 2018 EXEMPLOS 1 - Aproximação de Base Radial; 2 - Base Radial Sobrepondo Neurônios; 3 - Neurônios Sobrepostos à Base Radial;
Leia maisGeometria Analítica e Álgebra Linear
UNIFEI - Universidade Federal de Itajubá campus Itabira Geometria Analítica e Álgebra Linear Parte 1 Matrizes 1 Introdução A teoria das equações lineares desempenha papel importante e motivador da álgebra
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
Leia maisRicardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo
Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Leia mais3 REDES CLÁSSICAS PERCEPTRON E ADALINE
w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados
Leia maisAprendizado de Máquina Introdução às Redes Neurais Artificiais
Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência
Leia maisTópicos Especiais: Inteligência Artificial REDES NEURAIS
Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig
Leia maisAutor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com
Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial
Leia maisRadiométricas. Alexandre Xavier Falcão. Instituto de Computação - UNICAMP
Operações Matemáticas e Transformações Radiométricas Instituto de Computação - UNICAMP afalcao@ic.unicamp.br Operações Matemáticas Sejam Î = (D I, I ) e Ĵ = (D J, J) duas imagens cinzas de mesmo domínio,
Leia maisREDES NEURAIS ARTIFICIAIS
REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO
Leia maisNeurocomputação Parte 2
Neurocomputação Parte 2 Fabricio Breve - fbreve@gmail.com 25/09/2007 Fabricio Breve 1 REDES NEURAIS ARTIFICIAIS 25/09/2007 Fabricio Breve 2 Por que Redes Neurais? Computadores convencionais são eficientes
Leia mais3 Redes Neurais Introdução
3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas
Leia maisUm modelo estocástico para o fluxo de caixa de um plano de previdência de um indivíduo 15
2 Simulação estocástica A simulação computacional consiste em empregar técnicas matemáticas em computadores com o propósito de gerar ensaios que tentam reproduzir de maneira análoga um processo ou operação
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais x 1 w k1 Bias b k +1 +1 x 1 x 2 x 3 x m +1 y 1 y 2 y o Sinais de entrada x 2 x m Fabricio Breve fabricio@rc.unesp.br w k2 w km Pesos sinápticos Σ Junção aditiva v k f(. ) Saída
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe
Leia maisMini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE
Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede
Leia mais