Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Tamanho: px
Começar a partir da página:

Download "Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions"

Transcrição

1 Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a uma classe de modelos de redes neurais na qual a ativação de uma unidade oculta é determinada pela distância entre o vetor de entrada e um vetor protótipo. As redes RBF unificam diversas teorias importantes envolvendo aproximação de funções, regularização, interpolação ruidosa, estimação de densidade, classificação ótima e funções de potencial. Como conseqüência, os procedimentos de treinamento destas redes podem ser muito mais rápidos que os métodos usados para treinar redes LP. As unidades ocultas formam representações internas interpretáveis o que leva a um treinamento em dois estágios: Primeiro, são determinados os parâmetros das funções de base (não-supervisionado). Segundo, são determinados os pesos da camada de saída (problema linear). Redes RBF: Radial-Basis Functions Regressão não paramétrica O proeto de uma rede neural é visto como um problema de auste de curva. Aprendizado é equivalente a encontrar uma superfície no espaço multidimensional do mapeamento que resulta no melhor auste aos dados de treinamento. Generalização corresponde a interpolar dados nesta superfície multidimensional. A camada de entrada é constituída de nós sensoriais. As unidades ocultas fornecem um conunto de funções que constituem uma base arbitrária para vetores de entrada, quando eles são proetados no espaço das unidades ocultas. Estas funções são denominadas Funções de Base. A transformação do espaço de entrada para o espaço das unidades ocultas é não-linear. A camada de saída fornece a resposta da rede para os padrões de ativação apresentados na entrada. A transformação do espaço das unidades ocultas para o espaço de saída é linear. O problema é resolvido transformando-o na tarefa de classificação em um espaço multidimensional. 3 Na regressão não paramétrica, não se assume conhecimento a priori sobre a forma da função que se quer estimar. A função é estimada usando uma equação contendo parâmetros livres mas numa forma que permite ao modelo representar uma classe muito ampla de funções. Tipicamente a regressão não paramétrica envolve um grande número de parâmetros sem significado físico em relação ao problema. As redes neurais, e particularmente as redes de função de base radial (RBF) são modelos não paramétricos e seus pesos não têm um significado particular em relação aos problemas aos quais elas estão sendo aplicadas. Neste caso, o obetivo principal não é estimar os valores dos parâmetros (pesos) e sim estimar a função subacente, ou no mínimo as suas saídas para certos valores deseados de entrada. A rede RBF implementa uma combinação linear de funções de base radiais, elas mesmo não lineares: N h(x) = Σ w φ (x) = 4

2 Topologia da Rede RBF A rede RBF típica tem uma camada de entrada para distribuir o sinal de entrada, uma camada oculta, composta de nós de funções radiais, e uma camada de saída com um nó linear. x x i x p φ (x) φ (x) φ N (x) w + w w N w Σ h(x) N h(x) = Σ w φ (x) = Funções Radiais As funções radiais são uma classe especial de funções. A sua característica principal é que sua resposta diminui (ou aumenta) monotonamente com a distância de um ponto central. O centro, a escala de distância e a forma da função radial são parâmetros do modelo. Uma função radial típica é a gaussiana, que no caso esférico tem a forma: exp[ (x c φ (x) = ) ] σ onde c corresponde ao centro da função e σ controla a suavidade da interpolação. Tipicamente, numa rede RBF, a forma das funções de base é escolhida a priori, de modo que ela tenha um comportamento adequado ao problema de regressão: a sua resposta deve decrescer (ou crescer) monotonamente com a distância em relação a um ponto central. O problema consiste então em localizar os centros e outros parâmetros das funções de base e austar os pesos em relação ao arquivo de treinamento. 5 6 Gaussiana multivariada A função radial gaussiana pode ser generalizada para permitir matrizes de covariâncias arbitrárias Σ. T φ ( x) = exp ( x µ ) ( x µ ) σ = σ σ σ gaussiana Algumas funções radiais de base ( ν / ) φ( ν ) = exp β multiquádrica inversa φ( ν ) = ( ν + β ) / thin-plate spline ( ν ) ν log( ν ) φ = multiquádrica φ( ν ) = ( ν + β ) / 7 8

3 Funcionamento da rede O Problema de Interpolação exata A rede RBF é proetada para realizar um mapeamento não linear do espaço de entrada para o espaço oculto, seguido de um mapeamento linear do espaço oculto para o espaço de saída. Considerando que a rede tenha p entradas, N unidades ocultas e uma saída, podemos pensar que a rede represente um mapeamento s de um espaço p para um espaço unidimensional: s: R p R O mapeamento s representa uma hiper-superfície (gráfico) Γ R p+ A rede opera em duas fases: treinamento e generalização: Fase de treinamento: procedimento de auste otimizado da superfície Γ, de mapeamento da entrada para a saída, baseado nos pontos de dados apresentados à rede na forma de exemplos de padrões entrada-saída. Fase de generalização: interpolação entre dados, sendo realizada ao longo da superfície gerada pelo processo de auste. 9 Os métodos de funções de base radiais têm origem em técnicas para realizar interpolação exata de um conunto de dados num espaço multidimensional. O problema da interpolação exata requer que cada vetor de entrada sea mapeado exatamente para o seu vetor de saída correspondente. Considere um mapeamento do espaço de entrada x de dimensão d para um espaço de saída t unidimensional. O conunto de dados consiste de N vetores de entrada x n, com os seus alvos t n. O obetivo é encontrar uma função h(x) tal que h(x n ) = t n, n =,..., N A abordagem RBF para interpolação exata introduz um conunto de N funções de base, uma para cada dado, da forma φ( x x n ), onde φ(.) é uma função não linear. A saída do mapeamento é uma combinação linear das funções de base: n ( x x ) h( x) = φ n w n Solução do problema de interpolação exata A condição de interpolação, h(x n ) = t n, pode ser então escrita na forma matricial: Φ w = t onde t (t n ), w (w n ) e a matriz quadrada Φ tem elementos Φ nn = φ ( x n x n ). φ φ φ N ( x x ) φ( x x ) L φ( x x ) N ( x x ) φ( x x ) L φ( x x ) w w t = t ( ) ( ) ( ) N N N N N x x φ x x L φ x x wn t Interpolação exata A interpolação passando exatamente por todos os pontos do arquivo de dados tende a gerar uma função de interpolação oscilatória para dados ruidosos. No ATLAB, a função newrbe(x,d,spread) gera uma rede RBF com um neurônio para cada vetor de entrada, com uma largura das funções de base determinada por spread. Desde que exista a matriz inversa Φ, pode-se resolver para w: w = Φ t Pode-se mostrar que para uma ampla classe de funções φ(.), a matriz Φ é não-singular, desde que os pontos de dados seam distintos. A função h(x) resultante é uma superfície contínua diferenciável passando pelos dados. RBF: 3 neurônios

4 RBF incremental No ATLAB, a função newrb(x,d,goal,spread) gera uma rede RBF de maneira incremental, acrescentando um neurônio por vez, até que o erro da rede satisfaça o EQ dado por goal. A Rede GRNN Generalized Regression Network A rede GRNN (do ATLAB), é uma alternativa à rede RBF exata, onde a camada oculta se conecta à de saída por meio de pesos de valor igual aos valores deseados: w = t x φ (x) i w x i φ (x) i w y w N x p φ N (x) i N RBF final: 4 neurônios 3 O valor de saída é dado pela média ponderada das ativações intermediárias. A rede responde com a média ponderada dos vetores alvo mais próximos ao vetor de entrada: i y = w i 4 Interpolação por GRNN A interpolação por GRNN tende a ser mais suave. Estratégias de Aprendizado. Seleção das funções radiais:. Assumir funções fixas gaussianas esféricas, centradas em pontos c escolhidos aleatoriamente do arquivo de treinamento. Sendo d a distância máxima entre os centros, cada gaussiana terá a forma: (x c ) φ (x) = exp ( ) d Com isso, o desvio padrão de todas as gaussianas é dado por: d σ =. Os centros podem ser escolhidos por clusterização dos vetores de treinamento. No ATLAB, a função newgrnn(x,d,spread) gera uma rede GRNN com um neurônio para cada vetor de entrada, com uma largura das funções de base determinada por spread. 5. Cálculo dos pesos:. Inversão da matriz de interpolação;. Aplicação do algoritmo LS como regra de correção do erro na saída da rede. 6

5 Comparação com o LP. A ativação de uma unidade oculta (UO) de um LP é constante sobre um hiperplano (dimensão d ) no espaço de entrada (dimensão d). A ativação de uma unidade oculta de uma rede RBF é constante sobre um hiper-elipsóide.. Um LP forma uma representação distribuída no espaço dos valores de ativação das UO; para um vetor de entrada muitas UO contribuem para a determinação do valor de saída. Uma rede RBF com funções de base localizadas forma uma representação local no espaço das unidades ocultas; para um vetor de entrada, apenas algumas UO têm ativação significativa. Isto faz com que sea mais fácil treinar uma rede RBF. Comparação com o LP 3. LP tem uma arquitetura mais complexa, podendo ter várias camadas ocultas (CO) e um padrão de conectividade complexo, onde nem todos os pesos estão presentes. Além disso, usa-se mais de uma função de ativação na mesma rede; Uma rede RBF tem arquitetura mais simples, apenas uma CO. 4. Todos os parâmetros de um LP são austados simultaneamente, como parte de uma estratégia única de treinamento supervisionado. Uma rede RBF é treinada em duas etapas de auste: parâmetros das funções de base a partir dos dados de entrada (não supervisionado), pesos encontrados por métodos lineares supervisionados. 7 8 Exemplo de rede RBF: O Problema do XOR ϕ (x) = exp( x t ), t = [, ] T ϕ (x) = exp( x t ), t = [, ] T Utilizando as duas FBR gaussianas abaixo, especifique uma rede RBF, para resolver o problema do XOR (unipolar). ϕ (x),353 ϕ (x) x x φ (x) φ (x) w w + Σ w y(x) x x d i ϕ (x) ϕ (x) ϕ (x) ϕ (x),3678 ϕ (x) = exp( x t ), t = [, ] T ϕ (x) = exp( x t ), t = [, ] T,3678,353 9,44

6 Solução do problema do XOR Transformação de entrada-saída calculada para as FBR escolhidas apeamento de entrada-saída da rede RBF x x φ (x, x ),353,3678,3678, φ (x, x ),,3678,3678,353 d (,) (,) (,) (,) x = x x φ (x) φ (x) w w + Σ w y(x) w φ (x) + w φ (x) + w = y(x),353 w +, w + w =,3678 w +,3678 w + w =,3678 w +,3678 w + w =, w +,353 w + w = F(x, x ) F(x, ) x = x w = w =,58; w =,844 (,) (,) (,) (,) Superfícies de regressão para o problema do XOR obtidas com a rede BP 3

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

Redes de Funções de Base Radial Radial Basis Functions (RBFs)

Redes de Funções de Base Radial Radial Basis Functions (RBFs) Redes de Funções de Base Radial Radial Basis Functions (RBFs) Germano C. Vasconcelos Centro de Informática - UFPE Introdução Em uma RBF, a rede é definida do ponto de vista de um problema de aproximação

Leia mais

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Aprendizagem por treinamento de redes de aproximação

Aprendizagem por treinamento de redes de aproximação Aprendizagem por treinamento de redes de Marco H. Terra Departamento de Eng. Elétrica - EESC - USP SEL 0362 - Inteligência Artificial 1 Introdução Neste capítulo, serão apresentados conceitos sobre redes

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Redes de Função de Base Radial. Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática

Redes de Função de Base Radial. Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática Redes de Função de Base Radial Aluizio Fausto Ribeiro Araúo Universidade Federal de Pernambuco Centro de Informática Conteúdo Introdução Histórico Teoria que Fundamenta Redes RBF Redes de Função de Base

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

APRENDIZADO EM MODELOS CONEXIONISTAS

APRENDIZADO EM MODELOS CONEXIONISTAS APRENDIZADO EM MODELOS CONEXIONISAS Aprendizado é o processo pelo qual os parâmetros (os pesos das coneões entre os neurônios) de uma rede neural são austados através de uma forma continuada de estímulo

Leia mais

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida Inteligência Artificial IA Conexionista: Redes Neurais Artificiais Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis Renan Rosado de Almeida rralmeida@inf.ufrgs.br Perceptron de Múltiplas Camadas

Leia mais

Tópicos sobre Redes Neurais

Tópicos sobre Redes Neurais Tópicos sobre Redes Neurais -Memórias Matriciais -Modelos Híbridos -Redes de Base Radial(RBF) -Redes Construtivas -Redes Recorrentes Prof João Alberto Fabro IF67D Sistemas Inteligentes 1 Dep de Informática

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares 1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,

Leia mais

Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada.

Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada. Geração de cenários de energia renovável correlacionados com hidrologia: uma abordagem bayesiana multivariada [alessandro@psr-inc.com] Conteúdo Introdução Estimação não paramétrica (Kernel density) Transformação

Leia mais

Capítulo 7. Mapas Auto-Organizados de Kohonen - SOM

Capítulo 7. Mapas Auto-Organizados de Kohonen - SOM Capítulo 7 Mapas Auto-Organizados de Kohonen - SOM Neste capítulo estudaremos um dos mais populares algoritmos na categoria de aprendizado não-supervisionado, as RNAs conhecidas como Mapas Auto-Organizados

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy

Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy Redes Neurais Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy Um Sistema de Inferência Fuzzy (SIF) é um tipo especial de Sistema Baseado em Conhecimento (SBC).

Leia mais

Aprendizagem por treinamento de redes de aproximação Marco Henrique Terra

Aprendizagem por treinamento de redes de aproximação Marco Henrique Terra Aprendizagem por treinamento de redes de aproimação Marco Henrique Terra Introdução à Inteligência Artificial Introdução Neste capítulo, serão apresentados conceitos sobre redes de aproimação e interpolação.

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

CC-226 Introdução à Análise de Padrões

CC-226 Introdução à Análise de Padrões CC-226 Introdução à Análise de Padrões Estimação Não-Paramétrica e Aprendizado por Instâncias Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 16 de

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal

Leia mais

Métodos Não Paramétricos

Métodos Não Paramétricos Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Métodos não Paramétricos Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Métodos Não Paramétricos Introduzir

Leia mais

Adriana da Costa F. Chaves. Máquina de Vetor Suporte (SVM) para Classificação Binária 2

Adriana da Costa F. Chaves. Máquina de Vetor Suporte (SVM) para Classificação Binária 2 Máquina de Vetor Suporte (SVM) para Classificação Binária Adriana da Costa F. Chaves Conteúdo da Apresentação Introdução Máquinas de Vetor Suporte para Classificação binária Exemplos Conclusão Máquina

Leia mais

3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução

3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução 3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução Como já mencionado na seção 1.1, as SVMs geram, da mesma forma que redes neurais (RN), um "modelo caixa preta" de

Leia mais

Aprendizado por Instâncias Janelas de Parzen & Knn

Aprendizado por Instâncias Janelas de Parzen & Knn Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Aprendizado por Instâncias Janelas de Parzen & Knn David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Aprendizado por

Leia mais

Fundamentos de Inteligência Artificial [5COP099]

Fundamentos de Inteligência Artificial [5COP099] Fundamentos de Inteligência Artificial [5COP099] Dr. Sylvio Barbon Junior Departamento de Computação - UEL Disciplina Anual Assunto Aula 16 Redes Neurais Artificiais (MLP) 2 de 24 (MLP) Sumário Introdução

Leia mais

SCE 5809 REDES NEURAIS

SCE 5809 REDES NEURAIS Sistemas de SCE 5809 REDES NEURAIS Profa. Roseli Ap. Francelin Romero Os diversos sistemas de possuem características particulares e comuns que permitem sua classif.: linguagem de descrição modo paradigma

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.4. Outras Redes Neurais Artificiais 2.4.1. Redes RBF 2.4.2. Mapas

Leia mais

Exercícios de programação

Exercícios de programação Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,

Leia mais

Define-se o regressor,ϕ,como. e o vector de parâmetros a estimar, θ,como. O modelo escreve-se:

Define-se o regressor,ϕ,como. e o vector de parâmetros a estimar, θ,como. O modelo escreve-se: 22 Mínimos Quadrados - Notação matricial Se quisermos resolver o problema de estimação para um número arbitrário de parâmetros temos de usar a notação matricial. Define-se o regressor,,como [ ] e o vector

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais

Redes Neurais Artificiais: Funções de Base Radial

Redes Neurais Artificiais: Funções de Base Radial Treinamento COELCE CEFET UFC MÓDULO II 2008.1 Redes Neurais Artificiais: Funções de Base Radial Prof. Dr. Guilherme de Alencar Barreto Depto. Engenharia de Teleinformática (DETI/UFC) URL: www.deti.ufc.br/~guilherme

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

CONSTRUÇÃO DO METAMODELO SOLUÇÃO POR ELEMENTOS FINITOS MÉTODO DE OTIMIZAÇÃO SOLUÇÃO APROXIMADA SOLUÇÃO. (função de aproximação)

CONSTRUÇÃO DO METAMODELO SOLUÇÃO POR ELEMENTOS FINITOS MÉTODO DE OTIMIZAÇÃO SOLUÇÃO APROXIMADA SOLUÇÃO. (função de aproximação) Escola Politécnica da Universidade de São Paulo Laboratório de Eletromagnetismo Aplicado LMAG-PEA-EPUSPEPUSP FUNÇÕES DE APROXIMAÇÃO APLICADAS AO PROJETO DE EQUIPAMENTOS ELETROMAGNÉTICOS INTRODUÇÃO: OTIMIZAÇÃO

Leia mais

Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995))

Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995)) Mapas Auto-Organizáveis de Kohonen (SOM) SOM é uma rede neural artificial (Kohonen (1995)) que realiza simultaneamente agrupamento e visualização SOM usa aprendizagem não supervisionada para mapear dados

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

Seja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma:

Seja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma: 46 VALOR ESPERADO CONDICIONADO Seja (X,Y) uma v.a. bidimensional contínua ou discreta. Define-se valor esperado condicionado de X para um dado Y igual a y da seguinte forma: Variável contínua E + ( X Y

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Mapas Auto-Organizáveis Prof. João Marcos Meirelles da Silva http://www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem

Regra de Oja. Para taxa de aprendizagem pequena, Oja aproximou. pesos para criar uma forma útil da aprendizagem Regra de Oja A regra de Hebb necessita da normalização dos pesos para criar uma forma útil da aprendizagem i i i i i i n x n y n w n x n y n w n w 2 1 JDSS-LAC/INPE Para taxa de aprendizagem pequena, Oja

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

O Uso de Famílias de Circuitos e Rede Neural Artificial para Previsão de Demanda de Energia Elétrica

O Uso de Famílias de Circuitos e Rede Neural Artificial para Previsão de Demanda de Energia Elétrica O Uso de Famílias de Circuitos e Rede Neural Artificial para Previsão de Demanda de Energia Elétrica José Leomar Todesco (Stela, INE UFSC) tite@stela.ufsc.br Francisco J. S. Pimentel (CELESC) franciscosp@celesc.com.br

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Mapas Auto-Organizáveis 1. O Mapa Auto-Organizável (SOM) Sistema auto-organizável inspirado no córtex cerebral. Nos mapas tonotópicos do córtex, p. ex., neurônios vizinhos

Leia mais

Sistemas Inteligentes

Sistemas Inteligentes Sistemas Inteligentes UNIDADE 5 Redes Neurais Artificiais (Perceptron Multicamadas Conceitos) Prof. Ivan Nunes da Silva. Rede Perceptron Multicamadas Aspectos de arquitetura Redes Perceptron de Múltiplas

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Modelos preditivos A tarefa de classificação Modelos Preditivos A tarefa de geração de um modelo preditivo consiste em aprender um mapeamento de entrada para a saída. Neste caso,

Leia mais

SEMINÁRIO DOS ARTIGOS:

SEMINÁRIO DOS ARTIGOS: SEMINÁRIO DOS ARTIGOS: Text Detection and Character Recognition in Scene Images with Unsupervised Feature Learning End-to-End Text Recognition with Convolutional Neural Networks Fernanda Maria Sirlene

Leia mais

3 Filtro de Kalman Discreto

3 Filtro de Kalman Discreto 3 Filtro de Kalman Discreto As medidas realizadas por sensores estão sujeitas a erros, como pode ser visto no Capítulo 2. Os filtros são aplicados aos sinais medidos pelos sensores para reduzir os erros,

Leia mais

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox.

Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. Universal. Teorema de Aprox. SCE-5809 - REDES NEURAIS Redes Neurais Multi-Camadas Parte 3 Profa Roseli Ap Francelin Romero Qual é o número mínimo de camadas num PMC que fornece uma aproximação para qualquer mapeamento contínuo? Cybenko,

Leia mais

Aplicações da RMC. Avaliação de Algoritmos. Tratamento nos dados 27/8/2010. Roseli A F Romero SCC 5809 REDES NEURAIS

Aplicações da RMC. Avaliação de Algoritmos. Tratamento nos dados 27/8/2010. Roseli A F Romero SCC 5809 REDES NEURAIS SCC 5809 REDES NEURAIS Profa. ROSELI ROMERO Aplicações da RMC Reconhecimento de Imagens: FACES/GESTOS Reconhecimento de Voz Transformação de Texto em Voz Previsão de Bolsa de Valores Análise de Dados Financeiros

Leia mais

3 INTERVALOS DE CONFIANÇA

3 INTERVALOS DE CONFIANÇA 3 INTEVALOS DE CONFIANÇA 3.1 Introdução A estimativa de intervalos de confiança é utilizada para se obter medidas de incerteza dos dados analisados. A análise da incerteza de uma previsão, por exemplo,

Leia mais

TP537 Transmissão Digital 1ª Avaliação 27/10/ :00h Prof. Dayan Adionel Guimarães. Aluno(a):

TP537 Transmissão Digital 1ª Avaliação 27/10/ :00h Prof. Dayan Adionel Guimarães. Aluno(a): TP537 Transmissão Digital ª Avaliação 7//4 8:h Prof. Dayan Adionel Guimarães ota: Aluno(a): ª questão (4 pontos) Prova com consulta ao livro texto, com duração de 3 horas. A interpretação é parte integrante

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Perceptrons de Múltiplas Camadas I Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

Perceptron de Múltiplas Camadas e Backpropagation

Perceptron de Múltiplas Camadas e Backpropagation Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Perceptron de Múltiplas Camadas e Backpropagation Redes Neurais Artificiais Site: http://jeiks.net

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem

Leia mais

FORECASTING OF EUCALYPTUS WOOD PRICES FOR CELLULOSE AND SAWMILL USING RADIAL BASIS FUNCTION NEURAL NETWORK AND CLUSTERING METHOD

FORECASTING OF EUCALYPTUS WOOD PRICES FOR CELLULOSE AND SAWMILL USING RADIAL BASIS FUNCTION NEURAL NETWORK AND CLUSTERING METHOD FORECASTING OF EUCALYPTUS WOOD PRICES FOR CELLULOSE AND SAWMILL USING RADIAL BASIS FUNCTION NEURAL NETWORK AND CLUSTERING METHOD Roberto Max Protil - PUCPR Leandro dos Santos Coelho PUCPR Wesley Vieira

Leia mais

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela

Redes Neurais Feedforward e Backpropagation. André Siqueira Ruela Redes Neurais Feedforward e Backpropagation André Siqueira Ruela Sumário Introdução a redes feedforward Algoritmo feedforward Algoritmo backpropagation Feedforward Em uma rede feedforward, cada camada

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Introdução às Redes Neurais Artificiais DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

Modelagem Computacional. Parte 8 2

Modelagem Computacional. Parte 8 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 8 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 10 e 11] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

Redes Neurais Artificiais - Introdução. Visão Computacional

Redes Neurais Artificiais - Introdução. Visão Computacional Redes Neurais Artificiais - Introdução Visão Computacional Inspiração 2 Inspiração 3 Inspiração Atividade seletivanas conexões Soma os impulsos e passa a diante 4 Inspiração As conexões entre os dendritos

Leia mais

Processamento digital de imagens

Processamento digital de imagens Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

1. Conceitos básicos dos Sistemas Auto-organizáveis. Os sistemas auto-organizáveis estão relacionados com aprendizagem nãosupervisionada.

1. Conceitos básicos dos Sistemas Auto-organizáveis. Os sistemas auto-organizáveis estão relacionados com aprendizagem nãosupervisionada. Redes Neurais Sistemas Auto-Organizáveis. Conceitos básicos dos Sistemas Auto-organizáveis Os sistemas auto-organizáveis estão relacionados com aprendizagem nãosupervisionada. O objetivo de um algoritmo

Leia mais

Modelos de Regressão

Modelos de Regressão Renato Martins Assunção DCC - UFMG 2015 Renato Martins Assunção (DCC - UFMG) 2015 1 / 19 Exemplo de preço de apto Y = y 1 y 2 y 1499 y 1500 b 0 1 1 1 1 + b 1 área 1 área 2 área 1499 área 1500 + b 2 idade

Leia mais

MAP Segundo exercício programa Splines cúbicos

MAP Segundo exercício programa Splines cúbicos MAP-2121 - Segundo exercício programa - 26 Splines Cúbicos Instruções gerais - Os exercícios computacionais pedidos na disciplina Cálculo Numérico têm por objetivo fundamental familiarizar o aluno com

Leia mais

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23

Noções de Simulação. Ciências Contábeis - FEA - Noturno. 2 o Semestre MAE0219 (IME-USP) Noções de Simulação 2 o Semestre / 23 Noções de Simulação Ciências Contábeis - FEA - Noturno 2 o Semestre 2013 MAE0219 (IME-USP) Noções de Simulação 2 o Semestre 2013 1 / 23 Objetivos da Aula Sumário 1 Objetivos da Aula 2 Motivação 3 Geração

Leia mais

Comunicaçõ. ções Digitais II. Texto original por Prof. Dr. Ivan Roberto Santana Casella

Comunicaçõ. ções Digitais II. Texto original por Prof. Dr. Ivan Roberto Santana Casella PTC-43 Comunicaçõ ções Digitais II Texto original por Prof. Dr. Ivan Roberto Santana Casella Representaçã ção o Geométrica de Sinais A modulação digital envolve a escolha de um sinal específico s i (t)

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica Redes Neurais Artificiais MATLAB Prof. Dr. André A. P. Biscaro 2º Semestre de 2018 EXEMPLOS 1 - Aproximação de Base Radial; 2 - Base Radial Sobrepondo Neurônios; 3 - Neurônios Sobrepostos à Base Radial;

Leia mais

Geometria Analítica e Álgebra Linear

Geometria Analítica e Álgebra Linear UNIFEI - Universidade Federal de Itajubá campus Itabira Geometria Analítica e Álgebra Linear Parte 1 Matrizes 1 Introdução A teoria das equações lineares desempenha papel importante e motivador da álgebra

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo

Ricardo Ehlers Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Geração de Números Aleatórios Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo 1 / 61 Simulando de Distribuições Discretas Assume-se que um

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais

Aprendizado de Máquina Introdução às Redes Neurais Artificiais Aprendizado de Máquina Introdução às Redes Neurais Artificiais Marcos Oliveira Prates (Agradecimento Marcelo Azevedo Costa) Departamento de Estatística Universidade Federal de Minas Gerais Inteligência

Leia mais

Tópicos Especiais: Inteligência Artificial REDES NEURAIS

Tópicos Especiais: Inteligência Artificial REDES NEURAIS Tópicos Especiais: Inteligência Artificial REDES NEURAIS Material baseado e adaptado do Cap. 20 do Livro Inteligência Artificial de Russell & Norvig Bibliografia Inteligência Artificial Russell & Norvig

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

Radiométricas. Alexandre Xavier Falcão. Instituto de Computação - UNICAMP

Radiométricas. Alexandre Xavier Falcão. Instituto de Computação - UNICAMP Operações Matemáticas e Transformações Radiométricas Instituto de Computação - UNICAMP afalcao@ic.unicamp.br Operações Matemáticas Sejam Î = (D I, I ) e Ĵ = (D J, J) duas imagens cinzas de mesmo domínio,

Leia mais

REDES NEURAIS ARTIFICIAIS

REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS REDES NEURAIS ARTIFICIAIS O QUE É UMA REDE NEURAL NEURÔNIOS BIOLÓGICOS CÉREBRO HUMANO E CAPACIDADE DE GENERALIZAÇÃO. Modelo McCulloch e Pitts FUNÇÕES DE ATIVAÇÃO APRENDIZADO APRENDIZADO

Leia mais

Neurocomputação Parte 2

Neurocomputação Parte 2 Neurocomputação Parte 2 Fabricio Breve - fbreve@gmail.com 25/09/2007 Fabricio Breve 1 REDES NEURAIS ARTIFICIAIS 25/09/2007 Fabricio Breve 2 Por que Redes Neurais? Computadores convencionais são eficientes

Leia mais

3 Redes Neurais Introdução

3 Redes Neurais Introdução 3 Redes Neurais 3.. Introdução As redes neurais artificiais, ou comumente conhecidas como Neural Networs, foram motivadas em princípio pela extraordinária capacidade do cérebro humano para executar tarefas

Leia mais

Um modelo estocástico para o fluxo de caixa de um plano de previdência de um indivíduo 15

Um modelo estocástico para o fluxo de caixa de um plano de previdência de um indivíduo 15 2 Simulação estocástica A simulação computacional consiste em empregar técnicas matemáticas em computadores com o propósito de gerar ensaios que tentam reproduzir de maneira análoga um processo ou operação

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais x 1 w k1 Bias b k +1 +1 x 1 x 2 x 3 x m +1 y 1 y 2 y o Sinais de entrada x 2 x m Fabricio Breve fabricio@rc.unesp.br w k2 w km Pesos sinápticos Σ Junção aditiva v k f(. ) Saída

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE

Mini-projeto: Reconhecimento de Digitos com MLPs. Germano C. Vasconcelos Centro de Informática - UFPE Mini-projeto: Reconhecimento de Digitos com MLPs Germano C. Vasconcelos Centro de Informática - UFPE 1 Link do Material http://neuralnetworksanddeeplearning.com/chap1.html 2 Objetivo: Treinar uma Rede

Leia mais