Algoritmos de Aprendizado
|
|
- Linda Vilarinho Cipriano
- 6 Há anos
- Visualizações:
Transcrição
1 Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield
2 Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Treinamento Bayesiano
3 Radial Basis Functions Probabilistic Neural Networks RBFs Generalized Regression Neural Networks
4 Probabilistic Neural Networks (PNN) Rede inspirada nos classificadores Bayesianos Classificadores bayesianos e as PNN foram utilizados com sucesso em vários problemas de classificação
5 Probabilistic Neural Networks (PNN) Possui as vantagens do BP: Learning (mapeamento não-linear) Generalização (tratamento de dados ruidosos) Concorrência (paralelismo)
6 Probabilistic Neural Networks (PNN) Vantagens Adicionais: Aprendizado rápido Convergência para Classificador Bayesiano com dados suficientes, a PNN converge para o CB, definido como ótimo Treinamento Incremental Indicação de Confiança PNN fornece uma saída indicando o grau de evidência sobre o qual se baseia a decisão
7 O Teorema de Bayes fornece um método para efetuar classificações ótimas Dada uma quantidade suficiente de informação, o teorema mostra como classificar um novo exemplo com a máxima probabilidade Devido aos seus fundamentos teóricos, o classificador Bayesiano é usado como padrão para a avaliação de outros métodos Apesar do seu potencial, o CB é conceitualmente simples e intuitivo
8 Teorema de Bayes P(C k ) = probabilidade a priori fração dos padrões de entrada que pertencem à classe k P(C k,x l ) = probabilidade conjunta probabilidade que o padrão possui a característica X l e pertence à classe C k P(X l C k ) = probabilidade condicional probabilidade que uma observação tenha a característica X l dado que ela pertence à classe C k
9 Teorema de Bayes C 1 C X l P(C k,x l ) = P(X l C k ). P(C k ) = P(C k,x l ) = P(C k X l ). P(X l ) Total de Amostras = 45 Amostras da Classe 1 = 27 P(X 1 ) = 2/45 = Amostras da Classe 2 = 18 P(C 1 X 1 )= 2/2 = 1 P(C ) = 27/45 = 0.6 P(C 1,X 1 ) = = P(X 1 C )= 2/27 = P(C 1,X 1 ) = 0.6 x = = 2/45
10 Teorema de Bayes P(C k X l ) = P(X l C k ). P(C k ) P(X l ) Probabilidade a priori da classe C k Probabilidade a posteriori (após medir a entrada como X l ) Probabilidade classecondicional de X l para a classe C k Normalizador assegura que a posteriori soma 1
11 Exemplo: classificação de pedaços de madeira baseada na medida de sua densidade a partir de dados históricos, sabe-se: a fração de peças que são carvalho e pinho h carv, h pinho probabilidade a priori a probabilidade que a peça tenha a densidade medida f carv, f pinho função densidade de probabilidade calcula-se: h carv f carv h pinho f pinho
12 Exemplo: classificação de pedaços de madeira baseada na medida de sua densidade a partir de dados históricos, sabe-se: a fração de peças que são carvalho e pinho h carv, h pinho probabilidade a priori a probabilidade que a peça tenha a densidade medida f carv, f pinho função densidade de probabilidade calcula-se: h carv f carv h pinho f pinho a classificação é feita designando a peça à classe com maior produto
13 Exemplo: classificação de pedaços de madeira baseada na medida de sua densidade Em alguns casos, decisões erradas podem ter conseqüências diferentes: Calcula-se: h carv carv f carv l carv h pinho f pinho l pinho perda devido a uma classificação errada de carvalho como pinho Da mesma forma, a classificação é feita designando a peça à classe com maior produto
14 As equações anteriores podem ser estendidas para problemas envolvendo: mais de duas classes; mais de uma característica.
15 Exemplo: carvalho, pinho, pau-brasil h i fração de cada tipo de madeira entre as peças conhecidas 10% carvalho h carv = % pinho h pinho = % pau-brasil h pau = 0.2 f i probabilidade que uma peça de um certo tipo tenha a densidade medida função densidade de probabilidade (pdf - probability density function)
16 Função Densidade de Probabilidade
17 Função Densidade de Probabilidade Quando o número de cestas tende a infinito tem-se a função densidade de probabilidade de acordo com a definição matemática, a curva deve ter área igual a 1 A probabilidade que uma peça tenha densidade entre a e b éa área neste intervalo
18 Observação: Se h e l são iguais para todas as classes, a classificação é determinada pela Função Densidade de Probabilidade (pdf( pdf) Exemplo: densidade medida da peça de madeira =
19 Exemplo: h carv = 0.2 l carv = 5 h pinho = 0.5 l pinho = 1 h pau = 0.3 l pau = 2 Densidade = 0.8 f carv = 0.5 f pinho = 0.7 f pau = 0.3 Produto: carvalho = 0.5 pinho = 0.35 pau-brasil = 0.18 melhor classificação
20 As equações anteriores podem ser estendidas para problemas envolvendo: mais de duas classes; mais de uma característica.
21 Exemplo: classificação de pedaços de madeira baseada na medida de sua densidade e dureza dureza densidade. Pdf bidimensional
22 Clasificadores Bayesianos requerem uma pdf para cada classe Como determiná-la? Janela de Parzen Método para estimar a Função Densidade de Probabilidade a partir dos dados disponíveis, que podem ser incompletos ou parcialmente imprecisos
23 Exemplo: uma característica (uma entrada) e uma classe Para cada amostra constrói-se uma gaussiana (de área unitária) centrada no valor da entrada. x 1 x 2 Soma-se todas as curvas para se produzir a curva final. x j
24 Parzen mostrou que, com uma grande quantidade de amostras e escalonamento adequado, a curva final se aproxima da pdf real Embora não exista uma prova que indique o número necessário de amostras para estimar a pdf com um grau de precisão especificado, bons resultados têm sido alcançados com número modesto
25 Observação: não é preciso calcular a pdf completa, bastando avaliar o seu valor no ponto de teste. Extensão para n entradas: f a (X) = 1 (1/n a ) Σ n a exp[- (X - Y ai ) t (X - Y ai )/2σ 2 ] [(2π) p/2 σ p ] Gaussiana para o ponto Y ai do conjunto de treinamento avaliada com o vetor de entrada X n a número de vetores de treinamento da classe A p número de componentes no vetor de treinamento σ desvio padrão
26 Determinação de σ: Deve ser selecionado de forma a fornecer uma largura apropriada para a curva Não existe um método para se escolher o melhor valor teste!
27 σ = 0.5
28 σ = 1.0
29 σ = 2.0
30 Conclusão: 2 classes d(x) = θ a d(x) = θ b se h a l a f a (X) > h b l b f b (X) se h a l a f a (X) < h b l b f b (X) d(x) decisão sobre o vetor teste X θ a classe A h a a probabilidade de ocorrência de vetores de treinamento da classe A l a perda por classificar erradamente o vetor X da classe A como classe B f a (X) Função Densidade de Probabilidade da classe A
31 Conclusão: múltiplas classes d(x) = θ r se h r l r f r (X) > h s l s f s (X) r s h r = n r / n total Geralmente cada classe tem um l diferente para cada outra classe matriz de perdas D(X) = θ r se l r Σ n r exp[- (X - Y ri ) t (X - Y ri )/2σ 2 ] l s Σ n s exp[- (X - Y si ) t (X - Y si )/2σ 2 ] r s
32 Probabilisic Neural Networks Relançamento de Classificadores Bayesianos através de Redes Neurais A relação entre PNN e Redes Neurais tradicionais pode ser vista claramente se os vetores de entrada forem normalizados Cálculo de net entre o vetor de entrada X e o vetor peso W = X Ri (X - X Ri ) t (X -X Ri ) X t X-2X t X Ri + X t Ri X Ri com vetores normalizados 2-2X t X Ri = -2(X t X Ri -1) D(X) = θ r se Σ n r exp[(x t X Ri -1)/σ 2 ] Σ ns exp[(x t X Si -1)/σ 2 ] r s
33 Probabilisic Neural Exemplo com 2 classes: Camada de Entrada um processador para cada vetor de treinamento p amostras da classe A + q amostras da classe B F(.) = exp[(x t X Ri -1)/σ 2 Soma todos os processadores de uma certa classe S C = Σ exp[(x t X Ri -1)/σ 2 Efetua comparação, com saída 1 para S a e 0 para S b Networks
34 Probabilistic Neural Networks (PNN) Observações: Treinamento instantâneo Robusto na presença de ruído Aproxima-se do Classificador Bayesiano se o conjunto de treinamento for grande o suficiente
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Leia maisRedes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions
Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a
Leia maisUniversidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe
Leia maisAlgoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.
CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Multi-Layer Perceptrons
Leia maisMulti-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Multi-Layer Perceptrons Redes de apenas uma camada só representam funções linearmente separáveis Redes
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Leia maisClassificadores. André Tavares da Silva.
Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:
Leia maisMétodos Não Paramétricos
Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Métodos não Paramétricos Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Métodos Não Paramétricos Introduzir
Leia maisClassificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Leia maisCC-226 Aula 05 - Teoria da Decisão Bayesiana
CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem
Leia mais( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)
Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação
Leia maisSUPPORT VECTOR MACHINE - SVM
SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento
Leia maisAprendizado por Instâncias Janelas de Parzen & Knn
Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Aprendizado por Instâncias Janelas de Parzen & Knn David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Aprendizado por
Leia maisMetodologia de inversão
6 Metodologia de inversão Nesta tese, a transformação de velocidades em pressão de poros é encarada como um problema de inversão. Pela natureza do problema, essa transformação apresenta caráter não único
Leia maisReconhecimento de Padrões/Objetos
Reconhecimento de Padrões/Objetos André Tavares da Silva andre.silva@udesc.br Capítulo 12 de Gonzales Reconhecimento de Padrões (imagem) Objetivo: Interpretar o conteúdo da imagem através de um mapeamento
Leia maisRedes Neurais. Prof. Aurora Pozo. Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco
Redes Neurais Prof. Aurora Pozo Obs: slides baseados em Prof. Marcílio Souto e Prof. Marley Vellasco CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos
Leia maisProcessamento digital de imagens
Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo
Leia maisTeoria das Filas aplicadas a Sistemas Computacionais. Aula 08
Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia maisConsiderações de Desempenho
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 1 Dicas para o BP Os pesos devem
Leia maisAprendizagem por treinamento de redes de aproximação
Aprendizagem por treinamento de redes de Marco H. Terra Departamento de Eng. Elétrica - EESC - USP SEL 0362 - Inteligência Artificial 1 Introdução Neste capítulo, serão apresentados conceitos sobre redes
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisCC-226 Aula 07 - Estimação de Parâmetros
CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições
Leia maisBack Propagation. Dicas para o BP
Back Propagation Considerações de Desempenho Dicas para o BP O uso da função de ativação simétrica geralmente acelera o treinamento TANH +1 logistic linear 0 tanh -1-4 +4 11 Dicas para o BP Os pesos devem
Leia maisProjeto Multiresolução de Operadores Morfológicos. Morfológicos a Partir de Exemplos
Projeto Multiresolução de Operadores Morfológicos a Partir de Exemplos Daniel André Vaquero Orientador: Junior Barrera Departamento de Ciência da Computação Instituto de Matemática e Estatística (IME)
Leia maisFundamentos da Teoria da Probabilidade
Fundamentos da Teoria da Probabilidade Edmar José do Nascimento (Princípios de Comunicações) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Sinais Aleatórios
Leia maisClassificação: 1R e Naïve Bayes. Eduardo Raul Hruschka
Classificação: 1R e Naïve Bayes Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada
Leia maisInferências bayesianas com probabilidade
Inferências bayesianas com probabilidade Qual é a relação entre inferência bayesiana e as distribuições probabiĺısticas recém descritas? Essa conexão é feita ao se estimar parâmetros da distribuição probabiĺıstica
Leia maisNaïve Bayesian Learning. Marcílo Souto DIMAp/UFRN
Naïve Bayesian Learning Marcílo Souto DIMAp/UFRN 1 Teorema de Bayes Probabilidade de um evento H dada evidência E: Pr[ H E] Pr[ E H ]Pr[ H ] Pr[ E] Probabilidade a priori de H: Probabilidade do evento
Leia maisReconhecimento de Padrões. Reconhecimento de Padrões
Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso Sumário:
Leia maisMétodos para Classificação: - Naïve Bayes.
Métodos para Classificação: - 1R; - Naïve Bayes. Visão Geral: Simplicidade em primeiro lugar: 1R; Naïve Bayes. 2 Classificação: Tarefa: Dado um conjunto de exemplos préclassificados, construir um modelo
Leia maisCLASSIFICADORES BAEYSIANOS
CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um
Leia maisResolução da Prova 1 SCC Redes Neurais 2o. Semestre de Prof. João Luís
Resolução da Prova 1 SCC-5809 - Redes Neurais 2o. Semestre de 2011 - Prof. João Luís RESOLUÇÃO (2) 1. A figura abaixo mostra uma rede neural com um único neurônio escondido. Mostre que essa rede resolve
Leia maisClassificação Hierárquica Multirrótulo Utilizando Redes Neurais Artificiais
Classificação Hierárquica Multirrótulo Utilizando Redes Neurais Artificiais Ricardo Cerri Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo cerri@icmc.usp.br Roteiro Introdução
Leia maisModelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:
Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização
Leia maisAprendizado Bayesiano
Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado
Leia maisDistribuição Gaussiana
Universidade Federal de Minas Gerais Instituto de Ciências Exatas Departamento de Estatística Distribuição Gaussiana Introdução à Bioestatística Turma Nutrição Aula 7: Distribuição Normal (Gaussiana) Distribuição
Leia maisSexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo
Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo Antônio Carlos Roque da Silva Filho e Cristiano R. F. Granzotti 26 de junho de 2017 Os exercícios desta lista devem ser resolvidos
Leia maisTransmissão de impulsos em banda-base
Transmissão de impulsos em banda-base Transmissão de impulsos através de um canal com ruído aditivo. Probabilidades de erro com detecção no ponto central Detecção de sinais binários em ruído gaussiano
Leia maisRede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
Leia maisAdriana da Costa F. Chaves. Máquina de Vetor Suporte (SVM) para Classificação Binária 2
Máquina de Vetor Suporte (SVM) para Classificação Binária Adriana da Costa F. Chaves Conteúdo da Apresentação Introdução Máquinas de Vetor Suporte para Classificação binária Exemplos Conclusão Máquina
Leia maisRedes Neurais: RBF. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: RBF DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes de Funções de
Leia maisRedes de Funções de Base Radial Radial Basis Functions (RBFs)
Redes de Funções de Base Radial Radial Basis Functions (RBFs) Germano C. Vasconcelos Centro de Informática - UFPE Introdução Em uma RBF, a rede é definida do ponto de vista de um problema de aproximação
Leia maisIntrodução aos Proc. Estocásticos - ENG 430
Introdução aos Proc. Estocásticos - ENG 430 Fabrício Simões IFBA 16 de novembro de 2015 Fabrício Simões (IFBA) Introdução aos Proc. Estocásticos - ENG 430 16 de novembro de 2015 1 / 35 Fabrício Simões
Leia maisRedes de Computadores sem Fio
Redes de Computadores sem Fio Prof. Marcelo Gonçalves Rubinstein Programa de Pós-Graduação em Engenharia Eletrônica Faculdade de Engenharia Universidade do Estado do Rio de Janeiro Programa Introdução
Leia maisAGA Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC
1 / 1 AGA 0505- Análise de Dados em Astronomia I 8. Inferência Bayesiana e MCMC Laerte Sodré Jr. 1o. semestre, 2018 2 / 1 Inferência Bayesiana inferência bayesiana consideremos um conjunto de dados D que
Leia maisTiago Viana Flor de Santana
ESTATÍSTICA BÁSICA DISTRIBUIÇÃO NORMAL DE PROBABILIDADE (MODELO NORMAL) Tiago Viana Flor de Santana www.uel.br/pessoal/tiagodesantana/ tiagodesantana@uel.br sala 07 Curso: MATEMÁTICA Universidade Estadual
Leia maisMotivação, Objetivo, Definição, Características Básicas e Histórico. Neurônio Artificial, Modos de Interconexão
REDES NEURAIS Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos
Leia maisIntrodução a Redes Neurais Artificiais com a biblioteca Encog em Java
Introdução a Redes Neurais Artificiais com a biblioteca Encog em Java Apresentação Graduada em Sistemas de Informação FAP/Parnaíba Mestranda do Programa de Pós-Graduação em Engenharia da Eletricidade -
Leia maisAprendizagem Bayesiana
Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Aprendizagem Bayesiana David Menotti www.inf.ufpr.br/menotti/ci171-182 Aprendizagem Bayesiana Agenda Introdução Teorema de Bayes
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Algoritmo para simular uma fila Medidas de interesse Média amostral Aula de hoje Teorema do Limite Central Intervalo de Confiança Variância amostral
Leia maisCC-226 Introdução à Análise de Padrões
CC-226 Introdução à Análise de Padrões Estimação Não-Paramétrica e Aprendizado por Instâncias Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 16 de
Leia maisDefinição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.
1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento
Leia maisCONHECIMENTOS ESPECÍFICOS
CONHECIMENTOS ESPECÍFICOS Julgue os itens que se seguem, acerca da estatística descritiva. 51 Na distribuição da quantidade de horas trabalhadas por empregados de certa empresa, é sempre possível determinar
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 05 / Detecção Binária Baseada em
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 05 / Detecção Binária Baseada em Múltiplas Observações e Detecção com Múltiplas Hipóteses Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS INTRODUÇÃO Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 REDES NEURAIS ARTIFICIAIS - RNAs Inspiradas no cérebro humano São modelos computacionais inspirados nos mecanismos
Leia maisp( y θ ) depende de um parâmetro desconhecido θ.
55Modelação, Identificação e Controlo Digital 55 Método de Máxima Verosimilhança (Maximum Likelihood) Seja y uma variável aleatória (v. a.) cuja densidade de probabilidade p( y θ ) depende de um parâmetro
Leia maisRedes Neurais Artificiais. Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9)
Redes Neurais Artificiais Sistemas de Informação/Ciências da Computação UNISUL Aran Bey Tcholakian Morales, Dr. Eng. (Apostila 9) Conceitos 2 Redes Neurais As Redes Neurais Artificias são modelos computacionais
Leia maisSistemas Inteligentes - Redes Neurais -
Sistemas Inteligentes - Redes Neurais - Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características
Leia maisRedes Neurais Artificiais. Capítulos 1 e 2
Redes Neurais Artificiais Introdução Capítulos 1 e 2 Redes Neurais Artificiais (RNA) São modelos computacionais inspirados nos mecanismos de aprendizagem do cérebro humano. São modelos computacionais que
Leia maisSCC Capítulo 4 Perceptron de Camada Única
Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron
Leia maisSistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy
Redes Neurais Sistema de Inferência Fuzzy baseado em Redes Adaptativas (ANFIS) Sistema de Inferência Fuzzy Um Sistema de Inferência Fuzzy (SIF) é um tipo especial de Sistema Baseado em Conhecimento (SBC).
Leia maisAula 8 - Reconhecimento e Interpretação. Prof. Adilson Gonzaga
Aula 8 - Reconhecimento e Interpretação Prof. Adilson Gonzaga Elementos de Visão Computacional: Visão Computacional Processamento de Baio Nível Processamento de Nível Intermediário Processamento de Alto
Leia maisREDES NEURAIS. Marley Maria B.R. Vellasco. ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada CONTEÚDO
REDES NEURAIS Marley Maria B.R. Vellasco ICA: Núcleo de Pesquisa em Inteligência Computacional Aplicada PUC-Rio Introdução CONTEÚDO Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos
Leia maisAprendizagem por treinamento de redes de aproximação Marco Henrique Terra
Aprendizagem por treinamento de redes de aproimação Marco Henrique Terra Introdução à Inteligência Artificial Introdução Neste capítulo, serão apresentados conceitos sobre redes de aproimação e interpolação.
Leia maisIntrodução ao Processamento Estatístico de Sinais
Charles Casimiro Cavalcante charles@gtel.ufc.br Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Departamento de Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Leia maisCONHECIMENTOS ESPECÍFICOS
CONHECIMENTOS ESPECÍFICOS As variáveis aleatórias X e Y seguem uma distribuição de Bernoulli com probabilidade de sucesso igual a 0,4. Considerando S = X + Y e que os eventos aleatórios A = [X = 1] e B
Leia maisInferência Bayesiana
Inferência Bayesiana Joaquim Neto joaquim.neto@ufjf.edu.br www.ufjf.br/joaquim_neto Departamento de Estatística - ICE Universidade Federal de Juiz de Fora (UFJF) Versão 3.0 Joaquim Neto (UFJF) ICE - UFJF
Leia maisA figura 5.1 ilustra a densidade da curva normal, que é simétrica em torno da média (µ).
Capítulo 5 Distribuição Normal Muitas variáveis aleatórias contínuas, tais como altura, comprimento, peso, entre outras, podem ser descritas pelo modelo Normal de probabilidades. Este modelo é, sem dúvida,
Leia maisAGA Análise de Dados em Astronomia I. 1. Introdução
1 / 22 1. Introdução AGA 0505 - Análise de Dados em Astronomia I 1. Introdução Laerte Sodré Jr. 1o. semestre, 2019 2 / 22 introdução aula de hoje: Introdução 1 objetivo 2 o que é ciência 3 dados 4 o que
Leia maisEstudos Comparativos em Memórias Associativas com Ênfase em Memórias Associativas Morfológicas
Estudos Comparativos em Memórias Associativas com Ênfase em Memórias Associativas Morfológicas Marcos Eduardo Ribeiro do Valle Mesquita Orientador: Peter Sussner 24 de Outubro de 2005 1 Organização da
Leia maisUtilizando processos gaussianos para a segmentação de imagens monocromáticas
Utilizando processos gaussianos para a segmentação de imagens monocromáticas Alexandre da Silva Simões alexandresimoes@poliuspbr Anna Helena Reali Costa annareali@poliuspbr Resumo Redes neurais artificiais
Leia maisModelagem para previsão/estimação: uma aplicação Neuro-Fuzzy
Proceeding Series of the Brazilian Society of pplied and Computational Mathematics, Vol., N., 0. Trabalho apresentado no XXXV CNMC, Natal-RN, 0. Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy
Leia maisClassificação. Eduardo Raul Hruschka
Classificação Eduardo Raul Hruschka Agenda: Conceitos de Classificação Técnicas de Classificação One Rule (1R) Naive Bayes (com seleção de atributos) Super-ajuste e validação cruzada Combinação de Modelos
Leia mais2 Uma Proposta para Seleção de Dados em Modelos LVQ
2 Uma Proposta para Seleção de Dados em Modelos LVQ Abordagens diferentes têm sido encontradas na literatura para seleção de dados. Entretanto, todas as técnicas buscam de fato o mesmo objetivo, seleção
Leia maisMáquinas de Vetores de Suporte
Máquinas de Vetores de Suporte Marcelo K. Albertini 14 de Setembro de 2015 2/22 Máquinas de Vetores de Suporte Support Vector Machines (SVM) O que é? Perceptron revisitado Kernels (núcleos) Otimização
Leia maisAprendizado Bayesiano Anteriormente...
Aprendizado Bayesiano Anteriormente... Conceito de Probabilidade Condicional É a probabilidade de um evento A dada a ocorrência de um evento B Universidade de São Paulo Instituto de Ciências Matemáticas
Leia maisIntervalos de Confiança
Intervalos de Confiança Jorge M. V. Capela, Marisa V. Capela, Instituto de Química - UNESP Araraquara, SP capela@iq.unesp.br Araraquara, SP - 2016 1 2 Teorema do Limite Central Se amostras de tamanho n
Leia maisPROJETO E ANÁLISES DE EXPERIMENTOS (PAE) INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS EM ENGENHARIA
PROJETO E ANÁLISES DE EXPERIMENTOS (PAE) INTRODUÇÃO AOS MÉTODOS ESTATÍSTICOS EM ENGENHARIA VARIABILIDADE NA MEDIDA DE DADOS CIENTÍFICOS Se numa pesquisa, desenvolvimento de um processo ou produto, o valor
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aulas passadas Espaço Amostral Álgebra de Eventos Axiomas de Probabilidade Análise Combinatória Aula de hoje Probabilidade Condicional Independência de Eventos
Leia maisRedes Neuronais (outras redes)
Redes Neuronais (outras redes) Victor Lobo Principais arquitecturas de redes Aprendizagem Supervisionada MLP com BP Multi-Layer Perceptron (perceptrão multicamada) Treinado com Backpropagation (retropropagação
Leia maisInteligência Artificial Redes Neurais Artificiais
Pós-Graduação em Engenharia Elétrica Inteligência Artificial Redes Neurais Artificiais João Marques Salomão Rodrigo Varejão Andreão Arquitetura e composição das RNAs Uma rede neural artificial é composta
Leia maisFunções Discriminantes Lineares
Funções Discriminantes Lineares Revisão Cap. 2 Classificação Bayesiana: Fdp s conhecidas, w ) P e x w ) ( i p. ( i Cap. 3 Formas das fdp s conhecidas, idem No. de parâmetros. a) Máxima verossimilhança:
Leia maisTópicos sobre Redes Neurais
Tópicos sobre Redes Neurais -Memórias Matriciais -Modelos Híbridos -Redes de Base Radial(RBF) -Redes Construtivas -Redes Recorrentes Prof João Alberto Fabro IF67D Sistemas Inteligentes 1 Dep de Informática
Leia maisDistribuição Normal. Prof. Eduardo Bezerra. (CEFET/RJ) - BCC - Inferência Estatística. 25 de agosto de 2017
padrão - padronização Distribuição Normal Prof. Eduardo Bezerra (CEFET/RJ) - BCC - Inferência Estatística 25 de agosto de 2017 Eduardo Bezerra (CEFET/RJ) Distribuição Normal Março/2017 1 / 32 Roteiro Distribuições
Leia maisRedes Neurais Artificial
Redes Neurais Artificial Tópicos: Introdução ao estudo de RNA sua origem e inspiração biológica Características gerais das RN e descrição do neurônio artificial Aprendizado de RN e tipos de Aprendizado
Leia maisIntrodução aos Proc. Estocásticos - ENG 430
Introdução aos Proc. Estocásticos - ENG 430 Fabrício Simões IFBA 16 de novembro de 2015 Fabrício Simões (IFBA) Introdução aos Proc. Estocásticos - ENG 430 16 de novembro de 2015 1 / 34 1 Motivação 2 Conceitos
Leia maisTratamento de dados em Física
Tratamento de dados em Física Métodos e testes estatísticos V. Oguri Departamento de Física Nuclear e Altas Energias (DFNAE) Programa de Pós-graduação em Física (PPGF) Instituto de Física Armando Dias
Leia mais