Reconhecimento de Padrões. Reconhecimento de Padrões
|
|
- Talita Ximenes
- 5 Há anos
- Visualizações:
Transcrição
1 Reconhecimento de Padrões Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso
2 Sumário: Métodos não paramétricos Introdução aos métodos não paramétricos Janelas de Parzen Método dos k vizinhos mais próximos Classificação com o método dos k vizinhos mais próximos Distâncias (métricas) Redução da dimensionalidade (PCA)
3 Métodos não paramétricos Na estimação de Bayes e de máxima verosimilhança a forma das probabilidades é conhecida: Na prática, as formas paramétricas mais conhecidas não são adequadas a muitos problemas do mundo real. Em particular, a maior parte das formas paramétricas são unimodais enquanto muitos problemas práticos envolvem densidades multimodais Uma forma de ultrapassar este obstáculo é utilizar uma mistura de densidades. A outra forma é utilizar a estimação de parâmetros não paramétrica
4 Técnicas de estimação de parâmetros não paramétrica Na estimação não paramétrica: Não se assume que se conhece a forma de distribuição. No entanto, calcula-se uma estimativa da função densidade de probabilidade a partir dos dados de treino. Existem dois tipos principais de estimação não paramétrica de parâmetros no reconhecimento de padrões: Estimação das funções de verosimilhança a partir das amostras de treino. Estimação directa das probabilidades à priori. O método mais simples de estimação de parâmetros é o método do histograma
5 Distribuição para características binárias As características só podem assumir os valores 0,1. Uma característica binária têm a probabilidade: P(x = 1) = p P(x = 0) = 1-p E escreve-se da forma: Px ( ) = p x (1 p) (1 x) Para um vector de d características i.i.d. d Px ( ) = p xi(1 p) i= 1 (1 x ) i
6 Método do histograma Divide-se o espaço de amostras em intervalos ou células e aproxima-se a densidade no centro de cada célula por uma fracção de pontos dos dados de treino: Intervalos de largura h e origem em x0,as células são definidas por: O histograma é definido como: ( ) x0 + mh; x0 + m 1 h
7 Método do histograma
8 Método do histograma h controla a granularidade da estimativa:
9 Método do histograma Se h é largo: A probabilidade no intervalo é estimada com mais fiabilidade, uma vez que é baseada num maior número de amostras. Por outro lado, a densidade estimada é plana numa região muito larga e a estrutura fina da distribuição é perdida. Se h é estreito: Preserva-se a estrutura fina da densidade, mas o grau de confiança diminui (no limite, pode haver intervalos sem amostras). Regra empírica: Sendo d o número de dimensões, o número de intervalos ou células deve ser: 1 ( ) d 1 n
10 Método do histograma: problemas Então, para ter n I intervalos por dimensão: d ( ) ( ) d + ni n sao necessarias n ni amostras de treino Exemplo: d=5;10 intervalos n 10 6 Problemas: 1 O histograma é descontínuo, é um artefacto da escolha dos intervalos. A escolha da origem pode ter um efeito significativo na estimativa da densidade. O número de intervalos cresce exponencialmente com o número de dimensões. Necessário um n.º elevado de amostras de treino. Não é muito usado, apenas para visualização dos dados
11 Conceitos fundamentais A maior parte das técnicas não paramétricas de estimação de parâmetros assentam nos seguintes teoremas: A probabilidade P que um vector x esteja contido na região R é dado por: P = p ( x) dx R Se tivermos n amostras, a probabilidade de k das n amostras fazerem parte de R é: P k n k = P k ) n k ( 1 P Ek [ ] = np
12 Conceitos fundamentais A distribuição binomial possui um pico muito acentuado em torno do valor esperado. O número de amostras observadas em R (k obs ) deve ser aproximadamente igual a k obs E[k] = np O que leva a P = k obs /n
13 Conceitos fundamentais
14 Conceitos fundamentais Se assumirmos p(x) como uma função contínua e a região R tão pequena que p(x) não varia, vamos ter: P = p ( x) dx p ( x ') V R em que x é um ponto na região R e V é o volume no espaço R Combinando as equações temos: p k obs ( x ') V / n
15 Conceitos fundamentais Existem duas aproximações nas relações anteriores: Se k (ou n) tender para infinito ou V convergir para zero. Então estas aproximações vão convergir para valores exactos
16 Conceitos fundamentais De forma a estimar a densidade em x defini-se as seguintes regiões que contêm o ponto x: R1, R2,..., Rn com 1, 2,..., n amostras k n / n p n ( x ) V De forma a p n (x) convergir para p(x): limv = 0 lim k n n n n Exemplos que cumprem estas condições: n kn = lim = 0 n n Parzen: O volume inicial Vo diminui: K-nn: Rn cresce até conter kn amostras: V n = Vo kn = n n
17 Conceitos fundamentais
18 Janelas de Parzen Assume-se que região Rn é um cubo com d dimensões e com o comprimento de cada contorno hn O número de amostras que se encontram na região Rn pode ser obtida analiticamente através da função de janela: ϕ( u) 1 u 1 j = 2 0 caso contrario O número de amostras e a estimativa para a densidade de probabilidade é dada por: k n x x n i = ϕ i= 1 hn p n ( x) n 1 = 1 x x ϕ n V = n hn i 1 i
19 Janelas de Parzen A função da janela φ é utilizada para interpolação: Cada amostra contribui para a estimativa de acordo com a sua distância a x. Se h n é muito grande então p n (x) é uma superposição de funções que variam pouco, sendo uma estimativa pouco fiável de p(x). Se h n é muito pequena então p n (x) é uma função de dirac e a sua estimativa é apenas a soma de pulsos pequenos. Com um número ilimitado de amostras p n (x) converge para p(x) para qualquer valor de h n. Com um número limitado de amostras, o melhor a fazer é procurar um compromisso
20 Janelas de Parzen Escolha das janelas de parzen
21 Janelas de Parzen
22 Janelas de Parzen
23 Condições de convergência Se p n (x) é uma variável aleatória que depende dos valores de {x 1,x 2,..., x n } com média e variância dadas por: A estimativa p n (x) converge para p(x) se: e as seguintes condições garantem convergência:
24 Janelas de Parzen Convergência da média
25 Janelas de Parzen Convergência da variância
26 Janelas de Parzen p(x) é uma normal: média zero variância unitária Univariada A função de janela é: ϕ( u) = 1 e 2π u p n (x) é uma média das densidades normais: p n n 1 1 x x i ( x) = ϕ n i= 1 hn hn
27 Janelas de Parzen Com duas densidades normais
28 Janelas de Parzen
29 Classificação utilizando Janelas de Parzen
30 Redes PNN (probabilistic neural networks) As janelas de Parzen podem ser implementadas como uma rede neuronal estatística. Considere n padrões com d dimensões, escolhidos aleatoriamente de c classes. A rede PNN consiste em: d unidades de entrada (input layer) n unidades intermédias (pattern layer) ligadas a apenas uma e só uma unidade de classe (output layer) Os pesos entre as unidades entrada e as unidades intermédias vão ser calculados através de uma fase de treino
31 Redes PNN (probabilistic neural networks)
32 Redes PNN - Treino
33 Redes PNN - Classificação
34 Redes PNN - vantagens Velocidade da aprendizagem. Memória reduzida. A classificação é realizada em paralelo. Novos padrões de treino podem ser incorporados facilmente
35 Estimação dos K n vizinhos mais próximos Um dos problemas com as janelas de Parzen é como determinar uma função de janela óptima. Outro problema é que as janelas de parzen dependem da selecção inicial do volume da célula V Uma solução é escolher o volume da célula de acordo com a distribuição dos dados. A estimação dos k vizinhos mais próximos permite resolver este problema: A região é agora em função dos dados de treino Para estimar p(x) em x, a região deve crescer até capturar k n amostras, onde k n é uma função especificada por n p n ( x ) k n V / n n
36 Exemplos
37 Exemplos
38 Exemplos
39 Estimação das probabilidades a Posteriori Todos os métodos estudados podem ser utilizados para obter as probabilidades a posteriori dos dados P(ω i x). Para uma célula de volume V em redor de x captura-se k amostras, das quais k i amostras pertencem a ω i p n ki / ( x, ω i) = V n P ( ω x) n i c pn( x, ωi) ki = = k pn( x, ω j) j= 1 Para obter o mínimo erro, escolhe-se a classe mais frequentemente representada na célula. Para um número suficientemente grande de células, as probabilidades a posteriori estimadas são fiáveis
40 Regra do vizinho mais próximo (NN) Ambos os métodos, janelas de parzen e Kn vizinhos mais próximos, podem ser utilizados para calcular as probabilidades a posteriori utilizando n-amostras de dados de treino. Esta probabilidade pode ser utilizada pela regra de Bayes. Uma abordagem radical é utilizar o método dos vizinhos mais próximos para classificar directamente os dados de treino desconhecidos regra do vizinho mais próximo. Enquanto a regra de Bayes (classificação MAP) é óptima para escolher entre as diferentes classes, a regra do vizinho mais próximo é sub-óptima
41 Regra do vizinho mais próximo Suponha que temos D n ={x 1,..., x n } amostras de treino classificadas (rotuladas). Seja x em D n o ponto mais próximo de x, que necessita de ser classificado. A regra do vizinho mais próximo consiste em atribuir ao elemento x a mesma classificação que o x. A regra do vizinho mais próximo cria partições no espaço de características em células de Voronoi
42 Regra do vizinho mais próximo
43 Limite para o erro Seja P* o mínimo erro possível (classificador MAP) Seja P o erro dado pela regra do vizinho mais próximo. Dado um número ilimitado de dados de treino podemos mostrar que: P * P P * (2 c c 1 P * )
44 Regra dos k-vizinhos mais próximo (KNN) As técnicas NN ou k-nn constróem directamente a regra de decisão sem estimar as densidades condicionadas às classes. Motivação: Padrões próximos no espaço de características possivelmente pertencem à mesma classe. Extensão do NN: a regra dos k-vizinhos mais próximos classifica x atribuindo-lhe a classe mais representada nos k vizinhos mais próximos do conjunto de treino. Por outras palavras, dado x procuramos as k amostras mais próximas. A classe mais frequente é atribuída a x. k é usualmente ímpar para evitar empates
45 Exemplo
46 Regra dos k-vizinhos mais próximos A selecção de k é um compromisso: Se k é muito alto alguns destes vizinhos k podem ter probabilidades diferentes. Se k é muito baixo A estimação pode não ser fiável. O comportamento óptimo é obtido à medida que k e n se aproxima de infinito
47 Regra do k-vizinhos mais próximo: métricas
48 Métricas O classificador dos vizinhos mais próximos baseia-se numa métrica ou função de distância entre dois padrões
49 Propriedades das métricas Não negativa: d(a,b) 0 Reflexiva: d(a,b) = 0 se e só se a = b Simétrica: d(a,b) = d(b,a) Inequação do triângulo: d(a,b) + d(b,c) d(a,c)
50 Métricas Distância de Minskowski, classe genérica de métricas para padrões com d dimensões: d L ( a, b) = a b k i i i= 1 k 1/ k Esta distância é parametrizável através do parâmetro k A distância euclidiana ou a norma L2 é dada por: L = d ( a, b) = a b 2 ( ) euclidiana i i i= 1 Dá mais ênfase às características com elevada dissimilaridade. d
51 Métricas A distância de manhattam, city-block ou diferença absoluta é calculada a partir da norma L1 : L1 = d ( a, b) = a b manhattam i i i= 1 Reduz tempo de cálculo em relação à distância euclidiana. Não é possível encurtar esquinas. d
52 Mais métricas Distância de máxima distância: d d ( a, b) = max b a max dist i i i= 1 Apenas considera o par de características mais distantes. Distância de Mahalanobis: d ( a, b) = x y Σ x y mahalanobis T ( ) 1 ( )
53 Variantes na decisão K-NNK Escolha da medida de distância no cálculo dos vizinhos No caso do conjunto de treino ser infinito, o desempenho é independente da métrica! Regra de k-nn com distâncias pesadas: Sejam x1,x2,..., xk os k vizinhos mais próximos da amostra a classificar x Seja dj = d(x,xj) Atribui-se um peso a cada vizinho xj de acordo com: ω j = d d k k d d j ω j Somam-se os pesos para os vizinhos pertencentes à mesma classe, atribuindo x à classe com maior peso
54 Exemplos de knn
55 Exemplos de knn (k=5)
56 Desvantagens e vantagens Propriedades ideais: Menos que 20 atributos por instância Muitos dados de treino Vantagens: O treino é rápido. Aprende funções complexas Desvantagens: As estimativas são sensíveis ao ruído. O método KNN produz estimativas com declives acentuados (heavy tails). A estimativa pode ter descontinuidades e o integral sobre todo o espaço de amostras diverge. A classificação é lenta. As estimativas podem se afastar muito se houver atributos irrelevantes
57 A maldição da dimensionalidade Uma história de horror: Suponha que os dados são descritos por n atributos, e.g. n=20 Apenas n são relevantes e.g. n = 2 Mau desempenho! Os problemas são usualmente tão maus como este ou mesmo piores (e.g. atributos correlacionados)! Maldição da dimensionalidade: O algoritmo dos k vizinhos mais próximos é usualmente enganado quando n é grande, i.e. dimensão de x é alta. Como solucionar este problema: Seleccionar características mais relevantes! Atribuir pesos às características Transformações que reduzem a dimensionalidade: PCA, SOM, etc
58 Redução da dimensionalidade Redução da dimensionalidade Triangulos Delaunay Voronoi (vizinhos mais próximos)
59 Redução da dimensionalidade (PCA) Noção Intuitiva: Porque motivo devemos usar transformadas que reduzem a dimensionalidade na aprendizagem supervisionada? Pode haver muitos atributos (ou características) com propriedades indesejadas. Irrelevância: xi têm pouco utilidade se as regiões de decisão g(x) = yi Dispersão da informação: a característica de interesse está espalhado por muitos xi s. Queremos aumentar a densidade de informação através da compressão de X Principal Components Analysis (PCA) Combina-se variáveis redundantes numa única variável, referida como componente, ou factor Factor Analysis (FA) Termo genérico para uma classe de algoritmos que incluem o PCA Tutorial:
60 Redução da dimensionalidade (PCA) Formulação do problema: Para o conjunto de dados {x 1,x 2,...,x n } temos: x i ={x 1 i,x 2 i,...,x d i} Assume-se que a dimensão d dos dados é alta. Pretende-se classificar x Problemas com dimensões elevadas: Se os conjunto de dados for pequeno: Confiança reduzida na estimativa de parâmetros. Overfit Atributos irrelevantes Muitas dimensões, poucos pontos
61 Principal Component Analysis (PCA) Objectivo: Pretende-se substituir os dados de entrada com uma dimensão elevada por um conjunto mais reduzido de características PCA: Transformação linear da entrada x de d dimensões para m dimensões de forma a que m < d e preservar o máximo de variância para os dados. Equivalentemente, é uma projecção linear para a qual o erro quadrático médio é minimizado
62 PCA
63 PCA
64 PCA
65 PCA
66 Método PCA O PCA é uma técnica de projecção linear: onde u são os dados com m dimensões, x são os dados originais com d dimensões e W é uma transformação linear. O W guarda os vectores de projecção que devem: Maximizar a variância dos dados transformados. ou fornecer distribuições não correlacionadas. ou minimizar os erro de reconstrução quadrático O W é constituído por funções (ou vectores) de base. u = W( x µ )
67 Obter as funções de base Pretende-se encontrar as funções de base que permitem a melhor aproximação dos dados, preservando o máximo de informação possível! Formalização: substituir d dimensões por M de z i coordenadas que representam x. Pretende-se obter o subconjunto M das funções de base. O erro para cada x n é:
68 Obter as funções de base Diferencia-se a função de erro em relação a todo o b i e iguala-se a zero: Rescrevendo: O erro é mínimo quando os vectores de base satisfazem:
69 Funções de base As melhores funções de base : eliminar d-m vectores com os valores próprios mais pequenos (ou manter os M vectores com os maiores vectores próprios) Os vectores próprios u i são referidos como componentes principais. Depois dos vectores próprios u i serem calculados, podemos transformar os dados de d dimensões em m dimensões. Para encontrar a verdadeira dimensionalidade dos dados basta encontrar os valores próprios que contribuem mais (os pequenos valores próprios são eliminados)
70 Algoritmo PCA completo Suponha que têm x 1, x 2,..., x M vectores de n 1 Passo 1: Cálculo da média µ i Passo 2: Subtrair a média aos dados v i = x i µ i Passo 3: Formar a matriz A = [v 1 v 2... v m ] (NxM) e calcular a matriz de covariância C = AA T Passo 4: Calcular os valores próprios e vectores próprios de C. Passo 5 (Redução da dimensionalidade): manter apenas os termos correspondentes aos K valores próprios maiores
71 Exemplo com duas dimensões GO
72 Exemplos do PCA x 2 y 2 z y z x
73 Como escolher a dimensionalidade (m) Como definir a dimensionalidade dos dados transformados? Proporção da variância retida: m é tipicamente 90% ou 95%. O resto é ruído!
74 Exemplos de PCA: Faces
75 Exemplos de PCA: Faces
76 Problemas do PCA Problemas: O PCA é um método linear. A verdadeira dimensionalidade pode ser sobre estimada. Os dados podem ser correlacionados de uma forma não linear. Existem muitas técnicas nesta área: NPCA (Nonlinear PCA): As projecções são não lineares. ICA (Independent Component Analysis): descorrelaciona totalmente as componentes
Aprendizado por Instâncias Janelas de Parzen & Knn
Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Aprendizado por Instâncias Janelas de Parzen & Knn David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Aprendizado por
Leia maisMétodos Não Paramétricos
Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Métodos não Paramétricos Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Métodos Não Paramétricos Introduzir
Leia maisUniversidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um
Leia maisCC-226 Introdução à Análise de Padrões
CC-226 Introdução à Análise de Padrões Estimação Não-Paramétrica e Aprendizado por Instâncias Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 16 de
Leia maisReconhecimento de Padrões. Reconhecimento de Padrões
Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso e Prof.
Leia maisAlgoritmos de Aprendizado
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron
Leia maisCLASSIFICADORES ELEMENTARES -II
CLASSIFICADORES ELEMENTARES -II Estimando a densidade 2 A função densidade de probabilidade é um conceito fundamental em estatística Permite associar probabilidades a uma variável aleatória x Especificar
Leia maisProcessamento digital de imagens
Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo
Leia maisCap. 8 - Intervalos Estatísticos para uma Única Amostra
Intervalos Estatísticos para ESQUEMA DO CAPÍTULO 8.1 INTRODUÇÃO 8.2 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO NORMAL, VARIÂNCIA CONHECIDA 8.3 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO
Leia maisCC-226 Introdução à Análise de Padrões
CC-226 Introdução à Análise de Padrões Probabilidades e Estatísticas Descritivas Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 3 de março de 2008
Leia maisCC-226 Aula 05 - Teoria da Decisão Bayesiana
CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos
Leia maisIntervalos de Confiança
Intervalos de Confiança Carla Henriques e Nuno Bastos Departamento de Matemática Escola Superior de Tecnologia de Viseu Carla Henriques e Nuno Bastos (DepMAT) Intervalos de Confiança 2010/2011 1 / 33 Introdução
Leia maisLEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100%
. Definição dos acontecimentos: M T-shirt tem manchas C T-shirt tem costuras defeituosas D T-shirt é defeituosa A Preço da t-shirt é alterado a) PM) = % PC) = 5% PM C) = % LEEC Probabilidades e Estatística
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Aprendizagem Baseada em Instâncias Alessandro L. Koerich Mestrado/Doutorado em Informática (PPGIa) Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática
Leia maisCap. 4 - Estimação por Intervalo
Cap. 4 - Estimação por Intervalo Amostragem e inferência estatística População: consiste na totalidade das observações em que estamos interessados. Nº de observações na população é denominado tamanho=n.
Leia maisAnálise de Regressão Linear Simples e
Análise de Regressão Linear Simples e Múltipla Carla Henriques Departamento de Matemática Escola Superior de Tecnologia de Viseu Introdução A análise de regressão estuda o relacionamento entre uma variável
Leia maisPor que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas
Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Wrapper Filtros Muitos algoritmos de AM são projetados de modo a selecionar os
Leia maisPROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1)
PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1) 1 Procedimentos não supervisionados Não se conhece a classificação das amostras de treinamento Qual é o interesse? 1) Coletar e rotular
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 13 K-Nearest Neighbor (KNN) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor
Leia maisInferência Estatistica
Inferência Estatistica Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Modelos e Inferência Um modelo é uma simplificação da realidade (e alguns
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem
Leia maisAprendizagem de Máquina
Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Aprendizagem Baseada em Instâncias Plano de Aula Introdução Espaço
Leia maisCombinação de Classificadores (fusão)
Combinação de Classificadores (fusão) André Tavares da Silva andre.silva@udesc.br Livro da Kuncheva Roteiro Sistemas com múltiplos classificadores Fusão por voto majoritário voto majoritário ponderado
Leia maisIntervalos de Confiança
Intervalos de Confiança Departamento de Matemática Escola Superior de Tecnologia de Viseu Introdução Estimar o consumo médio de um automóvel, estimar o tempo médio que um funcionário leva a aprender uma
Leia maisUniversidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Tipos de Aprendizagem. Luiz Eduardo S. Oliveira, Ph.D.
Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Tipos de Aprendizagem Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Objetivos Introduzir diferentes tipos de
Leia maisFundamentos da Teoria da Probabilidade
Fundamentos da Teoria da Probabilidade Edmar José do Nascimento (Princípios de Comunicações) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Sinais Aleatórios
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Algoritmo para simular uma fila Medidas de interesse Média amostral Aula de hoje Teorema do Limite Central Intervalo de Confiança Variância amostral
Leia maisMétodos para Classificação: - Naïve Bayes.
Métodos para Classificação: - 1R; - Naïve Bayes. Visão Geral: Simplicidade em primeiro lugar: 1R; Naïve Bayes. 2 Classificação: Tarefa: Dado um conjunto de exemplos préclassificados, construir um modelo
Leia maisCC-226 Aula 07 - Estimação de Parâmetros
CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições
Leia maisà Análise de Padrões
CC-226 Introdução à Análise de Padrões Prof. Carlos Henrique Q. Forster Variáveis, Estatísticas sticas e Distribuições de Probabilidades Tópicos de hoje Definições Alguns estimadores estatísticos Distribuições
Leia maisClassificadores. André Tavares da Silva.
Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:
Leia maisAnálise de regressão linear simples. Diagrama de dispersão
Introdução Análise de regressão linear simples Departamento de Matemática Escola Superior de Tecnologia de Viseu A análise de regressão estuda o relacionamento entre uma variável chamada a variável dependente
Leia maisMAB-515 Avaliação e Desempenho (DCC/UFRJ)
MAB-515 Avaliação e Desempenho (DCC/UFRJ) Aula 7: Intervalos de Confiança 13 de novembro de 2012 1 2 3 4 Percentil 100p%-percentil O ponto t 0 tal que t 0 = F 1 X (p) = min{t : F X (t) p}, 0 < p < 1 é
Leia maisMétodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II
Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II Vladimir Pestov 1 University of Ottawa / Université d Ottawa Ottawa, Ontario, Canadá 2 Universidade Federal de Santa Catarina Florianópolis,
Leia maisCLASSIFICADORES BAEYSIANOS
CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação (Machine Learning) Aula 02 Representação dos dados Pré-processamento Max Pereira Tipo de Dados Os atributos usados para descrever objetos de dados podem ser de diferentes tipos: Quantitativos
Leia maisx exp( t 2 )dt f(x) =
INTERPOLAÇÃO POLINOMIAL 1 As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia e não têm a intenção de substituir o livro-texto, nem qualquer outra bibliografia Aproximação
Leia maisCONHECIMENTOS ESPECÍFICOS
CONHECIMENTOS ESPECÍFICOS 2003 2004 2005 2006 2007 2008 2009 2010 X 39,0 39,5 39,5 39,0 39,5 41,5 42,0 42,0 Y 46,5 65,5 86,0 100,0 121,0 150,5 174,0 203,0 A tabela acima mostra as quantidades, em milhões
Leia maisIntrodução à Bioestatística Turma Nutrição
Universidade Federal de Minas Gerais Instituto de Ciências Exatas Departamento de Estatística Introdução à Bioestatística Turma Nutrição Aula 8: Intervalos de Confiança para Média e Proporção Distribuição
Leia maisPE-MEEC 1S 09/ Capítulo 7 - Estimação por intervalos. 7.2 Intervalos de. confiança para. média de uma. normal 7.
Capítulo 7 - Estimação por intervalos 7.1 Noções básicas 7.2 Intervalos de confiança para a média de uma população normal 7.3 Intervalos de confiança para a diferença de duas médias de populações normais
Leia maisθ depende de um parâmetro desconhecido θ.
73 Método de Máxima Verosimilhança (Maximum Likelihood) Seja uma variável aleatória (v. a.) cuja densidade de probabilidade depende de um parâmetro desconhecido. Admite-se conhecida a forma de Exemplo
Leia maisEstatística e Probabilidade Aula 06 Distribuições de Probabilidades. Prof. Gabriel Bádue
Estatística e Probabilidade Aula 06 Distribuições de Probabilidades Prof. Gabriel Bádue Teoria A distribuição de Poisson é uma distribuição discreta de probabilidade, aplicável a ocorrências de um evento
Leia maisSUPPORT VECTOR MACHINE - SVM
SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento
Leia mais( x) = a. f X. = para x I. Algumas Distribuições de Probabilidade Contínuas
Probabilidade e Estatística I Antonio Roque Aula Algumas Distribuições de Probabilidade Contínuas Vamos agora estudar algumas importantes distribuições de probabilidades para variáveis contínuas. Distribuição
Leia maisPARTE TEÓRICA Perguntas de escolha múltipla
PROBABILIDADES E ESTATÍSTICA MIEEC/FEUP PARTE TEÓRICA Perguntas de escolha múltipla 1 Dada a experiência aleatória ε define-se espaço amostral associado a ε como sendo: A O espaço físico onde se realiza
Leia maisExame de Aprendizagem Automática
Exame de Aprendizagem Automática 2 páginas com 12 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 12 de Janeiro de 2017 Nota: O exame está cotado para 40 valores. Os 20 valores
Leia maisOrganização. 1. Introdução 2. Medidas de Similaridade. hierárquicos, de partição) 4. Critérios numéricos para definir o número de clusters
Organização. Introdução 2. Medidas de Similaridade 3. Métodos de Agrupamento (métodos hierárquicos, de partição) 4. Critérios numéricos para definir o número de clusters Métodos de Partição Cada exemplo
Leia maisCálculo das Probabilidades e Estatística I
Cálculo das Probabilidades e Estatística I Prof a. Juliana Freitas Pires Departamento de Estatística Universidade Federal da Paraíba - UFPB juliana@de.ufpb.br Distribuição Normal Motivação: Distribuição
Leia maisInferência Estatística:
Universidade Federal de Minas Gerais Instituto de Ciências Exatas Departamento de Estatística Inferência Estatística: Princípios de Bioestatística decidindo na presença de incerteza Aula 8: Intervalos
Leia maisAGA Análise de Dados em Astronomia I. 2. Probabilidades
1 / 20 AGA 0505- Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2018 2 / 20 tópicos 1 probabilidades - cont. 2 distribuições de probabilidades 1 binomial 2 Poisson 3
Leia maisMinera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33
Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto
Leia maisAprendizado de Máquinas. Introdução à Aprendizado Não- Supervisionado
Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Introdução à Aprendizado Não- Supervisionado David Menotti, Ph.D. http://web.inf.ufpr.br/menotti Objetivos
Leia maisProjeções Multi-dimensionais
Prof. Fernando V. Paulovich http://www.icmc.usp.br/~paulovic paulovic@icmc.usp.br Instituto de Ciências Matemáticas e de Computação (ICMC) Universidade de São Paulo (USP) 23 de setembro de 2010 Introdução
Leia maisCAL ( ) MIEIC/FEUP Estruturas de Dados ( )
Conjuntos Disjuntos R. Rossetti, A.P. Rocha, A. Pereira, P.B. Silva, T. Fernandes FEUP, MIEIC, CPAL, 2010/2011 1 Conjuntos Disjuntos Objectivo resolver eficientemente o problema da equivalência estrutura
Leia maisEstatística e Modelos Probabilísticos - COE241
Estatística e Modelos Probabilísticos - COE241 Aula passada Intervalo de confiança Método de Replicações Independentes Aula de hoje Para que serve a inferência estatística? Método dos Momentos Maximum
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal
Leia maisDados no R n. Dados em altas dimensões 29/03/2017
Dados no R n Dados em altas dimensões Alguns dados são apresentados como vetores em R n Alguns dados não são apresentados como vetores mas podem ser representados como vetores (e.g. Texto) Texto Dados
Leia maisAproximação da Distribuição Binomial pela Distribuição Normal
Aproximação da Distribuição Binomial pela Distribuição Normal Uma das utilidades da distribuição normal é que ela pode ser usada para fornecer aproximações para algumas distribuições de probabilidade discretas.
Leia maisConjuntos disjuntos. Objectivo resolver eficientemente o problema da equivalência estrutura de dados simples (vector) implementação rápida
Conjuntos disjuntos Objectivo resolver eficientemente o problema da equivalência estrutura de dados simples (vector) implementação rápida Desempenho análise complicada Uso problemas de grafos equivalência
Leia maisInferência para CS Modelos univariados contínuos
Inferência para CS Modelos univariados contínuos Renato Martins Assunção DCC - UFMG 2014 Renato Martins Assunção (DCC - UFMG) Inferência para CS Modelos univariados contínuos 2014 1 / 42 V.A. Contínua
Leia maisProbabilidades e Estatística - LEIC + LERCI + LEE 2 o semestre 2004/05
Departamento de Matemática Secção de Estatística e Aplicações - IST Probabilidades e Estatística - LEIC + LERCI + LEE 2 o semestre 2004/05 3 o Teste 4/6/2005 9h O Teste que vai realizar tem a duração total
Leia maisCapítulo 3: Elementos de Estatística e Probabilidades aplicados à Hidrologia
Departamento de Engenharia Civil Prof. Dr. Doalcey Antunes Ramos Capítulo 3: Elementos de Estatística e Probabilidades aplicados à Hidrologia 3.1 - Objetivos Séries de variáveis hidrológicas como precipitações,
Leia mais4. O algoritmo LMS e variantes
Apontamentos de Processamento Adaptativo de Sinais 4. O algoritmo LMS e variantes Família de algoritmos do gradiente Na prática usam-se estimativas do gradiente, ˆ (n), em vez do verdadeiro gradiente (n),
Leia mais- desvio padrão, caracteriza a dispersão dos resultados
O resultado da experiência, então, pode ser expresso na forma < x > ± x n (veja a explicação mais adiante) - desvio padrão, caracteriza a dispersão dos resultados Histograma de frequências Histograma
Leia maisProbabilidade e Estatística
Probabilidade e Estatística Aula 7: Intervalos de Confiança com uma amostra Leitura obrigatória: Devore, cap 7 ou Montgomery e Runger, cap 8 Chap 8-1 Objetivos Como inferir sobre um parâmetro da população,
Leia maisExercícios de programação
Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,
Leia maisVariáveis Aleatórias Contínuas e Distribuição de Probabilidad
Variáveis Aleatórias Contínuas e Distribuição de Probabilidades - parte II 26 de Novembro de 2013 Distribuição Contínua Uniforme Média e Variância Objetivos Ao final deste capítulo você deve ser capaz
Leia maisVetor de Variáveis Aleatórias
Vetor de Variáveis Aleatórias Luis Henrique Assumpção Lolis 25 de junho de 2013 Luis Henrique Assumpção Lolis Vetor de Variáveis Aleatórias 1 Conteúdo 1 Vetor de Variáveis Aleatórias 2 Função de Várias
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisRESTAURAÇÃO E RECONSTRUÇÃO DE IMAGENS. Nielsen Castelo Damasceno
RESTAURAÇÃO E RECONSTRUÇÃO DE IMAGENS Nielsen Castelo Damasceno Restauração de imagem Procura recuperar uma imagem corrompida com base em um conhecimento a priori do fenômeno de degradação. Restauração
Leia maisContabilometria. Prof.: Patricia Maria Bortolon, D. Sc.
Contabilometria Prof.: Patricia Maria Bortolon, D. Sc. Intervalos de Confiança Fonte: LEVINE, D. M.; STEPHAN, D. F.; KREHBIEL, T. C.; BERENSON, M. L.; Estatística Teoria e Aplicações, 5a. Edição, Editora
Leia mais3 Filtro de Kalman Discreto
3 Filtro de Kalman Discreto As medidas realizadas por sensores estão sujeitas a erros, como pode ser visto no Capítulo 2. Os filtros são aplicados aos sinais medidos pelos sensores para reduzir os erros,
Leia maisMATRIZ DA PROVA DE EXAME
MATRIZ DA PROVA DE EXAME (AVALIAÇÃO DO REGIME NÃO PRESENCIAL E AVALIAÇÃO DE RECURSO) MATEMÁTICA APLICADA ÀS CIÊNCIAS SOCIAIS - 11º ANO Módulos 4, 5 e 6 Duração da Prova 135 minutos Modalidade: Prova escrita
Leia maisFunções Discriminantes Lineares
Funções Discriminantes Lineares Revisão Cap. 2 Classificação Bayesiana: Fdp s conhecidas, w ) P e x w ) ( i p. ( i Cap. 3 Formas das fdp s conhecidas, idem No. de parâmetros. a) Máxima verossimilhança:
Leia maisPROBABILIDADE E DISTÂNCIAS
PROBABILIDADE E DISTÂNCIAS Definições Básicas Variável aleatória 2 Em Estatística, é muito comum ver o termo variável aleatória. Mas qual o seu significado? Existem várias definições para o termo variável
Leia maisVariáveis Aleatórias Bidimensionais &Teoremas de Limite 1/22
all Variáveis Aleatórias Bidimensionais & Teoremas de Limite Professores Eduardo Zambon e Magnos Martinello UFES Universidade Federal do Espírito Santo DI Departamento de Informática CEUNES Centro Universitário
Leia maisDISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia
ROTEIRO 1. Introdução; DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL. Teorema Central do Limite; 3. Conceitos de estimação pontual; 4. Métodos de estimação pontual; 5. Referências. 1 POPULAÇÃO E AMOSTRA População:
Leia maisDCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho...
DCBD Métricas para avaliação de desempenho Como avaliar o desempenho de um modelo? Métodos para avaliação de desempenho Como obter estimativas confiáveis? Métodos para comparação de modelos Como comparar
Leia maisFundamentos de Estatística
Fundamentos de Estatística Clássica Workshop Análise de Incertezas e Validação Programa de Verão 2017 Marcio Borges 1 1LABORATÓRIO NACIONAL DE COMPUTAÇÃO CIENTÍFICA mrborges@lncc.br Petrópolis, 9 de Fevereiro
Leia mais2 o Teste de Aprendizagem Automática
2 o Teste de Aprendizagem Automática 3 páginas de enunciado com 6 perguntas mais 2 folhas de resposta. Duração: 1h 30m DI, FCT/UNL, 21 de Dezembro de 2017 Pergunta 1 [4 valores] Considere um problema de
Leia mais4 Estado da Arte do Kernel PCA
4 Estado da Arte do Kernel PCA Conforme apresentado no Capítulo 1, o Kernel PCA é uma técnica promissora para auxiliar no processo de ajuste de histórico, devido a sua capacidade de extrair parte da estatística
Leia mais5- Variáveis aleatórias contínuas
5- Variáveis aleatórias contínuas Para variáveis aleatórias contínuas, atribuímos probabilidades a intervalos de valores. Exemplo 5.1 Seja a variável correspondente ao tempo de vida útil de determinado
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Leia maisCapítulo 2. Variáveis Aleatórias e Distribuições
Capítulo 2 Variáveis Aleatórias e Distribuições Experimento Aleatório Não existe uma definição satisfatória de Experimento Aleatório. Os exemplos dados são de fenômenos para os quais modelos probabilísticos
Leia maisModelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:
Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização
Leia maisMódulo III: Processos de Poisson, Gaussiano e Wiener
Módulo III: Processos de Poisson, Gaussiano e Wiener Wamberto J. L. Queiroz Universidade Federal de Campina Grande-UFCG Departamento de Engenharia Elétrica Processos Estocásticos Campina Grande - PB Módulo
Leia maisMétodos Computacionais em Física
Métodos Computacionais em Física Tatiana G. Rappoport tgrappoport@if.ufrj.br 2014-1 Integração usando o método da rejeição Queremos calcular a integral Definimos um retângulo de altura H que contenha a
Leia maisMetodologia Aplicada a Computação.
Metodologia Aplicada a Computação gaudenciothais@gmail.com Pré-processamento de dados Técnicas utilizadas para melhorar a qualidade dos dados; Eliminam ou minimizam os problemas como ruídos, valores incorretos,
Leia maisIntervalos Estatísticos para uma única Amostra - parte I
Intervalos Estatísticos para uma única Amostra - parte I Intervalo de confiança para média 14 de Janeiro Objetivos Ao final deste capítulo você deve ser capaz de: Construir intervalos de confiança para
Leia mais5- Variáveis aleatórias contínuas
5- Variáveis aleatórias contínuas Para variáveis aleatórias contínuas, associamos probabilidades a intervalos de valores da variável. Exemplo 5.1 Seja a variável correspondente ao tempo até a cura de pacientes
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisEstimação da Resposta em Frequência
27 Estimação da Resposta em Frequência ω = ω ω Objectivo: Calcular a magnitude e fase da função de transferência do sistema, para um conjunto grande de frequências. A representação gráfica deste conjunto
Leia mais24/04/2017. Operações que podem ser aplicadas aos eventos
Inferência estatística: processo de extrair conclusões de uma população inteira com base na informação de uma amostra A base para a inferência estatística é a teoria da probabilidade Evento: é o resultado
Leia mais2 Processo de Agrupamentos
20 2 Processo de Agrupamentos A análise de agrupamentos pode ser definida como o processo de determinação de k grupos em um conjunto de dados. Para entender o que isso significa, observe-se a Figura. Y
Leia maisIntrodução às Redes Neurais Artificiais
Introdução às Redes Neurais Artificiais Clusterização: Conceitos Básicos Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia
Leia mais4.1. ESPERANÇA x =, x=1
4.1. ESPERANÇA 139 4.1 Esperança Certamente um dos conceitos mais conhecidos na teoria das probabilidade é a esperança de uma variável aleatória, mas não com esse nome e sim com os nomes de média ou valor
Leia mais