Reconhecimento de Padrões. Reconhecimento de Padrões

Tamanho: px
Começar a partir da página:

Download "Reconhecimento de Padrões. Reconhecimento de Padrões"

Transcrição

1 Reconhecimento de Padrões Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso

2 Sumário: Métodos não paramétricos Introdução aos métodos não paramétricos Janelas de Parzen Método dos k vizinhos mais próximos Classificação com o método dos k vizinhos mais próximos Distâncias (métricas) Redução da dimensionalidade (PCA)

3 Métodos não paramétricos Na estimação de Bayes e de máxima verosimilhança a forma das probabilidades é conhecida: Na prática, as formas paramétricas mais conhecidas não são adequadas a muitos problemas do mundo real. Em particular, a maior parte das formas paramétricas são unimodais enquanto muitos problemas práticos envolvem densidades multimodais Uma forma de ultrapassar este obstáculo é utilizar uma mistura de densidades. A outra forma é utilizar a estimação de parâmetros não paramétrica

4 Técnicas de estimação de parâmetros não paramétrica Na estimação não paramétrica: Não se assume que se conhece a forma de distribuição. No entanto, calcula-se uma estimativa da função densidade de probabilidade a partir dos dados de treino. Existem dois tipos principais de estimação não paramétrica de parâmetros no reconhecimento de padrões: Estimação das funções de verosimilhança a partir das amostras de treino. Estimação directa das probabilidades à priori. O método mais simples de estimação de parâmetros é o método do histograma

5 Distribuição para características binárias As características só podem assumir os valores 0,1. Uma característica binária têm a probabilidade: P(x = 1) = p P(x = 0) = 1-p E escreve-se da forma: Px ( ) = p x (1 p) (1 x) Para um vector de d características i.i.d. d Px ( ) = p xi(1 p) i= 1 (1 x ) i

6 Método do histograma Divide-se o espaço de amostras em intervalos ou células e aproxima-se a densidade no centro de cada célula por uma fracção de pontos dos dados de treino: Intervalos de largura h e origem em x0,as células são definidas por: O histograma é definido como: ( ) x0 + mh; x0 + m 1 h

7 Método do histograma

8 Método do histograma h controla a granularidade da estimativa:

9 Método do histograma Se h é largo: A probabilidade no intervalo é estimada com mais fiabilidade, uma vez que é baseada num maior número de amostras. Por outro lado, a densidade estimada é plana numa região muito larga e a estrutura fina da distribuição é perdida. Se h é estreito: Preserva-se a estrutura fina da densidade, mas o grau de confiança diminui (no limite, pode haver intervalos sem amostras). Regra empírica: Sendo d o número de dimensões, o número de intervalos ou células deve ser: 1 ( ) d 1 n

10 Método do histograma: problemas Então, para ter n I intervalos por dimensão: d ( ) ( ) d + ni n sao necessarias n ni amostras de treino Exemplo: d=5;10 intervalos n 10 6 Problemas: 1 O histograma é descontínuo, é um artefacto da escolha dos intervalos. A escolha da origem pode ter um efeito significativo na estimativa da densidade. O número de intervalos cresce exponencialmente com o número de dimensões. Necessário um n.º elevado de amostras de treino. Não é muito usado, apenas para visualização dos dados

11 Conceitos fundamentais A maior parte das técnicas não paramétricas de estimação de parâmetros assentam nos seguintes teoremas: A probabilidade P que um vector x esteja contido na região R é dado por: P = p ( x) dx R Se tivermos n amostras, a probabilidade de k das n amostras fazerem parte de R é: P k n k = P k ) n k ( 1 P Ek [ ] = np

12 Conceitos fundamentais A distribuição binomial possui um pico muito acentuado em torno do valor esperado. O número de amostras observadas em R (k obs ) deve ser aproximadamente igual a k obs E[k] = np O que leva a P = k obs /n

13 Conceitos fundamentais

14 Conceitos fundamentais Se assumirmos p(x) como uma função contínua e a região R tão pequena que p(x) não varia, vamos ter: P = p ( x) dx p ( x ') V R em que x é um ponto na região R e V é o volume no espaço R Combinando as equações temos: p k obs ( x ') V / n

15 Conceitos fundamentais Existem duas aproximações nas relações anteriores: Se k (ou n) tender para infinito ou V convergir para zero. Então estas aproximações vão convergir para valores exactos

16 Conceitos fundamentais De forma a estimar a densidade em x defini-se as seguintes regiões que contêm o ponto x: R1, R2,..., Rn com 1, 2,..., n amostras k n / n p n ( x ) V De forma a p n (x) convergir para p(x): limv = 0 lim k n n n n Exemplos que cumprem estas condições: n kn = lim = 0 n n Parzen: O volume inicial Vo diminui: K-nn: Rn cresce até conter kn amostras: V n = Vo kn = n n

17 Conceitos fundamentais

18 Janelas de Parzen Assume-se que região Rn é um cubo com d dimensões e com o comprimento de cada contorno hn O número de amostras que se encontram na região Rn pode ser obtida analiticamente através da função de janela: ϕ( u) 1 u 1 j = 2 0 caso contrario O número de amostras e a estimativa para a densidade de probabilidade é dada por: k n x x n i = ϕ i= 1 hn p n ( x) n 1 = 1 x x ϕ n V = n hn i 1 i

19 Janelas de Parzen A função da janela φ é utilizada para interpolação: Cada amostra contribui para a estimativa de acordo com a sua distância a x. Se h n é muito grande então p n (x) é uma superposição de funções que variam pouco, sendo uma estimativa pouco fiável de p(x). Se h n é muito pequena então p n (x) é uma função de dirac e a sua estimativa é apenas a soma de pulsos pequenos. Com um número ilimitado de amostras p n (x) converge para p(x) para qualquer valor de h n. Com um número limitado de amostras, o melhor a fazer é procurar um compromisso

20 Janelas de Parzen Escolha das janelas de parzen

21 Janelas de Parzen

22 Janelas de Parzen

23 Condições de convergência Se p n (x) é uma variável aleatória que depende dos valores de {x 1,x 2,..., x n } com média e variância dadas por: A estimativa p n (x) converge para p(x) se: e as seguintes condições garantem convergência:

24 Janelas de Parzen Convergência da média

25 Janelas de Parzen Convergência da variância

26 Janelas de Parzen p(x) é uma normal: média zero variância unitária Univariada A função de janela é: ϕ( u) = 1 e 2π u p n (x) é uma média das densidades normais: p n n 1 1 x x i ( x) = ϕ n i= 1 hn hn

27 Janelas de Parzen Com duas densidades normais

28 Janelas de Parzen

29 Classificação utilizando Janelas de Parzen

30 Redes PNN (probabilistic neural networks) As janelas de Parzen podem ser implementadas como uma rede neuronal estatística. Considere n padrões com d dimensões, escolhidos aleatoriamente de c classes. A rede PNN consiste em: d unidades de entrada (input layer) n unidades intermédias (pattern layer) ligadas a apenas uma e só uma unidade de classe (output layer) Os pesos entre as unidades entrada e as unidades intermédias vão ser calculados através de uma fase de treino

31 Redes PNN (probabilistic neural networks)

32 Redes PNN - Treino

33 Redes PNN - Classificação

34 Redes PNN - vantagens Velocidade da aprendizagem. Memória reduzida. A classificação é realizada em paralelo. Novos padrões de treino podem ser incorporados facilmente

35 Estimação dos K n vizinhos mais próximos Um dos problemas com as janelas de Parzen é como determinar uma função de janela óptima. Outro problema é que as janelas de parzen dependem da selecção inicial do volume da célula V Uma solução é escolher o volume da célula de acordo com a distribuição dos dados. A estimação dos k vizinhos mais próximos permite resolver este problema: A região é agora em função dos dados de treino Para estimar p(x) em x, a região deve crescer até capturar k n amostras, onde k n é uma função especificada por n p n ( x ) k n V / n n

36 Exemplos

37 Exemplos

38 Exemplos

39 Estimação das probabilidades a Posteriori Todos os métodos estudados podem ser utilizados para obter as probabilidades a posteriori dos dados P(ω i x). Para uma célula de volume V em redor de x captura-se k amostras, das quais k i amostras pertencem a ω i p n ki / ( x, ω i) = V n P ( ω x) n i c pn( x, ωi) ki = = k pn( x, ω j) j= 1 Para obter o mínimo erro, escolhe-se a classe mais frequentemente representada na célula. Para um número suficientemente grande de células, as probabilidades a posteriori estimadas são fiáveis

40 Regra do vizinho mais próximo (NN) Ambos os métodos, janelas de parzen e Kn vizinhos mais próximos, podem ser utilizados para calcular as probabilidades a posteriori utilizando n-amostras de dados de treino. Esta probabilidade pode ser utilizada pela regra de Bayes. Uma abordagem radical é utilizar o método dos vizinhos mais próximos para classificar directamente os dados de treino desconhecidos regra do vizinho mais próximo. Enquanto a regra de Bayes (classificação MAP) é óptima para escolher entre as diferentes classes, a regra do vizinho mais próximo é sub-óptima

41 Regra do vizinho mais próximo Suponha que temos D n ={x 1,..., x n } amostras de treino classificadas (rotuladas). Seja x em D n o ponto mais próximo de x, que necessita de ser classificado. A regra do vizinho mais próximo consiste em atribuir ao elemento x a mesma classificação que o x. A regra do vizinho mais próximo cria partições no espaço de características em células de Voronoi

42 Regra do vizinho mais próximo

43 Limite para o erro Seja P* o mínimo erro possível (classificador MAP) Seja P o erro dado pela regra do vizinho mais próximo. Dado um número ilimitado de dados de treino podemos mostrar que: P * P P * (2 c c 1 P * )

44 Regra dos k-vizinhos mais próximo (KNN) As técnicas NN ou k-nn constróem directamente a regra de decisão sem estimar as densidades condicionadas às classes. Motivação: Padrões próximos no espaço de características possivelmente pertencem à mesma classe. Extensão do NN: a regra dos k-vizinhos mais próximos classifica x atribuindo-lhe a classe mais representada nos k vizinhos mais próximos do conjunto de treino. Por outras palavras, dado x procuramos as k amostras mais próximas. A classe mais frequente é atribuída a x. k é usualmente ímpar para evitar empates

45 Exemplo

46 Regra dos k-vizinhos mais próximos A selecção de k é um compromisso: Se k é muito alto alguns destes vizinhos k podem ter probabilidades diferentes. Se k é muito baixo A estimação pode não ser fiável. O comportamento óptimo é obtido à medida que k e n se aproxima de infinito

47 Regra do k-vizinhos mais próximo: métricas

48 Métricas O classificador dos vizinhos mais próximos baseia-se numa métrica ou função de distância entre dois padrões

49 Propriedades das métricas Não negativa: d(a,b) 0 Reflexiva: d(a,b) = 0 se e só se a = b Simétrica: d(a,b) = d(b,a) Inequação do triângulo: d(a,b) + d(b,c) d(a,c)

50 Métricas Distância de Minskowski, classe genérica de métricas para padrões com d dimensões: d L ( a, b) = a b k i i i= 1 k 1/ k Esta distância é parametrizável através do parâmetro k A distância euclidiana ou a norma L2 é dada por: L = d ( a, b) = a b 2 ( ) euclidiana i i i= 1 Dá mais ênfase às características com elevada dissimilaridade. d

51 Métricas A distância de manhattam, city-block ou diferença absoluta é calculada a partir da norma L1 : L1 = d ( a, b) = a b manhattam i i i= 1 Reduz tempo de cálculo em relação à distância euclidiana. Não é possível encurtar esquinas. d

52 Mais métricas Distância de máxima distância: d d ( a, b) = max b a max dist i i i= 1 Apenas considera o par de características mais distantes. Distância de Mahalanobis: d ( a, b) = x y Σ x y mahalanobis T ( ) 1 ( )

53 Variantes na decisão K-NNK Escolha da medida de distância no cálculo dos vizinhos No caso do conjunto de treino ser infinito, o desempenho é independente da métrica! Regra de k-nn com distâncias pesadas: Sejam x1,x2,..., xk os k vizinhos mais próximos da amostra a classificar x Seja dj = d(x,xj) Atribui-se um peso a cada vizinho xj de acordo com: ω j = d d k k d d j ω j Somam-se os pesos para os vizinhos pertencentes à mesma classe, atribuindo x à classe com maior peso

54 Exemplos de knn

55 Exemplos de knn (k=5)

56 Desvantagens e vantagens Propriedades ideais: Menos que 20 atributos por instância Muitos dados de treino Vantagens: O treino é rápido. Aprende funções complexas Desvantagens: As estimativas são sensíveis ao ruído. O método KNN produz estimativas com declives acentuados (heavy tails). A estimativa pode ter descontinuidades e o integral sobre todo o espaço de amostras diverge. A classificação é lenta. As estimativas podem se afastar muito se houver atributos irrelevantes

57 A maldição da dimensionalidade Uma história de horror: Suponha que os dados são descritos por n atributos, e.g. n=20 Apenas n são relevantes e.g. n = 2 Mau desempenho! Os problemas são usualmente tão maus como este ou mesmo piores (e.g. atributos correlacionados)! Maldição da dimensionalidade: O algoritmo dos k vizinhos mais próximos é usualmente enganado quando n é grande, i.e. dimensão de x é alta. Como solucionar este problema: Seleccionar características mais relevantes! Atribuir pesos às características Transformações que reduzem a dimensionalidade: PCA, SOM, etc

58 Redução da dimensionalidade Redução da dimensionalidade Triangulos Delaunay Voronoi (vizinhos mais próximos)

59 Redução da dimensionalidade (PCA) Noção Intuitiva: Porque motivo devemos usar transformadas que reduzem a dimensionalidade na aprendizagem supervisionada? Pode haver muitos atributos (ou características) com propriedades indesejadas. Irrelevância: xi têm pouco utilidade se as regiões de decisão g(x) = yi Dispersão da informação: a característica de interesse está espalhado por muitos xi s. Queremos aumentar a densidade de informação através da compressão de X Principal Components Analysis (PCA) Combina-se variáveis redundantes numa única variável, referida como componente, ou factor Factor Analysis (FA) Termo genérico para uma classe de algoritmos que incluem o PCA Tutorial:

60 Redução da dimensionalidade (PCA) Formulação do problema: Para o conjunto de dados {x 1,x 2,...,x n } temos: x i ={x 1 i,x 2 i,...,x d i} Assume-se que a dimensão d dos dados é alta. Pretende-se classificar x Problemas com dimensões elevadas: Se os conjunto de dados for pequeno: Confiança reduzida na estimativa de parâmetros. Overfit Atributos irrelevantes Muitas dimensões, poucos pontos

61 Principal Component Analysis (PCA) Objectivo: Pretende-se substituir os dados de entrada com uma dimensão elevada por um conjunto mais reduzido de características PCA: Transformação linear da entrada x de d dimensões para m dimensões de forma a que m < d e preservar o máximo de variância para os dados. Equivalentemente, é uma projecção linear para a qual o erro quadrático médio é minimizado

62 PCA

63 PCA

64 PCA

65 PCA

66 Método PCA O PCA é uma técnica de projecção linear: onde u são os dados com m dimensões, x são os dados originais com d dimensões e W é uma transformação linear. O W guarda os vectores de projecção que devem: Maximizar a variância dos dados transformados. ou fornecer distribuições não correlacionadas. ou minimizar os erro de reconstrução quadrático O W é constituído por funções (ou vectores) de base. u = W( x µ )

67 Obter as funções de base Pretende-se encontrar as funções de base que permitem a melhor aproximação dos dados, preservando o máximo de informação possível! Formalização: substituir d dimensões por M de z i coordenadas que representam x. Pretende-se obter o subconjunto M das funções de base. O erro para cada x n é:

68 Obter as funções de base Diferencia-se a função de erro em relação a todo o b i e iguala-se a zero: Rescrevendo: O erro é mínimo quando os vectores de base satisfazem:

69 Funções de base As melhores funções de base : eliminar d-m vectores com os valores próprios mais pequenos (ou manter os M vectores com os maiores vectores próprios) Os vectores próprios u i são referidos como componentes principais. Depois dos vectores próprios u i serem calculados, podemos transformar os dados de d dimensões em m dimensões. Para encontrar a verdadeira dimensionalidade dos dados basta encontrar os valores próprios que contribuem mais (os pequenos valores próprios são eliminados)

70 Algoritmo PCA completo Suponha que têm x 1, x 2,..., x M vectores de n 1 Passo 1: Cálculo da média µ i Passo 2: Subtrair a média aos dados v i = x i µ i Passo 3: Formar a matriz A = [v 1 v 2... v m ] (NxM) e calcular a matriz de covariância C = AA T Passo 4: Calcular os valores próprios e vectores próprios de C. Passo 5 (Redução da dimensionalidade): manter apenas os termos correspondentes aos K valores próprios maiores

71 Exemplo com duas dimensões GO

72 Exemplos do PCA x 2 y 2 z y z x

73 Como escolher a dimensionalidade (m) Como definir a dimensionalidade dos dados transformados? Proporção da variância retida: m é tipicamente 90% ou 95%. O resto é ruído!

74 Exemplos de PCA: Faces

75 Exemplos de PCA: Faces

76 Problemas do PCA Problemas: O PCA é um método linear. A verdadeira dimensionalidade pode ser sobre estimada. Os dados podem ser correlacionados de uma forma não linear. Existem muitas técnicas nesta área: NPCA (Nonlinear PCA): As projecções são não lineares. ICA (Independent Component Analysis): descorrelaciona totalmente as componentes

Aprendizado por Instâncias Janelas de Parzen & Knn

Aprendizado por Instâncias Janelas de Parzen & Knn Universidade Federal do Paraná (UFPR) Especialização em Engenharia Industrial 4.0 Aprendizado por Instâncias Janelas de Parzen & Knn David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Aprendizado por

Leia mais

Métodos Não Paramétricos

Métodos Não Paramétricos Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Métodos não Paramétricos Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Métodos Não Paramétricos Introduzir

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

CC-226 Introdução à Análise de Padrões

CC-226 Introdução à Análise de Padrões CC-226 Introdução à Análise de Padrões Estimação Não-Paramétrica e Aprendizado por Instâncias Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 16 de

Leia mais

Reconhecimento de Padrões. Reconhecimento de Padrões

Reconhecimento de Padrões. Reconhecimento de Padrões Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso e Prof.

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

CLASSIFICADORES ELEMENTARES -II

CLASSIFICADORES ELEMENTARES -II CLASSIFICADORES ELEMENTARES -II Estimando a densidade 2 A função densidade de probabilidade é um conceito fundamental em estatística Permite associar probabilidades a uma variável aleatória x Especificar

Leia mais

Processamento digital de imagens

Processamento digital de imagens Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo

Leia mais

Cap. 8 - Intervalos Estatísticos para uma Única Amostra

Cap. 8 - Intervalos Estatísticos para uma Única Amostra Intervalos Estatísticos para ESQUEMA DO CAPÍTULO 8.1 INTRODUÇÃO 8.2 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO NORMAL, VARIÂNCIA CONHECIDA 8.3 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO

Leia mais

CC-226 Introdução à Análise de Padrões

CC-226 Introdução à Análise de Padrões CC-226 Introdução à Análise de Padrões Probabilidades e Estatísticas Descritivas Carlos Henrique Q. Forster 1 1 Divisão de Ciência da Computação Instituto Tecnológico de Aeronáutica 3 de março de 2008

Leia mais

CC-226 Aula 05 - Teoria da Decisão Bayesiana

CC-226 Aula 05 - Teoria da Decisão Bayesiana CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos

Leia mais

Intervalos de Confiança

Intervalos de Confiança Intervalos de Confiança Carla Henriques e Nuno Bastos Departamento de Matemática Escola Superior de Tecnologia de Viseu Carla Henriques e Nuno Bastos (DepMAT) Intervalos de Confiança 2010/2011 1 / 33 Introdução

Leia mais

LEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100%

LEEC Probabilidades e Estatística 1 a Chamada 13/06/2005. Parte Prática C (C) M 1% 9% 10% (M) 4% 86% 90% 5% 95% 100% . Definição dos acontecimentos: M T-shirt tem manchas C T-shirt tem costuras defeituosas D T-shirt é defeituosa A Preço da t-shirt é alterado a) PM) = % PC) = 5% PM C) = % LEEC Probabilidades e Estatística

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Aprendizagem Baseada em Instâncias Alessandro L. Koerich Mestrado/Doutorado em Informática (PPGIa) Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática

Leia mais

Cap. 4 - Estimação por Intervalo

Cap. 4 - Estimação por Intervalo Cap. 4 - Estimação por Intervalo Amostragem e inferência estatística População: consiste na totalidade das observações em que estamos interessados. Nº de observações na população é denominado tamanho=n.

Leia mais

Análise de Regressão Linear Simples e

Análise de Regressão Linear Simples e Análise de Regressão Linear Simples e Múltipla Carla Henriques Departamento de Matemática Escola Superior de Tecnologia de Viseu Introdução A análise de regressão estuda o relacionamento entre uma variável

Leia mais

Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas

Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Por que atributos irrelevantes são um problema Quais tipos de algoritmos de aprendizado são afetados Abordagens automáticas Wrapper Filtros Muitos algoritmos de AM são projetados de modo a selecionar os

Leia mais

PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1)

PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1) PROCEDIMENTOS NÃO SUPERVISIONADOS E TÉCNICAS DE AGRUPAMENTO (parte 1) 1 Procedimentos não supervisionados Não se conhece a classificação das amostras de treinamento Qual é o interesse? 1) Coletar e rotular

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 13 K-Nearest Neighbor (KNN) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest Neighbor

Leia mais

Inferência Estatistica

Inferência Estatistica Inferência Estatistica Ricardo Ehlers ehlers@icmc.usp.br Departamento de Matemática Aplicada e Estatística Universidade de São Paulo Modelos e Inferência Um modelo é uma simplificação da realidade (e alguns

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Aprendizagem Baseada em Instâncias Plano de Aula Introdução Espaço

Leia mais

Combinação de Classificadores (fusão)

Combinação de Classificadores (fusão) Combinação de Classificadores (fusão) André Tavares da Silva andre.silva@udesc.br Livro da Kuncheva Roteiro Sistemas com múltiplos classificadores Fusão por voto majoritário voto majoritário ponderado

Leia mais

Intervalos de Confiança

Intervalos de Confiança Intervalos de Confiança Departamento de Matemática Escola Superior de Tecnologia de Viseu Introdução Estimar o consumo médio de um automóvel, estimar o tempo médio que um funcionário leva a aprender uma

Leia mais

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Tipos de Aprendizagem. Luiz Eduardo S. Oliveira, Ph.D.

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Tipos de Aprendizagem. Luiz Eduardo S. Oliveira, Ph.D. Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Tipos de Aprendizagem Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Objetivos Introduzir diferentes tipos de

Leia mais

Fundamentos da Teoria da Probabilidade

Fundamentos da Teoria da Probabilidade Fundamentos da Teoria da Probabilidade Edmar José do Nascimento (Princípios de Comunicações) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Sinais Aleatórios

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Algoritmo para simular uma fila Medidas de interesse Média amostral Aula de hoje Teorema do Limite Central Intervalo de Confiança Variância amostral

Leia mais

Métodos para Classificação: - Naïve Bayes.

Métodos para Classificação: - Naïve Bayes. Métodos para Classificação: - 1R; - Naïve Bayes. Visão Geral: Simplicidade em primeiro lugar: 1R; Naïve Bayes. 2 Classificação: Tarefa: Dado um conjunto de exemplos préclassificados, construir um modelo

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

à Análise de Padrões

à Análise de Padrões CC-226 Introdução à Análise de Padrões Prof. Carlos Henrique Q. Forster Variáveis, Estatísticas sticas e Distribuições de Probabilidades Tópicos de hoje Definições Alguns estimadores estatísticos Distribuições

Leia mais

Classificadores. André Tavares da Silva.

Classificadores. André Tavares da Silva. Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:

Leia mais

Análise de regressão linear simples. Diagrama de dispersão

Análise de regressão linear simples. Diagrama de dispersão Introdução Análise de regressão linear simples Departamento de Matemática Escola Superior de Tecnologia de Viseu A análise de regressão estuda o relacionamento entre uma variável chamada a variável dependente

Leia mais

MAB-515 Avaliação e Desempenho (DCC/UFRJ)

MAB-515 Avaliação e Desempenho (DCC/UFRJ) MAB-515 Avaliação e Desempenho (DCC/UFRJ) Aula 7: Intervalos de Confiança 13 de novembro de 2012 1 2 3 4 Percentil 100p%-percentil O ponto t 0 tal que t 0 = F 1 X (p) = min{t : F X (t) p}, 0 < p < 1 é

Leia mais

Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II

Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II Métodos Matemáticos na Ciência de Dados: Introdução Relâmpago. II Vladimir Pestov 1 University of Ottawa / Université d Ottawa Ottawa, Ontario, Canadá 2 Universidade Federal de Santa Catarina Florianópolis,

Leia mais

CLASSIFICADORES BAEYSIANOS

CLASSIFICADORES BAEYSIANOS CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação (Machine Learning) Aula 02 Representação dos dados Pré-processamento Max Pereira Tipo de Dados Os atributos usados para descrever objetos de dados podem ser de diferentes tipos: Quantitativos

Leia mais

x exp( t 2 )dt f(x) =

x exp( t 2 )dt f(x) = INTERPOLAÇÃO POLINOMIAL 1 As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia e não têm a intenção de substituir o livro-texto, nem qualquer outra bibliografia Aproximação

Leia mais

CONHECIMENTOS ESPECÍFICOS

CONHECIMENTOS ESPECÍFICOS CONHECIMENTOS ESPECÍFICOS 2003 2004 2005 2006 2007 2008 2009 2010 X 39,0 39,5 39,5 39,0 39,5 41,5 42,0 42,0 Y 46,5 65,5 86,0 100,0 121,0 150,5 174,0 203,0 A tabela acima mostra as quantidades, em milhões

Leia mais

Introdução à Bioestatística Turma Nutrição

Introdução à Bioestatística Turma Nutrição Universidade Federal de Minas Gerais Instituto de Ciências Exatas Departamento de Estatística Introdução à Bioestatística Turma Nutrição Aula 8: Intervalos de Confiança para Média e Proporção Distribuição

Leia mais

PE-MEEC 1S 09/ Capítulo 7 - Estimação por intervalos. 7.2 Intervalos de. confiança para. média de uma. normal 7.

PE-MEEC 1S 09/ Capítulo 7 - Estimação por intervalos. 7.2 Intervalos de. confiança para. média de uma. normal 7. Capítulo 7 - Estimação por intervalos 7.1 Noções básicas 7.2 Intervalos de confiança para a média de uma população normal 7.3 Intervalos de confiança para a diferença de duas médias de populações normais

Leia mais

θ depende de um parâmetro desconhecido θ.

θ depende de um parâmetro desconhecido θ. 73 Método de Máxima Verosimilhança (Maximum Likelihood) Seja uma variável aleatória (v. a.) cuja densidade de probabilidade depende de um parâmetro desconhecido. Admite-se conhecida a forma de Exemplo

Leia mais

Estatística e Probabilidade Aula 06 Distribuições de Probabilidades. Prof. Gabriel Bádue

Estatística e Probabilidade Aula 06 Distribuições de Probabilidades. Prof. Gabriel Bádue Estatística e Probabilidade Aula 06 Distribuições de Probabilidades Prof. Gabriel Bádue Teoria A distribuição de Poisson é uma distribuição discreta de probabilidade, aplicável a ocorrências de um evento

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

( x) = a. f X. = para x I. Algumas Distribuições de Probabilidade Contínuas

( x) = a. f X. = para x I. Algumas Distribuições de Probabilidade Contínuas Probabilidade e Estatística I Antonio Roque Aula Algumas Distribuições de Probabilidade Contínuas Vamos agora estudar algumas importantes distribuições de probabilidades para variáveis contínuas. Distribuição

Leia mais

PARTE TEÓRICA Perguntas de escolha múltipla

PARTE TEÓRICA Perguntas de escolha múltipla PROBABILIDADES E ESTATÍSTICA MIEEC/FEUP PARTE TEÓRICA Perguntas de escolha múltipla 1 Dada a experiência aleatória ε define-se espaço amostral associado a ε como sendo: A O espaço físico onde se realiza

Leia mais

Exame de Aprendizagem Automática

Exame de Aprendizagem Automática Exame de Aprendizagem Automática 2 páginas com 12 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 12 de Janeiro de 2017 Nota: O exame está cotado para 40 valores. Os 20 valores

Leia mais

Organização. 1. Introdução 2. Medidas de Similaridade. hierárquicos, de partição) 4. Critérios numéricos para definir o número de clusters

Organização. 1. Introdução 2. Medidas de Similaridade. hierárquicos, de partição) 4. Critérios numéricos para definir o número de clusters Organização. Introdução 2. Medidas de Similaridade 3. Métodos de Agrupamento (métodos hierárquicos, de partição) 4. Critérios numéricos para definir o número de clusters Métodos de Partição Cada exemplo

Leia mais

Cálculo das Probabilidades e Estatística I

Cálculo das Probabilidades e Estatística I Cálculo das Probabilidades e Estatística I Prof a. Juliana Freitas Pires Departamento de Estatística Universidade Federal da Paraíba - UFPB juliana@de.ufpb.br Distribuição Normal Motivação: Distribuição

Leia mais

Inferência Estatística:

Inferência Estatística: Universidade Federal de Minas Gerais Instituto de Ciências Exatas Departamento de Estatística Inferência Estatística: Princípios de Bioestatística decidindo na presença de incerteza Aula 8: Intervalos

Leia mais

AGA Análise de Dados em Astronomia I. 2. Probabilidades

AGA Análise de Dados em Astronomia I. 2. Probabilidades 1 / 20 AGA 0505- Análise de Dados em Astronomia I 2. Probabilidades Laerte Sodré Jr. 1o. semestre, 2018 2 / 20 tópicos 1 probabilidades - cont. 2 distribuições de probabilidades 1 binomial 2 Poisson 3

Leia mais

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33

Minera c ao de Dados Aula 6: Finaliza c ao de Regress ao e Classifica c ao Rafael Izbicki 1 / 33 Mineração de Dados Aula 6: Finalização de Regressão e Classificação Rafael Izbicki 1 / 33 Como fazer um IC para o risco estimado? Vamos assumir que ( X 1, Ỹ1),..., ( X s, Ỹs) são elementos de um conjunto

Leia mais

Aprendizado de Máquinas. Introdução à Aprendizado Não- Supervisionado

Aprendizado de Máquinas. Introdução à Aprendizado Não- Supervisionado Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquinas Introdução à Aprendizado Não- Supervisionado David Menotti, Ph.D. http://web.inf.ufpr.br/menotti Objetivos

Leia mais

Projeções Multi-dimensionais

Projeções Multi-dimensionais Prof. Fernando V. Paulovich http://www.icmc.usp.br/~paulovic paulovic@icmc.usp.br Instituto de Ciências Matemáticas e de Computação (ICMC) Universidade de São Paulo (USP) 23 de setembro de 2010 Introdução

Leia mais

CAL ( ) MIEIC/FEUP Estruturas de Dados ( )

CAL ( ) MIEIC/FEUP Estruturas de Dados ( ) Conjuntos Disjuntos R. Rossetti, A.P. Rocha, A. Pereira, P.B. Silva, T. Fernandes FEUP, MIEIC, CPAL, 2010/2011 1 Conjuntos Disjuntos Objectivo resolver eficientemente o problema da equivalência estrutura

Leia mais

Estatística e Modelos Probabilísticos - COE241

Estatística e Modelos Probabilísticos - COE241 Estatística e Modelos Probabilísticos - COE241 Aula passada Intervalo de confiança Método de Replicações Independentes Aula de hoje Para que serve a inferência estatística? Método dos Momentos Maximum

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal

Leia mais

Dados no R n. Dados em altas dimensões 29/03/2017

Dados no R n. Dados em altas dimensões 29/03/2017 Dados no R n Dados em altas dimensões Alguns dados são apresentados como vetores em R n Alguns dados não são apresentados como vetores mas podem ser representados como vetores (e.g. Texto) Texto Dados

Leia mais

Aproximação da Distribuição Binomial pela Distribuição Normal

Aproximação da Distribuição Binomial pela Distribuição Normal Aproximação da Distribuição Binomial pela Distribuição Normal Uma das utilidades da distribuição normal é que ela pode ser usada para fornecer aproximações para algumas distribuições de probabilidade discretas.

Leia mais

Conjuntos disjuntos. Objectivo resolver eficientemente o problema da equivalência estrutura de dados simples (vector) implementação rápida

Conjuntos disjuntos. Objectivo resolver eficientemente o problema da equivalência estrutura de dados simples (vector) implementação rápida Conjuntos disjuntos Objectivo resolver eficientemente o problema da equivalência estrutura de dados simples (vector) implementação rápida Desempenho análise complicada Uso problemas de grafos equivalência

Leia mais

Inferência para CS Modelos univariados contínuos

Inferência para CS Modelos univariados contínuos Inferência para CS Modelos univariados contínuos Renato Martins Assunção DCC - UFMG 2014 Renato Martins Assunção (DCC - UFMG) Inferência para CS Modelos univariados contínuos 2014 1 / 42 V.A. Contínua

Leia mais

Probabilidades e Estatística - LEIC + LERCI + LEE 2 o semestre 2004/05

Probabilidades e Estatística - LEIC + LERCI + LEE 2 o semestre 2004/05 Departamento de Matemática Secção de Estatística e Aplicações - IST Probabilidades e Estatística - LEIC + LERCI + LEE 2 o semestre 2004/05 3 o Teste 4/6/2005 9h O Teste que vai realizar tem a duração total

Leia mais

Capítulo 3: Elementos de Estatística e Probabilidades aplicados à Hidrologia

Capítulo 3: Elementos de Estatística e Probabilidades aplicados à Hidrologia Departamento de Engenharia Civil Prof. Dr. Doalcey Antunes Ramos Capítulo 3: Elementos de Estatística e Probabilidades aplicados à Hidrologia 3.1 - Objetivos Séries de variáveis hidrológicas como precipitações,

Leia mais

4. O algoritmo LMS e variantes

4. O algoritmo LMS e variantes Apontamentos de Processamento Adaptativo de Sinais 4. O algoritmo LMS e variantes Família de algoritmos do gradiente Na prática usam-se estimativas do gradiente, ˆ (n), em vez do verdadeiro gradiente (n),

Leia mais

- desvio padrão, caracteriza a dispersão dos resultados

- desvio padrão, caracteriza a dispersão dos resultados O resultado da experiência, então, pode ser expresso na forma < x > ± x n (veja a explicação mais adiante) - desvio padrão, caracteriza a dispersão dos resultados Histograma de frequências Histograma

Leia mais

Probabilidade e Estatística

Probabilidade e Estatística Probabilidade e Estatística Aula 7: Intervalos de Confiança com uma amostra Leitura obrigatória: Devore, cap 7 ou Montgomery e Runger, cap 8 Chap 8-1 Objetivos Como inferir sobre um parâmetro da população,

Leia mais

Exercícios de programação

Exercícios de programação Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,

Leia mais

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad Variáveis Aleatórias Contínuas e Distribuição de Probabilidades - parte II 26 de Novembro de 2013 Distribuição Contínua Uniforme Média e Variância Objetivos Ao final deste capítulo você deve ser capaz

Leia mais

Vetor de Variáveis Aleatórias

Vetor de Variáveis Aleatórias Vetor de Variáveis Aleatórias Luis Henrique Assumpção Lolis 25 de junho de 2013 Luis Henrique Assumpção Lolis Vetor de Variáveis Aleatórias 1 Conteúdo 1 Vetor de Variáveis Aleatórias 2 Função de Várias

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

RESTAURAÇÃO E RECONSTRUÇÃO DE IMAGENS. Nielsen Castelo Damasceno

RESTAURAÇÃO E RECONSTRUÇÃO DE IMAGENS. Nielsen Castelo Damasceno RESTAURAÇÃO E RECONSTRUÇÃO DE IMAGENS Nielsen Castelo Damasceno Restauração de imagem Procura recuperar uma imagem corrompida com base em um conhecimento a priori do fenômeno de degradação. Restauração

Leia mais

Contabilometria. Prof.: Patricia Maria Bortolon, D. Sc.

Contabilometria. Prof.: Patricia Maria Bortolon, D. Sc. Contabilometria Prof.: Patricia Maria Bortolon, D. Sc. Intervalos de Confiança Fonte: LEVINE, D. M.; STEPHAN, D. F.; KREHBIEL, T. C.; BERENSON, M. L.; Estatística Teoria e Aplicações, 5a. Edição, Editora

Leia mais

3 Filtro de Kalman Discreto

3 Filtro de Kalman Discreto 3 Filtro de Kalman Discreto As medidas realizadas por sensores estão sujeitas a erros, como pode ser visto no Capítulo 2. Os filtros são aplicados aos sinais medidos pelos sensores para reduzir os erros,

Leia mais

MATRIZ DA PROVA DE EXAME

MATRIZ DA PROVA DE EXAME MATRIZ DA PROVA DE EXAME (AVALIAÇÃO DO REGIME NÃO PRESENCIAL E AVALIAÇÃO DE RECURSO) MATEMÁTICA APLICADA ÀS CIÊNCIAS SOCIAIS - 11º ANO Módulos 4, 5 e 6 Duração da Prova 135 minutos Modalidade: Prova escrita

Leia mais

Funções Discriminantes Lineares

Funções Discriminantes Lineares Funções Discriminantes Lineares Revisão Cap. 2 Classificação Bayesiana: Fdp s conhecidas, w ) P e x w ) ( i p. ( i Cap. 3 Formas das fdp s conhecidas, idem No. de parâmetros. a) Máxima verossimilhança:

Leia mais

PROBABILIDADE E DISTÂNCIAS

PROBABILIDADE E DISTÂNCIAS PROBABILIDADE E DISTÂNCIAS Definições Básicas Variável aleatória 2 Em Estatística, é muito comum ver o termo variável aleatória. Mas qual o seu significado? Existem várias definições para o termo variável

Leia mais

Variáveis Aleatórias Bidimensionais &Teoremas de Limite 1/22

Variáveis Aleatórias Bidimensionais &Teoremas de Limite 1/22 all Variáveis Aleatórias Bidimensionais & Teoremas de Limite Professores Eduardo Zambon e Magnos Martinello UFES Universidade Federal do Espírito Santo DI Departamento de Informática CEUNES Centro Universitário

Leia mais

DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia

DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia ROTEIRO 1. Introdução; DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL. Teorema Central do Limite; 3. Conceitos de estimação pontual; 4. Métodos de estimação pontual; 5. Referências. 1 POPULAÇÃO E AMOSTRA População:

Leia mais

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho...

DCBD. Avaliação de modelos. Métricas para avaliação de desempenho. Avaliação de modelos. Métricas para avaliação de desempenho... DCBD Métricas para avaliação de desempenho Como avaliar o desempenho de um modelo? Métodos para avaliação de desempenho Como obter estimativas confiáveis? Métodos para comparação de modelos Como comparar

Leia mais

Fundamentos de Estatística

Fundamentos de Estatística Fundamentos de Estatística Clássica Workshop Análise de Incertezas e Validação Programa de Verão 2017 Marcio Borges 1 1LABORATÓRIO NACIONAL DE COMPUTAÇÃO CIENTÍFICA mrborges@lncc.br Petrópolis, 9 de Fevereiro

Leia mais

2 o Teste de Aprendizagem Automática

2 o Teste de Aprendizagem Automática 2 o Teste de Aprendizagem Automática 3 páginas de enunciado com 6 perguntas mais 2 folhas de resposta. Duração: 1h 30m DI, FCT/UNL, 21 de Dezembro de 2017 Pergunta 1 [4 valores] Considere um problema de

Leia mais

4 Estado da Arte do Kernel PCA

4 Estado da Arte do Kernel PCA 4 Estado da Arte do Kernel PCA Conforme apresentado no Capítulo 1, o Kernel PCA é uma técnica promissora para auxiliar no processo de ajuste de histórico, devido a sua capacidade de extrair parte da estatística

Leia mais

5- Variáveis aleatórias contínuas

5- Variáveis aleatórias contínuas 5- Variáveis aleatórias contínuas Para variáveis aleatórias contínuas, atribuímos probabilidades a intervalos de valores. Exemplo 5.1 Seja a variável correspondente ao tempo de vida útil de determinado

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

Capítulo 2. Variáveis Aleatórias e Distribuições

Capítulo 2. Variáveis Aleatórias e Distribuições Capítulo 2 Variáveis Aleatórias e Distribuições Experimento Aleatório Não existe uma definição satisfatória de Experimento Aleatório. Os exemplos dados são de fenômenos para os quais modelos probabilísticos

Leia mais

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis:

Modelagem da Rede Neural. Modelagem da Rede Neural. Back Propagation. Modelagem da Rede Neural. Modelagem da Rede Neural. Seleção de Variáveis: Back Propagation Fatores importantes para a modelagem da Rede Neural: Seleção de variáveis; veis; Limpeza dos dados; Representação das variáveis veis de entrada e saída; Normalização; Buscando melhor Generalização

Leia mais

Módulo III: Processos de Poisson, Gaussiano e Wiener

Módulo III: Processos de Poisson, Gaussiano e Wiener Módulo III: Processos de Poisson, Gaussiano e Wiener Wamberto J. L. Queiroz Universidade Federal de Campina Grande-UFCG Departamento de Engenharia Elétrica Processos Estocásticos Campina Grande - PB Módulo

Leia mais

Métodos Computacionais em Física

Métodos Computacionais em Física Métodos Computacionais em Física Tatiana G. Rappoport tgrappoport@if.ufrj.br 2014-1 Integração usando o método da rejeição Queremos calcular a integral Definimos um retângulo de altura H que contenha a

Leia mais

Metodologia Aplicada a Computação.

Metodologia Aplicada a Computação. Metodologia Aplicada a Computação gaudenciothais@gmail.com Pré-processamento de dados Técnicas utilizadas para melhorar a qualidade dos dados; Eliminam ou minimizam os problemas como ruídos, valores incorretos,

Leia mais

Intervalos Estatísticos para uma única Amostra - parte I

Intervalos Estatísticos para uma única Amostra - parte I Intervalos Estatísticos para uma única Amostra - parte I Intervalo de confiança para média 14 de Janeiro Objetivos Ao final deste capítulo você deve ser capaz de: Construir intervalos de confiança para

Leia mais

5- Variáveis aleatórias contínuas

5- Variáveis aleatórias contínuas 5- Variáveis aleatórias contínuas Para variáveis aleatórias contínuas, associamos probabilidades a intervalos de valores da variável. Exemplo 5.1 Seja a variável correspondente ao tempo até a cura de pacientes

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

Estimação da Resposta em Frequência

Estimação da Resposta em Frequência 27 Estimação da Resposta em Frequência ω = ω ω Objectivo: Calcular a magnitude e fase da função de transferência do sistema, para um conjunto grande de frequências. A representação gráfica deste conjunto

Leia mais

24/04/2017. Operações que podem ser aplicadas aos eventos

24/04/2017. Operações que podem ser aplicadas aos eventos Inferência estatística: processo de extrair conclusões de uma população inteira com base na informação de uma amostra A base para a inferência estatística é a teoria da probabilidade Evento: é o resultado

Leia mais

2 Processo de Agrupamentos

2 Processo de Agrupamentos 20 2 Processo de Agrupamentos A análise de agrupamentos pode ser definida como o processo de determinação de k grupos em um conjunto de dados. Para entender o que isso significa, observe-se a Figura. Y

Leia mais

Introdução às Redes Neurais Artificiais

Introdução às Redes Neurais Artificiais Introdução às Redes Neurais Artificiais Clusterização: Conceitos Básicos Prof. João Marcos Meirelles da Silva www.professores.uff.br/jmarcos Departamento de Engenharia de Telecomunicações Escola de Engenharia

Leia mais

4.1. ESPERANÇA x =, x=1

4.1. ESPERANÇA x =, x=1 4.1. ESPERANÇA 139 4.1 Esperança Certamente um dos conceitos mais conhecidos na teoria das probabilidade é a esperança de uma variável aleatória, mas não com esse nome e sim com os nomes de média ou valor

Leia mais