Processamento digital de imagens

Documentos relacionados
Aula 8 - Reconhecimento e Interpretação. Prof. Adilson Gonzaga

CC-226 Aula 05 - Teoria da Decisão Bayesiana

Introdução às Redes Neurais Artificiais

Reconhecimento facial. uma aplicação prática do reconhecimento de padrões

3 Redes Neurais Artificiais

Inteligência Artificial

Visão computacional. Juliana Patrícia Detroz Orientador: André Tavares Silva

Cap. 4 - Probabilidade

Mineração de Dados. Modelos Descritivos. Descoberta de agrupamentos

Agregação de Algoritmos de Aprendizado de Máquina (AM) Professor: Eduardo R. Hruschka Estagiário PAE: Luiz F. S. Coletta

Estatística Aplicada. Árvore de Decisão. Prof. Carlos Alberto Stechhahn PARTE II. Administração. p(a/b) = n(a B)/ n(b)

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Introdução aos Proc. Estocásticos - ENG 430

Vetor de Variáveis Aleatórias

Aprendizado Bayesiano

DEPARTAMENTO DE ESTATÍSTICA PLANO DE ENSINO FICHA N.º 1

Anexo 1 - Revisões de Teoria das Probabilidades e Processos Estocásticos

Distribuições de Probabilidade Contínuas 1/19

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Paradigmas de Aprendizagem

Máquinas de suporte vetorial e sua aplicação na detecção de spam

Protótipo de Software para Reconhecimento de Impressões Digitais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Aprendizado de Máquina

Teoria das Probabilidades

Análise de Imagens. Aula 20: Sistemas com Múltiplos Classificadores. Prof. Alexandre Xavier Falcão.

Classificação e Predição de Dados - Profits Consulting - Consultoria Empresarial - Serviços SAP- CRM Si

Modelos Lineares Distribuições de Probabilidades Distribuição Normal Teorema Central do Limite. Professora Ariane Ferreira

AUTOMATED ASSESSMENT OF BREAST TISSUE DENSITY IN DIGITAL MAMMOGRAMS

CE Estatística I

Códigos convolucionais

INTELIGÊNCIA COMPUTACIONAL EM AMBIENTES DE PROCESSAMENTO PARALELO. Lamartine N. F. Guimarães.

M08. Introdução a Técnicas de Data Mining DM

Conceitos básicos, probabilidade, distribuição normal e uso de tabelas padronizadas

CLASSIFICADORES BAEYSIANOS

Funções Geradoras de Variáveis Aleatórias. Simulação Discreta de Sistemas - Prof. Paulo Freitas - UFSC/CTC/INE

Métodos Estatísticos Básicos

1 Distribuição Uniforme

PARTE TEÓRICA Perguntas de escolha múltipla

Resumo. Parte 2 Introdução à Teoria da Probabilidade. Ramiro Brito Willmersdorf Introdução.

VISÃO COMPUTACIONAL. Marcelo Henrique dos Santos

Probabilidade II. Departamento de Estatística. Universidade Federal da Paraíba

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Aprendizado Bayesiano Anteriormente...

VARIÁVEIS ALEATÓRIAS

3 NOÇÕES DE PROBABILIDADE

Inteligência Artificial. IA Conexionista: Perceptron de Múltiplas Camadas Mapas Auto-Organizáveis. Renan Rosado de Almeida

Introdução a Sistemas Inteligentes

Variáveis Aleatórias. Prof. Tarciana Liberal Departamento de Estatística - UFPB

Matriz Curricular Curso de Licenciatura em Computação Habilitação: Licenciatura em Computação

2 Teoria da Informação

Processamento de Imagem. Filtragem no Domínio Espacial Professora Sheila Cáceres

Matriz de Referência da área de Matemática Ensino Médio

Códigos de bloco. Instituto Federal de Santa Catarina Curso superior de tecnologia em sistemas de telecomunicação Comunicações móveis 2

Métodos Quantitativos para Ciência da Computação Experimental. Jussara Almeida DCC-UFMG 2013

Probabilidade Condicional e Independência

Teoria dos Grafos. Valeriano A. de Oliveira Socorro Rangel Departamento de Matemática Aplicada.

Experiências Aleatórias. Espaço de Resultados. Acontecimentos

Teoria de Filas Aula 10

TÉCNICAS DE AMOSTRAGEM

Capítulo 6 Extração de Características e Reconhecimento de Padrões e Objetos. Computação Gráfica - Vol. 2 - Cap. 6

MEEMF-2010 Aula 01. Noções de inferência estatística: Diferença entre máxima verossimilhança e abordagem bayesiana

Introdução à probabilidade e estatística I

Variáveis Aleatórias. Prof. Tarciana Liberal Departamento de Estatística - UFPB

Eduardo Camponogara. DAS-9003: Introdução a Algoritmos

Um modelo estocástico para o fluxo de caixa de um plano de previdência de um indivíduo 15

INTRODUÇÃO À PROBABILIDADE

Modelos básicos de distribuição de probabilidade

FILTROS ESPACIAIS PASSA-BAIXA

Nome: N o : Espaço reservado a classificações

Lista de Exercícios 4

Objetivos. Frequência Relativa X Probabilidade. Probabilidade. 1. Definições: Experimento Espaço Amostral Evento Probabilidade

Mistura de modelos. Marcelo K. Albertini. 31 de Julho de 2014

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

Estatística Básica. Probabilidade. Renato Dourado Maia. Instituto de Ciências Agrárias. Universidade Federal de Minas Gerais

Fernando Nogueira Simulação 1

Probabilidade. Experiências aleatórias

Método dos Mínimos Quadrados

MODELO DE DECISÃO PARA ESCOLHA DE PORTFOLIO DE INVESTIMENTOS

3 INTERVALOS DE CONFIANÇA

Processos estocásticos

Diagnóstico Médico de Imagem Auxiliado por Computador

Processamento digital de imagens

Variáveis Aleatórias. Prof. Luiz Medeiros Departamento de Estatística - UFPB

V - Reconhecimento de Padrões

Variáveis Aleatórias Contínuas e Distribuição de Probabilidad

Introdução ao Reconhecimento de Padrões e aplicações em problemas de Bioinformática

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios

Introdução às Redes Neurais Artificiais

Chamamos de evento qualquer subconjunto do espaço amostral: A é um evento A Ω.

Método dos Mínimos Quadrados

RECONHECIMENTO DE PADRÕES(MIM) Faculdade de Ciências da Universidade do Porto Hugo Pedro Proença (DI-UBI), 10/04/2010

1. Avaliação de impacto de programas sociais: por que, para que e quando fazer? (Cap. 1 do livro) 2. Estatística e Planilhas Eletrônicas 3.

NEANDERWIN. Algumas características do processador Neander são:

5COP096 TeoriadaComputação

1.4.2 Probabilidade condicional

Processamento digital de imagens

PROBABILIDADE E ESTATÍSTICA. Aula 2 Professor Regina Meyer Branski

FAMÍLIA EXPONENCIAL DE DISTRIBUIÇÕES

Transcrição:

Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016

Reconhecimento de objetos Padrão: arranjo de descritores. Característica descritor. Classe de padrões: família de padrões que compartilham características comuns. Classes de padrões são indicadas como ω 1, ω 2, ω 3,, ω W, onde W é o número de classes. Formas mais comuns de representação de padrões: vetores, strings e árvores. Formas mais comuns de classificação de padrões: estatísticas e por aprendizado de máquina.

Reconhecimento de objetos Vetores x = [x 1, x 2,, x n] T Ex: discriminação de flores pelas dimensões de suas pétalas: x = [x 1, x 2 ] T. 3 2.5 Iris setosa Iris virginica Iris versicolor 2 Largura da pétala 1.5 1 0.5 0-0.5 1 2 3 4 5 6 7 Comprimento da pétala

Reconhecimento de objetos Classificador de distância mínima. Verificar a distância de um padrão para cada classe com base numa função de decisão. Se d i (x) > d j (x) quadj = 1, 2,, W ; i j, diz-se que o padrão x pertence à classe i. A média dos valores dos padrões da classe é dada por m j = 1 N j A distância para a classe j é dada por x ω j x j d j (x) = x m j = x T m j 1 2 mt j m j

Reconhecimento de objetos Classificadores estatísticos ótimos A probabilidade de um padrão x vir da classe ω i é denotada por p(ω i /x). Se o classificador decide padrão x pertence à classe ω j quando, na verdade, ela pertence à classe ω i, ocorre um erro, denotado por L ij O risco condicional médio de atribuir um padrão à classe ω j (para W classes) é dado por W r j (x) = L kj p(ω k /x) Como p(a/b) = p(a)p(b/a)/p(b), k=1 r j (x) = 1 p(x) W L kj p(x/ω k ) p(x/ω k ) é a função densidade de probabilidade da classe ω k. P(ω k ) é a probabilidade de ocorrência de um indivíduo da classe ω k. Como 1/p(x) é comum a todos os valores de r j (x), pode ser retirado da equação sem afetar a ordem de valores. W r j (x) = L kj p(x/ω k ) k=1 k=1

Reconhecimento de padrões O classificador que minimiza a perda total média é chamado classificador de Bayes. Ao fator de perda pode ser dado, por exemplo, o valor ZERO, para uma decisão correta, e UM para uma decisão incorreta. A função de risco torna-se, portanto r j (x) = p(x) p(x/ω j )P(ω j ) O classificador de Bayes atribui o padrão x à classe ω i se, para todo j i, p(x) p(x/ω i )P(ω i ) < p(x) p(x/ω j )P(ω j ) p(x/ω i )P(ω i ) > p(x/ω j )P(ω j ) Logo, as funções de decisão podem ser definidas como d j (x) = p(x/ω j )P(ω j ) j = 1, 2,, W Se as classes possuem chances iguais de ocorrer d j (x) = p(x/ω j ) j = 1, 2,, W

Reconhecimento de padrões Classificadores bayesianos para classes com distribuição gaussiana. Ex: caso unidimensional p(x/ω j ) = 1 x m j 2 2σ e j 2 P(ω j ) 2πσj Caso n-dimensional onde p(x/ω j ) = m j = 1 N j 1 (2π) n/2 C j 1/2 e 1 2 (x m j ) x ω j x T C 1 (x m j j ) C x = 1 (xx T ) m j m T j N j x ω j A forma exponencial pode ser reduzida por logaritmo d j (x) = ln[p(x/ω j )P(ω j )] = ln p(x/ω j ) + ln P(ω j ) Assim, a função de decisão torna-se d j (x) = ln P(ω j ) 1 2 ln C j 1 2 [(x m j) T C 1 j (x m j )]

Reconhecimento de padrões Exemplo de classificador Valores das médias m 1 = 1 4 [ 3 1 1 ]T m 2 = 1 4 [ 1 3 3 ]T Matrizes de covariância C 1 = C 2 = 1 16 Funções de decisão d 1 (x) = 4x 1 1.5 3 1 1 1 3 1 1 1 3 d 2 (x) = 4x 1 + 8x 2 + 8x 3 5.5

Reconhecimento de padrões Classificação de padrões por aprendizado de máquina. Tipos de métodos: Não-supervisionado Supervisionado

Reconhecimento de padrões Aprendizado não-supervisionado - procedimento genérico 1 Seja H u um conjunto de amostras não-rotuladas. 2 Rotule H u em H t (amostras rotuladas) usando um critério qualquer. 3 Projete um classificador com base nessa partição. 4 Aplique o classificador em H u. Se a classificação for consistente com H t, finalize o aprendizado. 5 Caso contrário, atualize H t e repita o projeto do classificador conforme passo 3.

Reconhecimento de padrões Exemplo: algoritmo k-means 1 Escolha o número de classes para vetores x i de N características, i = 1, 2,, N amostras. 2 Escolha m 1, m 2,, m k como aproximações iniciais para os centros das classes. 3 Classifique cada amostra x i usando, por exemplo, um classificador de distância mínima. 4 Recalcule as médias m j usando o resultado de 3. 5 Se as novas médias são consistentes, finalize o algoritmo. Caso contrário, repita o passo 3 com as novas médias obtidas.

Reconhecimento de padrões Algoritmo knn: k vizinhos mais próximos 1 O padrão pertencerá à classe que tiver, dentre k vizinhos mais próximos desse padrão, a maior quantidade de representantes.

Reconhecimento de Padrões Neurônio artificial x 1 w 1 Polarização b Entradas Função de Ativação x 2 w 2 Σ f Output y x 3 w 3 Pesos Função de ativação sigmóide: f (x) = 1 1 + e βx

Aprendizado supervisionado Redes de perceptrons de múltiplas camadas Input layer Hidden layer Output layer x 1 x 2 Saída x 3 x 4