Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Tamanho: px
Começar a partir da página:

Download "Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais"

Transcrição

1 Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal da Bahia ENGA83 - Semestre Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

2 Conteúdo 1 Introdução Decisão Binária Curva ROC Múltiplas Hipóteses 2 Decisão binária baseada em uma única observação Critério do Máximo a Posteriori (MAP) Critério de Bayes Critério Minmax Teste de Neyman-Pearson Análise de Discriminantes Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

3 Introdução A detecção (ou classificação) de sinais consiste em identificar a partir de observações (ou medições) sujeitas a variações aleatórias o tipo (ou classe) de sinal que foi originalmente enviado: Sensor Sinal medido Extração/seleção de Características Padrão de características Classificador Decisão No projeto de um sistema de detecção dois parâmetros são muito importantes: - Eficiência de discriminação (maximizar acertos e minimizar erros); - Tempo de execução da cadeia de processamento de sinais. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

4 Introdução - Decisão Binária Considerando-se a discriminação entre duas hipóteses (decisão binária) H 1 e H 0, o problema de classificação pode ser resumido através do diagrama: Fonte H1 H0 Mecanismo de transição probabilística H0 Espaço de observação H1 Em geral H 1 é associada à classe de interesse: - transmissão de um bit 1 num sistema de comunicação; - presença de um alvo num sinal de sonar; Decisão Regra de decisão - presença do usuário autorizado num problema de identificação do locutor; - existência de uma assinatura de interesse num detector de partículas. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

5 Introdução - Decisão Binária Considerando-se a discriminação entre duas hipóteses (decisão binária) H 1 e H 0, o problema de classificação pode ser resumido através do diagrama: Fonte H1 H0 Mecanismo de transição probabilística H0 Espaço de observação H1 Em geral H 1 é associada à classe de interesse: - transmissão de um bit 1 num sistema de comunicação; - presença de um alvo num sinal de sonar; Decisão Regra de decisão - presença do usuário autorizado num problema de identificação do locutor; - existência de uma assinatura de interesse num detector de partículas. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

6 Exemplo - Sistema de Radar Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

7 Introdução - Decisão Binária A decisão é tomada a partir de uma ou mais observações. As observações são variáveis aleatórias que correspondem a uma das hipóteses do problema. No caso da decisão binária, cada vez que uma observação é efetuada 4 situações podem ocorrer: 1: decidir pela hipótese H 1, sendo H 1 verdadeira (detecção); 2: decidir pela hipótese H 0, sendo H 1 verdadeira (falso negativo); 3: decidir pela hipótese H 1, sendo H 0 verdadeira (falso positivo ou falso alarme); 4: decidir pela hipótese H 0, sendo H 0 verdadeira (acerto). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

8 Introdução - Decisão Binária A decisão é tomada a partir de uma ou mais observações. As observações são variáveis aleatórias que correspondem a uma das hipóteses do problema. No caso da decisão binária, cada vez que uma observação é efetuada 4 situações podem ocorrer: 1: decidir pela hipótese H 1, sendo H 1 verdadeira (detecção); 2: decidir pela hipótese H 0, sendo H 1 verdadeira (falso negativo); 3: decidir pela hipótese H 1, sendo H 0 verdadeira (falso positivo ou falso alarme); 4: decidir pela hipótese H 0, sendo H 0 verdadeira (acerto). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

9 Introdução - Decisão Binária Os resultados obtidos por um discriminador, em geral, são expressos resumidamente em termos dos parâmetros: - Probabilidade de Detecção: P D = P(H 1 H 1 ); - Probabilidade de Falso Alarme: P F = P(H 1 H 0 ). Uma vez que: - P(H 0 H 1 ) = 1 P D ; - P(H 0 H 0 ) = 1 P F. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

10 Introdução - Decisão Binária Considerando que a decisão é baseada na observação da variável aleatória L: Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

11 Introdução - Curva ROC A curva ROC (Receiver Operating Characteristic) mostra como as probabilidades de detecção e falso alarme (respectivamente P D e P F ) variam com o patamar de decisão. A eficiência de um classificador pode ser estimada a partir da área sob a curva ROC. Quanto maior a área, mais eficiente é o discriminador. Exemplo: Considerando as distribuições das observações de dois classificadores para duas classes distintas: Classe 1 Classe Classe 1 Classe 2 Contagem Contagem Saida do Classificador Saida do Classificador Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

12 Introdução - Curva ROC 1 PD (6,1%,; 90,5%) SPmax=0,85 Y= 0,19 (2,6%,; 95,3%) SPmax=0,93 Y= 0,11 Exemplo 2 Exemplo PF Para a escolha do patamar de decisão ótimo pode-se utilizar uma medida das eficiências de discriminação como o índice Soma-Produto (SP): Efe + Ef j SP = Ef e Ef j 2 onde Ef e = PD e Ef j = 1 PF Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

13 Introdução - Decisão entre Múltiplas Hipóteses Num caso mais geral podem existir M hipóteses a serem identificadas. Trata-se de um problema de decisão M-ária. O problema pode ser tratado através de: - um conjunto de M problemas de detecção binária entre H I e H j, j = 1,..., I 1, I + 1,..., M. - discriminadores apropriados para problemas de múltiplas hipóteses. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

14 Decisão binária baseada em uma única observação Considerando que cada uma das hipóteses é associada a uma saída que é mapeada numa região do espaço de observação de dimensão N, um ponto neste espaço pode ser representado pelo vetor: r = [r 1, r 2,..., r N ] O mecanismo de transição probabiĺıstica gera pontos de acordo com as densidades de probabilidade condicionais P r/h0 (R/H 0 ) e P r/h1 (R/H 1 ). Quando essas probabilidades são conhecidas (ou podem ser estimadas), o projeto do sistema classificador pode ser simplificado. Os critérios de máximo a posteriori, Bayes, Minimax e Neyman-Pearson são procedimentos clássicos utilizados para a escolha da regra de decisão quando as probabilidades condicionais são conhecidas. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

15 Decisão binária baseada em uma única observação Considerando o diagrama a seguir: percebe-se que: - P D = P r/h1 (R/H 1 )dr e P F = P r/h0 (R/H 0 )dr. Z 1 Z 1 Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

16 Critério do Máximo a Posteriori (MAP) Uma regra de decisão usualmente produz o particionamento do espaço de observação em duas regiões Z 1 e Z 0 para as quais são associados as hipóteses H 1 e H 0 a depender da observação de r. A probabilidade condicional P r/hi (R/H i ) é chamada de probabilidade a posteriori, pois são estimadas após a observação de r. O critério do máximo a posteriori (MAP) utiliza a regra de Bayes para definir a regra de decisão a seguir: f r/h1 (R/H 1 ) f r/h0 (R/H 0 ) H 1 H 0 P 0 P 1 Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

17 Critério do Máximo a Posteriori (MAP) A expressão: L(R) = f r/h 1 (R/H 1 ) f r/h0 (R/H 0 ) é chamada razão de semelhança. E a fração: λ = P 0 P 1 é o valor limiar (ou patamar) do teste. Assim, a equação se reduz a: L(R) H 1 H 0 λ Se a razão de semelhança é maior que o patamar decide-se por H 1, caso contrário escolhe-se H 0. No limite quando L(R) = λ pode-se decidir tanto por H 1 como por H 0 (escolha do projetista). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

18 Critério MAP - Exemplo Num sistema de comunicação binária o sinal recebido é: R = X + N, onde X=0, 1 e N ruído gaussiano de média zero e variância 1/9. Sabe-se ainda que P 0 = 3/4 e P 1 = 1/4. Estime a regra de decisão MAP. Resposta: 9 ( 9r 2 ) É facil chegar a: f r/h0 (R/H 0 ) = 2π exp e 2 9 ( 9(r 1) 2 ) f r/h1 (R/H 1 ) = 2π exp. 2 Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

19 Critério MAP - Exemplo Num sistema de comunicação binária o sinal recebido é: R = X + N, onde X=0, 1 e N ruído gaussiano de média zero e variância 1/9. Sabe-se ainda que P 0 = 3/4 e P 1 = 1/4. Estime a regra de decisão MAP. Resposta: 9 ( 9r 2 ) É facil chegar a: f r/h0 (R/H 0 ) = 2π exp e 2 9 ( 9(r 1) 2 ) f r/h1 (R/H 1 ) = 2π exp. 2 A regra de decisão é: f r/h 1 (R/H 1 ) P [ f r/h0 (R/H 0 ) H ] H 0 exp P 1 2 (2r 1) H 1 H 0 3. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

20 Critério MAP - Exemplo Num sistema de comunicação binária o sinal recebido é: R = X + N, onde X=0, 1 e N ruído gaussiano de média zero e variância 1/9. Sabe-se ainda que P 0 = 3/4 e P 1 = 1/4. Estime a regra de decisão MAP. Resposta: 9 ( 9r 2 ) É facil chegar a: f r/h0 (R/H 0 ) = 2π exp e 2 9 ( 9(r 1) 2 ) f r/h1 (R/H 1 ) = 2π exp. 2 A regra de decisão é: f r/h 1 (R/H 1 ) P [ f r/h0 (R/H 0 ) H ] H 0 exp P 1 2 (2r 1) H 1 H 0 3. Aplicando-se log em ambos os lados: r H 1 1 H ln(3) 0, Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

21 Critério MAP - Exemplo Num sistema de comunicação binária o sinal recebido é: R = X + N, onde X=0, 1 e N ruído gaussiano de média zero e variância 1/9. Sabe-se ainda que P 0 = 3/4 e P 1 = 1/4. Estime a regra de decisão MAP. Resposta: 9 ( 9r 2 ) É facil chegar a: f r/h0 (R/H 0 ) = 2π exp e 2 9 ( 9(r 1) 2 ) f r/h1 (R/H 1 ) = 2π exp. 2 A regra de decisão é: f r/h 1 (R/H 1 ) P [ f r/h0 (R/H 0 ) H ] H 0 exp P 1 2 (2r 1) H 1 H 0 3. Aplicando-se log em ambos os lados: r H 1 1 H ln(3) 0, Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

22 Critério de Bayes O critério de Bayes necessita do conhecimento: - das probabilidades a priori P 1 e P 0 da fonte produzir H 1 ou H 0 ; - das distribuições de probabilidade condicionais f r/h0 (R/H 0 ) e f r/h1 (R/H 1 ); - dos custos C ij associados à escolha da hipótese i sendo j a verdadeira. O risco é então definido como: R = C 00 P 0 f r/h0 (R/H 0 )dr + C 10 P 0 f r/h0 (R/H 0 )dr Z 0 Z 1 +C 11 P 1 f r/h1 (R/H 1 )dr + C 01 P 1 f r/h1 (R/H 1 )dr Z 1 Z 0 onde os elementos do espaço de observação que pertencem às partições Z 0 e Z 1 são associados, respectivamente, a H 0 e H 1. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

23 Critério de Bayes O critério de Bayes necessita do conhecimento: - das probabilidades a priori P 1 e P 0 da fonte produzir H 1 ou H 0 ; - das distribuições de probabilidade condicionais f r/h0 (R/H 0 ) e f r/h1 (R/H 1 ); - dos custos C ij associados à escolha da hipótese i sendo j a verdadeira. O risco é então definido como: R = C 00 P 0 f r/h0 (R/H 0 )dr + C 10 P 0 f r/h0 (R/H 0 )dr Z 0 Z 1 +C 11 P 1 f r/h1 (R/H 1 )dr + C 01 P 1 f r/h1 (R/H 1 )dr Z 1 Z 0 onde os elementos do espaço de observação que pertencem às partições Z 0 e Z 1 são associados, respectivamente, a H 0 e H 1. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

24 Critério de Bayes Minimizando o risco R da equação anterior chega-se a: f r/h1 (R/H 1 ) P f r/h0 (R/H 0 ) H 1 0 (C 10 C 00 ) H 0 P 1 (C 01 C 11 ) Que tende ao critério MAP quando: C 10 = C 01 = 1 e C 11 = C 00 = 0. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

25 Critério de Bayes - Exemplo Repetindo o exemplo anterior, para C 10 = 0, 5, C 01 = 0, 9 e C 11 = C 00 = 0, encontre o critério de decisão de Bayes. Resposta: A regra de decisão é: f r/h1 (R/H 1 ) P f r/h0 (R/H 0 ) H 1 0 (C 10 C 00 ) [ 9 ] H 0 P 1 (C 01 C 11 ) exp 2 (2r 1) H 1 H 0 3 0, 5 0, 9. Aplicando-se log em ambos os lados: r H 1 1 H ln(1, 667) 0, Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

26 Critério de Bayes - Exemplo Repetindo o exemplo anterior, para C 10 = 0, 5, C 01 = 0, 9 e C 11 = C 00 = 0, encontre o critério de decisão de Bayes. Resposta: A regra de decisão é: f r/h1 (R/H 1 ) P f r/h0 (R/H 0 ) H 1 0 (C 10 C 00 ) [ 9 ] H 0 P 1 (C 01 C 11 ) exp 2 (2r 1) H 1 H 0 3 0, 5 0, 9. Aplicando-se log em ambos os lados: r H 1 1 H ln(1, 667) 0, Percebe-se que ao considerar que o risco é maior ao classificar H 1 como sendo H 0 o patamar foi reduzido, diminuindo a probabilidade de ocorrência deste erro. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

27 Critério de Bayes - Exemplo Repetindo o exemplo anterior, para C 10 = 0, 5, C 01 = 0, 9 e C 11 = C 00 = 0, encontre o critério de decisão de Bayes. Resposta: A regra de decisão é: f r/h1 (R/H 1 ) P f r/h0 (R/H 0 ) H 1 0 (C 10 C 00 ) [ 9 ] H 0 P 1 (C 01 C 11 ) exp 2 (2r 1) H 1 H 0 3 0, 5 0, 9. Aplicando-se log em ambos os lados: r H 1 1 H ln(1, 667) 0, Percebe-se que ao considerar que o risco é maior ao classificar H 1 como sendo H 0 o patamar foi reduzido, diminuindo a probabilidade de ocorrência deste erro. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

28 Critério Minmax Quando os custos são conhecidos mas as probabilidades a priori não estão disponíveis, pode-se adotar o critério minmax. Considerando que C 00 = C 11 = 0, então escolhe-se o patamar de decisão (λ) de modo que: C 01 P M = C 10 P F onde: - P F = f r/h0 (R/H 0 )dr é a probabilidade de falso-alarme e Z 1 - P M = f r/h1 (R/H 1 )dr = 1 P D é a probabilidade de erro de Z 0 detecção da hipótese de interesse (H 1 ). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

29 Teste de Neyman-Pearson O teste de Neyman-Pearson é utilizado quando não se tem informações sobre os custos ou as probabilidades a priori. Escolhe-se um valor limite para a probabilidade de falso-alarme e procura-se minimizar a probabilidade de perda do alvo para o valor escolhido. Como o critério utiliza P F e P M é preciso conhecer as probabilidades condicionais P r/h0 (R/H 0 ) e P r/h1 (R/H 1 ). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

30 Análise de Discriminantes Embora muito utilizadas, por sua formulação matemática relativamente simples e bom desempenho em diversas aplicações, as técnicas mostradas até aqui necessitam de conhecimento prévio a respeito: - das distribuições de probabilidade; - dos custos. Em muitos casos práticos essas informações não estão disponíveis, sendo necessário a utilização de outros métodos de classificação. Uma opção neste contexto é utilizar a análise de discriminantes. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

31 Análise de Discriminantes Os métodos de classificação baseados na regra de Bayes particionam o espaço de observações em regiões associadas a cada hipótese. A análise de discriminantes, de modo análogo, busca as superfícies que particionam o espaço de observações de modo ótimo nas regiões que são associadas a cada hipótese. Uma função discriminante linear pode ser dada por: y(x) = w T x + ω 0 sendo w o vetor de pesos e ω 0 a tendência (ou bias). Um vetor de entrada x é associado à hipótese H 1 caso y(x) 0 e à H 0 caso contrário. A fronteira de decisão é definida por y(x) = 0. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

32 Função Discriminante w é ortogonal à superfície de separação. A distância entre a superfície de separação e a ω 0 origem é dada por: w. A distância entre um ponto x e a superfície de y(x) separação é: w. Como estimar a superfície de separação ótima a partir dos dados disponíveis? Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

33 Função Discriminante w é ortogonal à superfície de separação. A distância entre a superfície de separação e a ω 0 origem é dada por: w. A distância entre um ponto x e a superfície de y(x) separação é: w. Como estimar a superfície de separação ótima a partir dos dados disponíveis? Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

34 Função Discriminante A análise de discriminantes busca a direção w onde as projeções y(x) dos sinais de entrada x sejam maximamente separáveis. z 2 z 1 z 1 z 2 Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

35 Discriminante Linear de Fisher A análise por discriminante de Fisher (FDA - Fisher Discriminant Analysis) busca a direção ótima de discriminação utilizando 2 parâmetros, a distância inter-classes, e a distância intra-classes. Numa formulação matricial o objetivo é encontrar a direção w 0 que maximiza a expressão: J(w) = wt S B w w T S w w onde S B = (µ 1 µ 2 )(µ 1 µ 2 ) T é a matriz de separação inter-classes e S w = S 1 + S 2 é a matriz de separação intra-classes, sendo: S i = x D (x µ i )(x µ i ) T Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

36 Discriminante Linear de Fisher Pode-se provar que a direção ótima que maximiza a expressão anterior é dada por: w = S w 1 (m 1 m 2 ) O discriminante de Fisher é capaz de encontrar a transformação linear ótima dos sinais de entrada, de modo que os sinais projetados y = w T x tenham máxima separação: Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

37 Discriminante de Fisher - Exemplo Pode-se realizar a análise por discriminante de Fisher de modo anaĺıtico usando as equações definidas anteriormente. Limitações podem surgir quando a dimensão de x cresce, pois o cálculo de S w 1 pode pode se tornar custoso computacionalmente. Uma opção é realizar o cálculo estimado de modo iterativo a partir de um perceptron (modelo básico de rede neural artificial). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

38 Perceptron Outro exemplo de discriminante linear pode ser obtido através do perceptron. O modelo do perceptron foi proposto por Rosenblat em 1962 e foi inspirado no funcionamento de um neurônio biológico: x 1 x x 0 =1 b= 0 u ( ) y y(x) = ϕ(w T x) x m m sendo w = [ω 0, ω 1,..., ω m ] o vetor de pesos sinápticos e ϕ a função de ativação (normalmente é utilizada a função degrau: ϕ(a) = 1 para a 0 e 1 para a < 0). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

39 Perceptron Pecebe-se que a expressão da saída do perceptron pode ser vista como uma função discriminante. A principal diferença é que aqui a superfície de separação é estimada iterativamente, (ou seja, à medida que os dados são apresentados). Uma aspecto interessante é que o aprendizado iterativo permite realizar ajustes no sistema de classicação caso ocorram mudanças na estatística do problema. Podem aparecer limitações quanto à convergência do algoritmo de treinamento (longo tempo para convergência ou até mesmo não-convergência). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

40 Algoritmo do Perceptron Para o processo de treinamento, o propósito é minimizar o erro quadrático médio da classificação (sendo então baseado no algoritmo LMS - Least Mean Square). Deste modo pode-se chegar à regra de aprendizado do perceptron: sendo: w(n + 1) = w(n) + ηx(n)e(n) - e(n) = d(n) w T (n)x(n) o erro em relação à saída desejada d(n); - η a taxa de aprendizado. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

41 Perceptron - curvas de erro Típicas curvas de erro no treinamento de um perceptron: Espera-se que com o decorrer do treinamento o erro diminua até chegar ao seu mínimo. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

42 Perceptron - escolha da taxa de aprendizado A escolha adequada da taxa de aprendizado reflete nas características das curvas de erro: - Um alto valor de η leva à proximidade do valor mínimo mais rapidamente, porém produz uma curva de erro oscilante no final do treinamento. - Um baixo valor de eta produz um treinamento de convergência mais lenta, porém suave (sem oscilações). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

43 Exercícios de Fixação Os exercícios listados abaixo do livro: Random Signals: Detection Estimation and Data Analysis de Shanmugan e Breipohl devem ser resolvidos e entregues no dia 19/04. Neste dia, alunos serão sorteados para resolverem alguns destes exercícios para a turma. 01 Exercícios de Fixação (Cap. 06, a partir da página 370): 6.1, 6.2, 6.3, 6.4, 6.5, 6.6, Gere pontos aleatórios no plano x 1 x 2 segundo as hipóteses a seguir ( pontos para cada hipótese): - Considerando que aconteceu H 1 x é descrito por uma distribuição gaussiana bivariada com µ X = [1, 0; 2, 0] e σ X = [0, 2; 0, 3]. - Considerando que aconteceu H 0 x é descrito por uma distribuição gaussiana bivariada com µ X = [2, 0; 3, 0] e σ X = [0, 2; 0, 3]. Encontre a curva discriminante ótima e o patamar de decisão pelo critério de Fisher e através da regra do perceptron. Compare as probabilidades de detecção e falso alarme para os dois casos. 03 Repita a questão 02 considerando pontos para a hipótese H 1. Compare e comente os resultados. 04 Repita a questão 02 considerando que agora σ X H0 = [0, 5; 0, 5]. Compare e comente os resultados. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 05 / Detecção Binária Baseada em

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 05 / Detecção Binária Baseada em Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 05 / Detecção Binária Baseada em Múltiplas Observações e Detecção com Múltiplas Hipóteses Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 01 / Introdução

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 01 / Introdução Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 1 / Introdução Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal da

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 01 / Introdução

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 01 / Introdução Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 1 / Introdução Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal da

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento

Leia mais

Processamento digital de imagens

Processamento digital de imagens Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo

Leia mais

CC-226 Aula 05 - Teoria da Decisão Bayesiana

CC-226 Aula 05 - Teoria da Decisão Bayesiana CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Rede Perceptron. Capítulo 3

Rede Perceptron. Capítulo 3 Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta

Leia mais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a

Leia mais

Reconhecimento de Padrões. Reconhecimento de Padrões

Reconhecimento de Padrões. Reconhecimento de Padrões Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso e Prof.

Leia mais

Comunicaçõ. ções Digitais II. Texto original por Prof. Dr. Ivan Roberto Santana Casella

Comunicaçõ. ções Digitais II. Texto original por Prof. Dr. Ivan Roberto Santana Casella PTC-43 Comunicaçõ ções Digitais II Texto original por Prof. Dr. Ivan Roberto Santana Casella Representaçã ção o Geométrica de Sinais A modulação digital envolve a escolha de um sinal específico s i (t)

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

Vetor de Variáveis Aleatórias

Vetor de Variáveis Aleatórias Vetor de Variáveis Aleatórias Luis Henrique Assumpção Lolis 25 de junho de 2013 Luis Henrique Assumpção Lolis Vetor de Variáveis Aleatórias 1 Conteúdo 1 Vetor de Variáveis Aleatórias 2 Função de Várias

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado

Leia mais

Funções Discriminantes Lineares

Funções Discriminantes Lineares Funções Discriminantes Lineares Revisão Cap. 2 Classificação Bayesiana: Fdp s conhecidas, w ) P e x w ) ( i p. ( i Cap. 3 Formas das fdp s conhecidas, idem No. de parâmetros. a) Máxima verossimilhança:

Leia mais

MÉTODOS ESTATÍSTICOS PARA ANÁLISE DE DADOS

MÉTODOS ESTATÍSTICOS PARA ANÁLISE DE DADOS MÉTODOS ESTATÍSTICOS PARA ANÁLISE DE DADOS LEANDRO DE PAULA UFRJ Escola de Inverno do IFGW A Física de Partículas do Novo Século julho de 2014 PROGRAMA DO CURSO Introdução à Probabilidade e Estatística

Leia mais

Aprendizado de Máquina (Machine Learning)

Aprendizado de Máquina (Machine Learning) Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em

Leia mais

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto

Redes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com

Leia mais

3 Redes Neurais Artificiais

3 Redes Neurais Artificiais 3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida

Leia mais

7 Conclusões e desenvolvimentos futuros

7 Conclusões e desenvolvimentos futuros 7 Conclusões e desenvolvimentos futuros 7.1 Conclusões Este trabalho apresentou novas soluções para a determinação da posição de terminais de comunicações móveis com base em medidas de ToA. Nos métodos

Leia mais

3 REDES CLÁSSICAS PERCEPTRON E ADALINE

3 REDES CLÁSSICAS PERCEPTRON E ADALINE w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

Primeiras Redes Neurais Artificiais: Perceptron e Adaline

Primeiras Redes Neurais Artificiais: Perceptron e Adaline Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor

Leia mais

CC-226 Aula 07 - Estimação de Parâmetros

CC-226 Aula 07 - Estimação de Parâmetros CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições

Leia mais

SCC Capítulo 4 Perceptron de Camada Única

SCC Capítulo 4 Perceptron de Camada Única Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron

Leia mais

Estudo sobre decodificação iterativa usando códigos de treliça

Estudo sobre decodificação iterativa usando códigos de treliça Revista de Engenharia e Pesquisa Aplicada, Volume 2, Número 1, 2016 Estudo sobre decodificação iterativa usando códigos de treliça Souza, I. M. M. Escola Politécnica de Pernambuco Universidade de Pernambuco

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas

Leia mais

3 Filtro de Kalman Discreto

3 Filtro de Kalman Discreto 3 Filtro de Kalman Discreto As medidas realizadas por sensores estão sujeitas a erros, como pode ser visto no Capítulo 2. Os filtros são aplicados aos sinais medidos pelos sensores para reduzir os erros,

Leia mais

Aprendizado Bayesiano

Aprendizado Bayesiano Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

Rafael Izbicki 1 / 38

Rafael Izbicki 1 / 38 Mineração de Dados Aula 7: Classificação Rafael Izbicki 1 / 38 Revisão Um problema de classificação é um problema de predição em que Y é qualitativo. Em um problema de classificação, é comum se usar R(g)

Leia mais

Paradigmas de Aprendizagem

Paradigmas de Aprendizagem Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

Fundamentos da Teoria da Probabilidade

Fundamentos da Teoria da Probabilidade Fundamentos da Teoria da Probabilidade Edmar José do Nascimento (Princípios de Comunicações) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Sinais Aleatórios

Leia mais

Aprendizado de Máquinas. Classificadores Lineares

Aprendizado de Máquinas. Classificadores Lineares Universidade Federal do Paraná (UFPR) Departamento de Informática Aprendizado de Máquinas Classificadores Lineares David Menotti, Ph.D. web.inf.ufpr.br/menotti Objetivos Introduzir o conceito de classificação

Leia mais

Adriana da Costa F. Chaves. Máquina de Vetor Suporte (SVM) para Classificação Binária 2

Adriana da Costa F. Chaves. Máquina de Vetor Suporte (SVM) para Classificação Binária 2 Máquina de Vetor Suporte (SVM) para Classificação Binária Adriana da Costa F. Chaves Conteúdo da Apresentação Introdução Máquinas de Vetor Suporte para Classificação binária Exemplos Conclusão Máquina

Leia mais

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.

Algoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado

Leia mais

Processamento de erros grosseiros - Identiمحcaچcﷺao

Processamento de erros grosseiros - Identiمحcaچcﷺao Processamento de erros grosseiros - Identiمحcaچcﷺao Método ˆb Base: variável ˆβ interpretada como uma estimativa do erro associado à medida; verificação da magnitude do erro com relação a faixa esperada

Leia mais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais

TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador

Leia mais

TP537 Transmissão Digital 1ª Avaliação 27/10/ :00h Prof. Dayan Adionel Guimarães. Aluno(a):

TP537 Transmissão Digital 1ª Avaliação 27/10/ :00h Prof. Dayan Adionel Guimarães. Aluno(a): TP537 Transmissão Digital ª Avaliação 7//4 8:h Prof. Dayan Adionel Guimarães ota: Aluno(a): ª questão (4 pontos) Prova com consulta ao livro texto, com duração de 3 horas. A interpretação é parte integrante

Leia mais

Redes de Funções de Base Radial Radial Basis Functions (RBFs)

Redes de Funções de Base Radial Radial Basis Functions (RBFs) Redes de Funções de Base Radial Radial Basis Functions (RBFs) Germano C. Vasconcelos Centro de Informática - UFPE Introdução Em uma RBF, a rede é definida do ponto de vista de um problema de aproximação

Leia mais

Metodologia de inversão

Metodologia de inversão 6 Metodologia de inversão Nesta tese, a transformação de velocidades em pressão de poros é encarada como um problema de inversão. Pela natureza do problema, essa transformação apresenta caráter não único

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.

HP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes. HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)

Leia mais

Técnicas computacionais em probabilidade e estatística II

Técnicas computacionais em probabilidade e estatística II Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.

Leia mais

Combinação de Classificadores (fusão)

Combinação de Classificadores (fusão) Combinação de Classificadores (fusão) André Tavares da Silva andre.silva@udesc.br Livro da Kuncheva Roteiro Sistemas com múltiplos classificadores Fusão por voto majoritário voto majoritário ponderado

Leia mais

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08

Teoria das Filas aplicadas a Sistemas Computacionais. Aula 08 Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas

Leia mais

Inteligência Artificial Redes Neurais

Inteligência Artificial Redes Neurais Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

Aprendizagem por treinamento de redes de aproximação

Aprendizagem por treinamento de redes de aproximação Aprendizagem por treinamento de redes de Marco H. Terra Departamento de Eng. Elétrica - EESC - USP SEL 0362 - Inteligência Artificial 1 Introdução Neste capítulo, serão apresentados conceitos sobre redes

Leia mais

Processamento de Imagens CPS755

Processamento de Imagens CPS755 Processamento de Imagens CPS755 aula 06 - sistemas não lineares Antonio Oliveira Ricardo Marroquim 1 / 38 laboratório de processamento de imagens tópicos RANSAC métodos iterativos (não-lineares) gradientes

Leia mais

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com

Autor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem

Leia mais

Exame de Aprendizagem Automática

Exame de Aprendizagem Automática Exame de Aprendizagem Automática 2 páginas com 11 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 5 de Janeiro de 2016 Nota: O exame está cotado para 40 valores. Os 20 valores

Leia mais

Canais discretos sem memória e capacidade do canal

Canais discretos sem memória e capacidade do canal Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1 Conteúdo 1 Canais

Leia mais

Classificadores. André Tavares da Silva.

Classificadores. André Tavares da Silva. Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:

Leia mais

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental

Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado

Leia mais

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS

RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS 1 RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS Giovanni Crestan Leonardo Enomoto Araki Thiago Antonio Grandi De Tolosa Wânderson de Oliveira Assis Wilson Carlos Siqueira Lima Júnior IMT Instituto Mauá

Leia mais

Conceitos de Aprendizagem de Máquina e Experimentos. Visão Computacional

Conceitos de Aprendizagem de Máquina e Experimentos. Visão Computacional Conceitos de Aprendizagem de Máquina e Experimentos Visão Computacional O que você vê? 2 Pergunta: Essa imagem tem um prédio? Classificação 3 Pergunta: Essa imagem possui carro(s)? Detecção de Objetos

Leia mais

Lista 2 Sistemas Inteligentes (INE5633) 2014s2

Lista 2 Sistemas Inteligentes (INE5633) 2014s2 Lista 2 () 2014s2 Sistemas de Informação Universidade Federal de Santa Catarina 1. (Baseado em questão do POSCOMP 2009) Considere a árvore minimax abaixo representando um jogo, onde queremos maximizar

Leia mais

4 Estratégias de agrupamento e desempenho dos receptores

4 Estratégias de agrupamento e desempenho dos receptores 4 Estratégias de agrupamento e desempenho dos receptores O capítulo anterior apresentou exemplos de resultados de desempenho do receptor ótimo por grupos, para N = 6 símbolos. Nestes exemplos os agrupamentos

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de

Leia mais

Plano. Aspectos Relevantes de HMMs. Teoria de HMMs. Introdução aos Modelos Escondidos de Markov

Plano. Aspectos Relevantes de HMMs. Teoria de HMMs. Introdução aos Modelos Escondidos de Markov Plano Esta apresentação é para pessoas sem conhecimento prévio de HMMs Introdução aos Modelos Escondidos de Markov 2004 Objetivos: Ensinar alguma coisa, não tudo (Visão geral, sem muitos detalhes). Tentar

Leia mais

2. Redes Neurais Artificiais

2. Redes Neurais Artificiais Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron

Leia mais

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina

serotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)

Leia mais

CLASSIFICADORES BAEYSIANOS

CLASSIFICADORES BAEYSIANOS CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um

Leia mais

3 Modelos e metodologias comparadas

3 Modelos e metodologias comparadas 3 Modelos e metodologias comparadas Este capítulo tem o propósito de listar algumas das alternativas existentes na literatura que envolve classificação, e serão utilizadas neste trabalho sendo comparadas

Leia mais

Exame de Aprendizagem Automática

Exame de Aprendizagem Automática Exame de Aprendizagem Automática 2 páginas com 12 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 12 de Janeiro de 2017 Nota: O exame está cotado para 40 valores. Os 20 valores

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo

Leia mais

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO

Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial 1 Redes Neurais - Definição O que é Rede Neural ou Rede Neuronal Artificial (RNA)? É um modelo computacional que objetiva

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

Noções de Exatidão, Precisão e Resolução

Noções de Exatidão, Precisão e Resolução Noções de Exatidão, Precisão e Resolução Exatidão: está relacionada com o desvio do valor medido em relação ao valor padrão ou valor exato. Ex : padrão = 1,000 Ω ; medida (a) = 1,010 Ω ; medida (b)= 1,100

Leia mais

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares

AGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares 1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,

Leia mais

Aula 1 Introdução - RNA

Aula 1 Introdução - RNA Aula 1 Introdução - RNA Sumário 1- Conceitos Iniciais; 2- Neurônio Biológico; 3- Neurônio Artificial; 4- Funções de Ativação; 5- Comparação Neurônio Biológico e Artificial. 1- Conceitos Iniciais - Computadores

Leia mais

Créditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Desempenho de Classificação. Classificação IV: Avaliação de Classificadores

Créditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Desempenho de Classificação. Classificação IV: Avaliação de Classificadores SCC0173 Mineração de Dados Biológicos Classificação IV: Avaliação de Classificadores Créditos O material a seguir consiste de adaptações e extensões dos originais: gentilmente cedidos pelo rof. André C..

Leia mais

Redes Neurais Artificiais

Redes Neurais Artificiais Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas

Leia mais

Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS

Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS Aluno: Fabricio Aparecido Breve Prof.: Dr. André Ponce

Leia mais

3 Modelos Comparativos: Teoria e Metodologia

3 Modelos Comparativos: Teoria e Metodologia 3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito

Leia mais

Descodificação iterativa

Descodificação iterativa Sílvio A. Abrantes DEEC/FEUP 26 Descodificação iterativa 2 Descodificação de códigos LDPC por transferência de mensagens em grafos de Tanner Introdução Diagrama de blocos de um sistema genérico de codificação

Leia mais

PROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS

PROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS PROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS LEIA ATENTAMENTE AS INSTRUÇÕES ABAIXO 1. Você recebeu do fiscal o seguinte material: (a) Este caderno, com o enunciado das 20 (vinte) questões

Leia mais

METAHEURÍSTICAS: 1 SIMULATED ANNEALING (S.A) 1.1 INTRODUÇÃO

METAHEURÍSTICAS: 1 SIMULATED ANNEALING (S.A) 1.1 INTRODUÇÃO 1 SIMULATED ANNEALING (S.A) 1.1 INTRODUÇÃO METAHEURÍSTICAS: É uma das primeiras metaheurísticas que foi utilizada com muito sucesso nos problemas complexos de pesquisa operacional. O S.A surgiu do campo

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function

Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe

Leia mais

2 Modelos Não Lineares

2 Modelos Não Lineares Modelos Não Lineares 17 2 Modelos Não Lineares 2.1. Introdução Nos últimos anos, muitos modelos não-lineares para a análise de séries temporais têm sido propostos. Na econometria clássica, os modelos de

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer

Leia mais

Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo

Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo Antônio Carlos Roque da Silva Filho e Cristiano R. F. Granzotti 26 de junho de 2017 Os exercícios desta lista devem ser resolvidos

Leia mais

Mapas Auto-Organizáveis de Kohonen SOM

Mapas Auto-Organizáveis de Kohonen SOM Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com

Leia mais

4. O algoritmo LMS e variantes

4. O algoritmo LMS e variantes Apontamentos de Processamento Adaptativo de Sinais 4. O algoritmo LMS e variantes Família de algoritmos do gradiente Na prática usam-se estimativas do gradiente, ˆ (n), em vez do verdadeiro gradiente (n),

Leia mais

EET-61 Introdução a Teoria da Informação

EET-61 Introdução a Teoria da Informação EET-61 Introdução a Teoria da Informação Aula 3- Codificação de Canal October 24, 2018 1 Introdução Em muitas situações, a mensagem a ser transmitida por um sistema de comunicações é uma sequência de bits.

Leia mais

Transmissão de impulsos em banda-base

Transmissão de impulsos em banda-base Transmissão de impulsos em banda-base Transmissão de impulsos através de um canal com ruído aditivo. Probabilidades de erro com detecção no ponto central Detecção de sinais binários em ruído gaussiano

Leia mais

Exercícios de programação

Exercícios de programação Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,

Leia mais

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação

Redes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas

Leia mais