Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais
|
|
- Tomás Filipe Faria Zagalo
- 5 Há anos
- Visualizações:
Transcrição
1 Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal da Bahia ENGA83 - Semestre Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
2 Conteúdo 1 Introdução Decisão Binária Curva ROC Múltiplas Hipóteses 2 Decisão binária baseada em uma única observação Critério do Máximo a Posteriori (MAP) Critério de Bayes Critério Minmax Teste de Neyman-Pearson Análise de Discriminantes Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
3 Introdução A detecção (ou classificação) de sinais consiste em identificar a partir de observações (ou medições) sujeitas a variações aleatórias o tipo (ou classe) de sinal que foi originalmente enviado: Sensor Sinal medido Extração/seleção de Características Padrão de características Classificador Decisão No projeto de um sistema de detecção dois parâmetros são muito importantes: - Eficiência de discriminação (maximizar acertos e minimizar erros); - Tempo de execução da cadeia de processamento de sinais. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
4 Introdução - Decisão Binária Considerando-se a discriminação entre duas hipóteses (decisão binária) H 1 e H 0, o problema de classificação pode ser resumido através do diagrama: Fonte H1 H0 Mecanismo de transição probabilística H0 Espaço de observação H1 Em geral H 1 é associada à classe de interesse: - transmissão de um bit 1 num sistema de comunicação; - presença de um alvo num sinal de sonar; Decisão Regra de decisão - presença do usuário autorizado num problema de identificação do locutor; - existência de uma assinatura de interesse num detector de partículas. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
5 Introdução - Decisão Binária Considerando-se a discriminação entre duas hipóteses (decisão binária) H 1 e H 0, o problema de classificação pode ser resumido através do diagrama: Fonte H1 H0 Mecanismo de transição probabilística H0 Espaço de observação H1 Em geral H 1 é associada à classe de interesse: - transmissão de um bit 1 num sistema de comunicação; - presença de um alvo num sinal de sonar; Decisão Regra de decisão - presença do usuário autorizado num problema de identificação do locutor; - existência de uma assinatura de interesse num detector de partículas. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
6 Exemplo - Sistema de Radar Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
7 Introdução - Decisão Binária A decisão é tomada a partir de uma ou mais observações. As observações são variáveis aleatórias que correspondem a uma das hipóteses do problema. No caso da decisão binária, cada vez que uma observação é efetuada 4 situações podem ocorrer: 1: decidir pela hipótese H 1, sendo H 1 verdadeira (detecção); 2: decidir pela hipótese H 0, sendo H 1 verdadeira (falso negativo); 3: decidir pela hipótese H 1, sendo H 0 verdadeira (falso positivo ou falso alarme); 4: decidir pela hipótese H 0, sendo H 0 verdadeira (acerto). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
8 Introdução - Decisão Binária A decisão é tomada a partir de uma ou mais observações. As observações são variáveis aleatórias que correspondem a uma das hipóteses do problema. No caso da decisão binária, cada vez que uma observação é efetuada 4 situações podem ocorrer: 1: decidir pela hipótese H 1, sendo H 1 verdadeira (detecção); 2: decidir pela hipótese H 0, sendo H 1 verdadeira (falso negativo); 3: decidir pela hipótese H 1, sendo H 0 verdadeira (falso positivo ou falso alarme); 4: decidir pela hipótese H 0, sendo H 0 verdadeira (acerto). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
9 Introdução - Decisão Binária Os resultados obtidos por um discriminador, em geral, são expressos resumidamente em termos dos parâmetros: - Probabilidade de Detecção: P D = P(H 1 H 1 ); - Probabilidade de Falso Alarme: P F = P(H 1 H 0 ). Uma vez que: - P(H 0 H 1 ) = 1 P D ; - P(H 0 H 0 ) = 1 P F. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
10 Introdução - Decisão Binária Considerando que a decisão é baseada na observação da variável aleatória L: Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
11 Introdução - Curva ROC A curva ROC (Receiver Operating Characteristic) mostra como as probabilidades de detecção e falso alarme (respectivamente P D e P F ) variam com o patamar de decisão. A eficiência de um classificador pode ser estimada a partir da área sob a curva ROC. Quanto maior a área, mais eficiente é o discriminador. Exemplo: Considerando as distribuições das observações de dois classificadores para duas classes distintas: Classe 1 Classe Classe 1 Classe 2 Contagem Contagem Saida do Classificador Saida do Classificador Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
12 Introdução - Curva ROC 1 PD (6,1%,; 90,5%) SPmax=0,85 Y= 0,19 (2,6%,; 95,3%) SPmax=0,93 Y= 0,11 Exemplo 2 Exemplo PF Para a escolha do patamar de decisão ótimo pode-se utilizar uma medida das eficiências de discriminação como o índice Soma-Produto (SP): Efe + Ef j SP = Ef e Ef j 2 onde Ef e = PD e Ef j = 1 PF Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
13 Introdução - Decisão entre Múltiplas Hipóteses Num caso mais geral podem existir M hipóteses a serem identificadas. Trata-se de um problema de decisão M-ária. O problema pode ser tratado através de: - um conjunto de M problemas de detecção binária entre H I e H j, j = 1,..., I 1, I + 1,..., M. - discriminadores apropriados para problemas de múltiplas hipóteses. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
14 Decisão binária baseada em uma única observação Considerando que cada uma das hipóteses é associada a uma saída que é mapeada numa região do espaço de observação de dimensão N, um ponto neste espaço pode ser representado pelo vetor: r = [r 1, r 2,..., r N ] O mecanismo de transição probabiĺıstica gera pontos de acordo com as densidades de probabilidade condicionais P r/h0 (R/H 0 ) e P r/h1 (R/H 1 ). Quando essas probabilidades são conhecidas (ou podem ser estimadas), o projeto do sistema classificador pode ser simplificado. Os critérios de máximo a posteriori, Bayes, Minimax e Neyman-Pearson são procedimentos clássicos utilizados para a escolha da regra de decisão quando as probabilidades condicionais são conhecidas. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
15 Decisão binária baseada em uma única observação Considerando o diagrama a seguir: percebe-se que: - P D = P r/h1 (R/H 1 )dr e P F = P r/h0 (R/H 0 )dr. Z 1 Z 1 Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
16 Critério do Máximo a Posteriori (MAP) Uma regra de decisão usualmente produz o particionamento do espaço de observação em duas regiões Z 1 e Z 0 para as quais são associados as hipóteses H 1 e H 0 a depender da observação de r. A probabilidade condicional P r/hi (R/H i ) é chamada de probabilidade a posteriori, pois são estimadas após a observação de r. O critério do máximo a posteriori (MAP) utiliza a regra de Bayes para definir a regra de decisão a seguir: f r/h1 (R/H 1 ) f r/h0 (R/H 0 ) H 1 H 0 P 0 P 1 Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
17 Critério do Máximo a Posteriori (MAP) A expressão: L(R) = f r/h 1 (R/H 1 ) f r/h0 (R/H 0 ) é chamada razão de semelhança. E a fração: λ = P 0 P 1 é o valor limiar (ou patamar) do teste. Assim, a equação se reduz a: L(R) H 1 H 0 λ Se a razão de semelhança é maior que o patamar decide-se por H 1, caso contrário escolhe-se H 0. No limite quando L(R) = λ pode-se decidir tanto por H 1 como por H 0 (escolha do projetista). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
18 Critério MAP - Exemplo Num sistema de comunicação binária o sinal recebido é: R = X + N, onde X=0, 1 e N ruído gaussiano de média zero e variância 1/9. Sabe-se ainda que P 0 = 3/4 e P 1 = 1/4. Estime a regra de decisão MAP. Resposta: 9 ( 9r 2 ) É facil chegar a: f r/h0 (R/H 0 ) = 2π exp e 2 9 ( 9(r 1) 2 ) f r/h1 (R/H 1 ) = 2π exp. 2 Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
19 Critério MAP - Exemplo Num sistema de comunicação binária o sinal recebido é: R = X + N, onde X=0, 1 e N ruído gaussiano de média zero e variância 1/9. Sabe-se ainda que P 0 = 3/4 e P 1 = 1/4. Estime a regra de decisão MAP. Resposta: 9 ( 9r 2 ) É facil chegar a: f r/h0 (R/H 0 ) = 2π exp e 2 9 ( 9(r 1) 2 ) f r/h1 (R/H 1 ) = 2π exp. 2 A regra de decisão é: f r/h 1 (R/H 1 ) P [ f r/h0 (R/H 0 ) H ] H 0 exp P 1 2 (2r 1) H 1 H 0 3. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
20 Critério MAP - Exemplo Num sistema de comunicação binária o sinal recebido é: R = X + N, onde X=0, 1 e N ruído gaussiano de média zero e variância 1/9. Sabe-se ainda que P 0 = 3/4 e P 1 = 1/4. Estime a regra de decisão MAP. Resposta: 9 ( 9r 2 ) É facil chegar a: f r/h0 (R/H 0 ) = 2π exp e 2 9 ( 9(r 1) 2 ) f r/h1 (R/H 1 ) = 2π exp. 2 A regra de decisão é: f r/h 1 (R/H 1 ) P [ f r/h0 (R/H 0 ) H ] H 0 exp P 1 2 (2r 1) H 1 H 0 3. Aplicando-se log em ambos os lados: r H 1 1 H ln(3) 0, Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
21 Critério MAP - Exemplo Num sistema de comunicação binária o sinal recebido é: R = X + N, onde X=0, 1 e N ruído gaussiano de média zero e variância 1/9. Sabe-se ainda que P 0 = 3/4 e P 1 = 1/4. Estime a regra de decisão MAP. Resposta: 9 ( 9r 2 ) É facil chegar a: f r/h0 (R/H 0 ) = 2π exp e 2 9 ( 9(r 1) 2 ) f r/h1 (R/H 1 ) = 2π exp. 2 A regra de decisão é: f r/h 1 (R/H 1 ) P [ f r/h0 (R/H 0 ) H ] H 0 exp P 1 2 (2r 1) H 1 H 0 3. Aplicando-se log em ambos os lados: r H 1 1 H ln(3) 0, Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
22 Critério de Bayes O critério de Bayes necessita do conhecimento: - das probabilidades a priori P 1 e P 0 da fonte produzir H 1 ou H 0 ; - das distribuições de probabilidade condicionais f r/h0 (R/H 0 ) e f r/h1 (R/H 1 ); - dos custos C ij associados à escolha da hipótese i sendo j a verdadeira. O risco é então definido como: R = C 00 P 0 f r/h0 (R/H 0 )dr + C 10 P 0 f r/h0 (R/H 0 )dr Z 0 Z 1 +C 11 P 1 f r/h1 (R/H 1 )dr + C 01 P 1 f r/h1 (R/H 1 )dr Z 1 Z 0 onde os elementos do espaço de observação que pertencem às partições Z 0 e Z 1 são associados, respectivamente, a H 0 e H 1. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
23 Critério de Bayes O critério de Bayes necessita do conhecimento: - das probabilidades a priori P 1 e P 0 da fonte produzir H 1 ou H 0 ; - das distribuições de probabilidade condicionais f r/h0 (R/H 0 ) e f r/h1 (R/H 1 ); - dos custos C ij associados à escolha da hipótese i sendo j a verdadeira. O risco é então definido como: R = C 00 P 0 f r/h0 (R/H 0 )dr + C 10 P 0 f r/h0 (R/H 0 )dr Z 0 Z 1 +C 11 P 1 f r/h1 (R/H 1 )dr + C 01 P 1 f r/h1 (R/H 1 )dr Z 1 Z 0 onde os elementos do espaço de observação que pertencem às partições Z 0 e Z 1 são associados, respectivamente, a H 0 e H 1. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
24 Critério de Bayes Minimizando o risco R da equação anterior chega-se a: f r/h1 (R/H 1 ) P f r/h0 (R/H 0 ) H 1 0 (C 10 C 00 ) H 0 P 1 (C 01 C 11 ) Que tende ao critério MAP quando: C 10 = C 01 = 1 e C 11 = C 00 = 0. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
25 Critério de Bayes - Exemplo Repetindo o exemplo anterior, para C 10 = 0, 5, C 01 = 0, 9 e C 11 = C 00 = 0, encontre o critério de decisão de Bayes. Resposta: A regra de decisão é: f r/h1 (R/H 1 ) P f r/h0 (R/H 0 ) H 1 0 (C 10 C 00 ) [ 9 ] H 0 P 1 (C 01 C 11 ) exp 2 (2r 1) H 1 H 0 3 0, 5 0, 9. Aplicando-se log em ambos os lados: r H 1 1 H ln(1, 667) 0, Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
26 Critério de Bayes - Exemplo Repetindo o exemplo anterior, para C 10 = 0, 5, C 01 = 0, 9 e C 11 = C 00 = 0, encontre o critério de decisão de Bayes. Resposta: A regra de decisão é: f r/h1 (R/H 1 ) P f r/h0 (R/H 0 ) H 1 0 (C 10 C 00 ) [ 9 ] H 0 P 1 (C 01 C 11 ) exp 2 (2r 1) H 1 H 0 3 0, 5 0, 9. Aplicando-se log em ambos os lados: r H 1 1 H ln(1, 667) 0, Percebe-se que ao considerar que o risco é maior ao classificar H 1 como sendo H 0 o patamar foi reduzido, diminuindo a probabilidade de ocorrência deste erro. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
27 Critério de Bayes - Exemplo Repetindo o exemplo anterior, para C 10 = 0, 5, C 01 = 0, 9 e C 11 = C 00 = 0, encontre o critério de decisão de Bayes. Resposta: A regra de decisão é: f r/h1 (R/H 1 ) P f r/h0 (R/H 0 ) H 1 0 (C 10 C 00 ) [ 9 ] H 0 P 1 (C 01 C 11 ) exp 2 (2r 1) H 1 H 0 3 0, 5 0, 9. Aplicando-se log em ambos os lados: r H 1 1 H ln(1, 667) 0, Percebe-se que ao considerar que o risco é maior ao classificar H 1 como sendo H 0 o patamar foi reduzido, diminuindo a probabilidade de ocorrência deste erro. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
28 Critério Minmax Quando os custos são conhecidos mas as probabilidades a priori não estão disponíveis, pode-se adotar o critério minmax. Considerando que C 00 = C 11 = 0, então escolhe-se o patamar de decisão (λ) de modo que: C 01 P M = C 10 P F onde: - P F = f r/h0 (R/H 0 )dr é a probabilidade de falso-alarme e Z 1 - P M = f r/h1 (R/H 1 )dr = 1 P D é a probabilidade de erro de Z 0 detecção da hipótese de interesse (H 1 ). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
29 Teste de Neyman-Pearson O teste de Neyman-Pearson é utilizado quando não se tem informações sobre os custos ou as probabilidades a priori. Escolhe-se um valor limite para a probabilidade de falso-alarme e procura-se minimizar a probabilidade de perda do alvo para o valor escolhido. Como o critério utiliza P F e P M é preciso conhecer as probabilidades condicionais P r/h0 (R/H 0 ) e P r/h1 (R/H 1 ). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
30 Análise de Discriminantes Embora muito utilizadas, por sua formulação matemática relativamente simples e bom desempenho em diversas aplicações, as técnicas mostradas até aqui necessitam de conhecimento prévio a respeito: - das distribuições de probabilidade; - dos custos. Em muitos casos práticos essas informações não estão disponíveis, sendo necessário a utilização de outros métodos de classificação. Uma opção neste contexto é utilizar a análise de discriminantes. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
31 Análise de Discriminantes Os métodos de classificação baseados na regra de Bayes particionam o espaço de observações em regiões associadas a cada hipótese. A análise de discriminantes, de modo análogo, busca as superfícies que particionam o espaço de observações de modo ótimo nas regiões que são associadas a cada hipótese. Uma função discriminante linear pode ser dada por: y(x) = w T x + ω 0 sendo w o vetor de pesos e ω 0 a tendência (ou bias). Um vetor de entrada x é associado à hipótese H 1 caso y(x) 0 e à H 0 caso contrário. A fronteira de decisão é definida por y(x) = 0. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
32 Função Discriminante w é ortogonal à superfície de separação. A distância entre a superfície de separação e a ω 0 origem é dada por: w. A distância entre um ponto x e a superfície de y(x) separação é: w. Como estimar a superfície de separação ótima a partir dos dados disponíveis? Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
33 Função Discriminante w é ortogonal à superfície de separação. A distância entre a superfície de separação e a ω 0 origem é dada por: w. A distância entre um ponto x e a superfície de y(x) separação é: w. Como estimar a superfície de separação ótima a partir dos dados disponíveis? Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
34 Função Discriminante A análise de discriminantes busca a direção w onde as projeções y(x) dos sinais de entrada x sejam maximamente separáveis. z 2 z 1 z 1 z 2 Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
35 Discriminante Linear de Fisher A análise por discriminante de Fisher (FDA - Fisher Discriminant Analysis) busca a direção ótima de discriminação utilizando 2 parâmetros, a distância inter-classes, e a distância intra-classes. Numa formulação matricial o objetivo é encontrar a direção w 0 que maximiza a expressão: J(w) = wt S B w w T S w w onde S B = (µ 1 µ 2 )(µ 1 µ 2 ) T é a matriz de separação inter-classes e S w = S 1 + S 2 é a matriz de separação intra-classes, sendo: S i = x D (x µ i )(x µ i ) T Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
36 Discriminante Linear de Fisher Pode-se provar que a direção ótima que maximiza a expressão anterior é dada por: w = S w 1 (m 1 m 2 ) O discriminante de Fisher é capaz de encontrar a transformação linear ótima dos sinais de entrada, de modo que os sinais projetados y = w T x tenham máxima separação: Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
37 Discriminante de Fisher - Exemplo Pode-se realizar a análise por discriminante de Fisher de modo anaĺıtico usando as equações definidas anteriormente. Limitações podem surgir quando a dimensão de x cresce, pois o cálculo de S w 1 pode pode se tornar custoso computacionalmente. Uma opção é realizar o cálculo estimado de modo iterativo a partir de um perceptron (modelo básico de rede neural artificial). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
38 Perceptron Outro exemplo de discriminante linear pode ser obtido através do perceptron. O modelo do perceptron foi proposto por Rosenblat em 1962 e foi inspirado no funcionamento de um neurônio biológico: x 1 x x 0 =1 b= 0 u ( ) y y(x) = ϕ(w T x) x m m sendo w = [ω 0, ω 1,..., ω m ] o vetor de pesos sinápticos e ϕ a função de ativação (normalmente é utilizada a função degrau: ϕ(a) = 1 para a 0 e 1 para a < 0). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
39 Perceptron Pecebe-se que a expressão da saída do perceptron pode ser vista como uma função discriminante. A principal diferença é que aqui a superfície de separação é estimada iterativamente, (ou seja, à medida que os dados são apresentados). Uma aspecto interessante é que o aprendizado iterativo permite realizar ajustes no sistema de classicação caso ocorram mudanças na estatística do problema. Podem aparecer limitações quanto à convergência do algoritmo de treinamento (longo tempo para convergência ou até mesmo não-convergência). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
40 Algoritmo do Perceptron Para o processo de treinamento, o propósito é minimizar o erro quadrático médio da classificação (sendo então baseado no algoritmo LMS - Least Mean Square). Deste modo pode-se chegar à regra de aprendizado do perceptron: sendo: w(n + 1) = w(n) + ηx(n)e(n) - e(n) = d(n) w T (n)x(n) o erro em relação à saída desejada d(n); - η a taxa de aprendizado. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
41 Perceptron - curvas de erro Típicas curvas de erro no treinamento de um perceptron: Espera-se que com o decorrer do treinamento o erro diminua até chegar ao seu mínimo. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
42 Perceptron - escolha da taxa de aprendizado A escolha adequada da taxa de aprendizado reflete nas características das curvas de erro: - Um alto valor de η leva à proximidade do valor mínimo mais rapidamente, porém produz uma curva de erro oscilante no final do treinamento. - Um baixo valor de eta produz um treinamento de convergência mais lenta, porém suave (sem oscilações). Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
43 Exercícios de Fixação Os exercícios listados abaixo do livro: Random Signals: Detection Estimation and Data Analysis de Shanmugan e Breipohl devem ser resolvidos e entregues no dia 19/04. Neste dia, alunos serão sorteados para resolverem alguns destes exercícios para a turma. 01 Exercícios de Fixação (Cap. 06, a partir da página 370): 6.1, 6.2, 6.3, 6.4, 6.5, 6.6, Gere pontos aleatórios no plano x 1 x 2 segundo as hipóteses a seguir ( pontos para cada hipótese): - Considerando que aconteceu H 1 x é descrito por uma distribuição gaussiana bivariada com µ X = [1, 0; 2, 0] e σ X = [0, 2; 0, 3]. - Considerando que aconteceu H 0 x é descrito por uma distribuição gaussiana bivariada com µ X = [2, 0; 3, 0] e σ X = [0, 2; 0, 3]. Encontre a curva discriminante ótima e o patamar de decisão pelo critério de Fisher e através da regra do perceptron. Compare as probabilidades de detecção e falso alarme para os dois casos. 03 Repita a questão 02 considerando pontos para a hipótese H 1. Compare e comente os resultados. 04 Repita a questão 02 considerando que agora σ X H0 = [0, 5; 0, 5]. Compare e comente os resultados. Prof. Eduardo Simas (PPGEE/UFBA) Aula 03 - Detecção ENGA83 - Semestre / 34
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 05 / Detecção Binária Baseada em
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 05 / Detecção Binária Baseada em Múltiplas Observações e Detecção com Múltiplas Hipóteses Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 06 / Classes Especiais de Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 02 / Processos Aleatórios Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 01 / Introdução
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 1 / Introdução Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal da
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
Leia maisDisciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 01 / Introdução
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 1 / Introdução Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal da
Leia maisAlgoritmos de Aprendizado
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Leia maisProcessamento digital de imagens
Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 27 de maio de 2016 Reconhecimento de objetos Padrão: arranjo
Leia maisCC-226 Aula 05 - Teoria da Decisão Bayesiana
CC-226 Aula 05 - Teoria da Decisão Bayesiana Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Classificador Bayesiano Considerando M classes C 1... C M. N observações x j. L atributos
Leia maisUniversidade de São Paulo Instituto de Ciências Matemáticas e de Computação
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Leia maisRede Perceptron. Capítulo 3
Rede Perceptron Capítulo 3 Rede Perceptron É a forma mais simples de configuração de uma RNA (idealizada por Rosenblatt, 1958) Constituída de apenas uma camada, tendo-se ainda somente um neurônio nesta
Leia maisRedes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions
Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a
Leia maisReconhecimento de Padrões. Reconhecimento de Padrões
Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso e Prof.
Leia maisComunicaçõ. ções Digitais II. Texto original por Prof. Dr. Ivan Roberto Santana Casella
PTC-43 Comunicaçõ ções Digitais II Texto original por Prof. Dr. Ivan Roberto Santana Casella Representaçã ção o Geométrica de Sinais A modulação digital envolve a escolha de um sinal específico s i (t)
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções
Leia maisVetor de Variáveis Aleatórias
Vetor de Variáveis Aleatórias Luis Henrique Assumpção Lolis 25 de junho de 2013 Luis Henrique Assumpção Lolis Vetor de Variáveis Aleatórias 1 Conteúdo 1 Vetor de Variáveis Aleatórias 2 Função de Várias
Leia maisRede RBF (Radial Basis Function)
Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Leia maisFunções Discriminantes Lineares
Funções Discriminantes Lineares Revisão Cap. 2 Classificação Bayesiana: Fdp s conhecidas, w ) P e x w ) ( i p. ( i Cap. 3 Formas das fdp s conhecidas, idem No. de parâmetros. a) Máxima verossimilhança:
Leia maisMÉTODOS ESTATÍSTICOS PARA ANÁLISE DE DADOS
MÉTODOS ESTATÍSTICOS PARA ANÁLISE DE DADOS LEANDRO DE PAULA UFRJ Escola de Inverno do IFGW A Física de Partículas do Novo Século julho de 2014 PROGRAMA DO CURSO Introdução à Probabilidade e Estatística
Leia maisAprendizado de Máquina (Machine Learning)
Ciência da Computação Aprendizado de Máquina (Machine Learning) Aula 03 Aprendizado Supervisionado / : Modelo MCP e Perceptron Max Pereira Neurônio Booleano de McCulloch- Pitts (Modelo MCP) Proposto em
Leia maisRedes Neurais Artificial. Inteligência Artificial. Professor: Rosalvo Ferreira de Oliveira Neto
Redes Neurais Artificial Inteligência Artificial Professor: Rosalvo Ferreira de Oliveira Neto Estrutura 1. Definições 2. Histórico 3. Conceitos Básicos 4. Aprendizado em RNA 5. Exemplo de Aprendizado com
Leia mais3 Redes Neurais Artificiais
3 Redes Neurais Artificiais 3.1. Introdução A capacidade de implementar computacionalmente versões simplificadas de neurônios biológicos deu origem a uma subespecialidade da inteligência artificial, conhecida
Leia mais7 Conclusões e desenvolvimentos futuros
7 Conclusões e desenvolvimentos futuros 7.1 Conclusões Este trabalho apresentou novas soluções para a determinação da posição de terminais de comunicações móveis com base em medidas de ToA. Nos métodos
Leia mais3 REDES CLÁSSICAS PERCEPTRON E ADALINE
w b Professor José Gomes de Carvalho Jr. 3 REDES CLÁSSICAS PERCEPTRON E ADALINE 3.-Redes com funções de ativação de limiar Uma rede simples de uma camada, consiste em um ou mais neurônios de saída j conectados
Leia maisClassificação Linear. André Tavares da Silva.
Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron
Leia maisPrimeiras Redes Neurais Artificiais: Perceptron e Adaline
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Primeiras Redes Neurais Artificiais: Perceptron e Adaline DCA0121 Inteligência Artificial Aplicada Heitor
Leia maisCC-226 Aula 07 - Estimação de Parâmetros
CC-226 Aula 07 - Estimação de Parâmetros Carlos Henrique Q. Forster - Instituto Tecnológico de Aeronáutica 2008 Estimação de Parâmetros Para construir o classificador bayesiano, assumimos as distribuições
Leia maisSCC Capítulo 4 Perceptron de Camada Única
Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - joaoluis@icmc.usp.br 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron
Leia maisEstudo sobre decodificação iterativa usando códigos de treliça
Revista de Engenharia e Pesquisa Aplicada, Volume 2, Número 1, 2016 Estudo sobre decodificação iterativa usando códigos de treliça Souza, I. M. M. Escola Politécnica de Pernambuco Universidade de Pernambuco
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRONS Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Forma mais simples de configuração das RNAs Rosenblatt (1958) retina área de projeção área de associação respostas
Leia mais3 Filtro de Kalman Discreto
3 Filtro de Kalman Discreto As medidas realizadas por sensores estão sujeitas a erros, como pode ser visto no Capítulo 2. Os filtros são aplicados aos sinais medidos pelos sensores para reduzir os erros,
Leia maisAprendizado Bayesiano
Aprendizado Bayesiano Marcelo K. Albertini 26 de Junho de 2014 2/20 Conteúdo Teorema de Bayes Aprendizado MAP Classificador ótimo de Bayes 3/20 Dois papéis para métodos bayesianos Algoritmos de aprendizado
Leia maisSUPPORT VECTOR MACHINE - SVM
SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento
Leia maisRafael Izbicki 1 / 38
Mineração de Dados Aula 7: Classificação Rafael Izbicki 1 / 38 Revisão Um problema de classificação é um problema de predição em que Y é qualitativo. Em um problema de classificação, é comum se usar R(g)
Leia maisParadigmas de Aprendizagem
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Paradigmas de Aprendizagem Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia maisFundamentos da Teoria da Probabilidade
Fundamentos da Teoria da Probabilidade Edmar José do Nascimento (Princípios de Comunicações) http://www.univasf.edu.br/ edmar.nascimento Universidade Federal do Vale do São Francisco Sinais Aleatórios
Leia maisAprendizado de Máquinas. Classificadores Lineares
Universidade Federal do Paraná (UFPR) Departamento de Informática Aprendizado de Máquinas Classificadores Lineares David Menotti, Ph.D. web.inf.ufpr.br/menotti Objetivos Introduzir o conceito de classificação
Leia maisAdriana da Costa F. Chaves. Máquina de Vetor Suporte (SVM) para Classificação Binária 2
Máquina de Vetor Suporte (SVM) para Classificação Binária Adriana da Costa F. Chaves Conteúdo da Apresentação Introdução Máquinas de Vetor Suporte para Classificação binária Exemplos Conclusão Máquina
Leia maisAlgoritmos de Aprendizado. CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico. Regra de HEBB.
CONTEÚDO Introdução Motivação, Objetivo, Definição, Características Básicas e Histórico Conceitos Básicos Neurônio Artificial, Modos de Interconexão Processamento Neural Recall e Learning Regras de Aprendizado
Leia maisProcessamento de erros grosseiros - Identiمحcaچcﷺao
Processamento de erros grosseiros - Identiمحcaچcﷺao Método ˆb Base: variável ˆβ interpretada como uma estimativa do erro associado à medida; verificação da magnitude do erro com relação a faixa esperada
Leia maisTÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais
TÓPICOS EM INTELIGÊNCIA ARTIFICIAL Redes Neurais Artificiais ricardo.kerschbaumer@ifc.edu.br http://professor.luzerna.ifc.edu.br/ricardo-kerschbaumer/ Introdução O Cérebro humano Mais fascinante processador
Leia maisTP537 Transmissão Digital 1ª Avaliação 27/10/ :00h Prof. Dayan Adionel Guimarães. Aluno(a):
TP537 Transmissão Digital ª Avaliação 7//4 8:h Prof. Dayan Adionel Guimarães ota: Aluno(a): ª questão (4 pontos) Prova com consulta ao livro texto, com duração de 3 horas. A interpretação é parte integrante
Leia maisRedes de Funções de Base Radial Radial Basis Functions (RBFs)
Redes de Funções de Base Radial Radial Basis Functions (RBFs) Germano C. Vasconcelos Centro de Informática - UFPE Introdução Em uma RBF, a rede é definida do ponto de vista de um problema de aproximação
Leia maisMetodologia de inversão
6 Metodologia de inversão Nesta tese, a transformação de velocidades em pressão de poros é encarada como um problema de inversão. Pela natureza do problema, essa transformação apresenta caráter não único
Leia mais3 Aprendizado por reforço
3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina
Leia maisHP UFCG Analytics Abril-Maio Um curso sobre Reconhecimento de Padrões e Redes Neurais. Por Herman Martins Gomes.
HP UFCG Analytics Abril-Maio 2012 Um curso sobre Reconhecimento de Padrões e Redes Neurais Por Herman Martins Gomes hmg@dsc.ufcg.edu.br Programa Visão Geral (2H) Reconhecimento Estatístico de Padrões (3H)
Leia maisTécnicas computacionais em probabilidade e estatística II
Técnicas computacionais em probabilidade e estatística II Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco AULA 1: Problemas Computacionais em Inferência Estatística.
Leia maisCombinação de Classificadores (fusão)
Combinação de Classificadores (fusão) André Tavares da Silva andre.silva@udesc.br Livro da Kuncheva Roteiro Sistemas com múltiplos classificadores Fusão por voto majoritário voto majoritário ponderado
Leia maisTeoria das Filas aplicadas a Sistemas Computacionais. Aula 08
Teoria das Filas aplicadas a Sistemas Computacionais Aula 08 Universidade Federal do Espírito Santo - Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM Teoria das Filas
Leia maisInteligência Artificial Redes Neurais
Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre
Leia maisAprendizagem por treinamento de redes de aproximação
Aprendizagem por treinamento de redes de Marco H. Terra Departamento de Eng. Elétrica - EESC - USP SEL 0362 - Inteligência Artificial 1 Introdução Neste capítulo, serão apresentados conceitos sobre redes
Leia maisProcessamento de Imagens CPS755
Processamento de Imagens CPS755 aula 06 - sistemas não lineares Antonio Oliveira Ricardo Marroquim 1 / 38 laboratório de processamento de imagens tópicos RANSAC métodos iterativos (não-lineares) gradientes
Leia maisAutor: Edroaldo Lummertz da Rocha Home page: edroaldo.wordpress.com
Autor: Edroaldo Lummertz da Rocha Home page: edroaldowordpresscom E-mail: edroaldo@gmailcom Esse tutorial visa demonstrar de forma prática o processo de ajuste dos pesos sinápticos de uma rede neural artificial
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem
Leia maisExame de Aprendizagem Automática
Exame de Aprendizagem Automática 2 páginas com 11 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 5 de Janeiro de 2016 Nota: O exame está cotado para 40 valores. Os 20 valores
Leia maisCanais discretos sem memória e capacidade do canal
Canais discretos sem memória e capacidade do canal Luis Henrique Assumpção Lolis 17 de outubro de 2013 Luis Henrique Assumpção Lolis Canais discretos sem memória e capacidade do canal 1 Conteúdo 1 Canais
Leia maisClassificadores. André Tavares da Silva.
Classificadores André Tavares da Silva andre.silva@udesc.br Reconhecimento de padrões (etapas) Obtenção dos dados (imagens, vídeos, sinais) Pré-processamento Segmentação Extração de características Obs.:
Leia maisAlgoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
Leia maisRECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS
1 RECONHECIMENTO DE TRAJETÓRIA COM REDES NEURAIS Giovanni Crestan Leonardo Enomoto Araki Thiago Antonio Grandi De Tolosa Wânderson de Oliveira Assis Wilson Carlos Siqueira Lima Júnior IMT Instituto Mauá
Leia maisConceitos de Aprendizagem de Máquina e Experimentos. Visão Computacional
Conceitos de Aprendizagem de Máquina e Experimentos Visão Computacional O que você vê? 2 Pergunta: Essa imagem tem um prédio? Classificação 3 Pergunta: Essa imagem possui carro(s)? Detecção de Objetos
Leia maisLista 2 Sistemas Inteligentes (INE5633) 2014s2
Lista 2 () 2014s2 Sistemas de Informação Universidade Federal de Santa Catarina 1. (Baseado em questão do POSCOMP 2009) Considere a árvore minimax abaixo representando um jogo, onde queremos maximizar
Leia mais4 Estratégias de agrupamento e desempenho dos receptores
4 Estratégias de agrupamento e desempenho dos receptores O capítulo anterior apresentou exemplos de resultados de desempenho do receptor ótimo por grupos, para N = 6 símbolos. Nestes exemplos os agrupamentos
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Marcelo K. Albertini 24 de Julho de 2014 2/34 Conteúdo Perceptron Gradiente descendente Redes multicamadas Retropropagação de erros 3/34 Modelos conexionistas Humanos Tempo de
Leia maisPlano. Aspectos Relevantes de HMMs. Teoria de HMMs. Introdução aos Modelos Escondidos de Markov
Plano Esta apresentação é para pessoas sem conhecimento prévio de HMMs Introdução aos Modelos Escondidos de Markov 2004 Objetivos: Ensinar alguma coisa, não tudo (Visão geral, sem muitos detalhes). Tentar
Leia mais2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron
Leia maisserotonina (humor) dopamina (Parkinson) serotonina (humor) dopamina (Parkinson) Prozac inibe a recaptação da serotonina
Redes Neurais O modelo biológico O cérebro humano possui cerca 100 bilhões de neurônios O neurônio é composto por um corpo celular chamado soma, ramificações chamadas dendritos (que recebem as entradas)
Leia maisCLASSIFICADORES BAEYSIANOS
CLASSIFICADORES BAEYSIANOS Teorema de Bayes 2 Frequentemente, uma informação é apresentada na forma de probabilidade condicional Probabilidade de um evento ocorrer dada uma condição Probabilidade de um
Leia mais3 Modelos e metodologias comparadas
3 Modelos e metodologias comparadas Este capítulo tem o propósito de listar algumas das alternativas existentes na literatura que envolve classificação, e serão utilizadas neste trabalho sendo comparadas
Leia maisExame de Aprendizagem Automática
Exame de Aprendizagem Automática 2 páginas com 12 perguntas e 3 folhas de resposta. Duração: 2 horas e 30 minutos DI, FCT/UNL, 12 de Janeiro de 2017 Nota: O exame está cotado para 40 valores. Os 20 valores
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS AULA 03 Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 INTRODUÇÃO Aprendizagem é um processo pelo qual os parâmetros livres de uma rede neural são adaptados através de um processo
Leia maisRedes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial SISTEMAS INTELIGENTES PROFESSOR FLÁVIO MURILO
Redes Neurais Artificiais Sistemas Inteligentes Especialização em Automação Industrial 1 Redes Neurais - Definição O que é Rede Neural ou Rede Neuronal Artificial (RNA)? É um modelo computacional que objetiva
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que
Leia maisNoções de Exatidão, Precisão e Resolução
Noções de Exatidão, Precisão e Resolução Exatidão: está relacionada com o desvio do valor medido em relação ao valor padrão ou valor exato. Ex : padrão = 1,000 Ω ; medida (a) = 1,010 Ω ; medida (b)= 1,100
Leia maisAGA Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares
1 / 0 AGA 0505- Análise de Dados em Astronomia I 7. Modelagem dos Dados com Máxima Verossimilhança: Modelos Lineares Laerte Sodré Jr. 1o. semestre, 018 modelos modelagem dos dados dado um conjunto de dados,
Leia maisAula 1 Introdução - RNA
Aula 1 Introdução - RNA Sumário 1- Conceitos Iniciais; 2- Neurônio Biológico; 3- Neurônio Artificial; 4- Funções de Ativação; 5- Comparação Neurônio Biológico e Artificial. 1- Conceitos Iniciais - Computadores
Leia maisCréditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Desempenho de Classificação. Classificação IV: Avaliação de Classificadores
SCC0173 Mineração de Dados Biológicos Classificação IV: Avaliação de Classificadores Créditos O material a seguir consiste de adaptações e extensões dos originais: gentilmente cedidos pelo rof. André C..
Leia maisRedes Neurais Artificiais
Redes Neurais Artificiais Fabrício Olivetti de França Universidade Federal do ABC Tópicos 1. Redes Neurais Biológicas 2. Neurônio Artificial 3. Rede Neural Artificial 4. Keras 1 Redes Neurais Biológicas
Leia maisRedes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS
Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Redes Perceptron e Multilayer Perceptron aplicadas a base de dados IRIS Aluno: Fabricio Aparecido Breve Prof.: Dr. André Ponce
Leia mais3 Modelos Comparativos: Teoria e Metodologia
3 Modelos Comparativos: Teoria e Metodologia Para avaliar o desempenho do modelo STAR-Tree, foram estimados os modelos Naive, ARMAX e Redes Neurais. O ajuste dos modelos ARMAX e das redes neurais foi feito
Leia maisDescodificação iterativa
Sílvio A. Abrantes DEEC/FEUP 26 Descodificação iterativa 2 Descodificação de códigos LDPC por transferência de mensagens em grafos de Tanner Introdução Diagrama de blocos de um sistema genérico de codificação
Leia maisPROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS
PROCESSO SELETIVO N 42/2019 PROVA 2 - CONHECIMENTOS ESPECÍFICOS LEIA ATENTAMENTE AS INSTRUÇÕES ABAIXO 1. Você recebeu do fiscal o seguinte material: (a) Este caderno, com o enunciado das 20 (vinte) questões
Leia maisMETAHEURÍSTICAS: 1 SIMULATED ANNEALING (S.A) 1.1 INTRODUÇÃO
1 SIMULATED ANNEALING (S.A) 1.1 INTRODUÇÃO METAHEURÍSTICAS: É uma das primeiras metaheurísticas que foi utilizada com muito sucesso nos problemas complexos de pesquisa operacional. O S.A surgiu do campo
Leia maisINF 1771 Inteligência Artificial
INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support
Leia maisRegra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Hopfield Competitive Learning Radial Basis Function Formas de Aprendizado Existe
Leia mais2 Modelos Não Lineares
Modelos Não Lineares 17 2 Modelos Não Lineares 2.1. Introdução Nos últimos anos, muitos modelos não-lineares para a análise de séries temporais têm sido propostos. Na econometria clássica, os modelos de
Leia mais( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)
Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação
Leia maisUNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS PERCEPTRON MULTICAMADAS Prof. Dr. André A. P. Biscaro 1º Semestre de 2018 Arquitetura Redes Perceptron de Múltiplas Camadas (PMC), também conhecidas como redes MLP (Multiple Layer
Leia maisSexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo
Sexta Lista: Geração de Números Pseudo-Aleatórios e Método de Monte Carlo Antônio Carlos Roque da Silva Filho e Cristiano R. F. Granzotti 26 de junho de 2017 Os exercícios desta lista devem ser resolvidos
Leia maisMapas Auto-Organizáveis de Kohonen SOM
Universidade Federal do Espírito Santo Centro de Ciências Agrárias CCA UFES Departamento de Computação Mapas Auto-Organizáveis de Kohonen SOM Redes Neurais Artificiais Site: http://jeiks.net E-mail: jacsonrcsilva@gmail.com
Leia mais4. O algoritmo LMS e variantes
Apontamentos de Processamento Adaptativo de Sinais 4. O algoritmo LMS e variantes Família de algoritmos do gradiente Na prática usam-se estimativas do gradiente, ˆ (n), em vez do verdadeiro gradiente (n),
Leia maisEET-61 Introdução a Teoria da Informação
EET-61 Introdução a Teoria da Informação Aula 3- Codificação de Canal October 24, 2018 1 Introdução Em muitas situações, a mensagem a ser transmitida por um sistema de comunicações é uma sequência de bits.
Leia maisTransmissão de impulsos em banda-base
Transmissão de impulsos em banda-base Transmissão de impulsos através de um canal com ruído aditivo. Probabilidades de erro com detecção no ponto central Detecção de sinais binários em ruído gaussiano
Leia maisExercícios de programação
Exercícios de programação Estes exercícios serão propostos durante as aulas sobre o Mathematica. Caso você use outra linguagem para os exercícios e problemas do curso de estatística, resolva estes problemas,
Leia maisRedes Neurais: MLP. Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação
Universidade Federal do Rio Grande do Norte Departamento de Engenharia de Computação e Automação Redes Neurais: MLP DCA0121 Inteligência Artificial Aplicada Heitor Medeiros 1 Tópicos Redes diretas de múltiplas
Leia mais