4. O algoritmo LMS e variantes
|
|
|
- Jonathan Carlos Chaves
- 9 Há anos
- Visualizações:
Transcrição
1 Apontamentos de Processamento Adaptativo de Sinais 4. O algoritmo LMS e variantes
2 Família de algoritmos do gradiente Na prática usam-se estimativas do gradiente, ˆ (n), em vez do verdadeiro gradiente (n), pois não é possível calcular valores médios com base num único instante n sem conhecer a estatística de conjunto. A equação genérica de actualização de coeficientes, que antes era c(n + 1) = c(n) µ (n), passa a ser c(n + 1) = c(n) µˆ (n) Consoante a estimativa do gradiente que se use assim vamos obter uma diferente simplificação do algoritmo. Podemos classificar os diversos algoritmos em dois grupos: O algoritmo LMS e variantes 4-2
3 O algoritmo LMS A mais popular de todas as estimativas de (n) foi sugerida por Widrow e Hoff em consiste em substituir os valores médios das variáveis pelos seus valores instantâneos. o algoritmo resultante chama-se algoritmo LMS ("least-mean-squares"). No algoritmo LMS a estimativa do gradiente vem dada por ˆ (n) = e2 (n) c(n) = e 2 (n) c o (n) e 2 (n) c 1 (n) e 2 (n) c N 1 (n) = 2e(n) e(n) c o (n) e(n) c 1 (n) e(n) c N 1 (n) = 2e(n)a(n) ou ainda por ˆ (n) = e2 (n) c(n) = 2 [ a(n)at (n)]c(n) 2d(n)a(n) A equação de actualização de coeficientes é c(n + 1) = c(n) + 2µe(n)a(n) (LMS) O passo de adaptação deve ter um valor na gama 0 <µ< 1 λ max (ou melhor ainda: 0 <µ< 1 tr(r) ) O algoritmo LMS e variantes 4-3
4 Valores médios da estimativa do gradiente e dos coeficientes Quando o valor médio da estimativa de um parâmetro é igual ao próprio parâmetro diz-se que a estimativa não é tendenciosa ou não é enviesada. A estimativa ˆ (n) é aleatória mas não é enviesada. Porquê? Porque, se c(n) for mantido constante (c(n)=c): E[ ˆ (n)] = 2Rc 2 p = (n) Em média, o vector c(n) converge para o valor óptimo. E[c(n +1)] = (I 2µR)E[c(n)] + 2µp À medida que o índice n se aproxima de infinito os coeficientes atingem os seus valores de regime permanente e a média de E[c(n +1)] é igual à média de E[c(n)] : E[c( )] = (I 2µR)E[c( )]+ 2µp E[c( )] = R 1 p = c opt O algoritmo LMS e variantes 4-4
5 O efeito da estimativa ruidosa no algoritmo LMS Devido à estimativa ruidosa do gradiente, o vector de coeficientes c(n) não atinge o valor óptimo, apenas flutua em torno dele, se o passo µ for constante. A flutuação é tanto maior quanto maior for µ. O erro quadrático médio final ε ( ) não é igual ao erro quadrático médio mínimo, ε min. Uma medida da qualidade da aproximação é o desajuste, M: M = E [ ε ( ) ] ε min ε min µtr[r] (se µ<< 1 λ max ) (Um valor de M = 10% é razoável) O que fazer para melhorar o desempenho? 1. No início da adaptação o passo µ deve ser grande. Porquê? Para que a convergência seja rápida. 2. Depois, já mais próximo do regime permanente, vai-se reduzindo o passo. Porquê? Para que o erro residual final seja pequeno. O algoritmo LMS e variantes 4-5
6 Exemplo com LMS Filtro adaptativo com N=2 e N=3 Ruído r(n) d(n)= 3sen ω 1 n + u(n) Filtro adaptativ e(n) a(n)=2 cos ω 1 n+ cos ω 2 n 2π ω1 = rad / s 6 ω2 = 2ω1 2 Variância do ruído branco: σ 1 = 0,0025 S/N = 30dB µ = 0,02 (N = 2) e µ = 0,013 (N = 3) (para que M 10%) Os cálculos conduziriam a: N = 2: 2,5 0, 75 R 0,75 2,5 p = 0 1, 5 c opt = R 1 18 / 91 p = 60 / 91 = 0,1978 0, ε = 2,5(c 0 + c1 ) 3c1 +1, 5c 0 c 1 +1, 5 (com ε min = 0,511) N = 3: 2,5 0,75 1, 25 R 0, 75 2,5 0, 75 1,25 0,75 2,5 p = 0 1, 5 1, 5 c opt = 0,175 0,375 0,575 ε min = 0,075 com N = 3 o fundo da taça está mais baixo. o passo de adaptação teve de ser menor (para igual M). há uma menor flutuação junto ao fundo da taça (ver fórmula do desajuste). O algoritmo LMS e variantes 4-6
7 Gráficos do exemplo com LMS O erro quadrático médio foi obtido como a média de conjunto dos erros quadráticos instantâneos obtidos em 100 simulações. Curva de aprendizagem (desajustes aproximadamente iguais) Curva de aprendizagem com algoritmos LMS e gradiente (N=3) O algoritmo LMS e variantes 4-7
8 Variantes do algoritmo LMS O algoritmo LMS é o mais usado de todos os algoritmos adaptativos. As variantes de LMS surgiram para: 1. simplificar a implementação do algoritmo; 2. acelerar a convergência dos coeficientes em direcção aos seus valores óptimos; 3. reduzir o erro residual dos coeficientes em regime permanente, relativamente aos valores óptimos. Variantes a apresentar em seguida: Passo fixo: LMS normalizado Algoritmo do sinal Passo variável: Algoritmo VS O algoritmo LMS e variantes 4-8
9 Algoritmo LMS normalizado (NLMS) O passo é normalizado relativamente ao quadrado da norma euclidiana de : a(n) N 1 a(n) 2 = a T (n)a(n) = a 2 (n j) Isto faz-se para que a convergência do algoritmo fique mais independente do sinal de entrada. Este escalar de normalização é a soma dos quadrados dos sinais que em cada momento se encontram em cada andar do filtro transversal adaptativo j=0 O quadrado da norma pode ser calculado recursivamente porque em cada nova iteração n só aparece uma nova amostra de sinal, a(n), à entrada enquanto que a mais antiga é deitada fora e as outras são simplesmente deslocadas: a(n) 2 = a 2 (n) + a(n 1) 2 a 2 (n N) A equação de actualização de coeficientes é 2µ c(n + 1) = c(n) + b + a(n) 2 e(n) a(n) 0 < µ < 1 (para garantir convergência) não depende do sinal de entrada! b > 0 (para evitar divisão por valor muito pequeno ou zero) O algoritmo LMS e variantes 4-9
10 Algoritmo do sinal Os cálculos do algoritmo LMS podem ser simplificados se se usar uma estimativa ˆ (n) ainda mais simples, como no algoritmo do sinal, onde se toma uma aproximação mais grosseira do gradiente considerando apenas o sinal de e(n): em que ˆ (n) = 2sign[e(n)] a(n) sign(x ) = 1 x < 0 1 x 0 O algoritmo é expresso por A função sign(x) c(n + 1) = c(n) + 2µsign[e(n)]a(n) (Sinal) Para se obter mesmo erro final µ tem de ser mais pequeno ( convergência mais lenta). Se a(n) = ±1 o termo corrector é ±2µ. Outras alternativas: c(n + 1) = c(n) + 2µe(n)sign[a(n)] c(n + 1) = c(n) + 2µsign[e(n)]sign[a(n)] O algoritmo LMS e variantes 4-10
11 Algoritmo VS ("variable step") Mesma estimativa de gradiente do algoritmo LMS mas o passo de adaptação deixa de ser constante e idêntico para todos os coeficientes: c(n + 1) = c(n) + 2e(n)M(n)a(n) (VS) M(n) é a matriz diagonal dos diferentes passos: µ o (n) µ 1 (n) 0 M(n) = 0 0 µ N 1 (n) A matriz M(n) melhora o método LMS ao fornecer uma estimativa direccional mais rigorosa do fundo da superfície de erro. Regra de variação de µ: 1. Os passos µ i (n) (i = 0, 1,, N -1) podem ter valores entre µ min e µ max. O valor mínimo deve ser adequado ao desajuste desejado em regime permanente e o valor máximo deve respeitar 0 <µ < 1 max. λ max 2. Os passos µ i (n) são aumentados por um factor constante a (2, por exemplo) se a componente de ordem i de ˆ (n) mantiver o mesmo sinal em m 1 amostras sucessivas, a não ser que µ i ( n) = µ max, e são diminuídos pelo mesmo factor a se ˆ (n) mudar de sinal em m o amostras sucessivas, a não ser que µ ( n) = µ i min. Valores de m o e m 1 : 2 ou 3. O algoritmo VS converge mais rapidamente que LMS. A implementação do algoritmo é um pouco mais complexa. O algoritmo LMS e variantes 4-11
12 Exemplo comparativo entre LMS, NLMS e Sinal Mesmo esquema do exemplo anterior, com N=3 mas sem ruído c opt = [ 0,175 0,375 0,575] T NLMS: µ b+ a(n) 2 0,013 0,1 + 7,5 = 0,0017 Evolução dos coeficientes do filtro com os algoritmos LMS e NLMS Evolução dos coeficientes do filtro usando o algoritmo do sinal O algoritmo LMS e variantes 4-12
13 Exemplo comparativo entre LMS, NLMS e Sinal (Cont.) Erro quadrático instantâneo usando LMS normalizado (evolução exponencial decrescente) Erro quadrático médio usando LMS e NLMS (LMS: µ=0,013; NLMS: µ b+ a(n) 2 0,0017 ) O algoritmo LMS e variantes 4-13
14 Equações de actualização de coeficientes em algoritmos do tipo LMS Sinais e coeficientes reais LMS c(n + 1) = c(n) + 2µe(n)a(n) LMS normalizado c(n + 1) = c(n) + 2µ b + a(n) 2 e(n) a(n) b > 0 0 < µ < 1 Sinal c(n + 1) = c(n) + 2µsign[e(n)]a(n) c(n + 1) = c(n) + 2µe(n)sign[a(n)] c(n + 1) = c(n) + 2µsign[e(n)]sign[a(n)] VS c(n + 1) = c(n) + 2e(n)M(n)a(n) O algoritmo LMS e variantes 4-14
15 Equações de actualização de coeficientes em algoritmos do tipo LMS Sinais e coeficientes complexos a (n) = a I (n) + ja Q (n) c (n) = c I (n) + jc Q (n) d(n) = d I (n) + jd Q (n) e(n) = e I (n) + je Q (n) R ˆ = a(n) a H (n) y(n) = y I (n) + jy Q (n) = = c H (n)a(n) ˆ p = a(n) d (n) y I (n) = c T I (n)a I (n) c T Q (n)a Q (n) y Q (n) = c T I (n)a Q (n) + c T Q (n)a I (n) e (n) = d(n) y(n) e I (n) = d I (n) y I (n) e Q (n) = d Q (n) y Q (n) LMS c(n + 1) = c(n) + 2µe (n)a(n) c I (n + 1) = c I (n) + 2µ[e I (n)a I (n) e Q (n)a Q (n)] c Q (n +1) = c Q (n) + 2µ[e I (n)a Q (n) + e Q (n)a I (n)] LMS normalizado c(n + 1) = c(n) + b 2µ b + a(n) 2 e (n) a(n) > 0 0 < µ < 1 a(n) 2 = a H (n) a(n) Sinal c(n + 1) = c(n) + 2µsign[e (n)]a(n) c(n + 1) = c(n) + 2µe (n)sign[a(n)] c(n + 1) = c(n) + 2µsign[e (n)]sign[a(n)] O algoritmo LMS e variantes 4-15
Introdução ao Processamento Estatístico de Sinais
Charles Casimiro Cavalcante [email protected] Grupo de Pesquisa em Telecomunicações Sem Fio GTEL Departamento de Engenharia de Teleinformática Universidade Federal do Ceará UFC http://www.gtel.ufc.br/
Resumo. Filtragem Adaptativa. Filtros adaptativos. Tarefas desempenhadas pelos filtros
Resumo Filtragem Adaptativa Luís Caldas de Oliveira lco@istutlpt Instituto Superior Técnico Sistemas de filtragem adaptativa Conceitos de filtragem adaptativa Filtro de Wiener Algoritmo steepest descent
Sílvio A. Abrantes Faculdade de Engenharia Universidade do Porto, Portugal
Apontamentos de Processamento Adaptativo de Sinais Sílvio A. Abrantes Faculdade de Engenharia Universidade do Porto, Portugal Apontamentos de Processamento Adaptativo de Sinais 1. Introdução Introdução
Filtragem Adaptativa
Filtragem Adaptativa Luís Caldas de Oliveira lco@istutlpt Instituto Superior Técnico Filtragem Adaptativa p1/45 Resumo Sistemas de filtragem adaptativa Filtragem Adaptativa p2/45 Resumo Sistemas de filtragem
ESTIMAÇÃO PARAMÉTRICA UTILIZANDO ALGORITMO RLS. Rodrigo Urban de Morais
UNIVERSIDADE FEDERAL DO PARANÁ PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA PPGEE ESTIMAÇÃO PARAMÉTRICA UTILIZANDO ALGORITMO RLS Rodrigo Urban de Morais CURITIBA, JUNHO DE 2007. Sumário 1. Introdução...3
Redes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
5. O algoritmo dos mínimos quadrados
Apotametos de Processameto Adaptativo de Siais 5. O algoritmo dos míimos quadrados Método dos míimos quadrados Os algoritmos de míimos quadrados são uma alterativa aos algoritmos de gradiete. Estrutura
UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica
REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava
INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o
INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 27/28 Semestre: o MATEMÁTICA COMPUTACIONAL Exercícios [4 Sendo A M n (C) mostre que: (a) n A 2 A n A 2 ; (b)
RESTAURAÇÃO E RECONSTRUÇÃO DE IMAGENS. Nielsen Castelo Damasceno
RESTAURAÇÃO E RECONSTRUÇÃO DE IMAGENS Nielsen Castelo Damasceno Restauração de imagem Procura recuperar uma imagem corrompida com base em um conhecimento a priori do fenômeno de degradação. Restauração
Análise Complexa e Equações Diferenciais 1 ō Semestre 2016/2017
Análise Complexa e Equações Diferenciais 1 ō Semestre 016/017 ō Teste Versão A (Cursos: MEBiol, MEQ 17 de Dezembro de 016, 10h [,0 val 1 Considere a equação diferencial e t + y e t + ( 1 + ye t dy dt 0
étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA
étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO
UNIVERSIDADE FEDERAL DE PERNAMBUCO Lista de Exercícios / Cálculo Numérico 1ª Unidade
1) Analise as alternativas abaixo e marque V para verdadeiro e F para falso. No segundo caso, explique como as tornaria verdadeiras: ( ) O método das secantes é utilizado para solucionar um problema de
Distribuições Amostrais e Estimação Pontual de Parâmetros
Distribuições Amostrais e Estimação Pontual de Parâmetros ESQUEMA DO CAPÍTULO 7.1 INTRODUÇÃO 7.2 DISTRIBUIÇÕES AMOSTRAIS E TEOREMA DO LIMITE CENTRAL 7.3 CONCEITOS GERAIS DE ESTIMAÇÃO PONTUAL 7.3.1 Estimadores
Processamento de sinais digitais
Processamento de sinais digitais Aula 2: Descrição discreta no tempo de sinais e sistemas [email protected] Tópicos Sequências discretas no tempo. Princípio da superposição para sistemas lineares.
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.3. Perceptron Multicamadas - MLP 2.3.1. Introdução ao MLP 2.3.2. Treinamento
Cálculo Numérico. Resumo e Exercícios P2
Cálculo Numérico Resumo e Exercícios P2 Fórmulas e Resumo Teórico P2 Interpolação Em um conjunto de n pontos (x #, y # ), consiste em encontrar uma função f tal que f x # = y # para todo i = 1,2,, n. Na
Filtros de Média Movente
Processamento Digital de Sinais Filtros de Média Movente Prof. Dr. Carlos Alberto Ynoguti Características É o filtro ótimo para a tarefa de remover ruído aleatório de um sinal, e manter uma resposta a
Formatação de fonte. DM ( Delta Modulation ) ADM DPCM ADPCM
Formatação de fonte 3 DM ( Delta Modulation ) ADM DPCM ADPCM Modulação Delta (DM) Ilustração da modulação DM Um sistema DM 1/T s m[n] e[n] - Quantizador de 1 bit m q [n-1] z -1 m q [n] e q [n] = ±1 Codificador
Método dos gradientes (ou método de máxima descida)
Método dos gradientes (ou método de máxima descida) Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 14 de setembro de 2010 1 / 16 Método dos gradientes
3 Modelo Matemático Definições Iniciais. Denote-se, em geral, o desvio-padrão do processo por σ = γσ 0, sendo σ 0 o
Modelo Matemático 57 3 Modelo Matemático Este trabalho analisa o efeito da imprecisão na estimativa do desvio-padrão do processo sobre o desempenho do gráfico de S e sobre os índices de capacidade do processo.
Análise de Dados e Simulação
Universidade de São Paulo Instituto de Matemática e Estatística http:www.ime.usp.br/ mbranco Simulação de Variáveis Aleatórias Contínuas. O método da Transformada Inversa Teorema Seja U U (0,1). Para qualquer
Distribuição Amostral e Estimação Pontual de Parâmetros
Roteiro Distribuição Amostral e Estimação Pontual de Parâmetros 1. Introdução 2. Teorema Central do Limite 3. Conceitos de Estimação Pontual 4. Métodos de Estimação Pontual 5. Referências População e Amostra
Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi
Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos O problema de controle ótimo Considere
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Back Propagation Formas de Aprendizado Existe dois métodos básicos de aplicação do algoritmo Back Propagation: Aprendizado
Funções Geradoras de Variáveis Aleatórias. Simulação Discreta de Sistemas - Prof. Paulo Freitas - UFSC/CTC/INE
Funções Geradoras de Variáveis Aleatórias 1 Funções Geradoras de Variáveis Aleatórias Nos programas de simulação existe um GNA e inúmeras outras funções matemáticas descritas como Funções Geradoras de
INSTITUTO SUPERIOR TÉCNICO Licenciatura em Engenharia Física Tecnológica Licenciatura em Engenharia e Gestão Industrial Ano Lectivo: 2002/
INSTITUTO SUPERIOR TÉCNICO Licenciatura em Engenharia Física Tecnológica Licenciatura em Engenharia e Gestão Industrial Ano Lectivo: / ANÁLISE NUMÉRICA Exercícios Considere o sistema linear 6 x 5 y = a)
SCC Capítulo 4 Perceptron de Camada Única
Perceptron LMS SCC-5809 - Capítulo 4 Perceptron de Camada Única João Luís Garcia Rosa 1 1 SCC-ICMC-USP - [email protected] 2011 João Luís G. Rosa c 2011 - SCC-5809: Redes Neurais 1/45 Sumário Perceptron
Aula 6. Zeros reais de funções Parte 3
CÁLCULO NUMÉRICO Aula 6 Zeros reais de funções Parte 3 MÉTODO DE NEWTON RAPHSON Cálculo Numérico 3/48 CONSIDERAÇÕES INICIAS MÉTODO DO PONTO FIXO: Uma das condições de convergência é que onde I é um intervalo
Distribuições de Probabilidade. Distribuição Uniforme Distribuição Exponencial Distribuição Normal
Distribuições de Probabilidade Distribuição Uniforme Distribuição Exponencial Distribuição Normal 1 Distribuição Uniforme A distribuição Uniforme atribui uma densidade igual ao longo de um intervalo (a,b).
CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano
CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano [email protected] Aula 6 Zeros reais de funções Parte 3 MÉTODO DE NEWTON RAPHSON Cálculo Numérico 3/47 CONSIDERAÇÕES INICIAS MÉTODO DO PONTO FIXO:
CONHECIMENTOS ESPECÍFICOS
CONHECIMENTOS ESPECÍFICOS 2003 2004 2005 2006 2007 2008 2009 2010 X 39,0 39,5 39,5 39,0 39,5 41,5 42,0 42,0 Y 46,5 65,5 86,0 100,0 121,0 150,5 174,0 203,0 A tabela acima mostra as quantidades, em milhões
Considerações sobre matrizes no controlo. 1 - Valores Próprios, Vectores Próprios e Equação Característica
- Valores Próprios, Vectores Próprios e Equação Característica Os valores próprios e vectores próprios duma matriz são valores particulares obtidos da equação onde: λ v A v () A é uma matriz quadrada de
TE231 Capitulo 2 Zeros de Funções; Prof. Mateus Duarte Teixeira
TE231 Capitulo 2 Zeros de Funções; Prof. Mateus Duarte Teixeira Sumário 1. Como obter raízes reais de uma equação qualquer 2. Métodos iterativos para obtenção de raízes 1. Isolamento das raízes 2. Refinamento
MÉTODOS NUMÉRICOS. ENGENHARIA ELECTRÓNICA INDUSTRIAL e de COMPUTADORES
UNIVERSIDADE DO MINHO MÉTODOS NUMÉRICOS ENGENHARIA ELECTRÓNICA INDUSTRIAL e de COMPUTADORES EXERCÍCIOS PRÁTICOS- 1 a parte Ano lectivo de 2004/2005 Exercícios práticos - CONUM Solução de uma equação não
Departamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B =
Departamento de Matemática da Universidade de Coimbra Optimização Numérica Licenciatura em Matemática Ano lectivo 2006/2007 Folha 1 1. Considere as matrizes A = [ 1 1 1 2 ] e B = [ 1 3 1 2 (a) Verifique
4.1 Resolvendo o Sistema Linear
4 Solução Numérica 4.1 Resolvendo o Sistema Linear Resolveremos o sistema (2 7) pelo método de Usawa acelerado por Gradiente Conjugado (ver [15, pp. 202]). Primeiro eliminamos a variável u e depois resolvemos
Análise Multivariada Aplicada à Contabilidade
Mestrado e Doutorado em Controladoria e Contabilidade Análise Multivariada Aplicada à Contabilidade Prof. Dr. Marcelo Botelho da Costa Moraes www.marcelobotelho.com [email protected] Turma: 2º / 2016 1 Agenda
Introdução ao Processamento Digital de Imagens. Aula 9 Restauração de Imagens. Prof. Dr. Marcelo Andrade da Costa Vieira
Introdução ao Processamento Digital de Imagens Aula 9 Restauração de Imagens Prof. Dr. Marcelo Andrade da Costa Vieira [email protected] Realce x Restauração Realce: Processar a Imagem para obter um resultado
Comparação de algoritmos adaptativos para cancelamento de eco acústico
Comparação de algoritmos adaptativos para cancelamento de eco acústico Bruno C. Bispo e Sergio L. Netto Resumo Neste artigo são comparados diferentes algoritmos adaptativos para cancelamento de eco acústico.
DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL INTRODUÇÃO ROTEIRO POPULAÇÃO E AMOSTRA. Estatística Aplicada à Engenharia
ROTEIRO 1. Introdução; DISTRIBUIÇÃO AMOSTRAL E ESTIMAÇÃO PONTUAL. Teorema Central do Limite; 3. Conceitos de estimação pontual; 4. Métodos de estimação pontual; 5. Referências. 1 POPULAÇÃO E AMOSTRA População:
Capítulo 5 Derivadas Parciais e Direcionais
Capítulo 5 Derivadas Parciais e Direcionais 1. Conceitos Sabe-se que dois problemas estão relacionados com derivadas: Problema I: Taxas de variação da função. Problema II: Coeficiente angular de reta tangente.
Processamento de erros grosseiros - Identiمحcaچcﷺao
Processamento de erros grosseiros - Identiمحcaچcﷺao Método ˆb Base: variável ˆβ interpretada como uma estimativa do erro associado à medida; verificação da magnitude do erro com relação a faixa esperada
Projeto de Filtros IIR. Métodos de Aproximação para Filtros Analógicos
Projeto de Filtros IIR Métodos de Aproximação para Filtros Analógicos Introdução Especificações para filtros passa-baixas analógicos - Faixa de passagem: 0 W W p - Faixa de rejeição: W W r - Ripple na
ANÁLISE DE SINAIS DINÂMICOS
ANÁLISE DE SINAIS DINÂMICOS Paulo S. Varoto 7 . - Classificação de Sinais Sinais dinâmicos são geralmente classificados como deterministicos e aleatórios, como mostra a figura abaixo: Periódicos Determinísticos
x exp( t 2 )dt f(x) =
INTERPOLAÇÃO POLINOMIAL 1 As notas de aula que se seguem são uma compilação dos textos relacionados na bibliografia e não têm a intenção de substituir o livro-texto, nem qualquer outra bibliografia Aproximação
FILTROS NO DOMÍNIO ESPACIAL. Nielsen Castelo Damasceno
FILTROS NO DOMÍNIO ESPACIAL Nielsen Castelo Damasceno Gerando máscaras de filtragem espacial Algumas vezes pode ser útil expressar a soma de produtos como: = + + = = w são os coeficientes do filtros. z
Algoritmos de Aprendizado. Formas de Aprendizado. Aprendizado Batch x Incremental. Aprendizado Batch x Incremental
Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square Multi-Layer Perceptrons (Back Propagation Radial Basis Functions (RBFs Competitive Learning Hopfield Formas de Aprendizado
3 Filtro de Kalman Discreto
3 Filtro de Kalman Discreto As medidas realizadas por sensores estão sujeitas a erros, como pode ser visto no Capítulo 2. Os filtros são aplicados aos sinais medidos pelos sensores para reduzir os erros,
CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano
CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano [email protected] Aula 9 04/2014 Zeros reais de funções Parte 3 MÉTODO DE NEWTON RAPHSON Cálculo Numérico 3/42 CONSIDERAÇÕES INICIAS MÉTODO DO PONTO
CÁLCULO NUMÉRICO. Profa. Dra. Yara de Souza Tadano
CÁLCULO NUMÉRICO Profa. Dra. Yara de Souza Tadano [email protected] Aula 7 04/2014 Zeros reais de funções Parte 1 Objetivo Determinar valores aproximados para as soluções (raízes) de equações da
Circuitos Elétricos I EEL420
Universidade Federal do Rio de Janeiro Circuitos Elétricos I EEL420 Conteúdo 2 - Elementos básicos de circuito e suas associações...1 2.1 - Resistores lineares e invariantes...1 2.1.1 - Curto circuito...2
Notas de Aula de Cálculo Numérico
IM-Universidade Federal do Rio de Janeiro Departamento de Ciência da Computação Notas de Aula de Cálculo Numérico Lista de Exercícios Prof. a Angela Gonçalves 3 1. Erros 1) Converta os seguintes números
Cálculo Numérico / Métodos Numéricos. Solução de equações polinomiais Briot-Ruffini-Horner
Cálculo Numérico / Métodos Numéricos Solução de equações polinomiais Briot-Ruffini-Horner Equações Polinomiais p = x + + a ( x) ao + a1 n x n Com a i R, i = 0,1,, n e a n 0 para garantir que o polinômio
MAP CÁLCULO NUMÉRICO (POLI) Lista de Exercícios sobre Zeros de Funções
MAP 2121 - CÁLCULO NUMÉRICO (POLI) Lista de Exercícios sobre Zeros de Funções 1: Mostre que a função f(x) = x 2 4x + cos x possui exatamente duas raízes: α 1 [0, 1.8] e α 2 [3, 5]. Considere as funções:
Palavras-Chave: Autovalores, Matriz, Método de Jacobi. (1)
MSc Alexandre stácio Féo Associação ducacional Dom Bosco - Faculdade de ngenharia de Resende Caixa Postal: 8.698/87 - CP: 75-97 - Resende - RJ Brasil Professor e Doutorando de ngenharia [email protected]
Aproximação da Distribuição Binomial pela Distribuição Normal
Aproximação da Distribuição Binomial pela Distribuição Normal Uma das utilidades da distribuição normal é que ela pode ser usada para fornecer aproximações para algumas distribuições de probabilidade discretas.
PARTE TEÓRICA Perguntas de escolha múltipla
PROBABILIDADES E ESTATÍSTICA MIEEC/FEUP PARTE TEÓRICA Perguntas de escolha múltipla 1 Dada a experiência aleatória ε define-se espaço amostral associado a ε como sendo: A O espaço físico onde se realiza
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais
Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas ([email protected]) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal
Econometria. Econometria MQO MQO. Resíduos. Resíduos MQO. 1. Exemplo da técnica MQO. 2. Hipóteses do Modelo de RLM. 3.
3. Ajuste do Modelo 4. Modelo Restrito Resíduos Resíduos 1 M = I- X(X X) -1 X Hipóteses do modelo Linearidade significa ser linear nos parâmetros. Identificação: Só existe um único conjunto de parâmetros
2. Redes Neurais Artificiais
Computação Bioinspirada - 5955010-1 2. Redes Neurais Artificiais Prof. Renato Tinós Depto. de Computação e Matemática (FFCLRP/USP) 1 2.2. Perceptron 2.2.1. Introdução 2.2.2. Funcionamento do perceptron
ANÁLISE DE SINAIS E SISTEMAS
ANÁLISE DE SINAIS E SISTEMAS AULA 2: :. Sinais de Tempo Contínuo e Sinais de Tempo Discreto; 2. Sinais Analógicos e Digitais; 3. Sinais Determinísticos e Sinais Aleatórios; 4. Sinais Pares e Sinais Ímpares;
Cap. 8 - Intervalos Estatísticos para uma Única Amostra
Intervalos Estatísticos para ESQUEMA DO CAPÍTULO 8.1 INTRODUÇÃO 8.2 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO NORMAL, VARIÂNCIA CONHECIDA 8.3 INTERVALO DE CONFIANÇA PARA A MÉDIA DE UMA DISTRIBUIÇÃO
Reconhecimento de Padrões. Reconhecimento de Padrões
Reconhecimento de Padrões 0.9 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0.1 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 Escola Superior de Tecnologia Engenharia Informática Reconhecimento de Padrões Prof. João Ascenso e Prof.
exercícios de análise numérica II
exercícios de análise numérica II lic. matemática aplicada e computação (4/5) aulas práticas - capítulo Exercício. Mostre que a soma dos polinómios base de Lagrange é a função constante. Exercício. Usando
