TÓPICOS DE INVERSÃO EM GEOFÍSICA

Tamanho: px
Começar a partir da página:

Download "TÓPICOS DE INVERSÃO EM GEOFÍSICA"

Transcrição

1 TÓPICOS DE INVERSÃO EM GEOFÍSICA Vanderlei Coelho de Oliveira Junior Leonardo Uieda Versão

2 Tópicos inversão em geofísica Copyright c Vanderlei Coelho de Olivera Junior & Leonardo Uieda This work is licensed under the Creative Commons Attribution 40 International License To view a copy of this license, visit

3 ii Sumário 1 Introdução 1 2 Formulação matemática do problema inverso 8 21 Problemas lineares Problemas não-lineares 15 3 Regularização Norma mínima (Tikhonov de ordem 0) Igualdade Suavidade (Tikhonov de ordem 1) Variação total 28 4 Procedimentos práticos Ajustar os dados observados Determinar um valor para o parâmetro de regularização 32 5 Leitura recomendada 35 Referências Bibliográficas 36 A Operações com matrizes 37 A1 Definições 37 A2 Derivadas 39 A3 Gradientes 41

4 SUMÁRIO iii A4 Hessianas 42 A5 Expansão em série de Taylor 42 A51 Até primeira ordem 43 A52 Até segunda ordem 43

5 1 Capítulo 1 Introdução Em ciências aplicadas, ao nos depararmos com um determinado fenômeno a ser estudado, a pergunta imediata é: como estudar tal fenômeno? Em problemas geofísicos, esse fenômeno é, em geral, um sistema físico O procedimento científico utilizado para estudá-lo começa com a realização de observações de uma determinada grandeza física que, supostamente, seja causada pelo sistema físico em questão Exemplos de sistemas físicos encontrados na geofísica são: Propagação de ondas elásticas: sísmica (Figura 1) Teoria do potencial: gravimetria (Figura 2) e magnetometria Difusão de correntes elétricas: SEV (Figura 3) Uma vez que não conhecemos o sistema físico, a única informação que temos são as observações (ou dados observados) Embora o sistema físico seja desconhecido, alguma informação adicional (em geral proporcionada pela geologia) nos fornece um conjunto de hipóteses (Figuras 4, 5 e 6) Isso nos leva a seguinte pergunta: como testar se as observações podem ser explicadas por uma determinada hipótese? Para responder esta pergunta, precisamos ser capazes de calcular os dados preditos pela hipótese em questão Matematicamente,

6 1 Introdução 2 isso significa que precisamos encontrar uma função que relaciona a hipótese aos dados preditos hipótese dados preditos Uma função é descrita em termos de parâmetros Portanto, calcular os dados preditos por uma determinada hipótese significa encontrar uma função f tal que: dados preditos = f(hipótese) Para tanto, é preciso descrever a hipótese em termos de parâmetros (Figuras 7, 8, 9), isto é: dados preditos = f(parâmetros) O raciocínio desenvolvido acima nos permite definir um importante conceito: Estabelecer a relação funcional entre parâmetros (que descrevem uma hipótese) e dados preditos é o que se conhece como problema direto Nesse sentido, dado um conjunto de parâmetros, é possível calcular os dados preditos Isso nos permite testar se uma hipótese é capaz de explicar os dados observados Esse teste é feito por meio da comparação entre os dados observados e os dados preditos por uma determinada hipótese Se os dados preditos reproduzem os dados observados, pode-se dizer que a hipótese explica os dados observados e, portanto, é válida Nesse contexto, é possível definir os seguintes conceitos importantes: Fornecer os parâmetros e comparar os respectivos dados preditos com os dados observados é o que se conhece como modelagem direta

7 1 Introdução 3 e Estimar os parâmetros automaticamente, de forma que os dados preditos sejam os mais próximos possíveis aos dados observados, é conhecido como problema inverso Parâmetros Modelagem direta calcula Dados preditos compara Problema inverso Parâmetros estima Dados observados Dados observados

8 1 Introdução 4 Sismograma t u z fonte receptores raios v1 v2 v3 x v4 Figura 1: Exemplo de sistema físico que caracteriza uma aquisição sísmica Neste caso o sistema envolve ondas sísmicas (representadas pelos raios) que se propagam em meios com velocidades V1, V2, V3 e V4 A grandeza física que podemos observar é o deslocamento dos sismômetros u (neste caso somente na vertical) Estas observações são tipicamente dispostas em um sismograma g z x z Δρ Figura 2: Exemplo de sistema físico que caracteriza um levantamento gravimétrico Neste caso o sistema envolve o efeito gravitacional causado por um contraste de densidade anômalo ρ A grandeza física que podemos observar é a anomalia da gravidade g z

9 1 Introdução 5 ρ a AB/2 A M N B x z ρ(z) Figura 3: Exemplo de sistema físico que caracteriza uma sondagem elétrica vertical (SEV) Neste caso o sistema envolve a condução de correntes elétricas em um meio com resistividades elétrica ρ que varia com a profundidade A grandeza física que podemos observar é diferência de potencial elétrico entre os eletrodos M e N Esta grandeza é geralmente convertida para resistividade aparente ρ a x z Figura 4: Exemplo de hipótese que descreve o sistema físico referente a uma aquisição sísmica Modelo de duas camadas plano-paralelas, homogêneas e isotrópicas x z Δρ Figura 5: Exemplo de hipótese que descreve o sistema físico referente a uma levantamento gravimétrico Modelo de um corpo elipsoidal homogêno

10 1 Introdução 6 A M N B x z Figura 6: Exemplo de hipótese que descreve o sistema físico referente a uma sondagem elétrica vertical Modelo de três camadas plano-paralelas, homogêneas e isotrópicas Sismograma t u h 1 v1 x z v2 Figura 7: Exemplo de parametrização da hipótese na Figura 4 Neste caso, a hipótese é descrita em termos dos parâmetros h 1, V1 e V2 Esta hipótese produz o dado predito representado pela linha pontilhada vermelha

11 1 Introdução 7 g z x z Δρ Figura 8: Exemplo de parametrização da hipótese na Figura 5 Neste caso, a hipótese é descrita em termos dos parâmetros ρ 1, ρ 2,, ρ M que representam os constrastes de densidade de cada célula Esta hipótese produz o dado predito representado pela linha pontilhada vermelha ρ a AB/2 A M N B x h 1 ρ 1 z h 2 ρ 2 ρ 3 Figura 9: Exemplo de parametrização da hipótese na Figura 6 Neste caso, a hipótese é descrita em termos dos parâmetros h 1, ρ 1, h 2, ρ 2 e ρ 3 Esta hipótese produz o dado predito representado pela linha pontilhada vermelha

12 8 Capítulo 2 Formulação matemática do problema inverso Dado um conjunto de N observações, feitas em diferentes posições, tempos, etc, definimos um vetor de dados observados d o 1 d o N d o d o 2 =, (21) em que di o, i = 1, 2, 3,, N, é o dado observado na i-ésima posição, tempo, etc De forma análoga, definimos um vetor de dados preditos d p 1 d p N d p d p 2 =, (22) em que d p i, i = 1, 2, 3,, N, é o dado predito calculado na mesma posição, tempo, etc, que o i-ésimo dado observado Continuando no espírito de definição de vetores, definimos também um vetor que agrupa todos os M parâmetros, denominado vetor de

13 2 Formulação matemática do problema inverso 9 parâmetros p 1 p 2 p =, (23) em que p j, j = 1, 2, 3,, M, é o j-ésimo parâmetro Como vimos no Capítulo 1, os dados preditos são descritos por uma função dos parâmetros, ou seja, p M d p i = f i ( p) (24) Desta forma, podemos dizer que o vetor de dados preditos é uma função dos parâmetros f 1 ( p) d p = f( p) f 2 ( p) = (25) f N ( p) O problema inverso consiste em encontrar um vetor de parâmetros p que produza os dados preditos mais próximos possívies dos dados observados Para determinar a proximidade entre os dados observados e os dados preditos, é necessário quantificar a distância entre eles Isto é feito em termos da norma do vetor de resíduos r = d o f( p), (26) em que d o é o vetor de dados observados e f( p) é o vetor de dados preditos Para quantificar a distância entre os dados observados e os dados preditos utiliza-se, usualmente, o quadrado da norma quadrática (também conhecida como norma l 2 ou norma Euclidiana) do vetor de resíduos

14 2 Formulação matemática do problema inverso 10 N r 2 2 = [di o f i ( p)] 2 (27) i=1 Esta equação é também uma função escalar dos parâmetros Assim sendo, definimos uma função φ( p), chamada de função do ajuste, como N φ( p) = r 2 2 = [di o f i ( p)] 2 (28) i=1 Lembramos que o quadrado da norma Euclidiana de um vetor é igual ao produto escalar do vetor com ele mesmo, ou seja, r 2 2 = r r = r 1 r 1 + r 2 r r N r N (29) Como o vetor r é um vetor coluna (matriz com uma coluna), podemos escrever o produto escalar da equação 29 como ] r r = r T r 2 r = [r 1 r 2 r N (210) Dessa forma podemos reescrever a função do ajuste (equação 28) como r 1 r N φ( p) = r T r = [ d o f( p) ] T [ d o f( p) ] (211) Neste ponto é importante ressaltar o seguinte conceito: A função do ajuste é uma função escalar que quantifica a distância entre os dados observados e os dados preditos para um determinado vetor de parâmetros p Perante este conceito, o problema inverso consiste em determinar um vetor p que minimiza a função do ajuste φ( p) Matematicamente, isso equivale a encontrar o vetor

15 2 Formulação matemática do problema inverso 11 p tal que o gradiente da função φ( p) avaliado em p seja igual ao vetor nulo Este vetor p é um ponto extremo da função φ( p) O gradiente da função φ( p), avaliado em um p qualquer, é um vetor M-dimensional definido como (ver Apêndice A) φ( p) = φ( p) p 1 φ( p) p 2 φ( p) p M, (212) em que é o operador gradiente (Apêndice A) A partir da equação 211, a expressão para o i-ésimo elemento do vetor gradiente é φ( p) p i = p i { [ d o f( p) ] T [ d o { = f( p) T [ ]} d o f( p) p i }{{} escalar f( p) ]} { + [ d o f( p) ] T f( p) } (213) p }{{ i } escalar Lembrando que o transposto de um escalar é igual a ele mesmo, podemos tomar o transposto do segundo termo do lado direito da equação 213, obtendo φ( p) p i = 2 f( p) T [ d o p f( p) ], (214) i em que f( p) p i é um vetor N-dimensional (ver Apêndice A) dado por

16 2 Formulação matemática do problema inverso 12 f( p) p i = f 1 ( p) p i f 2 ( p) p i f N ( p) p i (215) Substituindo as equações 214 e 215 na expressão do gradiente (equação 212) obtemos 2 f( p) T [ d o p f( p) ] 1 φ( p) = 2 f( p) T [ d o p f( p) ] 2 2 f( p) T [ d o p f( p) ] M = 2 f( p) p 1 f( p) p 2 f( p) p M T T T [ d o f( p) ] (216) Por fim, o gradiente da função do ajuste φ( p) pode ser escrito como φ( p) = 2Ḡ( p) T [ d o f( p) ] (217) em que

17 2 Formulação matemática do problema inverso 13 [ f( p) Ḡ( p) = p 1 f( p) p 2 f( p) ] = p M f 1 ( p) p 1 f 2 ( p) p 1 f N ( p) p 1 f 1 ( p) p 2 f 1 ( p) p M f 2 ( p) f 2 ( p) p 2 p M (218) f N ( p) f N ( p) p 2 p M A matriz Ḡ( p) de dimensão N M é a matriz Jacobiana de f( p) Em problemas inversos, essa matriz Ḡ é comumente denominada matriz de sensibilidade, uma vez que o i-ésimo elemento de sua j-ésima coluna expressa a sensibilidade do i-ésimo dado predito em relação à variações do j-ésimo parâmetro As equações 217 e 218 mostram que o gradiente da função do ajuste φ( p) depende do vetor de dados preditos f( p) (equação 25) e sua derivada em relação aos parâmetros p Sendo assim, a função f que relaciona os parâmetros aos dados preditos determina o comportamento do gradiente de φ( p) Nas próximas seções analisaremos os casos em que a função f é linear ou não-linear em relação aos parâmetros Essa análise nos permitirá compreender a influência da função f na busca pelo vetor de parâmetros p que minimiza a função φ( p) 21 Problemas lineares Se a função f i ( p) (equação 24), que relaciona o vetor de parâmetros p ao i-ésimo dado predito, for uma combinação linear dos parâmetros, ela terá a seguinte forma f i ( p) = g i1 p 1 + g i2 p g im p M + b i, (219) em que g ij, j = 1, 2,, M, e b i são constantes Portanto, a derivada de f i ( p) em

18 2 Formulação matemática do problema inverso 14 relação ao j-ésimo parâmetro p j é dada por f i ( p) p j = g ij, (220) que não depende dos parâmetros Para um conjunto de N dados, o vetor de dados preditos tem a seguinte forma f( p) = Ḡ p + b, (221) sendo Ḡ a matriz de sensibilidade (equação 218) e b um vetor de constantes Substituindo a expressão acima no gradiente da função do ajuste (equação 217), chegamos a ( φ( p) = 2Ḡ T d o Ḡ p b ) (222) Seja p o vetor que minimiza a função φ( p), o gradiente desta função avaliado em p é igual ao vetor nulo Isto nos leva ao sistema de equações Ḡ T Ḡ p = Ḡ T ( d o b ) (223) Este sistema é conhecido como sistema de equações normais A solução para este sistema é p = (Ḡ T Ḡ) 1 Ḡ T ( d o b ), (224) que é conhecido como estimador de mínimos quadrados As equações 223 e 224 mostram que o vetor p que minimiza a função φ( p) pode ser obtido diretamente a partir da matriz Ḡ e dos vetores b e d o Isto caracteriza um problema inverso linear

19 2 Formulação matemática do problema inverso Problemas não-lineares Nesta seção analisaremos o caso em que a função f i ( p) (equação 24) não é uma combinação linear dos parâmetros Neste caso, a derivada de f i ( p) em relação aos parâmetros também será uma função dos parâmetros Logo, dependendo das características da função f i ( p), o gradiente da função do ajuste φ( p) pode ser nulo para mais de um valor de p Em outras palavras, a função φ( p) pode possuir vários pontos extremos além daquele em que esta função seja mínima Por esta razão, o cálculo do vetor p que minimiza a função do ajuste deve ser feito de forma iterativa Isto difere do problema inverso linear e caracteriza um problema inverso não-linear A busca pelo vetor p que minimiza uma determinada função faz parte de uma área da matemática conhecida como otimização, dentro da qual existem diversos métodos (Kelley, 1999) O procedimento padrão para realizar esta busca de forma iterativa é começar com uma determinada aproximação inicial p 0 e calcular uma correção p Esta correção é então aplicada à aproximação inicial dando origem a um novo vetor p 1 Este novo vetor serve como aproximação inicial para o cálculo de um segundo vetor p 2, e assim sucessivamente O processo termina quando é encontrado um vetor ˆp que seja próximo ao vetor p que minimiza a função em questão Em geral, não se tem garantia de que o vetor ˆp seja igual ao vetor p Dentre os vários métodos existentes, apresentaremos a seguir aquele conhecido como método de Gauss-Newton O procedimento para calcular a correção p começa com a expansão em série de Taylor da função a ser minimizada, neste caso φ( p) A expansão é feita até segunda ordem e em torno da aproximação inicial p 0 (ver Apêndice A) p = p 0 + p, (225) φ( p 0 + p) φ( p 0 ) + φ( p 0 ) T p pt φ( p0 ) p = ψ( p), (226) sendo φ( p 0 ) o vetor gradiente e φ( p0 ) a matriz Hessiana da função φ( p), calculados

20 2 Formulação matemática do problema inverso 16 em p 0 A função ψ( p) (equação 226) é uma aproximação de segunda ordem para a função φ( p) em torno do ponto p 0 Tal como no problema inverso linear, desejamos encontrar um ponto ˆp que minimiza a função ψ( p), ou seja, onde seu gradiente é nulo O gradiente de ψ( p) é dado por (ver Apêndice A) [ ψ( p) = φ( p 0 ) + φ( p 0 ) T p + 1 ] 2 pt φ( p0 ) p = φ( p 0 ) + φ( p0 ) p (227) Logo, o incremento p = ˆp p 0, que leva da aproximação inicial ao ponto ˆp onde o gradiente de ψ( p) é nulo, é a solução do sistema de equações φ( p 0 ) p = φ( p 0 ) (228) O cálculo do vetor gradiente de φ( p) foi feito anteriormente (equação 217), restando então o cálculo da matriz Hessiana φ( p) Para tanto, deriva-se o i-ésimo elemento do vetor gradiente (equações 212 e 214) em relação ao j-ésimo elemento do vetor de parâmetros p j (equação 23) p j ( ) φ( p) p i ( = p j 2 f( p) p i T [ d o f( p) ]) ( ( = 2 2 f( p) T [ ]) d o f( p) + 2 f( p) T f( p) ) p j p i p i p j }{{}}{{} escalar escalar (229) Esta equação 229 representa o j-ésimo elemento da i-ésima linha da matriz Hessiana (ver Apêndice A) No método de Gauss-Newton, o termo envolvendo as segundas derivadas de f( p) é negligenciado Desta forma a equação 229 pode ser aproximada por

21 2 Formulação matemática do problema inverso 17 p j ( ) φ( p) p i 2 f( p) T f( p) (230) p i p j Sendo assim, matriz Hessiana avaliada em p 0 é dada por ou φ( p 0 ) 2 f( p 0 ) T f( p 0 ) f( p 0 ) T f( p 0 ) p 1 p 1 p 1 p 2 f( p 0 ) T f( p 0 ) f( p 0 ) T f( p 0 ) p 2 p 1 p 2 f( p T 0 f( p 0 ) f( p 0 ) T f( p 0 ) p M p 1 p M p 2 f( p 0 ) T f( p 0 ) p 1 p M f( p 0 ) T f( p 0 ) p 2 p 2 p M, f( p 0 ) T f( p 0 ) p M p M φ( p 0 ) 2 f( p 0 ) p 1 f( p 0 ) p 2 f( p 0 ) p M T T T [ f( p0 ) f( p 0 ) p 1 p 2 f( p ] 0 ) = 2Ḡ( p 0 ) T Ḡ( p 0 ), (231) p M em que Ḡ( p 0 ) é a matriz de sensibilidade (equação 218) avaliada em p 0 A partir das equações 217 e 231, o sistema de equações 228 pode ser escrito como Ḡ( p 0 ) T Ḡ( p 0 ) p = Ḡ( p 0 ) T [ d o f( p 0 ) ], (232) em que d o é o vetor de dados observados e f( p 0 ) é o vetor de dados preditos avaliado em p 0 Este sistema de equações é o sistema de equações normais do problema inverso não-linear A equação 232 descreve o cálculo da correção p em uma determinada iteração do método Gauss-Newton Para o caso em que a função f i ( p) é uma combinação

22 2 Formulação matemática do problema inverso 18 linear dos parâmetros (equação 219), a equação 232 se reduz ao sistema de equações normais do problema inverso linear (equação 223) 1 Isto mostra que a solução do problema inverso linear é um caso particular da solução do problema inverso nãolinear pelo método Gauss-Newton Outra observação importante é a semelhança entre as equações 223 e 232, o que evidencia que um problema inverso não-linear é uma sucessão de problemas inversos lineares 1 Dica: Lembre que nos casos lineares f( p) = Ḡ p + b

23 19 Capítulo 3 Regularização As equações 223 do problema inverso linear e 232 do problema inverso não-linear são equações normais Estas equações são sistemas lineares cuja matriz é quadrada Para que a solução de uma equação normal seja única, é necessário que esta matriz tenha posto completo Uma condição para que uma matriz tenha posto completo é que todas as suas colunas (ou linhas) sejam linearmente independentes Esta condição é equivalente a dizer que a matriz possui determinante diferente de zero Em problemas geofísicos, é comum que a matriz do sistema normal possua determinante próximo de zero Ou seja, para fins práticos pode-se considerar que a matriz não tenha posto completo Isto faz com que o problema inverso geofísico seja um problema mal posto Um problema mal-posto apresenta, principalmente, instabilidade e falta de unicidade da solução A instabilidade é a alta variabilidade dos parâmetros perante pequenas variações nos dados Exemplo 31 Seja um conjunto de dados preditos A e outro conjunto de dados preditos ligeiramente diferentes B Se o problema inverso apresenta instabilidade, os parâmetros que produzem os dados preditos A são consideravelmente diferentes daqueles que produzem os dados preditos B

24 3 Regularização 20 A falta de unicidade é a existência de vários conjuntos de parâmetros que produzem os mesmos dados preditos Se o problema inverso apresenta falta de unicidade, os dados observados podem ser explicados por vários conjuntos de parâmetros diferentes Em termos práticos, existem vários vetores de parâmetros diferentes que minimizam a função do ajuste (equação 211) Os problemas inversos encontrados na geofísica são, em geral, mal-postos Os principais motivos para isto são: a presença de ruído nos dados observados; e, principalmente, a própria natureza do problema inverso Neste último caso, mesmo se fôssemos capazes de obter dados completamente isentos de ruído, ainda teríamos diversas combinações de parâmetros capazes de explicar os dados observados (ie, falta de unicidade) Por este motivo, quando nos deparamos com problemas inversos na geofísica, é essencial a utilização de regularização A regularização é um procedimento matemático que contorna os problemas de instabilidade e falta de unicidade em problemas inversos mal-postos Esse procedimento equivale a impor restrições aos parâmetros a serem estimados Desta forma, em um problema inverso regularizado buscamos estimar um conjunto de parâmetros que ajustam os dados observados e satisfaçam determinadas restrições Estas restrições introduzem informações a priori no problema inverso As informações podem ser de natureza geológica ou meramente matemática Em geral, a introdução de informações a priori é feita por meio de funções regularizadoras, que são funções escalares que dependem dos parâmetros Para incorporar informação a priori ao ajuste dos dados, formamos a função objetivo Ω( p) = φ( p) + µθ( p), (31) em que φ( p) é a função do ajuste (equação 211), θ( p) é uma função regularizadora e µ é um escalar positivo denominado parâmetro de regularização Desta forma, o problema

25 3 Regularização 21 inverso regularizado é definido como estimar um vetor de parâmetros p que minimiza a função objetivo Neste ponto é importante ressaltar que O parâmetro de regularização µ controla a importância relativa entre o ajuste aos dados observados e a concordância com a informação a priori O valor de µ é definido pelo usuário da inversão e por isso é importante compreender sua influência no resultado obtido (parâmetros estimados) Valores altos de µ tornam o problema inverso bem posto e fazem com que os parâmetros estimados satisfaçam quase completamente as informações a priori Porém, isto geralmente faz com que haja um desajuste entre os dados observados e preditos Por outro lado, valores baixos de µ fazem com que os parâmetros estimados ajustem os dados observados No entanto, a estimativa poderá ser não-única e/ou instável, dependendo de quanto o problema inverso for mal-posto Idealmente, deve-se encontrar um valor de µ que proporcione um bom ajuste e satisfaça as informações a priori o suficiente para estabilizar a solução Procedimentos práticos para determinação do valor de µ serão discutidos no Capítulo 4 No problema inverso regularizado, a linearidade não depende apenas da função f i ( p) (equação 24) que relaciona os parâmetros aos dados preditos, mas também da função regularizadora Nesse caso, para que o problema inverso seja linear, é necessário que tanto f i ( p) como o gradiente da função regularizadora sejam combinações lineares dos parâmetros Se ao menos uma destas funções for não-linear, o problema inverso deverá ser resolvido como um problema inverso não-linear Como foi observado anteriormente (Seção 22), o problema inverso linear é um caso particular do problema inverso não-linear Por esta razão, a formulação geral para o problema inverso regularizado será feita seguindo os procedimentos adotados para o problema inverso não-linear Assim sendo, iniciaremos expandindo a função objetivo (equação 31) em série de Taylor até segunda ordem

26 3 Regularização 22 Ω( p 0 + p) Ω( p 0 ) + Ω( p 0 ) T p pt Ω( p0 ) p, (32) sendo o vetor gradiente Ω( p 0 ) e a matriz Hessiana Ω( p0 ) de Ω( p) dados por Ω( p 0 ) = φ( p 0 ) + µ θ( p 0 ) (33) e Ω( p 0 ) = φ( p0 ) + µ θ( p0 ), (34) em que µ é o parâmetro de regularização, φ( p 0 ) e φ( p0 ) são o gradiente e a Hessiana da função do ajuste (equações 217 e 231) e θ( p 0 ) e θ( p0 ) são o gradiente e a Hessiana da função regularizadora, todos avaliados em p 0 Seguindo a dedução feita para o problema inverso não-linear (Seção 22), a correção p em uma determinada iteração do método Gauss-Newton é Ω( p 0 ) p = Ω( p 0 ) (35) Substituindo o gradiente e a Hessiana da função do ajuste (equações 217 e 231) obtemos [ ] 2Ḡ( p 0 ) T Ḡ( p 0 ) + µ θ( p0 ) p = 2Ḡ( p 0 ) [ T d o f( p 0 ) ] µ θ( p 0 ) (36) Esta é a equação para o problema inverso regularizado 1 A seguir, apresentaremos diferentes funções regularizadoras comumente encontradas em problemas inversos na geofísica Também mostraremos como fica a equação 36 para cada um dos casos 1 Tente obter a equação normal para o caso em que f( p) é linear

27 3 Regularização Norma mínima (Tikhonov de ordem 0) A função regularizadora mais comumente usada é a chamada norma mínima (também conhecida como ridge regression ou Tikhonov de ordem zero) Como seu nome sugere, esta função é utilizada para incorporar a informação de que o vetor de parâmetros deve ter a norma quadrática (l 2 ou Euclidiana) mínima Isto é, os parâmetros devem ser assumir valores mais próximos possíveis a zero De forma similar a equação 29, a função regularizadora de norma mínima tem a seguinte forma θ NM ( p) = p T p (37) O vetor gradiente θ NM ( p) e a matriz Hessiana θ NM ( p) (ver Apêndice A) desta função são, respectivamente, θ NM ( p) = 2Ī p (38) e θ NM ( p) = 2Ī, (39) em que Ī é a matriz identidade de dimensão M M, lembrando que M é o número de parâmetros Note que o gradiente da função regularizadora de norma mínima é uma combinação linear dos parâmetros Para o caso em que a função f i ( p) que relaciona os dados preditos aos parâmetros também é linear (equação 219), a equação normal do problema inverso linear regularizado, para o caso da regularização de norma mínima, é (Ḡ T Ḡ + µī) p = Ḡ ( T d o b ), (310) em que µ é o parâmetro de regularização, d o é o vetor de dados observados, Ḡ é a matriz de sensibilidade, b é um vetor de constantes (equação 221) e p é a solução de

28 3 Regularização 24 norma mínima para o problema inverso linear 2 Já para o caso em que f i ( p) é não-linear, o problema inverso torna-se também nãolinear Assim sendo, a equação normal do problema inverso não-linear regularizado, para o caso da regularização de norma mínima, é [Ḡ( p 0 ) T Ḡ( p 0 ) + µī] p = Ḡ( p 0 ) T [ d o f( p 0 ) ] µ p 0 (311) em que f( p 0 ) é o vetor de dados preditos avaliado em p 0 e p é a correção a ser aplicada a p 0 32 Igualdade Há casos em que se conhece um valor aproximado de um ou mais parâmetros Esta informação pode ser proveniente de furos de sondagem, afloramentos, etc Nestes casos, é desejável que o valor estimado para estes parâmetros seja o mais próximo possível dos valores conhecidos (e preestabelecidos) Para tanto, utilizamos a função regularizadora de igualdade θ IG ( p) = ( p p a ) T Ā T Ā ( p p a ), (312) em que p a é um vetor cujo j-ésimo elemento é: o valor conhecido (preestabelecido) do j-ésimo parâmetro; ou zero 3 caso não haja um valor conhecido do j-ésimo parâmetro A matriz Ā é uma matriz diagonal quadrada de dimensão M M, lembrando que M é o número de parâmetros O j-ésimo elemento da diagonal de Ā é 1 (um) caso haja um valor conhecido (preestabelecido) para j-ésimo parâmetro, ou 0 (zero) caso contrário Exemplo 32 Digamos que em um determinado problema inverso a função f i ( p) depende de três parâmetros Além disso, desejamos que o segundo parâmetro p 2 seja 2 Onde foi parar o termo θ NM ( p 0 )? Dica: Mostre que, se o problema inverso é linear, a estimativa p não depende da aproximação inicial p 0 3 Na prática, pode-se utilizar qualquer valor

29 3 Regularização 25 o mais próximo possível do valor 26 Podemos então usar a função regularizadora de igualdade para impor essa restrição Neste caso, os vetores p e p a e a matriz Ā serão p p = p 2, p a = 26 e Ā = p 3 O vetor gradiente θ IG ( p) e a matriz Hessiana θ IG ( p) (ver Apêndice A) da função regularizadora de igualdade são, respectivamente, θ IG ( p) = 2Ā T Ā ( p p a ) (313) e θ IG ( p) = 2Ā T Ā (314) Para o caso em que a função f i ( p) que relaciona os dados preditos aos parâmetros também é linear (equação 219), a equação normal do problema inverso linear regularizado, para o caso da regularização de igualdade, é (Ḡ T Ḡ + µā Ā) T p = Ḡ ( T d o b ) + µā T Ā p a, (315) em que µ é o parâmetro de regularização, d o é o vetor de dados observados, Ḡ é a matriz de sensibilidade, b é um vetor de constantes (equação 221) e p é a solução do problema inverso linear com regularização de igualdade Já para o caso em que f i ( p) é não-linear, o problema inverso torna-se também nãolinear Assim sendo, a equação normal do problema inverso não-linear regularizado, para o caso da regularização de igualdade, é [Ḡ( p 0 ) T Ḡ( p 0 ) + µā T Ā] p = Ḡ( p 0 ) T [ d o f( p 0 ) ] µā T Ā [ p 0 p a ] (316)

30 3 Regularização 26 em que f( p 0 ) é o vetor de dados preditos avaliado em p 0 e p é a correção a ser aplicada a p 0 33 Suavidade (Tikhonov de ordem 1) Em certas situações é desejável que a distribuição dos parâmetros seja suave Existem diversas interpretações para esta restrição, porém a mais comum é que parâmetros espacialmente adjacentes devem ter valores mais próximos possível Em outras palavras, não devem haver variações abruptas entre parâmetros espacialmente adjacentes, ou que a diferença entre estes parâmetros deve ser mínima A função regularizadora utilizada para incorporar a informação de suavidade tem a seguinte forma θ SV ( p) = v T v, (317) em que v é um vetor com as diferêncas entre os parâmetros espacialmente adjacentes O vetor v é uma aproximação de diferenças finitas para a derivada espacial dos parâmetros e pode ser escrito como v = R p, (318) em que R é uma matriz de diferenças finitas Exemplo 33 Seja o problema inverso de estimar o relevo de uma bacia sedimentar Uma possível parametrização seria discretizar a bacia em 7 prismas retangulares justapostos com larguras fixas Os parâmetros a serem estimados seriam então as 7 espessuras dos prismas (Figura 10) Impor suavidade ao relevo da bacia é equivalente a minimizar as diferenças p 1 p 2, p 2 p 3, p 3 p 4, p 4 p 5, p 5 p 6 e p 6 p 7 Neste caso, o vetor v das diferenças entre os parâmetros espacialmente adjacentes é dado por

31 3 Regularização 27 p 1 p 7 p 2 p 3 p 4 p 5 p 6 x z Embasamento Figura 10: Exemplo de parametrização do relevo de uma bacia sedimentar Neste caso, os 7 parâmetros utilizados são as espessuras de prismas retangulares justapostos Impor suavidade ao relevo da bacia é equivalente a minimizar as diferenças p 1 p 2, p 2 p 3, p 3 p 4, p 4 p 5, p 5 p 6 e p 6 p 7 p 1 p 1 p p 2 p p 2 p 3 p v = 3 p = p p 4 p p 5 p p 5 p 6 p 6 p }{{} p 7 R }{{} p (319) A função regularizadora de suavidade (também conhecida como Tikhonov de ordem um) pode ser escrita como θ SV ( p) = p T RT R p (320) O vetor gradiente θ SV ( p) e a matriz Hessiana θ SV ( p) (ver Apêndice A) desta função são, respectivamente, θ SV ( p) = 2 RT R p (321)

32 3 Regularização 28 e θ SV ( p) = 2 RT R (322) O gradiente da função regularizadora de norma mínima é uma combinação linear dos parâmetros Para o caso em que a função f i ( p) que relaciona os dados preditos aos parâmetros também é linear (equação 219), a equação normal do problema inverso linear regularizado, para o caso da regularização de suavidade, é (Ḡ T Ḡ + µ RT R) p = Ḡ ( T d o b ), (323) em que µ é o parâmetro de regularização, d o é o vetor de dados observados, Ḡ é a matriz de sensibilidade, b é um vetor de constantes (equação 221) e p é a solução suave para o problema inverso linear Já para o caso em que f i ( p) é não-linear, o problema inverso torna-se também nãolinear Assim sendo, a equação normal do problema inverso não-linear regularizado, para o caso da regularização de suavidade, é [Ḡ( p 0 ) T Ḡ( p 0 ) + µ RT R] p = Ḡ( p 0 ) T [ d o f( p 0 ) ] µ RT R p0 (324) em que f( p 0 ) é o vetor de dados preditos avaliado em p 0 e p é a correção a ser aplicada a p 0 34 Variação total Ao contrário do que vimos na Seção 33, há situações em que é desejável que hajam algumas descontinuidades entre parâmetros espacialmente adjacentes Nestes casos, podemos utilizar a função regularizadora de variação total θ V T ( p) = L v k, (325) k=1

33 3 Regularização 29 em que v k, k = 1, 2,, L, é o k-ésimo elemento do vetor de diferenças v (equação 318) Como esta função não é diferenciável para valores de v k = 0, podemos aproximá-la por θ V T ( p) θ V T β ( p) = sendo β um escalar positivo pequeno O vetor gradiente θ V T β ( p) e a matriz Hessiana V T θ β ( p) desta função são, respectivamente, (Martins et al, 2011) L k=1 v 2 k + β, (326) e θ V T β ( p) = RT q( p) (327) θ V T β ( p) = RT Q( p) R, (328) sendo R uma matriz de diferenças finitas (equação 318) O vetor q( p) e a matriz Q( p) são, respectivamente, v 1 v β v 2 q( p) = v β v L v 2 L + β (329) e β 0 0 (v1 2 + β) 3 2 β 0 0 Q( p) = (v β) 3 2 (330) β 0 0 (vl 2 + β) 3 2

34 3 Regularização 30 Como o gradiente e a Hessiana da função regularizadora de variação total (equações 327 e 328) não são combinações lineares dos parâmetros, a utilização desta função regularizadora torna o problema inverso não-linear Assim sendo, a equação normal do problema inverso não-linear regularizado, para o caso da regularização de variação total, é [Ḡ( p 0 ) T Ḡ( p 0 ) + µ RT Q( p0 ) R] p = Ḡ( p 0 ) T [ d o f( p 0 ) ] µ RT q( p 0 ) (331) em que f( p 0 ) é o vetor de dados preditos avaliado em p 0 e p é a correção a ser aplicada a p 0

35 31 Capítulo 4 Procedimentos práticos Durante a solução de problemas inversos nos deparamos com diversos obstáculos, como: Por que a inversão não foi capaz de ajustar os dados observados? Como determinar um valor adequado para o parâmetro de regularização? Como analisar a estabilidade da solução? Neste capítulo descreveremos alguns procedimentos práticos para abordar estas questões 41 Ajustar os dados observados Em situações reais, nem sempre é possível ajustar perfeitamente os dados observados Isso pode acontecer por três principais razões: 1 Os dados observados contêm ruído; 2 A função f i ( p) escolhida para descrever a relação entre os parâmetros e os dados preditos não é capaz de descrever o sistema físico de forma satisfatória; 3 Excesso de regularização;

36 4 Procedimentos práticos 32 O primeiro caso é esperado pois observações sempre contêm algum tipo de ruído Embora existam técnicas para a atenuação de ruído, é impossível que ele seja removido completamente Além disso, ruídos de caráter aleatório não são descritos pela relação funcional entre os parâmetros e os dados preditos (equação 24) Sendo assim, não ajustar perfeitamente os dados observados é aceitável, desde que o desajuste esteja dentro do nível de ruído estimado dos dados Já no segundo caso, a função escolhida para descrever a relação entre os parâmetros e os dados preditos não representa o sistema físico de forma adequada Nesse caso, mesmo se os dados observados fossem isentos de ruído (situação impossível em condições reais), não seria possível estimar parâmetros que ajustassem os dados observados Isso é um indício de que a hipótese escolhida para representar o sistema físico não é válida É crucial ressaltar que este é um resultado tão importante quanto encontrar uma hipótese que descreva o sistema físico de forma satisfatória Este tipo de resultado nos permite descartar hipóteses (ie, cenários geológicos) com base nos dados geofísicos O terceiro caso, em que há excesso de regularização, é devido a utilização de valores demasiado elevados do parâmetro de regularização µ (equação 31) Valores elevados de µ dão excessiva importância para a informação a priori (ie, regularização), o que causa um desajuste dos dados Já valores baixos de µ priorizam o ajuste dos dados e negligenciam a informação a priori Neste caso, embora haja um bom ajuste dos dados, o problema inverso se torna instável Na Seção 42 trataremos da escolha de uma valor adequado para µ 42 Determinar um valor para o parâmetro de regularização O valor do parâmetro de regularização µ (equação 31) não pode ser determinado para um caso geral O valor de µ pode ser diferente para cada dado observado e cada parametrização utilizada Além disto, no caso em que haja mais de um função

37 4 Procedimentos práticos 33 regularizadora, pode ser desejável impor alguma delas mais fortemente que as outras Por exemplo, se utilizarmos ambas as funções regularizadoras de suavidade e igualdade (equações 320 e 312, respectivamente), podemos desejar que a igualdade seja imposta mais que a suavidade No entanto, há procedimentos que permitem encontrar valores de µ que sejam considerados adequados Um valor adequado de µ deve proporcionar um equilíbrio entre a estabilidade da solução e o ajuste dos dados observados Embora existam alguns métodos para escolha automática do parâmetro de regularização (Aster et al, 2005), ainda não há uma maneira de determinar um valor ótimo Além disso, estes métodos automáticos são aplicáveis somente a problemas inversos que utilizam uma única função regularizadora Sendo assim, apresentamos a seguir um procedimento prático que consiste em escolher o menor valor possível para o parâmetro de regularização para que o problema inverso seja bem-posto (ie, com solução única e estável) Seja um conjunto de N dados observados e M parâmetros, o procedimento prático segue as seguintes etapas: 1 Gerar um vetor ē de N valores aleatórios Cada valor deve ser a realização de uma variável aleatória com distribuição Gaussiana de média zero e desvio padrão igual ao nível de ruído estabelecido para os dados; 2 Gerar um vetor d de dados observados perturbados a partir da soma do vetor de valores aleatórios ē e o vetor de dados observados d 0 d = d 0 + ē ; 3 Repetir as etapas 1 e 2 para gerar um conjunto de Q vetores de dados observados perturbados diferentes; 4 Estabelecer um valor pequeno para o parâmetro de regularização µ; 5 Utilizar este valor de µ em Q inversões para estimar Q vetores de parâmetros

38 4 Procedimentos práticos 34 diferentes Cada vetor de parâmetros corresponde a um dos vetores de dados observados perturbados; 6 Calcular o desvio padrão dos Q valores obtidos para o j-ésimo parâmetro; 7 Repetir a etapa 6 para cada um dos M parâmetros; 8 Se ao menos um dos M parâmetros apresentar um desvio padrão maior que um valor máximo preestabelecido, considere que o valor de µ não é adequado Nesse caso, aumente ligeiramente o valor de µ e repita as etapas 5-7; 9 Se nenhum dos M parâmetros apresentar um desvio padrão maior que um valor máximo preestabelecido, considere que o valor de µ é adequado e o problema inverso está bem regularizado; As etapas 1-3 e 5-8 acima são o procedimento adotado para a análise da estabilidade da solução

39 35 Capítulo 5 Leitura recomendada Livros sobre problemas inversos: Tarantola (2005) Menke (1989) Aster et al (2005) Métodos potenciais: Silva et al (2001) Medeiros and Silva (1996) Martins et al (2011) Barbosa and Silva (2011) Otimização: Kelley (1999)

40 36 Referências Bibliográficas Aster, R C, B Borchers, and C H Thurber, 2005, Parameter estimation and inverse problems: Elsevier Academic Press Barbosa, V C F, and J B C Silva, 2011, Reconstruction of geologic bodies in depth associated with a sedimentary basin using gravity and magnetic data: Geophysical Prospecting, 59, Kelley, C T, 1999, Iterative methods for optimization: Raleigh: SIAM Martins, C M, W A Lima, V C F Barbosa, and J B C Silva, 2011, Total variation regularization for depth-to-basement estimate: Part 1 - mathematical details and applications: Geophysics, 76, I1 I12 Medeiros, W E, and J B C Silva, 1996, Geophysical inversion using approximate equality constraints: Geophysics, 61, Menke, W, 1989, Geophysical data analysis: Discrete inverse theory: San Diego: Academic Press Inc Silva, J B C, W E Medeiros, and V C F Barbosa, 2001, Potential field inversion: Choosing the appropriate technique to solve a geologic problem: Geophysics, 66, Tarantola, A, 2005, Inverse problem theory and methods for model parameter estimation: Philadelphia: SIAM

41 37 Apêndice A Operações com matrizes A seguir, demonstraremos como fazer algumas operações matemáticas com matrizes e vetores Mas antes, algumas definições A1 Definições Definição 1 Um vetor x de M elementos é uma matriz de uma coluna e M linhas x 1 x M x x = 2 (A1) Definição 2 Dado um conjunto de N funções f 1 ( x), f 2 ( x),, f N ( x), o vetor de funções f( x) é dado por f 1 ( x) f f( x) = 2 ( x) (A2) f N ( x) Definição 3 A derivada do vetor f( x) de N elementos em relação ao i-ésimo elemento de x, x i, é

42 A Operações com matrizes 38 f( x) x i = f 1 ( x) x i f 2 ( x) x i f N ( x) x i (A3) Definição 4 O vetor ū N i de N elementos possui todos seus elementos iguais a zero, exceto o i-ésimo elemento que é igual a 1 ū N i = u 1 u i 1 u i u i+1 u N 0 0 = (A4) Definição 5 O operador gradiente em relação ao vetor x de N elementos é igual a x 1 x = 2 x N (A5) Definição 6 O operador Hessiana em relação ao vetor x de N elementos é igual a = T = 2 x x 1 x 2 2 x x 2 x 1 2 x 1 x N 2 x 2 x N 2 x N x 1 2 x N x 2 2 x 2 N (A6)

43 A Operações com matrizes 39 A2 Derivadas A seguir demonstramos como calcular f( x) x j e f( x) x j para diversos casos Em todos os casos, x é um vetor de M elementos e f( x) é um vetor de N elementos Exemplo A1 Para o caso f( x) = Ā x, (A7) em que Ā é uma matriz de dimensão N M Seja ā j a j-ésima coluna de Ā, podemos escrever a matriz Ā em relação a suas M colunas e então Ā = [ā 1 ā j ā M ], (A8) f( x) = x 1 ā x j ā j + + x M ā M (A9) Neste caso, a derivada de f( x) em relação a x j é f( x) 0 x 1 ā = x x j ā j x 0 M ā M + + j x j x j x j (A10) Exemplo A2 Para o caso = ā j = Ā ū M j f( x) = x T Ā T, (A11) em que Ā é uma matriz de dimensão N M Seja ā j a j-ésima coluna de Ā, podemos escrever a matriz Ā T em relação as M colunas de Ā ā T 1 Ā T = ā T, (A12) j e então ā T M

44 A Operações com matrizes 40 f( x) = x 1 ā T x j ā T j + + x M ā T M (A13) Neste caso, a derivada de f( x) em relação a x j é f( x) x 0 1 ā T 1 = x + + x j ā T j x 0 M ā T M + + j x j x j x j (A14) Exemplo A3 Para o caso = ā T j = (ū M j ) T Ā T f( x) = x, (A15) a derivada de f( x) em relação a x j é Exemplo A4 Para o caso f( x) x j = ū M j (A16) f( x) = ā T x = x T ā, (A17) a derivada de f( x) em relação a x j é 1 0 f( x) x 1 a = x x ja j x 0 M a M + + j x j x j = a j = ā T ū M j (A18) x j Exemplo A5 Para o caso f( x) = x T Ā T Ā x = (Ā x) T (Ā x), (A19) a derivada de f( x) em relação a x j é (ver equação A10) [ f( x) = x j ] T [ (Ā x) (Ā x) + (Ā x) T x j = (Āū M j ) T (Ā x) + (Ā x) T (Āū M j ) }{{}}{{} escalar escalar ] (Ā x) x j (A20) Como o transposto de um escalar é igual a ele mesmo 1 O transposto de um escalar é igual a ele mesmo

45 A Operações com matrizes 41 A3 Gradientes f( x) x j = 2(Āū M j ) T (Ā x) = 2(ū M j ) T Ā T Ā x (A21) A seguir demonstramos como calcular f( x) para diversos casos Em todos os casos, x é um vetor de M elementos Exemplo A6 Para o caso o gradiente de f( x) é (ver equação A18) 2 Exemplo A7 Para o caso f( x) = f( x) = ā T x = x T ā, f( x) x 1 f( x) x 2 f( x) x M a 1 a = 2 = ā a M (A22) (A23) f( x) = x T Ā T Ā x, (A24) o gradiente de f( x) é (ver equação A21) f( x) = f( x) x 1 f( x) x 2 f( x) x M 2(ū M 1 ) T Ā T Ā x (ū M 1 ) T 2(ū M 2 ) T Ā T Ā x (ū M 2 ) T = = 2 Ā T Ā x = 2Ā T Ā x 2(ū M M )T Ā T Ā x (ū M M }{{ )T } Ī (A25) 2 O transposto de um escalar é igual a ele mesmo

46 A Operações com matrizes 42 A4 Hessianas A seguir demonstramos como calcular f( x) para diversos casos Em todos os casos, x é um vetor de M elementos Exemplo A8 Para o caso f( x) = x T Ā T Ā x, (A26) a Hessiana de f( x) é (ver equação A25) f( x) = [ f( x)] T = ( T ( ) 2Ā T Ā x) = 2 x T Ā}{{} T Ā = 2 ( ) x T BT (A27) B T Sendo b j a j-ésima coluna de B, segue que (ver equação A14) ( ) x T BT = ( x T BT x 1 ( x T BT x 2 ( x T BT ) bt ) 1 bt 2 = = BT (A28) ) bt M Logo, x M f( x) = 2 BT = 2Ā T Ā (A29) A5 Expansão em série de Taylor A seguir demonstramos como calcular a expansão em série de Taylor de f( x) até a primeira e segunda ordem Em todos os casos, x é um vetor de M elementos A expansão será feita em torno de um ponto x 0 tal que x = x 0 + x (A30)

47 A Operações com matrizes 43 A51 Até primeira ordem A expansão em série de Taylor de f( x) até a primeira ordem é f( x) f( x 0 ) + f x 1 ( x 0 ) x 1 + f x 2 ( x 0 ) x f x M ( x 0 ) x M [ f f( x 0 ) + ( x 0 ) x 1 x 1 ] f x ( x 0 ) 2 x M x M }{{} x f ( x 0 ) x } 2 {{} f( x 0 ) T f( x 0 ) + f( x 0 ) T x (A31) A52 Até segunda ordem Baseado na equação A31, a expansão em série de Taylor de f( x) até a segunda ordem é f( x) f( x 0 ) + f( x 0 ) T x x 2 f( x 0 ) 1 x x x 2 f( x 0 ) 1 x x 2 x 1 2 x 2 f( x 0 ) 1 x M x M x x 2 f( x 0 ) 2 x x 1 x 2 2 x 2 f( x 0 ) 2 x x x 2 f( x 0 ) 2 x M x M x x M 2 f( x 0 ) x x 1 x M 2 x 2 f( x 0 ) M x x 2 x M 2 x M 2 f( x 0 ) x x 2 M M (A32) Transformando as multiplicações de x j do lado direito em um produto escalar com o vetor x obtemos

48 A Operações com matrizes 44 f( x) f( x 0 ) + f( x 0 ) T x [ x 1 2 f( x 0 ) x 2 1 [ x 2 2 f( x 0 ) x 1 x 2 x 2 2 f( x 0 ) x 2 2 ] 2 f( x 0 ) 2 f( x 0 ) x 1 x 1 x x 2 x 1 x M x 1 x 2 2 f( x 0 ) x M x [ 2 f( x 0 ) 2 f( x 0 ) 2 f( x 0 ) x M x M x M 2 x 1 x M x 2 x M x 2 M ] x ] x (A33) Em seguida, colocamos x j em evidência f( x) f( x 0 ) + f( x 0 ) T x x 1 [ ] 2 f( x 0 ) 2 f( x 0 ) 2 f( x 0 ) x x 2 1 x 2 x 1 x M x }{{ 1 } escalar + 1 [ 2 2 x f( x 0 ) 2 f( x 0 ) 2 x 1 x 2 + ] x 2 f( x 0 ) x 2 2 x M x }{{ 2 } escalar (A34) + 1 [ 2 2 x f( x 0 ) 2 f( x 0 ) M x 1 x M x 2 x M 2 f( x 0 ) x 2 M ] x } {{ } escalar Agora, transformamos a multiplicação de x j a esquerda em um produto escalar com o vetor x

49 A Operações com matrizes 45 f( x) f( x 0 ) + f( x 0 ) T x xt [ 2 f( x 0 ) x f( x 0 ) x 2 x 1 [ 2 f( x 0 ) x 1 x 2 2 f( x 0 ) x 2 2 [ 2 f( x 0 ) 2 f( x 0 ) x 1 x M x 2 x M ] 2 f( x 0 ) x x M x 1 ] 2 f( x 0 ) x M x 2 2 f( x 0 ) x 2 M Colocando x em evidência e lembrando da equação A6 obtemos (A35) x ] x f( x) f( x 0 ) + f( x 0 ) T x 2 f( x 0 ) 2 f( x 0 ) x 2 1 x 2 x f( x 0 ) 2 f( x 0 ) 2 xt x 1 x 2 x f( x 0 ) 2 f( x 0 ) x 1 x M x 2 x M 2 f( x 0 ) x M x 1 2 f( x 0 ) x M x 2 2 f( x 0 ) x 2 M } {{ } f( x 0 ) x (A36) Finalmente, a expansão de f( x) em série de Taylor até segunda ordem é f( x) f( x 0 ) + f( x 0 ) T x xt f( x0 ) x (A37)

Problemas Inversos em Transferência Radiativa - Uma Formulação Implícita

Problemas Inversos em Transferência Radiativa - Uma Formulação Implícita Capítulo 3 Problemas Inversos em Transferência Radiativa - Uma Formulação Implícita AntônioJosédaSilvaNeto Haroldo Fraga de Campos Velho 3.1 O Que é um Problema Inverso? Em primeiro lugar vamos definir

Leia mais

3 Filtro de Kalman Discreto

3 Filtro de Kalman Discreto 3 Filtro de Kalman Discreto As medidas realizadas por sensores estão sujeitas a erros, como pode ser visto no Capítulo 2. Os filtros são aplicados aos sinais medidos pelos sensores para reduzir os erros,

Leia mais

)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD

)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD )XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD,QWURGXomR A grande maioria dos problemas de engenharia pode ser solucionado de diferentes formas, uma vez que um número muito grande de soluções atende aos critérios

Leia mais

5 Formulação Dinâmica Não Linear no Domínio da Frequência

5 Formulação Dinâmica Não Linear no Domínio da Frequência 129 5 Formulação Dinâmica Não Linear no Domínio da Frequência No Capítulo 2, foram apresentadas as formulações para a análise dinâmica de estruturas reticuladas no domínio do tempo, sendo uma informação

Leia mais

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions

Redes Neurais. A Rede RBF. Redes RBF: Função de Base Radial. Prof. Paulo Martins Engel. Regressão não paramétrica. Redes RBF: Radial-Basis Functions Redes RBF: Função de Base Radial Redes Neurais A Rede RBF O LP é baseado em unidades que calculam uma função não-linear do produto escalar do vetor de entrada e um vetor de peso. A rede RBF pertence a

Leia mais

Actividade Formativa 1

Actividade Formativa 1 Actividade Formativa 1 Resolução 1. a. Dada a função y 3+4x definida no conjunto A {x R: 2 x < 7} represente graficamente A e a sua imagem; exprima a imagem de A como um conjunto. b. Dada a função y 3

Leia mais

2 Propagação de ondas elásticas em cilindros

2 Propagação de ondas elásticas em cilindros 2 Propagação de ondas elásticas em cilindros 2.1 Elastodinâmica Linear As equações que governam o movimento de um corpo sólido, elástico e isotrópico são: τ ij,j + ρf i = ρ ü i (2-1) τ ij = λ ε kk δ ij

Leia mais

Análise de Regressão Linear Simples e

Análise de Regressão Linear Simples e Análise de Regressão Linear Simples e Múltipla Carla Henriques Departamento de Matemática Escola Superior de Tecnologia de Viseu Introdução A análise de regressão estuda o relacionamento entre uma variável

Leia mais

4 Estado da Arte do Kernel PCA

4 Estado da Arte do Kernel PCA 4 Estado da Arte do Kernel PCA Conforme apresentado no Capítulo 1, o Kernel PCA é uma técnica promissora para auxiliar no processo de ajuste de histórico, devido a sua capacidade de extrair parte da estatística

Leia mais

O Eletromagnetismo é um ramo da física ou da engenharia elétrica onde os fenômenos elétricos e magnéticos são estudados.

O Eletromagnetismo é um ramo da física ou da engenharia elétrica onde os fenômenos elétricos e magnéticos são estudados. 1. Análise Vetorial O Eletromagnetismo é um ramo da física ou da engenharia elétrica onde os fenômenos elétricos e magnéticos são estudados. Os princípios eletromagnéticos são encontrados em diversas aplicações:

Leia mais

Prof. MSc. David Roza José 1/26

Prof. MSc. David Roza José 1/26 1/26 Mínimos Quadrados Geral e Regressão Não Linear Objetivos: Implementar a regressão polinomial; Implementar regressão múltipla linear; Entender a formulação do modelo linear geral de mínimos quadrados;

Leia mais

aula ANÁLISE DO DESEMPENHO DO MODELO EM REGRESSÕES

aula ANÁLISE DO DESEMPENHO DO MODELO EM REGRESSÕES ANÁLISE DO DESEMPENHO DO MODELO EM REGRESSÕES 18 aula META Fazer com que o aluno seja capaz de realizar os procedimentos existentes para a avaliação da qualidade dos ajustes aos modelos. OBJETIVOS Ao final

Leia mais

Processamento de Imagens CPS755

Processamento de Imagens CPS755 Processamento de Imagens CPS755 aula 06 - sistemas não lineares Antonio Oliveira Ricardo Marroquim 1 / 38 laboratório de processamento de imagens tópicos RANSAC métodos iterativos (não-lineares) gradientes

Leia mais

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO

Leia mais

Potencial Elétrico. Energia. Energia pode ser vista como trabalho armazenado, ou capacidade de realizar trabalho.

Potencial Elétrico. Energia. Energia pode ser vista como trabalho armazenado, ou capacidade de realizar trabalho. Eletricidade e Magnetismo - IME Potencial Elétrico Oliveira Ed. Basilio Jafet sala 202 crislpo@if.usp.br Energia Energia pode ser vista como trabalho armazenado, ou capacidade de realizar trabalho. Equipamentos

Leia mais

Parte 1 - Matrizes e Sistemas Lineares

Parte 1 - Matrizes e Sistemas Lineares Parte 1 - Matrizes e Sistemas Lineares Matrizes: Uma matriz de tipo m n é uma tabela com mn elementos, denominados entradas, e formada por m linhas e n colunas. A matriz identidade de ordem 2, por exemplo,

Leia mais

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação

Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Universidade de São Paulo Instituto de Ciências Matemáticas e de Computação Francisco A. Rodrigues Departamento de Matemática Aplicada e Estatística - SME Objetivo Dada M classes ω 1, ω 2,..., ω M e um

Leia mais

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Métodos de regiões de confiança Marina Andretta ICMC-USP 17 de setembro de 2014 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear

Leia mais

[a11 a12 a1n 7. SISTEMAS LINEARES 7.1. CONCEITO. Um sistema de equações lineares é um conjunto de equações do tipo

[a11 a12 a1n 7. SISTEMAS LINEARES 7.1. CONCEITO. Um sistema de equações lineares é um conjunto de equações do tipo 7. SISTEMAS LINEARES 7.1. CONCEITO Um sistema de equações lineares é um conjunto de equações do tipo a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 11 x 1 + a 12 x 2 +... + a 1n x n = b 2... a n1 x 1 + a

Leia mais

Aula 4: Gráficos lineares

Aula 4: Gráficos lineares Aula 4: Gráficos lineares 1 Introdução Um gráfico é uma curva que mostra a relação entre duas variáveis medidas. Quando, em um fenômeno físico, duas grandezas estão relacionadas entre si o gráfico dá uma

Leia mais

5 Filtro de Kalman Aplicado ao Modelo de Schwartz e Smith (2000)

5 Filtro de Kalman Aplicado ao Modelo de Schwartz e Smith (2000) 5 Filtro de Kalman Aplicado ao Modelo de Schwartz e Smith (2000) A primeira parte deste capítulo, referente à passagem dos modelos estocásticos para as equações do Filtro de Kalman, já foi previamente

Leia mais

Ajuste de mínimos quadrados

Ajuste de mínimos quadrados Capítulo 5 Ajuste de mínimos quadrados 5 Ajuste de mínimos quadrados polinomial No capítulo anterior estudamos como encontrar um polinômio de grau m que interpola um conjunto de n pontos {{x i, f i }}

Leia mais

Ralph S. Silva

Ralph S. Silva ANÁLISE ESTATÍSTICA MULTIVARIADA Ralph S Silva http://wwwimufrjbr/ralph/multivariadahtml Departamento de Métodos Estatísticos Instituto de Matemática Universidade Federal do Rio de Janeiro Sumário Revisão:

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA Marlon Luiz Dal Pasquale Junior, UNESPAR/FECILCAM, jr.marlon@hotmail.com Solange Regina dos Santos (OR), UNESPAR/FECILCAM, solaregina@fecilcam.br

Leia mais

6 Ajuste de mínimos quadrados

6 Ajuste de mínimos quadrados 6 Ajuste de mínimos quadrados polinomial No capítulo anterior estudamos como encontrar um polinômio de grau m que interpola um conjunto de n pontos {{x i, f i }} n Tipicamente quando m < n esse polinômio

Leia mais

4 Modelagem Numérica. 4.1 Método das Diferenças Finitas

4 Modelagem Numérica. 4.1 Método das Diferenças Finitas 4 Modelagem Numérica Para se obter a solução numérica das equações diferenciais que regem o processo de absorção de CO 2,desenvolvido no capitulo anterior, estas precisam ser transformadas em sistemas

Leia mais

Cálculo Numérico BCC760

Cálculo Numérico BCC760 Cálculo Numérico BCC760 Resolução de Sistemas de Equações Lineares Simultâneas Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ 1 Introdução! Definição Uma equação é dita

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

Resolução de Sistemas de

Resolução de Sistemas de Capítulo 5 Resolução de Sistemas de Equações Não-Lineares 51 Introdução Neste capítulo, apresentaremos o método de Newton para sistemas de equações não-lineares, ie, procuramos um vetor x que satisfaça

Leia mais

[ ] EXEMPLOS: Muitas vezes precisamos montar uma Matriz a partir de uma lei geral. Analise os exemplos a seguir:

[ ] EXEMPLOS: Muitas vezes precisamos montar uma Matriz a partir de uma lei geral. Analise os exemplos a seguir: MATRIZES CONCEITO: Um conjunto de elementos algébricos dispostos em uma tabela retangular com linhas e colunas é uma Matriz. A seguir, vemos um exemplo de Matriz de 3 linhas e 4 colunas, e que representaremos

Leia mais

Prof. MSc. David Roza José 1/35

Prof. MSc. David Roza José 1/35 1/35 Métodos Iterativos Objetivos: Compreender a diferença entre os métodos de Gauss-Seidel e Jacobi; Saber analisar a dominância diagonal e entender o quê significa; Reconhecer como a relaxação pode ser

Leia mais

INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o

INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 2007/2008 Semestre: 1 o INSTITUTO SUPERIOR TÉCNICO Mestrado Integrado em Engenharia Física Tecnológica Ano Lectivo: 27/28 Semestre: o MATEMÁTICA COMPUTACIONAL Exercícios [4 Sendo A M n (C) mostre que: (a) n A 2 A n A 2 ; (b)

Leia mais

Eletromagnetismo I. Prof. Daniel Orquiza. Eletromagnetismo I. Prof. Daniel Orquiza de Carvalho

Eletromagnetismo I. Prof. Daniel Orquiza. Eletromagnetismo I. Prof. Daniel Orquiza de Carvalho Eletromagnetismo I Prof. Daniel Orquiza Eletromagnetismo I Prof. Daniel Orquiza de Carvalo Equação de Laplace (Capítulo 6 Páginas 160 a 172) Eq. de Laplace Solução numérica da Eq. de Laplace Eletromagnetismo

Leia mais

Introdução à Magneto-hidrodinâmica

Introdução à Magneto-hidrodinâmica Introdução à Magneto-hidrodinâmica Gilson Ronchi November, 013 1 Introdução A magneto-hidrodinâmica é o estudo das equações hidrodinâmicas em uidos condutores, em particular, em plasmas. Entre os principais

Leia mais

ALGEBRA LINEAR 1 RESUMO E EXERCÍCIOS* P1

ALGEBRA LINEAR 1 RESUMO E EXERCÍCIOS* P1 ALGEBRA LINEAR 1 RESUMO E EXERCÍCIOS* P1 *Exercícios de provas anteriores escolhidos para você estar preparado para qualquer questão na prova. Resoluções em VETORES Um vetor é uma lista ordenada de números

Leia mais

6 MÉTODO DE ELEMENTOS FINITOS - MEF

6 MÉTODO DE ELEMENTOS FINITOS - MEF 6 MÉTODO DE ELEMENTOS FINITOS - MEF O Método de Elementos Finitos é uma técnica de discretização de um problema descrito na Formulação Fraca, na qual o domínio é aproximado por um conjunto de subdomínios

Leia mais

Capítulo 10 - Identificação de Sistemas Não Lineares: Algoritmos

Capítulo 10 - Identificação de Sistemas Não Lineares: Algoritmos Capítulo 10 - Identificação de Sistemas Não Lineares: Algoritmos Prof. Samir Martins UFSJ-CEFET/MG Programa de Pós Graduação em Engenharia Elétrica - PPGEL São João del-rei, 16 de outubro de 2018 1 / 31

Leia mais

3 Implementação Computacional

3 Implementação Computacional 3 Implementação Computacional Neste trabalho considerou-se o estudo da instabilidade elástica e inelástica de estruturas planas como vigas, colunas, pórticos e arcos. No estudo deste tipo de estruturas

Leia mais

2 Propriedades geométricas de curvas parametrizadas no R 4

2 Propriedades geométricas de curvas parametrizadas no R 4 2 Propriedades geométricas de curvas parametrizadas no R 4 Nesse capítulo trataremos dos conceitos básicos de geometria diferencial referentes à curvas parametrizadas no R 4. 2.1 Curvas Parametrizadas

Leia mais

Marina Andretta. 10 de outubro de Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis.

Marina Andretta. 10 de outubro de Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Solução básica viável inicial Marina Andretta ICMC-USP 10 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211

Leia mais

Dissertação de Mestrado

Dissertação de Mestrado UNIVERSIDADE FEDERAL DO PARÁ INSTITUTO DE GEOCIÊNCIAS PROGRAMA DE PÓS-GRADUAÇÃO EM GEOFÍSICA Dissertação de Mestrado PROCEDIMENTOS LINEARES DE INVERSÃO GRAVIMÉTRICA PARA ESTIMAR O RELEVO 3D DO EMBASAMENTO

Leia mais

Material Teórico - Módulo Matrizes e Sistemas Lineares. Sistemas Lineares - Parte 2. Terceiro Ano do Ensino Médio

Material Teórico - Módulo Matrizes e Sistemas Lineares. Sistemas Lineares - Parte 2. Terceiro Ano do Ensino Médio Material Teórico - Módulo Matrizes e Sistemas Lineares Sistemas Lineares - Parte 2 Terceiro Ano do Ensino Médio Autor: Prof Fabrício Siqueira Benevides Revisor: Prof Antonio Caminha M Neto 1 A representação

Leia mais

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA

étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA étodos uméricos SISTEMAS DE EQUAÇÕES LINEARES (Continuação) Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO

Leia mais

7 Comparação de resultados e validação dos modelos

7 Comparação de resultados e validação dos modelos 7 Comparação de resultados e validação dos modelos Os modelos EMB, TMB e GC foram utilizados para a sintetização de séries temporais de atenuação por chuva para os enlaces terrestres de São Paulo. Foram

Leia mais

Eletromagnetismo I. Preparo: Diego Oliveira. Aula 2

Eletromagnetismo I. Preparo: Diego Oliveira. Aula 2 Eletromagnetismo I Prof. Dr. R.M.O Galvão - 1 Semestre 2015 Preparo: Diego Oliveira Aula 2 Na aula passada recordamos as equações de Maxwell e as condições de contorno que os campos D, E, B e H devem satisfazer

Leia mais

3 SPH. 3.1 Introdução

3 SPH. 3.1 Introdução 3 SPH 3.1 Introdução Smoothed Particle Hydrodynamics (SPH) é um método puramente Lagrangiano desenvolvido por Lucy (1977) e Gingold (1977) em um estudo do campo da astrofísica voltado para colisão entre

Leia mais

Capítulo 3 - Mínimos Quadrados Lineares

Capítulo 3 - Mínimos Quadrados Lineares Capítulo 3 - Mínimos Quadrados Lineares Carlos Balsa balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança 2 o Ano - Eng. Civil, Química e Gestão Industrial Carlos

Leia mais

Álgebra Linear Semana 04

Álgebra Linear Semana 04 Álgebra Linear Semana 04 Diego Marcon 17 de Abril de 2017 Conteúdo 1 Produto de matrizes 1 11 Exemplos 2 12 Uma interpretação para resolução de sistemas lineares 3 2 Matriz transposta 4 3 Matriz inversa

Leia mais

2 Análise do Colapso de Estruturas através do Método dos Elementos Finitos

2 Análise do Colapso de Estruturas através do Método dos Elementos Finitos 2 Análise do Colapso de Estruturas através do Método dos Elementos Finitos Neste capítulo, através do método dos elementos finitos baseado em deslocamentos, são apresentadas três técnicas de análise do

Leia mais

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas.

Definição. Os valores assumidos pelos estimadores denomina-se estimativas pontuais ou simplesmente estimativas. 1. Inferência Estatística Inferência Estatística é o uso da informção (ou experiência ou história) para a redução da incerteza sobre o objeto em estudo. A informação pode ou não ser proveniente de um experimento

Leia mais

Análise e Processamento de Bio-Sinais. Mestrado Integrado em Engenharia Biomédica. Sinais e Sistemas. Licenciatura em Engenharia Física

Análise e Processamento de Bio-Sinais. Mestrado Integrado em Engenharia Biomédica. Sinais e Sistemas. Licenciatura em Engenharia Física Análise e Processamento de Bio-Sinais Mestrado Integrado em Engenharia Biomédica Licenciatura em Engenharia Física Faculdade de Ciências e Tecnologia Slide 1 Slide 1 Sobre Modelos para SLIT s Introdução

Leia mais

Transformações Conformes: 15 Aplicações

Transformações Conformes: 15 Aplicações AULA Transformações Conformes: 15 Aplicações META: Aplicar transformações conformes. OBJETIVOS: Ao fim da aula os alunos deverão ser capazes de: Aplicar transformações conformes na determinação da distribuição

Leia mais

Processamento digital de imagens

Processamento digital de imagens Processamento digital de imagens Agostinho Brito Departamento de Engenharia da Computação e Automação Universidade Federal do Rio Grande do Norte 11 de novembro de 2016 Fluxo óptico Usado para estimar

Leia mais

Estimativas e Erros. Propagação de erros e Ajuste de funções

Estimativas e Erros. Propagação de erros e Ajuste de funções Estimativas e Erros Propagação de erros e Ajuste de funções 1 Algumas referências Estimativas e Erros em Experimentos de Física - Vitor Oguri et al (EdUERJ) Fundamentos da Teoria de Erros - José Henrique

Leia mais

PGF Mecânica Clássica

PGF Mecânica Clássica PGF 5005 - Mecânica Clássica Prof. Iberê L. Caldas Segunda Lista de Exercícios o semestre de 018 1. Considere, inicialmente, a seguinte Hamiltoniana integrável: H 0 = I 1 + I I 1 3I 1 I + I, a qual está

Leia mais

CENTRO DE CIÊNCIAS E TECNOLOGIA AGROALIMENTAR UNIDADE ACADÊMICA DE TECNOLOGIA DE ALIMENTOS DISCIPLINA: FÍSICA II ONDAS. Prof.

CENTRO DE CIÊNCIAS E TECNOLOGIA AGROALIMENTAR UNIDADE ACADÊMICA DE TECNOLOGIA DE ALIMENTOS DISCIPLINA: FÍSICA II ONDAS. Prof. CENTRO DE CIÊNCIAS E TECNOLOGIA AGROALIMENTAR UNIDADE ACADÊMICA DE TECNOLOGIA DE ALIMENTOS DISCIPLINA: FÍSICA II ONDAS Prof. Bruno Farias Ondas Uma onda surge quando um sistema é deslocado de sua posição

Leia mais

superfície que envolve a distribuição de cargas superfície gaussiana

superfície que envolve a distribuição de cargas superfície gaussiana Para a determinação do campo elétrico produzido por um corpo, é possível considerar um elemento de carga dq e assim calcular o campo infinitesimal de gerado. A partir desse princípio, o campo total em

Leia mais

Segunda prova de Álgebra Linear Aplicada - 20/02/2013 Prof. Juliana Coelho - 11h00-13h00

Segunda prova de Álgebra Linear Aplicada - 20/02/2013 Prof. Juliana Coelho - 11h00-13h00 Segunda prova de Álgebra Linear Aplicada - 20/02/2013 Prof. Juliana Coelho - 11h00-13h00 QUESTÃO 1 (1,2 pts) - Determine os valores de a R para os quais os vetores u = (1, 0, a), v = ( 2, 1, 0) e w = (a,

Leia mais

f(h) δ h p f(x + h) f(x) (x) = lim

f(h) δ h p f(x + h) f(x) (x) = lim Capítulo 6 Derivação numérica Nesta seção vamos desenvolver métodos para estimar a derivada de uma função f calculada em um ponto x, f (x, a partir de valores conecidos de f em pontos próximos ao ponto

Leia mais

Método Simplex. Marina Andretta ICMC-USP. 19 de outubro de 2016

Método Simplex. Marina Andretta ICMC-USP. 19 de outubro de 2016 Método Simplex Marina Andretta ICMC-USP 19 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização linear

Leia mais

INF Fundamentos da Computação Gráfica Professor: Marcelo Gattass Aluno: Rogério Pinheiro de Souza

INF Fundamentos da Computação Gráfica Professor: Marcelo Gattass Aluno: Rogério Pinheiro de Souza INF2608 - Fundamentos da Computação Gráfica Professor: Marcelo Gattass Aluno: Rogério Pinheiro de Souza Trabalho 02 Visualização de Imagens Sísmicas e Detecção Automática de Horizonte Resumo Este trabalho

Leia mais

Tratamento Estatístico de Dados em Física Experimental

Tratamento Estatístico de Dados em Física Experimental Tratamento Estatístico de Dados em Física Experimental Prof. Zwinglio Guimarães o semestre de 06 Tópico 7 - Ajuste de parâmetros de funções (Máxima Verossimilhança e Mínimos Quadrados) Método da máxima

Leia mais

Métodos Iterativos para a Solução da Equação de Poisson

Métodos Iterativos para a Solução da Equação de Poisson Métodos Iterativos para a Solução da Equação de Poisson Valdirene da Rosa Rocho, Dagoberto Adriano Rizzotto Justo, Programa de Pós-Graduação em Matemática Aplicada, PPGMap, UFRGS, 91509-900, Porto Alegre,

Leia mais

Métodos de Física Teórica II Prof. Henrique Boschi IF - UFRJ. 1º. semestre de 2010 Aulas 3 e 4 Ref. Butkov, cap. 8, seção 8.3

Métodos de Física Teórica II Prof. Henrique Boschi IF - UFRJ. 1º. semestre de 2010 Aulas 3 e 4 Ref. Butkov, cap. 8, seção 8.3 Métodos de Física Teórica II Prof. Henrique Boschi IF - UFRJ 1º. semestre de 2010 Aulas 3 e 4 Ref. Butkov, cap. 8, seção 8.3 Equações de Poisson e Laplace Vimos na aula passada o método de separação de

Leia mais

Máxima Verossimilhança Método dos Mínimos Quadrados (Al

Máxima Verossimilhança Método dos Mínimos Quadrados (Al Departamento de Física Experimental Máxima Verossimilhança (Alexandre Grothendieck) 20-21 de maio de 2014 Alexandre Grothendieck - 1928 Recherche, 486 (2014) 26-41. 1951 1991? Prólogo Nesta apresentação

Leia mais

Profs. Alexandre Lima e Moraes Junior 1

Profs. Alexandre Lima e Moraes Junior  1 Raciocínio Lógico-Quantitativo para Traumatizados Aula 07 Matrizes, Determinantes e Solução de Sistemas Lineares. Conteúdo 7. Matrizes, Determinantes e Solução de Sistemas Lineares...2 7.1. Matrizes...2

Leia mais

Física II (Química) FFCLRP USP Prof. Antônio Roque Aula 9

Física II (Química) FFCLRP USP Prof. Antônio Roque Aula 9 591036 Física II (Química) FFCLRP USP Prof. Antônio Roque Aula 9 A Equação de Onda em Uma Dimensão Ondas transversais em uma corda esticada Já vimos no estudo sobre oscilações que os físicos gostam de

Leia mais

INTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares

INTRODUÇÃO AOS MÉTODOS NUMÉRICOS. Solução de Sistemas Lineares INTRODUÇÃO AOS MÉTODOS NUMÉRICOS Solução de Sistemas Lineares Introdução Uma variedade de problemas de engenharia pode ser resolvido através da análise linear; entre eles podemos citar: determinação do

Leia mais

4 Deslocamentos gerados pela escavação

4 Deslocamentos gerados pela escavação 4 Deslocamentos gerados pela escavação 4.1. Introdução Neste capítulo são analisados os campos de deslocamentos gerados no maciço rochoso devido à escavação da mineração Pampa de Pongo, Peru, que atualmente

Leia mais

A = Utilizando ponto flutuante com 2 algarismos significativos, 2 = 0, x (0)

A = Utilizando ponto flutuante com 2 algarismos significativos, 2 = 0, x (0) MAP 22 - CÁLCULO NUMÉRICO (POLI) Lista de Exercícios sobre Sistemas Lineares : Utilizando o método de eliminação de Gauss, calcule o determinante e a seguir a inversa da matriz abaixo. Efetue todos os

Leia mais

Em 1970, Bellman e Zadeh (Bellman, 1970) apresentaram a otimização IX]]\, que é um conjunto de técnicas utilizadas em problemas de otimização com

Em 1970, Bellman e Zadeh (Bellman, 1970) apresentaram a otimização IX]]\, que é um conjunto de técnicas utilizadas em problemas de otimização com 4 ±0('/$ 5'd Muito já foi feito no desenvolvimento de metodologias para a resolução de problemas de programação linear IX]]\. Entretanto a grande parte dos trabalhos apresentados procurou obter uma solução

Leia mais

PGF Mecânica Clássica Prof. Iberê L. Caldas

PGF Mecânica Clássica Prof. Iberê L. Caldas PGF 5005 - Mecânica Clássica Prof Iberê L Caldas Quarto Estudo Dirigido o semestre de 08 Os estudos dirigidos podem ser realizados em duplas Apenas os exercícios marcados com asteriscos precisam ser entregues

Leia mais

Equações diferenciais ordinárias

Equações diferenciais ordinárias Departamento de Física Universidade Federal da Paraíba 24 de Junho de 2009 Motivação Problemas envolvendo equações diferenciais são muito comuns em física Exceto pelos mais simples, que podemos resolver

Leia mais

$QiOLVHGHVHQVLELOLGDGHHVWDWtVWLFD

$QiOLVHGHVHQVLELOLGDGHHVWDWtVWLFD $QiOLVHGHVHQVLELOLGDGHHVWDWtVWLFD,QWRGXomR Alguns métodos para a análise de sensibilidade e a importância destes foram apresentados no capítulo 3 O capítulo atual trata da análise de sensibilidade estatística

Leia mais

Energia. 5.2 Equações de Laplace e Poisson

Energia. 5.2 Equações de Laplace e Poisson Capítulo 5 Equações da Eletrostática e Energia 5.1 Introdução Neste momento, já foram vistas praticamente todas as equações e fórmulas referentes à eletrostática. Dessa forma, nesse capítulo estudaremos

Leia mais

RELATÓRIO DE INICIAÇÃO CIENTÍFICA

RELATÓRIO DE INICIAÇÃO CIENTÍFICA Universidade Estadual de Campinas Instituto de Matemática, Estatística e Computação Científica RELATÓRIO DE INICIAÇÃO CIENTÍFICA Aproximações para os Tempos de Trânsito Prof. Dr. Lúcio Tunes dos Santos

Leia mais

Processamento de Malhas Poligonais

Processamento de Malhas Poligonais Processamento de Malhas Poligonais Tópicos Avançados em Computação Visual e Interfaces I Prof.: Marcos Lage www.ic.uff.br/~mlage mlage@ic.uff.br Conteúdo: Notas de Aula Curvas 06/09/2015 Processamento

Leia mais

MATRIZES - PARTE Mais exemplos Multiplicação de duas matrizes AULA 26

MATRIZES - PARTE Mais exemplos Multiplicação de duas matrizes AULA 26 AULA 26 MATRIZES - PARTE 2 26. Mais exemplos Nesta aula, veremos mais dois algoritmos envolvendo matrizes. O primeiro deles calcula a matriz resultante da multiplicação de duas matrizes e utiliza três

Leia mais

EXERCÍCIOS DE MATEMÁTICA COMPUTACIONAL: PRIMEIRO BIMESTRE: EDGARD JAMHOUR. QUESTÃO 1: Indique as afirmativas verdadeiras.

EXERCÍCIOS DE MATEMÁTICA COMPUTACIONAL: PRIMEIRO BIMESTRE: EDGARD JAMHOUR. QUESTÃO 1: Indique as afirmativas verdadeiras. EXERCÍCIOS DE MATEMÁTICA COMPUTACIONAL: PRIMEIRO BIMESTRE: EDGARD JAMHOUR QUESTÃO 1: Indique as afirmativas verdadeiras. ( ) O número Pi não pode ser representado de forma exata em sistemas numéricos de

Leia mais

pelo sistema de coordenadas Cartesianas. Podemos utilizar também o sistema de coordenadas

pelo sistema de coordenadas Cartesianas. Podemos utilizar também o sistema de coordenadas A. Coordenadas Curvilineares. Teorema de Gauss em coordenadas curvilineares Para especificar a posição, utilizamos a base e x, e y, e z e x r = y z pelo sistema de coordenadas Cartesianas. Podemos utilizar

Leia mais

Álgebra Linear Semana 05

Álgebra Linear Semana 05 Álgebra Linear Semana 5 Diego Marcon 4 de Abril de 7 Conteúdo Interpretações de sistemas lineares e de matrizes invertíveis Caracterizações de matrizes invertíveis 4 Espaços vetoriais 5 Subespaços vetoriais

Leia mais

Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b

Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação

Leia mais

Introdução aos Métodos Numéricos

Introdução aos Métodos Numéricos Introdução aos Métodos Numéricos Instituto de Computação UFF Departamento de Ciência da Computação Otton Teixeira da Silveira Filho Conteúdo Erros e Aproximações Numéricas Sistemas de Equações Lineares.

Leia mais

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais:

Espaços Euclidianos. Espaços R n. O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: Espaços Euclidianos Espaços R n O conjunto R n é definido como o conjunto de todas as n-uplas ordenadas de números reais: R n = {(x 1,..., x n ) : x 1,..., x n R}. R 1 é simplesmente o conjunto R dos números

Leia mais

Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi

Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos O problema de controle ótimo Considere

Leia mais

Universidade Federal do Espírito Santo - UFES

Universidade Federal do Espírito Santo - UFES Universidade Federal do Espírito Santo - UFES Centro Universitário Norte do Espírito Santo - CEUNES Departamento de Matemática Aplicada - DMA Prof. Isaac P. Santos - 2018/1 Aula: Métodos Iterativos Para

Leia mais

2 Caracterização do Fenômeno de Estabilidade de Tensão e Índices de Avaliação das Condições de Estabilidade de Tensão

2 Caracterização do Fenômeno de Estabilidade de Tensão e Índices de Avaliação das Condições de Estabilidade de Tensão 2 Caracterização do Fenômeno de Estabilidade de Tensão e Índices de Avaliação das Condições de Estabilidade de Tensão 2.1. Introdução O objetivo deste capítulo é caracterizar o fenômeno de estabilidade

Leia mais

NOTAS DE AULAS DE FÍSICA MODERNA

NOTAS DE AULAS DE FÍSICA MODERNA NOTAS DE AULAS DE FÍSICA MODERNA Prof. Carlos R. A. Lima CAPÍTULO 6 MECÂNICA QUÂNTICA DE SCHRÖDINGER Edição de janeiro de 2009 CAPÍTULO 6 MECÂNICA QUÂNTICA DE SCHRÖDINGER ÍNDICE 6.1- Introdução 6.2- Equação

Leia mais

II. Funções de uma única variável

II. Funções de uma única variável II. Funções de uma única variável 1 II.1. Conceitos básicos A otimização de de funções de de uma única variável consiste no no tipo mais elementar de de otimização. Importância: Tipo de problema encontrado

Leia mais

Análise de regressão linear simples. Diagrama de dispersão

Análise de regressão linear simples. Diagrama de dispersão Introdução Análise de regressão linear simples Departamento de Matemática Escola Superior de Tecnologia de Viseu A análise de regressão estuda o relacionamento entre uma variável chamada a variável dependente

Leia mais

O poço de potencial finito

O poço de potencial finito O poço de potencial finito A U L A 13 Meta da aula Aplicar o formalismo quântico ao caso de um potencial V(x) que tem a forma de um poço (tem um valor V 0 para x < -a/ e para x > a/, e um valor 0 para

Leia mais

Prof. MSc. David Roza José 1/27

Prof. MSc. David Roza José 1/27 1/27 Splines e Interpolação por Partes - A Objetivos: Compreender que splines minimizam oscilações ao ajustar polinômios de menor ordem a partições do domínio; Aprender a desenvolver um código para procurar

Leia mais

Aprendizagem por treinamento de redes de aproximação

Aprendizagem por treinamento de redes de aproximação Aprendizagem por treinamento de redes de Marco H. Terra Departamento de Eng. Elétrica - EESC - USP SEL 0362 - Inteligência Artificial 1 Introdução Neste capítulo, serão apresentados conceitos sobre redes

Leia mais