BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017

Tamanho: px
Começar a partir da página:

Download "BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017"

Transcrição

1 BCC465 - TÉCNICAS DE OTIMIZAÇÃO MULTI-OBJETIVO Aula 04 - Otimização Não-linear Gladston Juliano Prates Moreira gladston@iceb.ufop.br CSILab, Departamento de Computação Universidade Federal de Ouro Preto 22 de novembro de / 64

2 Apresentação Otimização Não-Linear Definições gerais Condições de Otimalidade Método de Penalidade Métodos Determinísticos Métodos de direção de busca 2 / 64

3 Apresentação Otimização Não-Linear Definições gerais Condições de Otimalidade Método de Penalidade Métodos Determinísticos Métodos de direção de busca 2 / 64

4 Otimização Não-Linear 3 / 64

5 Problema de Otimização Um problema de otimização, pode descrito por um modelo geral como segue: min f (x) R sujeito a: g i (x) 0 i = 1,..., m h j (x) = 0 j = m + 1,..., l x X 4 / 64

6 Problema de Otimização A escolha da técnica de otimização depende da natureza das funções f (x), g(x), h(x). Não há uma técnica de otimização que seja universal. Como fazer a escolha certa? 5 / 64

7 Fundamentos Conjuntos Convexos Um conjunto X R n é dito convexo se, x 1, x 2 X e 0 λ 1, tem-se que λx 1 + (1 λ)x 2 X 1. C = { (x 1 ; x 2 ) : x x 2 2 4} R 2 2. C = {x : Ax b} 6 / 64

8 Fundamentos Conjuntos Convexos Um conjunto X R n é dito convexo se, x 1, x 2 X e 0 λ 1, tem-se que λx 1 + (1 λ)x 2 X 1. C = { (x 1 ; x 2 ) : x x 2 2 4} R 2 2. C = {x : Ax b} 6 / 64

9 Fundamentos Conjuntos Conexos Seja o conjunto X R n. Esse conjunto é dito conexo se, dados quaisquer dois pontos x 1, x 2 X, existe uma curva contínua finita q tal que x 1 q, x 2 q, e q X. 7 / 64

10 Fundamentos Uma função é uma relação que associa a um elemento de um conjunto A a um único elemento de um conjunto B, ou seja, a A b = f (a) B Se f (.) : X R n R, dizemos que f (.) é um funcional. Uma função f (.) : X Y é dita uma função convexa sobre X R n se, x 1, x 2 X e 0 λ 1, tem-se que f (λx 1 + (1 λ)x 2 ) λf (x 1 ) + (1 λ)f (x 2 ) 8 / 64

11 Fundamentos Uma função é uma relação que associa a um elemento de um conjunto A a um único elemento de um conjunto B, ou seja, a A b = f (a) B Se f (.) : X R n R, dizemos que f (.) é um funcional. Uma função f (.) : X Y é dita uma função convexa sobre X R n se, x 1, x 2 X e 0 λ 1, tem-se que f (λx 1 + (1 λ)x 2 ) λf (x 1 ) + (1 λ)f (x 2 ) 8 / 64

12 Fundamentos Uma função é uma relação que associa a um elemento de um conjunto A a um único elemento de um conjunto B, ou seja, a A b = f (a) B Se f (.) : X R n R, dizemos que f (.) é um funcional. Uma função f (.) : X Y é dita uma função convexa sobre X R n se, x 1, x 2 X e 0 λ 1, tem-se que f (λx 1 + (1 λ)x 2 ) λf (x 1 ) + (1 λ)f (x 2 ) 8 / 64

13 Superfície de nível e região subnível Dada uma função f (.) : X R n R, o conjunto R(f, α) = {x X : f (x) α} é denominada região de subnível. Se f (.) é convexa então R(f, α) é um conjunto convexo. A superfície de nível (ou curva de nível) é definida como S(f, α) = {x X : f (x) = α} 9 / 64

14 Superfície de nível e região subnível Dada uma função f (.) : X R n R, o conjunto R(f, α) = {x X : f (x) α} é denominada região de subnível. Se f (.) é convexa então R(f, α) é um conjunto convexo. A superfície de nível (ou curva de nível) é definida como S(f, α) = {x X : f (x) = α} 9 / 64

15 Superfície de nível e região subnível Dada uma função f (.) : X R n R, o conjunto R(f, α) = {x X : f (x) α} é denominada região de subnível. Se f (.) é convexa então R(f, α) é um conjunto convexo. A superfície de nível (ou curva de nível) é definida como S(f, α) = {x X : f (x) = α} 9 / 64

16 Superfície de nível e região subnível 10 / 64

17 Modalidades de Funções Uma função f (.) : X R n R é dita unimodal, se R(f, α) é um conjunto conexo para todo α R. Uma função f (.) : X R n R é dita multimodal, se R(f, α) é um conjunto desconexo para algum α R. 11 / 64

18 Modalidades de Funções Uma função f (.) : X R n R é dita unimodal, se R(f, α) é um conjunto conexo para todo α R. Uma função f (.) : X R n R é dita multimodal, se R(f, α) é um conjunto desconexo para algum α R. 11 / 64

19 Modalidades de Funções Um exemplo de multimodalidade. 12 / 64

20 Modalidades de Funções Note que uma função unimodal pode possuir múltiplos mínimos, desde que o conjunto destes forme um conjunto conexo (segundo esta definição). A função f (x) = [ ] [ ] [ ] 1 0 x1 x 1 x os mínimos ocorrem sobre o eixo x 1 = 0. Bacias de atração Sejam f (.) : X R n R e x X um mínimo local de f (.). A bacia de atração de x, B(x ) é definida como a maior região conexa de subnível R(f, α) que contém x, sendo α o nível correspondente, tal que a função restrita a essa região: x 2 f (.) : R(f, α ) R é unimodal. 13 / 64

21 Modalidades de Funções Note que uma função unimodal pode possuir múltiplos mínimos, desde que o conjunto destes forme um conjunto conexo (segundo esta definição). A função f (x) = [ ] [ ] [ ] 1 0 x1 x 1 x os mínimos ocorrem sobre o eixo x 1 = 0. Bacias de atração Sejam f (.) : X R n R e x X um mínimo local de f (.). A bacia de atração de x, B(x ) é definida como a maior região conexa de subnível R(f, α) que contém x, sendo α o nível correspondente, tal que a função restrita a essa região: x 2 f (.) : R(f, α ) R é unimodal. 13 / 64

22 A convexidade de funções pode ser relacionada com as regiões de sub-nível, superfícies de nível e bacias de atração. 1. Todas as regiões de sub-nível de uma função convexa num domínio convexo são conjuntos convexos. 2. Uma função convexa em um domínio convexo possui uma única bacia de atração, a qual é um conjunto convexo. 14 / 64

23 Continuidade e Diferenciabilidade Uma função f (.) : X R n R é dita contínua se x 0 X : f (x 0 ) está definido; lim = f (x 0 ) x x0 Uma função contínua é aquela para a qual uma pequena variação no domínio gera uma pequena variação na imagem (no resultado da função). 15 / 64

24 Continuidade e Diferenciabilidade Uma função f (.) : X R n R é dita contínua se x 0 X : f (x 0 ) está definido; lim = f (x 0 ) x x0 Uma função contínua é aquela para a qual uma pequena variação no domínio gera uma pequena variação na imagem (no resultado da função). 15 / 64

25 Continuidade e Diferenciabilidade Uma função f (.) : X R n R é dita diferenciável em x X se existe o vetor gradiente: ( f f (x) =, f,..., f ), x 1 x 2 x n e além disso as derivadas parciais f x i, i = 1,..., n são contínuas. Uma função f (.) : X R n R é dita diferenciável de segunda ordem em x X se existe a matriz Hessiana: 2 f... 2 f x 1 2 x 1 x n H(x) = f x n x f xn 2 16 / 64

26 Direções factíveis e direções minimizantes Diz-se que d R n é uma direção factível a partir de um ponto x 0 X, se existe um α > 0, tal que (x + αd) X, α [0, α]. Sejam f (.) : X R n R diferenciável e f (x) o gradiente de f (.) em x. Seja d R n, se d. f (x) < 0 então existe ɛ > 0 tal que f (x + ɛd) < f (x). Diz-se que d é uma direção minimizante de f(x) a partir de um ponto x. 17 / 64

27 Direções factíveis e direções minimizantes Diz-se que d R n é uma direção factível a partir de um ponto x 0 X, se existe um α > 0, tal que (x + αd) X, α [0, α]. Sejam f (.) : X R n R diferenciável e f (x) o gradiente de f (.) em x. Seja d R n, se d. f (x) < 0 então existe ɛ > 0 tal que f (x + ɛd) < f (x). Diz-se que d é uma direção minimizante de f(x) a partir de um ponto x. 17 / 64

28 Direções factíveis e direções minimizantes Diz-se que d R n é uma direção factível a partir de um ponto x 0 X, se existe um α > 0, tal que (x + αd) X, α [0, α]. Sejam f (.) : X R n R diferenciável e f (x) o gradiente de f (.) em x. Seja d R n, se d. f (x) < 0 então existe ɛ > 0 tal que f (x + ɛd) < f (x). Diz-se que d é uma direção minimizante de f(x) a partir de um ponto x. 17 / 64

29 Exemplos 18 / 64

30 Exemplos 19 / 64

31 Exemplos 20 / 64

32 Exemplos 21 / 64

33 Condições de Otimalidade (Condição necessária de 1 a Ordem) Seja x X um mínimo local da função f (.) : X R n R. O vetor gradiente em x é nulo. (Condição necessária de 2 a ordem) Seja x X um mínimo local da função f (.) : X R n R. A matriz Hessiana em x é semi-definida positiva. 22 / 64

34 Condições de Otimalidade (Condição necessária de 1 a Ordem) Seja x X um mínimo local da função f (.) : X R n R. O vetor gradiente em x é nulo. (Condição necessária de 2 a ordem) Seja x X um mínimo local da função f (.) : X R n R. A matriz Hessiana em x é semi-definida positiva. 22 / 64

35 Condições de Otimalidade (Condições suficientes) Seja f (.) : X R n R duas vezes diferenciável em x X. Se f (x ) = 0 e H(x ) > 0 (definida positiva), então x é um mínimo local de f (.) (Observação:) As condições necessárias devem ser verdadeiras para todo ótimo local. Entretanto, um ponto que satisfaça estas condições não precisa ser um ótimo. 23 / 64

36 Condições de Otimalidade (Condições suficientes) Seja f (.) : X R n R duas vezes diferenciável em x X. Se f (x ) = 0 e H(x ) > 0 (definida positiva), então x é um mínimo local de f (.) (Observação:) As condições necessárias devem ser verdadeiras para todo ótimo local. Entretanto, um ponto que satisfaça estas condições não precisa ser um ótimo. 23 / 64

37 De forma geral, uma matriz H é: positiva definida todos os autovalores são positivos positiva semi-definida todos os autovalores são não-negativos negativa definida todos os autovalores são negativos negativa semi-definida todos os autovalores são não-posititos indefinida possui autovalores positivos e negativos 24 / 64

38 Otimalidade para Problemas Restritos Seja o problema restrito a seguir: min f (x) = x x 2 2 sujeito a: h(x) = (x 1 4) 2 + x = 0 Como determinar as condições de otimalidade? 25 / 64

39 Otimalidade para Problemas Restritos 26 / 64

40 Otimalidade para Problemas Restritos Graficamente: O mínimo global de f (x) sobre a curva h(x) = 0 é x = (2, 0). Os vetores f e h satisfazem: [f (x) + λ h(x)] x=x = 0 x L(x, λ ) = 0 Fazendo L(x, λ) = f (x) + λh(x). f (x ) = λ h(x ) 27 / 64

41 Otimalidade para Problemas Restritos Graficamente: O mínimo global de f (x) sobre a curva h(x) = 0 é x = (2, 0). Os vetores f e h satisfazem: [f (x) + λ h(x)] x=x = 0 x L(x, λ ) = 0 Fazendo L(x, λ) = f (x) + λh(x). f (x ) = λ h(x ) 27 / 64

42 Otimalidade para Problemas Restritos A solução do problema restrito min f (x) sujeito a: h(x) = 0 é o ponto critico da função L(x, λ) = f (x) + λh(x) Implicando em: [ x L λ L ] = 0 28 / 64

43 Otimalidade para Problemas Restritos Com relação a uma restrição de desigualdade, podemos converter g(x) 0 em g(x) + z 2 = 0, sendo z uma variável de folga: min f (x) sujeito a: {g(x) 0 ou g(x) + z 2 = 0} A função Lagrangiana é dada por: O ponto crítico: x L z L = 0 µ L L(x, z, µ) = f (x) + µ[g(x) + z 2 ] f (x ) + µ g(x ) = 0 µ g(x ) = 0 g(x ) 0 29 / 64

44 Otimalidade Karush-Kuhn-Tucker Dado o problema de otimização: sujeito a: min f (x) R g i (x) 0 i = 1,..., m h j (x) = 0 j = m + 1,..., l x X x é ótimo se existem multiplicadores de Lagrange µ 0 e λ tais que: f (x ) + m i=1 µ i g i(x ) + l j=1 λ j h j(x ) = 0 µ i g i(x ) = 0 g i (x ) 0 h j (x ) = 0 30 / 64

45 Problema Exemplo Considere o problema: min f (x) = (x 1 3) 2 + 2(x 2 3) 2 sujeito a: h(x) : x 1 + x 2 5 = 0 g(x) : 3x 1 + 2x x 1 6; 0 x / 64

46 Problema Exemplo 32 / 64

47 Método de Penalidade Infelizmente, o Método de Lagrange não é muito prático, pelas seguintes razões: A construção do sistema de equações pressupõe acesso às expressões anaĺıticas de f (x), g i (x), h j (x); A resolução do problema de otimização não linear original requer a solução de um sistema de equações não lineares; 33 / 64

48 Método de Penalidade Infelizmente, o Método de Lagrange não é muito prático, pelas seguintes razões: A construção do sistema de equações pressupõe acesso às expressões anaĺıticas de f (x), g i (x), h j (x); A resolução do problema de otimização não linear original requer a solução de um sistema de equações não lineares; 33 / 64

49 Método de Penalidade A abordagem dos Métodos de Penalidades consiste na transformação do problema restrito original num problema irrestrito equivalente (dois problemas são ditos equivalentes se possuem a mesma solução); Métodos indiretos para otimização restrita. 34 / 64

50 Método de Penalidade A abordagem dos Métodos de Penalidades consiste na transformação do problema restrito original num problema irrestrito equivalente (dois problemas são ditos equivalentes se possuem a mesma solução); Métodos indiretos para otimização restrita. 34 / 64

51 Métodos de Penalidade Nos métodos de Penalidade, penalidades são adicionadas à função-objetivo: Métodos de penalidade interior ou métodos Barreira: pontos gerados devem ser sempre viáveis e qualquer tentativa de sair da região factível é penalizada. Métodos de penalidade exterior ou métodos de Penalidade: qualquer violação de alguma restrição é penalizada no valor da função-objetivo. 35 / 64

52 Métodos de Penalidade Nos métodos de Penalidade, penalidades são adicionadas à função-objetivo: Métodos de penalidade interior ou métodos Barreira: pontos gerados devem ser sempre viáveis e qualquer tentativa de sair da região factível é penalizada. Métodos de penalidade exterior ou métodos de Penalidade: qualquer violação de alguma restrição é penalizada no valor da função-objetivo. 35 / 64

53 Métodos de Penalidade Em geral, em problemas restritos a solução reside na fronteira da região factível: Nos métodos de penalidade interior, a solução ótima é aproximada internamente por uma sequência de soluções do problema irrestrito transformado; Nos métodos de penalidade exterior, a solução ótima é aproximada externamente por uma sequência de soluções do problema irrestrito transformado; 36 / 64

54 Métodos de Penalidade Em geral, em problemas restritos a solução reside na fronteira da região factível: Nos métodos de penalidade interior, a solução ótima é aproximada internamente por uma sequência de soluções do problema irrestrito transformado; Nos métodos de penalidade exterior, a solução ótima é aproximada externamente por uma sequência de soluções do problema irrestrito transformado; 36 / 64

55 Método de Penalidade Exterior Função de Penalidade Uma função de penalidade deve atender as seguintes condições: { p(x) > 0, se x / X p(x) = 0, se x X 37 / 64

56 Método de Penalidade Exterior Função de Penalidade 1. No caso de um problema com uma restrição de igualdade: min f (x) s.a h(x) = 0 = min f (x) + u[h(x)] 2 2. No caso de um problema com uma restrição de desigualdade: min f (x) s.a g(x) 0 = min f (x) + u max[0, g(x)] 2 38 / 64

57 Método de Penalidade Exterior Função de Penalidade 1. No caso de um problema com uma restrição de igualdade: min f (x) s.a h(x) = 0 = min f (x) + u[h(x)] 2 2. No caso de um problema com uma restrição de desigualdade: min f (x) s.a g(x) 0 = min f (x) + u max[0, g(x)] 2 38 / 64

58 Método de Penalidade Exterior Função de Penalidade De forma geral temos:: p p(x, u) = u [h i (x)] 2 + i=1 q max[0, g j (x)] 2 j=1 39 / 64

59 Método de Penalidade Exterior 40 / 64

60 Método de Penalidade Exterior 41 / 64

61 Método de Penalidade Interior No método de barreira, deve-se construir uma função que penaliza tentativas de sair da região factível. Função de Barreira Uma função de barreira deve atender as seguintes condições: { b(x), se x X b(x) 0, se x X 42 / 64

62 Método de Penalidade Interior Função de Barreira 1. Uma possível função barreira é: min f (x) s.a g(x) 0 = min f (x) + ( u) log[ g(x)] 2. Outra opção: min f (x) s.a g(x) 0 = min f (x) + ( u) 1 [g(x)] 43 / 64

63 Método de Penalidade Interior Função de Barreira 1. Uma possível função barreira é: min f (x) s.a g(x) 0 = min f (x) + ( u) log[ g(x)] 2. Outra opção: min f (x) s.a g(x) 0 = min f (x) + ( u) 1 [g(x)] 43 / 64

64 Método de Penalidade Interior b(x) é uma função barreira não negativa e contínua em F e tende a infinito à medida que aproximamos da fronteira. Formulando o problema como a minimização de f (x) + b(x, u), com u 0 +, gera-se uma sequência de soluções no interior de X que converge para x. 44 / 64

65 Método de Penalidade Interior b(x) é uma função barreira não negativa e contínua em F e tende a infinito à medida que aproximamos da fronteira. Formulando o problema como a minimização de f (x) + b(x, u), com u 0 +, gera-se uma sequência de soluções no interior de X que converge para x. 44 / 64

66 Método de Penalidade Interior Função de Barreira De forma geral temos:: q 1 b(x, u) = u g j (x) j=1 Observe que não é possível definir uma função barreira para restrições de igualdade. 45 / 64

67 Método de Penalidade Interior 46 / 64

68 Método de Penalidade Interior 47 / 64

69 Método de Penalidade Considerações A teoria prevê que a solução converge para a solução ótima quando u k (ou u k 0),porém: A Hessiana da função-objetivo penalizada depende de u k e pode apresentar ma-condicionamento numérico; A variação de u k deve ser gradual; A precisão final fica bastante limitada. Usar termos de penalidade distintos para cada restrição evitando problemas de escala; Penalizar apenas a restrição mais violada. 48 / 64

70 Método de Penalidade Considerações A teoria prevê que a solução converge para a solução ótima quando u k (ou u k 0),porém: A Hessiana da função-objetivo penalizada depende de u k e pode apresentar ma-condicionamento numérico; A variação de u k deve ser gradual; A precisão final fica bastante limitada. Usar termos de penalidade distintos para cada restrição evitando problemas de escala; Penalizar apenas a restrição mais violada. 48 / 64

71 Método de Penalidade Considerações A teoria prevê que a solução converge para a solução ótima quando u k (ou u k 0),porém: A Hessiana da função-objetivo penalizada depende de u k e pode apresentar ma-condicionamento numérico; A variação de u k deve ser gradual; A precisão final fica bastante limitada. Usar termos de penalidade distintos para cada restrição evitando problemas de escala; Penalizar apenas a restrição mais violada. 48 / 64

72 Método de Penalidade Considerações A teoria prevê que a solução converge para a solução ótima quando u k (ou u k 0),porém: A Hessiana da função-objetivo penalizada depende de u k e pode apresentar ma-condicionamento numérico; A variação de u k deve ser gradual; A precisão final fica bastante limitada. Usar termos de penalidade distintos para cada restrição evitando problemas de escala; Penalizar apenas a restrição mais violada. 48 / 64

73 Método de Penalidade Considerações A teoria prevê que a solução converge para a solução ótima quando u k (ou u k 0),porém: A Hessiana da função-objetivo penalizada depende de u k e pode apresentar ma-condicionamento numérico; A variação de u k deve ser gradual; A precisão final fica bastante limitada. Usar termos de penalidade distintos para cada restrição evitando problemas de escala; Penalizar apenas a restrição mais violada. 48 / 64

74 Métodos Determinísticos 49 / 64

75 Métodos Determinísticos Geram uma sequência determinística de possíveis soluções. Métodos baseados em derivadas: Método do Gradiente; Método de Newton; Métodos Quasi-Newton; Métodos de Gradientes Conjugados; Métodos sem derivadas: Método Nelder-Mead Simplex; Método Hooke-Jeeves. 50 / 64

76 Métodos Determinísticos Geram uma sequência determinística de possíveis soluções. Métodos baseados em derivadas: Método do Gradiente; Método de Newton; Métodos Quasi-Newton; Métodos de Gradientes Conjugados; Métodos sem derivadas: Método Nelder-Mead Simplex; Método Hooke-Jeeves. 50 / 64

77 Métodos de direção de busca Estrutura geral A estrutura geral de métodos baseados em direção de busca obedece a seguinte forma: x k+1 x k + α k d k Os métodos variam na forma como o passo α k e a direção d k são escolhidos. 51 / 64

78 Métodos de direção de busca Estrutura geral A estrutura geral de métodos baseados em direção de busca obedece a seguinte forma: x k+1 x k + α k d k Os métodos variam na forma como o passo α k e a direção d k são escolhidos. 51 / 64

79 Método do Gradiente O Método do Gradiente ou Método da Descida Mais Íngreme (Steepest Descent Method) é o método mais simples entre os métodos de direção de busca. d k = f (x k ) 52 / 64

80 Método do Gradiente O algoritmo gera uma sequência monotônica {x k, f (x k )} tal que f (x k ) 0 quando k. O passo α k é um escalar não negativo que minimiza f (x k + αd k ), ou seja, representa um passo dado na direção minimizante d k. 53 / 64

81 Método do Gradiente Na prática, α k é obtido com um método de minimização unidirecional. 54 / 64

82 Método do Gradiente Na prática, α k é obtido com um método de minimização unidirecional. 54 / 64

83 Método do Gradiente Método de busca unidirecional Busca irrestrita; Busca exaustiva; Busca dicotômica; Método de Fibonacci; Método da Seção Áurea; / 64

84 Método de busca unidirecional Definição α = min θ(α) R, α [0, ] θ(α) = f (x k + αd), x k, d R n Exemplo Determinar z 1 que minimiza f (x) = 2x1 2 + x 2 2 z 0 = [1, 1] na direção d = f (x 0 ). partindo de 56 / 64

85 Método do Gradiente Avaliação numérica do gradiente Para avaliar o vetor gradiente numericamente, podemos usar a fórmula de diferenças finitas: f x i f (x + δ ie i ) f (x), i = 1,..., n x δ i Uma fórmula mais precisa é a diferença finita central: f x i f (x + δ ie i ) f (x δ i e i ), i = 1,..., n x 2δ i 57 / 64

86 Método de Newton Se f (x) é duas vezes diferenciável, usando a expansão em séries de Taylor em torno de x k, temos: f (x) = f (x k ) + f (x k ) (x x k ) (x x k) H(x k )(x x k ) + O Assumindo a aproximação de 2a ordem, derivando e igualando a zero, obtemos: f (x k ) + H(x k )(x k+1 x k ) = 0 x k+1 = x k H 1 (x k ) f (x k ) 58 / 64

87 Método de Newton Se f (.) for quadrática, o método de Newton determina a solução ótima em um passo. A matriz H 1 (x k ) pode ser interpretada como uma correção aplicada à direção f (x k ), levando em conta a curvatura da função. Para casos gerais, com funções não quadráticas, deve-se determinar o passo ótimo α k : x k+1 x k + α k d k, d k = H 1 (x k ) f (x k ) 59 / 64

88 Método de Newton 60 / 64

89 Método de Newton O método apresenta convergência quadrática; A convergência do método de Newton é atendida sob duas premissas: 1. que H(x k ) seja não singular, ou seja, possua inversa; 2. que H(x k ) seja definida positiva, para garantir que d k = H 1 (x k ) f (x k ) seja uma direção minimizante. 61 / 64

90 Método de Newton Dificuldades: Necessita do cálculo da matriz inversa; Mal-condicionamento numérico da matriz Hessiana dificulta o cálculo de sua inversa; Derivadas numéricas: maiores erros numéricos e muitas avaliações de função para a aproximação por diferenças finitas. 62 / 64

91 Métodos Determinísticos Métodos baseados em derivadas: Método do Gradiente; Método de Newton; Métodos Quasi-Newton; Métodos de Gradientes Conjugados; Métodos sem derivadas: Método Nelder-Mead Simplex; Método Hooke-Jeeves. 63 / 64

92 Referências: Takahashi, R.H.C.; Notas de Aula: Otimização Escalar e Vetorial. uploads/arquivos/archive.zip J. A. Ramírez, F. Campelo, F. G. Guimarães, Lucas S. Batista, Ricardo H. C. Takahashi, Notas de Aula de Otimização, uploads/arquivos/nota1.pdf Izmailov, A, Solodov, V.M, Otimização Vol.1 Condições de Otimalidade, Elementos de Análise Convexa e de Dualidade. Editora IMPA, Izmailov, A, Solodov, V.M, Otimização Vol. 2. Métodos Computacionais. Editora IMPA, / 64

Otimização Multiobjetivo

Otimização Multiobjetivo Otimização Multiobjetivo Otimização Restrita Prof. Frederico Gadelha Guimarães Lucas S. Batista Eduardo G. Carrano Universidade Federal de Minas Gerais Programa de Pós-Graduação em Engenharia Elétrica,

Leia mais

II. Funções de uma única variável

II. Funções de uma única variável II. Funções de uma única variável 1 II.1. Conceitos básicos A otimização de de funções de de uma única variável consiste no no tipo mais elementar de de otimização. Importância: Tipo de problema encontrado

Leia mais

)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD

)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD )XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD,QWURGXomR A grande maioria dos problemas de engenharia pode ser solucionado de diferentes formas, uma vez que um número muito grande de soluções atende aos critérios

Leia mais

Método do Lagrangiano aumentado

Método do Lagrangiano aumentado Método do Lagrangiano aumentado Marina Andretta ICMC-USP 23 de novembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 1 / 17 Problema com restrições gerais Vamos

Leia mais

Departamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B =

Departamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B = Departamento de Matemática da Universidade de Coimbra Optimização Numérica Licenciatura em Matemática Ano lectivo 2006/2007 Folha 1 1. Considere as matrizes A = [ 1 1 1 2 ] e B = [ 1 3 1 2 (a) Verifique

Leia mais

Optimização. Carlos Balsa. Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança

Optimização. Carlos Balsa. Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Optimização Carlos Balsa balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Matemática Aplicada - Mestrados Eng. Química e Industrial Carlos Balsa Matemática Aplicada

Leia mais

Alexey Izmailov Mikhail Solodov VOLUME II MÉTODOS COMPUTACIONAIS. Rio de Janeiro 2 007

Alexey Izmailov Mikhail Solodov VOLUME II MÉTODOS COMPUTACIONAIS. Rio de Janeiro 2 007 page 1 Alexey Izmailov Mikhail Solodov OTIMIZAÇÃO, VOLUME II MÉTODOS COMPUTACIONAIS Rio de Janeiro 2 007 page Copyright c 2007 by Alexey Izmailov and Mikhail Solodov Direitos reservados, 2007 pela Associação

Leia mais

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA Marlon Luiz Dal Pasquale Junior, UNESPAR/FECILCAM, jr.marlon@hotmail.com Solange Regina dos Santos (OR), UNESPAR/FECILCAM, solaregina@fecilcam.br

Leia mais

Otimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana

Otimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana Otimização Linear Profª : Adriana Departamento de Matemática adriana@fc.unesp.br wwwp.fc.unesp.br/~adriana Forma geral de um problema Em vários problemas que formulamos, obtivemos: Um objetivo de otimização

Leia mais

Jaime A. Ramírez Felipe Campelo Frederico G. Guimarães Lucas S. Batista Ricardo H.C. Takahashi

Jaime A. Ramírez Felipe Campelo Frederico G. Guimarães Lucas S. Batista Ricardo H.C. Takahashi Otimização ELE037 Introdução Jaime A. Ramírez Felipe Campelo Frederico G. Guimarães Lucas S. Batista Ricardo H.C. Takahashi Universidade Federal de Minas Gerais Departamento de Engenharia Elétrica J. A.

Leia mais

Introdução à Otimização de Processos. Prof. Marcos L Corazza Departamento de Engenharia Química Universidade Federal do Paraná

Introdução à Otimização de Processos. Prof. Marcos L Corazza Departamento de Engenharia Química Universidade Federal do Paraná Introdução à Otimização de Processos Prof. Marcos L Corazza Departamento de Engenharia Química Universidade Federal do Paraná Otimização Não-Linear Algumas definições e conceitos preliminares: 1. Derivadas

Leia mais

MAT Cálculo 2 para Economia 3 a Prova - 28 de novembro de 2016

MAT Cálculo 2 para Economia 3 a Prova - 28 de novembro de 2016 MAT 0147 - Cálculo para Economia 3 a Prova - 8 de novembro de 016 Questão 1) Determine o máximo e o mínimo de f(x, y) = x 4 + y em D = {(x, y); x + y 1}. Soluç~ao: As derivadas parciais f x (x, y) = 4x

Leia mais

ALGUMS MÉTODOS CLÁSSICOS DE OTIMIZAÇÃO

ALGUMS MÉTODOS CLÁSSICOS DE OTIMIZAÇÃO ALGUMS MÉTODOS CLÁSSICOS DE OTIMIZAÇÃO Pedro Henrique Rodrigues da Silva, pedro henrique-02@hotmailcom 1 Milena Almeida Leite Brandão, milena@pontalufubr 1 1 Universidade Federal de Uberlândia, Faculdade

Leia mais

Análise Convexa. 1. Conjuntos convexos 1.1. Casca convexa, ponto extremo, cone. 2. Hiperplanos: suporte, separador, teorema da separação

Análise Convexa. 1. Conjuntos convexos 1.1. Casca convexa, ponto extremo, cone. 2. Hiperplanos: suporte, separador, teorema da separação Análise Convexa 1. Conjuntos convexos 1.1. Casca convexa, ponto extremo, cone 2. Hiperplanos: suporte, separador, teorema da separação 3. Funções convexas 4. Teoremas de funções convexas 5. Conjunto poliedral

Leia mais

Métodos de Pesquisa Operacional

Métodos de Pesquisa Operacional Métodos de Pesquisa Operacional Programação Linear é a parte da Pesquisa Operacional que trata da modelagem e resolução de problemas formulados com funções lineares. Programação Linear } Métodos de Resolução

Leia mais

1 Álgebra linear matricial

1 Álgebra linear matricial MTM510019 Métodos Computacionais de Otimização 2018.2 1 Álgebra linear matricial Revisão Um vetor x R n será representado por um vetor coluna x 1 x 2 x =., x n enquanto o transposto de x corresponde a

Leia mais

PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA. Plano de Ensino

PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA. Plano de Ensino PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE FEDERAL DE SÃO JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO FEDERAL DE EDUCAÇÃO TECNOLÓGICA DE MINAS GERAIS DIRETORIA DE PESQUISA E PÓS-GRADUAÇÃO

Leia mais

Aula 10 Sistemas Não-lineares e o Método de Newton.

Aula 10 Sistemas Não-lineares e o Método de Newton. Aula 10 Sistemas Não-lineares e o Método de Newton MS211 - Cálculo Numérico Marcos Eduardo Valle Departamento de Matemática Aplicada Instituto de Matemática, Estatística e Computação Científica Universidade

Leia mais

Otimização Aplicada à Engenharia de Processos

Otimização Aplicada à Engenharia de Processos Otimização Aplicada à Engenharia de Processos Aula 4: Programação Linear Felipe Campelo http://www.cpdee.ufmg.br/~fcampelo Programa de Pós-Graduação em Engenharia Elétrica Belo Horizonte Março de 2013

Leia mais

Capítulo 5 - Optimização Não-Linear

Capítulo 5 - Optimização Não-Linear Capítulo 5 - Optimização Não-Linear balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Mestrados em Engenharia da Construção Métodos de Aproximação em Engenharia

Leia mais

Teoria de dualidade. Marina Andretta ICMC-USP. 19 de outubro de 2016

Teoria de dualidade. Marina Andretta ICMC-USP. 19 de outubro de 2016 Teoria de dualidade Marina Andretta ICMC-USP 19 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização

Leia mais

Cones e raios extremos

Cones e raios extremos Cones e raios extremos Marina Andretta ICMC-USP 7 de novembro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização

Leia mais

1 Otimização com restrições I: Condições de Primeira Ordem

1 Otimização com restrições I: Condições de Primeira Ordem Otimização com restrições I: Condições de Primeira Ordem Teorema 8: Seja f e h funções C de duas variáveis Suponha x = (x, x 2 ) é uma solução do problema: max f (x, x 2 ) sa h(x, x 2 ) = c Suponha também

Leia mais

Método dos gradientes (ou método de máxima descida)

Método dos gradientes (ou método de máxima descida) Método dos gradientes (ou método de máxima descida) Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 14 de setembro de 2010 1 / 16 Método dos gradientes

Leia mais

DEPARTAMENTO DE ENGENHARIA MECÂNICA

DEPARTAMENTO DE ENGENHARIA MECÂNICA DEPARTAMENTO DE ENGENHARIA MECÂNICA Otimização: Algoritmos e Aplicações na Engenharia Mecânica ENG1786 & MEC2403 Ivan Menezes 2018-2 1 EMENTA 1. Introdução 1.1 Definições Básicas 1.2 Classificação dos

Leia mais

Métodos para resolver problemas de otimização restrita

Métodos para resolver problemas de otimização restrita Métodos para resolver problemas de otimização restrita Marina Andretta ICMC-USP 22 de novembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 22 de novembro de 2010 1 / 13 Problema

Leia mais

Algebra Linear. 1. Ortonormalização. 2. Sistema de Equações Lineares. pag.1 Teoria de Sistemas Lineares Aula 6. c Reinaldo M.

Algebra Linear. 1. Ortonormalização. 2. Sistema de Equações Lineares. pag.1 Teoria de Sistemas Lineares Aula 6. c Reinaldo M. Algebra Linear 1. Ortonormalização 2. Sistema de Equações Lineares pag.1 Teoria de Sistemas Lineares Aula 6 Ortonormalização Um vetor x é dito estar normalizado se sua norma Euclidiana é igual a 1, ie,

Leia mais

Aula 17. Máximo e Mínimo Absolutos

Aula 17. Máximo e Mínimo Absolutos Aula 17 Máximo e Mínimo Absolutos O maior e o menor valor de f(x, y), num certo domínio, nem sempre existem, como ilustrado na Figura 1 (domínio = R ). Neste caso, não existe máximo absoluto. Uma das causas,

Leia mais

Programação Matemática

Programação Matemática Programação Matemática Docentes: Ana Paula, Franklina e Maristela Instituto de Ciências Matemáticas e de Computação - ICMC Universidade de São Paulo USP (Material Elaborado por Aline Leão modificado por

Leia mais

Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi

Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos O problema de controle ótimo Considere

Leia mais

. Os menores -2,0-1,5-1,0-0,5-5 0,0 0,5 1,0 1,5 2, = x 2y.. Os menores

. Os menores -2,0-1,5-1,0-0,5-5 0,0 0,5 1,0 1,5 2, = x 2y.. Os menores 1. Para cada uma das seguintes funções, verifique se ele é côncava, convexa ou nenhuma das duas, justificando em cada caso. (a) f(x, ) = 1x + (b) f(x) = 1x x (c) f(x, ) = x x 1 (a) = 1 = x = e = = = 1

Leia mais

Prof. Flávio Vinícius Cruzeiro Martins

Prof. Flávio Vinícius Cruzeiro Martins Prof. Flávio Vinícius Cruzeiro Martins Os mecanismos de otimização tratam da questão de determinar a melhor solução de problemas abstratos. Abordagem Escalar = mono-objetivo. O mecanismo de otimização

Leia mais

Aula 25 - Espaços Vetoriais

Aula 25 - Espaços Vetoriais Espaço Vetorial: Aula 25 - Espaços Vetoriais Seja V um conjunto não vazio de objetos com duas operações definidas: 1. Uma adição que associa a cada par de objetos u, v em V um único objeto u + v, denominado

Leia mais

Matemática 2. Teste Final. Atenção: Esta prova deve ser entregue ao fim de 1 Hora. Deve justificar detalhadamente todas as suas respostas.

Matemática 2. Teste Final. Atenção: Esta prova deve ser entregue ao fim de 1 Hora. Deve justificar detalhadamente todas as suas respostas. Matemática 2 Lic. em Economia, Gestão e Finanças Data: 4 de Julho de 2017 Duração: 1H Teste Final Atenção: Esta prova deve ser entregue ao fim de 1 Hora. Deve justificar detalhadamente todas as suas respostas.

Leia mais

Programação Linear - Parte 5

Programação Linear - Parte 5 Matemática Industrial - RC/UFG Programação Linear - Parte 5 Prof. Thiago Alves de Queiroz 1/2016 Thiago Queiroz (IMTec) Parte 5 1/2016 1 / 29 Dualidade Os parâmetros de entrada são dados de acordo com

Leia mais

Uma nova taxa de convergência para o Método do Gradiente

Uma nova taxa de convergência para o Método do Gradiente Proceeding Series of the Brazilian Society of Applied and Computational Mathematics, Vol. 2, N. 1, 2014. Trabalho apresentado no CMAC-Sul, Curitiba-PR, 2014. Uma nova taxa de convergência para o Método

Leia mais

Modelagem Computacional. Parte 8 2

Modelagem Computacional. Parte 8 2 Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 8 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 10 e 11] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,

Leia mais

Métodos Numéricos. MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005

Métodos Numéricos. MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005 Métodos Numéricos MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005 Métodos Numéricos - MEI 1 Apresentação - Docentes Aulas teóricas: A. Ismael F. Vaz - aivaz@dps.uminho.pt

Leia mais

ENG-418 OTIMIZAÇÃO DE PROCESSOS QUÍMICOS

ENG-418 OTIMIZAÇÃO DE PROCESSOS QUÍMICOS Universidade Federal da Bahia - UFBA Escola Politécnica EP Departamento de Engenharia Química - DEQ Laboratório de Controle e Otimização de Processos Industriais - LACOI Disciplina: Otimização de Processos

Leia mais

Máximos e mínimos (continuação)

Máximos e mínimos (continuação) UNIVERSIDADE FEDERAL DO PARÁ CÁLCULO II - PROJETO NEWTON AULA 3 Assunto: Máximos e mínimos Palavras-chaves: máximos e mínimos, valores máximos e valores mínimos Máximos e mínimos (continuação) Sejam f

Leia mais

Aula 18. Método Multiplicadores Lagrange (continuação)

Aula 18. Método Multiplicadores Lagrange (continuação) Aula 18 Método Multiplicadores Lagrange (continuação) Na aula anterior introduzimos o Método dos Multiplicadores de Lagrange, que serve para maximizar/minimizar uma função restrita a um domínio do tipo

Leia mais

Bioinformática Avançada e Biologia de Sistemas Optimização

Bioinformática Avançada e Biologia de Sistemas Optimização Bioinformática Avançada e Biologia de Sistemas Optimização A. Ismael F. Vaz Departamento de Produção e Sistemas Escola de Engenharia Universidade do Minho aivaz@dps.uminho.pt Mestrado em Bioinformática

Leia mais

Resolução de problemas com apenas restrições lineares de igualdade

Resolução de problemas com apenas restrições lineares de igualdade Resolução de problemas com apenas restrições lineares de igualdade Marina Andretta ICMC-USP 14 de outubro de 2014 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 14 de outubro de 2014 1 / 22

Leia mais

MAT-2454 Cálculo Diferencial e Integral II EP-USP

MAT-2454 Cálculo Diferencial e Integral II EP-USP MAT-454 Cálculo Diferencial e Integral II EP-USP Solução da Questão da Terceira Prova 8//06 Questão (Tipo A Valor: 3, 0 pontos). a. Determine todos os pontos da superfície de nível da função g(x, y, z)

Leia mais

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Métodos de regiões de confiança Marina Andretta ICMC-USP 17 de setembro de 2014 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear

Leia mais

LUCAS PALMA SILVA MÉTODO DE NEWTON E BACIAS DE

LUCAS PALMA SILVA MÉTODO DE NEWTON E BACIAS DE LUCAS PALMA SILVA MÉTODO DE NEWTON E BACIAS DE CONVERGÊNCIA Curitiba 014 LUCAS PALMA SILVA MÉTODO DE NEWTON E BACIAS DE CONVERGÊNCIA Trabalho de Conclusão do Curso de Matemática Industrial da Universidade

Leia mais

UNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição

UNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição UNIVERSIDADE FEDERAL DO ABC BC1419 Cálculo Numérico - LISTA 1 - Zeros de Funções (Profs. André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda) 1 Existência e unicidade de zeros; Métodos

Leia mais

Métodos Numéricos C. A. Ismael F. Vaz 1. Escola de Engenharia Universidade do Minho Ano lectivo 2007/2008

Métodos Numéricos C. A. Ismael F. Vaz 1. Escola de Engenharia Universidade do Minho Ano lectivo 2007/2008 Métodos Numéricos C A. Ismael F. Vaz 1 1 Departamento de Produção e Sistemas Escola de Engenharia Universidade do Minho aivaz@dps.uminho.pt Ano lectivo 2007/2008 A. Ismael F. Vaz (UMinho) MN C 2007/2008

Leia mais

Método de Newton truncado

Método de Newton truncado Método de Newton truncado Marina Andretta ICMC-USP 8 de outubro de 2018 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear

Leia mais

Otimização Escalar e Vetorial

Otimização Escalar e Vetorial Universidade Federal de Minas Gerais Departamento de Matemática Notas de Aula Otimização Escalar e Vetorial Volume 3: Otimização Vetorial Professor: Ricardo H. C. Takahashi Belo Horizonte, Janeiro de 2007

Leia mais

Professor: Carlos Eugênio da Costa Teoria Microeconômica II Monitor: Diego Santiago

Professor: Carlos Eugênio da Costa Teoria Microeconômica II Monitor: Diego Santiago Professor: Carlos Eugênio da Costa Teoria Microeconômica II - 2012 Monitor: Diego Santiago EPGE/FGV Introdução matemática 1 Introdução Esta introdução visa familiarizar o aluno com ferramentas matemáticas

Leia mais

xy 2 (b) A função é contínua na origem? Justique sua resposta! (a) Calculando o limite pela reta y = mx:

xy 2 (b) A função é contínua na origem? Justique sua resposta! (a) Calculando o limite pela reta y = mx: NOME: UNIVERSIDADE FEDERAL DO RIO DE JANEIRO Instituto de Matemática PRIMEIRA PROVA UNIFICADA CÁLCULO II Politécnica, Engenharia Química e Ciência da Computação 21/05/2013. 1 a QUESTÃO : Dada a função

Leia mais

Análise Matemática II - 1 o Semestre 2001/ o Exame - 25 de Janeiro de h

Análise Matemática II - 1 o Semestre 2001/ o Exame - 25 de Janeiro de h Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Análise Matemática II - 1 o Semestre 2001/2002 2 o Exame - 25 de Janeiro de 2001-9 h Todos os cursos excepto Eng. Civil,

Leia mais

Método de Newton modificado

Método de Newton modificado Método de Newton modificado Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 14 de setembro de 2010 1 / 36 Método de Newton Como já vimos, o método

Leia mais

II Seminário da Pós-graduação em Engenharia Elétrica

II Seminário da Pós-graduação em Engenharia Elétrica UMA INVESTIGAÇÃO DOS PARÂMETROS NOS MÉTODOS MISTOS DE OTIMIZAÇÃO NÃO LINEAR Ellen Cristina Ferreira Aluna do Programa de Pós-Graduação em Engenharia Elétrica Unesp Bauru Profa. Dra. Edméa Cássia Baptista

Leia mais

Condições geométricas de otimalidade

Condições geométricas de otimalidade Capítulo 1 Condições geométricas de otimalidade Definição 1.1. Seja X R n e x um ponto em X. Uma vetor y R n é chamado de direção viável para X em x se existe ɛ > 0 tal que α [0, ɛ], x + αy X. Quando não

Leia mais

Resolução de sistemas de equações não-lineares: Método de Newton

Resolução de sistemas de equações não-lineares: Método de Newton Resolução de sistemas de equações não-lineares: Método de Newton Marina Andretta/Franklina Toledo ICMC-USP 24 de setembro de 202 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires. Marina

Leia mais

UNIVERSIDADE FEDERAL DO PARANÁ OKSANA HERINGER DA SILVA

UNIVERSIDADE FEDERAL DO PARANÁ OKSANA HERINGER DA SILVA UNIVERSIDADE FEDERAL DO PARANÁ OKSANA HERINGER DA SILVA MÉTODOS DE PENALIDADE E O LAGRANGIANO AUMENTADO APLICADO A PROBLEMAS COM RESTRIÇÕES DE IGUALDADE CURITIBA 2017 OKSANA HERINGER DA SILVA MÉTODOS DE

Leia mais

EXAME DE QUALIFICAÇÃO em Álgebra - Mestrado

EXAME DE QUALIFICAÇÃO em Álgebra - Mestrado Programa de Pós-Graduação em Matemática Instituto de Matemática e Estatística - IME Universidade Federal de Goiás - UFG EXAME DE QUALIFICAÇÃO em Álgebra - Mestrado Aluno: 1) Seja G um grupo e a, b G tais

Leia mais

INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL. Aula 04 Prof. Vitor Hugo Ferreira

INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL. Aula 04 Prof. Vitor Hugo Ferreira Universidade Federal Fluminense Escola de Engenharia Departamento de Engenharia Elétrica INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL Aula 04 Prof. Vitor Hugo Ferreira Busca em espaço de estados Estratégias

Leia mais

Multiplicadores de Lagrange: uma aplicação em problemas de otimização global restrita

Multiplicadores de Lagrange: uma aplicação em problemas de otimização global restrita Lucas Marchand Multiplicadores de Lagrange: uma aplicação em problemas de otimização global restrita Rio Grande, Rio Grande do Sul, Brasil Novembro, 016 Lucas Marchand Multiplicadores de Lagrange: uma

Leia mais

derivadas parciais até a ordem k existem e são contínuas em todo A. derivadas parciais de todas as ordens existem e são contínuas em todo A.

derivadas parciais até a ordem k existem e são contínuas em todo A. derivadas parciais de todas as ordens existem e são contínuas em todo A. 1 Funções de várias variáveis - 3 1.1 Classes de derivabilidade e derivadas mistas Definição. Seja f : D R e A D: dizemos que f é de classe C k em A (f C k (A)) se f e todas suas derivadas parciais até

Leia mais

OPTIMIZAÇÃO NÃO LINEAR

OPTIMIZAÇÃO NÃO LINEAR OPTIMIZAÇÃO NÃO LINEAR Opção IV - LESI Método de penalidade para PSI 2004/2005 Optimização não linear - Opção IV - LESI 1 Formulação - Programação Semi-Infinita (PSI) min f(x) x R n s.t. g i (x, t) 0,

Leia mais

Cálculo Diferencial e Integral I

Cálculo Diferencial e Integral I Cálculo Diferencial e Integral I Complementos ao texto de apoio às aulas. Amélia Bastos, António Bravo Julho 24 Introdução O texto apresentado tem por objectivo ser um complemento ao texto de apoio ao

Leia mais

Equações não lineares

Equações não lineares DMPA IME UFRGS Cálculo Numérico Índice Raizes de polinômios 1 Raizes de polinômios 2 raizes de polinômios As equações não lineares constituídas por polinômios de grau n N com coeficientes complexos a n,a

Leia mais

INTRODUÇÃO À ANÁLISE CONVEXA E APLICAÇÕES INTRODUCTION TO CONVEX ANALYSIS AND APLICATIONS

INTRODUÇÃO À ANÁLISE CONVEXA E APLICAÇÕES INTRODUCTION TO CONVEX ANALYSIS AND APLICATIONS X CONGRESSO DE INICIAÇÃO CIENTÍFICA DA UNIVERSIDADE FEDERAL DE CAMPINA GRANDE PIBIC/CNPq/UFCG-2013 INTRODUÇÃO À ANÁLISE CONVEXA E APLICAÇÕES João Paulo Formiga de Meneses 1, Jefferson Abrantes dos Santos

Leia mais

Cálculo II. Resumo e Exercícios P3

Cálculo II. Resumo e Exercícios P3 Cálculo II Resumo e Exercícios P3 Resuminho Teórico e Fórmulas Parte 1 Funções de Três Variáveis w = f(x, y, z) Definida em R +, apenas um valor de w para cada (x, y, z). Domínio de Função de Três Variáveis:

Leia mais

(x n + tv n) dxn df. (x n ) dxn. = Df(x) v derivada de f em x na direção. v n. (x ): Apenas a derivada parcial em

(x n + tv n) dxn df. (x n ) dxn. = Df(x) v derivada de f em x na direção. v n. (x ): Apenas a derivada parcial em Apostila de Métodos Quantitativos - UERJ Professor: Pedro Hemsley Derivada Direcional e Gradiente A regra da cadeia pode ser utilizada para determinar a taxa de variação de uma função f(x 1,,x n ) em um

Leia mais

Cálculo Numérico BCC760 Raízes de equações algébricas e transcendentes

Cálculo Numérico BCC760 Raízes de equações algébricas e transcendentes Cálculo Numérico BCC760 Raízes de equações algébricas e transcendentes Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ Introdução Dada uma função y = f(x), o objetivo deste

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização

Leia mais

Métodos Numéricos. MEI - Logística e distribuição Programação quadrática sequencial 2004/2005. A. Ismael F. Vaz - Departamento de Produção e Sistemas

Métodos Numéricos. MEI - Logística e distribuição Programação quadrática sequencial 2004/2005. A. Ismael F. Vaz - Departamento de Produção e Sistemas Métodos Numéricos MEI - Logística e distribuição Programação quadrática sequencial 2004/2005 Métodos Numéricos - MEI 1 Motivação Considere-se o seguinte exemplo de um problema de minimização com restrições

Leia mais

Resolução de sistemas de equações lineares: Método do Gradiente

Resolução de sistemas de equações lineares: Método do Gradiente Resolução de sistemas de equações lineares: Método do Gradiente Marina Andretta ICMC-USP 24 de março de 2015 Marina Andretta (ICMC-USP) sme0301 - Métodos Numéricos para Engenharia I 24 de março de 2015

Leia mais

Método de restrições ativas para minimização em caixas

Método de restrições ativas para minimização em caixas Método de restrições ativas para minimização em caixas Marina Andretta ICMC-USP 20 de outubro de 2014 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 20 de outubro de 2014 1 / 25 Problema com

Leia mais

Matrizes positivas definidas, semidefinidas, etc.

Matrizes positivas definidas, semidefinidas, etc. Matrizes positivas definidas, semidefinidas, etc. Amit Bhaya, Programa de Engenharia Elétrica COPPE/UFRJ Universidade Federal do Rio de Janeiro amit@nacad.ufrj.br http://www.nacad.ufrj.br/ amit Funções

Leia mais

Universidade Federal do Espírito Santo - UFES

Universidade Federal do Espírito Santo - UFES Universidade Federal do Espírito Santo - UFES Centro Universitário Norte do Espírito Santo - CEUNES Departamento de Matemática Aplicada - DMA Prof. Isaac P. Santos - 2018/1 Aula: Métodos Iterativos Para

Leia mais

Cálculo Diferencial e Integral II Resolução do Exame/Teste de Recuperação 02 de Julho de 2018, 15:00h - versão 2 Duração: Exame (3h), Teste (1h30)

Cálculo Diferencial e Integral II Resolução do Exame/Teste de Recuperação 02 de Julho de 2018, 15:00h - versão 2 Duração: Exame (3h), Teste (1h30) Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Cálculo Diferencial e Integral II do Exame/Teste de Recuperação 2 de Julho de 218, 15:h - versão 2 Duração: Exame (3h),

Leia mais

c PAVF 2 Otimizac~ao 'Aurelio' Otimizac~ao.[De otimizar+-c~ao] S.f. 1. Estat. Processo pelo qual se determina o valor otimo de uma grandeza. Otimo.[Do

c PAVF 2 Otimizac~ao 'Aurelio' Otimizac~ao.[De otimizar+-c~ao] S.f. 1. Estat. Processo pelo qual se determina o valor otimo de uma grandeza. Otimo.[Do c PAVF 1 Introduc~ao Otimizac~ao Modelos de otimizac~ao Aplicac~oes Descric~ao do curso c PAVF 2 Otimizac~ao 'Aurelio' Otimizac~ao.[De otimizar+-c~ao] S.f. 1. Estat. Processo pelo qual se determina o valor

Leia mais

Programação Linear M É T O D O S : E S T A T Í S T I C A E M A T E M Á T I C A A P L I C A D A S D e 1 1 d e m a r ç o a 2 9 d e a b r i l d e

Programação Linear M É T O D O S : E S T A T Í S T I C A E M A T E M Á T I C A A P L I C A D A S D e 1 1 d e m a r ç o a 2 9 d e a b r i l d e Programação Linear A otimização é o processo de encontrar a melhor solução (ou solução ótima) para um problema. Existe um conjunto particular de problemas nos quais é decisivo a aplicação de um procedimento

Leia mais

Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b

Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação

Leia mais

f(x) f(a), x D. O ponto a é então chamado ponto de máximo absoluto ou maximizante absoluto.

f(x) f(a), x D. O ponto a é então chamado ponto de máximo absoluto ou maximizante absoluto. Capítulo 4 Problemas de Extremo 41 Extremos Seja f : D R m R uma função real de n variáveis reais, de domínio D e a D Definição 1 Diz-se que: A função f tem um máximo absoluto em a se f(x) f(a), x D O

Leia mais

Processamento de Imagens CPS755

Processamento de Imagens CPS755 Processamento de Imagens CPS755 aula 06 - sistemas não lineares Antonio Oliveira Ricardo Marroquim 1 / 38 laboratório de processamento de imagens tópicos RANSAC métodos iterativos (não-lineares) gradientes

Leia mais

Cálculo II. Resumo Teórico Completo

Cálculo II. Resumo Teórico Completo Cálculo II Resumo Teórico Completo Cálculo 2 A disciplina visa estudar funções e gráficos, de forma semelhante a Cálculo 1, mas expande o estudo para funções de mais de uma variável, bem como gráficos

Leia mais

Matriz Hessiana e Aplicações

Matriz Hessiana e Aplicações Matriz Hessiana e Aplicações Sadao Massago Dezembro de 200 Sumário Introdução 2 Matriz Jacobiana 3 Matriz hessiana 2 4 Talor de primeira e segunda ordem 2 5 Classicação dos pontos críticos 3 A Procedimeno

Leia mais

MÉTODOS COMPUTACIONAIS

MÉTODOS COMPUTACIONAIS 1 MÉTODOS COMPUTACIONAIS DE OTIMIZAÇÃO José Mario Martínez Sandra Augusta Santos Departamento de Matemática Aplicada IMECC-UNICAMP 1995 Atualizado em dezembro de 1998 i ÍNDICE 1. INTRODUÇÃO.................................................

Leia mais

Multiplicadores de Lagrange

Multiplicadores de Lagrange Multiplicadores de Lagrange Para motivar o método, suponha que queremos maximizar uma função f (x, y) sujeito a uma restrição g(x, y) = 0. Geometricamente: queremos um ponto sobre o gráfico da curva de

Leia mais

ÁLGEBRA LINEAR I - MAT0032

ÁLGEBRA LINEAR I - MAT0032 UNIVERSIDADE FEDERAL DA INTEGRAÇÃO LATINO-AMERICANA Instituto Latino-Americano de Ciências da Vida e Da Natureza Centro Interdisciplinar de Ciências da Natureza ÁLGEBRA LINEAR I - MAT32 12 a Lista de exercícios

Leia mais

Lista 7.4 Optimização com Restrições de Desigualdade

Lista 7.4 Optimização com Restrições de Desigualdade Faculdade de Economia da Universidade Nova de Lisboa Apontamentos Cálculo II Lista 7.4 Optimização com Restrições de Desigualdade 1. Problema de optimização de uma função escalar f, de n variáveis reais,

Leia mais

Otimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana

Otimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana Otimização Linear Profª : Adriana Departamento de Matemática adriana@fc.unesp.br wwwp.fc.unesp.br/~adriana Revisão Método Simplex Solução básica factível: xˆ xˆ, xˆ N em que xˆ N 0 1 xˆ b 0 Solução geral

Leia mais

pontos: f(1)=2, f(2)=3, f(3)=5, f(5)=10 e f(6)=30.

pontos: f(1)=2, f(2)=3, f(3)=5, f(5)=10 e f(6)=30. EXERCÍCIOS DE MATEMÁTICA COMPUTACIONAL: SEGUNDO BIMESTRE: EDGARD JAMHOUR Eemplo A: Interpolação polinomial Funções de interpolação: fa() = 2 - /2 + 2 /2 fb() = 5/2-17/12 + 2-3 /12 fc() = 23/2-1183/60 +133

Leia mais

INFORMAÇÕES TRADE-OFF EM PROBLEMAS DE OTIMIZAÇÃO MULTIOBJETIVO

INFORMAÇÕES TRADE-OFF EM PROBLEMAS DE OTIMIZAÇÃO MULTIOBJETIVO INFORMAÇÕES TRADE-OFF EM PROBLEMAS DE OTIMIZAÇÃO MULTIOBJETIVO Jesus Ossian da Cunha Silva, Programa de Engenharia de Sistemas e Computação-PESC, COPPE, UFRJ 21941-972, Rio de Janeiro, RJ E-mail: jossian@cos.ufrj.br.

Leia mais

Otimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana

Otimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana Otimização Linear Profª : Adriana Departamento de Matemática adriana@fc.unesp.br wwwp.fc.unesp.br/~adriana Perguntas?? Dada uma solução básica factível (vértice de S e, portanto, candidata à solução ótima),

Leia mais

Prof. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística. Curso: Engenharia de Produção

Prof. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística. Curso: Engenharia de Produção Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação

Leia mais

MESTRADO EM MACROECONOMIA e FINANÇAS Disciplina de Computação. Aula 06. Prof. Dr. Marco Antonio Leonel Caetano

MESTRADO EM MACROECONOMIA e FINANÇAS Disciplina de Computação. Aula 06. Prof. Dr. Marco Antonio Leonel Caetano MESTRADO EM MACROECONOMIA e FINANÇAS Disciplina de Computação Aula 06 Prof. Dr. Marco Antonio Leonel Caetano 1 Guia de Estudo para Aula 06 Aplicação de AutoValores - Usando autovalor para encontrar pontos

Leia mais

ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES NUMÉRICOS

ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES NUMÉRICOS ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES NUMÉRICOS ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES

Leia mais

Lista de Exercícios de Métodos Numéricos

Lista de Exercícios de Métodos Numéricos Lista de Exercícios de Métodos Numéricos 1 de outubro de 010 Para todos os algoritmos abaixo assumir n = 0, 1,, 3... Bisseção: Algoritmo:x n = a+b Se f(a) f(x n ) < 0 então b = x n senão a = x n Parada:

Leia mais

PLANO DE ENSINO DA DISCIPLINA

PLANO DE ENSINO DA DISCIPLINA PLANO DE ENSINO DA DISCIPLINA Docente: FABIO LUIS BACCARIN Telefones: (43) 3422-0725 / 9116-4048 E-mail: fbaccarin@fecea.br Nome da Disciplina: Cálculo Diferencial e Integral II Curso: Licenciatura em

Leia mais

UM CURSO DE OTIMIZAÇÃO. Ademir Alves Ribeiro Elizabeth Wegner Karas

UM CURSO DE OTIMIZAÇÃO. Ademir Alves Ribeiro Elizabeth Wegner Karas UM CURSO DE OTIMIZAÇÃO Ademir Alves Ribeiro Elizabeth Wegner Karas Curitiba 2011 Sumário Prefácio 1 Introdução 2 1 Revisão de Conceitos 4 1.1 Sequências.................................... 4 1.1.1 Definições

Leia mais

exercícios de análise numérica II

exercícios de análise numérica II exercícios de análise numérica II lic. matemática aplicada e computação (4/5) aulas práticas - capítulo Exercício. Mostre que a soma dos polinómios base de Lagrange é a função constante. Exercício. Usando

Leia mais

LISTA 3 DE INTRODUÇÃO À TOPOLOGIA 2011

LISTA 3 DE INTRODUÇÃO À TOPOLOGIA 2011 LISTA 3 DE INTRODUÇÃO À TOPOLOGIA 2011 RICARDO SA EARP Limites e continuidade em espaços topológicos (1) (a) Assuma que Y = A B, onde A e B são subconjuntos abertos disjuntos não vazios. Deduza que A B

Leia mais