BCC465 - TÉCNICAS DE MULTI-OBJETIVO. Gladston Juliano Prates Moreira 22 de novembro de 2017
|
|
- Edson Domingues
- 4 Há anos
- Visualizações:
Transcrição
1 BCC465 - TÉCNICAS DE OTIMIZAÇÃO MULTI-OBJETIVO Aula 04 - Otimização Não-linear Gladston Juliano Prates Moreira gladston@iceb.ufop.br CSILab, Departamento de Computação Universidade Federal de Ouro Preto 22 de novembro de / 64
2 Apresentação Otimização Não-Linear Definições gerais Condições de Otimalidade Método de Penalidade Métodos Determinísticos Métodos de direção de busca 2 / 64
3 Apresentação Otimização Não-Linear Definições gerais Condições de Otimalidade Método de Penalidade Métodos Determinísticos Métodos de direção de busca 2 / 64
4 Otimização Não-Linear 3 / 64
5 Problema de Otimização Um problema de otimização, pode descrito por um modelo geral como segue: min f (x) R sujeito a: g i (x) 0 i = 1,..., m h j (x) = 0 j = m + 1,..., l x X 4 / 64
6 Problema de Otimização A escolha da técnica de otimização depende da natureza das funções f (x), g(x), h(x). Não há uma técnica de otimização que seja universal. Como fazer a escolha certa? 5 / 64
7 Fundamentos Conjuntos Convexos Um conjunto X R n é dito convexo se, x 1, x 2 X e 0 λ 1, tem-se que λx 1 + (1 λ)x 2 X 1. C = { (x 1 ; x 2 ) : x x 2 2 4} R 2 2. C = {x : Ax b} 6 / 64
8 Fundamentos Conjuntos Convexos Um conjunto X R n é dito convexo se, x 1, x 2 X e 0 λ 1, tem-se que λx 1 + (1 λ)x 2 X 1. C = { (x 1 ; x 2 ) : x x 2 2 4} R 2 2. C = {x : Ax b} 6 / 64
9 Fundamentos Conjuntos Conexos Seja o conjunto X R n. Esse conjunto é dito conexo se, dados quaisquer dois pontos x 1, x 2 X, existe uma curva contínua finita q tal que x 1 q, x 2 q, e q X. 7 / 64
10 Fundamentos Uma função é uma relação que associa a um elemento de um conjunto A a um único elemento de um conjunto B, ou seja, a A b = f (a) B Se f (.) : X R n R, dizemos que f (.) é um funcional. Uma função f (.) : X Y é dita uma função convexa sobre X R n se, x 1, x 2 X e 0 λ 1, tem-se que f (λx 1 + (1 λ)x 2 ) λf (x 1 ) + (1 λ)f (x 2 ) 8 / 64
11 Fundamentos Uma função é uma relação que associa a um elemento de um conjunto A a um único elemento de um conjunto B, ou seja, a A b = f (a) B Se f (.) : X R n R, dizemos que f (.) é um funcional. Uma função f (.) : X Y é dita uma função convexa sobre X R n se, x 1, x 2 X e 0 λ 1, tem-se que f (λx 1 + (1 λ)x 2 ) λf (x 1 ) + (1 λ)f (x 2 ) 8 / 64
12 Fundamentos Uma função é uma relação que associa a um elemento de um conjunto A a um único elemento de um conjunto B, ou seja, a A b = f (a) B Se f (.) : X R n R, dizemos que f (.) é um funcional. Uma função f (.) : X Y é dita uma função convexa sobre X R n se, x 1, x 2 X e 0 λ 1, tem-se que f (λx 1 + (1 λ)x 2 ) λf (x 1 ) + (1 λ)f (x 2 ) 8 / 64
13 Superfície de nível e região subnível Dada uma função f (.) : X R n R, o conjunto R(f, α) = {x X : f (x) α} é denominada região de subnível. Se f (.) é convexa então R(f, α) é um conjunto convexo. A superfície de nível (ou curva de nível) é definida como S(f, α) = {x X : f (x) = α} 9 / 64
14 Superfície de nível e região subnível Dada uma função f (.) : X R n R, o conjunto R(f, α) = {x X : f (x) α} é denominada região de subnível. Se f (.) é convexa então R(f, α) é um conjunto convexo. A superfície de nível (ou curva de nível) é definida como S(f, α) = {x X : f (x) = α} 9 / 64
15 Superfície de nível e região subnível Dada uma função f (.) : X R n R, o conjunto R(f, α) = {x X : f (x) α} é denominada região de subnível. Se f (.) é convexa então R(f, α) é um conjunto convexo. A superfície de nível (ou curva de nível) é definida como S(f, α) = {x X : f (x) = α} 9 / 64
16 Superfície de nível e região subnível 10 / 64
17 Modalidades de Funções Uma função f (.) : X R n R é dita unimodal, se R(f, α) é um conjunto conexo para todo α R. Uma função f (.) : X R n R é dita multimodal, se R(f, α) é um conjunto desconexo para algum α R. 11 / 64
18 Modalidades de Funções Uma função f (.) : X R n R é dita unimodal, se R(f, α) é um conjunto conexo para todo α R. Uma função f (.) : X R n R é dita multimodal, se R(f, α) é um conjunto desconexo para algum α R. 11 / 64
19 Modalidades de Funções Um exemplo de multimodalidade. 12 / 64
20 Modalidades de Funções Note que uma função unimodal pode possuir múltiplos mínimos, desde que o conjunto destes forme um conjunto conexo (segundo esta definição). A função f (x) = [ ] [ ] [ ] 1 0 x1 x 1 x os mínimos ocorrem sobre o eixo x 1 = 0. Bacias de atração Sejam f (.) : X R n R e x X um mínimo local de f (.). A bacia de atração de x, B(x ) é definida como a maior região conexa de subnível R(f, α) que contém x, sendo α o nível correspondente, tal que a função restrita a essa região: x 2 f (.) : R(f, α ) R é unimodal. 13 / 64
21 Modalidades de Funções Note que uma função unimodal pode possuir múltiplos mínimos, desde que o conjunto destes forme um conjunto conexo (segundo esta definição). A função f (x) = [ ] [ ] [ ] 1 0 x1 x 1 x os mínimos ocorrem sobre o eixo x 1 = 0. Bacias de atração Sejam f (.) : X R n R e x X um mínimo local de f (.). A bacia de atração de x, B(x ) é definida como a maior região conexa de subnível R(f, α) que contém x, sendo α o nível correspondente, tal que a função restrita a essa região: x 2 f (.) : R(f, α ) R é unimodal. 13 / 64
22 A convexidade de funções pode ser relacionada com as regiões de sub-nível, superfícies de nível e bacias de atração. 1. Todas as regiões de sub-nível de uma função convexa num domínio convexo são conjuntos convexos. 2. Uma função convexa em um domínio convexo possui uma única bacia de atração, a qual é um conjunto convexo. 14 / 64
23 Continuidade e Diferenciabilidade Uma função f (.) : X R n R é dita contínua se x 0 X : f (x 0 ) está definido; lim = f (x 0 ) x x0 Uma função contínua é aquela para a qual uma pequena variação no domínio gera uma pequena variação na imagem (no resultado da função). 15 / 64
24 Continuidade e Diferenciabilidade Uma função f (.) : X R n R é dita contínua se x 0 X : f (x 0 ) está definido; lim = f (x 0 ) x x0 Uma função contínua é aquela para a qual uma pequena variação no domínio gera uma pequena variação na imagem (no resultado da função). 15 / 64
25 Continuidade e Diferenciabilidade Uma função f (.) : X R n R é dita diferenciável em x X se existe o vetor gradiente: ( f f (x) =, f,..., f ), x 1 x 2 x n e além disso as derivadas parciais f x i, i = 1,..., n são contínuas. Uma função f (.) : X R n R é dita diferenciável de segunda ordem em x X se existe a matriz Hessiana: 2 f... 2 f x 1 2 x 1 x n H(x) = f x n x f xn 2 16 / 64
26 Direções factíveis e direções minimizantes Diz-se que d R n é uma direção factível a partir de um ponto x 0 X, se existe um α > 0, tal que (x + αd) X, α [0, α]. Sejam f (.) : X R n R diferenciável e f (x) o gradiente de f (.) em x. Seja d R n, se d. f (x) < 0 então existe ɛ > 0 tal que f (x + ɛd) < f (x). Diz-se que d é uma direção minimizante de f(x) a partir de um ponto x. 17 / 64
27 Direções factíveis e direções minimizantes Diz-se que d R n é uma direção factível a partir de um ponto x 0 X, se existe um α > 0, tal que (x + αd) X, α [0, α]. Sejam f (.) : X R n R diferenciável e f (x) o gradiente de f (.) em x. Seja d R n, se d. f (x) < 0 então existe ɛ > 0 tal que f (x + ɛd) < f (x). Diz-se que d é uma direção minimizante de f(x) a partir de um ponto x. 17 / 64
28 Direções factíveis e direções minimizantes Diz-se que d R n é uma direção factível a partir de um ponto x 0 X, se existe um α > 0, tal que (x + αd) X, α [0, α]. Sejam f (.) : X R n R diferenciável e f (x) o gradiente de f (.) em x. Seja d R n, se d. f (x) < 0 então existe ɛ > 0 tal que f (x + ɛd) < f (x). Diz-se que d é uma direção minimizante de f(x) a partir de um ponto x. 17 / 64
29 Exemplos 18 / 64
30 Exemplos 19 / 64
31 Exemplos 20 / 64
32 Exemplos 21 / 64
33 Condições de Otimalidade (Condição necessária de 1 a Ordem) Seja x X um mínimo local da função f (.) : X R n R. O vetor gradiente em x é nulo. (Condição necessária de 2 a ordem) Seja x X um mínimo local da função f (.) : X R n R. A matriz Hessiana em x é semi-definida positiva. 22 / 64
34 Condições de Otimalidade (Condição necessária de 1 a Ordem) Seja x X um mínimo local da função f (.) : X R n R. O vetor gradiente em x é nulo. (Condição necessária de 2 a ordem) Seja x X um mínimo local da função f (.) : X R n R. A matriz Hessiana em x é semi-definida positiva. 22 / 64
35 Condições de Otimalidade (Condições suficientes) Seja f (.) : X R n R duas vezes diferenciável em x X. Se f (x ) = 0 e H(x ) > 0 (definida positiva), então x é um mínimo local de f (.) (Observação:) As condições necessárias devem ser verdadeiras para todo ótimo local. Entretanto, um ponto que satisfaça estas condições não precisa ser um ótimo. 23 / 64
36 Condições de Otimalidade (Condições suficientes) Seja f (.) : X R n R duas vezes diferenciável em x X. Se f (x ) = 0 e H(x ) > 0 (definida positiva), então x é um mínimo local de f (.) (Observação:) As condições necessárias devem ser verdadeiras para todo ótimo local. Entretanto, um ponto que satisfaça estas condições não precisa ser um ótimo. 23 / 64
37 De forma geral, uma matriz H é: positiva definida todos os autovalores são positivos positiva semi-definida todos os autovalores são não-negativos negativa definida todos os autovalores são negativos negativa semi-definida todos os autovalores são não-posititos indefinida possui autovalores positivos e negativos 24 / 64
38 Otimalidade para Problemas Restritos Seja o problema restrito a seguir: min f (x) = x x 2 2 sujeito a: h(x) = (x 1 4) 2 + x = 0 Como determinar as condições de otimalidade? 25 / 64
39 Otimalidade para Problemas Restritos 26 / 64
40 Otimalidade para Problemas Restritos Graficamente: O mínimo global de f (x) sobre a curva h(x) = 0 é x = (2, 0). Os vetores f e h satisfazem: [f (x) + λ h(x)] x=x = 0 x L(x, λ ) = 0 Fazendo L(x, λ) = f (x) + λh(x). f (x ) = λ h(x ) 27 / 64
41 Otimalidade para Problemas Restritos Graficamente: O mínimo global de f (x) sobre a curva h(x) = 0 é x = (2, 0). Os vetores f e h satisfazem: [f (x) + λ h(x)] x=x = 0 x L(x, λ ) = 0 Fazendo L(x, λ) = f (x) + λh(x). f (x ) = λ h(x ) 27 / 64
42 Otimalidade para Problemas Restritos A solução do problema restrito min f (x) sujeito a: h(x) = 0 é o ponto critico da função L(x, λ) = f (x) + λh(x) Implicando em: [ x L λ L ] = 0 28 / 64
43 Otimalidade para Problemas Restritos Com relação a uma restrição de desigualdade, podemos converter g(x) 0 em g(x) + z 2 = 0, sendo z uma variável de folga: min f (x) sujeito a: {g(x) 0 ou g(x) + z 2 = 0} A função Lagrangiana é dada por: O ponto crítico: x L z L = 0 µ L L(x, z, µ) = f (x) + µ[g(x) + z 2 ] f (x ) + µ g(x ) = 0 µ g(x ) = 0 g(x ) 0 29 / 64
44 Otimalidade Karush-Kuhn-Tucker Dado o problema de otimização: sujeito a: min f (x) R g i (x) 0 i = 1,..., m h j (x) = 0 j = m + 1,..., l x X x é ótimo se existem multiplicadores de Lagrange µ 0 e λ tais que: f (x ) + m i=1 µ i g i(x ) + l j=1 λ j h j(x ) = 0 µ i g i(x ) = 0 g i (x ) 0 h j (x ) = 0 30 / 64
45 Problema Exemplo Considere o problema: min f (x) = (x 1 3) 2 + 2(x 2 3) 2 sujeito a: h(x) : x 1 + x 2 5 = 0 g(x) : 3x 1 + 2x x 1 6; 0 x / 64
46 Problema Exemplo 32 / 64
47 Método de Penalidade Infelizmente, o Método de Lagrange não é muito prático, pelas seguintes razões: A construção do sistema de equações pressupõe acesso às expressões anaĺıticas de f (x), g i (x), h j (x); A resolução do problema de otimização não linear original requer a solução de um sistema de equações não lineares; 33 / 64
48 Método de Penalidade Infelizmente, o Método de Lagrange não é muito prático, pelas seguintes razões: A construção do sistema de equações pressupõe acesso às expressões anaĺıticas de f (x), g i (x), h j (x); A resolução do problema de otimização não linear original requer a solução de um sistema de equações não lineares; 33 / 64
49 Método de Penalidade A abordagem dos Métodos de Penalidades consiste na transformação do problema restrito original num problema irrestrito equivalente (dois problemas são ditos equivalentes se possuem a mesma solução); Métodos indiretos para otimização restrita. 34 / 64
50 Método de Penalidade A abordagem dos Métodos de Penalidades consiste na transformação do problema restrito original num problema irrestrito equivalente (dois problemas são ditos equivalentes se possuem a mesma solução); Métodos indiretos para otimização restrita. 34 / 64
51 Métodos de Penalidade Nos métodos de Penalidade, penalidades são adicionadas à função-objetivo: Métodos de penalidade interior ou métodos Barreira: pontos gerados devem ser sempre viáveis e qualquer tentativa de sair da região factível é penalizada. Métodos de penalidade exterior ou métodos de Penalidade: qualquer violação de alguma restrição é penalizada no valor da função-objetivo. 35 / 64
52 Métodos de Penalidade Nos métodos de Penalidade, penalidades são adicionadas à função-objetivo: Métodos de penalidade interior ou métodos Barreira: pontos gerados devem ser sempre viáveis e qualquer tentativa de sair da região factível é penalizada. Métodos de penalidade exterior ou métodos de Penalidade: qualquer violação de alguma restrição é penalizada no valor da função-objetivo. 35 / 64
53 Métodos de Penalidade Em geral, em problemas restritos a solução reside na fronteira da região factível: Nos métodos de penalidade interior, a solução ótima é aproximada internamente por uma sequência de soluções do problema irrestrito transformado; Nos métodos de penalidade exterior, a solução ótima é aproximada externamente por uma sequência de soluções do problema irrestrito transformado; 36 / 64
54 Métodos de Penalidade Em geral, em problemas restritos a solução reside na fronteira da região factível: Nos métodos de penalidade interior, a solução ótima é aproximada internamente por uma sequência de soluções do problema irrestrito transformado; Nos métodos de penalidade exterior, a solução ótima é aproximada externamente por uma sequência de soluções do problema irrestrito transformado; 36 / 64
55 Método de Penalidade Exterior Função de Penalidade Uma função de penalidade deve atender as seguintes condições: { p(x) > 0, se x / X p(x) = 0, se x X 37 / 64
56 Método de Penalidade Exterior Função de Penalidade 1. No caso de um problema com uma restrição de igualdade: min f (x) s.a h(x) = 0 = min f (x) + u[h(x)] 2 2. No caso de um problema com uma restrição de desigualdade: min f (x) s.a g(x) 0 = min f (x) + u max[0, g(x)] 2 38 / 64
57 Método de Penalidade Exterior Função de Penalidade 1. No caso de um problema com uma restrição de igualdade: min f (x) s.a h(x) = 0 = min f (x) + u[h(x)] 2 2. No caso de um problema com uma restrição de desigualdade: min f (x) s.a g(x) 0 = min f (x) + u max[0, g(x)] 2 38 / 64
58 Método de Penalidade Exterior Função de Penalidade De forma geral temos:: p p(x, u) = u [h i (x)] 2 + i=1 q max[0, g j (x)] 2 j=1 39 / 64
59 Método de Penalidade Exterior 40 / 64
60 Método de Penalidade Exterior 41 / 64
61 Método de Penalidade Interior No método de barreira, deve-se construir uma função que penaliza tentativas de sair da região factível. Função de Barreira Uma função de barreira deve atender as seguintes condições: { b(x), se x X b(x) 0, se x X 42 / 64
62 Método de Penalidade Interior Função de Barreira 1. Uma possível função barreira é: min f (x) s.a g(x) 0 = min f (x) + ( u) log[ g(x)] 2. Outra opção: min f (x) s.a g(x) 0 = min f (x) + ( u) 1 [g(x)] 43 / 64
63 Método de Penalidade Interior Função de Barreira 1. Uma possível função barreira é: min f (x) s.a g(x) 0 = min f (x) + ( u) log[ g(x)] 2. Outra opção: min f (x) s.a g(x) 0 = min f (x) + ( u) 1 [g(x)] 43 / 64
64 Método de Penalidade Interior b(x) é uma função barreira não negativa e contínua em F e tende a infinito à medida que aproximamos da fronteira. Formulando o problema como a minimização de f (x) + b(x, u), com u 0 +, gera-se uma sequência de soluções no interior de X que converge para x. 44 / 64
65 Método de Penalidade Interior b(x) é uma função barreira não negativa e contínua em F e tende a infinito à medida que aproximamos da fronteira. Formulando o problema como a minimização de f (x) + b(x, u), com u 0 +, gera-se uma sequência de soluções no interior de X que converge para x. 44 / 64
66 Método de Penalidade Interior Função de Barreira De forma geral temos:: q 1 b(x, u) = u g j (x) j=1 Observe que não é possível definir uma função barreira para restrições de igualdade. 45 / 64
67 Método de Penalidade Interior 46 / 64
68 Método de Penalidade Interior 47 / 64
69 Método de Penalidade Considerações A teoria prevê que a solução converge para a solução ótima quando u k (ou u k 0),porém: A Hessiana da função-objetivo penalizada depende de u k e pode apresentar ma-condicionamento numérico; A variação de u k deve ser gradual; A precisão final fica bastante limitada. Usar termos de penalidade distintos para cada restrição evitando problemas de escala; Penalizar apenas a restrição mais violada. 48 / 64
70 Método de Penalidade Considerações A teoria prevê que a solução converge para a solução ótima quando u k (ou u k 0),porém: A Hessiana da função-objetivo penalizada depende de u k e pode apresentar ma-condicionamento numérico; A variação de u k deve ser gradual; A precisão final fica bastante limitada. Usar termos de penalidade distintos para cada restrição evitando problemas de escala; Penalizar apenas a restrição mais violada. 48 / 64
71 Método de Penalidade Considerações A teoria prevê que a solução converge para a solução ótima quando u k (ou u k 0),porém: A Hessiana da função-objetivo penalizada depende de u k e pode apresentar ma-condicionamento numérico; A variação de u k deve ser gradual; A precisão final fica bastante limitada. Usar termos de penalidade distintos para cada restrição evitando problemas de escala; Penalizar apenas a restrição mais violada. 48 / 64
72 Método de Penalidade Considerações A teoria prevê que a solução converge para a solução ótima quando u k (ou u k 0),porém: A Hessiana da função-objetivo penalizada depende de u k e pode apresentar ma-condicionamento numérico; A variação de u k deve ser gradual; A precisão final fica bastante limitada. Usar termos de penalidade distintos para cada restrição evitando problemas de escala; Penalizar apenas a restrição mais violada. 48 / 64
73 Método de Penalidade Considerações A teoria prevê que a solução converge para a solução ótima quando u k (ou u k 0),porém: A Hessiana da função-objetivo penalizada depende de u k e pode apresentar ma-condicionamento numérico; A variação de u k deve ser gradual; A precisão final fica bastante limitada. Usar termos de penalidade distintos para cada restrição evitando problemas de escala; Penalizar apenas a restrição mais violada. 48 / 64
74 Métodos Determinísticos 49 / 64
75 Métodos Determinísticos Geram uma sequência determinística de possíveis soluções. Métodos baseados em derivadas: Método do Gradiente; Método de Newton; Métodos Quasi-Newton; Métodos de Gradientes Conjugados; Métodos sem derivadas: Método Nelder-Mead Simplex; Método Hooke-Jeeves. 50 / 64
76 Métodos Determinísticos Geram uma sequência determinística de possíveis soluções. Métodos baseados em derivadas: Método do Gradiente; Método de Newton; Métodos Quasi-Newton; Métodos de Gradientes Conjugados; Métodos sem derivadas: Método Nelder-Mead Simplex; Método Hooke-Jeeves. 50 / 64
77 Métodos de direção de busca Estrutura geral A estrutura geral de métodos baseados em direção de busca obedece a seguinte forma: x k+1 x k + α k d k Os métodos variam na forma como o passo α k e a direção d k são escolhidos. 51 / 64
78 Métodos de direção de busca Estrutura geral A estrutura geral de métodos baseados em direção de busca obedece a seguinte forma: x k+1 x k + α k d k Os métodos variam na forma como o passo α k e a direção d k são escolhidos. 51 / 64
79 Método do Gradiente O Método do Gradiente ou Método da Descida Mais Íngreme (Steepest Descent Method) é o método mais simples entre os métodos de direção de busca. d k = f (x k ) 52 / 64
80 Método do Gradiente O algoritmo gera uma sequência monotônica {x k, f (x k )} tal que f (x k ) 0 quando k. O passo α k é um escalar não negativo que minimiza f (x k + αd k ), ou seja, representa um passo dado na direção minimizante d k. 53 / 64
81 Método do Gradiente Na prática, α k é obtido com um método de minimização unidirecional. 54 / 64
82 Método do Gradiente Na prática, α k é obtido com um método de minimização unidirecional. 54 / 64
83 Método do Gradiente Método de busca unidirecional Busca irrestrita; Busca exaustiva; Busca dicotômica; Método de Fibonacci; Método da Seção Áurea; / 64
84 Método de busca unidirecional Definição α = min θ(α) R, α [0, ] θ(α) = f (x k + αd), x k, d R n Exemplo Determinar z 1 que minimiza f (x) = 2x1 2 + x 2 2 z 0 = [1, 1] na direção d = f (x 0 ). partindo de 56 / 64
85 Método do Gradiente Avaliação numérica do gradiente Para avaliar o vetor gradiente numericamente, podemos usar a fórmula de diferenças finitas: f x i f (x + δ ie i ) f (x), i = 1,..., n x δ i Uma fórmula mais precisa é a diferença finita central: f x i f (x + δ ie i ) f (x δ i e i ), i = 1,..., n x 2δ i 57 / 64
86 Método de Newton Se f (x) é duas vezes diferenciável, usando a expansão em séries de Taylor em torno de x k, temos: f (x) = f (x k ) + f (x k ) (x x k ) (x x k) H(x k )(x x k ) + O Assumindo a aproximação de 2a ordem, derivando e igualando a zero, obtemos: f (x k ) + H(x k )(x k+1 x k ) = 0 x k+1 = x k H 1 (x k ) f (x k ) 58 / 64
87 Método de Newton Se f (.) for quadrática, o método de Newton determina a solução ótima em um passo. A matriz H 1 (x k ) pode ser interpretada como uma correção aplicada à direção f (x k ), levando em conta a curvatura da função. Para casos gerais, com funções não quadráticas, deve-se determinar o passo ótimo α k : x k+1 x k + α k d k, d k = H 1 (x k ) f (x k ) 59 / 64
88 Método de Newton 60 / 64
89 Método de Newton O método apresenta convergência quadrática; A convergência do método de Newton é atendida sob duas premissas: 1. que H(x k ) seja não singular, ou seja, possua inversa; 2. que H(x k ) seja definida positiva, para garantir que d k = H 1 (x k ) f (x k ) seja uma direção minimizante. 61 / 64
90 Método de Newton Dificuldades: Necessita do cálculo da matriz inversa; Mal-condicionamento numérico da matriz Hessiana dificulta o cálculo de sua inversa; Derivadas numéricas: maiores erros numéricos e muitas avaliações de função para a aproximação por diferenças finitas. 62 / 64
91 Métodos Determinísticos Métodos baseados em derivadas: Método do Gradiente; Método de Newton; Métodos Quasi-Newton; Métodos de Gradientes Conjugados; Métodos sem derivadas: Método Nelder-Mead Simplex; Método Hooke-Jeeves. 63 / 64
92 Referências: Takahashi, R.H.C.; Notas de Aula: Otimização Escalar e Vetorial. uploads/arquivos/archive.zip J. A. Ramírez, F. Campelo, F. G. Guimarães, Lucas S. Batista, Ricardo H. C. Takahashi, Notas de Aula de Otimização, uploads/arquivos/nota1.pdf Izmailov, A, Solodov, V.M, Otimização Vol.1 Condições de Otimalidade, Elementos de Análise Convexa e de Dualidade. Editora IMPA, Izmailov, A, Solodov, V.M, Otimização Vol. 2. Métodos Computacionais. Editora IMPA, / 64
Otimização Multiobjetivo
Otimização Multiobjetivo Otimização Restrita Prof. Frederico Gadelha Guimarães Lucas S. Batista Eduardo G. Carrano Universidade Federal de Minas Gerais Programa de Pós-Graduação em Engenharia Elétrica,
Leia maisII. Funções de uma única variável
II. Funções de uma única variável 1 II.1. Conceitos básicos A otimização de de funções de de uma única variável consiste no no tipo mais elementar de de otimização. Importância: Tipo de problema encontrado
Leia mais)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD
)XQGDPHQWRVGHSURJUDPDomRPDWHPiWLFD,QWURGXomR A grande maioria dos problemas de engenharia pode ser solucionado de diferentes formas, uma vez que um número muito grande de soluções atende aos critérios
Leia maisMétodo do Lagrangiano aumentado
Método do Lagrangiano aumentado Marina Andretta ICMC-USP 23 de novembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 23 de novembro de 2010 1 / 17 Problema com restrições gerais Vamos
Leia maisDepartamento de Matemática da Universidade de Coimbra. Licenciatura em Matemática. e B =
Departamento de Matemática da Universidade de Coimbra Optimização Numérica Licenciatura em Matemática Ano lectivo 2006/2007 Folha 1 1. Considere as matrizes A = [ 1 1 1 2 ] e B = [ 1 3 1 2 (a) Verifique
Leia maisOptimização. Carlos Balsa. Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança
Optimização Carlos Balsa balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Matemática Aplicada - Mestrados Eng. Química e Industrial Carlos Balsa Matemática Aplicada
Leia maisAlexey Izmailov Mikhail Solodov VOLUME II MÉTODOS COMPUTACIONAIS. Rio de Janeiro 2 007
page 1 Alexey Izmailov Mikhail Solodov OTIMIZAÇÃO, VOLUME II MÉTODOS COMPUTACIONAIS Rio de Janeiro 2 007 page Copyright c 2007 by Alexey Izmailov and Mikhail Solodov Direitos reservados, 2007 pela Associação
Leia maisMÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA
MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA Marlon Luiz Dal Pasquale Junior, UNESPAR/FECILCAM, jr.marlon@hotmail.com Solange Regina dos Santos (OR), UNESPAR/FECILCAM, solaregina@fecilcam.br
Leia maisOtimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana
Otimização Linear Profª : Adriana Departamento de Matemática adriana@fc.unesp.br wwwp.fc.unesp.br/~adriana Forma geral de um problema Em vários problemas que formulamos, obtivemos: Um objetivo de otimização
Leia maisJaime A. Ramírez Felipe Campelo Frederico G. Guimarães Lucas S. Batista Ricardo H.C. Takahashi
Otimização ELE037 Introdução Jaime A. Ramírez Felipe Campelo Frederico G. Guimarães Lucas S. Batista Ricardo H.C. Takahashi Universidade Federal de Minas Gerais Departamento de Engenharia Elétrica J. A.
Leia maisIntrodução à Otimização de Processos. Prof. Marcos L Corazza Departamento de Engenharia Química Universidade Federal do Paraná
Introdução à Otimização de Processos Prof. Marcos L Corazza Departamento de Engenharia Química Universidade Federal do Paraná Otimização Não-Linear Algumas definições e conceitos preliminares: 1. Derivadas
Leia maisMAT Cálculo 2 para Economia 3 a Prova - 28 de novembro de 2016
MAT 0147 - Cálculo para Economia 3 a Prova - 8 de novembro de 016 Questão 1) Determine o máximo e o mínimo de f(x, y) = x 4 + y em D = {(x, y); x + y 1}. Soluç~ao: As derivadas parciais f x (x, y) = 4x
Leia maisALGUMS MÉTODOS CLÁSSICOS DE OTIMIZAÇÃO
ALGUMS MÉTODOS CLÁSSICOS DE OTIMIZAÇÃO Pedro Henrique Rodrigues da Silva, pedro henrique-02@hotmailcom 1 Milena Almeida Leite Brandão, milena@pontalufubr 1 1 Universidade Federal de Uberlândia, Faculdade
Leia maisAnálise Convexa. 1. Conjuntos convexos 1.1. Casca convexa, ponto extremo, cone. 2. Hiperplanos: suporte, separador, teorema da separação
Análise Convexa 1. Conjuntos convexos 1.1. Casca convexa, ponto extremo, cone 2. Hiperplanos: suporte, separador, teorema da separação 3. Funções convexas 4. Teoremas de funções convexas 5. Conjunto poliedral
Leia maisMétodos de Pesquisa Operacional
Métodos de Pesquisa Operacional Programação Linear é a parte da Pesquisa Operacional que trata da modelagem e resolução de problemas formulados com funções lineares. Programação Linear } Métodos de Resolução
Leia mais1 Álgebra linear matricial
MTM510019 Métodos Computacionais de Otimização 2018.2 1 Álgebra linear matricial Revisão Um vetor x R n será representado por um vetor coluna x 1 x 2 x =., x n enquanto o transposto de x corresponde a
Leia maisPROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA. Plano de Ensino
PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE FEDERAL DE SÃO JOÃO DEL-REI PRÓ-REITORIA DE PESQUISA CENTRO FEDERAL DE EDUCAÇÃO TECNOLÓGICA DE MINAS GERAIS DIRETORIA DE PESQUISA E PÓS-GRADUAÇÃO
Leia maisAula 10 Sistemas Não-lineares e o Método de Newton.
Aula 10 Sistemas Não-lineares e o Método de Newton MS211 - Cálculo Numérico Marcos Eduardo Valle Departamento de Matemática Aplicada Instituto de Matemática, Estatística e Computação Científica Universidade
Leia maisOtimização Aplicada à Engenharia de Processos
Otimização Aplicada à Engenharia de Processos Aula 4: Programação Linear Felipe Campelo http://www.cpdee.ufmg.br/~fcampelo Programa de Pós-Graduação em Engenharia Elétrica Belo Horizonte Março de 2013
Leia maisCapítulo 5 - Optimização Não-Linear
Capítulo 5 - Optimização Não-Linear balsa@ipb.pt Departamento de Matemática Escola Superior de Tecnologia e Gestão de Bragança Mestrados em Engenharia da Construção Métodos de Aproximação em Engenharia
Leia maisTeoria de dualidade. Marina Andretta ICMC-USP. 19 de outubro de 2016
Teoria de dualidade Marina Andretta ICMC-USP 19 de outubro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização
Leia maisCones e raios extremos
Cones e raios extremos Marina Andretta ICMC-USP 7 de novembro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização
Leia mais1 Otimização com restrições I: Condições de Primeira Ordem
Otimização com restrições I: Condições de Primeira Ordem Teorema 8: Seja f e h funções C de duas variáveis Suponha x = (x, x 2 ) é uma solução do problema: max f (x, x 2 ) sa h(x, x 2 ) = c Suponha também
Leia maisMétodo dos gradientes (ou método de máxima descida)
Método dos gradientes (ou método de máxima descida) Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 14 de setembro de 2010 1 / 16 Método dos gradientes
Leia maisDEPARTAMENTO DE ENGENHARIA MECÂNICA
DEPARTAMENTO DE ENGENHARIA MECÂNICA Otimização: Algoritmos e Aplicações na Engenharia Mecânica ENG1786 & MEC2403 Ivan Menezes 2018-2 1 EMENTA 1. Introdução 1.1 Definições Básicas 1.2 Classificação dos
Leia maisMétodos para resolver problemas de otimização restrita
Métodos para resolver problemas de otimização restrita Marina Andretta ICMC-USP 22 de novembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 22 de novembro de 2010 1 / 13 Problema
Leia maisAlgebra Linear. 1. Ortonormalização. 2. Sistema de Equações Lineares. pag.1 Teoria de Sistemas Lineares Aula 6. c Reinaldo M.
Algebra Linear 1. Ortonormalização 2. Sistema de Equações Lineares pag.1 Teoria de Sistemas Lineares Aula 6 Ortonormalização Um vetor x é dito estar normalizado se sua norma Euclidiana é igual a 1, ie,
Leia maisAula 17. Máximo e Mínimo Absolutos
Aula 17 Máximo e Mínimo Absolutos O maior e o menor valor de f(x, y), num certo domínio, nem sempre existem, como ilustrado na Figura 1 (domínio = R ). Neste caso, não existe máximo absoluto. Uma das causas,
Leia maisProgramação Matemática
Programação Matemática Docentes: Ana Paula, Franklina e Maristela Instituto de Ciências Matemáticas e de Computação - ICMC Universidade de São Paulo USP (Material Elaborado por Aline Leão modificado por
Leia maisControle Ótimo - Aula 8 Equação de Hamilton-Jacobi
Controle Ótimo - Aula 8 Equação de Hamilton-Jacobi Adriano A. G. Siqueira e Marco H. Terra Departamento de Engenharia Elétrica Universidade de São Paulo - São Carlos O problema de controle ótimo Considere
Leia mais. Os menores -2,0-1,5-1,0-0,5-5 0,0 0,5 1,0 1,5 2, = x 2y.. Os menores
1. Para cada uma das seguintes funções, verifique se ele é côncava, convexa ou nenhuma das duas, justificando em cada caso. (a) f(x, ) = 1x + (b) f(x) = 1x x (c) f(x, ) = x x 1 (a) = 1 = x = e = = = 1
Leia maisProf. Flávio Vinícius Cruzeiro Martins
Prof. Flávio Vinícius Cruzeiro Martins Os mecanismos de otimização tratam da questão de determinar a melhor solução de problemas abstratos. Abordagem Escalar = mono-objetivo. O mecanismo de otimização
Leia maisAula 25 - Espaços Vetoriais
Espaço Vetorial: Aula 25 - Espaços Vetoriais Seja V um conjunto não vazio de objetos com duas operações definidas: 1. Uma adição que associa a cada par de objetos u, v em V um único objeto u + v, denominado
Leia maisMatemática 2. Teste Final. Atenção: Esta prova deve ser entregue ao fim de 1 Hora. Deve justificar detalhadamente todas as suas respostas.
Matemática 2 Lic. em Economia, Gestão e Finanças Data: 4 de Julho de 2017 Duração: 1H Teste Final Atenção: Esta prova deve ser entregue ao fim de 1 Hora. Deve justificar detalhadamente todas as suas respostas.
Leia maisProgramação Linear - Parte 5
Matemática Industrial - RC/UFG Programação Linear - Parte 5 Prof. Thiago Alves de Queiroz 1/2016 Thiago Queiroz (IMTec) Parte 5 1/2016 1 / 29 Dualidade Os parâmetros de entrada são dados de acordo com
Leia maisUma nova taxa de convergência para o Método do Gradiente
Proceeding Series of the Brazilian Society of Applied and Computational Mathematics, Vol. 2, N. 1, 2014. Trabalho apresentado no CMAC-Sul, Curitiba-PR, 2014. Uma nova taxa de convergência para o Método
Leia maisModelagem Computacional. Parte 8 2
Mestrado em Modelagem e Otimização - RC/UFG Modelagem Computacional Parte 8 2 Prof. Thiago Alves de Queiroz 2/2016 2 [Cap. 10 e 11] BURDEN, R. L.; FAIRES, J. D. Numerical Analysis (9th ed). Cengage Learning,
Leia maisMétodos Numéricos. MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005
Métodos Numéricos MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005 Métodos Numéricos - MEI 1 Apresentação - Docentes Aulas teóricas: A. Ismael F. Vaz - aivaz@dps.uminho.pt
Leia maisENG-418 OTIMIZAÇÃO DE PROCESSOS QUÍMICOS
Universidade Federal da Bahia - UFBA Escola Politécnica EP Departamento de Engenharia Química - DEQ Laboratório de Controle e Otimização de Processos Industriais - LACOI Disciplina: Otimização de Processos
Leia maisMáximos e mínimos (continuação)
UNIVERSIDADE FEDERAL DO PARÁ CÁLCULO II - PROJETO NEWTON AULA 3 Assunto: Máximos e mínimos Palavras-chaves: máximos e mínimos, valores máximos e valores mínimos Máximos e mínimos (continuação) Sejam f
Leia maisAula 18. Método Multiplicadores Lagrange (continuação)
Aula 18 Método Multiplicadores Lagrange (continuação) Na aula anterior introduzimos o Método dos Multiplicadores de Lagrange, que serve para maximizar/minimizar uma função restrita a um domínio do tipo
Leia maisBioinformática Avançada e Biologia de Sistemas Optimização
Bioinformática Avançada e Biologia de Sistemas Optimização A. Ismael F. Vaz Departamento de Produção e Sistemas Escola de Engenharia Universidade do Minho aivaz@dps.uminho.pt Mestrado em Bioinformática
Leia maisResolução de problemas com apenas restrições lineares de igualdade
Resolução de problemas com apenas restrições lineares de igualdade Marina Andretta ICMC-USP 14 de outubro de 2014 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 14 de outubro de 2014 1 / 22
Leia maisMAT-2454 Cálculo Diferencial e Integral II EP-USP
MAT-454 Cálculo Diferencial e Integral II EP-USP Solução da Questão da Terceira Prova 8//06 Questão (Tipo A Valor: 3, 0 pontos). a. Determine todos os pontos da superfície de nível da função g(x, y, z)
Leia maisMarina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.
Métodos de regiões de confiança Marina Andretta ICMC-USP 17 de setembro de 2014 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear
Leia maisLUCAS PALMA SILVA MÉTODO DE NEWTON E BACIAS DE
LUCAS PALMA SILVA MÉTODO DE NEWTON E BACIAS DE CONVERGÊNCIA Curitiba 014 LUCAS PALMA SILVA MÉTODO DE NEWTON E BACIAS DE CONVERGÊNCIA Trabalho de Conclusão do Curso de Matemática Industrial da Universidade
Leia maisUNIVERSIDADE FEDERAL DO ABC. 1 Existência e unicidade de zeros; Métodos da bissecção e falsa posição
UNIVERSIDADE FEDERAL DO ABC BC1419 Cálculo Numérico - LISTA 1 - Zeros de Funções (Profs. André Camargo, Feodor Pisnitchenko, Marijana Brtka, Rodrigo Fresneda) 1 Existência e unicidade de zeros; Métodos
Leia maisMétodos Numéricos C. A. Ismael F. Vaz 1. Escola de Engenharia Universidade do Minho Ano lectivo 2007/2008
Métodos Numéricos C A. Ismael F. Vaz 1 1 Departamento de Produção e Sistemas Escola de Engenharia Universidade do Minho aivaz@dps.uminho.pt Ano lectivo 2007/2008 A. Ismael F. Vaz (UMinho) MN C 2007/2008
Leia maisMétodo de Newton truncado
Método de Newton truncado Marina Andretta ICMC-USP 8 de outubro de 2018 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear
Leia maisOtimização Escalar e Vetorial
Universidade Federal de Minas Gerais Departamento de Matemática Notas de Aula Otimização Escalar e Vetorial Volume 3: Otimização Vetorial Professor: Ricardo H. C. Takahashi Belo Horizonte, Janeiro de 2007
Leia maisProfessor: Carlos Eugênio da Costa Teoria Microeconômica II Monitor: Diego Santiago
Professor: Carlos Eugênio da Costa Teoria Microeconômica II - 2012 Monitor: Diego Santiago EPGE/FGV Introdução matemática 1 Introdução Esta introdução visa familiarizar o aluno com ferramentas matemáticas
Leia maisxy 2 (b) A função é contínua na origem? Justique sua resposta! (a) Calculando o limite pela reta y = mx:
NOME: UNIVERSIDADE FEDERAL DO RIO DE JANEIRO Instituto de Matemática PRIMEIRA PROVA UNIFICADA CÁLCULO II Politécnica, Engenharia Química e Ciência da Computação 21/05/2013. 1 a QUESTÃO : Dada a função
Leia maisAnálise Matemática II - 1 o Semestre 2001/ o Exame - 25 de Janeiro de h
Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Análise Matemática II - 1 o Semestre 2001/2002 2 o Exame - 25 de Janeiro de 2001-9 h Todos os cursos excepto Eng. Civil,
Leia maisMétodo de Newton modificado
Método de Newton modificado Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear 14 de setembro de 2010 1 / 36 Método de Newton Como já vimos, o método
Leia maisII Seminário da Pós-graduação em Engenharia Elétrica
UMA INVESTIGAÇÃO DOS PARÂMETROS NOS MÉTODOS MISTOS DE OTIMIZAÇÃO NÃO LINEAR Ellen Cristina Ferreira Aluna do Programa de Pós-Graduação em Engenharia Elétrica Unesp Bauru Profa. Dra. Edméa Cássia Baptista
Leia maisCondições geométricas de otimalidade
Capítulo 1 Condições geométricas de otimalidade Definição 1.1. Seja X R n e x um ponto em X. Uma vetor y R n é chamado de direção viável para X em x se existe ɛ > 0 tal que α [0, ɛ], x + αy X. Quando não
Leia maisResolução de sistemas de equações não-lineares: Método de Newton
Resolução de sistemas de equações não-lineares: Método de Newton Marina Andretta/Franklina Toledo ICMC-USP 24 de setembro de 202 Baseado no livro Análise Numérica, de R. L. Burden e J. D. Faires. Marina
Leia maisUNIVERSIDADE FEDERAL DO PARANÁ OKSANA HERINGER DA SILVA
UNIVERSIDADE FEDERAL DO PARANÁ OKSANA HERINGER DA SILVA MÉTODOS DE PENALIDADE E O LAGRANGIANO AUMENTADO APLICADO A PROBLEMAS COM RESTRIÇÕES DE IGUALDADE CURITIBA 2017 OKSANA HERINGER DA SILVA MÉTODOS DE
Leia maisEXAME DE QUALIFICAÇÃO em Álgebra - Mestrado
Programa de Pós-Graduação em Matemática Instituto de Matemática e Estatística - IME Universidade Federal de Goiás - UFG EXAME DE QUALIFICAÇÃO em Álgebra - Mestrado Aluno: 1) Seja G um grupo e a, b G tais
Leia maisINTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL. Aula 04 Prof. Vitor Hugo Ferreira
Universidade Federal Fluminense Escola de Engenharia Departamento de Engenharia Elétrica INTRODUÇÃO À INTELIGÊNCIA COMPUTACIONAL Aula 04 Prof. Vitor Hugo Ferreira Busca em espaço de estados Estratégias
Leia maisMultiplicadores de Lagrange: uma aplicação em problemas de otimização global restrita
Lucas Marchand Multiplicadores de Lagrange: uma aplicação em problemas de otimização global restrita Rio Grande, Rio Grande do Sul, Brasil Novembro, 016 Lucas Marchand Multiplicadores de Lagrange: uma
Leia maisderivadas parciais até a ordem k existem e são contínuas em todo A. derivadas parciais de todas as ordens existem e são contínuas em todo A.
1 Funções de várias variáveis - 3 1.1 Classes de derivabilidade e derivadas mistas Definição. Seja f : D R e A D: dizemos que f é de classe C k em A (f C k (A)) se f e todas suas derivadas parciais até
Leia maisOPTIMIZAÇÃO NÃO LINEAR
OPTIMIZAÇÃO NÃO LINEAR Opção IV - LESI Método de penalidade para PSI 2004/2005 Optimização não linear - Opção IV - LESI 1 Formulação - Programação Semi-Infinita (PSI) min f(x) x R n s.t. g i (x, t) 0,
Leia maisCálculo Diferencial e Integral I
Cálculo Diferencial e Integral I Complementos ao texto de apoio às aulas. Amélia Bastos, António Bravo Julho 24 Introdução O texto apresentado tem por objectivo ser um complemento ao texto de apoio ao
Leia maisEquações não lineares
DMPA IME UFRGS Cálculo Numérico Índice Raizes de polinômios 1 Raizes de polinômios 2 raizes de polinômios As equações não lineares constituídas por polinômios de grau n N com coeficientes complexos a n,a
Leia maisINTRODUÇÃO À ANÁLISE CONVEXA E APLICAÇÕES INTRODUCTION TO CONVEX ANALYSIS AND APLICATIONS
X CONGRESSO DE INICIAÇÃO CIENTÍFICA DA UNIVERSIDADE FEDERAL DE CAMPINA GRANDE PIBIC/CNPq/UFCG-2013 INTRODUÇÃO À ANÁLISE CONVEXA E APLICAÇÕES João Paulo Formiga de Meneses 1, Jefferson Abrantes dos Santos
Leia maisCálculo II. Resumo e Exercícios P3
Cálculo II Resumo e Exercícios P3 Resuminho Teórico e Fórmulas Parte 1 Funções de Três Variáveis w = f(x, y, z) Definida em R +, apenas um valor de w para cada (x, y, z). Domínio de Função de Três Variáveis:
Leia mais(x n + tv n) dxn df. (x n ) dxn. = Df(x) v derivada de f em x na direção. v n. (x ): Apenas a derivada parcial em
Apostila de Métodos Quantitativos - UERJ Professor: Pedro Hemsley Derivada Direcional e Gradiente A regra da cadeia pode ser utilizada para determinar a taxa de variação de uma função f(x 1,,x n ) em um
Leia maisCálculo Numérico BCC760 Raízes de equações algébricas e transcendentes
Cálculo Numérico BCC760 Raízes de equações algébricas e transcendentes Departamento de Computação Página da disciplina http://www.decom.ufop.br/bcc760/ Introdução Dada uma função y = f(x), o objetivo deste
Leia maisRedes Neurais e Sistemas Fuzzy
Redes Neurais e Sistemas Fuzzy O ADALINE e o algoritmo LMS O ADALINE No contexto de classificação, o ADALINE [B. Widrow 1960] pode ser visto como um perceptron com algoritmo de treinamento baseado em minimização
Leia maisMétodos Numéricos. MEI - Logística e distribuição Programação quadrática sequencial 2004/2005. A. Ismael F. Vaz - Departamento de Produção e Sistemas
Métodos Numéricos MEI - Logística e distribuição Programação quadrática sequencial 2004/2005 Métodos Numéricos - MEI 1 Motivação Considere-se o seguinte exemplo de um problema de minimização com restrições
Leia maisResolução de sistemas de equações lineares: Método do Gradiente
Resolução de sistemas de equações lineares: Método do Gradiente Marina Andretta ICMC-USP 24 de março de 2015 Marina Andretta (ICMC-USP) sme0301 - Métodos Numéricos para Engenharia I 24 de março de 2015
Leia maisMétodo de restrições ativas para minimização em caixas
Método de restrições ativas para minimização em caixas Marina Andretta ICMC-USP 20 de outubro de 2014 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 20 de outubro de 2014 1 / 25 Problema com
Leia maisMatrizes positivas definidas, semidefinidas, etc.
Matrizes positivas definidas, semidefinidas, etc. Amit Bhaya, Programa de Engenharia Elétrica COPPE/UFRJ Universidade Federal do Rio de Janeiro amit@nacad.ufrj.br http://www.nacad.ufrj.br/ amit Funções
Leia maisUniversidade Federal do Espírito Santo - UFES
Universidade Federal do Espírito Santo - UFES Centro Universitário Norte do Espírito Santo - CEUNES Departamento de Matemática Aplicada - DMA Prof. Isaac P. Santos - 2018/1 Aula: Métodos Iterativos Para
Leia maisCálculo Diferencial e Integral II Resolução do Exame/Teste de Recuperação 02 de Julho de 2018, 15:00h - versão 2 Duração: Exame (3h), Teste (1h30)
Instituto Superior Técnico Departamento de Matemática Secção de Álgebra e Análise Cálculo Diferencial e Integral II do Exame/Teste de Recuperação 2 de Julho de 218, 15:h - versão 2 Duração: Exame (3h),
Leia maisc PAVF 2 Otimizac~ao 'Aurelio' Otimizac~ao.[De otimizar+-c~ao] S.f. 1. Estat. Processo pelo qual se determina o valor otimo de uma grandeza. Otimo.[Do
c PAVF 1 Introduc~ao Otimizac~ao Modelos de otimizac~ao Aplicac~oes Descric~ao do curso c PAVF 2 Otimizac~ao 'Aurelio' Otimizac~ao.[De otimizar+-c~ao] S.f. 1. Estat. Processo pelo qual se determina o valor
Leia maisProgramação Linear M É T O D O S : E S T A T Í S T I C A E M A T E M Á T I C A A P L I C A D A S D e 1 1 d e m a r ç o a 2 9 d e a b r i l d e
Programação Linear A otimização é o processo de encontrar a melhor solução (ou solução ótima) para um problema. Existe um conjunto particular de problemas nos quais é decisivo a aplicação de um procedimento
Leia maisConsidere a função f(x). Para algum x a f (x) pode não existir. Suponha que. Max f(x) s. a a x b
Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação
Leia maisf(x) f(a), x D. O ponto a é então chamado ponto de máximo absoluto ou maximizante absoluto.
Capítulo 4 Problemas de Extremo 41 Extremos Seja f : D R m R uma função real de n variáveis reais, de domínio D e a D Definição 1 Diz-se que: A função f tem um máximo absoluto em a se f(x) f(a), x D O
Leia maisProcessamento de Imagens CPS755
Processamento de Imagens CPS755 aula 06 - sistemas não lineares Antonio Oliveira Ricardo Marroquim 1 / 38 laboratório de processamento de imagens tópicos RANSAC métodos iterativos (não-lineares) gradientes
Leia maisCálculo II. Resumo Teórico Completo
Cálculo II Resumo Teórico Completo Cálculo 2 A disciplina visa estudar funções e gráficos, de forma semelhante a Cálculo 1, mas expande o estudo para funções de mais de uma variável, bem como gráficos
Leia maisMatriz Hessiana e Aplicações
Matriz Hessiana e Aplicações Sadao Massago Dezembro de 200 Sumário Introdução 2 Matriz Jacobiana 3 Matriz hessiana 2 4 Talor de primeira e segunda ordem 2 5 Classicação dos pontos críticos 3 A Procedimeno
Leia maisMÉTODOS COMPUTACIONAIS
1 MÉTODOS COMPUTACIONAIS DE OTIMIZAÇÃO José Mario Martínez Sandra Augusta Santos Departamento de Matemática Aplicada IMECC-UNICAMP 1995 Atualizado em dezembro de 1998 i ÍNDICE 1. INTRODUÇÃO.................................................
Leia maisMultiplicadores de Lagrange
Multiplicadores de Lagrange Para motivar o método, suponha que queremos maximizar uma função f (x, y) sujeito a uma restrição g(x, y) = 0. Geometricamente: queremos um ponto sobre o gráfico da curva de
Leia maisÁLGEBRA LINEAR I - MAT0032
UNIVERSIDADE FEDERAL DA INTEGRAÇÃO LATINO-AMERICANA Instituto Latino-Americano de Ciências da Vida e Da Natureza Centro Interdisciplinar de Ciências da Natureza ÁLGEBRA LINEAR I - MAT32 12 a Lista de exercícios
Leia maisLista 7.4 Optimização com Restrições de Desigualdade
Faculdade de Economia da Universidade Nova de Lisboa Apontamentos Cálculo II Lista 7.4 Optimização com Restrições de Desigualdade 1. Problema de optimização de uma função escalar f, de n variáveis reais,
Leia maisOtimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana
Otimização Linear Profª : Adriana Departamento de Matemática adriana@fc.unesp.br wwwp.fc.unesp.br/~adriana Revisão Método Simplex Solução básica factível: xˆ xˆ, xˆ N em que xˆ N 0 1 xˆ b 0 Solução geral
Leia maispontos: f(1)=2, f(2)=3, f(3)=5, f(5)=10 e f(6)=30.
EXERCÍCIOS DE MATEMÁTICA COMPUTACIONAL: SEGUNDO BIMESTRE: EDGARD JAMHOUR Eemplo A: Interpolação polinomial Funções de interpolação: fa() = 2 - /2 + 2 /2 fb() = 5/2-17/12 + 2-3 /12 fc() = 23/2-1183/60 +133
Leia maisINFORMAÇÕES TRADE-OFF EM PROBLEMAS DE OTIMIZAÇÃO MULTIOBJETIVO
INFORMAÇÕES TRADE-OFF EM PROBLEMAS DE OTIMIZAÇÃO MULTIOBJETIVO Jesus Ossian da Cunha Silva, Programa de Engenharia de Sistemas e Computação-PESC, COPPE, UFRJ 21941-972, Rio de Janeiro, RJ E-mail: jossian@cos.ufrj.br.
Leia maisOtimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana
Otimização Linear Profª : Adriana Departamento de Matemática adriana@fc.unesp.br wwwp.fc.unesp.br/~adriana Perguntas?? Dada uma solução básica factível (vértice de S e, portanto, candidata à solução ótima),
Leia maisProf. Lorí Viali, Dr. PUCRS FAMAT: Departamento de Estatística. Curso: Engenharia de Produção
Considere a função f(x). Para algum x a f (x) pode não existir. Suponha que se queira resolver o seguinte PPNL: Max f(x) s. a a x b Pode ser que f (x) não exista ou que seja difícil resolver a equação
Leia maisMESTRADO EM MACROECONOMIA e FINANÇAS Disciplina de Computação. Aula 06. Prof. Dr. Marco Antonio Leonel Caetano
MESTRADO EM MACROECONOMIA e FINANÇAS Disciplina de Computação Aula 06 Prof. Dr. Marco Antonio Leonel Caetano 1 Guia de Estudo para Aula 06 Aplicação de AutoValores - Usando autovalor para encontrar pontos
Leia maisELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES NUMÉRICOS
ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES NUMÉRICOS ELVIS RODRIGUEZ TORREALBA UMA CLASSE DE MÉTODOS DE LAGRANGIANO AUMENTADO: CONVERGÊNCIA E TESTES
Leia maisLista de Exercícios de Métodos Numéricos
Lista de Exercícios de Métodos Numéricos 1 de outubro de 010 Para todos os algoritmos abaixo assumir n = 0, 1,, 3... Bisseção: Algoritmo:x n = a+b Se f(a) f(x n ) < 0 então b = x n senão a = x n Parada:
Leia maisPLANO DE ENSINO DA DISCIPLINA
PLANO DE ENSINO DA DISCIPLINA Docente: FABIO LUIS BACCARIN Telefones: (43) 3422-0725 / 9116-4048 E-mail: fbaccarin@fecea.br Nome da Disciplina: Cálculo Diferencial e Integral II Curso: Licenciatura em
Leia maisUM CURSO DE OTIMIZAÇÃO. Ademir Alves Ribeiro Elizabeth Wegner Karas
UM CURSO DE OTIMIZAÇÃO Ademir Alves Ribeiro Elizabeth Wegner Karas Curitiba 2011 Sumário Prefácio 1 Introdução 2 1 Revisão de Conceitos 4 1.1 Sequências.................................... 4 1.1.1 Definições
Leia maisexercícios de análise numérica II
exercícios de análise numérica II lic. matemática aplicada e computação (4/5) aulas práticas - capítulo Exercício. Mostre que a soma dos polinómios base de Lagrange é a função constante. Exercício. Usando
Leia maisLISTA 3 DE INTRODUÇÃO À TOPOLOGIA 2011
LISTA 3 DE INTRODUÇÃO À TOPOLOGIA 2011 RICARDO SA EARP Limites e continuidade em espaços topológicos (1) (a) Assuma que Y = A B, onde A e B são subconjuntos abertos disjuntos não vazios. Deduza que A B
Leia mais