Uma Ferramenta para otimização em Engenharia Mecânica e aplicações na Fundição Eletromagnética de Metais



Documentos relacionados
Faculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu

Dificuldades de Modelos de PNL. Onde está a solução ótima? Outro exemplo: Condição ótima Local vs. Global Quinta-feira, 25 de abril

Estudaremos métodos numéricos para resolução de sistemas lineares com n equações e n incógnitas. Estes podem ser:

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 6. O trabalho feito pela força para deslocar o corpo de a para b é dado por: = =

APLICAÇÕES DA DERIVADA

Faculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu

1 Descrição do Trabalho

Um capacitor não armazena apenas carga, mas também energia.

Notas de aula número 1: Otimização *

CI202 - Métodos Numéricos

Exp e Log. Roberto Imbuzeiro Oliveira. 21 de Fevereiro de O que vamos ver 1. 2 Fatos preliminares sobre espaços métricos 2

RESUMO 2 - FÍSICA III

Microfone e altifalante. Conversão de um sinal sonoro num sinal elétrico. sinal elétrico num sinal sonoro.

a 1 x a n x n = b,

Alfredo Canelas Botta

Modelagem no Domínio do Tempo. Carlos Alexandre Mello. Carlos Alexandre Mello 1

O Problema do Troco Principio da Casa dos Pombos. > Princípios de Contagem e Enumeração Computacional 0/48

2 Estudo dos Acoplamentos

MAT Cálculo Diferencial e Integral para Engenharia II

Um capacitor é um sistema elétrico formado por dois condutores separados por um material isolante, ou pelo vácuo.

IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 8

Plano Curricular de Matemática 9º ano /2015-3º Ciclo

objetivo Exercícios Meta da aula Pré-requisitos Aplicar o formalismo quântico estudado neste módulo à resolução de um conjunto de exercícios.

Aula 7 Valores Máximo e Mínimo (e Pontos de Sela)

CÁLCULO DE ZEROS DE FUNÇÕES REAIS

As fases na resolução de um problema real podem, de modo geral, ser colocadas na seguinte ordem:

Aplicações de Derivadas

1. Extremos de uma função

[a11 a12 a1n 4. SISTEMAS LINEARES 4.1. CONCEITO. Um sistema de equações lineares é um conjunto de equações do tipo

Ondas Eletromagnéticas. E=0, 1 B=0, 2 E= B t, 3 E

IBM1018 Física Básica II FFCLRP USP Prof. Antônio Roque Aula 3

Logo, para estar entre os 1% mais caros, o preço do carro deve ser IGUAL OU SUPERIOR A:

Variantes sobre o método Simplex: Método do grande M

computador-cálculo numérico perfeita. As fases na resolução de um problema real podem, de modo geral, ser colocadas na seguinte ordem:

Introdução ao Método dos Elementos Finitos Conceitos Iniciais Divisão do Domínio e Funções de Base Aplicação do Método dos Resíduos Ponderados ao

Análise Dimensional Notas de Aula

O ESPAÇO NULO DE A: RESOLVENDO AX = 0 3.2

Ivan Guilhon Mitoso Rocha. As grandezas fundamentais que serão adotadas por nós daqui em frente:

Uma lei que associa mais de um valor y a um valor x é uma relação, mas não uma função. O contrário é verdadeiro (isto é, toda função é uma relação).

Capítulo 4 - Equações Diferenciais às Derivadas Parciais

Definição. A expressão M(x,y) dx + N(x,y)dy é chamada de diferencial exata se existe uma função f(x,y) tal que f x (x,y)=m(x,y) e f y (x,y)=n(x,y).

Capítulo 1. x > y ou x < y ou x = y

Pesquisa Operacional Programação em Redes

ESTUDOS SOBRE A IMPLEMENTAÇÃO ONLINE DE UMA TÉCNICA DE ESTIMAÇÃO DE ENERGIA NO CALORÍMETRO HADRÔNICO DO ATLAS

A Otimização Nuvem de Partículas (particle swarm)

1. Método Simplex. Faculdade de Engenharia Eng. Celso Daniel Engenharia de Produção. Pesquisa Operacional II Profa. Dra. Lílian Kátia de Oliveira

Circuitos Elétricos Circuitos Magneticamente Acoplados

PLANO DE ESTUDOS DE MATEMÁTICA 8.º ANO

Concepção e Elaboração

UNIVERSIDADE DO ESTADO DE SANTA CATARINA CENTRO DE CIÊNCIAS TECNOLÓGICAS CCT CURSO DE TECNOLOGIA EM SISTEMAS DE INFORMAÇÃO

Método de Elementos Finitos Introdução

Antena Escrito por André

PROBLEMA DE TRANSPORTE: MODELO E MÉTODO DE SOLUÇÃO

UM ALGORITMO DE NEWTON DE PONTO INTERIOR E APLICAÇÕES NA FUNDIÇÃO ELETROMAGNÉTICA DE METAIS. Alfredo Canelas Botta

Métodos de Monte Carlo

Pesquisa Operacional. Função Linear - Introdução. Função do 1 Grau. Função Linear - Exemplos Representação no Plano Cartesiano. Prof.

Método Simplex - Variantes V 1.1, V.Lobo, EN / ISEGI, 2008

Cálculo Numérico Faculdade de Engenharia, Arquiteturas e Urbanismo FEAU

Métodos Numéricos. A. Ismael F. Vaz. Departamento de Produção e Sistemas Escola de Engenharia Universidade do Minho aivaz@dps.uminho.

MAT1154 ANÁLISE QUALITATIVA DE PONTOS DE EQUILÍBRIO DE SISTEMAS NÃO-LINEARES

EXERCÍCIOS RESOLVIDOS

Representação de Modelos Dinâmicos em Espaço de Estados Graus de Liberdade para Controle

Agrupamento de dados

Problemas Multi-modais e Distribuições Espaciais em Algoritmos Genéticos.

Projeto: Formas Diferenciais Aplicadas a Problemas Eletrostáticos e Magnetostáticos

Capítulo 2 - Problemas de Valores Fronteira para Equações Diferenciais Ordinárias

3 O método Jacobi quaterniônico para matrizes anti-simétricas

Métodos de Física Teórica II Prof. Henrique Boschi IF - UFRJ. 1º. semestre de 2010 Aula 2 Ref. Butkov, cap. 8, seção 8.2

Aula 03 - Modelagem em PPLIM

Otimização Aplicada à Engenharia de Processos

Sobriedade e objetividade nessa caminhada final e que a chegada seja recheado de SUCESSO! Vasco Vasconcelos

Investigação Operacional- 2009/10 - Programas Lineares 3 PROGRAMAS LINEARES

OTIMIZAÇÃO VETORIAL. Formulação do Problema

DÉCIMA SEGUNDA LISTA DE EXERCÍCIOS Cálculo III MATEMÁTICA DCET UESC Humberto José Bortolossi

6. Geometria, Primitivas e Transformações 3D

CIRCUITOS ELÉTRICOS II

Circuitos Elétricos III

PP 301 Engenharia de Reservatórios I 11/05/2011

CAP. I ERROS EM CÁLCULO NUMÉRICO

. Determine os valores de P(1) e P(22).

Modelos de Iluminação

1.5 O oscilador harmónico unidimensional

1] Dada a associação de resistores abaixo, calcule a resistência total.

² Servomecanismo: Sistema de controle realimentado para controle automático de posição, velocidade ou aceleração. Muito empregado na indústria.

Computadores de Programação (MAB353)

Universidade Federal do Rio de Janeiro. Princípios de Instrumentação Biomédica. Módulo 4

Física II Ondas, Fluidos e Termodinâmica USP Prof. Antônio Roque Aula 1

Discussão sobre as leis de Newton no contexto da análise de estruturas

Redes de Computadores

UNIVERSIDADE FEDERAL DE SANTA MARIA CENTRO DE TECNOLOGIA AULA 14 PROFª BRUNO CALEGARO

Quinta-feira, 14 de março. Introdução aos Fluxos de Rede Handouts: Notas de Aula

Introdução ao estudo de equações diferenciais

Departamento de Matemática - UEL Ulysses Sodré. Arquivo: minimaxi.tex - Londrina-PR, 29 de Junho de 2010.

x0 = 1 x n = 3x n 1 x k x k 1 Quantas são as sequências com n letras, cada uma igual a a, b ou c, de modo que não há duas letras a seguidas?

Ex 4.3 O anel é construído pelos polinômios S 1 1 S 2. x S 3. x 1 S 4. x 2 S 5. x 2 1 S 6. x 2 x S 7. x 2 x 1 S 8. x 3 S 9

Análise de Circuitos Elétricos III

Tipos de variáveis aleatórias

Caracterização temporal de circuitos: análise de transientes e regime permanente. Condições iniciais e finais e resolução de exercícios.

MESTRADO EM MACROECONOMIA e FINANÇAS Disciplina de Computação. Aula 04. Prof. Dr. Marco Antonio Leonel Caetano

Transcrição:

Uma Ferramenta para otimização em Engenharia Mecânica e aplicações na Fundição Eletromagnética de Metais Departamento de Engenharia Mecânica COPPE UFRJ STIC-AMSUD, Novembro de 2009

Conteúdo Preliminares Objetivo e Motivação Algoritmo FDIPA-H Problema de Otimização Não Linear Algoritmo FDIPA Algoritmo FDIPA-H Fundição Eletromagnética Problema direto Problema Inverso Exemplos Conclusões

Objetivo e Motivação Conteúdo Preliminares Objetivo e Motivação Algoritmo FDIPA-H Problema de Otimização Não Linear Algoritmo FDIPA Algoritmo FDIPA-H Fundição Eletromagnética Problema direto Problema Inverso Exemplos Conclusões

Objetivo e Motivação Objetivo 1) Definir e implementar um método numérico para problemas de otimização da Engenharia Mecânica com as seguintes características: O Método dos Elementos de Contorno (MEC) é utilizado para calcular a solução da equação de estado do problema. A formulação SAND é utilizada para definir o problema de otimização. Um algoritmo de ponto interior é utilizado para a solução do problema de otimização discreto. 2) Estudar numericamente o problema inverso de Fundição Eletromagnética (EMC).

Objetivo e Motivação Objetivo 1) Definir e implementar um método numérico para problemas de otimização da Engenharia Mecânica com as seguintes características: O Método dos Elementos de Contorno (MEC) é utilizado para calcular a solução da equação de estado do problema. A formulação SAND é utilizada para definir o problema de otimização. Um algoritmo de ponto interior é utilizado para a solução do problema de otimização discreto. 2) Estudar numericamente o problema inverso de Fundição Eletromagnética (EMC).

Objetivo e Motivação Motivação Esta ferramenta computacional está motivada no seguinte: 1) Análise numérica de problemas não lineares: Problemas de superfície livre: Problema direto de Fundição Eletromagnética. Problema de infiltração em meio poroso. Problemas com condições de contorno não lineares: Problema de contato. 2) Otimização de forma As funções e as suas derivadas podem ser expressadas como uma integral no contorno. 3) Outros problemas de otimização de análise não linear: Problema inverso de Fundição Eletromagnética.

Objetivo e Motivação Motivação Esta ferramenta computacional está motivada no seguinte: 1) Análise numérica de problemas não lineares: Problemas de superfície livre: Problema direto de Fundição Eletromagnética. Problema de infiltração em meio poroso. Problemas com condições de contorno não lineares: Problema de contato. 2) Otimização de forma As funções e as suas derivadas podem ser expressadas como uma integral no contorno. 3) Outros problemas de otimização de análise não linear: Problema inverso de Fundição Eletromagnética.

Objetivo e Motivação Motivação Esta ferramenta computacional está motivada no seguinte: 1) Análise numérica de problemas não lineares: Problemas de superfície livre: Problema direto de Fundição Eletromagnética. Problema de infiltração em meio poroso. Problemas com condições de contorno não lineares: Problema de contato. 2) Otimização de forma As funções e as suas derivadas podem ser expressadas como uma integral no contorno. 3) Outros problemas de otimização de análise não linear: Problema inverso de Fundição Eletromagnética.

Objetivo e Motivação Método dos Elementos de Contorno Por que usar o Método dos Elementos de Contorno? O MEC utiliza a representação integral: c(ξ)u(ξ) = u (ξ, x)p(x) dγ Γ Γ p (ξ, x)u(x) dγ. (1) Não precisa da discretização do interior do domínio. Define um número menor de variáveis. Muito indicado para: Problemas de domínio infinito. Otimização de forma.

Objetivo e Motivação Método dos Elementos de Contorno Por que usar o Método dos Elementos de Contorno? O MEC utiliza a representação integral: c(ξ)u(ξ) = u (ξ, x)p(x) dγ Γ Γ p (ξ, x)u(x) dγ. (1) Não precisa da discretização do interior do domínio. Define um número menor de variáveis. Muito indicado para: Problemas de domínio infinito. Otimização de forma.

Objetivo e Motivação Método dos Elementos de Contorno Por que usar o Método dos Elementos de Contorno? O MEC utiliza a representação integral: c(ξ)u(ξ) = u (ξ, x)p(x) dγ Γ Γ p (ξ, x)u(x) dγ. (1) Não precisa da discretização do interior do domínio. Define um número menor de variáveis. Muito indicado para: Problemas de domínio infinito. Otimização de forma.

Objetivo e Motivação Método dos Elementos de Contorno Por que usar o Método dos Elementos de Contorno? O MEC utiliza a representação integral: c(ξ)u(ξ) = u (ξ, x)p(x) dγ Γ Γ p (ξ, x)u(x) dγ. (1) Não precisa da discretização do interior do domínio. Define um número menor de variáveis. Muito indicado para: Problemas de domínio infinito. Otimização de forma.

Objetivo e Motivação Malha Malha de Elementos Finitos para simulação de um problema de Fundição Eletromagnética.

Objetivo e Motivação Malha Malha equivalente utilizada pelo Método dos Elementos de Contorno.

Objetivo e Motivação Formulação SAND Por que usar a formulação SAND? Na formulação clássica do problema de otimização em Engenharia Mecânica o objetivo é encontrar x R n : minimize f(x, ũ(x)) sujeito a: g(x, ũ(x)) 0 (2) Com ũ definida pela equação de estado: h(x, ũ(x)) = 0 (3)

Objetivo e Motivação Formulação SAND Por que usar a formulação SAND? Na formulação clássica do problema de otimização em Engenharia Mecânica o objetivo é encontrar x R n : minimize f(x, ũ(x)) sujeito a: g(x, ũ(x)) 0 (2) Com ũ definida pela equação de estado: h(x, ũ(x)) = 0 (3)

Objetivo e Motivação Formulação SAND Na formulação SAND: As variáveis de estados são adicionadas como variáveis de otimização. A equação de estado é adicionada como restrição de igualdade. minimize f(x, u) sujeito a: g(x, u) 0 h(x, u) = 0 (4)

Objetivo e Motivação Vantagens da formulação SAND 1) Não precisa da iteração para a solução da equação de estado. 2) A análise de sensibilidade é mais simples (dependência explícita de x e u). 3) Em alguns casos permite utilizar algoritmos de otimização muito eficientes (Problemas lineares ou quadráticos). 4) Propriedade de separabilidade parcial das funções. Cálculo eficiente das derivadas Permite utilizar algoritmos de otimização baseados no método de Newton.

Objetivo e Motivação Vantagens da formulação SAND 1) Não precisa da iteração para a solução da equação de estado. 2) A análise de sensibilidade é mais simples (dependência explícita de x e u). 3) Em alguns casos permite utilizar algoritmos de otimização muito eficientes (Problemas lineares ou quadráticos). 4) Propriedade de separabilidade parcial das funções. Cálculo eficiente das derivadas Permite utilizar algoritmos de otimização baseados no método de Newton.

Objetivo e Motivação Vantagens da formulação SAND 1) Não precisa da iteração para a solução da equação de estado. 2) A análise de sensibilidade é mais simples (dependência explícita de x e u). 3) Em alguns casos permite utilizar algoritmos de otimização muito eficientes (Problemas lineares ou quadráticos). 4) Propriedade de separabilidade parcial das funções. Cálculo eficiente das derivadas Permite utilizar algoritmos de otimização baseados no método de Newton.

Objetivo e Motivação Vantagens da formulação SAND 1) Não precisa da iteração para a solução da equação de estado. 2) A análise de sensibilidade é mais simples (dependência explícita de x e u). 3) Em alguns casos permite utilizar algoritmos de otimização muito eficientes (Problemas lineares ou quadráticos). 4) Propriedade de separabilidade parcial das funções. Cálculo eficiente das derivadas Permite utilizar algoritmos de otimização baseados no método de Newton.

Objetivo e Motivação Vantagens da formulação SAND Muito indicada para: 1) Problemas não lineares. 2) Problemas onde seja necessário achar derivadas segundas. 3) Problemas onde seja difícil achar uma configuração inicial conveniente: permite uma maior liberdade na escolha da configuração inicial.

Objetivo e Motivação Vantagens da formulação SAND Muito indicada para: 1) Problemas não lineares. 2) Problemas onde seja necessário achar derivadas segundas. 3) Problemas onde seja difícil achar uma configuração inicial conveniente: permite uma maior liberdade na escolha da configuração inicial.

Objetivo e Motivação Vantagens da formulação SAND Muito indicada para: 1) Problemas não lineares. 2) Problemas onde seja necessário achar derivadas segundas. 3) Problemas onde seja difícil achar uma configuração inicial conveniente: permite uma maior liberdade na escolha da configuração inicial.

Objetivo e Motivação Formulação SAND

Objetivo e Motivação Formulação SAND

Objetivo e Motivação Formulação SAND

Objetivo e Motivação Formulação SAND

Objetivo e Motivação Formulação SAND

Objetivo e Motivação Algoritmo de ponto interior Por que usar o algoritmo de ponto interior? Vantagens: 1) Conveniente para problemas de grande porte. 2) Problemas esparsos ou com outro tipo de estrutura. 3) Conveniente para executar em computadores de arquitetura paralela. Muito indicado para utilizar junto à formulação SAND.

Objetivo e Motivação Algoritmo de ponto interior Por que usar o algoritmo de ponto interior? Vantagens: 1) Conveniente para problemas de grande porte. 2) Problemas esparsos ou com outro tipo de estrutura. 3) Conveniente para executar em computadores de arquitetura paralela. Muito indicado para utilizar junto à formulação SAND.

Objetivo e Motivação Algoritmo de ponto interior Por que usar o algoritmo de ponto interior? Vantagens: 1) Conveniente para problemas de grande porte. 2) Problemas esparsos ou com outro tipo de estrutura. 3) Conveniente para executar em computadores de arquitetura paralela. Muito indicado para utilizar junto à formulação SAND.

Objetivo e Motivação Algoritmo de ponto interior Por que usar o algoritmo de ponto interior? Vantagens: 1) Conveniente para problemas de grande porte. 2) Problemas esparsos ou com outro tipo de estrutura. 3) Conveniente para executar em computadores de arquitetura paralela. Muito indicado para utilizar junto à formulação SAND.

Objetivo e Motivação Algoritmo de ponto interior Por que usar o algoritmo de ponto interior? Vantagens: 1) Conveniente para problemas de grande porte. 2) Problemas esparsos ou com outro tipo de estrutura. 3) Conveniente para executar em computadores de arquitetura paralela. Muito indicado para utilizar junto à formulação SAND.

Objetivo e Motivação Vantagens do método proposto 1) MEC: Redução do número de variáveis. 2) MEC: Problemas de domínio infinito. 3) SAND: Problemas não lineares. 4) SAND: Análise de sensibilidade simples. 5) Ponto interior: Conveniente para problemas de grande porte.

Objetivo e Motivação Vantagens do método proposto 1) MEC: Redução do número de variáveis. 2) MEC: Problemas de domínio infinito. 3) SAND: Problemas não lineares. 4) SAND: Análise de sensibilidade simples. 5) Ponto interior: Conveniente para problemas de grande porte.

Objetivo e Motivação Vantagens do método proposto 1) MEC: Redução do número de variáveis. 2) MEC: Problemas de domínio infinito. 3) SAND: Problemas não lineares. 4) SAND: Análise de sensibilidade simples. 5) Ponto interior: Conveniente para problemas de grande porte.

Problema de Otimização Não Linear Conteúdo Preliminares Objetivo e Motivação Algoritmo FDIPA-H Problema de Otimização Não Linear Algoritmo FDIPA Algoritmo FDIPA-H Fundição Eletromagnética Problema direto Problema Inverso Exemplos Conclusões

Problema de Otimização Não Linear Problema de Otimização Não Linear Encontrar x R n tal que: Região viável: minimize f(x) sujeito a: g(x) 0 h(x) = 0 Ω = {x R n g(x) 0, h(x) = 0} x é mínimo local se existe N(x ) tal que: f(x) f(x ), x Ω N(x ) (5)

Problema de Otimização Não Linear Karush-Kuhn-Tucker Regularidade das restrições: para todo x Ω: { g i (x) g i (x) = 0, h i (x) i {1,.., p}} é l.i. TEOREMA de Karush-Kuhn-Tucker: m p f(x ) λ i g i (x ) µ i h i (x ) = 0 (6) i=1 i=1 g i (x )λ i = 0 (7) h(x ) = 0 (8) g(x ) 0 (9) λ 0 (10)

Problema de Otimização Não Linear Karush-Kuhn-Tucker Regularidade das restrições: para todo x Ω: { g i (x) g i (x) = 0, h i (x) i {1,.., p}} é l.i. TEOREMA de Karush-Kuhn-Tucker: Sistema de Equações (Newton) m p f(x ) λ i g i (x ) µ i h i (x ) = 0 (6) i=1 i=1 g i (x )λ i = 0 (7) h(x ) = 0 (8) g(x ) 0 (9) λ 0 (10)

Problema de Otimização Não Linear Iteração de Newton Função lagrangiana: L(x, λ, µ) = f(x) m λ i g i (x) i=1 H(x, λ, µ) = 2 xxl(x,λ, µ) = 2 f(x) Iteração de Newton: p µ i h i (x) i=1 m λ i 2 g i (x) i=1 p µ i 2 h i (x) (x k+1, λ k+1, µ k+1 ) = (x k, λ k, µ k ) + (d x, d λ, d µ) (11) H k g T k h T k d x Λ k g k G k 0 d λ = xlt k G k λ k (12) h k 0 0 d µ h k i=1 NÃO FUNCIONA

Problema de Otimização Não Linear Iteração de Newton Função lagrangiana: L(x, λ, µ) = f(x) m λ i g i (x) i=1 H(x, λ, µ) = 2 xxl(x,λ, µ) = 2 f(x) Iteração de Newton: p µ i h i (x) i=1 m λ i 2 g i (x) i=1 p µ i 2 h i (x) (x k+1, λ k+1, µ k+1 ) = (x k, λ k, µ k ) + (d x, d λ, d µ) (11) H k g T k h T k d x Λ k g k G k 0 d λ = xlt k G k λ k (12) h k 0 0 d µ h k i=1 NÃO FUNCIONA

Problema de Otimização Não Linear Iteração de Newton Função lagrangiana: L(x, λ, µ) = f(x) m λ i g i (x) i=1 H(x, λ, µ) = 2 xxl(x,λ, µ) = 2 f(x) Iteração de Newton: p µ i h i (x) i=1 m λ i 2 g i (x) i=1 p µ i 2 h i (x) (x k+1, λ k+1, µ k+1 ) = (x k, λ k, µ k ) + (d x, d λ, d µ) (11) H k g T k h T k d x Λ k g k G k 0 d λ = xlt k G k λ k (12) h k 0 0 d µ h k i=1 NÃO FUNCIONA

Problema de Otimização Não Linear Iteração de Newton Função lagrangiana: m p L(x, λ, µ) = f(x) λ i g i (x) µ i h i (x) m H(x, λ, µ) = 2 xxl(x,λ, µ) = 2 f(x) λ i 2 g i (x) i=1 Iteração de Newton: i=1 i=1 p µ i 2 h i (x) i=1 Sistema singular (x k+1, λ k+1, µ k+1 ) = (x k, λ k, µ k ) + (d x, d λ, d µ) (11) H k g T k h T k d x Λ k g k G k 0 d λ = xlt k G k λ k (12) h k 0 0 d µ h k NÃO FUNCIONA

Problema de Otimização Não Linear Iteração de Newton Função lagrangiana: m p L(x, λ, µ) = f(x) λ i g i (x) µ i h i (x) m H(x, λ, µ) = 2 xxl(x,λ, µ) = 2 f(x) λ i 2 g i (x) i=1 Iteração de Newton: i=1 i=1 p µ i 2 h i (x) i=1 Sistema singular (x k+1, λ k+1, µ k+1 ) = (x k, λ k, µ k ) + (d x, d λ, d µ) (11) H k g T k h T k d x Λ k g k G k 0 d λ = xlt k G k λ k (12) h k 0 0 d µ h k NÃO FUNCIONA g(x) 0, λ 0?

Problema de Otimização Não Linear Iteração de Newton Idéia: Definir um algoritmo de otimização baseado na direção da iteração de Newton. Motivação: problemas com custo de H pequeno Problemas de programação linear ou quadrática. Problemas da coleção CUTE. Economia. Controle ótimo. Otimização de redes. Na Engenharia Mecânica: Utilizando a formulação SAND. Utilizando modelos aproximados.

Problema de Otimização Não Linear Iteração de Newton Idéia: Definir um algoritmo de otimização baseado na direção da iteração de Newton. Motivação: problemas com custo de H pequeno Problemas de programação linear ou quadrática. Problemas da coleção CUTE. Economia. Controle ótimo. Otimização de redes. Na Engenharia Mecânica: Utilizando a formulação SAND. Utilizando modelos aproximados.

Problema de Otimização Não Linear Iteração de Newton Idéia: Definir um algoritmo de otimização baseado na direção da iteração de Newton. Motivação: problemas com custo de H pequeno Problemas de programação linear ou quadrática. Problemas da coleção CUTE. Economia. Controle ótimo. Otimização de redes. Na Engenharia Mecânica: Utilizando a formulação SAND. Utilizando modelos aproximados.

Problema de Otimização Não Linear Iteração de Newton Idéia: Definir um algoritmo de otimização baseado na direção da iteração de Newton. Motivação: problemas com custo de H pequeno Problemas de programação linear ou quadrática. Problemas da coleção CUTE. Economia. Controle ótimo. Otimização de redes. Na Engenharia Mecânica: Utilizando a formulação SAND. Utilizando modelos aproximados.

Problema de Otimização Não Linear Iteração de Newton Idéia: Definir um algoritmo de otimização baseado na direção da iteração de Newton. Motivação: problemas com custo de H pequeno Problemas de programação linear ou quadrática. Problemas da coleção CUTE. Economia. Controle ótimo. Otimização de redes. Na Engenharia Mecânica: Utilizando a formulação SAND. Utilizando modelos aproximados.

Algoritmo FDIPA Conteúdo Preliminares Objetivo e Motivação Algoritmo FDIPA-H Problema de Otimização Não Linear Algoritmo FDIPA Algoritmo FDIPA-H Fundição Eletromagnética Problema direto Problema Inverso Exemplos Conclusões

Algoritmo FDIPA Algoritmo FDIPA Herskovits (1998). FDIPA gera seqüência {x k } k N : = {x R n g(x) 0, h(x) 0} (13) A seqüência reduz em cada iteração o valor da função potencial φ c(x): p φ c(x) = f(x) + c i h i (x) (14) A direção d x = d α x + ρd β x : B k g T k h T k d α x d β x f Λ k g k G k 0 λ α λ β k T 0 = 0 Λ k ω I (15) h k 0 0 µ α µ β h k ω E i=1

Algoritmo FDIPA Algoritmo FDIPA Herskovits (1998). FDIPA gera seqüência {x k } k N : = {x R n g(x) 0, h(x) 0} (13) A seqüência reduz em cada iteração o valor da função potencial φ c(x): p φ c(x) = f(x) + c i h i (x) (14) A direção d x = d α x + ρd β x : B k g T k h T k d α x d β x f Λ k g k G k 0 λ α λ β k T 0 = 0 Λ k ω I (15) h k 0 0 µ α µ β h k ω E i=1

Algoritmo FDIPA Algoritmo FDIPA Herskovits (1998). FDIPA gera seqüência {x k } k N : = {x R n g(x) 0, h(x) 0} (13) A seqüência reduz em cada iteração o valor da função potencial φ c(x): p φ c(x) = f(x) + c i h i (x) (14) A direção d x = d α x + ρd β x : B k g T k h T k d α x d β x f Λ k g k G k 0 λ α λ β k T 0 = 0 Λ k ω I (15) h k 0 0 µ α µ β h k ω E i=1

Algoritmo FDIPA Algoritmo FDIPA Herskovits (1998). FDIPA gera seqüência {x k } k N : = {x R n g(x) 0, h(x) 0} (13) A seqüência reduz em cada iteração o valor da função potencial φ c(x): p φ c(x) = f(x) + c i h i (x) (14) A direção d x = d α x + ρd β x : B k g T k h T k d α x d β x f Λ k g k G k 0 λ α λ β k T 0 = 0 Λ k ω I (15) h k 0 0 µ α µ β h k ω E i=1

Algoritmo FDIPA Algoritmo FDIPA Herskovits (1998). FDIPA gera seqüência {x k } k N : = {x R n g(x) 0, h(x) 0} (13) A seqüência reduz em cada iteração o valor da função potencial φ c(x): p φ c(x) = f(x) + c i h i (x) (14) A direção d x = d α x + ρd β x : B k g T k h T k d α x d β x f Λ k g k G k 0 λ α λ β k T 0 = 0 Λ k ω I (15) h k 0 0 µ α µ β h k ω E i=1 B k positiva definida em vez da Hessiana

Algoritmo FDIPA Algoritmo FDIPA Herskovits (1998). FDIPA gera seqüência {x k } k N : = {x R n g(x) 0, h(x) 0} (13) A seqüência reduz em cada iteração o valor da função potencial φ c(x): p φ c(x) = f(x) + c i h i (x) (14) A direção d x = d α x + ρd β x : B k g T k h T k d α x d β x f Λ k g k G k 0 λ α λ β k T 0 = 0 Λ k ω I (15) h k 0 0 µ α µ β h k ω E i=1 B k positiva definida em vez da Hessiana d β x : direção de desvio

Algoritmo FDIPA Direção de desvio

Algoritmo FDIPA Convergência global do FDIPA Regularidade das restrições + B positiva definida + λ > 0 + g(x) 0: Sistema linear é não singular x não é ponto estacionário: d x > 0 Viabilidade uniforme: Existe θ 1 > 0 tal que t [0, θ 1 ] x k + t d x Descida uniforme: Existe θ 2 > 0 tal que t [0, θ 2 ] φ ck (x k + t k d x) φ ck (x k ) + t k η φ ck d x Busca linear: Achar t (Armijo, Wolfe, etc.).

Algoritmo FDIPA Convergência global do FDIPA Regularidade das restrições + B positiva definida + λ > 0 + g(x) 0: Sistema linear é não singular x não é ponto estacionário: d x > 0 Viabilidade uniforme: Existe θ 1 > 0 tal que t [0, θ 1 ] x k + t d x Descida uniforme: Existe θ 2 > 0 tal que t [0, θ 2 ] φ ck (x k + t k d x) φ ck (x k ) + t k η φ ck d x Busca linear: Achar t (Armijo, Wolfe, etc.).

Algoritmo FDIPA Convergência global do FDIPA Regularidade das restrições + B positiva definida + λ > 0 + g(x) 0: Sistema linear é não singular x não é ponto estacionário: d x > 0 Viabilidade uniforme: Existe θ 1 > 0 tal que t [0, θ 1 ] x k + t d x Descida uniforme: Existe θ 2 > 0 tal que t [0, θ 2 ] φ ck (x k + t k d x) φ ck (x k ) + t k η φ ck d x Busca linear: Achar t (Armijo, Wolfe, etc.).

Algoritmo FDIPA Convergência global do FDIPA Regularidade das restrições + B positiva definida + λ > 0 + g(x) 0: Sistema linear é não singular x não é ponto estacionário: d x > 0 Viabilidade uniforme: Existe θ 1 > 0 tal que t [0, θ 1 ] x k + t d x Descida uniforme: Existe θ 2 > 0 tal que t [0, θ 2 ] φ ck (x k + t k d x) φ ck (x k ) + t k η φ ck d x Busca linear: Achar t (Armijo, Wolfe, etc.).

Algoritmo FDIPA Convergência global do FDIPA Regularidade das restrições + B positiva definida + λ > 0 + g(x) 0: Sistema linear é não singular x não é ponto estacionário: d x > 0 Viabilidade uniforme: Existe θ 1 > 0 tal que t [0, θ 1 ] x k + t d x Descida uniforme: Existe θ 2 > 0 tal que t [0, θ 2 ] φ ck (x k + t k d x) φ ck (x k ) + t k η φ ck d x Busca linear: Achar t (Armijo, Wolfe, etc.).

Algoritmo FDIPA-H Conteúdo Preliminares Objetivo e Motivação Algoritmo FDIPA-H Problema de Otimização Não Linear Algoritmo FDIPA Algoritmo FDIPA-H Fundição Eletromagnética Problema direto Problema Inverso Exemplos Conclusões

Algoritmo FDIPA-H Algoritmo FDIPA-H Manter a hessiana H k no sistema: H k g T k h T k Λ k g k G k 0 h k 0 0 A = {i g i (x) = 0}, I = {i g i (x) > 0}. Espaço tangente: Matriz M: d α x λ α µ α = f T k 0 h k T = {v R n v { g i (x) i A, h i (x) i {1,.., p}}} (16) M(x, λ, µ) = H(x, λ, µ) + i I g i (x) 1 λ i g T i (x) g i (x) (17) Função potencial: φ c(x) = f(x) + c Ψ(h(x)) (18)

Algoritmo FDIPA-H Algoritmo FDIPA-H Manter a hessiana H k no sistema: H k g T k h T k Λ k g k G k 0 h k 0 0 A = {i g i (x) = 0}, I = {i g i (x) > 0}. Espaço tangente: Matriz M: d α x λ α µ α = f T k 0 h k T = {v R n v { g i (x) i A, h i (x) i {1,.., p}}} (16) M(x, λ, µ) = H(x, λ, µ) + i I g i (x) 1 λ i g T i (x) g i (x) (17) Função potencial: φ c(x) = f(x) + c Ψ(h(x)) (18)

Algoritmo FDIPA-H Algoritmo FDIPA-H Manter a hessiana H k no sistema: H k g T k h T k Λ k g k G k 0 h k 0 0 A = {i g i (x) = 0}, I = {i g i (x) > 0}. Espaço tangente: Matriz M: d α x λ α µ α = f T k 0 h k T = {v R n v { g i (x) i A, h i (x) i {1,.., p}}} (16) M(x, λ, µ) = H(x, λ, µ) + i I g i (x) 1 λ i g T i (x) g i (x) (17) Função potencial: φ c(x) = f(x) + c Ψ(h(x)) (18)

Algoritmo FDIPA-H Algoritmo FDIPA-H Manter a hessiana H k no sistema: H k g T k h T k Λ k g k G k 0 h k 0 0 A = {i g i (x) = 0}, I = {i g i (x) > 0}. Espaço tangente: Matriz M: d α x λ α µ α = f T k 0 h k T = {v R n v { g i (x) i A, h i (x) i {1,.., p}}} (16) M(x, λ, µ) = H(x, λ, µ) + i I g i (x) 1 λ i g T i (x) g i (x) (17) Função potencial: φ c(x) = f(x) + c Ψ(h(x)) (18)

Algoritmo FDIPA-H Direção de Newton Assumindo: Regularidade das restrições + M positiva definida no espaço T + λ > 0 + g(x k ) 0: 1) LEMA 3.44: Sistema linear de Newton é não singular 2) LEMA 3.45: x não é ponto estacionário: d α x > 0 3) TEOREMA 3.46: d α x = d 1 x + d 2 x d 1 x é de descida para a função f : Direção de otimalidade d 2 x é de descida para a função Ψ(h(x)): Direção de viabilidade Existe c 0 tal que c c 0, d α x é de descida para a função potencial φ(x) = f(x) + c Ψ(h(x))

Algoritmo FDIPA-H Direção de Newton Assumindo: Regularidade das restrições + M positiva definida no espaço T + λ > 0 + g(x k ) 0: 1) LEMA 3.44: Sistema linear de Newton é não singular 2) LEMA 3.45: x não é ponto estacionário: d α x > 0 3) TEOREMA 3.46: d α x = d 1 x + d 2 x d 1 x é de descida para a função f : Direção de otimalidade d 2 x é de descida para a função Ψ(h(x)): Direção de viabilidade Existe c 0 tal que c c 0, d α x é de descida para a função potencial φ(x) = f(x) + c Ψ(h(x))

Algoritmo FDIPA-H Direção de Newton Assumindo: Regularidade das restrições + M positiva definida no espaço T + λ > 0 + g(x k ) 0: 1) LEMA 3.44: Sistema linear de Newton é não singular 2) LEMA 3.45: x não é ponto estacionário: d α x > 0 3) TEOREMA 3.46: d α x = d 1 x + d 2 x d 1 x é de descida para a função f : Direção de otimalidade d 2 x é de descida para a função Ψ(h(x)): Direção de viabilidade Existe c 0 tal que c c 0, d α x é de descida para a função potencial φ(x) = f(x) + c Ψ(h(x))

Algoritmo FDIPA-H Direção de Newton Assumindo: Regularidade das restrições + M positiva definida no espaço T + λ > 0 + g(x k ) 0: 1) LEMA 3.44: Sistema linear de Newton é não singular 2) LEMA 3.45: x não é ponto estacionário: d α x > 0 3) TEOREMA 3.46: d α x = d 1 x + d 2 x d 1 x é de descida para a função f : Direção de otimalidade d 2 x é de descida para a função Ψ(h(x)): Direção de viabilidade Existe c 0 tal que c c 0, d α x é de descida para a função potencial φ(x) = f(x) + c Ψ(h(x))

Algoritmo FDIPA-H Direção de Newton M deve ser positiva definida no espaço T

Algoritmo FDIPA-H M k não é positiva definida em T Duas perguntas: 1) Como saber se M é positiva definida no espaço T? 2) O que fazer se não é? TEOREMA 3.40: M é positiva definida no espaço tangente T a matriz A do sistema linear tem inércia {n, m + p, 0} n é a dimensão de x m é a dimensão de g(x) p é a dimensão de h(x) inércia(a) = {i +, i, i 0 } i + é o número de valores próprios positivos i é o número de valores próprios negativos i 0 é o número de valores próprios nulos

Algoritmo FDIPA-H M k não é positiva definida em T Duas perguntas: 1) Como saber se M é positiva definida no espaço T? 2) O que fazer se não é? TEOREMA 3.40: M é positiva definida no espaço tangente T a matriz A do sistema linear tem inércia {n, m + p, 0} n é a dimensão de x m é a dimensão de g(x) p é a dimensão de h(x) inércia(a) = {i +, i, i 0 } i + é o número de valores próprios positivos i é o número de valores próprios negativos i 0 é o número de valores próprios nulos

Algoritmo FDIPA-H Decomposição LDL T Para saber a inércia ou resolver o sistema linear usamos a decomposição LDL T : PAP T = LDL T TEOREMA (Sylvester): inércia(a) = inércia(d)

Algoritmo FDIPA-H Decomposição LDL T Para saber a inércia ou resolver o sistema linear usamos a decomposição LDL T : PAP T = LDL T TEOREMA (Sylvester): inércia(a) = inércia(d)

Algoritmo FDIPA-H M não é positiva definida em T (1) Substituir d 1 x por d 1 x, se d 1 x não for de descida para a função objetivo. (2) Na próxima iteração substituir H k por H k + γi Sempre existe γ conveniente Preserva esparsidade de H k Exemplo: utilizar H k + γi positiva definida: γ = max 1 i n max 1.2 (H k ) ij (H k ) ii, 0. (19) j i TEOREMA 3.50 Toda subseqüência convergente da seqüência gerada pelo algoritmo FDIPA-H converge para um ponto de Karush-Kuhn-Tucker do problema de otimização.

Algoritmo FDIPA-H M não é positiva definida em T (1) Substituir d 1 x por d 1 x, se d 1 x não for de descida para a função objetivo. (2) Na próxima iteração substituir H k por H k + γi Sempre existe γ conveniente Preserva esparsidade de H k Exemplo: utilizar H k + γi positiva definida: γ = max 1 i n max 1.2 (H k ) ij (H k ) ii, 0. (19) j i TEOREMA 3.50 Toda subseqüência convergente da seqüência gerada pelo algoritmo FDIPA-H converge para um ponto de Karush-Kuhn-Tucker do problema de otimização.

Algoritmo FDIPA-H Algoritmo de Otimização FDIPA-H Dados: x 0 0, λ 0 R m positivo, µ 0 R p ω I R m positivo, ω E R p positivo e c 0 positivo. Passo 1: Teste de convergência Passo 2: Cálculo da direção de busca 2.1 Escolha o parâmetro γ k e solução do sistema: H k + γ k I g T k h T k d α x d β x f Λ k g k G k 0 λ α λ β k T 0 = 0 Λ k ω I. h k 0 0 µ α µ β h k ω E 2.2 Se d α x = 0 pare 2.4 Atualize c k 2.5 Calcule ρ e a direção d x = d α x + ρd β x Passo 3: Busca linear Passo 4: Atualização: x k+1 = x k + t k d x 4.2 Retorne ao Passo 1.

Algoritmo FDIPA-H Algoritmo de Otimização FDIPA-H Dados: x 0 0, λ 0 R m positivo, µ 0 R p ω I R m positivo, ω E R p positivo e c 0 positivo. Passo 1: Teste de convergência Passo 2: Cálculo da direção de busca 2.1 Escolha o parâmetro γ k e solução do sistema: H k + γ k I g T k h T k d α x d β x f Λ k g k G k 0 λ α λ β k T 0 = 0 Λ k ω I. h k 0 0 µ α µ β h k ω E 2.2 Se d α x = 0 pare 2.4 Atualize c k 2.5 Calcule ρ e a direção d x = d α x + ρd β x Passo 3: Busca linear Passo 4: Atualização: x k+1 = x k + t k d x 4.2 Retorne ao Passo 1.

Algoritmo FDIPA-H Algoritmo de Otimização FDIPA-H Dados: x 0 0, λ 0 R m positivo, µ 0 R p ω I R m positivo, ω E R p positivo e c 0 positivo. Passo 1: Teste de convergência Passo 2: Cálculo da direção de busca 2.1 Escolha o parâmetro γ k e solução do sistema: H k + γ k I g T k h T k d α x d β x f Λ k g k G k 0 λ α λ β k T 0 = 0 Λ k ω I. h k 0 0 µ α µ β h k ω E 2.2 Se d α x = 0 pare 2.4 Atualize c k 2.5 Calcule ρ e a direção d x = d α x + ρd β x Passo 3: Busca linear Passo 4: Atualização: x k+1 = x k + t k d x 4.2 Retorne ao Passo 1.

Algoritmo FDIPA-H Algoritmo de Otimização FDIPA-H Dados: x 0 0, λ 0 R m positivo, µ 0 R p ω I R m positivo, ω E R p positivo e c 0 positivo. Passo 1: Teste de convergência Passo 2: Cálculo da direção de busca 2.1 Escolha o parâmetro γ k e solução do sistema: H k + γ k I g T k h T k d α x d β x f Λ k g k G k 0 λ α λ β k T 0 = 0 Λ k ω I. h k 0 0 µ α µ β h k ω E 2.2 Se d α x = 0 pare 2.4 Atualize c k 2.5 Calcule ρ e a direção d x = d α x + ρd β x Passo 3: Busca linear Passo 4: Atualização: x k+1 = x k + t k d x 4.2 Retorne ao Passo 1.

Algoritmo FDIPA-H Algoritmo de Otimização FDIPA-H Dados: x 0 0, λ 0 R m positivo, µ 0 R p ω I R m positivo, ω E R p positivo e c 0 positivo. Passo 1: Teste de convergência Passo 2: Cálculo da direção de busca 2.1 Escolha o parâmetro γ k e solução do sistema: H k + γ k I g T k h T k d α x d β x f Λ k g k G k 0 λ α λ β k T 0 = 0 Λ k ω I. h k 0 0 µ α µ β h k ω E 2.2 Se d α x = 0 pare 2.4 Atualize c k 2.5 Calcule ρ e a direção d x = d α x + ρd β x Passo 3: Busca linear Passo 4: Atualização: x k+1 = x k + t k d x 4.2 Retorne ao Passo 1.

Algoritmo FDIPA-H Algoritmo de Otimização FDIPA-H Dados: x 0 0, λ 0 R m positivo, µ 0 R p ω I R m positivo, ω E R p positivo e c 0 positivo. Passo 1: Teste de convergência Passo 2: Cálculo da direção de busca 2.1 Escolha o parâmetro γ k e solução do sistema: H k + γ k I g T k h T k d α x d β x f Λ k g k G k 0 λ α λ β k T 0 = 0 Λ k ω I. h k 0 0 µ α µ β h k ω E 2.2 Se d α x = 0 pare 2.4 Atualize c k 2.5 Calcule ρ e a direção d x = d α x + ρd β x Passo 3: Busca linear Passo 4: Atualização: x k+1 = x k + t k d x 4.2 Retorne ao Passo 1.

Algoritmo FDIPA-H Exemplos: Coleção de Hock e Shitkowski Comparação do número de iterações 112 problemas de pequeno tamanho 2 16 variáveis. Resolveu Falhou* Foi o melhor** Foi o pior*** FDIPA 104 (92.9%) 8 (7.1%) 13 71 FAIPA 103 (92.0%) 9 (8.0%) 24 62 FDIPA-H 104 (92.9%) 8 (7.1%) 84 19 (*) Falhou: Erro de execução ou mais de 100 iterações para atingir a tolerância exigida. (**) Melhor: realizou un número de iterações menor ou igual aos outros dois. (***) Pior: realizou un número de iterações maior ou igual aos outros dois.

Algoritmo FDIPA-H Exemplos: Coleção do CUTE 150 problemas de grande porte: 1000 50000 variáveis. Economia. Controle ótimo. Otimização de redes. Engenharia Mecânica. Formulações SAND: problemas grandes e esparsos. As funções têm a propriedade de separabilidade parcial. O custo de cálculo da matriz hessiana é pequeno. É um conjunto de problemas muito importante para os quais os algoritmos de ponto interior baseados na iteração de Newton são ideais.

Algoritmo FDIPA-H Exemplos: Coleção do CUTE 150 problemas de grande porte: 1000 50000 variáveis. Economia. Controle ótimo. Otimização de redes. Engenharia Mecânica. Formulações SAND: problemas grandes e esparsos. As funções têm a propriedade de separabilidade parcial. O custo de cálculo da matriz hessiana é pequeno. É um conjunto de problemas muito importante para os quais os algoritmos de ponto interior baseados na iteração de Newton são ideais.

Algoritmo FDIPA-H Exemplos: Coleção do CUTE Comparação do número de iterações Resolveu Falhou* Foi o melhor** Foi o pior*** KNITRO 93 (62.0%) 57 (38.0%) 31 76 LOQO 138 (92.0%) 12 (8.0%) 39 43 FDIPA-H 114 (76.0%) 36 (24.0%) 81 40 SNOPT 62 (41.3%) 88 (58.7%) - - FDIPA 61 (40.6%) 89 (59.3%) - - FAIPA 59 (39.3%) 91 (60.7%) - - (*) A comparação compreende os algoritmos KNITRO, LOQO e FDIPA-H. (*) Falhou: Erro de execução, mais de 3000 iterações ou mais de 20 min de execução. (**) Melhor: realizou un número de iterações menor ou igual aos outros dois. (***) Pior: realizou un número de iterações maior ou igual aos outros dois.

Algoritmo FDIPA-H Conclusões sobre o FDIPA-H 1) O algoritmo tem convergência global (Teorema 3.50) 2) É muito eficiente para os problemas de grande porte da coleção CUTE.

Problema direto Conteúdo Preliminares Objetivo e Motivação Algoritmo FDIPA-H Problema de Otimização Não Linear Algoritmo FDIPA Algoritmo FDIPA-H Fundição Eletromagnética Problema direto Problema Inverso Exemplos Conclusões

Problema direto Problema de Fundição Eletromagnética O modelo aqui considerado assume que a freqüência da corrente elétrica é muito alta e, portanto, o campo magnético penetra uma distância desprezível no interior do metal líquido.

Problema direto Problema de Fundição Eletromagnética

Problema direto Equações do campo magnético Michel Pierre, Jean R. Roche (1991) B = µ 0 j 0 em Ω (20) B = 0 em Ω (21) B ν = 0 em Γ (22) B = O( x 1 ) quando x em Ω (23) ω: domínio ocupado pelo metal líquido. Γ: contorno de ω. Ω = R \ ω o exterior do metal líquido. j 0 = (0, 0, j 0 ) e o vetor de densidade de corrente elétrica. B = (B 1, B 2, 0) vetor de campo magnético. µ 0 : permeabilidade magnética do vácuo. ν: vetor unitário normal a superfície Γ.

Problema direto Equilíbrio e restrições Além disso temos a equação de equilíbrio: E a equação do volume: 1 2µ 0 B 2 + σc = p constante em Γ (24) ω dω = S 0 (25) Assume-se também que j 0 tem suporte compacto e verifica: j 0 dω = 0 (26) Ω

Problema direto Função fluxo magnético Com isso, existe a função fluxo magnético ϕ : Ω R tal que B = ( ϕ, ϕ, 0) e ϕ é solução das equações de estado: x 2 x 1 O equilíbrio em termos do fluxo ϕ fica: ϕ = µ 0 j 0 em Ω (27) ϕ = 0 em Γ (28) ϕ(x) = O(1) quando x (29) 1 2µ 0 ϕ 2 + σc = p constante em Γ (30)

Problema direto Problema variacional A formulação variacional consiste em encontrar ω como um ponto crítico do funcional Energia Total: E(ω) = 1 ϕ ω 2 dω + σ dγ, (31) 2µ 0 Ω Γ sujeito à restrição de igualdade na área de ω: dω = S 0. (32) onde ϕ ω verifica: ω ϕ ω = µ 0 j 0 em Ω (33) ϕ ω = 0 em Γ (34) ϕ ω(x) = O(1) quando x (35)

Problema direto Diferenciação em relação à forma Para caracterizar os pontos críticos utilizamos o conceito de diferenciação em relação à forma. Para um domínio de referência Ω 0, são consideradas as transformações: T = Id + V, com V W 1, (R n, R n ), V W 1, (R n,r n ) < 1, (36) Definição do domínio transformado pelo campo vetorial V.

Problema direto Condição de equilíbrio Função lagrangiana: L(ω, p) = E(ω) p(s(ω) S 0 ), (37) onde p é o multiplicador de Lagrange associado à restrição de área. Condição de ponto crítico: L (ω, p)(v) = 0, V W 1, (R 2, R 2 ). (38) Teorema 5.1 Condição de equilíbrio do problema variacional: ( ) 1 ϕ 2 + σc p (V ν) dγ = 0 V in W 1, (R 2, R 2 ). (39) 2µ 0 Γ

Problema direto Solução da equação de estado Para achar a solução é considerada uma solução particular ϕ 1 : ϕ 1 (x) = µ 0 ln x y j 0 (y) dω (40) 2π R 2 Então, a função ϕ pode ser calculada como: onde a função v é solução de: ϕ(x) = v(x) + ϕ 1 (x) (41) v(x) = 0 em Ω (42) v(x) = ϕ 1 (x) em Γ (43) v(x) = O(1) quando x (44)

Problema direto Solução da equação homogênea Uma representação integral de v é dada por: v(x) = 1 q(y) ln x y dγ + c (45) 2π Γ onde c é o valor no infinito, e q H 1/2 (Γ) deve verificar: q(x) dγ = 0 (46) As condições de contorno em Γ são impostas de forma fraca: Γ 1 g(x) q(y) ln x y dγ dγ + c g(x) dγ 2π Γ Γ Γ = ϕ 1 (x)g(x) dγ g H 1/2 (Γ) (47) Γ

Problema direto Resumo das equações do problema direto Em resumo, temos as equações de estado: 1 g(x) q(y) ln x y dγ dγ + 2π Γ Γ + c g(x) dγ = ϕ 1 (x)g(x) dγ g H 1/2 (Γ) (48) Γ Γ Γ q(x) dγ = 0 (49) A restrição de igualdade na área de ω: dω = S 0 (50) ω A equação de equilíbrio no contorno: ( ) 1 ϕ 2 + σc p (V ν) dγ = 0 V in W 1, (R n, R n ) (51) 2µ 0 Γ

Problema direto Discretização Define-se a transformação paramétrica T u como: T u(x) = x + V u(x) (52) n V u(x) = u i V i (x) (53) i=1 onde u T = (u 1,..., u n) R n é o vetor das incógnitas que determinam a evolução do contorno. Então, o contorno atualizado Γ u é dado por: { Γ u = X X = x + V u(x); x Γ h} (54)

Problema direto Exemplo Iter 0

Problema direto Exemplo Iter 4

Problema direto Exemplo Iter 10

Problema direto Exemplo Iter 29

Problema direto Exemplo

Problema Inverso Conteúdo Preliminares Objetivo e Motivação Algoritmo FDIPA-H Problema de Otimização Não Linear Algoritmo FDIPA Algoritmo FDIPA-H Fundição Eletromagnética Problema direto Problema Inverso Exemplos Conclusões

Problema Inverso Problema Inverso Encontrar a configuração de indutores para ter ω aproximadamente igual a uma forma objetivo ω Duas formulações são propostas: 1) Minimização da distância entre a forma objetivo e a forma em equilíbrio. 2) Minimização da pressão fictícia que equilibra a forma objetivo. Otimização da posição dos indutores. Otimização da forma dos indutores.

Problema Inverso Problema Inverso Encontrar a configuração de indutores para ter ω aproximadamente igual a uma forma objetivo ω Duas formulações são propostas: 1) Minimização da distância entre a forma objetivo e a forma em equilíbrio. 2) Minimização da pressão fictícia que equilibra a forma objetivo. Otimização da posição dos indutores. Otimização da forma dos indutores.

Problema Inverso Problema Inverso Encontrar a configuração de indutores para ter ω aproximadamente igual a uma forma objetivo ω Duas formulações são propostas: 1) Minimização da distância entre a forma objetivo e a forma em equilíbrio. 2) Minimização da pressão fictícia que equilibra a forma objetivo. Otimização da posição dos indutores. Otimização da forma dos indutores.

Problema Inverso Problema Inverso - Primeira formulação A primeira formulação considera uma deformação do domínio ω definida pelo mapeamento seguinte: T Z (x) = (Id + Z)(x), x R 2 (55) onde Z é regular e tem suporte compacto em R 2. Definindo: Primeira formulação do problema inverso: ω Z = T Z (ω ) (56) Γ Z = T Z (Γ ) (57) min j 0,Z Z 2 L 2 (Γ ) sujeito a: (58) ω Z é equilibrado sob j 0

Problema Inverso Problema Inverso - Segunda formulação Considerando uma função de folga p(x) : Γ R de forma que a equação de equilíbrio seja verificada para o domínio objetivo: ( ) 1 ϕ ω 2 + σc p + p (V ν) dγ = 0 V in C 1 (R 2, R 2 ) (59) 2µ 0 Γ A função p pode ser interpretada como sendo uma pressão adicional atuando na interface. Segunda formulação do problema inverso: min j 0,p p 2 L 2 (Γ ) sujeito a: (60) ω é equilibrado sob a ação de j 0 e p

Problema Inverso Comparação das formulações Primeira formulação: 1) Acha a forma em equilíbrio. 2) Em geral encontra soluções mais aproximadas à forma objetivo. Segunda formulação: 1) Não têm variáveis relacionadas à forma do metal líquido. 2) Análise de sensibilidade fica mais simples. 3) O custo computacional do processo de otimização é muito menor para esta formulação. 4) Si for necessário, o resultado pode ser utilizado como ponto inicial da primeira formulação.

Problema Inverso Otimização da posição indutores A densidade de corrente elétrica j 0 é assumida da forma: n c j 0 = I α i δ xi, (61) i=1 Neste caso a expressão para a função ϕ 1 é: ϕ 1 (x) = µ 0I 2π x i variáveis de projeto do problema. n c i=1 α i ln x x i. (62)

Problema Inverso Exemplo 3 Configuração Inicial

Problema Inverso Exemplo 3 Primeira formulação

Problema Inverso Exemplo 3 Segunda formulação

Problema Inverso Exemplo 4 Configuração Inicial

Problema Inverso Exemplo 4 Resultado da Primeira formulação

Problema Inverso Exemplo 4 Resultado da Segunda formulação

Problema Inverso Otimização de forma dos indutores A hipótese de densidade uniforme é válida para o caso em que o indutor é composto por filamentos entrelaçados e isolados uns dos outros (Litz-Wire).

Problema Inverso Otimização de forma dos indutores A densidade de corrente elétrica j 0 é assumida da forma: n c j 0 = I α i χ Θi, (63) i=1 Neste caso a expressão para a função ϕ 1 é: Seja w : R 2 R 2 R 2 : ϕ 1 (x) = µ 0I 2π n c i=1 α i Θ i ln x y dω y. (64) w(x, y) = (1/4)(1 2 ln x y )(x y). (65) ϕ 1 (x) = µ 0I 2π n c i=1 α i Γ i w(x, y) ν dγ y. (66)

Problema Inverso Indutores

Problema Inverso Restrições geométricas

Problema Inverso Restrições geométricas A função ψ proposta é definida pela solução de: ψ(x) = 0 in Ω, ψ(x) = 0 on Γ, Γ ψ(x) ν dγ = 1. Definindo ψ j (u c) = ψ(x j (u c)) ψ 0, as restrições geométricas ficam: (67) ψ(u c) 0. (68)

Problema Inverso Restrições geométricas Função ψ

Exemplos Conteúdo Preliminares Objetivo e Motivação Algoritmo FDIPA-H Problema de Otimização Não Linear Algoritmo FDIPA Algoritmo FDIPA-H Fundição Eletromagnética Problema direto Problema Inverso Exemplos Conclusões

Exemplos Exemplo 3 Configuração Inicial

Exemplos Exemplo 3 Primeira formulação

Exemplos Exemplo 3 Primeira formulação

Exemplos Exemplo 3 Primeira formulação 10 1 Função objetivo 10 2 10 3 10 4 Ex3a Ex3b Ex3aH Ex3bH 0 10 20 30 40 50 60 Iteração Evolução da função objetivo

Exemplos Exemplo 3 Segunda formulação

Exemplos Exemplo 3 Segunda formulação

Exemplos Exemplo 3 Segunda formulação 10 6 Função objetivo 10 8 10 10 10 12 Ex3a Ex3b Ex3aH Ex3bH 10 14 0 5 10 15 20 25 30 Iteração Evolução da função objetivo

Exemplos Exemplo 5 Configuração Inicial

Exemplos Exemplo 5 Primeira formulação

Exemplos Exemplo 5 Primeira formulação

Exemplos Exemplo 5 Primeira formulação 10 1 Função objetivo 10 2 10 3 10 4 Ex5 Ex5H 10 5 0 20 40 60 80 100 Iteração Evolução da função objetivo

Exemplos Exemplo 5 Segunda formulação

Exemplos Exemplo 5 Segunda formulação

Exemplos Exemplo 5 Segunda formulação 10 6 Função objetivo 10 8 10 10 10 12 Ex5 Ex5H 0 5 10 15 20 25 30 Iteração Evolução da função objetivo

Conclusões 1) Neste trabalho foi proposto um método para otimização na Engenharia Mecânica baseado na utilização do MEC, na formulação SAND e na utilização de um algoritmo de ponto interior. 2) No Capítulo 3 da tese é apresentado o algoritmo FDIPA-H. Utiliza a matriz hessiana do problema de otimização nos sistemas lineares. É muito eficiente para os problemas de grande porte da coleção CUTE. Trabalhos futuros Ver convergência assintótica.

Conclusões 3) Uma aplicação do método proposto ao problema de Fundição Eletromagnética foi apresentada no Capítulo 5. Duas formulações para a solução do problema inverso. Técnica geral para satisfazer as restrições geométricas de não penetração. Trabalhos futuros Ver o problema de otimização topológica dos indutores. Considerar modelos para baixas freqüências da corrente elétrica.