APLICAÇÃO DA TEORIA DE OTIMIZAÇÃO CONVEXA EM PROBLEMAS DE CLASSIFICAÇÃO

Tamanho: px
Começar a partir da página:

Download "APLICAÇÃO DA TEORIA DE OTIMIZAÇÃO CONVEXA EM PROBLEMAS DE CLASSIFICAÇÃO"

Transcrição

1 APLICAÇÃO DA TEORIA DE OTIMIZAÇÃO CONVEXA EM PROBLEMAS DE CLASSIFICAÇÃO André Ricardo Gonçalves Faculdade de Engenharia Elétrica e de Computação - UNICAMP Campinas, SP, Brasil RESUMO Neste presente trabalho é apresentado um estudo sobre o método, empregado aqui em problemas de classificação de padrões, denominado Máquina de Vetores Suporte. Esta técnica utiliza a teoria de otimização convexa para modelar o problema e determinar um hiperplano separador que maximize a distância entre a casca convexa de dois conjuntos de dados, pertencentes a classes distintas. Um estudo de caso é realizado para exemplificar a aplicação desta metodologia. PALAVRAS-CHAVE: Classificação de Padrões, Otimização Convexa, Máquina de Vetores Suporte. ABSTRACT In this present paper is presented a study of method, employed here in problems of pattern classification, called Support Vectors Machine. This technique uses the theory of convex optimization to model the problem and determine a separate hyperplane that maximize the distance between the convex hulls of two sets of data, belonging to different classes. A case study is conducted to exemplify the application of this methodology. KEYWORDS: Pattern Classification, Convex Optimization, Support Vectors Machine. 1 INTRODUÇÃO Classificação de dados é um problema proveniente da ciência da computação que busca separar um conjunto de dados, em grupos ou classes, que possuem características em comum. Esse tipo de problema é corrente em diversas áreas do conhecimento como: classificação de proteínas em bioinformática, processamento digital de imagens, diagnóstico médico, entre outros. Várias abordagens foram propostas para atacar este problema, dentre elas a Máquina de Vetor Suporte, do inglês Suporte Vector Machine - SVM, que utiliza fundamentos da teoria de otimização convexa para encontrar superfícies de decisão ótima. Este trabalho busca apresentar a modelagem do problema de classificação utilizando a teoria de otimização e aplicá-la em um estudo de caso real de domínio médico. O restante deste trabalho é descrito como segue: na seção 2 aborda a definição do problema de classificação de padrões. Na seção 3 e nas subseções sequentes são apresentadas a modelagem do problema, seja para dados linearmente separáveis ou não, utilizando a teoria de otimização, já na seção 4 o estudo de caso é descrito. Alguns testes foram feitos e os resultados analisados na seção 5, juntamente com uma exploração maior por meio dos gráficos de ROC; e por fim algumas discussões do trabalho e conclusões. 2 CLASSIFICAÇÃO DE PADRÕES O problema de classificação de padrões pode ser definido como a necessidade de encontrar uma função que seja capaz de de identificar a qual classe um certo dado pertence, dentre um conjunto de classes pré-estabelecido. De acordo com (Clancey, 1984) uma classe é um estereótipo hierarquicamente organizado que constitui um grupo de dados com características em comum. Considerando uma classificação binária, onde existem duas classes possíveis, podemos formalizar um problema de classificação como (Boyd and Vandenberghe, 2004): Definição 2.1 Dado dois conjuntos de dados, x = {x 1, x 1,..., x N } e y = {y 1, y 1,..., x M }, deseja-se obter um função f : R n R que é positiva para o conjunto x e negativa para y, isto é, f(x i ) > 0, i = 1,.., N f(y i ) < 0, i = 1,..., M (1) A partir deste ponto será considerado apenas problemas de classificação binária de dados. Assim dizemos que f separa, classifica ou discrimina dois conjuntos de pontos. Sendo que f pode ser uma função linear (discriminante linear); ou não-linear, como quadrática e polinomial (Boyd and Vandenberghe, 2004). 1

2 2.1 Separabilidade dos dados e Conceito de Margem Dois conjuntos de dados são ditos linearmente separáveis se existe pelo menos uma função linear f que separa totalmente padrões (dados) de classes diferentes (Russell and Norvig, 1995), como mostra a figura 1. A partir disso, deseja-se então encontrar um hiperplano único (w T x+b) que determina a máxima distância entre os pontos mais próximos das duas classes. Este tipo de classificador é denominado na literatura como classificador de margem máxima (David and Lerner, 2005). Os pontos (vetores) mais próximos do hiperplano são chamados de vetores suporte, daí o nome Máquina de Vetores Suporte. 3.1 Classificação Linear Considerando um conjunto de dados {x k, y k } N linearmente separáveis, com x k R n e dados de resposta y k R, com classes y k {-1,+1}, definimos o classificador linear como Figura 1: Dois conjuntos linearmente separáveis. Podemos definir a função linear f como: w T x + b = 0 (2) onde w o vetor normal ao hiperplano separador f e b o termo de deslocamento do hiperplano em relação a origem. Se os dados não puderem ser separados por uma função linear, dizemos que os conjuntos são não-linearmente separáveis. A modelagem do problema apresentada neste trabalho considera ambos os casos. Dado dois conjuntos de dados linearmente separáveis, é denominada de margem a distância entre os pontos, de classes distintas, que estão mais próximos entre si. Sob a ótica de otimização, a margem pode ser descrita como a distância entre a casca convexa de dois conjuntos de dados. 3 MODELAGEM UTILIZANDO TEORIA DE OTIMIZAÇÃO CONVEXA { w T x k + b +1 se y k = +1 w T x k + b 1 se y k = 1 Esta desigualdade pode ser combinada é uma única expressão (3) y k [w T x k + b] 1, k = 1,..., N. (4) Modelagem do problema de otimização Para a formulação do problema devemos definir, em termos formais, a margem do classificador. Considerando pontos sobre as retas descritas pelas equações (3) (vetores suporte), e denotando-as como H 1 : w T x + b = +1 e H 2 : w T x+b = 1, como mostra a figura 3; e a normal w, podemos calcular a distância perpendicular de cada reta, H 1 e H 2 até a origem, que é dada por 1 b / w e 1 b / w respectivamente. Uma vez que a distância de H 1 e H 2, em relação ao hiperplano ótimo são iguais, isto é, d H1 = d H2 = 1/ w, assim a margem é 2/ w. Portanto deseja-se maximizar a margem, o que é equivalente a minimizar w 2, sujeito as restrições da Eq. (4) (Burges, 1998). Em problemas linearmente separáveis, possivelmente existirão diversos hiperplanos separadores que dissociam os dados totalmente. A figura 2 ilustra um exemplo de dados no espaço de duas dimensões. Figura 3: Vetores suporte do classificador linear. Figura 2: Problema onde hiperplano não é único. A formulação do SVM é feita dentro do contexto de teoria de otimização convexa (Suykens et al., 2002). Em geral a metodologia é iniciada formulando o problema primal como um problema de otimização restrita, posteriormente obtém- 2

3 se a função Lagrangeana, então tome as condições de otimalidade e finalmente formule e resolva o problema dual no espaço dos multiplicadores de Lagrange. O problema primal em w é formulado como segue: (P) minimizar 1 2 wt w sujeito a y k [w T x k + b] 1 k = 1,..., N. A Langrageana deste problema é minimizar 1 y k y l x T k x l α k α l + 2 k,l=1 (D) sujeito a α k y k = 0 α k 0 k = 1,..., N. As variáveis com (*) denotam valores ótimos. A solução do problema dual, αk, é agora utilizado para obter o vetor normal ótimo (w ), resultando no seguinte classificador α k L(w, b; α) = 1 2 wt w + α k (y k [w T x k + b] 1) (5) onde α k é o multiplicador de Lagrange associado a restrição referente ao dado de entrada k, sendo que α k 0 k, k = 1,..., N. A resolução do problema primal pode ser obtido pela resolução do problema dual a ele associado, maximizando o ínfimo da Lagrangeana. A minimização da Lagrangeana é um problema de programação quadrática convexa (Burges, 1998), com a função objetivo convexa e os pontos que satisfazem as restrições formam um conjunto convexo, dado que N restrições lineares definem a intersecção de N conjuntos convexos que por sua vez é um conjunto convexo. Assim é possível afirmar que minimizar o problema primal é equivalente a maximizar o problema dual a ele associado (Burges, 1998). O problema dual associado, em relação a α, é dado por (D) maximizar inf L(w, b; α) w,b f(x) = sign[ αky k x T k x + b ] (7) onde sign(x) é a função sinal definida pela Eq. 8. { +1 se w T x k + b > 0 1 se w T x k + b < 0 O valor de b pode ser obtido através das condições de complementariedade de Karush-Kuhn-Tucker (KKT) Eq. (6e), escolhendo uma restrição com α k 0, e calculando b. Outra maneira de obter b é através do cálculo da média da distância entre os vetores suporte, já que b é o deslocamento do hiperplano em relação a origem, e que o hiperplano estará no ponto médio entre os vetores suporte. Assim b = 1 2 (8) ( (w T x H1 ) + (w T x H2 ) ) (9) onde x H1 e x H2 são os vetores suporte de cada classe. De acordo com as condições de KKT, os valores de α k devem satisfazer a equação 6e, assim somente os pontos x k que satisfazem Para resolução do ínfimo da Lagrangeana um problema de minimização deve ser resolvido L N w = 0 w = α k y k x k N L b = 0 α k y k = 0 (6a) (6b) y k [w T x k + b] 1 0, k = 1,..., N (6c) α k 0, k (6d) α k {y k [w T x k + b] 1} = 0 k (6e) com isso podemos formular o problema dual, em relação aos multiplicadores de Lagrange α k, sujeito as restrições (6b) e (6d) y k (w T x k + b ) = 1 (10) terão multiplicadores de Lagrange diferentes de zero, que são os vetores suporte, pontos sobre as retas H 1 e H 2, mostrado na figura 3. Assim o hiperplano ótimo é encontrado apenas utilizando os vetores suporte, que formam um conjunto pequeno de dados. Algumas interessantes propriedades do problema dual são identificadas por (Suykens et al., 2002): Solução global e única: A matriz relacionada com o termo quadrático em α é definida positiva ou semi-definida positiva. No caso da matriz ser definida positiva a solução é global, dado o problema quadrático convexo, e única. Quando a matriz é semidefinida positiva (autovalores associados podem ser zero), a solução é global mas não necessariamente única. 3

4 No problema dual, o tamanho do vetor solução α cresce com o aumento do número de dados N, enquanto que no problema primal o tamanho de w é independente da quantidade de dados. Portanto, quando um grande conjunto de dados estão disponíveis, pode ser vantajoso resolver o problema primal, mas quando os dados forem de alta dimensionalidade é melhor resolver o problema dual. Problemas com margem ruidosas Na maioria dos problemas reais os dados são nãolinearmente separáveis, ou seja, há uma região de intersecção dos dados de classes distintas. Nesta situação deve-se tolerar algumas classificações incorretas (Suykens et al., 2002). A extensão das SVM s lineares para o caso de margem ruidosas foi desenvolvida por (Cortes and Vapnik, 1995), que adicionou algumas variáveis de folga (ξ) na formulação do problema. O problema primal é formulado em relação a w e ξ (P) minimizar 1 2 wt w + C sujeito a y k [w T x k + b] 1 k = 1,..., N. ξ k 0 k = 1,..., N. A constante C é um termo de regularização que impõe um peso à minimização dos erros dos dados de entrada (Lima, 2002). O problema dual associado é ξ k Além disso, geralmente o espaço H possui dimensão infinita, o que dificulta trabalhar diretamente com a função de mapeamento (Burges, 1998). Mercer (Mercer, 1909) demonstrou um teorema que define os produtos internos no espaço H. Teorema 1 A forma geral do produto interno no espaço H é definida pela função simétrica e definida positiva K(x, y), que satisfaz a condição K(x, y)φ(x)φ(y)dxdy 0, (12) para todas as funções Φ(x i ) e Φ(x j ) que satisfazem Φ 2 (x)dx (13) A partir disto, a obtenção do hiperplano ótimo de separação é realizado como segue : f(x) = sign[ αky k K(x i, x j ) + b] (14) Com diferentes funções kernel é possível construir diferentes classificadores com arbitrários tipos de superfície de decisão. Algumas funções kernel mais utilizadas são: (D) minimizar 1 y k y l x T k x l α k α l + 2 k,l=1 sujeito a α k y k = 0 0 α k c k = 1,..., N. 3.2 SVM s Não-Lineares A extensão da SVM linear para o caso de dados nãolinearmente separáveis foi desenvolvido por (Vapnik, 1995; Vapnik, 1998), com a introdução das funções de mapeamento dos dados de entrada em um espaço de alta dimensionalidade. Um hiperplano separador linear é então construído neste espaço de alta dimensionalidade (H), chamado de espaço de características ou ainda espaço de Hilbert. α k Φ : R d H (11) Na obtenção do hiperplano ótimo (7) é utilizado o cálculo do produto interno. No espaço de características temos Φ(x i ) Φ(x j ). Portanto utilizaremos uma função K, denominada de função kernel, tal que K(x i, x j ) = Φ(x i ) Φ(x j ). Utilizando a função kernel, não haverá a necessidade de conhecer explicitamente a função de mapeamento Φ. K(x, y) = (x y), kernel linear (15a) K(x, y) = (x y + 1) p, kernel polinomial (15b) } x y 2 K(x, y) = exp { 2σ 2, kernel RBF (15c) Uma discussão sobre o uso e valores dos parâmetros de várias funções kernel é apresentada em (Lima, 2002). As SVM s não-lineares podem ser estendidas a presença de margens ruidosas, adicionando variáveis de folga. 3.3 Métodos de resolução A escolha do método de resolução dos problemas de otimização quadrática presentes no modelo, dependerá basicamente da dimensionalidade e da quantidade de dados disponíveis. Quando o número de dados de treinamento for muito pequeno o problema pode ser resolvido analiticamente, pois haverão poucas restrições a ser consideradas. Contudo, na maioria dos problemas reais o volume de dados é grande, não sendo factíveis de resolvê-los analiticamente, para estes casos métodos numéricos são indicados. Para problemas de porte médio, pacotes de otimização de propósito geral que resolvam problemas de programação quadrática convexa com restrições lineares são suficientes. 4

5 Já para problemas de larga escala, métodos mais robustos são necessários. Um dado problema de otimização com restrições de igualdade pode ser resolvido em um único passo utilizando o método de Newton, ou em no máximo n passos utilizando método do gradiente projetado ascendente, onde n é o número de dados do problema (Burges, 1998). Ainda outros métodos podem ser utilizados, como a classe de métodos de projeção e de pontos interiores. Além do método de região de confiança, que é implementado na toolbox de otimização do MATLAB. Lembrando que em todos os algoritmos somente as partes essencias da Hessiana (colunas com α 0, os vetores suporte) devem ser considerados, no entanto alguns algoritmos precisam calcular a Hessiana por completo. Uma boa maneira de verificar se o algoritmo esta funcionando corretamente é verificar se as soluções satisfazem as condições KKT (Eq. 6a), para o problema primal, uma vez que essas soluções são necessárias e suficientes para que a solução seja ótima (Burges, 1998). 4 ESTUDO DE CASO Com o objetivo de analisar o desempenho da SVM, foi aplicado em um problema real de domínio médico, cuja tarefa é a identificação de pacientes normais ou com DPOC (Doença Pulmonar Obstrutiva Crônica), considerando cinco medidas fisiológicas em percentagem, que são elas: Capacidade Vital Forçada (CVF), Volume Expiratório Forçado no Primeiro Segundo (VEF1), Pico de Fluxo Expiratório (PFE), Fluxo Expiratório Forçado Médio (FEF25-75%) e Ventilação Voluntária Máxima (VVM). Estas variáveis expressam a relação percentual do valor obtido pelo valor normal esperado para cada padrão de indivíduo (considerando idade e sexo). Os dados foram obtidos do Laboratório de Fisioterapia Pulmonar da Universidade Estadual de Londrina. Foram utilizados exames de 222 pacientes, dos quais 142 são normais e 80 já haviam sido diagnosticados com DPOC. O software de simulação é uma adaptação do código de Anton Schwaighofer da Microsoft Research, disponível em software.html sob a licença GPL versão 2. O software é um conjunto de scripts em MATLAB e que utiliza a toolbox de otimização do MATLAB 1, para a resolução do problema dual das SVM s não-lineares. Para a resolução do problema quadrático convexo, foi utilizada a função quadprog da toolbox de otimização do MATLAB. De acordo com (Toolbox, n.d.) esta função implementa o método de regiões de confiança, do inglês trust region method (Byrd et al., 1987). Um módulo de validação cruzada do tipo k-fold (Kohavi, 1995) foi implementado. O conjunto total de dados foi dividido em 10 (10-fold) subconjuntos, 9 para treinamento e 1 para teste, sendo que o subconjunto de teste é iterado entre os 10 subconjuntos, o restante é concatenado e forma o conjunto de treinamento. 1 C Kernel RBF Polinomial Linear % % % % % % % % % % % % Tabela 1: Tabela de percentagem de predições corretas de diferentes classificadores. Todos os testes foram realizados em computador Pentium Dual Core 2.27 GHz com 2Gbytes memória RAM, sobre a plataforma Microsoft Windows XP Service Pack 3. 5 ANÁLISE DOS RESULTADOS Diferentes funções kernel foram utilizadas, com diferentes parâmetros de configuração. Para os parâmetros σ 2 e p, dos kernels RBF e polinomial respectivamente, foi utilizado valor 8 para ambos, este valor foi obtido empiricamente. A tabela 5 mostra os resultados obtidos. Lembrando que o parâmetro C é utilizado pelas variáveis de folga do problema dual no caso de margens ruidosas. Com base na tabela observa-se que todos os classificadores alcançaram bons desempenhos no problema tratado. Os diferentes valores de C mostraram que os classificadores são sensíveis as alterações deste parâmetro. A determinação de um bom valor para o parâmetro C geralmente é feita por tentativa e erro, calculando as taxas de predições corretas de classificadores com diferentes valores do parâmetro e aquele que tiver melhor desempenho é escolhido. Observa-se também que classificadores com funções kernel RBF e Polinomial, são menos suscetíveis as alterações da constante C, o que é um ponto a ser considerado na escolha de um classificador, pois fica menos dependende a forma como C é escolhido. Análise dos Gráficos de ROC Gráficos de ROC (Receiver Operating Characteristics) podem ser empregados na análise de desempenho de classificadores. Para isso são utilizadas: a taxa de True Positive (TP), valores positivos (+1) classificados como positivos e a taxa de False Positive (FP), valores negativos (-1) classificados como positivos. Para uma introdução sobre gráficos de ROC veja (Fawcett, 2006). O gráfico de ROC identifica uma relação entre a taxa FP e TP, sendo que quanto mais a noroeste do gráfico (FP é baixa ou TP é alta, ou ambos) estiver esta relação (FPxTP) de um classificador, melhor o é. Três classificadores com diferentes funções kernel foram analisados, utilizando C=100 (linha 4 da tabela 5), e o gráfico de ROC foi gerado, o qual é mostrado na figura 4. Condizente com os valores da tabela 5, o gráfico mostra que os classificadores possuem praticamente o mesmo poder classificação, pois estão bem próximos uns aos outros. Estes resultados indicam que os classificadores são conservadores, 5

6 REFERÊNCIAS Boyd, S. and Vandenberghe, L. (2004). Convex Optimization, Cambridge University Press. Burges, C. J. (1998). A tutorial on support vector machines for pattern recognition, Data Mining and Knowledge Discovery 2: Byrd, R. H., Schnabel, R. B. and Shultz, G. A. (1987). A trust region algorithm for nonlinearly constrained optimization, SIAM Journal on Numerical Analysis 24(5): Clancey, W. J. (1984). Classification problem solving, Association for the Advanced of Artificial Intelligence. Figura 4: Gráficos de ROC para os classificadores obtidos. pois só aceitam o resultado como positivo quando ocorre uma forte evidência. Lembrando ainda que o ponto (0,1) representa uma classificação perfeita. Sendo que todos estão bem próximo a este ponto. Uma outra análise possível seria a plotagem dos pontos da relação (FPxTP) dos classificadores, para cada valor de C testado, calculando a área inferior a curva que cada conjunto de pontos gera. Esta área informa o poder médio de classificação, considerando diferentes valores para C. 6 DISCUSSÕES E CONCLUSÃO Neste trabalho foi apresentada uma técnica de classificação de dados que utiliza a teoria de otimização convexa como ferramenta para identificação de superfícies de decisão, as Máquinas de Vetores Suporte. Os resultados mostram que as SVM s obtiveram bons resultados mesmo com diferentes funções kernel, com percentagem de predições corretas acima de 90%. Fazendo uma ressalva sobre a sensibilidade da SVM em relação ao parâmetro C. O gráfico de ROC apresentou ainda uma comparação entre os classificadores, buscando uma exploração maior da estrutura interna dos mesmos. Apesar dos bons resultados obtidos no estudo de caso abordado (seção 4), direções na literatura apontam que tal técnica é indicada para problemas de alta dimensionalidade dos dados, como processamento de imagem, classificação textuais e de dados de bioinformática. Considerando que neste estudo de caso a dimensionalidade dos dados é igual a 5, que é relativemente baixa. Portanto, a SVM talvez não seja a técnica mais apropriada para este tipo dados. Sendo cabível a utilização de outra técnica como as Redes Neurais (Gonçalves and Camargo-Brunetto, 2008). Uma possível melhoria ao SVM implementado seria a introdução de alguma heurística para determinar os parâmetros ideais das funções kernel, podendo assim melhorar o desempenho dos classificadores. Cortes, C. and Vapnik, V. (1995). Support-vector networks, Machine Learning, pp David, A. and Lerner, B. (2005). Support vector machinebased image classification for genetic syndrome diagnosis, Pattern Recognition Letters 26(8): Fawcett, T. (2006). An introduction to roc analysis, Pattern Recognition Letters 27(8): Gonçalves, A. R. and Camargo-Brunetto, M. A. O. (2008). Um novo modelo híbrido baseado em otimização por colônia de formigas e redes neurais para identificação de indivíduos com DPOC, Anais do XI Congresso Brasileiro de Informática em Saúde. Kohavi, R. (1995). A study of cross-validation and bootstrap for accuracy estimation and model selection, Proceedings of the Fourteenth International Joint Conference on Artificial Intelligence, Morgan Kaufmann, pp Lima, C. A. d. M. (2002). Comitê de Máquinas: Uma Abordagem Unificada Empregando Máquinas de Vetores- Suporte, PhD thesis, Faculdade de Engenharia Elétrica e de Computação, Unicamp. Mercer, J. (1909). Functions of positive and negative type, and their connection with the theory of integral equations, Philosophical Transactions of the Royal Society of London 209: Russell, S. J. and Norvig, P. (1995). Artificial Intelligence: a modern approach, Prentice Hall, New Jersey. Suykens, J. A., Gestel, T. V., Brabanter, J. D., Moor, B. D. and Vandewalle, J. (2002). Least Squares Support Vector Machines, World Scientific. Toolbox, M. O. (n.d.). Documentação do toolbox de otimização do matlab, access/helpdesk/help/toolbox/optim/ index.html. Vapnik, V. (1995). The Nature of Statistical Learning Theory, Springer-Verlang, New York. Vapnik, V. (1998). Statistical Learning Theory, John Wiley & Sons, New York. 6

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS MÁQUINA DE VETOR DE SUPORTE (SUPPORT VECTOR MACHINES) Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Introdução Poderosa metodologia para resolver problemas de aprendizagem

Leia mais

SUPPORT VECTOR MACHINE - SVM

SUPPORT VECTOR MACHINE - SVM SUPPORT VECTOR MACHINE - SVM Definição 2 Máquinas de Vetores Suporte (Support Vector Machines - SVMs) Proposto em 79 por Vladimir Vapnik Um dos mais importantes acontecimentos na área de reconhecimento

Leia mais

Máquinas de Vetores de Suporte

Máquinas de Vetores de Suporte Máquinas de Vetores de Suporte Marcelo K. Albertini 14 de Setembro de 2015 2/22 Máquinas de Vetores de Suporte Support Vector Machines (SVM) O que é? Perceptron revisitado Kernels (núcleos) Otimização

Leia mais

Adriana da Costa F. Chaves. Máquina de Vetor Suporte (SVM) para Classificação Binária 2

Adriana da Costa F. Chaves. Máquina de Vetor Suporte (SVM) para Classificação Binária 2 Máquina de Vetor Suporte (SVM) para Classificação Binária Adriana da Costa F. Chaves Conteúdo da Apresentação Introdução Máquinas de Vetor Suporte para Classificação binária Exemplos Conclusão Máquina

Leia mais

Máquinas de suporte vetorial e sua aplicação na detecção de spam

Máquinas de suporte vetorial e sua aplicação na detecção de spam e sua aplicação na detecção de spam Orientador: Paulo J. S. Silva (IME-USP) Universidade de São Paulo Instituto de Matemática e Estatística Departamento de Ciência da Computação MAC499 Trabalho de Formatura

Leia mais

Redes Neurais (Inteligência Artificial)

Redes Neurais (Inteligência Artificial) Redes Neurais (Inteligência Artificial) Aula 13 Support Vector Machines (SVM) Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest

Leia mais

Classificadores Lineares

Classificadores Lineares Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Classificadores Lineares David Menotti www.inf.ufpr.br/menotti/ci171-182 Hoje Funções Discriminantes Lineares Perceptron Support

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 14 Support Vector Machines (SVM) 2016.1 Prof. Augusto Baffa Formas de Aprendizado Aprendizado Supervisionado Árvores de Decisão. K-Nearest

Leia mais

Máquinas de Vetores de Suporte - Support Vector Machines (SVM) Germano Vasconcelos

Máquinas de Vetores de Suporte - Support Vector Machines (SVM) Germano Vasconcelos Máquinas de Vetores de Suporte - Support Vector Machines (SVM) Germano Vasconcelos Introdução * Método supervisionado de aprendizagem de máquina * Empregado em classificação de dados Classificação binária

Leia mais

Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law

Uma Introdução a SVM Support Vector Machines. Obs: Baseada nos slides de Martin Law Uma Introdução a SVM Support Vector Machines Obs: Baseada nos slides de Martin Law Sumário Historia das SVMs Duas classes, linearmente separáveis O que é um bom limite para a decisão? Duas classes, não

Leia mais

Máquinas de Vetores de Suporte Aplicadas à Classificação de Defeitos em Couro Bovino

Máquinas de Vetores de Suporte Aplicadas à Classificação de Defeitos em Couro Bovino Máquinas de Vetores de Suporte Aplicadas à Classificação de Defeitos em Couro Bovino Ricardo Cezar Bonfim Rodrigues 24 de abril de 2006 1 Antecedentes e Justificativa Hoje, em diversos processos industriais,

Leia mais

Thiago Zavaschi Orientador: Alessandro Koerich Programa de Pós-Graduação em Informática (PPGIa) Pontifícia Universidade

Thiago Zavaschi Orientador: Alessandro Koerich Programa de Pós-Graduação em Informática (PPGIa) Pontifícia Universidade Thiago Zavaschi (zavaschi@ppgia.pucpr.br) Orientador: Alessandro Koerich Programa de Pós-Graduação em Informática (PPGIa) Pontifícia Universidade Católica do Paraná (PUC-PR) Conceitos relacionados a classificação

Leia mais

DEPARTAMENTO DE ENGENHARIA MECÂNICA

DEPARTAMENTO DE ENGENHARIA MECÂNICA DEPARTAMENTO DE ENGENHARIA MECÂNICA Otimização: Algoritmos e Aplicações na Engenharia Mecânica ENG1786 & MEC2403 Ivan Menezes 2018-2 1 EMENTA 1. Introdução 1.1 Definições Básicas 1.2 Classificação dos

Leia mais

Aprendizado de Máquinas. Classificadores Lineares

Aprendizado de Máquinas. Classificadores Lineares Universidade Federal do Paraná (UFPR) Departamento de Informática Aprendizado de Máquinas Classificadores Lineares David Menotti, Ph.D. web.inf.ufpr.br/menotti Objetivos Introduzir o conceito de classificação

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Plano de Aula Aprendizagem de Máquina Bagging,, Support Vector Machines e Combinação de Classificadores Alessandro L. Koerich Uma visão geral de diversos tópicos relacionados à Aprendizagem de Máquina:

Leia mais

Máquina de Vetores Suporte

Máquina de Vetores Suporte Máquina de Vetores Suporte André Ricardo Gonçalves andreric [at] dca.fee.unicamp.br www.dca.fee.unicamp.br/~andreric Sumário 1 Máquina de Vetores Suporte p. 3 1.1 Teoria da Aprendizado Estatístico.......................

Leia mais

Automatização do processo de determinação do número de ciclos de treinamento de uma Rede Neural Artificial

Automatização do processo de determinação do número de ciclos de treinamento de uma Rede Neural Artificial Automatização do processo de determinação do número de ciclos de treinamento de uma Rede Neural Artificial André Ricardo Gonçalves; Maria Angélica de Oliveira Camargo Brunetto Laboratório Protem Departamento

Leia mais

6. QUADRIMESTRE IDEAL 7. NÍVEL Graduação 8. Nº. MÁXIMO DE ALUNOS POR TURMA

6. QUADRIMESTRE IDEAL 7. NÍVEL Graduação 8. Nº. MÁXIMO DE ALUNOS POR TURMA Universidade Federal do ABC Rua Santa Adélia, 166 - Bairro Bangu - Santo André - SP - Brasil CEP 09.210-170 - Telefone/Fax: +55 11 4996-3166 1. CÓDIGO E NOME DA DISCIPLINA MC5004 - APRENDIZADO DE MÁQUINA

Leia mais

Análise teórica de Máquinas de Vetores Suporte

Análise teórica de Máquinas de Vetores Suporte Análise teórica de Máquinas de Vetores Suporte Evelin Heringer Manoel Krulikovski Orientadores: Profa. Dra. Mael Sachine Prof. Dr. Ademir Alves Ribeiro Programa de Pós-Graduação em Matemática Universidade

Leia mais

Árvore Binária SVM Otimizada na Classificação de Imagem Hiperespectral. Diego Bonesso 1 Vitor Haertel 1

Árvore Binária SVM Otimizada na Classificação de Imagem Hiperespectral. Diego Bonesso 1 Vitor Haertel 1 Árvore Binária SVM Otimizada na Classificação de Imagem Hiperespectral. Diego Bonesso 1 Vitor Haertel 1 1 Universidade Federal do Rio Grande do Sul - UFRGS/PPGSR Caixa Postal 15044-91501-970 Porto Alegre

Leia mais

Boas Maneiras em Aprendizado de Máquinas

Boas Maneiras em Aprendizado de Máquinas Universidade Federal do Paraná (UFPR) Bacharelado em Informática Biomédica Boas Maneiras em Aprendizado de Máquinas David Menotti www.inf.ufpr.br/menotti/ci171-182 Boas Maneiras Agenda Introdução Métricas

Leia mais

Máquinas de Vetores Suporte em Otimização Sem Derivadas

Máquinas de Vetores Suporte em Otimização Sem Derivadas Proceeding Series of the Brazilian Society of Applied and Computational Mathematics, Vol. 2, N., 204. Trabalho apresentado no CMAC-Sul, Curitiba-PR, 204. Máquinas de Vetores Suporte em Otimização Sem Derivadas

Leia mais

IMPLEMENTAÇÃO DO FREx_SVM: MÁQUINAS DE VETOR SUPORTE PARA CLASSIFICAÇÃO EM MÚLTIPLAS CLASSES

IMPLEMENTAÇÃO DO FREx_SVM: MÁQUINAS DE VETOR SUPORTE PARA CLASSIFICAÇÃO EM MÚLTIPLAS CLASSES IMPLEMENTAÇÃO DO FREx_SVM: MÁQUINAS DE VETOR SUPORTE PARA CLASSIFICAÇÃO EM MÚLTIPLAS CLASSES Aluno: Aarão Irving Manhães Marins Orientador: Marley Maria Bernardes Rebuzzi Vellasco Introdução A máquina

Leia mais

Classificação de Padrões por Blocos em Imagens Não Segmentadas de Tomografia Computadorizada

Classificação de Padrões por Blocos em Imagens Não Segmentadas de Tomografia Computadorizada Classificação de Padrões por Blocos em Imagens Não Segmentadas de Tomografia Computadorizada Aline Dartora Prof. David Menotti Departamento de Informática Universidade Federal do Paraná (UFPR) 23 de outubro

Leia mais

ALGORITMO SUBIDA DA ENCOSTA PARA OTIMIZAÇÃO DE PARÂMETROS DE MÁQUINAS DE VETORES SUPORTES

ALGORITMO SUBIDA DA ENCOSTA PARA OTIMIZAÇÃO DE PARÂMETROS DE MÁQUINAS DE VETORES SUPORTES ALGORITMO SUBIDA DA ENCOSTA PARA OTIMIZAÇÃO DE PARÂMETROS DE MÁQUINAS DE VETORES SUPORTES Francisco Carlos Monteiro Souza, Ricardo B. C. Prudêncio Centro de Informática Universidade Federal de Pernambuco

Leia mais

Inteligência Artificial

Inteligência Artificial Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem Outras Técnicas Prof. a Joseana Macêdo Fechine Régis

Leia mais

Programação Matemática

Programação Matemática Programação Matemática Docentes: Ana Paula, Franklina e Maristela Instituto de Ciências Matemáticas e de Computação - ICMC Universidade de São Paulo USP (Material Elaborado por Aline Leão modificado por

Leia mais

Otimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana

Otimização Linear. Profª : Adriana Departamento de Matemática. wwwp.fc.unesp.br/~adriana Otimização Linear Profª : Adriana Departamento de Matemática adriana@fc.unesp.br wwwp.fc.unesp.br/~adriana Forma geral de um problema Em vários problemas que formulamos, obtivemos: Um objetivo de otimização

Leia mais

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright.

Marina Andretta. 17 de setembro de Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Métodos de regiões de confiança Marina Andretta ICMC-USP 17 de setembro de 2014 Baseado no livro Numerical Optimization, de J. Nocedal e S. J. Wright. Marina Andretta (ICMC-USP) sme0212 - Otimização não-linear

Leia mais

4 Estado da Arte do Kernel PCA

4 Estado da Arte do Kernel PCA 4 Estado da Arte do Kernel PCA Conforme apresentado no Capítulo 1, o Kernel PCA é uma técnica promissora para auxiliar no processo de ajuste de histórico, devido a sua capacidade de extrair parte da estatística

Leia mais

Métodos de Pesquisa Operacional

Métodos de Pesquisa Operacional Métodos de Pesquisa Operacional Programação Linear é a parte da Pesquisa Operacional que trata da modelagem e resolução de problemas formulados com funções lineares. Programação Linear } Métodos de Resolução

Leia mais

OPTIMIZAÇÃO NÃO LINEAR EM REDES

OPTIMIZAÇÃO NÃO LINEAR EM REDES OPTIMIZAÇÃO NÃO LINEAR EM REDES Luis Ernesto Torres Guardia Departamento de Engenharia de Produção Universidade Federal Fluminense Rua Passo da Pátria 156, São Domingos 24210-240, Niterói, R.J., Brasil

Leia mais

Modelagem Matemática de Problemas de Programação Linear

Modelagem Matemática de Problemas de Programação Linear Capítulo 1 Modelagem Matemática de Problemas de Programação Linear 1.1. Introdução Neste Capítulo analisamos brevemente a estratégia usada para encontrar a modelagem matemática de um problema de programação

Leia mais

Estabilidade e Estabilização de Sistemas Lineares via

Estabilidade e Estabilização de Sistemas Lineares via Trabalho apresentado no DINCN, Natal - RN, 2015 Proceeding Series of the Brazilian Society of Computational and Applied Mathematics Estabilidade e Estabilização de Sistemas Lineares via Programação Semidefinida

Leia mais

ENG-418 OTIMIZAÇÃO DE PROCESSOS QUÍMICOS

ENG-418 OTIMIZAÇÃO DE PROCESSOS QUÍMICOS Universidade Federal da Bahia - UFBA Escola Politécnica EP Departamento de Engenharia Química - DEQ Laboratório de Controle e Otimização de Processos Industriais - LACOI Disciplina: Otimização de Processos

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 22 Redes Neurais Edirlei Soares de Lima Formas de Aprendizado Aprendizado Supervisionado Árvores de decisão. K-Nearest Neighbor (KNN). Support

Leia mais

CURSO DE MESTRADO EM Construções Metálicas

CURSO DE MESTRADO EM Construções Metálicas CURSO DE MESTRADO EM Construções Metálicas DEPARTAMENTO DE ENGENHARIA CIVIL - ESCOLA DE MINAS UNIVERSIDADE FEDERAL DE OURO PRETO Disciplina: Otimização Estrutural I Carga Horária: 45 Código: CIV 733 Responsável:

Leia mais

Aplicação do Método de Barreira Logarítmica na Resolução de um Problema de Programação Linear.

Aplicação do Método de Barreira Logarítmica na Resolução de um Problema de Programação Linear. Aplicação do Método de Barreira Logarítmica na Resolução de um Problema de Programação Linear. Rodrigo Romais (FCSGN) 1 r.romais@gmail.com Resumo: Métodos numéricos de Ponto Interior são extremamente úteis

Leia mais

3 Aprendizado por reforço

3 Aprendizado por reforço 3 Aprendizado por reforço Aprendizado por reforço é um ramo estudado em estatística, psicologia, neurociência e ciência da computação. Atraiu o interesse de pesquisadores ligados a aprendizado de máquina

Leia mais

Disciplina que estuda métodos analíticos para auxiliar na tomada de decisões.

Disciplina que estuda métodos analíticos para auxiliar na tomada de decisões. Edgard Jamhour Disciplina que estuda métodos analíticos para auxiliar na tomada de decisões. Procura encontrar soluções ótimas ou próximo de ótimas para problemas de engenharia industrial, economia e finanças,

Leia mais

Métodos Numéricos. MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005

Métodos Numéricos. MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005 Métodos Numéricos MEI - Logística e distribuição Optimização não linear com restrições de igualdade 2004/2005 Métodos Numéricos - MEI 1 Apresentação - Docentes Aulas teóricas: A. Ismael F. Vaz - aivaz@dps.uminho.pt

Leia mais

Aprendizado de Máquina. Combinando Classificadores

Aprendizado de Máquina. Combinando Classificadores Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquina Combinando Classificadores David Menotti, Ph.D. web.inf.ufpr.br/menotti Introdução O uso de vários classificadores

Leia mais

3. Resolução de problemas por meio de busca

3. Resolução de problemas por meio de busca Inteligência Artificial - IBM1024 3. Resolução de problemas por meio de busca Prof. Renato Tinós Local: Depto. de Computação e Matemática (FFCLRP/USP) 1 Principais Tópicos 3. Resolução de problemas por

Leia mais

Classificação Linear. André Tavares da Silva.

Classificação Linear. André Tavares da Silva. Classificação Linear André Tavares da Silva andre.silva@udesc.br Roteiro Introduzir os o conceito de classificação linear. LDA (Linear Discriminant Analysis) Funções Discriminantes Lineares Perceptron

Leia mais

Aplicação de Histograma de Gradientes Orientados para detecção de hidrômetros em imagens de fundo complexo

Aplicação de Histograma de Gradientes Orientados para detecção de hidrômetros em imagens de fundo complexo Aplicação de Histograma de Gradientes Orientados para detecção de hidrômetros em imagens de fundo complexo Juliana Patrícia Detroz Professor: André Tavares da Silva Universidade do Estado de Santa Catarina

Leia mais

Rede RBF (Radial Basis Function)

Rede RBF (Radial Basis Function) Rede RBF (Radial Basis Function) André Tavares da Silva andre.silva@udesc.br Roteiro Introdução à rede neural artificial RBF Teorema de Cover da separabilidade de padrões RBF x MLP RBF Função de ativação

Leia mais

MINERAÇÃO DE DADOS. Thiago Marzagão 1 MÁQUINAS DE SUPORTE VETORIAL. 1 Thiago Marzagão (UnB) MINERAÇÃO DE DADOS 1 / 27

MINERAÇÃO DE DADOS. Thiago Marzagão 1 MÁQUINAS DE SUPORTE VETORIAL. 1 Thiago Marzagão (UnB) MINERAÇÃO DE DADOS 1 / 27 MINERAÇÃO DE DADOS Thiago Marzagão 1 1 marzagao.1@osu.edu MÁQUINAS DE SUPORTE VETORIAL Thiago Marzagão (UnB) MINERAÇÃO DE DADOS 1 / 27 máquinas de suporte vetorial (Livro-texto faz distinção entre classificador

Leia mais

Análise Convexa. 1. Conjuntos convexos 1.1. Casca convexa, ponto extremo, cone. 2. Hiperplanos: suporte, separador, teorema da separação

Análise Convexa. 1. Conjuntos convexos 1.1. Casca convexa, ponto extremo, cone. 2. Hiperplanos: suporte, separador, teorema da separação Análise Convexa 1. Conjuntos convexos 1.1. Casca convexa, ponto extremo, cone 2. Hiperplanos: suporte, separador, teorema da separação 3. Funções convexas 4. Teoremas de funções convexas 5. Conjunto poliedral

Leia mais

SEMINÁRIO DOS ARTIGOS:

SEMINÁRIO DOS ARTIGOS: SEMINÁRIO DOS ARTIGOS: Text Detection and Character Recognition in Scene Images with Unsupervised Feature Learning End-to-End Text Recognition with Convolutional Neural Networks Fernanda Maria Sirlene

Leia mais

3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução

3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução 3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução Como já mencionado na seção 1.1, as SVMs geram, da mesma forma que redes neurais (RN), um "modelo caixa preta" de

Leia mais

Kevin Martins Araújo UTILIZAÇÃO DO ALGORITMO DE MÁQUINA DE VETORES DE SUPORTE (SVM) PARA PREDIÇÃO DE DADOS CLIMÁTICOS

Kevin Martins Araújo UTILIZAÇÃO DO ALGORITMO DE MÁQUINA DE VETORES DE SUPORTE (SVM) PARA PREDIÇÃO DE DADOS CLIMÁTICOS Kevin Martins Araújo UTILIZAÇÃO DO ALGORITMO DE MÁQUINA DE VETORES DE SUPORTE (SVM) PARA PREDIÇÃO DE DADOS CLIMÁTICOS Palmas - TO 2015 Kevin Martins Araújo UTILIZAÇÃO DO ALGORITMO DE MÁQUINA DE VETORES

Leia mais

Método Preditor-Corretor Aplicado ao Fluxo de Carga Ótimo com Correções Não-lineares nas Condições de Otimalidade

Método Preditor-Corretor Aplicado ao Fluxo de Carga Ótimo com Correções Não-lineares nas Condições de Otimalidade Método Preditor-Corretor Aplicado ao Fluxo de Carga Ótimo com Correções Não-lineares nas Condições de Otimalidade Roy Wilhelm Probst Departamento Acadêmico de Matemática UTFPR Curitiba PR E-mail: rwprobst@utfpr.edu.br

Leia mais

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA

MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA MÉTODOS NEWTON E QUASE-NEWTON PARA OTIMIZAÇÃO IRRESTRITA Marlon Luiz Dal Pasquale Junior, UNESPAR/FECILCAM, jr.marlon@hotmail.com Solange Regina dos Santos (OR), UNESPAR/FECILCAM, solaregina@fecilcam.br

Leia mais

INVESTIGAÇÃO OPERACIONAL. Programação Linear. Exercícios. Cap. IV Modelo Dual

INVESTIGAÇÃO OPERACIONAL. Programação Linear. Exercícios. Cap. IV Modelo Dual INVESTIGAÇÃO OPERACIONAL Programação Linear Exercícios Cap. IV Modelo Dual António Carlos Morais da Silva Professor de I.O. i Cap. IV - Modelo Dual - Exercícios IV. Modelo Problema Dual 1. Apresente o

Leia mais

Créditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Desempenho de Classificação. Classificação IV: Avaliação de Classificadores

Créditos. SCC0173 Mineração de Dados Biológicos. Aula de Hoje. Desempenho de Classificação. Classificação IV: Avaliação de Classificadores SCC0173 Mineração de Dados Biológicos Classificação IV: Avaliação de Classificadores Créditos O material a seguir consiste de adaptações e extensões dos originais: gentilmente cedidos pelo rof. André C..

Leia mais

INFORMAÇÕES TRADE-OFF EM PROBLEMAS DE OTIMIZAÇÃO MULTIOBJETIVO

INFORMAÇÕES TRADE-OFF EM PROBLEMAS DE OTIMIZAÇÃO MULTIOBJETIVO INFORMAÇÕES TRADE-OFF EM PROBLEMAS DE OTIMIZAÇÃO MULTIOBJETIVO Jesus Ossian da Cunha Silva, Programa de Engenharia de Sistemas e Computação-PESC, COPPE, UFRJ 21941-972, Rio de Janeiro, RJ E-mail: jossian@cos.ufrj.br.

Leia mais

Prof. MSc. David Roza José 1/26

Prof. MSc. David Roza José 1/26 1/26 Mínimos Quadrados Geral e Regressão Não Linear Objetivos: Implementar a regressão polinomial; Implementar regressão múltipla linear; Entender a formulação do modelo linear geral de mínimos quadrados;

Leia mais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais

Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Disciplina: Processamento Estatístico de Sinais (ENGA83) - Aula 03 / Detecção de Sinais Prof. Eduardo Simas (eduardo.simas@ufba.br) Programa de Pós-Graduação em Engenharia Elétrica/PPGEE Universidade Federal

Leia mais

Classificação da cobertura da terra na Amazônia utilizando Imagens Polarimétricas em Banda L e Maquina de Vetores Suporte

Classificação da cobertura da terra na Amazônia utilizando Imagens Polarimétricas em Banda L e Maquina de Vetores Suporte Classificação da cobertura da terra na Amazônia utilizando Imagens Polarimétricas em Banda L e Maquina de Vetores Suporte Rogério Galante Negri Luciano Vieira Dutra Corina da Costa Freitas Graziela Balda

Leia mais

Benemar Alencar de Souza

Benemar Alencar de Souza Benemar Alencar de Souza Métodos de Otimização Aplicados Questões introdutórias O que é otimização? i Por que otimização é importante? Como tratar a otimização i como um problema? Quais objetivos são usuais?

Leia mais

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons

Multi-Layer. Perceptrons. Algoritmos de Aprendizado. Perceptrons. Perceptrons Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Multi-Layer Perceptrons (Back Propagation) Radial Basis Functions (RBFs) Competitive Learning Hopfield Multi-Layer Perceptrons

Leia mais

Descoberta de conhecimento em redes sociais e bases de dados públicas

Descoberta de conhecimento em redes sociais e bases de dados públicas Descoberta de conhecimento em redes sociais e bases de dados públicas Trabalho de Formatura Supervisionado Bacharelado em Ciência da Computação - IME USP Aluna: Fernanda de Camargo Magano Orientadora:

Leia mais

Programação Linear M É T O D O S : E S T A T Í S T I C A E M A T E M Á T I C A A P L I C A D A S D e 1 1 d e m a r ç o a 2 9 d e a b r i l d e

Programação Linear M É T O D O S : E S T A T Í S T I C A E M A T E M Á T I C A A P L I C A D A S D e 1 1 d e m a r ç o a 2 9 d e a b r i l d e Programação Linear A otimização é o processo de encontrar a melhor solução (ou solução ótima) para um problema. Existe um conjunto particular de problemas nos quais é decisivo a aplicação de um procedimento

Leia mais

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão)

( ) Aula de Hoje. Introdução a Sistemas Inteligentes. Modelo RBF (revisão) Modelo RBF (revisão) Introdução a Sistemas Inteligentes ópicos em Redes Neurais III: Redes Neurais RBF ª Parte Prof. Ricardo J. G. B. Campello ICMC / USP Aula de Hoje Revisão de Modelos RBF reinamento de Modelos RBF Estimação

Leia mais

IN Redes Neurais

IN Redes Neurais IN0997 - Redes Neurais Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática - CIn Departamento de Sistemas da Computação aluizioa@cin.ufpe.br Conteúdo Objetivos Quem usa

Leia mais

Regressão Local (LOESS)

Regressão Local (LOESS) Regressão Local (LOESS) Wagner Hugo Bonat 14 de novembro de 2007 1 Regressão Local Regressão Local (Loess) é um método não paramétrico que estima curvas e superfícies através de suavização (smoothing).

Leia mais

Determinação de vícios refrativos oculares utilizando Support Vector Machines

Determinação de vícios refrativos oculares utilizando Support Vector Machines Determinação de vícios refrativos oculares utilizando Support Vector Machines Giampaolo Luiz Libralão, André Ponce de Leon F. de Carvalho, Antonio Valerio Netto, Maria Cristina Ferreira de Oliveira Instituto

Leia mais

Programação Linear: Profa. Silvana Bocanegra UFRPE - DEINFO

Programação Linear: Profa. Silvana Bocanegra UFRPE - DEINFO Programação Linear: Profa. Silvana Bocanegra UFRPE - DEINFO Tipos de Problemas 1. Dada uma variedade de alimentos, escolher uma dieta de menor custo que atenda as necessidades nutricionais de um indivíduo?

Leia mais

Otimização Aplicada à Engenharia de Processos

Otimização Aplicada à Engenharia de Processos Otimização Aplicada à Engenharia de Processos Aula 4: Programação Linear Felipe Campelo http://www.cpdee.ufmg.br/~fcampelo Programa de Pós-Graduação em Engenharia Elétrica Belo Horizonte Março de 2013

Leia mais

Métodos Numéricos. MEI - Logística e distribuição Programação quadrática sequencial 2004/2005. A. Ismael F. Vaz - Departamento de Produção e Sistemas

Métodos Numéricos. MEI - Logística e distribuição Programação quadrática sequencial 2004/2005. A. Ismael F. Vaz - Departamento de Produção e Sistemas Métodos Numéricos MEI - Logística e distribuição Programação quadrática sequencial 2004/2005 Métodos Numéricos - MEI 1 Motivação Considere-se o seguinte exemplo de um problema de minimização com restrições

Leia mais

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy Proceeding Series of the Brazilian Society of pplied and Computational Mathematics, Vol., N., 0. Trabalho apresentado no XXXV CNMC, Natal-RN, 0. Modelagem para previsão/estimação: uma aplicação Neuro-Fuzzy

Leia mais

Cones e raios extremos

Cones e raios extremos Cones e raios extremos Marina Andretta ICMC-USP 7 de novembro de 2016 Baseado no livro Introduction to Linear Optimization, de D. Bertsimas e J. N. Tsitsiklis. Marina Andretta (ICMC-USP) sme0211 - Otimização

Leia mais

Prática 02. Total. Pré-requisitos 2 MTM112. N o

Prática 02. Total. Pré-requisitos 2 MTM112. N o Disciplina Pesquisa Operacional I MINISTÉRIO DA Departamento DEPARTAMENTO DE COMPUTAÇÃO Carga Horária Semanal Pré-requisitos 1 CIC170 Teórica EDUCAÇÃO E CULTURA DIRETORIA DE ENSINO 1 PROGRAMA DE DISCIPLINA

Leia mais

étodos uméricos INTERPOLAÇÃO, EXTRAPOLAÇÃO, APROXIMAÇÃO E AJUSTE DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno

étodos uméricos INTERPOLAÇÃO, EXTRAPOLAÇÃO, APROXIMAÇÃO E AJUSTE DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno étodos uméricos INTERPOLAÇÃO, EXTRAPOLAÇÃO, APROXIMAÇÃO E AJUSTE DE FUNÇÕES Prof. Erivelton Geraldo Nepomuceno PROGRAMA DE PÓS-GRADUAÇÃO EM ENGENHARIA ELÉTRICA UNIVERSIDADE DE JOÃO DEL-REI PRÓ-REITORIA

Leia mais

Otimização Multiobjetivo

Otimização Multiobjetivo Otimização Multiobjetivo Otimização Restrita Prof. Frederico Gadelha Guimarães Lucas S. Batista Eduardo G. Carrano Universidade Federal de Minas Gerais Programa de Pós-Graduação em Engenharia Elétrica,

Leia mais

Aula 12: Programação Inteira

Aula 12: Programação Inteira Aula 12: Programação Inteira Otimização Linear e Inteira Túlio A. M. Toffolo http://www.toffolo.com.br BCC464/PCC174 2018/2 Departamento de Computação UFOP Aula de Hoje 1 Programação Inteira: A Formulação

Leia mais

O método Simplex Aplicado ao Problema de Transporte (PT).

O método Simplex Aplicado ao Problema de Transporte (PT). Prof. Geraldo Nunes Silva (Revisado por Socorro Rangel) Estas notas de aula são Baseadas no livro: Hillier, F. S. e G. J. Lieberman. Introdução à Pesquisa Operacional, Campus, a ed., 9 Agradeço a Professora

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES DE FUNÇÃO DE BASE RADIAL - RBF Prof. Dr. André A. P. Biscaro 1º Semestre de 2017 Funções de Base Global Funções de Base Global são usadas pelas redes BP. Estas funções são definidas como funções

Leia mais

Curso de Data Mining

Curso de Data Mining Curso de Data Mining Sandra de Amo Curvas Roc Uma curva ROC (Receiver Operating Characteristic) é um enfoque gráfico que permite visualizar os trade-offs entre as taxas de positivos verdadeiros e positivos

Leia mais

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid

Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid 1 Um Algoritmo Genético com Aprendizado por Reforço Simples aplicado ao problema do Mundo de Grid Luciana Conceição Dias Campos Resumo Este trabalho consiste da aplicação de um algoritmo genético ao método

Leia mais

PESQUISA OPERACIONAL Introdução. Professor Volmir Wilhelm Professora Mariana Kleina

PESQUISA OPERACIONAL Introdução. Professor Volmir Wilhelm Professora Mariana Kleina PESQUISA OPERACIONAL Introdução Professor Volmir Wilhelm Professora Mariana Kleina PESQUISA OPERACIONAL Ementa Revisão de Álgebra Linear. Modelos de Programação Linear. O Método Simplex. O Problema do

Leia mais

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica

UNIVERSIDADE DO ESTADO DE MATO GROSSO - UNEMAT. Faculdade de Ciências Exatas e Tecnológicas FACET / Sinop Curso de Bacharelado em Engenharia Elétrica REDES NEURAIS ARTIFICIAIS REDE ADALINE e REGRA DELTA Prof. Dr. André A. P. Biscaro 2º Semestre de 2017 Aspectos históricos O ADALINE foi idealizado por Widrow & Hoff em 1960. Sua principal aplicação estava

Leia mais

Método dos gradientes (ou método de máxima descida)

Método dos gradientes (ou método de máxima descida) Método dos gradientes (ou método de máxima descida) Marina Andretta ICMC-USP 14 de setembro de 2010 Marina Andretta (ICMC-USP) sme5720 - Otimização não-linear 14 de setembro de 2010 1 / 16 Método dos gradientes

Leia mais

Graduação em Engenharia Elétrica MÉTODOS DE OTIMIZAÇÃO ENE081. PROF. IVO CHAVES DA SILVA JUNIOR

Graduação em Engenharia Elétrica MÉTODOS DE OTIMIZAÇÃO ENE081. PROF. IVO CHAVES DA SILVA JUNIOR UNIVERSIDADE FEDERAL DE JUIZ DE FORA Graduação em Engenharia Elétrica MÉTODOS DE OTIMIZAÇÃO ENE081 PROF. IVO CHAVES DA SILVA JUNIOR E-mail: ivo.junior@ufjf.edu.br Aula Número: 07 Programação Linear Últimas

Leia mais

Cálculo Numérico. Santos Alberto Enriquez-Remigio FAMAT-UFU 2015

Cálculo Numérico. Santos Alberto Enriquez-Remigio FAMAT-UFU 2015 Cálculo Numérico Santos Alberto Enriquez-Remigio FAMAT-UFU 2015 1 Capítulo 1 Solução numérica de equações não-lineares 1.1 Introdução Lembremos que todo problema matemático pode ser expresso na forma de

Leia mais

OTIMIZAÇÃO E DESPACHO ECONÔMICO

OTIMIZAÇÃO E DESPACHO ECONÔMICO 7 OTIMIZAÇÃO E DESPACHO ECOÔMICO 7.1 ITRODUÇÃO este capítulo, o leitor encontrará informações básicas sobre procedimento geral de otimização e aplicação ao caso de despacho, considerado econômico, associado

Leia mais

Otimização de grande porte

Otimização de grande porte Otimização de grande porte Silvana Bocanegra Ciclo de Seminários BSI 204.2 Esboço Otimização: definição, aplicações e motivação; Classe de problemas de otimização e métodos de solução; Principais métodos

Leia mais

IN-1131 Computação Evolucionária. Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática

IN-1131 Computação Evolucionária. Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática IN-1131 Computação Evolucionária Aluizio Fausto Ribeiro Araújo Universidade Federal de Pernambuco Centro de Informática aluizioa@cin.ufpe.br Objetivos Este curso visa oferecer introdução abrangente em

Leia mais

Algoritmos de Aprendizado

Algoritmos de Aprendizado Algoritmos de Aprendizado Regra de Hebb Perceptron Delta Rule (Least Mean Square) Back Propagation Radial Basis Functions (RBFs) Competitive Learning Hopfield Algoritmos de Aprendizado Regra de Hebb Perceptron

Leia mais

EEL 7100 Despacho Econômico de Unidades Térmicas Parte 1

EEL 7100 Despacho Econômico de Unidades Térmicas Parte 1 EEL 7100 Despacho Econômico de Unidades Térmicas Parte 1 Antonio Simões Costa UFSC - LABSPOT A. Simões Costa (UFSC - Labspot) 1 / 25 Introdução Importância da consideração da eficiência econômica na operação

Leia mais

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Introdução

Universidade Federal do Paraná Departamento de Informática. Reconhecimento de Padrões. Introdução Universidade Federal do Paraná Departamento de Informática Reconhecimento de Padrões Introdução Luiz Eduardo S. Oliveira, Ph.D. http://lesoliveira.net Objetivos Introduzir os conceito básicos de reconhecimento

Leia mais

Redes Neurais e Sistemas Fuzzy

Redes Neurais e Sistemas Fuzzy Redes Neurais e Sistemas Fuzzy Redes de uma única camada O Perceptron elementar Classificação de padrões por um perceptron A tarefa de classificação consiste em aprender a atribuir rótulos a dados que

Leia mais

Tópicos Especiais em Reconhecimento de Padrões [2COP329] Mestrado em Ciência da. Sylvio Barbon Jr

Tópicos Especiais em Reconhecimento de Padrões [2COP329] Mestrado em Ciência da. Sylvio Barbon Jr Tópicos Especiais em Reconhecimento de Padrões [2COP329] Mestrado em Ciência da Computação Sylvio Barbon Jr barbon@uel.br (2/20) Tema Aula 1 Introdução ao Reconhecimento de Padrões 1 Introdução 2 Referências

Leia mais

Programação Linear/Inteira - Aula 5

Programação Linear/Inteira - Aula 5 Unidade de Matemática e Tecnologia - RC/UFG Programação Linear/Inteira - Aula 5 Prof. Thiago Alves de Queiroz Aula 5 Thiago Queiroz (IMTec) Aula 5 Aula 5 1 / 43 Análise de Sensibilidade Estudar o efeito

Leia mais

Introdução às Máquinas de Vetores Suporte (Support Vector Machines)

Introdução às Máquinas de Vetores Suporte (Support Vector Machines) Instituto de Ciências Matemáticas e de Computação ISSN - 0103-2569 Introdução às Máquinas de Vetores Suporte (Support Vector Machines) Ana Carolina Lorena André C.P.L.F.deCarvaho N ō 192 RELATÓRIOS TÉCNICOS

Leia mais

= f(0) D2 f 0 (x, x) + o( x 2 )

= f(0) D2 f 0 (x, x) + o( x 2 ) 6 a aula, 26-04-2007 Formas Quadráticas Suponhamos que 0 é um ponto crítico duma função suave f : U R definida sobre um aberto U R n. O desenvolvimento de Taylor de segunda ordem da função f em 0 permite-nos

Leia mais