Análise de Técnicas Computacionais para Classificação de Emoções



Documentos relacionados
MINERAÇÃO DE DADOS APLICADA. Pedro Henrique Bragioni Las Casas

Universidade Tecnológica Federal do Paraná UTFPR Programa de Pós-Graduação em Computação Aplicada Disciplina de Mineração de Dados

UTILIZANDO O SOFTWARE WEKA

XIII Encontro de Iniciação Científica IX Mostra de Pós-graduação 06 a 11 de outubro de 2008 BIODIVERSIDADE TECNOLOGIA DESENVOLVIMENTO

PALAVRAS-CHAVE: Massas Nodulares, Classificação de Padrões, Redes Multi- Layer Perceptron.

Aprendizagem de Máquina

Aprendizagem de Máquina

Extração de Árvores de Decisão com a Ferramenta de Data Mining Weka

TÓPICOS AVANÇADOS EM ENGENHARIA DE SOFTWARE

17/10/2012. dados? Processo. Doutorado em Engenharia de Produção Michel J. Anzanello. Doutorado EP - 2. Doutorado EP - 3.

MLP (Multi Layer Perceptron)

UNIVERSIDADE FEDERAL DE SANTA CATARINA

6 Construção de Cenários

Figura 5.1.Modelo não linear de um neurônio j da camada k+1. Fonte: HAYKIN, 2001

Arquitetura de Rede de Computadores

4 Avaliação Experimental

Introdução. Capítulo. 1.1 Considerações Iniciais

Análise e visualização de dados utilizando redes neurais artificiais auto-organizáveis

Capítulo 3. Avaliação de Desempenho. 3.1 Definição de Desempenho

Aplicação de Ensembles de Classificadores na Detecção de Patologias na Coluna Vertebral

Data, Text and Web Mining

Sistema de mineração de dados para descobertas de regras e padrões em dados médicos

Complemento II Noções Introdutória em Redes Neurais

UNIVERSIDADE FEDERAL DE SANTA CATARINA GRADUAÇÃO EM SISTEMAS DE INFORMAÇÃO DEPARTAMENTO DE INFORMÁTICA E ESTATÍSTICA DATA MINING EM VÍDEOS

ADM041 / EPR806 Sistemas de Informação

QFD: Quality Function Deployment QFD: CASA DA QUALIDADE - PASSO A PASSO

INF 1771 Inteligência Artificial

3 Metodologia de Previsão de Padrões de Falha

4 Avaliação Econômica

Projeto de Redes Neurais e MATLAB

DESENVOLVIMENTO DE UM SOFTWARE NA LINGUAGEM R PARA CÁLCULO DE TAMANHOS DE AMOSTRAS NA ÁREA DE SAÚDE

Prof. Msc. Paulo Muniz de Ávila

COMPARAÇÃO DOS MÉTODOS DE SEGMENTAÇÃO DE IMAGENS OTSU, KMEANS E CRESCIMENTO DE REGIÕES NA SEGMENTAÇÃO DE PLACAS AUTOMOTIVAS

A presente seção apresenta e especifica as hipótese que se buscou testar com o experimento. A seção 5 vai detalhar o desenho do experimento.

Avaliando o que foi Aprendido

Na medida em que se cria um produto, o sistema de software, que será usado e mantido, nos aproximamos da engenharia.

O Software Face Match

Organizaçãoe Recuperaçãode Informação GSI521. Prof. Dr. Rodrigo Sanches Miani FACOM/UFU

3 Classificação Resumo do algoritmo proposto

5 Conclusões e Recomendações

Entendendo como funciona o NAT

Reconhecimento de Padrões

Data Mining. Origem do Data Mining 24/05/2012. Data Mining. Prof Luiz Antonio do Nascimento

Do neurônio biológico ao neurônio das redes neurais artificiais

Reconhecimento de Padrões Utilizando Filtros Casados

5 Extraindo listas de produtos em sites de comércio eletrônico

Correlação e Regressão Linear

Factor Analysis (FACAN) Abrir o arquivo ven_car.sav. Clique Extraction. Utilizar as 10 variáveis a partir de Vehicle Type.

Como conduzir com sucesso um projeto de melhoria da qualidade

CAPÍTULO 3 - TIPOS DE DADOS E IDENTIFICADORES

PÓS GRADUAÇÃO EM CIÊNCIAS DE FLORESTAS TROPICAIS-PG-CFT INSTITUTO NACIONAL DE PESQUISAS DA AMAZÔNIA-INPA. 09/abril de 2014

Experimentos de Mineração de Dados em R Disciplina do curso de Pós-Graduação da UTFPR

Resultados Experimentais

Prof. Júlio Cesar Nievola Data Mining PPGIa PUCPR

Extração de Conhecimento & Mineração de Dados

Cálculo de volume de objetos utilizando câmeras RGB-D

Localização dos inquéritos de rua para Arroios e Gulbenkian

PLANOS DE CONTINGÊNCIAS

3 Método de Monte Carlo

INTELIGÊNCIA ARTIFICIAL Data Mining (DM): um pouco de prática. (1) Data Mining Conceitos apresentados por

PONTIFÍCIA UNIVERSIDADE CATÓLICA DE GOIÁS Curso Superior de Tecnologia em Análise e Desenvolvimento de Sistemas

Matlab - Neural Networw Toolbox. Ana Lívia Soares Silva de Almeida

1

UNIVERSIDADE F EDERAL DE P ERNAMBUCO ANÁLISE DE UM MÉTODO PARA DETECÇÃO DE PEDESTRES EM IMAGENS PROPOSTA DE TRABALHO DE GRADUAÇÃO

Referências internas são os artefatos usados para ajudar na elaboração do PT tais como:

Sistema de Controle de Acesso Baseado no Reconhecimento de Faces

DATA WAREHOUSE. Introdução

Curva ROC. George Darmiton da Cunha Cavalcanti Tsang Ing Ren CIn/UFPE

PRIMAVERA RISK ANALYSIS

Microsoft Office PowerPoint 2007

DIMENSIONANDO PROJETOS DE WEB-ENABLING. Uma aplicação da Análise de Pontos de Função. Dimensionando projetos de Web- Enabling

PESQUISA SOBRE O PERFIL DE ALUNOS NA UTILIZAÇÃO DE UM SITE DOCENTE DO ENSINO SUPERIOR

PALAVRAS-CHAVE Indicadores sócio-econômicos. Campos Gerais. Paraná.

CONCURSO PÚBLICO ANALISTA DE SISTEMA ÊNFASE GOVERNANÇA DE TI ANALISTA DE GESTÃO RESPOSTAS ESPERADAS PRELIMINARES

Análise Exploratória de Dados

Relatório Trabalho Prático 2 : Colônia de Formigas para Otimização e Agrupamento

MÓDULO 6 INTRODUÇÃO À PROBABILIDADE

5 Mecanismo de seleção de componentes

CorelDRAW UM PROGRAMA DE DESIGN

SEGMENTAÇÃO DE IMAGENS EM PLACAS AUTOMOTIVAS

Aprendizagem de Máquina

Correlação Canônica. Outubro / Versão preliminar. Fabio Vessoni. fabio@mv2.com.br (011) MV2 Sistemas de Informação

Gerenciamento de Projetos Modulo II Ciclo de Vida e Organização do Projeto

4 Implementação e Resultados Experimentais

dissertação. 2 Credibilidade total, em linhas gerais, seria a capacidade de representar o comportamento

)HUUDPHQWDV &RPSXWDFLRQDLV SDUD 6LPXODomR

Tabela de Símbolos. Análise Semântica A Tabela de Símbolos. Principais Operações. Estrutura da Tabela de Símbolos. Declarações 11/6/2008

Complemento IV Introdução aos Algoritmos Genéticos

Possui como idéia central a divisão de um universo de dados a ser organizado em subconjuntos mais gerenciáveis.

Programa de Capacitação em Gestão do PPA Curso PPA: Elaboração e Gestão Ciclo Básico. Elaboração de Planos Gerenciais dos Programas do PPA

Desenvolvimento de Sistemas Orientados a Objetos com UML UP/RUP: Projeto

SISTEMAS DE APRENDIZADO PARA A IDENTIFICAÇÃO DO NÚMERO DE CAROÇOS DO FRUTO PEQUI LEARNING SYSTEMS FOR IDENTIFICATION OF PEQUI FRUIT SEEDS NUMBER

Questões atualizadas no PMBoK 5ª edição versão Respostas comentadas com justificativa e seção do PMBoK correspondente.

Redes Neurais Construtivas. Germano Crispim Vasconcelos Centro de Informática - UFPE

1 Inicie um novo. Guia de Referência Rápida de Gerenciamento de Projeto para o Project projeto

A Grande Importância da Mineração de Dados nas Organizações

Faculdade de Engenharia Optimização. Prof. Doutor Engº Jorge Nhambiu

Computação Afetiva: Uma ferramenta para avaliar aspectos afetivos em aplicações computacionais.

Aula 01 - Formatações prontas e condicionais. Aula 01 - Formatações prontas e condicionais. Sumário. Formatar como Tabela

Transcrição:

Análise de Técnicas Computacionais para Classificação de Emoções Fabiano Alves, Eduardo Silva e Adilmar Coelho Dantas Faculdade de Computação Universidade Federal de Uberlândia, UFU Uberlândia, Brasil fabianos@doutorado.ufu.br, eduardo.hssi@gmail.com, akanekar@gmail.com Abstract Este artigo apresenta um estudo comparativo entre diferentes algoritmos de classificação para detecção automática de emoções básicas (neutra, alegria, tristeza, raiva, desgosto, medo e surpresa). Para isto, foi avaliada a base de dados de MUG, cuja fundamentação se encontra na teoria FACS, contendo atributos reais de expressões faciais de diferentes indivíduos e idades, agrupados em classes de emoções. Os experimentos foram executados utilizando o ambiente Waikato Environment for Knowledge (WEKA), um software de código aberto com uma coleção de algoritmos de aprendizagem de máquina. O objetivo deste artigo é investigar a taxa de acertos de diferentes algoritmos de classificação no processo de reconhecimento de emoções. No processo de classificação foram utilizados os algoritmos k-nearest Neighbors (k-nn), Support Vector Machine (SVM), Naive Bayes (NB), Bayesian Network (BN), perceptron (MLP) e Tree (LMT). Na tentativa de melhorar os resultados e diminuir a representação dos dados de entrada dos classificadores foram realizados experimentos de seleção e correlações de atributos com o objetivo de descobrir quais atributos são mais relevantes para o procedimento de reconhecimento de padrões de classificação de emoções faciais. Análise geométrica entre distância de pontos de interesse de regiões da face (boca, olhos e sobrancelha) também foram objetos de estudo deste trabalho no processo de reconhecimento de emoções. Keywords-Emoções; classificadores; I. INTRODUÇÃO Reconhecimento de emoções em expressões faciais por computador é um interessante e desafiador problema que pode ser aplicado em diferentes contextos como ferramentas para prover personalização em ambientes virtuais baseado nas características afetivas do usuário do sistema. Nos últimos anos, muitos progressos aconteceram para a criação de sistemas de computador para entender e usar essa forma natural de comunicação humana [1][2][3]. A maioria dos sistemas tenta reconhecer um pequeno conjunto de expressões emocionais como a felicidade, surpresa, raiva, tristeza, medo, desgosto e neutra. Trabalho de Darwin [4] e mais recentemente de Ekman e de Friesen [5], que propuseram que as emoções básicas possuem expressões faciais correspondentes. Para capturar essas sutilezas das emoções Ekman e Friesen [5] criaram padrões de codificação faciais denominadas FACS (Facial Action Coding System). O FACS vem sendo bastante utilizado como uma ferramenta descritiva e tem sido empregado em vários trabalhos científicos relacionados à micro expressões. Sistemas automáticos para a análise de expressões faciais tem se tornado objetos constantes de estudo em sistemas de interação homem-máquina, sobretudo na comunidade de pesquisa de Reconhecimento de Padrões (RP). Segundo Fasel e Luettin [6], uma das primeiras investigações sobre reconhecimento automático de expressões faciais foi apresentada por Suwa [7], os quais analisaram as expressões faciais, rastreando o movimento de 20 pontos identificados em uma sequência de imagens. A partir deste trabalho, muitos avanços têm sido realizados, sobretudo devido ao desenvolvimento de novos métodos de processamento de imagem, novas abordagens para detecção, reconhecimento e classificação de emoções de expressões faciais, assim como o aumento da capacidade computacional. O processo de reconhecimento de emoções faciais possui basicamente três etapas [2]: Identificação da face e regiões faciais, Extração de características e Classificação de Expressões. A primeira etapa consiste em identificar a face e regiões de da face, tais como, sobrancelha, boca e olhos, utilizando técnicas de processamento de imagem. A segunda etapa refere-se à extração e representação de pontos de interesse (landmarks) das regiões da face, gerando um vetor de características (atributos). Esta etapa consiste também na fase de pré-processamento ou transformação das características dos dados extraídos e que geralmente resulta na redução da dimensionalidade do vetor de características original. O préprocessamento dos dados não é obrigatório para todos os casos, pois dependendo do domínio da aplicação poderá melhorar ou piorar o processo de classificação. Já a última etapa envolve a aplicação de técnicas de RP que possibilitem a identificação e classificação das emoções. O objetivo deste trabalho é realizar uma análise comparativa de alguns dos métodos mais conhecidos na abordagem de classificação de RP, compreendidos nas seguintes categorias: classificador preguiçoso (k-nearest Neighbors), classificadores bayesianos (Naive Bayes, Bayesian Network), redes neurais ( perceptron) e regressão ( Tree). Algoritmos pertencentes a cada uma destas categorias foram aplicados em um conjunto de dados

contendo informações de landmarks de imagens da face, agrupadas em sete classes distintas de emoções. Além do emprego dos métodos de classificação, também foram realizados experimentos de seleção, correlação e transformação de atributos durante a fase de extração de características com o objetivo de reduzir a dimensionalidade dos dados e também para analisar se a reestruturação dos dados poderia trazer benefícios para a classificação de emoções. Experimentos utilizando distâncias geométricas entre landmarks da face também foram objetos de estudo neste trabalho para análise da classificação de emoções. O estudo foi feito utilizando o ambiente WEKA [8], que é um pacote de software que agrega diferentes algoritmos e técnicas para mineração de dados e aprendizado de máquina, sendo também uma das ferramentas mais utilizadas na área de RP. Este artigo está organizado da seguinte maneira. Na Seção 1 são descritas as principais técnicas de RP utilizadas neste trabalho. Já a Seção 3 mostra como foram conduzidos os experimentos, bem como os resultados obtidos, além de explicar como foram aplicados os filtros de pré-processamento utilizados neste trabalho. Por fim, a Seção 4 trás a conclusão do estudo dos experimentos realizados e possíveis trabalhos futuros. II. MÉTODOS DE CLASSIFICAÇÃO A. K-Nearest Neighbors O algoritmo k-nearest Neighbors (k-nn) [9] é um dos algoritmos mais básicos, simples e bem difundidos do paradigma baseado em instâncias. O k-nn é um classificador preguiçoso porque não induz um modelo de categorização de dados de treinamento. O processo de categorização é conseguido através da comparação da nova instância com todas as instâncias do conjunto de dados. Assim, a categoria para a nova instância é selecionada a partir das categorias dos K exemplos mais similares. A semelhança ou proximidade é definida em termos de distâncias entre as instâncias. Existem várias medidas de distâncias que podem ser utilizadas para implementar esse classificador, como por exemplo a Distância Euclidiana e Distância de Manhattan. A Figura 1 ilustra o processo de classificação com o algoritmo k-nn para as classes A e B. Figura 1. Classificação K-NM B. Neural Networks As Neural Networks (RNAs) foram projetadas inicialmente por psicólogos e neurobiologias que buscavam desenvolver um conceito novo de neurônios artificias, que seriam pequenas unidades onde receberia uma dada entrada, realizasse algum processamento e por fim fosse gerada uma saída. Essas unidades teriam ligação entre si por meio de conexões formando por fim uma rede entre dois neurônios. O objetivo é o aprendizado dessa rede e o balanceamento dos pesos entre essas conexões [10]. Figura 2. Rede neural Como pode ser visto na Figura 2 uma rede neural é composta basicamente por: Camada de entrada: Representam as características dos objetos. Camada de saída: Representam as classes existentes no problema. Camadas escondidas: Recebem entradas da camada anterior, que passam por uma função de ativação gerando uma nova saída para a camada posterior. Redes neurais com apenas uma camada escondida faz o mapeamento direto das entradas para as saídas, resultado assim em saídas similares aos padrões de entrada, o que leva a rede a incapacidade de apreender mapeamentos importantes. Portanto padrões de entrada similares que levam a saídas diferentes não podem ser mapeadas por esse tipo de rede. Para solucionar este problema é necessária a inclusão de mais camadas ocultas, as chamadas redes neurais Percepton (MLP). Essas camadas ocultas funcionam como extratoras de características, onde seus pesos são uma codificação de características da camada de entrada, permitindo assim, que a rede projete suas próprias representações com mais informações do problema. C. Support Vector Machines As Support Vector Machines (SVMs) constituem uma técnica de aprendizado que vem recebendo crescente atenção da comunidade de Machine Learning (ML) [11]. Os resultados da aplicação dessa técnica são comparáveis e muitas vezes superiores aos obtidos por outros algoritmos de aprendizado, como RNAs. Uma SVM é um método de aprendizado supervisionado que analisa os dados e reconhecem padrões, são usados para classificação e análise de regressão. O SVM padrão toma como entrada um conjunto de dados e prediz, para

cada entrada dada, qual de duas possíveis classes a entrada faz parte, conforme ilustrado n Figura 3, o que faz do SVM um classificador linear binário não probabilístico. Figura 3. Classificação SVM D. Naive Bayes O classificador Naive Bayes (NB) assume que todos os atributos são independentes e que cada um contribui igualmente para a categorização. A categoria é atribuída a um projeto, combinando a contribuição de cada característica. Esta combinação é atingida estimando as probabilidades a posteriori de cada categoria utilizando o Teorema de Bayes. As probabilidades a priori são estimadas com os dados de treinamento [12] Este tipo de classificador é capaz de lidar com entradas categóricas e problemas de multi-classe. Portanto, em um problema de categorização, as entradas para o classificador são os atributos e a saída é a distribuição de probabilidade do projeto nas categorias [12]. E. Bayesian Network As Bayesian Network (BNs) pertencem à família de modelos de gráficos probabilísticos. Estas estruturas gráficas são usadas para representar conhecimento sobre um domínio incerto. Em particular, cada nó no gráfico representa uma variável aleatória, enquanto as arestas entre os nós representam dependência probabilística entre correspondência de variáveis aleatórias. Essas dependências condicionais no gráfico são muitas vezes estimadas usando conhecido estatístico e métodos computacionais. Assim, BNs combinam princípios da teoria dos grafos, teoria da probabilidade, ciência da computação, e estatísticas [13]. F. Tree Tree (LMT) é um classificador supervisionado que combina Regressão Logística (LR) e aprendizagem de Árvore de Decisão [14]. LMT são baseados na ideia de modelo de árvore: Uma árvore de decisão que tem modelos de regressão linear nas folhas. A análise de regressão consiste na realização de uma análise estatística com o objetivo de verificar a existência de uma relação funcional entre uma variável dependente com uma ou mais variáveis independentes. Em outras palavras consiste na obtenção de uma equação que tenta explicar a variação da variável dependente pela variação dos níveis das variáveis independentes. G. PCA O PCA (Principal Component Analysis) é um processo matemático que utiliza transformação ortogonal para converter um conjunto de observações de variáveis possivelmente correlacionadas a um conjunto de valores de variáveis linearmente descorrelacionadas chamadas de componentes principais [15]. Normalmente os dados passam pelo processo de normalização z-score [15] antes de serem aplicados no PCA, porque ele precisa calcular autovalores e autovetores dos dados. Os autovalores dizem sobre a variância dos dados e o autovetor da informação sobre a direção dos dados. O autovetor é escolhido por ser o que tem o mais alto autovalor, ou seja, quanto mais variância tem os dados, melhor para o PCA. O conjunto de dados tem tantos autovetores e autovalores quanto dimensões (ou atributos) tem nossos dados. III. EXPERIMENTOS E DISCUSSÕES Nesta seção são descritos como foram conduzidos os testes e experimentos de classificação de emoção realizados, além dos resultados e filtros de pré-processamento de dados aplicados. A. Ambiente WEKA O ambiente escolhido para a execução dos experimentos foi o Waikato Environment for Knowledge Analysis (WEKA) [8]. O WEKA é um pacote de software baseado em JAVA, desenvolvido inicialmente pela Universidade de Waikato na Nova Zelândia e que atualmente é distribuído como software livre. O WEKA possui uma coleção de algoritmos de aprendizagem de máquina para tarefas de mineração de dados. Ele implementa algoritmos para pré-processamento de dados, classificação, regressão, clustering e regras de associação, além de incluir ferramentas de visualização. O arquivo de dados normalmente utilizado pelo WEKA é o formato de arquivo ARFF (Attribute-Relation File Format), que consiste de tags especiais para indicar diferentes elementos no arquivo de dados (tais como, nomes de atributos, tipos de atributos, valores de atributos e os dados). B. Base de dados Para os experimentos foi utilizada a base de dados MUG Facial Expression [16]. Essa base de dados é composta por 401 imagens com 25 indivíduos de etnia caucasiana. Nesta base as imagens apresentam plano de fundo não uniforme e neutro e em imagens em que os indivíduos apresentam diferenças individuais ou artefatos: barba, bigode e óculos. Para cada indivíduo são expressas imagens das sete emoções básicas: neutra, felicidade, surpresa, tristeza, desgosto, medo e raiva. A base de dados MUG fornece também arquivos contendo 80 pontos faciais (expressados em coordenas x e y) para a detecção da emoção de cada indivíduo. Foi criado um código em Java para plotar na imagem os pontos faciais e para converter a base de pontos no formato de arquivo arff para o WEKA. Exemplo de um arquivo com as coordenadas plotadas na imagem da base pode ser visualizadas na Figura 4.

TABELA I. CLASSIFICAÇÃO EMOÇÕES 160 KNN (k = 1) 86,78 KNN (k = 2) 71,07 SVM 85,03 Perceptron 88,77 Naive Bayes 26,93 Bayesian Network 41,64 Tree 85,78 Figura 4. Example de imagem da base de dados MUG com pontos facias Na conversão da base de dados MUG para o formato do arquivo do WEKA, considerou-se que cada coordenada será um atributo, ou seja, se temos 80 pontos faciais, no arquivo para análise dos dados e classificação teremos 160 atributos. C. Configuração dos testes Neste trabalho foi utilizado o método de validação cruzada k-fold [17], que consiste em dividir o conjunto total de dados em k subconjuntos mutualmente exclusivos do mesmo tamanho e, a partir disto, um subconjunto é utilizado para teste e os k-1 restantes são utilizados para estimação dos parâmetros e calcula-se a acurácia do modelo. Este processo é realizado k vezes alternando de forma circular o subconjunto de teste. No caso dos experimentos, o valor de k adotado foi igual a 10. Para os testes, foram selecionados os algoritmos de classificação k-nearest Neighbors (k-nn), Support Vector Machine (SVM), Naive Bayes (NB), Bayesian Network (BN), perceptron (MLP) e Tree (LMT). Além disso, foram realizados testes com técnicas de seleção/extração de atributos com PCA, correlação de Pearson e análise geométrica da face através de distância euclidiana de pontos (landmarks) de regiões de interesse. D. Resultados Inicialmente, realizou-se uma classificação com todos os 160 atributos correspondentes da base de dados MUG. A Tabela I ilustra os resultados obtidos com a aplicação dos métodos de classificação. Nessa análise os classificados K-NN, SVM, MLP e LMT obtiveram os melhores resultados. Porém, a execução do MLP exigiu bastante tempo computacional, devido, principalmente, à quantidade de atributos. Outro fator relevante é a classificação do K-NN nessa base de dados, quando maior o valor de K, menor é a taxa de acertos. No K- NN o valor que obteve o maior resultado foi k = 1. Na base de dados existem amostras bem similares de uma mesma emoção para um mesmo indivíduo, podendo um indivíduo ter mais de cinco amostras para uma única emoção. Essas amostras semelhantes de um indivíduo podem ter afetado o resultado do K-NN que obtém melhor performance apenas com k = 1, pois ele considera o vizinho mais próximo e as amostras similares estão sendo escolhidas. Em seguida, foi realizado um teste de classificação retirando as amostras que continham emoções similares de um mesmo indivíduo. Passando assim o número de amostras de 401 para 163. A classificação foi realizada com estes 160 atributos. Resultados apresentados na Tabela II. TABELA II. CLASSIFICAÇÃO EMOÇÕES SEM EMOÇÕES SIMILARES DE INDIVÍDUOS 160 % Variação KNN (k = 1) 14,10 83,80 KNN (k = 2) 13,00 81,70 SVM 54,42 36,50 Perceptron 60,20 32,40 Naive Bayes 12,88 52,20 Bayesian Network 11,65 72,00 Tree 60,73 29,20 Em todos os classificadores houve uma variação no resultado da classificação, devido que o número de amostras de treinamento ficou reduzido, porém houve uma variação muito significativa no classificador K-NN e nas Redes Bayesianas. A variação indica o percentual de queda no resultado da classificação em comparação com o resultado da Tabela I. O K-NN teve uma queda de 83,8% em seu resultado quando as amostras similares de um indivíduo para uma mesma emoção foram desconsideradas. Em seguida, para tentar melhorar o desempenho e a eficácia da classificação foi realizada a seleção de atributos. Os testes foram realizados com as 401 amostras da base de dados MUG. Primeiramente foi verificada a correlação entre os atributos, pois alguns classificadores como o Naive Bayes assume a independência dos atributos. Foi realizada a correlação linear de Pearson. Ao realizar a análise de correlação percebe-se, conforme Figura 5, que existem muitos atributos em uma correlação linear de média à

forte. O coeficiente de correlação varia de 1 à -1 onde 1 indica correlação perfeita positiva e -1 correlação perfeita negativa. Então foi realizada uma seleção de atributos baseada na correlação dos dados. TABELA III. CLASSIFICAÇÃO EMOÇÕES CORRELAÇÃO 20 40 KNN (k = 1) 83,04 81,29 KNN (k = 2) 74,81 72,56 SVM 69,07 72,06 Perceptron 80,06 86,03 Naive Bayes 43,39 36,45 Bayesian Network 43,14 42,14 Logistic Model Tree 72,56 79,80 Figura 5. Gráfico dos coeficiente de correlação de Pearson Visando estabelecer uma equação que representa o fenômeno em estudo pode-se fazer um gráfico, chamado de diagrama de dispersão, para verificar como se comportam os valores da variável dependente (Y) em função da variação da variável independente (X). O comportamento de Y em relação a X pode se apresentar de diversas maneiras: linear, quadrático, cúbico, exponencial, logarítmico, etc.... Para se estabelecer o modelo para explicar o fenômeno, deve-se verificar qual tipo de curva e equação de um modelo matemático que mais se aproxime dos pontos representados no diagrama de dispersão. A Figura 6 demostra a aplicação da regressão linear para a base de dados proposta neste trabalho a qual apresentou uma taxa de correlação de 0,847. Podemos concluir que os dados estão altamente correlacionados entre si. Ao analisar os resultados percebe-se que o classificador SVM e LMT houve uma queda na taxa de acertos. Com o MLP o resultado com 40 atributos aproximou-se à classificação com 160 atributos, porém, houve um bom ganho no desempenho do classificador. O Naive Bayes por assumir a independência dos atributos, houve uma melhora nos resultados com 20 atributos, porém, ainda com uma precisão fraca. As Bayesian Network levam em consideração a dependência de atributos, porém é difícil estimar o seu modelo, isso pode ter influência no resultado da classificação, fazendo com que o seu resultado permanecesse praticamente o mesmo. Ao verificar os atributos selecionados por correlação, percebeu-se que todos os 40 primeiros atributos estão localizados na região da sobrancelha e boca. Ao realizar a classificação de todos os 60 atributos da base localizados na região da sobrancelha e boca, selecionados manualmente, obteve-se o seguinte resultado, descritos na Tabela IV. TABELA IV. CLASSIFICAÇÃO EMOÇÕES - MANUAL (BOCA E SOMBRANCELHAS) 60 KNN (k = 1) 86,78 KNN (k = 2) 76,05 SVM 74,81 Perceptron 86,28 Naive Bayes 33,16 Figura 6. Correlação entre os atributos da base de dados MUG Bayesian Network 40,89 Tree 81,54 Um bom subconjunto de atributos é aquele que contém atributos com alta correlação com a classe, mas com uma baixa correlação entre si. Para seleção utilizou um rankeamento, selecionando assim os 20 melhores e posteriormente os 40 melhores atributos, conforme resultados apresentados na Tabela III. Em todos os classificadores o resultado teve pouca alteração, em relação à seleção por correlação. Após observar a base de dados foi constatado que pode haver atributos menos representativos para a classificação da emoção, como os atributos localizados no nariz ou em torno do rosto e também é possível ver a existência de correlações

lineares. Para a seleção de atributos pode ser utilizada o algoritmo PCA que pode descartar atributos menos representativos e converter um conjunto de variáveis correlacionadas a um conjunto de valores de variáveis descorrelacionadas conforme ilustrados na Figura 7 e resultados apresentados na Tabela V. Figura 8. Exemplo de seleção de atributos através da distância euclidiana entre pontos A extração dos atributos pode ser expressa pela seguinte fórmula: Figura 7 - Resultado após selação de atributos com PCA na base de dados. TABELA V. CLASSIFICAÇÃO EMOÇÕES - PCA 9 KNN (k = 1) 86,73 KNN (k = 2) 74,81 SVM 67,83 Perceptron 72,81 Naive Bayes 65,83 Bayesian Network 57,86 Tree 70,32 Apenas o Naive Bayes e as Bayesian Network tiveram um ganho na precisão da classificação, os demais classificadores houve uma perca na precisão. Outra abordagem de experimentos realizados foi à análise geométrica da face através de classificação das distâncias euclidiana de pontos de interesse (landmarks) da sobrancelha, olhos e boca da face, representadas através de seis atributos exemplificados na Figura 8. Onde A refere-se ao novo atributo extraído pela distância entre os dois pontos P 5 e P 21. O ponto esquerdo da sobrancelha é expressado por P 5 = (, ) e o ponto esquerdo do olho é expressado por P 21 = (, ). Resultados da classificação das amostras com os seis atributos selecionados estão apresentados na Tabela VI. TABELA VI. CLASSIFICAÇÃO UTILIZANDO DISTÂNCIA EUCLIDIANA - 6 ATRIBUTOS 6 KNN (k = 1) 83,79 KNN (k = 2) 76,55 SVM 76,05 Perceptron 78,55 Naive Bayes 74,31 Bayesian Network 73,31 Tree 77,55 Com a seleção de atributos a partir da distância entre pontos, as taxas de acertos dos classificadores ficaram bem próximas. Os classificadores bayesianos foram os que obtiveram um maior ganho na taxa de acertos utilizando essa abordagem.

IV. CONCLUSÃO Neste trabalho foram apresentados experimentos e a análise da aplicação de diferentes técnicas computacionais de reconhecimento de padrões para a classificação de emoções a partir de expressões faciais. Os experimentos foram executados no ambiente WEKA, utilizando a base de dados MUG, composta de atributos extraídos de marcações de pontos da face correspondente a emoções de cada indivíduo. Para tanto, foi selecionado métodos de classificação compreendidos nas categorias: classificador preguiçoso (k-nearest Neighbors), classificadores bayesianos (Naive Bayes, Bayesian Network), redes neurais ( perceptron) e regressão logística ( Tree). Considerando todos os atributos da base de dados observou-se que os classificadores K-NN (com k=1), SVM, Redes Neurais (MLP) e LMT obtiveram melhores resultados. Porém, devido à quantidade de atributos, a execução das Redes Neurais teve um tempo bem superior de processamento. O classificador Naive Bayes, que considera que os dados sejam independentes, pode-se dizer que existe alguma correlação nos dados que não permite uma grande melhora no desempenho. Aplicando filtro de correlação de Pearson, os classificadores Naive Bayes, Bayesian Network e K-NN (com k=2) obtiveram ganhos com seleção de 20 e 40 melhores atributos ranqueados. Os demais classificadores tiveram perdas, com maior percentual para o classificador SVM (perda de 18,8% e 15,3% para 20 e 40 atributos, respectivamente) Observando os atributos correlacionados, percebeu-se que todos os 40 primeiros atributos ranqueados estão localizados nas regiões da sobrancelha e boca. Realizando comparação de classificação com todos os 60 atributos da base nestas regiões, verificando assim poucas alterações nos percentuais de acertos. Outro teste realizado foi com a aplicação do filtro PCA com nove atributos gerados e que trouxe melhorias significativas para o classificador Naive Bayes e Bayesian Network em comparação com a seleção de todos os atributos. Para o classificador K-NN não houve alterações significativas, porém para os demais classificadores teve queda de precisão. Por último foi aplicado experimentos com a análise geométrica de distância euclidiana de pontos (landmarks) das regiões dos olhos, sobrancelha e boca. Nos resultados alcançados teve ganho com os classificadores bayesianos e perda nos classificadores, SVM, Perceptron e Tree. O classificador K-NN não teve alterações significativas. O objetivo do trabalho foi concluído, pois provou-se de maneira sucinta que as técnicas apresentadas conseguem captar, de forma clara, as emoções do indivíduo, recomendando a aplicação de filtros para diminuir o espaço de dimensionalidade dos dados. Como trabalhos futuros pretende-se validar os testes em outras bases de dados semelhantes encontradas na literatura, contendo imagens de pessoas de diferentes etnias e idades. Outro ponto de experimentação futura seria a utilização das Unidades de Ação (UAs) relacionadas à micro expressões faciais da teoria FACS. REFERENCES [1] A. Azcarate, F. Hageloh, K. V. Sande, and, R. Valenti. "Automatic Facial emotion recognition". Universiteit van Amsterdam, 2005. [2] S. Caroline, S. Leizer, O. Luciano. Detecção de Landmarks em Imagens Faciais Baseada em Informações Locais XIX Congresso Brasileiro de Automática CBA, Campina Grande, Paraíba, Brasil, 2012 [3] Du, Shichuan, Yong Tao, and Aleix M. Martinez. Compound Facial Expressions of Emotion. PNAS, 2014. [4] C. Darwin, "The expression of the emotions in man and animals", London: John Murray, 1872 [5] P. Ekman, W. V. Friesen, and J. C. Hager, "The facial action coding system". Research Nexus ebook, 2002. [6] B. Fasel, J. Luettin, Automatic facial expression analysis: a survey. Pattern Recogntion, v.36, n.1, p.259 275, 2003. [7] M. Suwa, N. Sugie, K. Fujimora A preliminar note on pattern recognition of human emotion expression. Internation Joint Conference on Pattern Recognition, p.408-410, 1978. [8] Weka 3 - data mining with open source machine learning software in java. University of Waikato. [Online]. Disponível em: http://www.cs.waikato.ac.nz/ml/weka/. Acesso em: 20 de Junho de 2015. [9] T. Cover and P. Hart, Nearest neighbor pattern classification, IEEE Trans. Inf. Theor., vol. 13,no. 1, pp. 21 27, Sep. 2006. [10] S. Haykin, Neural Networks: a comprehensive foundation, Second Edition, pp. 178-179, 1998. [11] T. Mitchell. Machine Learning. McGraw Hill, 1997. [12] D. D. Lewis, Naive (Bayes) at forty: The independence assumption in information retrieval, Machine learning: ECML-98, p.5-15, Springer, 1998. [13] I. Ben-Gal, Bayesian Networks, in Ruggeri F., Faltin F. & Kenett R., Encyclopedia of Statistics in Quality & Reliability, Wiley & Sons, 2007. [14] L. Niels, H. Mark and F.Eibe, Trees, Machine Learning, 59(1/2):161 205, 2006. [15] I.T. Jolliffe, Principal component analysis. 2.ed. New York, Springer- Verlag,502p,2002. [16] N. Aifanti, C. Papachristou, Delopoulos, (2005) A. The MUG Facial Expression Database In Proc. Workshop on Image Analysis for Multimedia Interactive Services, 2005. [17] H. I. Witten, Data Mining with Weka, Department of Computer Science, University of Waikato, New Zealand, 2013.