Inferindo as emoções do usuário pela face através de um sistema psicológico de codificação facial

Tamanho: px
Começar a partir da página:

Download "Inferindo as emoções do usuário pela face através de um sistema psicológico de codificação facial"

Transcrição

1 Inferindo as emoções do usuário pela face através de um sistema psicológico de codificação facial Eduardo de Oliveira PIPCA - UNISINOS Av. Unisinos, 950 Bairro Cristo Rei eduardoo@unisinos.br Fax: +55 (51) Patrícia Augustin Jaques PIPCA - UNISINOS Av. Unisinos, 950 Bairro Cristo Rei pjaques@unisinos.br Fax: +55 (51) ABSTRACT This paper presents a computing system to infer anger, fear, disgust, surprise, joy, and sadness emotions from user s facial expressions through a webcam. The emotion detection is based on a facial psychological system, the Facial Action Coding System (FACS), and uses machine learning algorithms for its execution. Experiments using this system reached 60% success in average, achieving a success rate of 90% for joy and sadness. RESUMO Este artigo apresenta um sistema computacional que infere as emoções raiva, medo, repulsa, surpresa, alegria e tristeza, através das expressões faciais do usuário captadas por uma webcam. A detecção das emoções está baseada no sistema psicológico de codificação facial FACS e se utiliza de algoritmos de aprendizagem de máquina para a sua inferência. Os resultados dos experimentos mostram uma taxa de sucesso média de 60%, chegando a 90% para as emoções alegria e tristeza. Author Keywords Affect, computer-mediated communication, emotion. ACM Classification Keywords J.Computer Applications. J.4 Social and behavioral sciences. INTRODUÇÃO O computador, cada vez mais presente em nosso cotidiano, tem sido empregado nas mais diversas aplicações. Sua utilização vai desde tarefas profissionais, como ferramenta indispensável (atividades jornalísticas, controle bancário), até atividades de lazer, com uma vasta possibilidade de entretenimento (jogos, música, passeios na Internet). Este fenômeno crescente se deve pela sua evolução tecnológica, tanto em nível de hardware, quanto de software. Porém, a Permission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. To copy otherwise, or republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee. IHC 2008 VIII Simpósio Sobre Fatores Humanos em Sistemas Computacionais. October 21-24, 2008, Porto Alegre, RS, Brazil. Copyright 2008 SBC. ISBN interface básica de entrada existente entre o homem e o computador é praticamente a mesma nos últimos 30 anos, ou seja, mouse e teclado. Mais recentemente, deve-se considerar, também, em escala menor, mas crescente, o uso do microfone e da webcam. A Interação Humano-Computador (IHC) é uma área de pesquisa que procura melhorar e evoluir a interface de relacionamento das pessoas com o computador, tornando as interações mais amigáveis, ágeis e claras [1]. Seus estudos vão desde melhorias em interfaces gráficas, a sistemas que utilizam as emoções expressas por usuários como parâmetros de entrada para aperfeiçoar a interação humano-computador. As pesquisas que consideram as emoções no computador foram agregadas em uma nova área chamada Computação Afetiva, que compreende pesquisas em diversas linhas, tais como Inteligência Artificial, Visão Computacional e Psicologia, além da IHC. Para Computação Afetiva, o computador deve entender as emoções humanas e/ou expressar afeto [17]. Visando melhorar as relações entre homem e computador, este artigo descreve um trabalho que infere as emoções básicas raiva, medo, repulsa, surpresa, alegria e tristeza demonstrada por uma pessoa à frente do computador, através das imagens estáticas provenientes de uma webcam. Para chegar a este objetivo, é necessário realizar alguns passos intermediários utilizando métodos de Visão Computacional (VC), como a detecção de faces (FaD, de Face Detection) e detecção de características faciais (FeD, de Feature Detection). Com base nestas detecções, são, posteriormente, realizadas classificações de emoções presentes em imagens utilizando algoritmos de aprendizado de máquina da Inteligência Artificial (IA) e esquemas de codificação de expressões faciais. Este artigo encontra-se organizado da seguinte maneira. Nas próximas três seções são introduzidos conceitos de emoções, um método de classificação das expressões faciais e sua aplicação para reconhecimento computacional de emoções por face. Após, alguns trabalhos relacionados são introduzidos e, na seqüência, são apresentadas as seções diretamente relacionadas ao trabalho proposto. A seção de Avaliação do Sistema apresenta os resultados obtidos pelo trabalho, que tem suas conclusões na última seção. 156

2 EMOÇÕES A utilização do termo emoção acontece muitas vezes de forma desmedida, mas, conceitualmente, emoção é considerada como um elemento do conjunto genérico de estados afetivos, no qual, também, se encontra o humor, entre outros [19]. Ao contrário do humor, que costuma ter uma duração mais longa (horas, dias) e não tem uma causa bem definida, a emoção é normalmente breve (minutos) e ocorre em função de um estímulo interno ou externo [18, 20]. Neste contexto, uma expressão emocional é aquilo que é demonstrado a outras pessoas, voluntária ou involuntariamente [17]. Embora não exista uma consolidação quanto à definição de emoções, estas podem ocupar uma lista de até vinte tipos [17]. Existem diversas teorias de emoções, como os modelos dimensionais que se baseiam em duas principais categorias, arousal (calmo/excitado) e valência (negativo/positivo), para diferenciar as emoções. Outra teoria de emoções bastante difundida é o modelo de emoções básicas, que recebem este nome por que elas têm as mesmas manifestações corporais em diferentes culturas. Ekman [3] desenvolveu estudos sobre seis expressões faciais emocionais básicas, que podem ser encontradas nas mais diversas e distantes localidades (Figura 1). Estas expressões faciais foram constatadas por Ekman [3] como estando presentes, desde a infância, em crianças de qualquer parte do mundo. Atualmente, o modelo de componentes (componential model) tem recebido considerável atenção dos pesquisadores em emoções. Segundo este modelo, as emoções em humanos são caracterizadas pela presença de quatro componentes principais [15]: (i) componente motivacionalcomportamental, que diz respeito às inclinações de um indivíduo para agir de acordo com estas interpretações; (ii) componente subjetivo: responsável pela parte de sentimento subjetivo e é mais elaborado em seres humanos que estão habituados a rotular as emoções que sentem; (iii) componente somático: envolve a ativação dos sistemas nervosos central e automático e sua manifestação corporal e (iv) componente cognitivo: processos cognitivos que avaliam as situações e disparam as emoções. Figura 1. Seis expressões faciais emocionais básicas O modelo de emoções básicas, originado das expressões comportamentais humanas, apresenta uma grande quantidade de trabalhos relacionados, principalmente no que se refere ao reconhecimento computacional de emoções através de expressões faciais. O modelo de componentes tem atraído crescente atenção recentemente, porém sendo mais utilizado para inferência de emoções de usuários através de suas ações na interface do sistema computacional [11], se utilizando de modelos psicológicos cognitivos de emoções como o OCC [15]. Neste trabalho é utilizado o modelo psicológico de classificação facial Facial Action Coding System FACS [5] para inferência de emoções, que é baseado psicologicamente na teoria de emoções básicas. MODELO PSICOLÓGICO DE CLASSIFICAÇÃO FACIAL FACS Facial Action Coding System (FACS) é um modelo criado pelos psicólogos Paul Ekman e Wallace V. Friesen que categoriza as aparências faciais causadas por contrações musculares em Unidades de Ação (Action Units - AUs), que, com ou sem combinações, representam todas as expressões faciais possíveis. Por exemplo, a AU1 representa sobrancelhas levantadas. No modelo FACS, foram definidas 44 AUs que permitem representar mais de expressões faciais diferentes. Estes estudos sobre FACS foram expandidos na década de 80 para a criação de outro modelo, o Emotion FACS EMFACS [8], que mapeia e seleciona as AUs que ocorrem na manifestação de emoções. Por exemplo, podemos observar que uma pessoa está sentindo a emoção medo pela ocorrência simultânea das AUs 1, 2, 4, 5 e 25 na sua face. RECONHECIMENTO COMPUTACIONAL DE EMOÇÕES São várias as formas de uma pessoa manifestar suas emoções e mais variados, ainda, são os métodos para captar e reconhecer a emoção transmitida. A voz, as ações do usuário na interface com o sistema, as expressões faciais e os sinais fisiológicos são considerados os principais modos de reconhecimento de emoções [10]. Os métodos atuais de reconhecimento de emoções de uma pessoa pelo computador se aproximam e, em alguns casos, superam o reconhecimento humano. Enquanto o reconhecimento de expressões faciais por humanos é de aproximadamente 87%, alguns algoritmos computacionais, em ambiente controlado, obtêm sucesso entre 74% e 98% [20]. No reconhecimento vocal existe equilíbrio entre humanos e computadores, por volta de 65%, entretanto alguns algoritmos alcançaram o nível de quase 80% de acerto [20]. Um problema que pode ocorrer na identificação de emoção pela voz, é a interferência de sons externos (ruídos) na captação sonora, caso se trate de ambiente não controlado. Sincronizando a movimentação labial com fala (mecanismo utilizado na percepção humana), é possível 157

3 obter uma redução dos efeitos de ruído. Resultados ainda melhores de reconhecimento de expressões emocionais podem ser obtidos utilizando a combinação de mecanismos de reconhecimento, como facial e vocal, que são considerados como principais aspectos utilizados por uma pessoa para reconhecer emoções. Ocorre em Visão Computacional uma confusão freqüente entre reconhecimento de expressões faciais e reconhecimento de emoções humanas [7]. Para o reconhecimento de expressões faciais, são necessários dados sobre ações de características faciais, que são extraídos basicamente de imagens. Já, para o reconhecimento de emoções, é preciso considerar vários fatores, como variações de voz, de pose, gestos, direções de olhar e expressões faciais. Uma análise apenas da expressão labial, por exemplo, não tem como concluir se um sorriso refere-se realmente a uma emoção de alegria ou é apenas uma pose, mas fornece artefatos que podem aumentar essa possibilidade. Uma pessoa pode tentar expressar e convencer uma emoção que não sente, mas alguns músculos faciais acionados de determinado modo, somente quando algum tipo verdadeiro de emoção é manifestado, podem desmentir essa tentativa [2]. Algumas metodologias são utilizadas pelos pesquisadores para que a identificação de expressões faciais e a posterior classificação sejam realizadas pelo computador. Inicialmente, é necessário encontrar a face humana em uma imagem e esta tarefa pode se tornar não trivial devido à ocorrência de alguns fatores negativos, como oclusão de partes da face e baixa resolução da imagem. Após obtenção da região onde se encontra um rosto, o desafio seguinte é localizar as características faciais relevantes numa expressão facial (por exemplo, boca, olhos etc.), que, neste caso, é realizado por técnicas de FeD similares ou iguais a FaD. Após isto, outros desafios são apresentados, por exemplo: como classificar o que uma expressão facial demonstra?. Neste caso, existem duas principais abordagens para inferência de emoções por expressões faciais: (i) usar classificadores; ou (ii) se basear em modelos psicológicos de codificação facial. A abordagem usando classificadores consiste em treinar um classificador com milhares de imagens que contenham as expressões desejadas de emoções, geralmente, fotografias de atores expressando as emoções desejadas. Um exemplo de um classificador que tem sido utilizado para esta função é o Haar-like features [21]. A segunda abordagem consiste em usar um modelo psicológico de classificação facial, como, por exemplo, o FACS. Ela foi escolhida no presente trabalho, pois fornece mais informações que permitem o aperfeiçoamento da metodologia (o modelo psicológico de classificação facial), ao contrário dos classificadores que têm um funcionamento do tipo caixa-preta, exigindo, também, uma grande quantidade de dados (milhares de imagens de expressões de emoções) para treinamento. TRABALHOS RELACIONADOS Kobayashi e Hara [14] desenvolveram um sistema que objetiva o reconhecimento de emoções humanas pela classificação, por redes neurais, de expressões faciais. As emoções são retiradas de pontos (chamados de FCP - Facial Characteristic Point) situados em três características faciais, sobrancelhas, olhos e boca, conforme apresentado pela Figura 4. Os autores utilizaram as seis expressões básicas de emoção como categorias de expressões emocionais, que foram extraídas levando em consideração as alterações apresentadas na disposição de 30 pontos (marcados manualmente) agrupados sobre as três características. Os 30 pontos são agrupados por funções em 21 formas de expressões de dados, utilizados para explicar as características faciais, que vão servir de entrada para a classificação da expressão. O classificador, uma rede neural utilizando o algoritmo back propagation, foi treinado utilizando majoritariamente imagens coletadas de usuários que tiveram suas expressões faciais filmadas para realizar a identificação das seis emoções básicas. Ele realiza a classificação tanto sobre os 30 pontos, quanto sobre 21 dados de informação facial. Ambas as formas de classificação obtêm bons resultados, 91,2% sobre os 21 dados e 87,5% sobre os 30 pontos. Outro trabalho relacionado é o sistema desenvolvido por Pantic e Rothkrantz [16] que obtiveram até 86% de acerto na identificação de AUs do modelo FACs. A identificação é realizada com base em 19 pontos referenciais, que contornam componentes de faces em posição frontal, e/ou utilizando 10 pontos, da mesma face em perfil. Sobre imagens em perfil, são detectados até 24 AUs e, em imagens frontais, até 22 AUs, totalizando 32 AUs distintas. Na primeira etapa de execução do sistema, a face (tanto em perfil, quanto frontal) é localizada realizando busca pela cor de pele. Identificada a face, o processo para a localização dos componentes faciais é executado independentemente sobre a face em perfil e frontal. Para a face em perfil, são extraídos 10 pontos da imagem utilizando funções que calculam as extremidades encontradas no contorno da face (picos e vales). Já, para a imagem frontal, os 19 pontos referenciais correspondem a vértices no contorno dos componentes faciais (boca, olhos, sobrancelhas, narina e queixo) localizados. Estes componentes são, previamente, identificados utilizando vários processos e algoritmos combinados (templates, detecção de bordas e contornos, redes neurais, classificadores baseados em regras). 158

4 Obtidos os pontos referenciais, a próxima etapa consiste na obtenção de parâmetros intermediários, que são resultado da diferença entre os pontos referenciais da face neutra com a face com expressão. Na última etapa, são utilizadas duas tabelas que definem as AUs com base em regras, uma para a face em perfil e outra para a face frontal. Nestas regras (criadas com base no sistema FACS), são testadas certas condições sobre os parâmetros intermediários, que poderão determinar a existência de uma AU. Um terceiro trabalho relacionado é o FED - Facial Expression Dictionary [12]. Nele, foi desenvolvido um dicionário que traduz expressões faciais através de consultas que podem ser desenvolvidas de cinco formas: Label query: retorna a descrição e um exemplo para uma expressão submetida, como alegria ou surpresa. Action Unit Query: as imagens de expressões faciais que contém AUs determinadas pelo usuário são obtidas nesta modalidade de consulta. Geometry Query: expressões faciais são obtidas com base nos estados de características faciais informadas. Incremental Query: nesta opção, o usuário possui imagens que contêm expressões. Cada uma delas possui mais dois níveis de especificidades que ele deve escolher. Da imagem escolhida, mais informações com exemplos são exibidos. Picture Query: com base em pontos marcados sobre determinadas características faciais contidas em uma imagem de entrada, expressões faciais são resultadas. Na implementação do FED, que foi direcionada para utilização via web, é possível, utilizando suas ferramentas, incluir expressões faciais que são parametrizadas pela edição de uma face virtual. O autor incluiu, na versão inicial, 56 expressões faciais, que podem atingir o número de até expressões distintas. Em relação ao trabalho proposto, o sistema de Kobayashi e Hara, da mesma forma, realiza a identificação das emoções básicas, porém não é realizado o detalhamento das expressões faciais contidas em cada emoção, que no trabalho proposto ocorre pela identificação das AUs. Pantic e Rothkrantz realizam essa identificação de AUs, mas não realizam a inferência da possível emoção que pode estar contida em uma imagem como ocorre no trabalho proposto e no dicionário FED. Embora também obtenha as AUs e infira emoções, existem diferenças entre o FED e este trabalho. O primeiro realiza inferências de um sujeito comparando valores de exemplos presentes em sua base, o proposto compara valores de dados relacionados ao mesmo sujeito. Além disso, o trabalho proposto infere emoções das AUs encontradas, o que não é realizado por FED, que infere emoção diretamente sobre as deformações faciais. TRABALHO PROPOSTO A Figura 2 exemplifica a metodologia empregada neste trabalho, mostrando o fluxo de processos que serão realizados pela aplicação construída, que se inicia pela obtenção de imagens capturadas por uma webcam de usuários à frente de um computador. Estas imagens serão submetidas a métodos de Visão Computacional para a localização da face. Sobre esta face encontrada, serão registradas coordenadas das extremidades das características faciais (bocas, olhos e sobrancelhas). Após, as coordenadas sofrem análises antropomórficas que indicarão a presença de determinadas ações faciais. Estas ações faciais trarão dados que evidenciam a ocorrência de alguma emoção. A metodologia empregada no desenvolvimento deste trabalho é detalhada na próxima seção. Metodologia Para reconhecer emoções por expressões faciais através de imagens estáticas usando a segunda abordagem que emprega um modelo psicológico de codificação facial, seis etapas são necessárias. (1) Primeiramente, é necessário encontrar a face na imagem (FaD). (2) Após detectar a face, é preciso encontrar as partes do rosto que serão analisadas para a inferência de emoções (FeD). Para a inferência de emoções, os olhos, sobrancelhas e boca são as características faciais mais relevantes e que serão consideradas neste trabalho. (3) A próxima etapa consiste em determinar certos pontos das extremidades das características faciais (são demarcados 30 pontos), que são conhecidos como FCPs [14]. Os FCPs são utilizados para realizar cálculos de deformação geométrica das características faciais que permitem identificar as AUs, do modelo FACS [5]. Dessa maneira, (4) o próximo passo é realizar cálculos de deformações geométricas para verificar a ocorrência de AUs. Por exemplo, o seguinte cálculo permite verificar a deformação da sobrancelha: a17.y + a19.y + a21.y a18.y + a20.y + a22.y + eb_height = Na expressão matemática acima, a17, a18, a19, a20 e a21 são FCPs das extremidades das sobrancelhas, como pode ser observado na Figura 4, e x e y representam as coordenadas x e y destes pontos bidimensionais. Figura 2. Metodologia da aplicação 159

5 Após, (5) comparando a deformação geométrica ocorrida na sobrancelha de uma imagem com expressão emocional com a deformação na face neutra, pode-se verificar a ocorrência de determinada AU. O exemplo abaixo identifica a ocorrência da AU1. if (eb_height> (eb_height_n+0.1)) then AU1. Finalmente, (6) as combinações de ações faciais (neste caso, AUs) encontradas são traduzidas em emoções. Por exemplo, sabe-se que a presença dos AUs 6+12 evidencia a presença da emoção alegria. Nas próximas subseções serão descritas as etapas deste processo, que é agrupado em quatro partes: detecção da face, detecção de características faciais, classificação da expressão facial e inferência da emoção. Em cada etapa, é explicado o funcionamento do protótipo desenvolvido e os métodos de Visão Computacional/IA utilizados. Projeto de aplicação Foi desenvolvido um protótipo que faz a captura de imagem de um usuário à frente de um computador, permite a marcação manual dos FCPs, analisa os dados coletados para que sejam identificadas as ações faciais, finalizando com a inferência da emoção sobre essas ações faciais. Esta aplicação foi desenvolvida utilizando, como apoio principal, as funções contidas na biblioteca OpenCV [9], especialmente sobre FaD e FeD, como comentado anteriormente. OpenCV é uma biblioteca aberta que possui implementados métodos bastante conhecidos em VC, IA, além de funções para edição gráfica e cálculos matemáticos. Além da entrada de imagens realizada por uma câmera, o aplicativo tem capacidade de obter imagens de vídeos (filmes) ou de imagens estáticas (arquivos contendo imagens únicas). A implementação da aplicação foi realizada na linguagem C, utilizando o IDE DEV C++, com o compilador gcc para Windows. Foram utilizadas as funções de detecção de objetos (face), desenho (pontos FCP) e cálculo de matrizes (para correção de ângulo da figura) da biblioteca OpenCV. A aplicação teve sua construção dividida em três módulos. No primeiro, é realizada a detecção da face. No segundo, são identificados pontos das extremidades das características faciais das faces selecionadas pelo módulo anterior. Por fim, o terceiro módulo analisa os pontos obtidos pelo segundo, identifica as AUs e infere a emoção existente na combinação destas AUs. Esta divisão da aplicação em módulos foi realizada por dois motivos: (i) existe um gap entre a obtenção da face e a detecção das características faciais (marcação manual dos FCPs) e (ii) esta divisão organiza os módulos pelos passos da metodologia da aplicação (Figura 2). Detecção da face O primeiro módulo do aplicativo realiza a detecção de face sobre as imagens obtidas por uma webcam. Na detecção da face, o método aplicado é o Haar-like features (Método de Viola- Jones [21]). As imagens da webcam são submetidas à biblioteca OpenCV, que possui o método de Viola-Jones implementado e busca por uma face nessas imagens, demarcando a região onde esta se encontra (Figura 3 - A). A imagem da região demarcada contendo uma face é, então, salva em arquivos a cada 3s e será utilizada pelo segundo módulo (Figura 3 - B). Este tempo foi adotado, pois a duração de uma expressão emocional espontânea normalmente ocorre entre 0,5s e 5s [4]. Detecção das características faciais A detecção de características faciais consiste em isolar na imagem determinadas partes do rosto que mais interessam a aplicação. No caso desta aplicação, boca, olhos e sobrancelhas são as características faciais que são identificadas, pois as AUs utilizadas para o reconhecimento da emoção estão presentes, em sua maioria, nestas partes do rosto. Figura 3. Detecção de Face Figura 4. FCPs, detalhes do ponto de origem e valor base 160

6 Figura 5. Arquivo de Saída Coordenadas Após detectar as características faciais, é necessário marcar certos pontos que se encontram nas extremidades destas, que são os FCPS [14]. Esta etapa foi realizada manualmente, utilizando recursos gráficos contidos na biblioteca OpenCV. Na abordagem adotada para marcação de características faciais e extração de ações faciais, é necessário realizar, inicialmente, o posicionamento dos 30 pontos sobre as características faciais (FCPs de Kobayashi e Hara [14]). Estes pontos devem ser inseridos sobre posições específicas definidas pelos autores (Figura 4), que correspondem às bordas e extremidades das características faciais consideradas (boca, olhos e sobrancelha). Para realizar esta tarefa, foi implementado o segundo módulo da aplicação, que escreve, em cada linha de um arquivo texto de saída (Figura 5), as coordenadas (x e y) de cada um dos pontos FCP que são marcados sobre as figuras geradas pelo primeiro módulo. Estes FCPs devem ser marcados em posições específicas, mostradas na Figura 4. O arquivo texto gerado (Figura 5) será utilizado como entrada pelo terceiro módulo. Classificação das expressões faciais Com as coordenadas dos FCPs disponíveis, é possível calcular o deslocamento das características faciais e, com isso, encontrar as respectivas AUs definidas em FACS [5]. Existem combinações de AUs que, normalmente, ocorrem em algumas expressões faciais que compõem as seis emoções básicas e são consideradas na inferência de uma emoção [6]. Um exemplo é baixar e aproximar as sobrancelhas, movimentação que representa a AU 4 (Brow Lowerer). Em posse das coordenadas obtidas no segundo módulo, prossegue-se no terceiro módulo, onde estas coordenadas serão utilizadas como parâmetro de entrada. Este módulo tem duas saídas: as AUs correspondentes à expressão facial realizada pela pessoa (descrita nesta seção) e a emoção contida nestas AUs (descrita na próxima subseção). Mas, para encontrar estas AUs, é necessário, anteriormente, normalizar as coordenadas FCPs e submetê-las a critérios que interpretam os seus deslocamentos geométricos. Estes deslocamentos são as ações faciais que, quando submetidas a regras definidas em FACS [5], resultam em AUs correspondentes. Normalização dos dados Nas definições de Kobayashi e Hara, existem três métodos de normalização que devem ser aplicados sobre FCPs: translação, rotação e escala. Existem duas variáveis principais previamente necessárias para os cálculos de normalização de dados: base e ponto de origem. Valor base e ponto de origem: o valor base (distância de Manhattan entre os pontos dos cantos internos dos olhos), utilizado como valor de referência para os demais cálculos, é realizado pela seguinte equação: Obtido o valor base, a etapa seguinte é o cálculo do ponto de origem. Este ponto, que se localiza na região próxima a ponta do nariz (ver Figura 4), é definido neste local para manter uma simetria entre os demais pontos anotados sobre as características faciais. Desta forma, pode-se prever a localização aproximada de uma coordenada. Por exemplo, uma coordenada com valor (30, -40) deve se localizar no lado esquerdo da boca, pois essa região só pode possuir valor negativo no eixo y (vertical) e, o valor positivo do eixo x (horizontal) representa o lado esquerdo da pessoa na imagem. Translação: na translação, os 30 pontos que compõem os FCPs têm suas coordenadas alteradas para que se orientem ao valor do ponto de origem (para a região próxima a ponta do nariz) (Figura 6 b). Antes da translação, os pontos têm como ponto de origem, o ponto mais extremo do canto superior esquerdo da figura (Figura 6 a). Foi utilizado o seguinte pseudocódigo para realizar a translação dos pontos: n = 1; enquanto ( n < 31 ) { a'[n].x = a[n].x - origem.x; a'[n].y = a[n].y - origem.y*(-1); n = n + 1; } Figura 6. Comparação entre orientação de pontos antes e após translação 161

7 Escala A escala é ajustada pela divisão dos FCPs pelo valor base. Realizando este cálculo, são compensadas as variações que podem ocorrer na distância entre a câmera e a face de uma pessoa, mantendo a mesma proporção entre as possíveis variações de distância entre pontos. O seguinte pseudocódigo ilustra como é realizado este ajuste de escala: n = 1; enquanto ( n < 31 ) { a'[n].x = a[n].x / base; a'[n].y = a[n].y / base; n = n + 1; } Ações faciais Com os pontos já normalizados, são realizados cálculos sobre as variáveis de deformações geométricas das características faciais, utilizando a Tabela 1, desenvolvida com base em Jongh [12]. Nesta tabela, três variáveis foram incluídas às demais: distância entre sobrancelhas (eeb_distance), altura do lábio superior (mul_height) e altura do lábio inferior (mll_heigth). Isto foi necessário devido a carência na identificação de algumas AUs (mais especificamente AUs 7, 10, 16 e 17) pelas variáveis restantes. Em uma segunda tabela (Tabela 2), também baseada no trabalho de Jongh [12], estão os critérios que definem as AUs. Esta tabela é composta pela associação das combinações de variáveis de deformações faciais e regras definidas pelo FACS. Ela contém as variáveis de deformação da Tabela 1 com sua correspondente expressão facial neutra (ex: eb_height e eb_height_n). Tabela 1. Variáveis de deformação facial Rotação: a rotação dos pontos para um ângulo alinhado ao horizonte toma como base a inclinação dos pontos a1 e a2 (cantos internos dos olhos), conforme a equação abaixo: É aplicada, sobre todos os pontos, a correção da inclinação utilizando o ângulo obtido pela equação anterior, multiplicando os pontos pelo valor do seno e cosseno do ângulo (a n. x*sinθ, a n.y*cosθ). Tabela 2. Critérios dos Estados de Características Faciais 162

8 As variáveis de deformação de uma imagem contendo uma face sem expressão emocional (neutra) são utilizadas juntamente com as variáveis de deformação de uma face contendo alguma expressão emotiva (Tabela 2). Inferência da emoção Algumas combinações de AUs costumam estar presentes em certas expressões faciais que ilustram emoções [6]. Conhecidas as AUs contidas em uma expressão facial, estas serão submetidas a uma árvore de decisão que indicará se este conjunto se ajusta a alguma combinação que representa uma emoção. A AU 4, por exemplo, pode estar contida nas emoções de medo, tristeza e raiva. Neste trabalho, a inferência da emoção é realizada pela conversão dos valores de AUs para emoção. Para tanto, é utilizada a tabela criada por Ekman, Friesen e Hager [6], onde são agrupadas as AUs que mais comumente são encontradas nas expressões faciais das emoções básicas. A Tabela 3 contém uma amostra destas relações para as emoções de surpresa, medo e alegria. A Tabela 3 foi utilizada como referência para a criação de outra tabela que contém, em cada linha, uma das possíveis combinações de AUs presentes na primeira tabela para as AUs: 1, 2, 4, 5, 6, 7, 9, 10, 12, 15, 16, 17, 20, 22, 23, 24, 25, 26 e 27. Nesta nova tabela, foram retiradas três AUs: AU 11, AU 54 e AU 64. A primeira foi retirada por ser de difícil detecção pela aplicação e por, aparentemente, não impactar significantemente nos resultados. Já, as AUs 54 e 64 foram excluídas por serem dispensáveis (opcionais) na inferência e não detectáveis pela aplicação. A tabela resultante contém 71 possíveis combinações entre as 6 emoções básicas (7 para surpresa, 11 para medo, 2 para alegria, 15 para tristeza, 6 para repulsa, e 30 para raiva). Esta tabela contendo 71 combinações para as seis emoções básicas foi submetida à ferramenta See5 [18] para a construção da árvore de decisão. See5 é a versão comercial e atualizada do algoritmo de classificação C4.5, que é utilizado para a indução de árvores de decisão ou conjunto de regras com base nas informações contidas em uma base de dados. A Figura 7 exibe a árvore de decisão construída pelo See5 sobre a tabela de combinação de AUs. Pode-se observar nesta figura que a existência de determinadas AUs (caixas) denuncia uma provável emoção (elipses). As definições contidas na árvore de decisão (Figura 7) foram implementadas dentro do terceiro módulo da aplicação, utilizando, para isto, regras de produção (cadeias de ifs ), para realizar as classificações de AUs para emoções. Tabela 3. Prognóstico de emoções para combinações de AUs Figura 7. Árvore de decisão para inferência de emoção baseada em AUs 163

9 AVALIAÇÃO DO SISTEMA Nos testes da aplicação foram utilizadas 154 imagens de 39 pessoas da base de expressões faciais Cohn-Kanade AU- Coded Facial Expression Database - AU-CFED [13], manifestando 116 expressões faciais (sendo 38 de alegria, 7 de medo, 7 de raiva, 17 de repulsa, 20 de surpresa e 27 de tristeza). Esta base foi escolhida por possuir a identificação das AUs presentes na expressão realizada pela pessoa em suas imagens. Nos testes foram verificados os índices de acerto de AUs detectadas pela aplicação em relação às AUs definidas para as imagens das pessoas da base, assim como a taxa de acerto para a inferência das emoções. A Tabela 4 mostra o número de imagens analisadas (coluna Casos), o número de imagens inferidas corretamente (coluna Correta) e a taxa de sucesso para a inferência das 6 emoções básicas (coluna %). Como pode ser observada na última linha da Tabela 4, a taxa de sucesso média é de 60,34%, porém o sistema atinge uma taxa de inferência maior que humana ou equivalente para as emoções alegria (80,47%), raiva (71,43%) e tristeza (92,59 %). Tabela 4. Taxa de Sucesso na Inferência Emocional Tabela 5. Matriz de Confusão Tabela 6. Taxa de sucesso na inferência de AUs Tabela 7. Taxa de sucesso da árvore de decisão Através da Matriz de Confusão (Tabela 5) é possível observar melhor quais os problemas que estão ocorrendo na inferência das emoções repulsa, surpresa e medo, que obtiveram piores taxa de sucesso (5,88%; 10% e 42,86% respectivamente). Expressões com a emoção repulsa estão sendo erroneamente inferidas como tristeza (10 dos 17 casos) e raiva (5 dos 17 casos). Além disso, a surpresa é, geralmente, inferida como medo (16 dos 20 casos) pelo sistema. As taxas de sucesso da inferência das AUs (Tabela 6) destas emoções (repulsa, surpresa e medo) não são baixas, chegando a ser maior do que a taxa para a emoção tristeza (que tem acerto de 92,59% para inferência de emoção). Os resultados dos experimentos acima evidenciam que as piores taxas devem-se, possivelmente, a limitações na árvore de decisão. Dessa forma, foi realizado um terceiro experimento para verificar qual a taxa de sucesso na inferência de emoções da árvore se fornecidas as AUs corretas manualmente (esta informação é fornecida pela base de dados AU-CFED para comparação nas avaliações). Os resultados deste experimento podem ser observados na Tabela 7. Como se pode observar, as emoções repulsa e surpresa têm taxas de sucesso bastante baixas na árvore de decisão, chegando a ser nula para a repulsa. Isso explica a baixa taxa de sucesso da inferência da emoção pelo protótipo. Além disso, como para algumas emoções não é necessária a identificação de todas as AUs para a inferência correta da emoção (para algumas AUs, apenas a sua presença já evidencia certa emoção), o sistema consegue obter taxas de sucesso na inferência da emoção melhores que a taxa de sucesso na inferência das AUs que compõem uma emoção. CONCLUSÃO E TRABALHOS FUTUROS Neste artigo foi apresentado um sistema capaz de inferir as emoções de um usuário através das imagens estáticas provenientes de uma webcam. A taxa de sucesso média da aplicação é de 60,34% para a inferência das 6 emoções básicas: alegria, medo, raiva, repulsa, surpresa e tristeza. Porém, considerando-se a análise, apenas, das emoções alegria, raiva e tristeza, que são mais interessantes para os sistemas de IHC, a aplicação obtém uma taxa de sucesso média de 84,5%. 164

10 Experimentos adicionais mostraram que a pior taxa de sucesso das emoções repulsa e surpresa, em grande parte, se deve à árvore de decisão que precisa ser aperfeiçoada. Já, para a emoção medo, é necessário aperfeiçoar a inferência das AUs que diferenciam esta emoção da emoção tristeza, como mostra a Matriz de Confusão na Tabela 5. Além desses aperfeiçoamentos, como trabalho futuro pretende-se, também, realizar automaticamente a detecção das características faciais e a marcação dos FCPs. Uma vez encontradas as características faciais, a marcação dos FCPs se torna uma tarefa mais fácil, visto que estes pontos se encontram nas extremidades da boca, olhos e sobrancelhas ou em distâncias pré-determinadas (ver base na seção Normalização dos dados). REFERÊNCIAS 1. Booth, P.A. An Introduction To Human-Computer Interaction. Lawrence Erlbaum Associates Ltd, Hove, Reino Unido, Ekman, P. Facial Expression and Emotion. American Psychologist 48, (1993), Ekman, P. Facial Expressions. The Handbook of Cognition and Emotion. John Wiley & Sons, Sussex, Reino Unido, Ekman, P. Darwin, deception, and facial expression. Annals New York Academy of sciences, 1000 (2003), Ekman, P., Friesen, W.V. and Hager, J.C. Facial Action Coding System: The manual. Research Nexus division of Network Information Research Corporation, Salt Lake City, Estados Unidos, Ekman, P., Friesen, W.V. and Hager, J.C. Facial Action Coding System: Investigator s guide. Research Nexus division of Network Information Research Corporation, Salt Lake City, Estados Unidos, Fasel, B. and Luettin, J. Automatic facial expression analysis: a survey. Pattern Recognition 36, (2003), Friesen, W.V. and Ekman, P. EMFACS-7: Emotional Facial Action Coding System INTEL. OpenCV: Open source Computer Vision Library ex.htm. 10. Jaques, P.A. and Viccari, R.M. Estado da Arte em Ambientes Inteligentes de Aprendizagem que Consideram a Afetividade do Aluno. Revista Informática na Educação: Teoria e Prática 8, (2005), Jaques, P. A. and Viccari, R. M. A BDI Approach to Infer Student s Emotions. Computers and education 49, 2, (2007), Jongh, E.J.D. FED: An online facial expression dictionary as a first step in the creation of a complete nonverbal dictionary. TU Delft, Kanade, T., Cohn, J. and Tian, Y. Comprehensive Database for Facial Expression Analysis. Proc. FGR 2000, IEEE Computer Society (2000), Kobayashi, H. and Hara, F. The Recognition of Basic Facial Expressions by Neural Network. Proc. IJCNN 1991, IEEE Computer Society (1991), Ortony, A., Clore, G. and Collins, A. The Cognitive Structure of Emotions. Cambridge University Press, Cambridge, UK (1988). 16. Pantic, M. and Rothkrantz, L.J.M. Facial action recognition for facial expression analysis from static face images. IEEE Transactions on Systems, Man and Cybernetics, 34, 3, (2004) Picard, R.W. Affective Computing. MIT Press, Cambridge, EUA, RuleQuestResearch Data mining tools See5 and C Scherer, K. Skin colour detection under changing lighting conditions. The neuropsychology of emotion (2000), Sebe, N. et al. Multimodal approaches for emotion recognition. Proc. SPIE 2005, The International Society for Optical Engineering (2005), Viola, P.A. and Jones, M.J. Rapid Object Detection using a Boosted Cascade of Simple Features. CVPR 2001, IEEE Computer Society (1) (2001),

Aplicação para reconhecimento dinâmico de emoções em ambientes virtuais de aprendizagem

Aplicação para reconhecimento dinâmico de emoções em ambientes virtuais de aprendizagem Aplicação para reconhecimento dinâmico de emoções em ambientes virtuais de aprendizagem Adilmar C. Dantas 1, Sara L. Melo 1, Márcia A. Fernandes 1, Eduardo K. Takahashi 2 1 Faculdade de Computação Universidade

Leia mais

RECONHECIMENTO FACIAL UTILIZANDO EIGENFACES

RECONHECIMENTO FACIAL UTILIZANDO EIGENFACES Universidade Federal do Rio de Janeiro Instituto Alberto Luiz Coimbra de Pós-Graduação e Pesquisa de Engenharia Programa de Engenharia de Sistemas e Computação Rio de Janeiro, RJ Brasil RECONHECIMENTO

Leia mais

FOURFACE: UMA FERRAMENTA DE RECONHECIMENTO DE EXPRESSÕES FACIAIS.

FOURFACE: UMA FERRAMENTA DE RECONHECIMENTO DE EXPRESSÕES FACIAIS. FOURFACE: UMA FERRAMENTA DE RECONHECIMENTO DE EXPRESSÕES FACIAIS. Allan Ricardo Santos Teixeira allant@ymail.com Yomara Pinheiro Pires (Coordenadora) yomara.ufpa@gmail.com INTRODUÇÃO Reconhecer emoções

Leia mais

Classificação de emoções básicas através de imagens capturadas em vídeos de baixa resolução

Classificação de emoções básicas através de imagens capturadas em vídeos de baixa resolução Classificação de emoções básicas através de imagens capturadas em vídeos de baixa resolução Eduardo de Oliveira 1 Patrícia Augustin Jaques 1 Resumo: Este artigo apresenta um sistema computacional que classifica

Leia mais

MouseCam: aplicação de controle do mouse via câmera

MouseCam: aplicação de controle do mouse via câmera MouseCam: aplicação de controle do mouse via câmera Introdução ao Processamento de Imagens COS756 PESC/COPPE/UFRJ 2013 1 Renan Garrot garrot@cos.ufrj.br 1. Introdução O processo de tracking por vídeo consiste

Leia mais

FOURFACE: Uma ferramenta de reconhecimento de expressões faciais

FOURFACE: Uma ferramenta de reconhecimento de expressões faciais STIN Simpósio de Tecnologia da Informação da Região Noroeste do RS 185 FOURFACE: Uma ferramenta de reconhecimento de expressões faciais Ailton Lopes de Sousa, Saulo William S. Costa, Yomara Pires, Fabiola

Leia mais

Descritores de Imagens

Descritores de Imagens Descritores de Imagens André Tavares da Silva PPGCA/UDESC Outubro de 2017 André Tavares da Silva (PPGCA/UDESC) Descritores de Imagens Outubro de 2017 1 / 18 Descritores Locais e Frameworks SIFT SURF Viola-Jones

Leia mais

Aprendizado por imitação usando Redes Neurais

Aprendizado por imitação usando Redes Neurais Universidade de São Paulo Instituto de Ciências Matemáticas e Computação Aprendizado por imitação usando Redes Neurais Aluna: Valéria de Carvalho Santos Profª. Dra. Roseli A. F. Romero 2 Sumário Introdução

Leia mais

5 Protótipo e Resultados Obtidos

5 Protótipo e Resultados Obtidos 5 Protótipo e Resultados Obtidos 5.1. Introdução Este capítulo apresenta de forma minuciosa o protótipo desenvolvido durante este trabalho, que é uma ferramenta capaz de realizar o treinamento e a detecção

Leia mais

O reconhecimento facial é dividido em três etapas: i) detecção da face, ii) extração de características e iii) reconhecimento da face.

O reconhecimento facial é dividido em três etapas: i) detecção da face, ii) extração de características e iii) reconhecimento da face. ESTUDO SOBRE MÉTODOS DE RECONHECIMENTO FACIAL EM FOTOGRAFIAS DIGITAIS Ana Elisa SCHMIDT¹, Elvis Cordeiro NOGUEIRA² ¹ Orientadora e docente do IFC-Campus Camboriú; ² Aluno do curso de Bacharelado em Sistemas

Leia mais

ESTUDO DA IDENTIFICAÇÃO DE EMOÇÕES ATRAVÉS DA INTELIGENCIA ARTIFICIAL RESUMO. Palavras-Chave: emoções, inteligência artificial, reconhecimento facial

ESTUDO DA IDENTIFICAÇÃO DE EMOÇÕES ATRAVÉS DA INTELIGENCIA ARTIFICIAL RESUMO. Palavras-Chave: emoções, inteligência artificial, reconhecimento facial ESTUDO DA IDENTIFICAÇÃO DE EMOÇÕES ATRAVÉS DA INTELIGENCIA ARTIFICIAL Demétrius Alex Scardua¹ Kédyma Marques² RESUMO Este artigo tem como objetivo unir estudos e experiências realizadas em diferentes sociedades

Leia mais

SEMINÁRIO Visão Computacional Aluno: Afonso Pinheiro

SEMINÁRIO Visão Computacional Aluno: Afonso Pinheiro SEMINÁRIO Visão Computacional Aluno: Afonso Pinheiro Detecting Pedestrians Using Patterns of Motion and Appearance *Paul Viola *Michael J. Jones *Daniel Snow Por que detectar pedestres? http://conexaopenedo.com.br/2016/02/sistema-consegue-detectar-pedestres-em-tempo-real/

Leia mais

Color Eyes Detector. Duarte Petiz. DCC/FCUP

Color Eyes Detector. Duarte Petiz. DCC/FCUP Color Eyes Detector Duarte Petiz DCC/FCUP up201204625@fc.up.pt Resumo Este relatório descreve a implementação da aplicação desenvolvida Color Eyes Detector bem como mostra os resultados finais da execução

Leia mais

5 Análise Experimental

5 Análise Experimental 5 Análise Experimental 5.1. Base de dados para testes Foram gravados diversos vídeos que serviram para realizar os testes realizados nesta dissertação. Cada um dos vídeos gerados para medir qualidade da

Leia mais

RECONHECIMENTO FACIAL 2D

RECONHECIMENTO FACIAL 2D RECONHECIMENTO FACIAL 2D PARA SISTEMAS DE AUTENTICAÇÃO EM DISPOSITIVOS MÓVEIS Luciano Pamplona Sobrinho Orientador: Paulo César Rodacki Gomes ROTEIRO Introdução Objetivos Fundamentação Teórica Conceitos

Leia mais

Avaliando o impacto de tecnologias educacionais da Inteligência Artificial que consideram a afetividade do estudante na aprendizagem de jovens

Avaliando o impacto de tecnologias educacionais da Inteligência Artificial que consideram a afetividade do estudante na aprendizagem de jovens Avaliando o impacto de tecnologias educacionais da Inteligência Artificial que consideram a afetividade do estudante na aprendizagem de jovens Karin Samantha Fontes Jaques Patrícia Augustin Jaques PIPCA/UNISINOS

Leia mais

2 Reconhecimento Facial

2 Reconhecimento Facial 2 Reconhecimento Facial Em termos gerais, o reconhecimento facial é o processo pelo qual se mede o grau de similaridade entre duas imagens faciais com o proposito de identificar a um indivíduo ou de verificar

Leia mais

SCANFACE UNIVERSIDADE CATÓLICA DE PELOTAS CENTRO POLITÉCNICO DESENVOLVIMENTO EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS. por. Rodrigo Fernandes de Lima

SCANFACE UNIVERSIDADE CATÓLICA DE PELOTAS CENTRO POLITÉCNICO DESENVOLVIMENTO EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS. por. Rodrigo Fernandes de Lima UNIVERSIDADE CATÓLICA DE PELOTAS CENTRO POLITÉCNICO DESENVOLVIMENTO EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS SCANFACE por Rodrigo Fernandes de Lima Trabalho de Curso II submetido como requisito parcial

Leia mais

3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução

3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução 3 Extração de Regras Simbólicas a partir de Máquinas de Vetores Suporte 3.1 Introdução Como já mencionado na seção 1.1, as SVMs geram, da mesma forma que redes neurais (RN), um "modelo caixa preta" de

Leia mais

4 as Jornadas Politécnicas de Engenharia

4 as Jornadas Politécnicas de Engenharia 4 as Jornadas Politécnicas de Engenharia Imagens de Faces: Exemplos de Metodologias e Aplicações Fernando Carvalho, João Manuel R. S. Tavares Aplicação Metodologias Modelos Conclusões Trabalho Futuro Introdução:

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Alessandro L. Koerich Programa de Pós-Graduação em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Horários Aulas Sala 3 CCET [quinta-feira, 8:20 12:00] Atendimento

Leia mais

APLICAÇÃO DA VISÃO COMPUTACIONAL PARA SEGMENTAÇÃO DE OBJETOS EM IMAGENS CAPTURADAS POR EQUIPAMENTOS MÓVEIS.

APLICAÇÃO DA VISÃO COMPUTACIONAL PARA SEGMENTAÇÃO DE OBJETOS EM IMAGENS CAPTURADAS POR EQUIPAMENTOS MÓVEIS. APLICAÇÃO DA VISÃO COMPUTACIONAL PARA SEGMENTAÇÃO DE OBJETOS EM IMAGENS CAPTURADAS POR EQUIPAMENTOS MÓVEIS. João Marcelo RIBEIRO 1 Heber Rocha MOREIRA 2 Fiama F. S. do AMARAL 3 RESUMO Através da visão

Leia mais

Reconhecimento de expressões faciais através de análise facial computadorizada utilizando o Kinect v2

Reconhecimento de expressões faciais através de análise facial computadorizada utilizando o Kinect v2 Reconhecimento de expressões faciais através de análise facial computadorizada utilizando o Kinect v2 Gabriel Vaz Aires 1, Ian M. M. Santos 2, Pierre Soares Brandão 3, Fernando Luiz de Oliveira 4, Fabiano

Leia mais

Agentes Pedagógicos Emocionais em Sistemas Tutores Inteligentes. Patricia A. Jaques (PhD)

Agentes Pedagógicos Emocionais em Sistemas Tutores Inteligentes. Patricia A. Jaques (PhD) Agentes Pedagógicos Emocionais em Sistemas Tutores Inteligentes Patricia A. Jaques (PhD) pjaques@unisinos.br Temas de Pesquisa Inteligência Artificial aplicada à Educação Sistemas Tutores Inteligentes

Leia mais

Descritores de Imagem

Descritores de Imagem Descritores de Imagem André Tavares da Silva 31 de março de 2014 1 Descritores de imagem (continuação) 1.1 Frameworks de detecção de objetos SIFT (scale-invariant features transform) (Lowe, 1999) SIFT

Leia mais

6 Aplicações Detalhes da Implementação

6 Aplicações Detalhes da Implementação 6 Aplicações Neste trabalho, é importante implementar aplicações de interação em tempo real para que seja possível avaliar a aplicabilidade das técnicas de Visão Computacional descritas ao longo dos capítulos

Leia mais

Face Detection. Image Processing scc moacir ICMC/USP São Carlos, SP, Brazil

Face Detection. Image Processing scc moacir ICMC/USP São Carlos, SP, Brazil Face Detection Image Processing scc0251 www.icmc.usp.br/ moacir moacir@icmc.usp.br ICMC/USP São Carlos, SP, Brazil 2011 Moacir Ponti Jr. (ICMCUSP) Face Detection 2011 1 / 24 Agenda 1 Detectando faces 2

Leia mais

3 Técnica Baseada em Treinamento e Cascata de Classificadores

3 Técnica Baseada em Treinamento e Cascata de Classificadores 3 Técnica Baseada em Treinamento e Cascata de Classificadores 3.1. Introdução A utilização de algoritmos para a extração de características de objetos e a geração de classificadores em cascata capazes

Leia mais

Máquinas de Vetores de Suporte Aplicadas à Classificação de Defeitos em Couro Bovino

Máquinas de Vetores de Suporte Aplicadas à Classificação de Defeitos em Couro Bovino Máquinas de Vetores de Suporte Aplicadas à Classificação de Defeitos em Couro Bovino Ricardo Cezar Bonfim Rodrigues 24 de abril de 2006 1 Antecedentes e Justificativa Hoje, em diversos processos industriais,

Leia mais

Visão computacional. Juliana Patrícia Detroz Orientador: André Tavares Silva

Visão computacional. Juliana Patrícia Detroz Orientador: André Tavares Silva Visão computacional Juliana Patrícia Detroz Orientador: André Tavares Silva Visão computacional Tentativa de replicar a habilidade humana da visão através da percepção e entendimento de uma imagem; Fazer

Leia mais

4 Análise de Dados. 4.1.Procedimentos

4 Análise de Dados. 4.1.Procedimentos 4 Análise de Dados 4.1.Procedimentos A idéia inicial para a comparação dos dados foi separá-los em series de 28 ensaios, com a mesma concentração, para depois combinar esses ensaios em uma única série.

Leia mais

Detalhes do método proposto e da sua implementação são descritos nas

Detalhes do método proposto e da sua implementação são descritos nas 4 Método Proposto 4.1. Descrição geral do método O objetivo do método proposto consiste em avaliar o potencial dos FERNS para detecção das características faciais, em tempo real, em uma seqüência de imagens

Leia mais

Realidade Aumentada aplicada ao ensino da simetria molecular

Realidade Aumentada aplicada ao ensino da simetria molecular Realidade Aumentada aplicada ao ensino da simetria molecular Matheus Gaspar Reis 1, Alan Salvany Felinto 1 1 Departamento de Computação Universidade Estadual de Londrina (UEL) Caixa Postal 10.011 86057-680

Leia mais

TÍTULO: IDENTIFICAÇÃO DE CARACTERES APRESENTADOS A UMA CÂMERA POR MEIO DO MOVIMENTO DOS DEDOS DA MÃO DE UM SER HUMANO

TÍTULO: IDENTIFICAÇÃO DE CARACTERES APRESENTADOS A UMA CÂMERA POR MEIO DO MOVIMENTO DOS DEDOS DA MÃO DE UM SER HUMANO Anais do Conic-Semesp. Volume 1, 2013 - Faculdade Anhanguera de Campinas - Unidade 3. ISSN 2357-8904 TÍTULO: IDENTIFICAÇÃO DE CARACTERES APRESENTADOS A UMA CÂMERA POR MEIO DO MOVIMENTO DOS DEDOS DA MÃO

Leia mais

Face Recognition using RGB-D Images

Face Recognition using RGB-D Images Face Recognition using RGB-D Images Helder C. R. de Oliveira N.USP: 7122065 Polyana Nunes N.USP: 9043220 Sobre o Artigo Publication: 2013 IEEE Sixth International Conference Author(s) Goswami, G. (Índia

Leia mais

Aplicação de lógica Fuzzy em um Sistema de Interface Humano-Computador baseado em Visão Computacional.

Aplicação de lógica Fuzzy em um Sistema de Interface Humano-Computador baseado em Visão Computacional. Anais do EATI - Encontro Anual de Tecnologia da Informação 61 1. Aplicação de lógica Fuzzy em um Sistema de Interface Humano-Computador baseado em Visão Computacional. Cristiano Fraga G. Nunes 1,3, Paulo

Leia mais

UNIVERSIDADE FEDERAL DE PERNAMBUCO CENTRO DE INFORMÁTICA CURSO DE GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO PROPOSTA DO TRABALHO DE GRADUAÇÃO

UNIVERSIDADE FEDERAL DE PERNAMBUCO CENTRO DE INFORMÁTICA CURSO DE GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO PROPOSTA DO TRABALHO DE GRADUAÇÃO UNIVERSIDADE FEDERAL DE PERNAMBUCO CENTRO DE INFORMÁTICA CURSO DE GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO PROPOSTA DO TRABALHO DE GRADUAÇÃO André Diniz de Moraes CONSTRUÇÃO DE MÉTRICAS PARA AVALIAÇÃO DA PROPOSIÇÃO

Leia mais

Inteligência Artificial Agentes Inteligentes

Inteligência Artificial Agentes Inteligentes Inteligência Artificial Jarley P. Nóbrega, Dr. Faculdade Nova Roma Bacharelado em Ciência da Computação jpn@jarley.com Semestre 2018.2 Jarley P. Nóbrega, Dr. (Nova Roma) Inteligência Artificial Semestre

Leia mais

Projeto - Sistema Multimídia 2014/2 Etapa 01 (N2)

Projeto - Sistema Multimídia 2014/2 Etapa 01 (N2) 1 FURB Universidade Regional de Blumenau DSC Departamento de Sistemas e Computação Grupo de Pesquisa em Computação Gráfica, Processamento de Imagens e Entretenimento Digital Disciplina: Sistemas Multimídia

Leia mais

IDENTIFICAÇÃO DE MARCADORES DE PAVIMENTAÇÃO NA ORIENTAÇÃO DE CEGOS. André Zuconelli 1 ; Manassés Ribeiro 2

IDENTIFICAÇÃO DE MARCADORES DE PAVIMENTAÇÃO NA ORIENTAÇÃO DE CEGOS. André Zuconelli 1 ; Manassés Ribeiro 2 IDENTIFICAÇÃO DE MARCADORES DE PAVIMENTAÇÃO NA ORIENTAÇÃO DE CEGOS André Zuconelli 1 ; Manassés Ribeiro 2 INTRODUÇÃO As tecnologias assistivas têm a finalidade de auxiliar pessoas com deficiência a alcançar

Leia mais

Inteligência Artificial

Inteligência Artificial Universidade Federal de Campina Grande Departamento de Sistemas e Computação Pós-Graduação em Ciência da Computação Inteligência Artificial Aprendizagem (Redes Neurais - Complementar) Prof. a Joseana Macêdo

Leia mais

Computação Afetiva: Uma ferramenta para avaliar aspectos afetivos em aplicações computacionais.

Computação Afetiva: Uma ferramenta para avaliar aspectos afetivos em aplicações computacionais. 286 Computação Afetiva: Uma ferramenta para avaliar aspectos afetivos em aplicações computacionais. Saulo William S. Costa, Ailton Lopes de Sousa, Yomara Pires Laboratório de Desenvolvimento de Sistemas

Leia mais

Universidade Católica Dom Bosco

Universidade Católica Dom Bosco Universidade Católica Dom Bosco Curso de Bacharelado em Engenharia de Computação Comparação entre Técnicas de Reconhecimento de Faces para Controle de Acesso a Computadores Vinícius Assis Saueia da Silva

Leia mais

Implementação de um protópito de uma interface para um controlador de cadeira. de rodas guiado pela direção do olhar.

Implementação de um protópito de uma interface para um controlador de cadeira. de rodas guiado pela direção do olhar. Implementação de um protópito de uma interface para um controlador de cadeiras de rodas guiado pela direção do olhar. Vinícius Assis Saueia da Silva 18 de abril de 2005 1 Título Implementação de um protópito

Leia mais

Detecção e Correção Automáticas de Olhos Vermelhos

Detecção e Correção Automáticas de Olhos Vermelhos Setor de Tecnologia da Universidade Federal do Paraná Curso de Engenharia Elétrica TE 072 Processamento Digital de Sinais Detecção e Correção Automáticas de Olhos Vermelhos Trabalho elaborado pelo aluno

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Aprendizagem de Máquina Apresentação da Disciplina Alessandro L. Koerich 2008 Mestrado e Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Mestrado/Doutorado em Informática Aprendizagem

Leia mais

Extração de Atributos para Reconhecimento de Expressões Faciais

Extração de Atributos para Reconhecimento de Expressões Faciais Extração de Atributos para Reconhecimento de Expressões Faciais Vinícius Assis Saueia da Silva 1 1. Introdução Interação Homem-Computador é uma das áreas da computação que procuram fazer com que o ser

Leia mais

Sistema de Reconhecimento de Logotipos

Sistema de Reconhecimento de Logotipos Sistema de Reconhecimento de Logotipos Fellipe Duarte, Saulo T. Oliveira {duartefellipe,sto}@cos.ufrj.br Relatório Técnico, Introdução ao Processamento de Imagens Programa de Engenharia de Sistemas e Computação

Leia mais

Tradução de Libras por Imagem

Tradução de Libras por Imagem Tradução de Libras por Imagem Daniel Rodrigo Santos Ribeiro 1 Marco Túlio Alves Nolasco Rodrigues 2 Resumo: A Língua Brasileira de Sinais (Libras), é uma das formas de comunicação entre as comunidades

Leia mais

5 Estudo de Caso e Resultados

5 Estudo de Caso e Resultados 5 Estudo de Caso e Resultados 5.1. Introdução Finalizado o desenvolvimento da ferramenta, é indispensável testar suas funcionalidades e a eficácia da aplicação conjunta dos seus módulos de geração de experimentos

Leia mais

SEMINÁRIO DOS ARTIGOS:

SEMINÁRIO DOS ARTIGOS: SEMINÁRIO DOS ARTIGOS: Text Detection and Character Recognition in Scene Images with Unsupervised Feature Learning End-to-End Text Recognition with Convolutional Neural Networks Fernanda Maria Sirlene

Leia mais

Objetivos. 1. O método desenvolvido usa características de pares de pixeis para fazer estatísticas e formar

Objetivos. 1. O método desenvolvido usa características de pares de pixeis para fazer estatísticas e formar Introdução Comidas podem apresentar deformações e variações em sua forma, além de conter muitos ingredientes, nem todos visíveis; Métodos tradicionais de reconhecimento requerem a detecção de características

Leia mais

Extração de objetos de interesse em imagens digitais utilizando a biblioteca de Visão Computacional OpenCV

Extração de objetos de interesse em imagens digitais utilizando a biblioteca de Visão Computacional OpenCV Extração de objetos de interesse em imagens digitais utilizando a biblioteca de Visão Computacional OpenCV Izadora Aparecida RAMOS 1,3,4 ; Servílio Souza de ASSIS 1,3,4 ; Bruno Alberto Soares OLIVEIRA

Leia mais

Reconhecimento de Tipos de Movimento Humano baseados no método GMM.

Reconhecimento de Tipos de Movimento Humano baseados no método GMM. Reconhecimento de Tipos de Movimento Humano baseados no método GMM. C.Gonçalves 1 ; L.A.Pereira; J.C.Pizolato, Jr.; A.Gonzaga. Escola de Engenharia de São Carlos-EESC-USP Av. Trab. São-Carlense, 400 CP

Leia mais

Aprendizagem de Máquina

Aprendizagem de Máquina Plano da Apresentação Aprendizagem de Máquina Alessandro L. Koerich 2007 Mestrado e Doutorado em Informática Pontifícia Universidade Católica do Paraná (PUCPR) Professor & Experiência Acadêmica Horários

Leia mais

7 Congresso de Pós-Graduação MODELAGEM DE BASE DE CONHECIMENTO PARA TAREFA DE CLASSIFICAÇÃO EM MINERAÇÃO DE DADOS

7 Congresso de Pós-Graduação MODELAGEM DE BASE DE CONHECIMENTO PARA TAREFA DE CLASSIFICAÇÃO EM MINERAÇÃO DE DADOS 7 Congresso de Pós-Graduação MODELAGEM DE BASE DE CONHECIMENTO PARA TAREFA DE CLASSIFICAÇÃO EM MINERAÇÃO DE DADOS Autor(es) LIDIA MARTINS DA SILVA Orientador(es) ANA ESTELA ANTUNES DA SILVA 1. Introdução

Leia mais

RECONHECIMENTO DE GESTOS COM SEGMENTAÇÃO DE IMAGENS DINÂMICAS APLICADAS A LIBRAS

RECONHECIMENTO DE GESTOS COM SEGMENTAÇÃO DE IMAGENS DINÂMICAS APLICADAS A LIBRAS RECONHECIMENTO DE GESTOS COM SEGMENTAÇÃO DE IMAGENS DINÂMICAS APLICADAS A LIBRAS ANUÁRIO DA PRODUÇÃO DE INICIAÇÃO CIENTÍFICA DISCENTE Vol. 13, N. 20, Ano 2010 Adilson Roberto Pavan Prof. Jaime Cazhurriro

Leia mais

Identificação de Pontos Perceptualmente Importantes (PIP) em séries temporais de tópicos extraídos de dados textuais

Identificação de Pontos Perceptualmente Importantes (PIP) em séries temporais de tópicos extraídos de dados textuais Universidade de São Paulo Biblioteca Digital da Produção Intelectual - BDPI Departamento de Ciências de Computação - ICMC/SCC Comunicações em Eventos - ICMC/SCC 2015 Identificação de Pontos Perceptualmente

Leia mais

Processamento Digital de Imagens

Processamento Digital de Imagens Ciência da Computação Processamento Digital de Imagens Tópicos Detecção de Pontos Isolados Detecção de Linhas Prof. Sergio Ribeiro 2 Operações lógicas e aritméticas orientadas a vizinhança utilizam o conceito

Leia mais

3 Modelos Flex ıveis 3.1 Active Contour Model

3 Modelos Flex ıveis 3.1 Active Contour Model 3 Modelos Flexíveis Em Visão Computacional, uma das principais premissas é processar uma imagem com a finalidade de compreendê-la e retirar dela informações úteis. É utilizada em diversas aplicações atualmente,

Leia mais

"Análise de Extratores de Característica para Reconhecimento de Face"

Análise de Extratores de Característica para Reconhecimento de Face Universidade Federal de Pernambuco Centro de Informática Graduação em Engenharia de Computação Proposta de Trabalho de Graduação "Análise de Extratores de Característica para Reconhecimento de Face" Orientador:

Leia mais

Desenvolvimento de um Protótipo e de Metodologias de Controlo de uma Cadeira de Rodas Inteligente

Desenvolvimento de um Protótipo e de Metodologias de Controlo de uma Cadeira de Rodas Inteligente Desenvolvimento de um Protótipo e de Metodologias de Controlo de uma Cadeira de Rodas Inteligente Discente: Marcelo Roberto Petry Orientador: Professor Doutor Luís Paulo Reis Co-orientador: Mestre Rodrigo

Leia mais

Transformação de Imagens Digitais em Código CNC Aprimoradas com Redes Neurais Artificiais

Transformação de Imagens Digitais em Código CNC Aprimoradas com Redes Neurais Artificiais Transformação de Imagens Digitais em Código CNC Aprimoradas com Redes Neurais Artificiais Abstract. Jader Teixeira 1, Alex Vinícios Telocken 1 1 Universidade de Cruz Alta (UNICRUZ) jader033139@unicruz.edu.br,

Leia mais

UNIVERSIDADE FEDERAL DE PERNAMBUCO CENTRO DE INFORMÁTICA GRADUAÇÃO EM ENGENHARIA DA COMPUTAÇÃO

UNIVERSIDADE FEDERAL DE PERNAMBUCO CENTRO DE INFORMÁTICA GRADUAÇÃO EM ENGENHARIA DA COMPUTAÇÃO UNIVERSIDADE FEDERAL DE PERNAMBUCO CENTRO DE INFORMÁTICA GRADUAÇÃO EM ENGENHARIA DA COMPUTAÇÃO Aluno: Larissa Lages de Oliveira (llo@cin.ufpe.br) Orientador: Daniel Carvalho da Cunha (dcunha@cin.ufpe.br)

Leia mais

PROGRAMA DE PÓS-GRADUAÇÃO EM SISTEMAS E PROCESSOS INDUSTRIAIS NADIESCA HOMRICH SCHERER

PROGRAMA DE PÓS-GRADUAÇÃO EM SISTEMAS E PROCESSOS INDUSTRIAIS NADIESCA HOMRICH SCHERER PROGRAMA DE PÓS-GRADUAÇÃO EM SISTEMAS E PROCESSOS INDUSTRIAIS NADIESCA HOMRICH SCHERER Aspectos Emocionais e Cognitivos de Estudantes em Ambientes Virtuais de Aprendizagem Santa Cruz do Sul, 2014. 3 UNIVERSIDADE

Leia mais

VISÃO COMPUTACIONAL PARA A LEITURA DO DISPOSITIVO MOSTRADOR DE INSTRUMENTOS DE MEDIÇÃO

VISÃO COMPUTACIONAL PARA A LEITURA DO DISPOSITIVO MOSTRADOR DE INSTRUMENTOS DE MEDIÇÃO VISÃO COMPUTACIONAL PARA A LEITURA DO DISPOSITIVO MOSTRADOR DE INSTRUMENTOS DE MEDIÇÃO Danilo Alves de Lima 1, Guilherme Augusto Silva Pereira 2, Flávio Henrique de Vasconcelos 3 Departamento de Engenharia

Leia mais

Descoberta de conhecimento em redes sociais e bases de dados públicas

Descoberta de conhecimento em redes sociais e bases de dados públicas Descoberta de conhecimento em redes sociais e bases de dados públicas Trabalho de Formatura Supervisionado Bacharelado em Ciência da Computação - IME USP Aluna: Fernanda de Camargo Magano Orientadora:

Leia mais

Tópicos Especiais em Reconhecimento de Padrões [2COP329] Mestrado em Ciência da. Sylvio Barbon Jr

Tópicos Especiais em Reconhecimento de Padrões [2COP329] Mestrado em Ciência da. Sylvio Barbon Jr Tópicos Especiais em Reconhecimento de Padrões [2COP329] Mestrado em Ciência da Computação Sylvio Barbon Jr barbon@uel.br (2/20) Tema Aula 1 Introdução ao Reconhecimento de Padrões 1 Introdução 2 Referências

Leia mais

Aprendizagem de Máquina. Prof. Júlio Cesar Nievola PPGIA - PUCPR

Aprendizagem de Máquina. Prof. Júlio Cesar Nievola PPGIA - PUCPR Aprendizagem de Máquina Prof. Júlio Cesar Nievola PPGIA - PUCPR Introdução Justificativa Recente progresso em algoritmos e teoria Disponibilidade crescente de dados online Poder computacional disponível

Leia mais

Computaçã. Visão Geral. Sistema Gráfico. Computação Gráfica. Pixels. Sistema Gráfico e o Frame Buffer. Introdução à Computação Gráfica

Computaçã. Visão Geral. Sistema Gráfico. Computação Gráfica. Pixels. Sistema Gráfico e o Frame Buffer. Introdução à Computação Gráfica Visão Geral Computaçã ção o Gráfica Introduçã ção, conceitos básicosb sicos, áreas relacionadas Introdução à Computação Gráfica Como funciona um sistema gráfico Como imagens são representadas Áreas relacionadas,

Leia mais

INFORMAÇÕES DO ACADÊMICO PLANO DE TRABALHO. 1. Justificativa

INFORMAÇÕES DO ACADÊMICO PLANO DE TRABALHO. 1. Justificativa INFORMAÇÕES DO ACADÊMICO Nome: Kleber Padovani de Souza Curso: Engenharia de Computação Semestre: R.A.: Título do plano de trabalho: Extração de atributos da imagem através de momentos de imagem. Nome

Leia mais

Reconhecimento de linguagem de sinais: aplicação em LIBRAS

Reconhecimento de linguagem de sinais: aplicação em LIBRAS Reconhecimento de linguagem de sinais: aplicação em LIBRAS Ruberth A. A. Barros 1, Aitan V. Pontes 1, João D. S. Almeida 1 1 Núcleo de Computação Aplicada Universidade Federal Maranhão (UFMA) Caixa Postal

Leia mais

Sketch to Photo Matching: A Feature-based Approach (Klare and Jain [2010])

Sketch to Photo Matching: A Feature-based Approach (Klare and Jain [2010]) Sketch to Photo Matching: A Feature-based Approach (Klare and Jain [2010]) Marco Antonio de A. Silva Programa de Pós-Graduação em Ciência da Computação - PPGCC Departamento de Computação - DECOM Universidade

Leia mais

INTERPOLAÇÃO LINEAR E BILINEAR: APLICAÇÃO EM TRANSFORMAÇÕES GEOMÉTRICAS DE IMAGEM INTRODUÇÃO

INTERPOLAÇÃO LINEAR E BILINEAR: APLICAÇÃO EM TRANSFORMAÇÕES GEOMÉTRICAS DE IMAGEM INTRODUÇÃO INTERPOLAÇÃO LINEAR E BILINEAR: APLICAÇÃO EM TRANSFORMAÇÕES GEOMÉTRICAS DE IMAGEM Autores: Giulia Denise Kujat VIEIRA; Milene Karine GUBETTI. Identificação autores: Estudantes do Curso Técnico em Informática

Leia mais

Extração de atributos usando o método LBP - Local Binary Pattern

Extração de atributos usando o método LBP - Local Binary Pattern Extração de atributos usando o método LBP - Local Binary Pattern Lia Nara Balta Quinta. 2 de maio de 2006 1 Antecedentes e Justificativa O Brasil possui, atualmente, um grande rebanho bovino, porém em

Leia mais

Kanade-Lucas-Tomasi Tracker

Kanade-Lucas-Tomasi Tracker COPPE-UFRJ Kanade-Lucas-Tomasi Tracker Ricardo Marroquim data entrega: pós-graduação: 18/05/2016 graduação: 27/05/2016 1 NOTAÇÕES Uma imagem é definida como uma função f (x, y), x, y Z, onde f (x, y) :

Leia mais

INF Fundamentos da Computação Gráfica Professor: Marcelo Gattass Aluno: Rogério Pinheiro de Souza

INF Fundamentos da Computação Gráfica Professor: Marcelo Gattass Aluno: Rogério Pinheiro de Souza INF2608 - Fundamentos da Computação Gráfica Professor: Marcelo Gattass Aluno: Rogério Pinheiro de Souza Trabalho 02 Visualização de Imagens Sísmicas e Detecção Automática de Horizonte Resumo Este trabalho

Leia mais

Introdução a Visão Computacional. Prof. Dr. Geraldo Braz Junior DEINF - UFMA

Introdução a Visão Computacional. Prof. Dr. Geraldo Braz Junior DEINF - UFMA Introdução a Visão Computacional Prof. Dr. Geraldo Braz Junior DEINF - UFMA O que é Visão Computacional? Você já viu? 2 O que se espera? Visão é sobre entender imagens Coloridas ou em tons de cinza Pequenas

Leia mais

Reconhecimento de Gestos com Segmentação de Imagens Dinâmicas Aplicadas a Libras

Reconhecimento de Gestos com Segmentação de Imagens Dinâmicas Aplicadas a Libras Reconhecimento de Gestos com Segmentação de Imagens Dinâmicas Aplicadas a Libras Adilson Roberto Pavan Fábio Alexandre Caravieri Modesto Anhanguera Educacional adilson.pavan@gmail.com fabiomodesto@uol.com.br

Leia mais

Sistema de Animação Facial Tridimensional e Síntese de Voz

Sistema de Animação Facial Tridimensional e Síntese de Voz MAC499 - Trabalho de Formatura Supervisionado Sistema de Animação Facial Tridimensional e Síntese de Voz Aluna: Andréa Britto Mattos Orientador: Roberto Marcondes Cesar Jr. O Projeto Avator Versão de 2007:

Leia mais

Descritores de Imagens

Descritores de Imagens Descritores de Imagens André Tavares da Silva PPGCA/UDESC Outubro de 2017 André Tavares da Silva (PPGCA/UDESC) Descritores de Imagens Outubro de 2017 1 / 17 Introdução Excelentes pesquisas sobre descritores

Leia mais

Aplicação de Tags em Objetos de Sistemas de Visualização em Tempo Real

Aplicação de Tags em Objetos de Sistemas de Visualização em Tempo Real Fundamentos de Computação Gráfica Aplicação de Tags em Objetos de Sistemas de Visualização em Tempo Real Renato Deris Prado Tópicos principais 1. Introdução e Objetivos Sistemas de visualização em tempo

Leia mais

Reconhecimento de texturas utilizando padrão binário local e classificador knn.

Reconhecimento de texturas utilizando padrão binário local e classificador knn. Reconhecimento de texturas utilizando padrão binário local e classificador knn. Vinicius Santos Andrade 1 Resumo. Através de uma imagem é possível obter inúmeras informações. Portanto, é cada vez mais

Leia mais

Fazendo máquinas enxergarem com OpenCV. TCHÊLINUX 2017 Felipe Aguiar Corrêa

Fazendo máquinas enxergarem com OpenCV. TCHÊLINUX 2017 Felipe Aguiar Corrêa Fazendo máquinas enxergarem com OpenCV TCHÊLINUX 2017 Felipe Aguiar Corrêa Quem é esse cara aí? UFPEL Ciência da Computação Visão Computacional Rastreamento de Pedestres Visão Computacional Sub-área da

Leia mais

Reconhecimento Ótico de Caracteres em Placas Veiculares

Reconhecimento Ótico de Caracteres em Placas Veiculares Universidade Federal De Pernambuco Centro De Informática Graduação Em Engenharia Da Computação 2012.2 Reconhecimento Ótico de Caracteres em Placas Veiculares Proposta de Trabalho de Graduação Aluno Pedro

Leia mais

UNIVERSIDADE FEDERAL DE UBERLÂNDIA UFU

UNIVERSIDADE FEDERAL DE UBERLÂNDIA UFU UNIVERSIDADE FEDERAL DE UBERLÂNDIA UFU PLANO DE TRABALHO EM INICIAÇÃO CIENTÍFICA Desenvolvimento e aplicação de um modelo gravitacional simplificado para análise de formas. Uberlândia 17/05/2013 IDENTIFICAÇÃO

Leia mais

Desde o surgimento dos primeiros jogos eletrônicos em meados dos anos 50, uma infinidade de aparatos eletrônicos foram desenvolvidos, principalmente

Desde o surgimento dos primeiros jogos eletrônicos em meados dos anos 50, uma infinidade de aparatos eletrônicos foram desenvolvidos, principalmente 1 Introdução Desde o surgimento dos primeiros jogos eletrônicos em meados dos anos 50, uma infinidade de aparatos eletrônicos foram desenvolvidos, principalmente referentes a jogos e entretenimento digital.

Leia mais

Projeto Interface Interativa Inclusiva.

Projeto Interface Interativa Inclusiva. Projeto Interface Interativa Inclusiva. Alunos: Ícaro Manoel Quelis Alves João Henrique Branquinho Rocha Pedro Henrique Chagas Alves Professores Orientadores: Ailton Luiz Dias Siqueira Junior André Luiz

Leia mais

VISÃO COMPUTACIONAL PARA RECONHECIMENTO DE FACES APLICADO NA IDENTIFICAÇÃO E AUTENTICAÇÃO DE USUÁRIOS NA WEB. Márcio Koch

VISÃO COMPUTACIONAL PARA RECONHECIMENTO DE FACES APLICADO NA IDENTIFICAÇÃO E AUTENTICAÇÃO DE USUÁRIOS NA WEB. Márcio Koch VISÃO COMPUTACIONAL PARA RECONHECIMENTO DE FACES APLICADO NA IDENTIFICAÇÃO E AUTENTICAÇÃO DE USUÁRIOS NA WEB Márcio Koch Orientador: Jacques Robert Heckmann ROTEIRO Introdução Objetivos do trabalho Fundamentação

Leia mais

5 Exemplos e testes 5.1 Exemplos de uso da Biblioteca Simula ao de um radar rodovi ario de monitoramento de velocidade automotiva

5 Exemplos e testes 5.1 Exemplos de uso da Biblioteca Simula ao de um radar rodovi ario de monitoramento de velocidade automotiva 5 Exemplos e testes Com o objetivo de experimentar a aplicação deste trabalho em simulações de radares, foram desenvolvidos exemplos de simulações de cenários realistas. Cinco simulações foram experimentadas:

Leia mais

Classificação de Folhas por Tamanho e Forma Através de Descritores Geométricos e Análise dos Componentes Principais

Classificação de Folhas por Tamanho e Forma Através de Descritores Geométricos e Análise dos Componentes Principais Classificação de Folhas por Tamanho e Forma Através de Descritores Geométricos e Análise dos Componentes Principais MARCOS C. DE ANDRADE, LÚCIO C. M. PINTO Centro de Desenvolvimento da Tecnologia Nuclear

Leia mais

Detecção de Faces Humanas em Imagens Coloridas Utilizando Redes Neurais Artificiais

Detecção de Faces Humanas em Imagens Coloridas Utilizando Redes Neurais Artificiais Detecção de Faces Humanas em Imagens Coloridas Utilizando Redes Neurais Artificiais Wellington da Rocha Gouveia Universidade de São Paulo Escola de Engenharia de São Carlos Departamento de Engenharia Elétrica

Leia mais

Aprendizado de Máquina. Combinando Classificadores

Aprendizado de Máquina. Combinando Classificadores Universidade Federal do Paraná (UFPR) Departamento de Informática (DInf) Aprendizado de Máquina Combinando Classificadores David Menotti, Ph.D. web.inf.ufpr.br/menotti Introdução O uso de vários classificadores

Leia mais

Implementando o Agente de Base de Domínio do Sistema Tutor Inteligente PAT2Math

Implementando o Agente de Base de Domínio do Sistema Tutor Inteligente PAT2Math Programa de Pós-Graduação em Computação Aplicada Implementando o Agente de Base de Domínio do Sistema Tutor Inteligente PAT2Math Bolsistas: Gabriel E. Chites de Mello Geiseane Lacerda Rubi (Ciência da

Leia mais

Visão Computacional. Prof. Leandro Augusto Frata Fernandes TCC Introdução à Ciência da Computação (2012.

Visão Computacional. Prof. Leandro Augusto Frata Fernandes TCC Introdução à Ciência da Computação (2012. Visão Computacional Prof. Leandro Augusto Frata Fernandes laffernandes@ic.uff.br TCC-00.169 Introdução à Ciência da Computação (2012.1) Visão Humana Responsável por cerca de 75% de nossa percepção O ato

Leia mais

Reconhecimento de Gestos

Reconhecimento de Gestos Reconhecimento de Gestos Henrique Augusto Richter Tópicos em Visão Computacional Universidade Federal do Paraná Sumário Introdução Utilização Problemas Trabalhos Artigo 1 Artigo 2 Project Soli Introdução

Leia mais

RECONHECIMENTO IDENTIFICAÇÃO BASEADA EM APARÊNCIA

RECONHECIMENTO IDENTIFICAÇÃO BASEADA EM APARÊNCIA RECONHECIMENTO IDENTIFICAÇÃO BASEADA EM APARÊNCIA Envolve a pergunta: É esta parte da imagem uma parte do objeto X? (modelo dado, região da imagem dada) Utiliza imagens ao invés de características como

Leia mais

METODOLOGIAS PARA IDENTIFICAÇÃO DE FACES EM IMAGENS: INTRODUÇÃO E EXEMPLOS DE RESULTADOS

METODOLOGIAS PARA IDENTIFICAÇÃO DE FACES EM IMAGENS: INTRODUÇÃO E EXEMPLOS DE RESULTADOS Congreso de Métodos Numéricos en Ingeniería 2005 Granada, 4 a 7 de Julio, 2005 SEMNI, España 2005 METODOLOGIAS PARA IDENTIFICAÇÃO DE FACES EM IMAGENS: INTRODUÇÃO E EXEMPLOS DE RESULTADOS Fernando Jorge

Leia mais

4 Método Proposto CR AD PA NDVI Descrição geral do modelo

4 Método Proposto CR AD PA NDVI Descrição geral do modelo 34 4 Método Proposto 4.1. Descrição geral do modelo Neste trabalho, cada classe (cobertura vegetal) possui um HMM específico. Os estágios fenológicos correspondem a estados e os símbolos observáveis a

Leia mais

RECONHECIMENTO DE CARACTERES EM IMAGENS COM RUÍDO

RECONHECIMENTO DE CARACTERES EM IMAGENS COM RUÍDO RECONHECIMENTO DE CARACTERES EM IMAGENS COM RUÍDO Fernanda Maria Sirlene Pio SUMARIO Introdução Trabalhos Relacionados Metodologia Experimentos Conclusão Referências 2 INTRODUÇÃO Reconhecimento de Padrões

Leia mais