First-person activity recognition. Matheus A. Nerone

Documentos relacionados
Reconhecimento de Gestos

Métodos de Segmentação de Imagem para Análise da Marcha

Sketch to Photo Matching: A Feature-based Approach (Klare and Jain [2010])

Motivação para o estudo de IA

Motivação para o estudo de IA

Tecnologias da Informação Motivações e Avanços

READING DIGITS IN NATURAL IMAGES WITH UNSUPERVISED FEATURE LEARNING

Introdução a Visão Computacional. Prof. Dr. Geraldo Braz Junior DEINF - UFMA

Cursos da Escola de Engenharias e Ciências Exatas - UnP

SEMINÁRIO DOS ARTIGOS:

Person Re-Identification. Autor: Guilherme Zasyeki Machado

SEMINÁRIO Visão Computacional Aluno: Afonso Pinheiro

Orientação a Objetos e UML

Aprendizagem de Máquina

Flávio Garcia Pereira, Raquel Frizera Vassallo, Marino Frank Cypriano Universidade Federal do Espírito Santo Vitória Brasil

Region Based CNNs. Francisco Calaça Xavier. Programa de pós-graduação em Ciências da Computação Mestrado e Doutorado. Instituto de Informática UFG

Face Detection. Image Processing scc moacir ICMC/USP São Carlos, SP, Brazil

Reconhecimento de Modelos de Veículos

10º Congresso Interinstitucional de Iniciação Científica CIIC a 04 de agosto de 2016 Campinas, São Paulo ISBN

Color Eyes Detector. Duarte Petiz. DCC/FCUP

Reconhecimento de Faces com PCA e Redes Neurais

Uma Abordagem Genética Para Redes Neurais Convolucionais

Máquinas de Vetores de Suporte Aplicadas à Classificação de Defeitos em Couro Bovino

RECONHECIMENTO DE CARACTERES EM IMAGENS COM RUÍDO

Object Tracking. Fernando Medeiros Dufour Ciência da Computação - UFPR Tópicos em Visão Computacional

Sistema de Reconhecimento de Logotipos

Identificação de Trajetórias Espaço-Temporais de Objetos em Movimento

"Análise de Extratores de Característica para Reconhecimento de Face"

Universidade Católica Dom Bosco

Detecção de fraudes em hidrômetros através da utilização de técnicas de reconhecimento de padrões

PONTIFÍCIA UNIVERSIDADE CATÓLICA DE CAMPINAS PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO COORDENADORIA GERAL DE PESQUISA EDITAL PROPESQ/CGP Nº 002/17

Estimativa de Posição 3D de Obstáculos para VANTs

Computação Ciente de Contexto

Echo State Networks. Fabricio Breve João Bertini

Aprendizado por imitação usando Redes Neurais

Comunicação Científica I

André de S. Moreira Caroline Rosa Redlich Suellen de A. C. da S. Motta Thiago R. da Motta Detecção de Pedestres em Vídeos

Reconhecimento de Veículos em ambientes externos através do processamento de imagens

GoogLeNet - Going Deeper with Convolutions

Extração de Atributos para Reconhecimento de Expressões Faciais

Descritores de Imagens

Reconhecimento Ótico de Caracteres em Placas Veiculares

TÍTULO: IDENTIFICAÇÃO DE CARACTERES APRESENTADOS A UMA CÂMERA POR MEIO DO MOVIMENTO DOS DEDOS DA MÃO DE UM SER HUMANO

ACCURATE IRIS LOCALIZATION USING CONTOUR SEGMENTS

Uma proposta para classificação de equipes em esportes coletivos

Descritores de Imagem

Redes Neurais Pulsadas. João Fausto Lorenzato Robson David Montenegro Tarcísio Lucas

SISTEMA DE ANÁLISE DE VÍDEO EM TEMPO REAL NA DETECÇÃO DE PADRÕES DE MOVIMENTO

Universidade Federal de Pernambuco Graduação em Ciência da Computação Centro de Informática

Universidade Federal de Goiás (UFG) Avenida Dr. Lamartine Pinto de Avelar, 1120, Setor Universitário Catalão GO Brasil

Reconhecimento de Tipos de Movimento Humano baseados no método GMM.

Detecção de Faces Humanas em Imagens Coloridas Utilizando Redes Neurais Artificiais

Um Sistema de Calibração de Câmera

Escalonamento de Aplicações BoT em Ambiente de Nuvem

Um Estudo sobre Diferente Tipos de Funções de Custo Para Redes Neurais Convolucionais

Computação Evolucionária

Técnicas de processamento digital de imagens aplicadas na contagem volumétrica de veículos

Uma proposta para classificação de equipes em esportes coletivos

Reconhecimento de Faces Utilizando Redes Neurais MLP

Reconhecimento do alfabeto da linguagem de sinais brasileira por classificação de animação 3D gerada por kinect.

Classificação Hierárquica Multirrótulo Utilizando Redes Neurais Artificiais

MouseCam: aplicação de controle do mouse via câmera

Aprendizagem de Máquina

Deep Learning for Chinese Word Segmentation and POS Tagging

Face Recognition using RGB-D Images

Universidade Católica Dom Bosco Curso de Bacharelado em Engenharia de Computação

Detecção de Violações de SLA em Coreografias de Serviços Web

Desenvolvimento de um Sistema de Visão Artificial para um Robô Explorador

ESTUDO E IMPLEMENTAÇÃO DE METÁFORAS DE INTERAÇÃO 3D COM FOCO EM NAVEGAÇÃO EM AMBIENTE CAVE

Aprendizagem de Máquina

Métodos de Extração de Características

Estudo Comparativo entre Redes Neurais Artificiais Aplicadas a Reconhecimento Facial

O reconhecimento facial é dividido em três etapas: i) detecção da face, ii) extração de características e iii) reconhecimento da face.

Detecção de Gestos Através da Extração de Características da Mão Humana

Página 1 of 5. Curriculum Vitae - CNPq. Dados Pessoais. Formação Acadêmica/Titulação. Atuação Profissional

Reconstrução 3D com auxílio de segmentações múltiplas

CRI Minas Indústria 4.0. Case Vallourec: Golden Batch na produção de tubos

Autor 1 Orientador: 1. dia de mês de ano

Abordagem Semi-supervisionada para Rotulação de Dados

Time Series Trend Detection and Forecasting Using Complex Network Topology Analysis

Aprendizagem de Máquina

Reconhecimento de Ações

Aluno: Tiago Andrade Togores Orientador: Professor Flávio Soares Côrrea da Silva

PONTIFÍCIA UNIVERSIDADE CATÓLICA DE CAMPINAS PRÓ-REITORIA DE PESQUISA E PÓS-GRADUAÇÃO COORDENADORIA GERAL DE PESQUISA EDITAL PROPESQ/CGP Nº 001/17

Reconhecimento de ações humanas em vídeos por meio de transferência de aprendizado

11º Congresso Interinstitucional de Iniciação Científica CIIC a 04 de agosto de 2017 Campinas, São Paulo ISBN

Video Quality Assessment in Java

Detecção de Anomalias Em Vídeos Utilizando Dicionários Espaço-Temporais

Análise e conversão de tabloides de. Igor dos Santos Montagner Orientador: Prof. Dr. Roberto Marcondes Cesar Junior. promoções

IDENTIFICAÇÃO DE MARCADORES DE PAVIMENTAÇÃO NA ORIENTAÇÃO DE CEGOS. André Zuconelli 1 ; Manassés Ribeiro 2

UNIVERSIDADE F EDERAL DE P ERNAMBUCO ANÁLISE DE UM MÉTODO PARA DETECÇÃO DE PEDESTRES EM IMAGENS PROPOSTA DE TRABALHO DE GRADUAÇÃO

Reconhecimento de Sinais de Trânsito Utilizando Deep Learning

MOSIFT PARA O RECONHECIMENTO DE AÇÕES HUMANAS. Marlon Ramos Avalos

JAI 6 - Deep Learning Teoria e Prática

Modelos Ocultos de Markov Aplicados na Identificação de Comportamento de Serpentes

Aplicação de Histograma de Gradientes Orientados para detecção de hidrômetros em imagens de fundo complexo

Auto-Fusão na Recuperação de Imagens Baseadas em Conteúdo.

Apresentação de uma Plataforma Computacional para a Reconstrução e Caracterização da Forma 3D de Objectos

METODOLOGIAS PARA IDENTIFICAÇÃO DE FACES EM IMAGENS: INTRODUÇÃO E EXEMPLOS DE RESULTADOS

Action Recognition Applied to Monitor Domestic Animals

Transcrição:

First-person activity recognition Matheus A. Nerone

Sumário 1. 2. 3. Introdução a. Contexto b. Problema c. Exemplos de uso d. Dificuldades Trabalhos Relacionados a. Artigo inicial b. Histórico Artigos 2

Introdução - Contexto 3

Introdução - Problema Reconhecimento de atividades utilizando vídeos em primeira pessoa, na figura acima um exemplo da ação fazer chá. 4

Introdução - Exemplos de uso Reabilitação - supervisão de atividades do dia-a-dia como beber de uma caneca, ligar a luz, pegar o telefone, etc. [1] 5

Introdução - Exemplos de uso Life logging - Trabalhos iniciais demonstram melhora em pacientes com perda de memória. [1] 6

Introdução - Exemplos de uso Monitoramento e entendimento de comportamento natural de animais mesmo sem pessoas próximas a eles. [2] 7

Introdução - Dificuldades Em esportes: Projéteis Motion blur Água na lente Rolling shutter effect Movimento da cabeça Granularidade 8

Trabalhos relacionados - Artigo inicial Starner, T., Schiele, B., & Pentland, A. (1998, October). Visual contextual awareness in wearable computing. 180 citações. Assistente para o jogo chamado Patrol. Monitorar a localização e a ação do jogador. 9

Artigo inicial - Base de dados Duas câmeras montadas na cabeça. 2 minutos de vídeo foram rotulados com as ações. Ações: Mirar, Atirar, Recarregar e Outros. 13 mirar/atirar, 6 recarregar e 10 outros. 10

Artigo inicial - Solução A imagem é dividida em 4x4 sub-imagens Para cada sub-imagem é calculada a probabilidade de ser {pedaço da mão, pedaço do braço, fundo} Resultando em um vetor de características com 48 probabilidades. Modelo oculto de Markov(HMM) 11

Artigo inicial - Resultados Processo treino: 30 imagens aleatórias para treinar a função de probabilidade. 7 mirar/atirar, 4 recarregar e 3 outros para treinar um HMM de 5 estágios. Teste: 6 mirar/atirar, 2 recarregar e 7 de outras. 12

Trabalhos relacionados - Histórico Até o início de 2000 os aparelhos eram desenvolvidos pelos próprios grupos de pesquisa [3]. Primeira GoPro, 2004. Epiphany Eyewear, 2011. Project Glass, 2012. 13

Artigos Pirsiavash, H., & Ramanan, D. (2012, June). Detecting activities of daily living in first-person camera views. CVPR 2012. 258 citações. Li, Y., Ye, Z., & Rehg, J. M. (2015). Delving into egocentric actions. CVPR 2015. 26 citações. Ma, M., Fan, H., & Kitani, K. M. (2016). Going Deeper into First-Person Activity Recognition. CVPR 2016. 7 citações. 14

Detecting Activities of Daily Living in First-person Camera Views 15

Detecting Activities of Daily Living in First-person Camera Views - Introdução Reconhecer atividades utilizando os objetos presentes no vídeo e o objeto que está sendo manipulado. Base de dados e código disponível em: http://people.csail.mit.edu/hpirsia v/codes/adldataset/adl.html 16

Detecting Activities of Daily Living in First-person Camera Views - Base de dados GoPro ligada ao peito do indivíduo. 10 horas de vídeo. 1280x960 a 30 frames por segundo. 18 atividades comuns do dia-a-dia. 20 pessoas para realizá-las em seus apartamentos. Labels: Ações, Object Bounding boxes, Object identity, Human-object interaction 17

Detecting Activities of Daily Living in First-person Camera Views - Base de dados Lista e taxonomia das Atividades 18

Detecting Activities of Daily Living in First-person Camera Views - Solução Bag of objects 19

Detecting Activities of Daily Living in First-person Camera Views - Solução Bag of objects com objetos ativos 20

Detecting Activities of Daily Living in First-person Camera Views - Solução Pyramid Descriptor 21

Detecting Activities of Daily Living in First-person Camera Views - Resultados STIP = Space-Time Interesting Points. O = Objetos. AO = Objetos + Objetos Ativos. IO = Identificador ideal de objetos. IA = Identificador ideal de objetos ativos. 22

Delving into egocentric actions 23

Delving into egocentric actions - Introdução Reconhecer a atividade utilizando características de movimento, objeto e egocêntricas. Características egocêntricas: Posição da mão Movimento da cabeça Informação do olhar 24

Delving into egocentric actions - Bases de dados Ambiente Controlado GTEA GTEA Gaze Mundo real GTEA Gaze+ Todas utilizam câmeras montadas na cabeça da pessoa. Disponíveis em: http://www.cbi.gatech.edu/ego centric/ 25

Delving into egocentric actions - Solução Processo de identificação de atividades. 26

Delving into egocentric actions - Resultados O = Objeto. M = Movimento. E = Egocêntrica. H = Posição da mão. G = Posição do olhar. * = utilizaram óculos com eye tracking. 27

Going Deeper into First-Person Activity Recognition 28

Going Deeper into First-Person Activity RecognitionIntrodução Arquitetura que utiliza duas CNNs (Convolutional neural network). Identificação do objeto de interesse (ObjectNet). Identificação da ação (ActionNet). 29

Going Deeper into First-Person Activity RecognitionBases de dados Ambiente Controlado GTEA GTEA Gaze Mundo real GTEA Gaze+ Bases de dados disponível em: http://cbi.gatech.edu/egocentric/datasets.htm 30

Going Deeper into First-Person Activity RecognitionSolução Arquitetura geral do sistema. 31

Going Deeper into First-Person Activity RecognitionSolução Processo de localização do objeto de interesse em um frame. 32

Going Deeper into First-Person Activity RecognitionSolução Processo de detecção da ação de um conjunto de frames. 33

Going Deeper into First-Person Activity RecognitionSolução Identificação da atividade. 34

Going Deeper into First-Person Activity RecognitionResultados 35

Referências 1. 2. 3. 4. 5. 6. 7. Pirsiavash, Hamed, and Deva Ramanan. "Detecting activities of daily living in first-person camera views." Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on. IEEE, 2012. Iwashita, Yumi, et al. "First-person animal activity recognition from egocentric videos." Pattern Recognition (ICPR), 2014 22nd International Conference on. IEEE, 2014. Betancourt, Alejandro, et al. "The evolution of first person vision methods: A survey." IEEE Transactions on Circuits and Systems for Video Technology25.5 (2015): 744-760. Starner, Thad, Bernt Schiele, and Alex Pentland. "Visual contextual awareness in wearable computing." Wearable Computers, 1998. Digest of Papers. Second International Symposium on. IEEE, 1998. Kitani, K. M., Okabe, T., Sato, Y., & Sugimoto, A. (2011, June). Fast unsupervised ego-action learning for first-person sports videos. In Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on (pp. 3241-3248). IEEE. Minghuang Ma, Haoqi Fan, and Kris M. Kitani, Going deeper into first-person activity recognition, The IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2016. Li, Yin, Zhefan Ye, and James M. Rehg. "Delving into egocentric actions." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2015. 36

Referências Treinamento não supervisionado: Kitani, K. M., Okabe, T., Sato, Y., & Sugimoto, A. (2011, June). Fast unsupervised ego-action learning for first-person sports videos. In Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on (pp. 3241-3248). IEEE. Reconhecimento de atividades feitas com relação a câmera: Ryoo, Michael S., and Larry Matthies. "First-person activity recognition: What are they doing to me?." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2013. Survey da área: Betancourt, Alejandro, et al. "The evolution of first person vision methods: A survey." IEEE Transactions on Circuits and Systems for Video Technology25.5 (2015): 744-760. 37

Referências Proposta para melhorar o primeiro artigo apresentado: Matsuo, Kenji, et al. "An attention-based activity recognition for egocentric video." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. 2014. 38