IV SEMANA DE INFORMÁTICA

Tamanho: px
Começar a partir da página:

Download "IV SEMANA DE INFORMÁTICA"

Transcrição

1 ISSN: Universidade Federal de Sergipe - UFS Departamento de Sistemas de Informação - DSI IV SEMANA DE INFORMÁTICA Itabaiana, Sergipe, Brasil Novembro de 2014

2 Prefácio SEMINFO/UFSITA 2014 A Semana de Informática da Universidade Federal de Sergipe - Campus Itabaiana é um evento Regional, idealizado e organizado por professores e alunos do Departamento de Sistemas de Informação (DSI). Este ano, em sua quarta edição, possui o apoio da Itatech Jr. (empresa formada por alunos do departamento). Através de palestras, minicursos e apresentações de artigos acadêmicos, o evento visa proporcionar aos participantes acesso a novos conhecimentos, conceitos e tecnologias. As palestras e minicursos são ministradas por profissionais referência no mercado de tecnologia regional, proporcionando forte integração entre a comunidade acadêmica e a indústria. A sessão de artigos científicos, inaugurada em 2012, tem recebido submissões de todo o Brasil, criando um novo fórum de discussões para trabalhos científicos, que extrapolou as fronteiras regionais, onde o principal objetivo é a publicação de trabalhos científicos com resultados parciais ou finais, relevantes para a área de computação. Ainda nesta edição, foi iniciada uma nova modalidade para a submissão de trabalhos na forma de resumos, possibilitando também a publicação de trabalhos de conclusão de curso, iniciação científica ou pesquisas científicas em estágio inicial ou intermediário, com revisão bibliográfica e objetivos definidos. Foram 23 trabalhos submetidos, entre artigos completos e resumos, dos quais 14 receberam a aceitação do comitê avaliador. Para concluir, sempre colocando temas atuais em foco, em 2014 a Semana de Informática apresentará o tema Semana Global do Empreendedorismo. HISTÓRICO A primeira edição do evento ocorreu no período de 24 à 26 de novembro de 2010, na qual foram promovidas discussões sobre diversos temas, com destaque para o seguinte: O Uso de Software Livre nas Instituições Públicas e Privadas, além de minicursos nas áreas de redes e qualidade de software. A segunda edição aconteceu no período de 17 à 19 de outubro de 2012, sob o tema principal: Empreendedorismo e Inovação. Além das palestras e minicursos relacionados ao tema, o evento trouxe diversos casos de sucesso de empresas regionais, com a apresentação de dicas aos futuros empreendedores. Ainda nesse ano foi inaugurada a sessão de artigos científicos, na qual foram submetidos 17 artigos, sendo 11 aprovados. Os anais do evento foram registrados através do ISSN A terceira edição ocorreu no período de 05 à 08 de novembro de 2013, onde abordou-se o tema Desenvolvimento Móvel e Geoprocessamento: A Nova Tendência Prof. Msc. Andrés Ignácio Martínez Menéndez - Coordenação Geral Prof. Dr. Alcides Xavier Benicasa - Coordenador do Comitê do Programa i

3 Comitê Organizador SEMINFO/UFSITA 2014 Coordenação Geral Prof. Msc. Andrés Ignácio Martínez Menéndez Universidade Federal de Sergipe - UFS Departamento de Sistemas de Informação - Itabaiana - SE Comitê Organizador Prof. Dr. Alcides Xavier Benicasa - UFS Prof. Dr. Methanias Colaço Rodrigues Júnior - UFS Prof. Msc. Andrés Ignácio Martínez Menéndez - UFS Prof. Msc. Marcos Barbosa Dósea - UFS Anderson dos Santos Farias - UFS Caique Santos Teixeira - UFS Ednilson Messias Castro dos Santos - UFS Euder de Jesus Costa - UFS Everton Mendonça Lima - UFS Flavio da Paixão de Carvalho - UFS Guilherme Bruno Viturino Alves - UFS Luan Lima - UFS Nathanael Oliveira Vasconcelos - UFS Victor Gutemberg Santos Lima - UFS Coordenador do Comitê do Programa Prof. Dr. Alcides Xavier Benicasa - UFS Universidade Federal de Sergipe - UFS Departamento de Sistemas de Informação - Itabaiana - SE ii

4 Comitê do Programa SEMINFO/UFSITA 2014 Universidade Federal de Sergipe - UFS Departamento de Sistemas de Informação - Itabaiana - SE Profa. Msc. Mai-Ly Vanessa Almeida S. Faro Prof. Dr. Alcides Xavier Benicasa Prof. Dr. Eugênio Rubens Cardoso Braz Prof. Dr. Joseval de Melo Santana Prof. Dr. Methanias Colaço Rodrigues Júnior Prof. Msc. Adolfo Pinto Guimarães Prof. Msc. André Luis Meneses Silva Prof. Msc. André Vinicius Rodrigues Passos Nascimento Prof. Msc. Andrés Ignácio Martínez Menéndez Prof. Msc. José Aélio Oliveira Junior Prof. Msc. Marcos Barbosa Dosea Universidade Federal de Sergipe - UFS Departamento de Computação - São Cristovão - SE Profa. Dra. Kenia Kodel Cox Prof. Dr. Alberto Costa Neto Prof. Dr. André Britto de Carvalho Prof. Dr. Hendrik Teixeira Macedo Prof. Dr. Leonardo Nogueira Matos Prof. Dr. Ricardo Jose Paiva de Britto Salgueiro Prof. Dr. Rogério Patrício Chagas do Nascimento iii

5 Comitê do Programa SEMINFO/UFSITA 2014 Universidade Tecnológica Federal do Paraná - UTFPR-PG Departamento Acadêmico de Informática - Campus Ponta Grossa - PR Prof. Dr. Daniel Paiva Universidade Federal do Amazonas - UFAM Instituto de Ciências Exatas e Tecnologias - Itacoatiara - AM Prof. Dr. Jorge Yoshio Kanda Instituto Federal de Sergipe - IFS Informática - Aracaju - SE Profa. Msc. Danielle Amaral Menéndez Prof. Msc. Gilson Pereira dos Santos Júnior Instituto Federal de São Paulo - IFSP Tecnologia em Análise e Desenvolvimento de Sistemas - São Carlos - SP Prof. Ms. Giampaolo Luiz Libralon Instituto Nacional de Pesquisas Espaciais - INPE Instituto de Estudos Avançados - São José dos Campos - SP Prof. Ms. Marcelo Módolo iv

6 Índice SEMINFO/UFSITA 2014 Análise Comparativa de Algoritmos de Mineração de Texto Aplicados a Históricos de Contas Públicas 1 Breno Santana Santos and Methanias Colaço Júnior Proposta para Caracterização da Utilização de Técnicas para Prevenção da Erosão Arquitetural nas Empresas de TI no Brasil. 3 Ythanna Oliveira Gomes, Marcos Barbosa Dósea and Methanias Colaço Júnior.... XQPref: Um Sistema para Personalização de Consultas a Dados XML 5 Angélica F. Medeiros and Valéria Gonçalves Soares Algoritmos Avançados de Inteligência Artificial Aplicados ao Mapeamento de Ambiente e Controle de Trajetória de Robô 9 Iury Batista De Andrade Santos, Euder De Jesus Costa, Thiago Almeida, Nathanael Oliveira Vasconcelos and Alcides Xavier Benicasa SINTRALIB - Sistema Integrado Tradutor de LIBRAS - Comunicação para todos 11 Maily Faro, Anderson Cunha and Guilherme Alves Utilização de Lógica Fuzzy para Roteamento de Sensores Sem Fio - Implementação com JFuzzyLogic e Repast Simphony 15 Daniele Freitas de Jesus, João Henrique Kleinschimdt and Maria Das Graças Bruno Marietto Interação Natural Baseado em Inteligência Artificial e Processamento de Imagens: Uma Alternativa ao Uso de Sensores Reais 19 Nathanael Oliveira Vasconcelos, Thiago Almeida and Alcides Xavier Benicasa..... Proposta de Mecanismo de Detecção e Reconhecimento de Semáforos Baseado em Atenção Visual e Inteligência Artificial 21 Thiago Almeida, Nathanael Oliveira Vasconcelos and Alcides Xavier Benicasa..... Sistema Tradutor LIBRAS - Português/Português - LIBRAS 23 Maily Faro, Anderson Cunha and Guilherme Alves v

7 Processamento de Imagens e IA aplicado à Apresentação Interativa: Uma Comparação entre um Método Interativo Tradicional e um Método Interativo Fuzzy 25 Nathanael Oliveira Vasconcelos, Thiago Almeida, Ed Charles Nascimento Ferreira, Breno Santana Santos and Alcides Xavier Benicasa Planejamento da Melhoria do Processo de Testes do Centro de Processamento da Universidade Federal de Sergipe Baseado no MPT.BR 29 Weverton Dos Santos and Marcos Barbosa Dósea Em Direção à Melhoria do Processo de Aplicação de Surveys em Engenharia de Software 31 Antônio Douglas, Erivan Lima and Marcos Barbosa Dósea Planeta Saudável, Consumo Consciente em Jogo 33 Ícaro M.R. Oliveira, Isaac Argolo and Kenia Kodel Uma Solução de Business Intelligence para Apoio a Decisão à Coordenadoria de Cursos 37 Onezino Gabriel Moreira, Ramon Ramos and André Britto vi

8 Índice de Autores SEMINFO/UFSITA 2014 Almeida, Thiago 9, 19, 21, 25 Alves, Guilherme 11, 23 Argolo, Isaac 33 Benicasa, Alcides Xavier 9, 19, 21, 25 Britto, André 37 Colaço Júnior, Methanias 1, 3 Costa, Euder De Jesus 9 Cunha, Anderson 11, 23 Dos Santos, Weverton 29 Douglas, Antônio 31 Dósea, Marcos Barbosa 3, 29, 31 Faro, Maily 11, 23 Ferreira, Ed Charles Nascimento 25 Gonçalves Soares, Valéria 5 Jesus, Daniele Freitas de 15 Kleinschimdt, João Henrique 15 Kodel, Kenia 33 Lima, Erivan 31 Marietto, Maria Das Graças Bruno 15 Medeiros, Angélica F. 5 Moreira, Onezino Gabriel 37 Oliveira Gomes, Ythanna 3 Oliveira, Ícaro M.R. 33 Ramos, Ramon 37 Santos, Breno Santana 1, 25 Santos, Iury Batista De Andrade 9 Vasconcelos, Nathanael Oliveira 9, 19, 21, 25 vii

9 Índice de Palavras-Chave SEMINFO/UFSITA 2013 Algoritmos de Mineração 1 Apoio a Decisão à Coordenadoria de Curso 37 Aprendizado por Reforço 9 Atenção Visual 21 Business Intelligence 37 Comunicação 11, 23 Consumo Consciente 33 Contas Públicas 1 Dados Abertos Governamentais 5 Desenvolvimento de Jogos de Computador 33 Detecção de Semáforo 21 Energetic 15 Engenharia de Software 29, 31 Erosão Arquitetura 3 Ferramenta 31 Imagem Projetada 19, 25 Inclusão social 11, 23 Inteligência Artificial 9, 19, 21, 25 Interação Humano-Computador 19, 25 JFuzzyLogic 15 Jogos Educativos 33 KDT 1 LIBRAS 11, 23 viii

10 Lógica Fuzzy 15, 25 Mapeamento Métrico Probabilístico 9 Mineração de Texto 1 MPT.BR 29 Métodos de Busca 9 Métricas 1 OLAP 37 Personalização de Consultas 5 Processamento de Imagens 19, 25 Processo de Testes 29 Reconhecimento de Semáforo 21 Repast Simphony 15 Robôs Móveis Autônomos 9 Simulation 15 Software tradutor 23 Survey 3, 31 Tradutor eletrônico 11 Trânsito 21 Técnicas 3 Wireless Network Sensor 15 XML 5 ix

11 Análise Comparativa de Algoritmos de Mineração de Texto Aplicados a Históricos de Contas Públicas Breno Santana Santos Departamento de Sistemas de Informação DSI Universidade Federal de Sergipe UFS Itabaiana-SE, Brasil Prof. Dr. Methanias Colaço Rodrigues Júnior Departamento de Sistemas de Informação DSI Universidade Federal de Sergipe UFS Itabaiana-SE, Brasil Resumo Grandes massas de dados são geradas pelas aplicações que apoiam as atividades rotineiras das organizações. Grande parte desses dados estão em formato textual, sendo possível o uso da Mineração de Texto para detector padrões potencialmente úteis e previamente desconhecidos. O objetivo do referido trabalho é avaliar o desempenho e qualidade de algoritmos de mineração de texto aplicados a históricos de contas públicas custodiadas pelo Tribunal de Contas de Sergipe. Para realizar a avaliação, serão definidas a coleta das métricas de Tempo Médio, Acurácia, Precisão e Cobertura, bem como a realização de um estudo de caso. Palavras-chave Mineração de Texto; KDT; Contas Públicas; Métricas; Algoritmos de Mineração I. INTRODUÇÃO Na era da informação, esta passou a ser um dos maiores bens de uma organização, tendo o poder de influenciar no processo de tomada de decisão. Grandes massas de dados são geradas diariamente pelos sistemas que apoiam as atividades rotineiras das organizações, dificultando a tarefa analítica dos gestores. Diante dessa necessidade, surgiram os Sistemas de Apoio à Decisão (SADs) que, segundo Colaço Júnior [2], permitem apoiar, contribuir e influenciar no processo de tomada de decisão. Os SADs permitem, a partir dos dados transacionais da organização, gerar informações gerenciais que facilitam o referido processo. Como grande parte dos dados manipulados pelas organizações está em formato textual, torna-se fundamental o uso da técnica de Mineração de Texto (também conhecido por Knowledge Discovery in Texts, KDT, em inglês) para identificar padrões e conhecimentos para auxiliar nas decisões. De acordo com Balinski [1], Feldman et al. [3], Magalhães [4], Sá [5] e Souza [6], KDT é o processo de descoberta de conhecimento em bases textuais, sendo esse conhecimento gerado, útil e previamente desconhecido. Para Wives [8], o conhecimento gerado pode ser avaliado para determinar se o mesmo é relevante ou não para o usuário, ou seja, avaliar o desempenho do processo de mineração para a geração do conhecimento. Existem várias métricas, sendo as principais relacionadas ao desempenho, à acurácia, precisão e cobertura. A proposta do trabalho é comparar o desempenho e qualidade de dois algoritmos de mineração de texto aplicados a históricos de contas públicas custodiadas pelo Tribunal de Contas de Sergipe (TCE-SE). O Departamento de Sistemas de Informação, do Campus Alberto Carvalho UFS, de posse de uma base de dados de teste cedida pelo TCE-SE, desenvolveu uma aplicação que realiza a mineração de texto em qualquer campo descritivo de um sistema. A aplicação permite determinar se os registros são ou não evidências de irregularidades, ou seja, se uma descrição está ou não de acordo com a lei e com o que se espera dos jurisdicionados. Desta forma, a ferramenta tem como objetivo tornar efetivo o trabalho do auditor na identificação de irregularidades. Para classificar os registros, a aplicação utiliza o algoritmo de análise estatística, Naïve Bayes, de forma parametrizada, especificando um limiar mínimo para auxiliar no processo classificatório. O referido algoritmo foi escolhido mediante pesquisa bibliográfica, a qual determina que Naïve Bayes é considerado o melhor classificador para campos descritivos. Este trabalho introduzirá um segundo algoritmo, o qual será determinado por pesquisa bibliográfica sobre o uso do mesmo em campos descritivos, e avaliará métricas de qualidade e desempenho para as duas abordagens. A avaliação dar-se-á por meio da coleta de métricas de tempo médio, acurácia, cobertura e precisão de cada algoritmo, bem como será realizado um estudo de caso para analisar e comparar os resultados das métricas. Sendo assim, os resultados das métricas permitem determinar o melhor algoritmo de mineração e, consequentemente, a qualidade e o desempenho do processo de mineração. Com o melhor algoritmo de mineração, o conhecimento gerado será efetivo e relevante para os auditores na descoberta de irregularidades como, por exemplo, a identificação de uma descrição de motivo de viagem a qual não é permitida o pagamento de diárias. 1

12 II. OBJETIVOS A. Objetivo Geral Avaliar o desempenho e qualidade de algoritmos de mineração de texto aplicados a históricos de contas públicas custodiadas pelo Tribunal de Contas de Sergipe. B. Objetivos Específicos Analisar a aplicação já desenvolvida e reaproveitar as rotinas de pré-processamento; Implementar um segundo algoritmo de mineração de texto, baseado em revisão bibliográfica sobre o uso do mesmo em campos descritivos; Definir como coletar as métricas de tempo médio, acurácia, precisão e cobertura de cada algoritmo de mineração; Realizar Estudo de Caso para analisar e comparar os resultados das métricas, determinando o melhor algoritmo com base no tempo médio, na acurácia, precisão e cobertura. III. METODOLOGIA No projeto, será utilizada uma metodologia de pesquisa exploratória, na qual será feito um estudo dos temas: Mineração de Texto e Avaliação de Desempenho de Algoritmos de Mineração de Texto. A partir disso, será analisada a aplicação em questão, de modo que haja um reaproveitamento das rotinas de préprocessamento. Depois será feito um estudo de um algoritmo de mineração, baseado em revisão bibliográfica sobre o uso do mesmo em campos descritivos, e após a compreensão do mesmo, será implementado para a aplicação em questão. Serão definidas as formas de coletar as métricas de tempo médio, acurácia, precisão e cobertura de cada algoritmo da aplicação e, por fim, será realizado um estudo de caso para analisar e comparar os resultados obtidos, determinando o melhor algoritmo de acordo com as métricas, sendo a principal questão do trabalho. Os resultados das métricas e a realização do estudo de caso não só determinará o melhor algoritmo de mineração, como também permitirá avaliar se o conhecimento gerado, resultado da mineração, foi efetivo e relevante ao auditor, sendo fundamental a sua participação nessa avaliação. Um estudo de caso é uma investigação empírica que investiga um fenômeno contemporâneo dentro de seu contexto da vida real, especialmente quando os limites entre o fenômeno e o contexto não estão claramente definidos. [7]. E ainda conforme Yin [7], estudo de caso não exige controle sobre eventos comportamentais e focaliza em acontecimentos contemporâneos, bem como consiste no tipo de questão de pesquisa como e por que. A. Fases do Projeto Na primeira fase do projeto, será feito um levantamento bibliográfico sobre técnicas de mineração de texto e avaliação de desempenho de algoritmos de mineração, bem como a escrita do referencial teórico. Na segunda fase, será feita a elaboração e defesa da proposta do trabalho de conclusão de curso. Na terceira fase, será estudada a aplicação (documentação e código-fonte) em que será implementado mais um algoritmo de mineração, bem como serão reaproveitadas as rotinas de pré-processamento. Na quarta, será realizada a revisão bibliográfica sobre algoritmos de mineração de texto sobre o uso de campos descritivos e, após a escolha do algoritmo, o mesmo será estudado e implementado, bem como será feita a atualização da documentação da aplicação. A quinta fase consiste da realização de um estudo de caso para analisar e avaliar o desempenho e qualidade dos algoritmos, em que serão definidas e coletadas as métricas de cada algoritmo de mineração e, encerrando essa fase, o estudo de caso será realizado e seus resultados obtidos serão analisados. Na sexta, será escrita a monografia de TCC e, finalizando essa fase, a defesa. Finalizando o projeto, temos a elaboração e publicação de artigos em eventos relacionados ao tema. B. Recursos Aplicação TextMining; SQL Server; Visual Studio IDE. IV. FONTES DE PESQUISA [1] BALINSKI, Ricardo. Filtragem de Informações no Ambiente do Direito. Dissertação (Mestre em Informática). Porto Alegre: PPGC da UFRGS, p. [2] COLAÇO JÚNIOR, M. Projetando Sistemas de Apoio à Decisão Baseados em Data Warehouse. Rio de Janeiro: Axcel Books, [3] FELDMAN, Ronen; DAGAN, Ido. Knowledge Discovery in Textual Databases (KDT) Disponível em ep=rep1&type=pdf. Acesso em 15 de mai [4] MAGALHÃES, Cristiane Costa. MinerJur: Uma ferramenta para mineração de bases de jurisprudência. Dissertação (Mestrado em Sistemas e Computação). Salvador: Universidade Salvador, p. [5] SÁ, Hially Rodrigues de. Seleção de Características para Classificação de Texto. Recife: UFPE, p. [6] SOUZA, Janisson Gois de. Uma aplicação de Mineração de Texto para Descoberta de Características Psicológicas de Indivíduos. Itabaiana: UFS, p. [7] YIN, Robert K. Estudo de caso: planejamento e métodos. Trad. 2ª ed. Porto Alegre: Bookman, p. [8] WIVES, Leandro Krug. Tecnologias de Descoberta de Conhecimento em Textos Aplicadas à Inteligência Competitiva. Exame de Qualificação EQ-069 (Doutorado). Porto Alegre: PPGC da UFRGS, p. 2

13 Caracterização da Utilização de Técnicas para Prevenção da Erosão Arquitetural nas Empresas de TI no Brasil. Ythanna Gomes, Marcos Dósea, Methanias Junior Departamento de Sistemas de Informação Universidade Federal de Sergipe, UFS/ITA Itabaiana, Brasil Resumo A evolução do software leva ao distanciamento do código desenvolvido da arquitetura planejada. Muitas vezes, pela falta de conhecimento dos desenvolvedores, requisitos conflitantes, dificuldades técnicas ou pela pressão de prazo. Esse desvio na arquitetura ocasiona o que chamamos de erosão arquitetural. Apesar da variedade de técnicas existentes na literatura para evitar a erosão arquitetural não existe um panorama daquelas que são realmente utilizadas pelas empresas no Brasil. Neste trabalho propomos a realização de um survey para obter resultados que possam ajudar no investimento e aprimoramento das técnicas realmente utilizadas pelas empresas. Palavras Chaves: Survey, Erosão Arquitetura. I. INTRODUÇÃO A arquitetura de Software fornece uma visão holística do sistema a ser construído e os arquitetos de software possuem diversas funções no processo de desenvolvimento de software. Quebrar a complexidade do desenvolvimento em partes mais gerenciáveis; definir funções, interações e dependências para cada componente; e a comunicação entre os componentes e os desenvolvedores são algumas dessas funções. Apesar de sua importância, muitas empresas não utilizam a Arquitetura planejada. Muitas vezes, pela falta de conhecimento dos desenvolvedores, requisitos conflitantes, dificuldades técnicas ou pela pressão de prazo [1]. Esse desvio na arquitetura ocasiona o que chamamos de erosão arquitetural. Erosão arquitetural é a deterioração geral da qualidade de um sistema de software durante a sua evolução [2]. Esse conceito é reforçado pela ideia que a degradação da arquitetura faz com que os benefícios proporcionais por um projeto sejam anulados: Manutenibilidade, Reusabilidade, Escalabilidade, Portabilidade e outros [3]. Para evitar o processo de erosão da arquitetura existem várias técnicas disponíveis na literatura, entre elas destacam-se: Ferramentas de Análise 3 Estática do Código Inspeções do código Linguagem descrição de arquitetura Documentação Arquitetural Arquitetura de Conformidade Extensão ArchJava. As técnicas destacadas podem ser utilizadas para definição e verificação das regras fundamentais da arquitetura de um software que pretendem atender os requisitos de qualidade interna e externa, aumentando a probabilidade de sucesso em termos de custo e prazo. Apesar das várias propostas disponíveis, na literatura não existe uma panorama sobre a utilização prática dessas técnicas nas empresas de TI no Brasil. Isso pode levar ao investimento de pesquisas em técnicas que são rejeitadas pelos desenvolvedores ou ainda deixar de aperfeiçoar ferramentas e técnicas que são bem aceitas e utilizadas pelas equipes de desenvolvimento. Este trabalho tem como objetivo realizar um survey com o propósito de levantar informações sobre as técnicas utilizadas para evitar erosão arquitetural nas empresas de Tecnologia de Informação do Brasil. II. METODOLOGIA A escolha do modelo de Survey a ser aplicado deve levar em conta alguns quesitos, tais como o objetivo da pesquisa e o tempo necessário e disponível para aplicação da pesquisa. [4] A metodologia utilizada para a pesquisa será a Survey. A mesma é dividida em algumas etapas. Entre elas: Etapa 1 Definir o objetivo. Os objetivos determinam quem irá ser entrevistado e as perguntas que irão ser elaboradas. Etapa 2 Elaboração do plano amostral. É denominado o público-alvo da pesquisa. Uma grande amostra representativa irá refletir o resultado do projeto. Quanto maior for à amostra, mais precisos serão os resultados que o grupoalvo reflete. No caso da nossa pesquisa, a amostra será através de um questionario

14 online com a ferramenta surveymonkey com arquitetos de software. Etapa 3 Planejamento da amostragem. Os entrevistados serão abordados através de s e grupos. O questionário será enviado para as empresas de TI do Brasil, com o objetivo de obter o maior número de respostas dos arquitetos de software. Etapa 4 - Elaboração e pré teste do questionário. É criado o questionário seguindo o tema proposto. Entre as etapas, destacam-se: Os aspectos de interesse na pesquisa, revisão das hipóteses, plano de perguntas e preparação dos elementos que fazem parte do questionário. Além de observar o tempo de duração, a estrutura e o design do questionário. Em seguida é realizado um pré-teste com algumas pessoas que fazem parte do público-alvo, no nosso caso, Engenheiros de Software. O pré-teste serve para treinar e analisar os problemas apresentados pelos entrevistadores. Etapa 5 Aplicação do questionário nas empresas de tecnologia de informação do Brasil através do envio de s. Será utilizado no projeto a fermenta SurveyMonkey. Etapa 6 Análise dos Dados. Após aplicação do questionário e o recebimento das respostas, os dados são tratados e analisados. Os resultados obtidos serão analisados seguindo o modelo de estatística descritiva. a CodeNose [7]. A mesma é integrada ao ambiente de desenvolvimento Eclipse e tem por objetivo detectar code smells em código Java. Para a linguagem de descrição da arquitetura, [8] propõe uma linguagem para especificação de regras de design para a programação orientada a aspectos que permite programar classes de forma modular. A documentação Arquitetural quando não bem detalhada, pode levar a erosão na arquitetura. Documentações específicas têm que ser ao mesmo tempo suficientemente detalhada para análise e adequadamente abstrata para a compreensão. Outra abordagem utilizada para diminuir a erosão arquitetural é a utilização de processo de conformidade. Essa técnica verifica se a implementação do sistema de software é compatível com a sua visão de módulo na arquitetura [9]. IV. CONCLUSÃO A proposta deste trabalho é realizar um survey, com o propósito de levantar informações sobre as técnicas utilizadas para evitar erosão arquitetural nas empresas de Tecnologia de Informação do Brasil. E essa pesquisa é de fundamental importância, devido à falta de resultados ou de dados concretos a respeito dos melhores usos de técnicas que evitam erosão arquitetural nas empresas de TI do Brasil. III. TRABALHOS RELACIONADOS Um trabalho recente [5] mostra que a melhoria da qualidade de design do código apoia a melhoria contínua do processo oferecendo subsídios para que a equipe de desenvolvimento aumente sua produtividade e implemente novas funcionalidades com maior facilidade. A erosão é causada muitas vezes por problemas associados ao desenvolvimento [6]. Citando como exemplo: o uso inadequado de ferramentas e métodos; Não rastreabilidade de decisões de design; Custo de Manuntenção; Acumulação de decisões do Design; Métodos Iterativos; Falta de documentação; Rapidez na correção; Pressão de Tempo; Falta de experiência com desenvolvimento e Vaporização de decisões de design. E para evitar os problemas citados anteriormente, são importantes as técnicas para evitar a degradação, envelhecimento ou erosão do código. No grupo de técnicas para prevenção da erosão arquitetural destacam-se as ferramentas de análise de código. Uma boa ferramenta para essa análise é [1] Passos, L. et al., Static architecture-conformance checking: An illustrative overview. IEEE Software, 27, pp [2] De Silva, L. & Balasubramaniam, D., Controlling software architecture erosion: A survey. Journal of Systems and Software, 85, pp [3] Holt, J., Current practice in software engineering :, (November 1995). [4] Babbie, Earl. Methods of Survey Research. Translation Guilherme Cezarino. Belo Horizonte: Ed UFMG, [5] Bezerra, Carlos F. Lima. Making decisions desoftware oriented metrics: Metric observations of product and software vulnerabilities via DW and Platform monitoramente source code. Brazilia: University of Brazilia, [6] Dhami, H.P.S. Analysis of Software Design Erosion Issues. International Journal of Advanced Research in Computer Science and Software Engineering, pp , 7 jul [7] Slinger, S., Code Smell Detection in Eclipse. Science, pp [8] Costa Neto, A. et al., A design rule language for aspect-oriented programming. Journal of Systems and Software, 86, pp [9] Passos, L. et al., Static architecture-conformance checking: An illustrative overview. IEEE Software, 27, pp

15 XQPref: Um Sistema para Personalização de Consultas a Dados XML Angélica F. Medeiros UFPB: Centro de Informática Universidade Federal da Paraíba (UFPB) Programa de Pós-Graduação em Informática PPGI João Pessoa, Brasil Valéria G. Soares UFPB: Centro de Informática Universidade Federal da Paraíba (UFPB) Programa de Pós-Graduação em Informática PPGI João Pessoa, Brasil Resumo O presente artigo apresenta um sistema para personalização de consultas a documentos XML, com objetivo de tornar transparente para o usuário a execução de consultas escritas na linguagem XQuery. O sistema é responsável pela elicitação de preferências dinâmicas e pelo processamento destas consultas personalizadas. Restringimos o escopo deste trabalho em Dados Abertos Governamentais que, diante da sobrecarga da informação, tem impulsionado a procura de técnicas sensíveis para resolver problemas associados com a consulta em documentos XML. Os dados abertos governamentais consistem na publicação e disseminação de dados e informações públicas na Web em formato aberto, para facilitar sua análise e reutilização. No entanto, a sobrecarga da informação tem despertado a preocupação em personalizar os resultados de consultas de acordo com as necessidades de cada usuário. Palavras-chave: Personalização de Consultas;XML; Dados Abertos Governamentais. I. INTRODUÇÃO O crescimento exponencial de informação disponível em diversos domínios tem chamado atenção dos pesquisadores, surgindo à preocupação em personalizar os resultados de consultas de acordo com o perfil do utilizador [1]. Tal aspecto, desperta possibilidades de pesquisa em áreas como banco de dados, inteligência artificial e recuperação de informação. Dentre destes domínios, o XML é uma tecnologia essencial para a gestão do conhecimento e divulgação de dados pela web, no entanto com a sobrecarga de informações o usuário pode ser confrontado com uma quantidade muito grande de resultados. O que tem impulsionado a procura de técnicas sensíveis para resolver problemas associados com a busca em documentos XML [2]. Um exemplo recente de domínio que possui grande quantidade de informação em formato XML são os Dados Abertos, que constituem a publicação e disseminação de dados e informações públicas na Web, respeitando critérios que possibilitam sua reutilização e o desenvolvimento de aplicativos por toda a sociedade. Como solução para realizar consultas em documentos XML, foram propostas algumas linguagens que devido às diferentes origens, possuem distinções consideráveis em termos de sintaxe e abrangência. Dentre elas, a linguagem XML-QL [3] é baseada numa sintaxe XML textual, já XML Query Language - XQL [4], que foi proposta pela comunidade de processamento de documentos, explora expressões similares às expressões de caminho em diretórios. Enquanto a XQuery [5] é uma linguagem flexível, originada da mistura de ambos os tipos de linguagem e que dentre outras vantagens, possui o diferencial de possibilitar a criação de funções extensíveis. No entanto, mesmo a linguagem mais completa para consulta em XML não possui base para personalização de consultas. E assim, realizar buscas em dados XML tem se tornado maçante devido à sobrecarga da informação, o que tem dificultado ao usuário o acesso a essas informações. O presente trabalho busca personalizar as consultas em documentos XML através do sistema XQPref, que será responsável pela elicitação de preferências dinâmicas e pelo processamento destas consultas personalizadas. Com isso, pode-se reduzir os esforços do usuário na busca por conteúdos específicos. Este trabalho está organizado como a seguir. A Seção 2 descreve alguns trabalhos relacionados a esta proposta, bem como apresenta o estado da arte que envolve esta pesquisa. As Seções 3 e 4 apresentam o sistema XQPref, sua demonstração e estudo de caso, respectivamente. Para finalizar, na Seção 4 são apresentadas as considerações finais. II. TRABALHOS RELACIONADOS A personalização de consultas tem como objetivo fornecer soluções que permitam filtrar o que é mais relevante, ou o que corresponda à expectativa e interesse de cada usuário. Para tanto técnicas de personalização vêm sendo pesquisadas e esta área de estudo vem crescendo e aplicando seus conceitos e em diversas áreas da computação, com o simples objetivo de dinamizar as consultas e produzir respostas personalizadas. Como principais fundamentos desta área de conhecimento, diversos estudos foram tomados como base, a exemplo dos trabalhos [6], [7] e tantos outros que desenvolvem muito bem os conceitos relacionados à personalização de consultas e modelagem de preferências. No entanto, a pesquisa apresentada em [8] merece ressalvas, para diferenciar as contribuições. 5

16 O trabalho de [8] também possui seu foco na utilização de preferências do usuário ao consultar documentos XML. Esta pesquisa propõe um método de consulta baseado em preferência contextual em documento XML com o objetivo de resolver o problema de respostas vazias ao realizar consultas, para tal ele propõe o relaxamento e pontuação de conteúdo. O modelo proposto é chamado de XCP e tem como objetivo permitir aos usuários expressar seus interesses sobre nós da árvore XML, e então o usuário atribuir pontuações para seus nós interessantes para fornecer as melhores respostas. Comparando a pesquisa realizada em [8] ao presente trabalho, destaca-se que o autor não utiliza uma linguagem de consulta para XML em sua proposta, de modo que o usuário fica preso ao modelo e não consegue realizar buscas envolvendo artifícios disponíveis nestas linguagens (como agrupamento, consultas aninhadas, dentre outros). Outro ponto a ser destacado é que no presente trabalho o processo de elicitação das preferências ocorre de forma bastante simples para o usuário, pois o mesmo necessita apenas selecionar os elementos que lhe são prediletos, enquanto no modelo proposto em [8] um usuário leigo pode ter dificuldade ao se deparar com uma árvore para selecionar seus nodos prediletos. Na outra linha de pesquisa envolvida pela presente pesquisa, estão os Dados Abertos Governamentais, mostrando que, a inclusão digital aliada à informatização dos procedimentos governamentais e a integração entre os diversos repositórios de dados públicos provocam crescentes demandas da população por mais transparência e participação através de meios tecnológicos. Nessa direção o governo brasileiro tem definido políticas e desenvolvido plataformas tecnológicas na intenção de promover a disseminação das informações públicas. Através do site é possível ter acesso a essas ferramentas, porém cada uma dessas ferramentas utiliza um conjunto específico de dados abertos governamentais no seu desenvolvimento de modo que, cada ferramenta possibilita o acesso a estes dados especificamente. A exemplo destas ferramentas, o [11] é um aplicativo que utiliza os dados do Cadastro Nacional de Reclamações Fundamentadas para fornecer diversas informações sobre as empresas em formato ilustrativo e intuitivo, sendo de fácil utilização em smartphones e tablets devido ao layout vertical. Tal aplicativo está disponível também através do endereço: É importante destacar que estas ferramentas são desenvolvidas a partir de um conjunto específico de dados e dessa forma para que fosse possível analisar todos os dados abertos disponíveis pelo governo seria necessário um aplicativo para cada conjunto de dados, o que notoriamente é pouco viável. Sendo assim, este trabalho percebe a demanda de se criar uma ferramenta universal que possibilite a consulta independente desses dados, de modo que qualquer conjunto de dados possa ser analisado através dela. Com isso, é justificado o desenvolvimento do XQPref que além de propiciar a elicitação das preferência necessárias para a extensão XQuery-Pref ainda viabiliza a realização de consultas nestes dados abertos governamentais que estejam em formato XML. Uma importante ressalva em relação à limitação pelo formato exigido do sistema XQPref é que os dados que não estejam disponíveis neste formato no site podem ser solicitados através do mesmo. III. XQPREF O sistema XQPref tem como objetivo suprir a necessidade de um mecanismo de consulta personalizada baseada em preferências condicionais em base de dados XML. Para tanto, o sistema permite a execução de consultas XQuery em que funções de preferências estão embutidas na linguagem e o uso destas funções possibilitam a otimização da recuperação de informações nessas bases de dados, reduzindo ainda o esforço do usuário para encontrar conteúdo relevante, de acordo com suas necessidades. O XQPref proporciona uma interface de usuário para a biblioteca de execução XQuery. As funções propostas para realizar as consultas respeitando as preferências expressas pelo usuário são disponibilizadas através de um namespace na linguagem XQuery e permitem atender a propósitos de busca variados, simplificando o processo de consulta para o usuário. As funcionalidades incluídas na interface de usuário podem ser vistas na Figura 1, a qual apresenta o diagrama de casos de uso da ferramenta. A primeira funcionalidade do sistema é o upload do documento XML, esta função visa facilitar o processo de consulta para o usuário, para possibilitar que o sistema realize uma varredura sobre as tags, de modo a mapeá-las de forma dinâmica para opções que serão oferecidas para o usuário selecionar suas preferências. Figure 1. Diagrama de casos de uso com as funcionalidades do sistema XQPref As três próximas funcionalidades referem-se à manipulação das preferências, as quais podem ser criadas, salvas em formato XML e recuperadas, assim em um segundo acesso ao sistema, o usuário pode reutilizar 6

17 preferências já expressas ou expressar novas, de acordo com suas necessidades. Em seguida, a funcionalidade de realizar a consulta permite que usuário busque as informações de seu interesse através da seleção de opções relacionadas ao documento fornecido ao sistema e o resultado é retornado na própria ferramenta. É importante destacar que nesta funcionalidade não é preciso nenhum esforço do usuário para que o sistema retorne suas preferências, uma vez que a extensão com as funções de relevância já estão acopladas a linguagem. Por fim, a última funcionalidade se refere à ajuda disponível para que o usuário possa tirar alguma dúvida que surja na utilização do sistema. Na Figura 2, é apresentada de forma gráfica a arquitetura do sistema XQPref, onde estão ilustrados os módulos necessários para a implementação do sistema e suas relações. Inicialmente, percebeu-se a necessidade de criar um repositório onde serão armazenados os documentos XML e deve ser acessado pelo módulo da inicialização. Figura 2. Arquitetura do sistema XQPref O módulo da inicialização responsabiliza-se em implementar mecanismos de leitura da lista de elementos do documento XML e enviar para o módulo de Interface 1, disponibilizando-as em forma de seleção para que o usuário expresse suas preferências. Quando a interface 1 solicita conteúdo do XML, este módulo deve portanto ser capaz de ler o conteúdo do XML a partir repositório e devolvê-lo a Interface Inicial. Este módulo também interage com o Gerenciador/Tradutor, recebendo as queries, buscando no repositório e retornando o resultado para que o Gerenciador as apresente através da Interface 2 para o usuário. A partir do módulo Interface 1, o usuário fornece o documento no qual quer realizar as consultas e em seguida solicita uma analise deste XML ao módulo de Inicialização, que deve analisar a árvore da estrutura do documento XML para ter a base das queries possíveis. Depois de ter analisado o documento, o módulo de Inicialização deve percorrer o conteúdo do XML como uma árvore de nodo em nodo e a cada nodo é preciso atribuir um elemento selecionável, para uma possível preferência do usuário. O módulo Interface 1 é responsável ainda pela apresentação da listagem de elementos que devem ser selecionados pelo usuário. Assim, este módulo deve solicitar informação ao módulo da Inicialização sempre que o usuário seleciona um elemento. De modo que, quando a seleção é iniciada, o módulo Interface 1 pede a listagem do nome dos elementos descendentes ao de Inicialização e as exibe ao usuário. Quando o usuário selecionar um destes descendentes é então realizado um novo pedido ao módulo Inicialização que devolve dessa vez listagem de todos os descendentes deste novo elemento selecionado, tornando a elicitação de preferências um processo dinâmico. Por fim, quando o usuário tiver finalizado o processo de construção de suas preferências este módulo deverá enviar todas as seleções para que o módulo Gerenciador seja capaz de concluir o processo de construção das funções as adequando as preferências submetidas. Já o módulo Gerenciador / Tradutor, é a parte do sistema responsável por calcular a relevância das preferências, com base nos nodos selecionados pelo usuário. Portanto, é necessário que essa referência, com a ordem de seleção, seja recebida do módulo anteriorl, tornando possível a comparação de relevância entre elas. Este módulo também é responsável pela construção das queries, devendo interpretar as seleções realizadas na Interface 2 e traduzi-las para linguagem XQuery, ou seja, a partir de cada nodo selecionado deve ser construída uma query de acordo com as preferências expressas da Interface 1. Assim, depois de calculada a query, este módulo deve retornar o resultado para o módulo Interface 2. O módulo Interface 2 é responsável por apresentar os elementos presentes no documento XML, fornecidos pelo módulo Inicialização para que o usuário selecione apenas o objeto da sua consulta, e o objeto selecionado será enviado para que o módulo Gerenciador prepare a query, busque no repositório através do módulo Inicialização e retorne para esta Interface o resultado esperado pelo usuário. IV. DEMONSTRAÇÃO E ESTUDO DE CASO A demonstração do sistema XQPref foi realizada utilizando dados XML fictícios, para que viabilizasse a visualização das telas do sistema no presente artigo. O conjunto de telas abaixo, apresentado na figura 3, são os protótipos das principais telas da interface apresentada pelo sistema durante a demonstração. No entanto, o estudo de caso realizado com XQPref, utilizou um conjunto de dados disponibilizados pelo governo brasileiro através do site: Com o objetivo de avaliar a acurácia dos resultados. Com o estudo de caso foi possível verificar que os resultados retornados estão respeitando as preferências expressas pelo usuário. Possibilitando que mesmo usuários que não conheçam os comandos da linguagem XQuery, realizem consultadas de modo otimizado. 7

18 Tela para Selecionar Preferências Tela para Realizar Consultas a) b) Figura 3. Demonstração das Telas do Sistema XQPref. Destaca-se que a ferramenta ainda necessita de maior avaliação antes de ser disponibilizada, tendo em vista que o seu foco são para consultas em grandes quantidades de informações. Tal avaliação está em andamento, através da realização de testes automatizados, ficando assegurada como trabalho futuro. V. CONSIDERAÇÕES FINAIS Este trabalho apresentou o XQPref, sistema desenvolvido para viabilizar a personalização de consultas, ao induzir uma ordem de preferência sobre os elementos de um documento XML. Tal necessidade identificada a partir da sobrecarga de informações em domínios que utilizam este formato. O XQPref é capaz de elicitar preferências dinâmicas e processar estas consultas personalizadas. Tal proposta tem como objetivo suprir a necessidade de um mecanismo de consulta personalizada com suporte a preferências em base de dados XML, tornando transparente para o usuário a execução de consultas escritas na linguagem XQuery. A principal contribuição deste trabalho é, portanto, reduzir o esforço do usuário na busca por conteúdo relevante em bases de dados XML. Esta pesquisa é um trabalho em andamento, e a sequência deste trabalho tem como meta aprimorar as funções implementadas no sistema XQPref, analisando a consistência e acurácia dos resultados na realização de consultas em dados abertos governamentais, para que qualquer interessado possa, ao processar livremente os dados governamentais, criar conteúdo a partir da reutilização dos dados. AGRADECIMENTOS À Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (Capes) pela bolsa de mestrado concedida para realização de um trabalho maior no qual, este artigo está inserido. REFERENCES [1] S. A. Amo, T. M. Ferneda, R. G. Cattelan, V. V. S. Dias, H. M. N. Ferreira, Contextual Preference Repositories for Personalized Query Answering. In: XXVII Simpósio Brasileiro de Banco de Dados, 2012, São Paulo. Anais do XXVII Simpósio Brasileiro de Banco de Dados. São Paulo, p [2] F. G. Santos, R. Pinheiro, V. Braganholo, Processamento de Consultas XML usando Máquinas de Inferência. In: Simpósio Brasileiro de Banco de Dados (SBBD), 2012, São Paulo, SP. Simpósio Brasileiro de Banco de Dados (SBBD). Porto Alegre, RS: SBC, p [3] A. Deutsch,; M. Fernandez, D. Florescu, A. Levy, D. Suciu, XML- QL: A Query Language for XML. Submission to the World Wide Web Consortium Disponível em: <http://w3.org/tr/1998/note-xml-ql >. Acesso em Fev [4] J. Robie, XQL (XML Query Language): W3C Recommendation Disponível em: <http://www.ibiblio.org/xql/xqlproposal.html>. Acesso em Fev [5] D. Chamberlin, J. Clark, D. Florescu, J. Robie, J. Siméon, M. Stefanescu, XQuery 1.0: An Query Language for XML: W3C Working Draft Disponível em: <http://www.w3.org/ TR/xquery>. Acesso em: Mar.2014 [6] N. Wilson, Extending CP-Nets with Stronger Conditional Preference Statements. In 19th National Conference on Articial Intelligence (AAAI), 2004, pp , San Jose, California, USA. [7] C. Boutilier, R. I. Brafman, C. Domshlak, H. H. Hoos, D. Poole, CPnets: A Tool for Representing and Reasoning with Conditional Ceteris Paribus Preference Statements. Journal of Articial Intelligence Research 21, [8] W. Yan, L. Yan, and Z. M. Ma. "Automated Ranking of Relaxing Query Results Based on XML Structure and Content Preferences." International Journal of Systems and Service-Oriented Engineering (IJSSOE) 2.1 (2011): [9] C. H. P. Gomes, Extensão de uma Linguagem de Consulta para Documentos XML com Características de Tempo e de Versão Dissertação - Universidade Federal do Rio Grande do Sul, UFRGS, Brasil [10] AMO, S. A. ; Fabiola S.F. Pereira. Evaluation of Conditional Preference Queries.. Journal of Information and Data Management - JIDM, v. 1, p , [11] Reputação S.A Disponível em: Acesso em Jun

19 Algoritmos Avançados de Inteligência Artificial Aplicados ao Mapeamento de Ambiente e Controle de Trajetória de Robô Iury Batista de Andrade Santos, Euder de Jesus Costa, Thiago da Silva Almeida, Nathanael Oliveira Vasconcelos e Alcides Xavier Benicasa Departamento de Sistemas de Informação DSI Universidade Federal de Sergipe - UFS Itabaiana - SE, Brasil Resumo Este projeto de pesquisa tem como objetivo principal apresentar um método de navegação autônomo para robôs móveis utilizando uma arquitetura híbrida, composta por técnicas probabilísticas de mapeamento e controle de navegação baseado em métodos de busca tradicionais, sendo as seguintes: busca cega, busca heurística e busca por aprendizagem por reforço. De maneira resumida, o robô deverá aprender inicialmente os limites do ambiente e como se locomover de forma inteligente entre dois pontos distintos. Para a simulação do ambiente serão utilizados ambientes de simulação, de modo a tornar possível a análise do comportamento do robô móvel através do ambiente utilizado. Palavras-chave: inteligência artificial; robôs móveis autônomos; mapeamento métrico probabilístico; aprendizado por reforço; métodos de busca. I. INTRODUÇÃO A navegação autônoma de robôs é uma área de grande interesse na computação e na robótica, sendo atual e desafiadora[1][2]. O desenvolvimento de técnicas eficientes de navegação é de grande interesse de estudo desta área, já que é grande o número de aplicações práticas referentes a navegação autônoma de robôs, como o controle de incêndios, acesso a áreas de risco ou de difícil acesso humano, vasculhamento de grandes áreas, limpeza de tubulações e outras. A navegação pode ser então implementada por meio da aplicação de métodos de busca em um determinado ambiente. Na literatura podemos encontrar a definição de métodos de busca como se tratando de um agente que possui uma serie de escolhas imediatas de valor desconhecido e que examina diferentes sequências de ações possíveis levando a estados de valor conhecido escolhendo, em seguida, a sequência de melhor resultado[4]. Estes métodos podem não se utilizar de nenhum tipo de informação, sendo assim chamados de busca cega, ou utilizarem algum tipo de informação (distância de um ponto a outro, por exemplo), sendo chamadas de métodos de busca heurística[9]. Há ainda métodos de busca por aprendizagem por reforço que partem de um modelo de recompensas e punições a depender de cada escolha. São exemplos de busca cega a busca por largura e a busca por profundidade. Métodos heurísticos de busca são a busca de custo uniforme, busca gulosa pela melhor escolha e busca A* (A-Estrela). Dentre as buscas por aprendizado por reforço temos Q-Learning e R-Learning. Os métodos de busca cega e heurísticas foram abordados em Almeida et al. [2]. Neste, o robô realiza a navegação em um ambiente previamente conhecido, tendo como objetivo realizar o percurso de um ponto a outro, valendo-se de um método de busca selecionado e evitando obstáculos ao decorrer do processo. O processo era realizado em um ambiente simulado por meio da aplicação Player e Stage[10]. O Player/Stage funcionam como uma camada de abstração de hardware, comunicando-se com os bits de hardware do robô e reduzindo assim a necessidade de o usuário se preocupar com várias partes do controle do robô[5]. O Stage trata-se um um plugin para o Player responsável por ouvir os comandos do Player, bem como simular a leitura dos sensores do robô e o ambiente ao qual este está navegando, enviando-os para o Player que por fim permite que estes sejam utilizados pelo código de controle desenvolvido pelo usuário por meio de bibliotecas. É possível simular diversos robôs simultaneamente por meio do Player/Stage. Os robôs simulados pelo Player/Stage são baseados no modelo Pioneer (fabricado pela MobileRobots). O ambiente simulado apresenta vantagens já demostradas por outros trabalhos[3], como a redução de custos relacionados a construção ou aquisição de um robô, bem como gastos relacionados a danos causado por possíveis colisões, redução do tempo necessário para realização das atividades, dentre outros fatores relacionados a segurança. Além de tais vantagens, o ambiente Player e Stage é amplamente utilizado pela comunidade de pesquisa em robótica. Este projeto se propõe a aumentar a automação destes processos de busca por meio da implementação de mapeamento autônomo, além de adicionar os métodos de busca por aprendizado por reforço Q-Learning e R-Learning, visando chegar a uma solução ótima. Utilizar-se-a então do mapa gerado por meio do mapeamento para a análise dos métodos de busca propostos em Almeida et al. [2], bem como dos modelos de busca por aprendizado por reforço, sendo possível desta forma identificar qual o método mais eficiente de cálculo de uma trajetória de um ponto a outro, 9

20 além da realização de uma análise das localizações do mapa mais visitadas pelos métodos de busca. II. OBJETIVOS O objetivo desta pesquisa é apresentar maneiras de guiar de forma inteligente um robô móvel. Neste trabalho será utilizado métodos probabilísticos para mapearmos o ambiente em que serão aplicados os algoritmos de busca cega, heurística e por aprendizagem por reforço para o cálculo da trajetória do robô, tendo ao final do processo, como resultado da análise, a melhor trajetória encontrada por meio da comparação entre todos os métodos de busca. Objetivos Específicos: Mapear o ambiente valendo-se de métodos probabilísticos. Analisar e identificar a melhor trajetória a ser percorrida de um ponto a outro por meio de métodos de busca cega, heurística e de aprendizado por reforço, tendo como objetivo alcançar o caminho ótimo. Obter informações sobre regiões mais visitadas de um mapa por tais métodos de busca André ponce de leon f. carvalho; tomasz kowaltowski. (org). JAI: Jornada de Atualização em Informática da SBC, Rio de Janeiro, SBC Editora da PUC Rio 1, p , [4] RUSSEL, Stuart e NORVIG, P., Artificial intelligence: a modern approach, ed. 2, Upper Saddle River, New Jersey: Pretice Hall, [5] OWEN, J., How to use Player/Stage 2nd Edition. The Player Manual, [6] ELFES, A., A Sonar-based real-world mapping and navigation, IEEE Journal of Robotics and Automation, v. 3, p , 1987 [7] SOUZA, A., Mapeamento com sonar usando grade de ocupação baseado em modelagem probabilistica, Master's thesis, Universidade Federal do Rio Grande do Norte UFRN, 2008 [8] FARIA, G., ROMERO, R., Explorando o potencial de algoritmos de aprendizado por reforço em robôs móveis, Proceedings of the IV Brazilian Conference on Neural Networks, pṕ , [9] FONSECA, F. O., Algoritmos avançados de inteligência artificial aplicados ao comportamento de robôs móveis, Universidade Federal de Sergipe, Relatório Final de Programa Especial de Inclusão em Iniciação Científica da UFS, 2012 [10] Brian Gerkey, Kasper Stoy e Richard T. Vaughan, Player Robot Server, Technical Report IRIS , Institute for Robotics and Intelligent Systems, School of Engineering, University of Southern California, Novembro III. METODOLOGIA Ao longo de todo o trabalho, mas principalmente e de forma mais intensa durante a fase inicial, será feito um levantamento bibliográfico sobre o mapeamento de ambientes através de métodos de mapeamento métrico probabilístico e grade de ocupação[6][7], bem como dos métodos de busca por aprendizado por reforço Q-Learning e R-Learning[8]. Posteriormente será realizada a integração dos modelos já implementados por Almeida et al.[2] com aquilo desenvolvido referente ao mapeamento métrico probabilístico e grade de ocupação e os métodos de busca por aprendizado por reforço Q-Learning e R-Learning. Na segunda etapa será então aplicado os processos desenvolvidos por meio do ambiente de simulação, iniciando-se pelo mapeamento do ambiente e prosseguindo para a análise de trajetórias valendo-se de todos os métodos de busca aqui já referenciados, desejando-se obter ao final um comparativo entre estes, bem como aquele que alcançou o melhor resultado no cálculo de uma trajetória entre pontos determinados. Também será obtido como resultado dados referentes a métricas de interesse, como eficiência de tais métodos e locais mais visitados no mapa pelos algoritmos de busca. REFERÊNCIAS [1] Benicasa, Alcides Xavier, Navegação autônoma de robôs baseada em técnicas de mapeamento e aprendizagem de máquina Revista Brasileira de Computação Aplicada,Passo Fundo, vol. 4, pp , Março [2] Almeida, T. da S., Vasconcelos, N. O., Fonseca, F. O., Benicasa, A. X., Inteligência Artificial Aplicada à Navegação Autônoma de Robôs, 2º Semana de Informática da UFS Itabaiana, 2012 [3] WOLF, Denis F. and OSÓRIO, F. S. S. E. and O. Trindade Jr., Robótica inteligente: Da simulação às aplicações no mundo real. in: 10

21 SINTRALIB - Sistema Integrado Tradutor de LIBRAS Comunicação para todos Anderson de Andrade Cunha Departamento de Sistemas de Informação Universidade Federal de Sergipe - Campus Alberto Carvalho Itabaiana - Brasil Guilherme Bruno Viturino Alves Departamento de Sistemas de Informação Universidade Federal de Sergipe - Campus Alberto Carvalho Itabaiana - Brasil Mai-Ly Vanessa Almeida Saucedo Faro Departamento de Sistemas de Informação Universidade Federal de Sergipe - Campus Alberto Carvalho Itabaiana - Brasil Resumo De acordo com o censo de 2010, do IBGE, há no Brasil mais de de pessoas com deficiência auditiva grave. Para muitas destas pessoas LIBRAS (Linguagens Brasileira de Sinais) é considerada a língua materna. Apesar de sua importância e do esforço por parte do governo federal, ao incluir LIBRAS como disciplina obrigatória dos cursos de licenciatura, sua popularização ainda não é realidade em nossa sociedade. Em um mundo de falantes, pessoas que se comunicam em LIBRAS muitas vezes ficam isoladas, restritas a se comunicar apenas com outras pessoas que dominam esta linguagem. Este trabalho versa sobre a primeira etapa do desenvolvimento de um sistema computadorizado que possui como objetivo final permitir a clara comunicação, intermediada por computador, entre falantes de português e usuários de LIBRAS. O referido sistema será composto basicamente por dois módulos. O primeiro módulo escuta a voz, ou recebe o texto, em português e, converte-o para sua representação em LIBRAS, que então é exibida na tela do computador por meio de uma figura, digitalmente criada, que executa os movimentos. O segundo módulo, fazendo uso da tecnologia de dispositivos ópticos capta os movimentos do usuário de LIBRAS e os converte para português, escrito ou falado por meio de um sintetizador de voz. O presente trabalho versa sobre a etapa inicial de desenvolvimento do primeiro módulo do sistema. Palavras chave; LIBRAS; Tradutor eletrônico; Inclusão Social; Comunicação. I. INTRODUÇÃO Segundo o censo realizado em 2010 pelo Instituto Brasileiro de Geografia e Estatística, (IBGE) cerca de 5,1% da população brasileira possui deficiência auditiva. Deste total cerca de 1,12% possui deficiência severa, o que representa um universo de cerca de dois milhões de pessoas [1]. É interessante esclarecer que este número corresponde às pessoas que não conseguem ouvir de modo algum e às pessoas que mesmo com aparelho auditivo possuem grande dificuldade permanente de ouvir. Infelizmente grande parte dos surdos brasileiros não conseguem se comunicar eficientemente em português escrito, entretanto se comunicam fluentemente em linguagem de sinais. Para este universo de pessoas, LIBRAS é considerada a Língua materna, sendo o fato de adquirir capacidade de se comunicar em português escrito um desafio semelhante à aprender um segundo idioma. Mesmo entre aqueles deficientes auditivos biblíngues, ou seja, alfabetizados, vê-se que a comunicação em LIBRAS é muito mais compreensível e confortável como podemos ver no texto de Ana Carolina Siqueira:...LIBRAS como toda língua materna, é a língua que desperta a subjetividade e a capacidade de compreensão do indivíduo [2]. Apesar da lei Nº de 24 de abril de 2002, que torna LIBRAS parte integrante dos Parâmetros Curriculares Nacionais PCN, sabemos que apenas uma pequena minoria de pessoas falantes podem ser consideradas fluentes neste idioma, a saber, pessoas que lidam diretamente com surdos, como familiares, cuidadores, intérpretes e alguns professores. Consequência disto é o isolamento social de surdos "falantes" de LIBRAS, que na maioria das vezes ficam restritos a se comunicar apenas com outras pessoas que dominam esta língua. A partir deste cenário idealizamos o projeto SINTRALIB (Sistema Integrado Tradutor de LIBRAS) - comunicação para todos. A utilização da tecnologia desenvolvida ao longo desse projeto torna-se importante ao permitir interação imediata, mediada por computador, entre os usuários de português e de LIBRAS. Atualmente há dois softwares considerados referência nesta área a saber ProDeaf [3] e Hand Talk [4]. Ambos traduzem texto e voz de português para LIBRAS - com o objetivo de permitir a comunicação entre surdos e ouvintes. O diferencial do nosso projeto é que além de fazer o que os outros dois citados fazem, também faremos o inverso, traduzir frases de LIBRAS para português, permitindo assim que a comunicação seja feita nos dois sentidos. Devido ao fato de que LIBRAS não é apenas um conjunto de sinais e sim um idioma completo, que além de sinais contém separadores, regras sintáticas e semânticas próprias, utilizando não somente movimento de mãos mas também de algumas outras partes do corpo, considerando 11

22 também à nossa falta de conhecimento inicial a respeito deste idioma, dividimos o desenvolvimento do software em algumas etapas. Nesta primeira etapa nosso objetivo é estudar e selecionar tecnologias que nos podem ser úteis para a construção do sistema, bem como desenvolver um software que seja capaz de traduzir o alfabeto e algumas palavras ou expressões de pouca complexidade, de português para LIBRAS. Tão logo concluamos esta fase faremos a tradução do alfabeto e expressões simples de LIBRAS para português.. II. OBJETIVO O objetivo da atual etapa do projeto, de que trata este trabalho, é desenvolver um software que realize a tradução das letras do alfabeto, bem como de algumas palavras de pouca complexidade, de português para LIBRAS. As entradas podem ser feitas por voz ou de forma escrita. A saída é feita por meio de uma animação 3D executando os sinais de LIBRAS. É interessante observar que o trabalho de que falamos é a etapa inicial de um projeto mais extenso que visa desenvolver um sistema computadorizado que faça a tradução instantânea de português falado para LIBRAS e de LIBRAS para português falado. Adicionalmente serão providos também mecanismos que permitam que tanto a entrada quanto a saída, em ambas as direções, possam ser feitas também em português escrito. III. A. Sobre LIBRAS FUNDAMENTAÇÃO TEÓRICA A língua brasileira de sinais (LIBRAS) é a língua usada pela maioria dos surdos, dos centros urbanos brasileiros, sendo reconhecida pela Lei. É derivada tanto de uma língua de sinais autóctone quanto da língua gestual francesa; por isso, é semelhante a outras línguas de sinais da Europa e da América. LIBRAS não é composta simplesmente de gestos equivalentes a palavras da língua portuguesa, e sim é uma língua à parte. Assim como as diversas línguagens naturais humanas existentes, ela é composta por níveis linguísticos como: fonologia, morfologia, sintaxe e semântica. Da mesma forma que nas línguas orais-auditivas existem palavras, nas línguas de sinais também existem itens lexicais, que recebem o nome de sinais. A diferença é sua modalidade de articulação, a saber visual-espacial, ou cinético-visual, para outros. LIBRAS é comparável tanto em complexidade como em expressividade a qualquer língua oral, pois expressa idéias sutis, complexas e abstratas [5]. Para se comunicar em Libras não basta apenas conhecer os sinais. É necessário conhecer a sua gramática para combinar as frases, estabelecendo comunicação. Os sinais surgem da combinação de configurações de mão, movimentos e de pontos de articulação, locais no espaço ou no corpo onde os sinais são feitos. Há também combinações de expressões faciais e corporais que transmitem os sentimentos que para os ouvintes são transmitidos pela entonação da voz, os quais juntos compõem as unidades básicas dessa língua [6]. Assim, a Libras se apresenta como um sistema linguístico de transmissão de ideias e fatos, oriundos de comunidades de pessoas surdas do Brasil. B. Tecnologias envolvidas na captação e tradução de voz para LIBRAS B.1. Java É uma linguagem de programação de propósito geral, Orientada a Objetos, multiplataforma lançada pela Sun Microsystems em 1995, que desde então tem se firmado como uma das linguagens de desenvolvimento mais usadas do mundo. Esta tecnologia tem sido usada no desenvolvimento de diversos programas da mais alta qualidade, como utilitários, jogos e aplicativos corporativos. Em nosso trabalho preferimos usar java, pelo fato dela ser multiplataforma, oferecer facilidades no desenvolvimento para diferentes tipos de dispositivos e pela facilidade advinda do fato de já existir a conexão entre o Java e os hardwares e softwares que iremos utilizar. B.2. IBM Via Voice É um software que faz reconhecimento de voz em diversas línguas, inclusive em português, filtrando os ruídos o que aumenta a compreensão da voz humana. Este programa consegue escrever o que é dito inclusive usando acentuação. Além disso, o software também pode funcionar como sintetizador de voz. B.3. Java Spech É uma API (Application Programming Interface) que permite que aplicações Java possam incorporar tecnologias de reconhecimento de voz, de comando e controle e sistemas reconhecedores de ditado [7]. Esta API consegue trabalhar tanto com o reconhecimento de fala quanto com a sintetização de fala. Sendo mono-lingual, pode-se trabalhar apenas com uma única língua especificada. Para essa API ser usada é necessária a utilização de um reconhecedor de voz que no caso foi o IBM Via Voice citado acima. C. Tecnologias envolvidas na modelagem 3D do personagem que faz a saída em LIBRAS C.1. Game Engine Game engine, ou "motor de jogo", é uma biblioteca, que permite simplificar e abstrair o desenvolvimento de jogos eletrônicos ou outras aplicações que utilizam animações gráficas em tempo real, impedindo que sua criação tenha que ser feita do zero. 12

23 A funcionalidade tipicamente fornecida por esse motor gráfico inclui: renderização de gráficos 2D e 3D, suporte a animação, sons, simulação das leis da física, networking, gerência de memória, gerência de arquivos, gerência de linha de execução, suporte a grafos de cena e entidades e, suporte a uma linguagem de script. O cenário de uma imagem pode ser reconstruído graficamente com considerável perfeição. Construir este cenário graficamente com tamanha perfeição a partir do zero demandaria bastante tempo e altos custos seriam gerados. Com a utilização de games engines podemos acelerar o processo de produção de imagens, cenários e qualquer modalidade gráfica, assim como a ilustrado na figura [1]. C.1. Blender Figura 1. A imagem da direita foi digitalmente produzida pela CryEngine. Blender é um software, multiplataforma, de código aberto, desenvolvido pela Blender Foundation, que possui mecanismos para fazer modelagem, animação, texturização, composição, renderização, edição de vídeo e criação de aplicações interativas em 3D, tais como jogos, apresentações, realidades virtuais, auxílio em animação entre outros, através de seu motor de jogo integrado, o Blender Game Engine [8]. O Blender Game Engine usa OpenGL (biblioteca livre para desenvolvimento de aplicativos gráficos) para o desenvolvimento dos gráficos, OpenAl (biblioteca livre para lidar com áudio multicanal tridimensional) para o som 3D e Bullet (motor de física) para características da física e detecção de colisão. Este programa implementa ferramentas similares às de programas proprietários, que incluem avançadas ferramentas de simulação tais como: dinâmica de corpo, dinâmica de fluidos, ferramentas de modelagem baseadas em modificadores, ferramentas de animação de personagens, cenas e imagens, e um editor de imagem e vídeo, com suporte a pós-produção, entre outros conjuntos de produções e auxílios gráficos. IV. DESENVOLVIMENTO DO SOFTWARE O código do software foi escrito em Java utilizando para captação do som da voz o IBM Via Voice. Foi definjido um arquivo de dicionário que foi então ativado para ser usado pela Java Spech. Assim a biblioteca "sabe o que deve procurar" ao receber o som escutado. Uma vez captada a voz do microfone, pelo IBM Via Voice, é feito um tratamento no sinal para retirar ruídos. O sinal, então, é enviado à API Java Spech que efetua testes padrões sobre o espectro de frequência do sinal recebido comparando-o com os testes padrões sobre os espectros de frequência dos padrões das palavras em português definidas no dicionário. Uma vez que seja encontrado o fonema correspondente ao som, é então chamada a animação em LIBRAS, previamente feita, que corresponde à palavra/letra escutada. Adicionalmente o software também pode trabalhar fazendo a tradução de texto para LIBRAS. Neste caso o texto escrito que, por uma questão de compatibilidade com as demais funcionalidades do software, deve ser composto apenas pelas letras ou palavras isoladas definidas no dicionário anteriormente falado, tem suas palavras/letras reconhecidas sendo então feita a chamada da animação em LIBRAS correspondente à palavra. Há diversas Games Engines disponíveis, cada uma com suas características próprias e diferentes tipos de licenças. Para o desenvolvimento das animações do presente projeto optamos por usar o Blender que é um ambiente de desenvolvimento de animações 3D completo, gratuito, de código aberto, baseado no Blender Game Engine. A modelagem da animação foi feita da seguinte forma. Inicialmente desenvolvemos o modelo 3D do personagem que será usado para fazer as animações em LIBRAS. O personagem, batizado como Andy, possui uma aparência simples, com roupas pouco chamativas, conforme visto na figura [2], para que a atenção do deficiente auditivo seja voltada aos movimentos do personagem e não a sua figura em sí. Com o modelo 3D feito iniciamos a preparação para que ele pudesse receber a movimentação necessária à representação dos sinais de LIBRAS. Para isto foi adicionado ao modelo um esqueleto conforme podemos observar na figura [3]. A movimentação do modelo com base na posição de "ossos" consiste em associar um "osso" a um conjunto específico de vértices que se movimentarão para acompanhá-lo quando sua posição for alterada. Com o esqueleto anexado no corpo do modelo 3D, começaremos a movimentar os ossos do esqueleto para agregar movimentação ao corpo. Cada osso é movimentado individualmente mas quando no caso de havere ossos ligados, desejando-se, a movimentação pode ser feita também em conjunto. Utilizamos o conceito de frames 1 para fazer a movimentação do personagem, dividindo a movimentação de cada sinal em LIBRAS, em várias partes e alocando cada parte em uma imagem fixa resultando em imagens contínuas. Na figura [4] podemos observar algumas das posições criadas para a construção da palavra oi em LIBRAS. Uma vez que a movimentação relativa a um sinal de LIBRAS esteja pronta a animação pode ser exportada como um objeto XML para assim então poder ser usada pelo Java. O Java então pode usar a animação como se fosse um objeto qualquer. 1 Frame - cada quadro ou imagem fixa executada em um espaço curto de tempo. 13

24 V. CONCLUSÃO O sistema SINTRALIB em sua totalidade foi idealizado para ser um Tradutor de português para LIBRAS e de LIBRAS para português. O objeto do presente trabalho é a etapa inicial do desenvolvimento deste sistema. Foi criado um modelo 3D no qual foi mapeado um esqueleto a partir do qual foi feita a movimentação necessária para realização dos sinais de LIBRAS. O sistema também realizou a tradução de letras e algumas palavras, de pouca complexidade, de português para LIBRAS. Figura 2 - Modelo 3D criado VI. PRÓXIMAS ETAPAS DO DESENVOLVIMENTO DO SISTEMA O próximo passo no desenvolvimento do sistema é a conversão de LIBRAS para português de tudo que já foi convertido, no presente trabalho, de português para LIBRAS. Para esse fim estamos adquirindo o hardware Leap Motion que em conjunto com o Kinect será usado para fazer a captura dos movimentos do usuário. Uma vez que o software esteja fazendo a tradução português - LIBRAS e LIBRAS - português deste conjunto de palavras/letras ora especificado iremos ampliar o dicionário e animações correspondentes para mapeamento das palavras mais usadas da língua portuguesa segundo Antonio Cunha [9]. Após esta etapa iremos implementar a interpretação de frases estruturadas em ambos os sentidos. Ao final, do desenvolvimento do sistema, iremos realizar uma bateria de testes intermediando comunicação real entre surdos usuários de LIBRAS e ouvintes. Figura 3 - Esqueleto adicionado ao modelo 3D Figura 4 - Poses básicas usadas para formar a palavra "Oi" em LIBRAS REFERÊNCIAS BIBLIOGRÁFICAS [1] Disponível em < surdosusuariosdalinguaportuguesa.blogspot.com.br/2012/05/censo-do-ibge dados-sobre.html >. Acesso em 10 fev [2] VELOSO, Ana Carolina Siqueira. Alfabetização do individuo surdo: primeiro em LIBRAS ou em português?.in: XVI Congresso de Leitura do Brasil - Cole: Anais do XVI COLE, Universidade do Rio de Janeiro, [3] Disponível em < Acessado em 10/11/2014 às 11h. [4] Disponível em < Acessado em 10/11/2013 às 10h. [5] ROSA, Andréa da Silva, Entre a visibilidade da linguagem de sinais e a invisibilidade da tarefa do intérprete f. Dissertação (Mestrado em Educação) - Faculdade de Educação, Universidade Estadual de Campinas, Campinas, [6] Damasceno, Rafael H. F., Domingos, Maria C. da S., Leme, Hercilio A. P., Prado, Rogério R. do, Bernardes, Rosiani, C., Araujo, Elaine C., et al. Cartilha LIBRAS - Sinais de Inclusão. Universidade José do Rosário Vellano - UNIFENAS. Alfenas, Disponível em <" [7] Marangoni, Josemar B., Precipito, Waldemar B. Revista Científica Eletrônica de Sistemas de Informação. Ano II, Número 4. Garça [8] Disponível em <"http://www.blender.org"> [9] CUNHA, Antônio Geraldo da. A Propósito de um Dicionário de Frequência. In: Confluência Revista do Instituto de Língua Portuguesa. N º 8 2º semestre de 1994 Rio de Janeiro; pp

25 Utilização de Lógica Fuzzy para Roteamento de Sensores Sem Fio Implementação com JFuzzyLogic e Repast Simphony Daniele Freitas de Jesus Mestrado em Engenharia da Informação Universidade Federal do ABC Santo André - São Paulo, Brasil João Henrique Kleinschmidt Mestrado em Engenharia da Informação Universidade Federal do ABC Santo André - São Paulo, Brasil Maria das Graças B. Marietto Mestrado em Engenharia da Informação Universidade Federal do ABC Santo André - São Paulo, Brasil Resumo - Esta pesquisa apresenta os principais conceitos sobre Redes de Sensores Sem Fio, Multiagentes e Lógica Fuzzy, para embasar o modelo de Roteamento utilizando lógica Fuzzy na plataforma Repast Simphony e o pacote jfuzzylogic. Considerando essa necessidade constante de manter a capacidade energética, essa pesquisa busca utilizar a lógica Fuzzy para definir o roteamento de forma inteligente, preservando os nodos com pouca capacidade energética ou potencial de roteamento. A lógica do modelo utiliza três antecedentes e uma consequente. Palavras-Chave: Redes de Sensores Sem Fio. Simulação. Lógica Fuzzy. Repast Simphony. Energia jfuzzylogic. I. INTRODUÇÃO As Redes de Sensores Sem Fio (RSSF) são formadas por dezenas, ou até centenas de nodos sensores, dispositivos autônomos de baixo custo e tamanho reduzido, com capacidade para realizar sensoriamento, processamento e transmissão de informação. São usualmente utilizadas para aplicações de controle, tráfego, militar, segurança, ambiente e medicina. [1, 2, 4]. As principais características dessas redes é que possuem baixa capacidade energética, pouco processamento e armazenamento. Sua capacidade energética estima a vida útil da rede. Com base nesse conceito energético, vital para a rede, essa pesquisa buscou utilizar os conceitos da lógica Fuzzy e de Sistemas Multiagentes, para que o sensor possa definir o melhor roteamento possível, preservando os nodos com pouca capacidade energética ou alta distância de sua vizinhança, objetivando apoiar os pesquisadores, em mais uma forma de simular o custo energético da rede. As ferramentas utilizadas para implementar o modelo desta pesquisa, foram o JFuzzyLogic, responsável pela geração dos gráficos Fuzzy, e o Repast Shimphony, plataforma onde foi programado os agentes. Existem alguns trabalhos correlatos para a pesquisa proposta, como "Agent-Based, Energy Efficient Routing in Sensor Networks"[17], "Avaliação de Estratégias e Construção de Software para Medição do Nível de Energia em Sensores de RSSF"[3], "Research on energy efficient fusion-driven routing in wireless multimedia sensor networks"[18], "Energy and Mobility Aware Geographical Multipath Routing for WSN"[6] e "A Fuzzy Approach to Energy Optimized Routing for WSN"[7], entretanto nenhuma delas trataram de trabalhar os conceitos de Lógica Fuzzy, Sistemas Multiagente e Capacidade Energética da rede na mesma pesquisa. Este trabalho apresenta em sua primeira parte a teoria geral sobre Lógica Fuzzy e Multiagentes. Já na seção IV e V são expostos o formato do modelo, a lógica e o modelo computacional. Em seguida, na seção dos resultados, são apresentados algumas saídas da simulação do sistema e suas discussões, após, as conclusões alcançadas com essa pesquisa. II. LÓGICA FUZZY De acordo com [9], a Lógica Fuzzy foi introduzida, inicialmente, em 1930 pelo filósofo e lógico polonês Jan Lukasiewicz, propondo o uso do intervalo de valores [0,1], que indica a possibilidade ou não daquela declaração ser verdadeira. Já em 1965, Lofti Zadeh publicou o artigo Fuzzy Sets [8], que ficou conhecido como a origem da Lógica Fuzzy. Devido a falta de critérios bem definidos ou a alta incerteza em alguns problemas do mundo real, fica complicado ou inviável programar utilizando a lógica convencional, conhecida como Crisp, que se baseia na precisão. A lógica Fuzzy trabalha com o grau de pertinência de determinados elementos pertencer ou não a um conjunto com características incertas [8, 9]. 2.1 Conceitos Básicos De acordo com Zadeh [8,] um conjunto Fuzzy é uma classe de objetos de graus de adesão contínua. Tal conjunto é caracterizado por uma função social (característica), que atribui a cada objeto um grau de pertinência que varia entre zero e um. Na Lógica Fuzzy, as variáveis lingüísticas são usadas para descrever variáveis físicas, em vez dos nomes e números utilizados no controle dos sistemas. Se uma variável de entrada é descrita por termos lingüísticos, é referido como um valor linguístico [13]. Para dar intensidade as variáveis linguísticas, são utilizados os chamados modificadores, que podem ser divididos em aumentadores e diminuidores [9, 13]. Para a representação de conjuntos Fuzzy é necessário a escolha da função de pertinência a ser utilizada, que vai depender do problema a ser modelado e também da capacidade computacional disponível para processar o que se deseja [9]. Os formatos mais comuns das funções de pertinência são [13]: trapezoidal, triangular, singleton, irregular, que possuem vantagens e desvantagens que deverão ser estudados pelo pesquisador para acomodar melhor a problemática trabalhada. 2.2 Sistema de Controle Fuzzy O Controlador Fuzzy é baseado em conhecimento de aplicação prática representada pela chamada base de regra linguística, em vez de modelos analíticos (ou empíricas ou teóricas). Pode ser usado quando existe uma experiência que pode ser expressa em seu formalismo. Isso permite ter 15

26 oportunidade de conhecimento disponível para melhorar os processos e realizar uma variedade de tarefas, como controle, reconhecimento de classificação, tomada de decisão em tempo real, detecção e diagnostico de falhas de sistema [13]. Um controlador Fuzzy é basicamente constituído por três partes: fuzzificação, motor de inferência e defuzzificação [10]. O estilo de inferência Mandami, criado pelo professor Ebrahim Mamdani, da Universidade de Londres em 1975 baseia-se em regras de conjuntos Fuzzy no intuito de representar experiências da vida real. Foi dividido em quatro passos: fuzzyficação, avaliação das regras Fuzzy, agregação das regras Fuzzy e defuzzyficação [9]. A fuzzificação mapeia os valores de entrada crisp ao correspondente no conjunto Fuzzy, ou seja, ele atribui o grau de pertinência para cada conjunto. Os valores fuzzificados são processados no motor de inferência, o que consiste em uma base de regras e vários métodos para inferir elas. Essa base de regras é simplesmente um conjunto de IF-Then, que relacionam as variáveis Fuzzy de entrada com uma implicação. A defuzzificação executa o inverso da entrada, encontrando um valor crisp da solução encontrada no motor, usando técnicas como máximo, centro da área, média de máximos, etc [10]. III. SISTEMAS MULTIAGENTES Apesar de não possuir um consenso sobre a definição de agente, entende-se que ele é um sistema computacional, capaz de receber informações sensoriais do ambiente, executar ações que alteram este ambiente de maneira autônoma, mas sem a intervenção humana. Também são capazes de se comunicarem entre si e perceber o ambiente ao qual está inserido. Eles podem ter comportamento cognitivo ou reativo[5]. O agente reativo busca no ambiente somente o que é válido para si próprio, ou foi pré-definido, sem construir uma representação artificial ou lógica do ambiente. Nesta arquitetura suas ações são diretamente influenciadas por um conjunto de eventos do ambiente [5], já o cognitivo não se limita apenas a influência desses conjuntos, ele é mais complexo e possui mecanismos para tomada de decisão. A interação dos agentes entre si com o ambiente, geram os Sistemas Multiagentes, um modelo de simulação utilizado para simular sistemas distribuídos complexos, como é o caso do sensoriamento das RSSF. Modelo de simulação é uma representação parcial do sistema real, que permite verificar seu comportamento em determinadas situações e suas reações às variadas alterações internas de comportamento do sistema [11]. Modelagem por agentes possui uma ampla variedade de aplicações, que de acordo com [15] vão desde a modelagem de mercado de ações, cadeias de suprimento e de consumo, previsão de epidemias, ameaças, guerras biológicas, ou mesmo para compreensão de algum fator que levou a queda de uma civilização antiga. Simulação com modelo multiagente aprimora a investigação de sistemas que exigem muitos agentes para serem analisados totalmente ou a resposta de um único agente de forma realista [16]. IV. MODELO DE ROTEAMENTO POR MAPA ENERGÉTICO NA RSSF COM LÓGICA FUZZY O modelo desta pesquisa tem a organização dos sensores de forma geográfica (roteamento é baseado na localização dos nós), a mobilidade estacionária (os nós não se movem), a densidade balanceada (quantidade de nós distribuídos), a distribuição é irregular (aleatória), a coleta de informações é reativa (somente quando ocorre o evento), a disseminação dessa informação é sob demanda (dependente do evento), a conexão é simétrica (todos os sensores possuem o mesmo alcance, com exceção do sorvedouro), a transmissão half-duplex (sensores recebem e transmitem informações), a alocação de canal é dinâmica (não existe largura de banda fixa) e o fluxo de informação é do tipo gossiping (o nó seleciona o nó para o qual envia o dado). As configurações básicas iniciais de todos os agentes são: possibilidade de perceber um evento pré-definido, perceber nós vizinhos, perceber o sorvedouro, se estes estiverem próximos de seu raio wireless, solicitar mapa energético do vizinho, e possui quantidade máxima de energia. O mapa de energia neste modelo, é construído individualmente em cada nodo (agente) da rede. Neste mapa contém sua própria informação energética, que é disponibilizada a outro nodo, quando solicitado, para verificar a possibilidade ou não de transmissão de dados. A plataforma multiagente selecionada para programar os agentes, foi o Repast Simponhy [12], por conta de sua generalização e pacotes importantes para a viabilização de Sistemas Multiagentes. Todos os agentes possuem um raio de transmissão limitados no ambiente (grid) onde estão inseridos. Através de sua tabela de vizinhança, onde são incluídos outros agentes iguais próximos a este e o sorvedouro, o nó sensor é capaz de enviar a mensagem de algum evento ocorrido, que foi previamente definido em sua memória, cruzando informações da tabela de vizinhança e o mapa de energia. No modelo, os agentes possuem instruções para garantir rotas inteligentes, utilizando a lógica Fuzzy para definir qual o melhor caminho a seguir. Eles consideram o valor energético de seu nó vizinho, sua própria energia e a distância de seu vizinho, para encaminhar a informação, garantindo que esta mensagem consiga chegar até o sorvedouro, o ponto final do roteamento. O agente sorvedouro possui maior capacidade energética e processamento, ligação com a internet, e usa tanto unicast quanto broadcast. Vários desses nodos podem perceber o evento ao mesmo tempo, pois todos são configurados, por padrão, da mesma forma básica. Portanto, uma transmissão pode ser enviada por várias direções, garantindo que este evento chegue até o nó sorvedouro, independente do trajeto. O evento tem posição aleatória na grid, e pode ocorrer mais de uma vez em uma iteração. Conforme as iterações ocorrem, há um decréscimo de 20% de energia no agente, mudando de cores, conforme a Tabela 1. 16

27 Tabela 1- Cores possíveis do sensor, conforme estado energético. Percentual Energético Cor 0% - 30% Amarela 31% - 49% Laranja 50% - 100% Azul Para realizar os processos Fuzzy, foi utilizado também um Open Source, Fuzzy Logic library e FCL language implementation [14], um pacote de lógica Fuzzy, escrito em Java. A lógica Fuzzy neste modelo, considera os seguintes passos a seguir para verificar a rota inteligente: a energia do próprio nodo, que irá escolher a rota, considerando que deva ter energia suficiente para repassar a mensagem; a energia do nodo vizinho, que também deve ter energia suficiente para repassar a mensagem; a distância do nodo selecionado para repassar o evento para o nodo vizinho, aonde considera a vizinhança com melhor energia, e menor trajeto possível; com essas considerações, sua implicação será selecionar a melhor rota até o sorvedouro; reconfigurar a rota, caso ocorram problemas aleatórios no percurso, como: nodo apresenta problema físico; nodo removido; sorvedouro removido ou novo evento ocorre. As variáveis linguísticas de entrada nesse modelo são representadas a seguir: Energia_Própria: grau de pertinência da energia atual do próprio nodo; Energia_Vizinho: grau de pertinência da energia atual do nodo vizinho. Distância_Vizinho: grau de pertinência da distância entre um nodo e outro nodo vizinho. A variável linguística de saída é: Rota: implicações de Mandami das três variáveis de entrada. A defuzzificação utiliza a técnica de centro de área, causando uma ação no modelo, que no caso é a rota escolhida. Os valores possíveis das variáveis de entrada são: Energia_Própria = {Baixo, Moderado, Alto} Energia_Vizinho = {Baixo, Moderado, Alto} Distância_Vizinho ={Próximo, Moderado, Distante} Os valores possíveis da variável de saída é: Rota = {Muito Fraco, Fraco, Médio, Forte, Muito Forte} A Tabela 2 apresenta um resumo das regras para a seleção da melhor rota, aonde o antecedente 1 é a energia do próprio nodo, antecedente 2 é a energia do nodo vizinho, antecedente 3 é a distância do nodo vizinho e o consequente é a rota a ser tomada. Tabela 2 - Valores Fuzzy possíveis das variáveis linguísticas Regra Antecedente1 Antecedente2 Antecedente3 Conseqüente 1 Baixo Baixo Próximo Médio 2 Moderado Moderado Próximo Forte 3 Alto Alto Próximo Muito Forte 10 Baixo Baixo Moderado Fraco 11 Moderado Moderado Moderado Médio 12 Alto Alto Moderado Forte 19 Baixo Baixo Distante Muito Fraco 20 Moderado Moderado Distante Fraco 21 Alto Alto Distante Médio Já os valores crisp de cada valor das variáveis linguísticas, seguem de acordo com a Tabela 3 a seguir: Tabela 3 - Valores crisp das variáveis linguísticas Energia_Propria Energia_Vizinho Distancia_Vizinho Baixa: de 0 a 3 Baixa: de 0 a 3 Proximo: 0 a 15 Moderada: de 3 a 5 Moderada: de 3 a 5 Moderado: 15 a 25 Alta: de 5 a 10 Alta: de 5 a 10 Distante: 25 a 45 V. MODELO COMPUTACIONAL DA RSSF COM LÓGICA FUZZY Para implementar esse modelo foram utilizadas seis classes: Incendio: Avisar os sensores e sorvedouro sobre o incidente. RedeContextBuilder: Cria o ambiente de simulação e inclui os agentes no ambiente. Sensor: Obtém informação sobre o incidente e se encarrega de avisar os outros sensores e o sorvedouro. Utiliza lógica Fuzzy para enviar a informação sobre o acidente até o sorvedouro. SensorStyle: Altera a cor do sensor, conforme a energia que ele possui. Sorvedouro (Servidor na plataforma): É o sensor responsável pela coleta das informações de incidente. Para criar o ambiente de simulação é inserida uma matriz na qual o usuário define o tamanho. O tamanho padrão inicial é 50 células. É possível, ao usuário, definir a vizinhança que será considerada, o número de sensores que estarão no ambiente de simulação, a quantidade de incidente, e quantidade de sorvedouro. Após definir estes parâmetros a simulação é iniciada. A comunicação entre os sensores e o sorvedouro é estabelecida obedecendo as seguintes regras: 1. Se a energia do próprio sensor estiver acima do definido na variável linguística Médio; 2. Se a energia dos sensores vizinhos estiverem maior que a variável linguística Médio; 3. Se a distância até o próximo sensor/sorvedouro, for menor que a variável linguística Moderado. Todos os sensores e o sorvedouro perdem ou ganham energia, aleatoriamente a cada nova interação do programa. No jfuzzylogic foram utilizadas a biblioteca FIS e FunctionBlock para geração da lógica Fuzzy e de seus gráficos correspondentes. A classe que gera os gráficos é a MyFuzzyClass, que possui dependência do arquivo Tipper.flc, que tem definidos as regras para fuzzificação, defuzzificação e as regras de saída do modelo Fuzzy. Figura 1 - Resultado da variável Energia_Propria Conforme definido nesta pesquisa, é considerado Baixa, os valores crisp entre 0 e 3, Moderada, entre 2 a 5 e 17

28 Alta, entre 4 e 10, valor máximo de carga definido nas classes Sensor e Sorvedouro, gerando os valores apresentados na Figura 1. Por ser Fuzzy, não existe uma mudança brusca de um valor ao outro, mas sim, áreas de pertinência de cada variável. O conjunto Fuzzy, Energia_Vizinho, são respeitados as mesmas regras do conjunto Energia_Propria, o que levou a similaridade gráfica. Os resultados do gráfico apresentado na Figura 2, respeitaram as regras implementadas na classe RedeContextBuilder, sendo Distante, com os valores de 15 a 45, já que o tamanho máximo da grid padrão é 49, Moderado, com os valores de 5 a 25, e Próximo, com os valores de 0 a 15. Figura 2 - Resultado da variável Distancia_Vizinho O gráfico da variável de saída Rota, Figura 3, apresenta o resultado da implicação de máximo/mínimo de Mamdami dos três conjuntos Fuzzy (Energia_Propria, Energia_Vizinho e Distancia_Vizinho). Figura 3 - Resultado da variável de saída Rota Através desses valores, será possível definir a melhor rota a seguir. A técnica de centro de área definirá a melhor opção de saída do sistema. Na aba de parâmetros, o usuário pode selecionar a quantidade de sensores a ser emulado, o raio de alcance da wireless. As cores dos sensores alteram ao longo de cada iteração, indicando o consumo de energia destes, conforme o estabelecido na Tabela 1. Algumas iterações foram realizadas, e as saídas são apresentadas na seção a seguir. VI. RESULTADOS E DISCUSSÕES Os sensores são lançados aleatoriamente, e a cada iteração a energia é alterada. As cores indicam essa mudança. Figura 4 - Simulação com 25 sensores Nesse exemplo da Figura 4, o sensor mais próximo do evento, percebe-o e envia a rota estabelecida em sua programação. Como o sorvedouro (formato de estrela) também está próximo do evento, ele recebe essa informação diretamente e dos sensores vizinhos também. Com esses valores, que em Fuzzy seriam: Alta, Moderada e Moderada, respectivamente às variáveis informadas antes, define uma rota com Forte possibilidade de ser utilizada, e com base nessa saída, a informação é roteada até alcançar o sorvedouro e finalizar o processo. A cada iteração, é possível verificar comportamentos diferentes, que vai depender da regra estabelecida naquele momento. VII. CONSIDERAÇÕES FINAIS Através das regras de consequência, uma rota pode ser tomada com maior segurança, já que garante que a informação chegará até o sorvedouro, e não será perdida em algum sensor sem energia ou distante demais de outro sensor vizinho. Além disso, o custo energético dos nodos do restante da rede, ficam preservados, pois somente àqueles que irão participar do roteamento utilizam suas cargas para transmitir a informação. Aprimorar a lógica para otimizar o sistema, é um trabalho futuro interessante, pois em relação a essa área, toda pesquisa que venha reduzir os custos energéticos do sistema, é essencial para desenvolver Redes de Sensores Sem Fio melhores. REFERÊNCIAS [1] Antonio A.F. Loureiro, Et Al. Redes de Sensores Sem Fio. Belo Horizonte [2] Luigi Atzori, Antonio Iera, Giacomo Morabito,. The Internet of Things: A survey [3] Fábio C. Araújo, Flávius Anderson, Katyusco de F. Santos. Avaliação de Estratégias e Construção de Software para Medição do Nível de Energia em Sensores de Redes de Sensores sem Fio (RSSF). João Pessoa [4] Daniele Miorandi, Et Al. Internet of things: Vision, applications and research challenges [5] Ivan Alexandre Paiz Tierno. Protocolos de Roteamento para RSSFs. Universidade Federal de Santa Maria [6] Liang Qilian, Ren Qingchun. Energy and Mobility Aware Geographical Multipath Routing for Wireless Sensor Networks [7] Tarique Haider, Mariam Yusuf. A Fuzzy Approach to Energy Optimized Routing for Wireless Sensor Networks [8] L. A. Zadeh. Fuzzy Sets [9] Alessandro Assi Marro, Et Al. Lógica Fuzzy: Conceitos e aplicações [10] Mariam Yusuf, Tarique Haider. Energy-Aware Fuzzy Routing for Wireless Sensor Networks [11] Maria das Graças Bruno Marietto, Bruno David, Jaime Simão Sichman, Helder Coelho. Relatório Técnico n 2/ Analise de Plataformas de Simulação Multiagentes. USP, São Paulo [12] Repast Simphony. Acesso em: 05/09/2013. [13] IEC PROGRAMMABLE CONTROLLERS. Part 7 - Fuzzy Control Programming. Committee Draft CD [14] jfuzzylogic. Disponível em: jfuzzylogic.sourceforge.net/html/plugin.html. Acesso em: 18/10/2013. [15] Charles M Macal, Michael J. North. Agent-Based Modeling and Simulation. Winter Simulation Conference: [16] Michael J. North, Charles M. Macal. Agent Based Modeling and Computer Languages [17] Long Gan Liu, Et Al. Agent-Based, Energy Efficient Routing in Sensor Networks [18] Kai Lin, Min Chen. Research on energy efficient fusion-driven routing in wireless multimedia sensor networks

29 Interação Natural Baseada em Inteligência Artificial e Processamento de Imagens: Proposta Alternativa ao Uso de Sensores Reais Nathanael Oliveira Vasconcelos, Thiago da Silva Almeida e Alcides Xavier Benicasa Departamento de Sistemas de Informação - DSI Universidade Federal de Sergipe - UFS Itabaiana-SE, Brasil Resumo Este trabalho possui como principal objetivo a proposta de um mecanismo como alternativa ao uso de sensores reais, neste caso, sensores de toque para interação homemmáquina. Como validação do mecanismo proposto será desenvolvida uma aplicação que tornará possível a interação entre o usuário e a imagem projetada por um projetor de imagem (datashow). Para isso, será utilizado técnicas de inteligência artificial (IA) e processamento de imagens, que permitirão identificar informações relevantes da cena (regiões propensas à possíveis alvos), isolando-os através do uso de segmentação de imagens, para posteriormente serem treinados e reconhecidos. Keywords-Processamento de imagens; inteligência artificial; interação humano-computador; imagem projetada; segmentação de imagens. I. INTRODUÇÃO Nos últimos anos os computadores têm se tornado dispositivos comuns ao cotidiano das pessoas, de acordo com [1], coordenador da 25 a Pesquisa Anual do Uso de Tecnologia da Informação no mercado brasileiro, divulgada em abril de 2014 pela Fundação Getúlio Vargas, existem 136 milhões de computadores em uso no Brasil, uma densidade de 67% per capita ou 2 computadores para cada 3 habitantes. Os avanços na miniaturização de dispositivos, aliados ao surgimento de ferramentas para a comunicação sem fio, processadores portáteis e novas tecnologias sensitivas, abriram as portas para pesquisas sobre novas formas de interação e ainda, de acordo com [2], novas tecnologias surgem dia após dia, ocupando novos espaços, transformando a realidade. Com o objetivo de aproximar e facilitar a interação entre o homem e a máquina, atualmente, diversos consoles, computadores e smartphones apresentam funcionalidades de interatividade baseadas em comandos por voz, gestos, ou ainda, pela captura de movimentos do globo ocular. De acordo com [3], os sistemas presentes nestes dispositivos, os quais permitem este tipo de interação, são denominados por sistemas interativos. O uso de gestos está em ascensão, sendo uma forma de interação natural que, para [4], consiste em sistemas que entendem ações naturalmente utilizadas pelas pessoas para se comunicar, permitindo aos usuários interagir entre eles e com o ambiente a seu redor. Com isso, o uso de gestos para a comunicação com dispositivos computacionais diminui a carga cognitiva, resultando um modo bastante natural e intuitivo de interagir. Dispositivos baseados em gestos podem ser construídos utilizando diferentes mecanismos de rastreamento óptico, magnético ou mecânico ligados ao computador e/ou colocados no corpo do usuário. Muitos desses sistemas utilizam equipamentos sofisticados (dispositivos de rastreamento, luvas, câmeras especiais, etc.). Outra forma de interação através de gestos é baseada na visão computacional, que para [5], tem como objetivo a interpretação automática de cenas complexas, para isso são utilizadas técnicas de reconhecimento de padrões nas imagens capturadas, ao invés de dispositivos de rastreamento, além de algumas restrições do ambiente, como por exemplo, o fundo da cena, cores dos objetos a serem reconhecidos, e condições de iluminação, construindo assim, ambientes bem controlados, de maneira a facilitar operabilidade do sistema. É fato que a utilização de dispositivos tais como: luvas de dados, sensores eletromagnéticos, entre outros, simplificam a identificação de gestos, mas como afirmam [6], aumentam o custo do sistema e, em alguns casos, requerem calibração, tornando assim uma tecnologia ainda não muito acessível à maioria da população. Ao contrário desses dispositivos, interfaces baseadas em visão computacional oferecem diversas vantagens, consistindo numa interação natural entre humanos e computadores, sem a necessidade de instalações especiais, nem da utilização de qualquer dispositivo (mecânico, óptico ou magnético) que o usuário deva vestir ou manipular. Possibilitando assim, uma maior liberdade e facilidade no uso do sistema. Em paralelo ao que foi descrito e, de acordo com [7], ao longo do tempo a ciência criou novos ramos de estudo que envolvem a simulação de processos que ocorrem no corpo humano e buscam também criar modelos ou máquinas que simulem determinadas características e comportamentos humanos. Algumas áreas têm se destacado em tal empreen- 19

30 dimento, como é o caso da Inteligência Artificial (IA). A IA consiste de esforços intelectuais e tecnológicos relacionados à construção de máquinas inteligentes, à formalização do conhecimento, à mecanização do raciocínio, e ao uso de modelos computacionais para compreender a psicologia e o comportamento de pessoas e animais [8]. Várias áreas da Ciência da Computação utilizam conhecimentos da IA com o intuito de automatizar processos. É o que ocorre com a visão computacional, área na qual este trabalho se enquadra. Para [7], a atenção visual é a habilidade que o sistema visual dos vertebrados superiores utiliza para selecionar e processar somente as regiões mais relevantes em uma cena visual. Podendo ser entendida assim, como um mecanismo para lidar com a incapacidade de tratar de uma só vez uma grande quantidade de informação visual, tanto em sistemas biológicos, quanto em sistemas computacionais. Sendo assim, somente as regiões mais importantes em uma cena são escolhidas para processamento. Sendo assim, este projeto consistirá em criar uma aplicação responsável por detectar a interação entre o usuário e computador, a partir de informações capturadas por uma câmera. Com a utilização de um datashow, opções serão inseridas na projeção, sendo necessária a obtenção de informações relevantes da cena, ou seja, identificação do alvo, em que o usuário ao escolher uma opção (apontando sobre o alvo com um lazer, por exemplo) uma respectiva função deverá ser executada. Para isto, serão utilizadas técnicas de Inteligência Artificial e de Processamento de Imagem. A. Objetivo geral II. OBJETIVOS Este projeto possui como principal objetivo propor uma aplicação que, utilizando técnicas de Inteligência Artificial e Processamento de Imagem, torne possível a detecção, reconhecimento da ação e interação do usuário com o computador, a partir de informações providas por uma câmera de vídeo, de modo que não seja necessária a utilização de sensores especiais. B. Objetivos específicos Seleção e implementação de mecanismo para a captura de imagens através de câmera de vídeo em tempo real; Obtenção de informações relevantes da cena que possam identificar regiões candidatas a alvos; Aplicação de métodos de segmentação de imagens; Treinamento e reconhecimento de padrões necessários à interação do usuário com a imagem projetada. mecanismos para a captura de imagens através de câmera de vídeo em tempo real. Na segunda etapa, serão desenvolvidos os objetivos específicos propostos nesse trabalho. Assim, para permitir a interação do usuário com o computador será necessária a inserção de algumas informações adicionais ao slide, ou a imagem projetada, de forma que, intuitivamente, saiba-se onde e como a interação deva ocorrer. Portanto, faz-se necessário o tratamento e obtenção de informações relevantes da cena que possam identificar o alvo, para isso será aplicado o modelo baseado em mapas de saliências proposto por [9]. Posteriormente será feito um estudo sobre algoritmos de segmentação de imagens, para que seja possível o isolamento do possível objeto alvo, a partir de região identificada na etapa descrita anteriormente. Após isso, será feito o treinamento e reconhecimento da opção selecionada. REFERÊNCIAS [1] F. S. Meirelles, 25 a pesquisa anual do uso de ti, [2] C. Chen, G. Panjwani, J. Proctor, K. Allendoerfer, J. Kuljis, S. Aluker, D. Sturtz, and M. Vukovic, Visualizing the evolution of hci [3] V. Rusnak, Interaction methods for large high-resolution screens. disponível em r/dtp.pdf [4] A. Valli, Notes on natural interaction [5] A. Jain and C. Dorai, Practicing vision: Integration, evaluation and applications [6] A. Erol et al, A review on vision-based full dof hand motion estimation [7] E. T. Pereira, Atenção visual bottom-up guiada por otimização via algoritmos genéticos [8] J. Doyle and T. Dean, Strategic directions in artificial intelligence [9] L. Itti et al, A model of saliency-based visual attention for rapid scene analysis III. METODOLOGIA Ao longo de todo o trabalho, mas principalmente e mais intensamente durante a fase inicial, será feito um levantamento bibliográfico sobre o reconhecimento de gestos e seu uso em interação, logo após, um estudo e seleção de 20

31 Proposta de Mecanismo de Detecção e Reconhecimento de Semáforos Baseado em Atenção Visual e Inteligência Artificial Thiago da Silva Almeida, Nathanael Oliveira Vasconcelos, Alcides Xavier Benicasa Departamento de Sistemas de Informação Universidade Federal de Sergipe Itabaiana SE, Brasil Resumo Este artigo tem como objetivo apresentar um resumo do projeto de pesquisa sobre um mecanismo de detecção e reconhecimento de semáforos que se baseia em conceitos biológicos de atenção visual e de inteligência artificial. O mecanismo proposto pode se tornar componente importante de outras pesquisas, como por exemplo, pesquisas de veículos autoguiados. Palavras-chave: detecção de semáforo; reconhecimento de semáforo; trânsito; atenção visual; inteligência artificial. I. INTRODUÇÃO A quantidade de informação visual e sonora disponível para ser processada pelos seres vivos é quase sempre muito grande. A capacidade de selecionar, consciente ou inconscientemente, determinados estímulos, sejam visuais, sonoros ou outros, dentre uma grande variedade de estímulos é essencial e intrínseca à maioria dos seres vivos. Essa capacidade biológica de atenção visual, ou sonora, nos faz capazes de reagir rapidamente a alterações no ambiente. No caso de estímulos visuais, [1] afirma que alguns estímulos são naturalmente conspicuosos ou salientes em um determinado contexto. Um bom exemplo disso é como uma jaqueta vermelha posicionada entre vários ternos pretos receberá automaticamente e involuntariamente a atenção de quem visualiza o conjunto. Tendo-se como base estudos em seres humanos e macacos, pode-se afirmar que o processo de seleção visual seleciona apenas um subconjunto da informação sensorial disponível, na forma de uma região circular do campo visual, conhecida como foco de atenção [1]. Desta forma, segundo SHIC e SCASSELLATI (2007 apud [1]), a atenção auxilia na redução da quantidade de informação que resulta de todas as combinações possíveis dos estímulos sensoriais pertencentes a uma cena, pois apenas informações que estão dentro da área da atenção são processadas, enquanto que o restante é suprimido (CAROTA et al., 2004 apud [1]). Considerado isso, ITTI (2005 apud [1]) define atenção visual como um eficiente mecanismo para reduzir tarefas complexas, como análise de uma cena, em um conjunto de sub-tarefas menores. Importante destacar que já existem sistemas computacionais baseados no mecanismo de atenção visual. Alguns modelos de atenção visual computacional são apresentados por [1], [2], [3] e [4]. Uma atividade que necessita muito da atenção visual é a direção automobilística. É notável a quantidade de atenção que um motorista precisa dispor para dirigir bem, especialmente em grandes cidades, nas quais o trânsito se torna cada vez mais caótico e, um dos artifícios utilizado mundialmente para ajudar a controlar e organizar o trânsito nas cidades é o semáforo. No entanto, o semáforo não é o único componente no trânsito que requer a atenção visual do condutor do veículo. A quantidade de itens que exigem a atenção do motorista no trânsito é imensa, por exemplo, outro veículo o ultrapassando, placas, endereço a ser procurado, pedestres atravessando a rua, algumas vezes animais na pista, motoristas imprudentes, o que pode fazer com que o semáforo passe despercebido. Apesar de algo relativamente simples, desobedecer ao sinal fechado do semáforo pode levar a conseqüências desastrosas. Neste cenário, um reconhecedor automático de semáforos poderia alertar o motorista sobre o estado do semáforo, diminuindo assim a chance de esquecimento que, poderia vir a causar um acidente grave. Ainda outro cenário de aplicação de reconhecedor automático de semáforos é o de uso de veículos autoguiados. Há um grande número de pesquisas nessa área definida como ITS (Intelligent Transportation Systems) nas pesquisas de [6] e [7], e, embora diversos pesquisadores destaquem o uso de sensores entre os carros autoguiados que dispensem o uso dos semáforos, algo mais realista, de acordo com [5], seria um cenário híbrido, com veículos autoguiados e outros não, necessitando ainda de semáforos. Os veículos autoguiados necessitariam então de um bom detector e reconhecedor de semáforos para não vir a causar acidentes. No entanto, implementar um detector e reconhecedor de semáforos não é uma tarefa trivial, uma vez que há diversos problemas a serem vencidos para se detectar e reconhecer o estado de um semáforo de forma confiável. Entre os desafios estão: a condição do tempo que altera a iluminação do ambiente e dificulta a identificação de qual sinal está ativo no semáforo; semáforos de tipos diferentes (horizontal ou vertical, suspenso ou em poste), além de outros componentes que se confundem com o semáforo por terem características comuns como a cor. 21

32 Alguns trabalhos já realizados na área de detecção e reconhecimento de semáforos já obtiveram sucesso em ambientes diversificados e com diferentes tipos de semáforo. Trabalhos dessa natureza são apresentados em [7], [8] e [9], por exemplo. O objetivo deste trabalho é, então, propor um mecanismo de detecção e reconhecimento de semáforos baseado em atenção visual, que funcione bem em um cenário ideal inicialmente. Os resultados indicarão quando e como a inclusão de outros cenários deverá ocorrer. Serão utilizadas técnicas de processamento de imagens e de inteligência artificial no mecanismo proposto, descritos brevemente nas seções seguintes. II. OBJETIVOS DO PROJETO A. Objetivo Geral O objetivo do projeto é propor um mecanismo de detecção e reconhecimento de semáforos baseado em atenção visual que utilize técnicas processamento de imagens e inteligência artificial. B. Objetivos Específicos Para tornar possível alcançar o objetivo geral alguns objetivos específicos foram definidos conforme apresentados a seguir: Realizar pesquisa bibliográfica sobre métodos de detecção de semáforos baseados em atenção visual; Realizar pesquisa bibliográfica sobre métodos reconhecimento de objetos utilizando inteligência artificial; Implementar e testar uma técnica de detecção de possíveis alvos (semáforos) numa imagem; Implementar e testar uma técnica de reconhecimento de semáforo; Comparar os resultados da técnica de detecção e reconhecimento implementada com outras encontradas na literatura. III. METODOLOGIA O mecanismo proposto divide-se em duas partes, uma primeira para detectar o semáforo em determinado ambiente utilizando determinada informação, no nosso caso escolhemos a cor, e uma segunda parte para reconhecer se o objeto detectado pela cor é realmente um semáforo e daí inferir algum significado à informação obtida. Observando a divisão apresentada previamente, a seguinte metodologia foi definida para direcionar a pesquisa: Estudo de técnicas de processamento de imagens e métodos baseados em atenção visual para detecção de alvos; Estudo de técnicas de inteligência artificial para reconhecimento dos alvos detectados; Implementar e testar as técnicas escolhidas; Escrita do trabalho final como artigo completo para submissão em eventos da área, além da redação do trabalho de conclusão de curso, ao qual este projeto está relacionado; Apresentar resultados obtidos. A técnica que será utilizada para detecção encontra-se em fase de implementação, e são as apresentadas por [1] em seu trabalho. Em seguida a técnica de inteligência artificial será escolhida e implementada. REFERÊNCIAS [1] BENICASA, A. Sistemas Computacionais para Atenção Visual Top- Down e Bottom-UP usando Redes Neurais Artificiais. USP São Carlos [2] ITTI, L. Models of Bottom-Up and Top-Down Visual Attention. California Institute of Technology, Pasadena, California [3] ITTI, L.; KOCH, C. e NIEBUR, E. A model of saliency-based visual attention for rapid scene analysis. IEEE Transactions on Pattern Analysis and Machine Intelligence 20(11), [4] WALTHER, D. Interactions of Visual Attention and Object Recognition: Computation Modeling, Algorithms, and Psychophysics. California Institute of Technology, Pasadena, California [5] DIAZ-CABRERA, M.; CERRI, P. e MEDINA-SANCHEZ, J. Suspended Traffic Lights Detection and Distance Estimation Using Color Features Disponível em [6] LaRa La Route Automatissé. Disponível em Acessado em [7] CHUNG, Y.; WANG, J. e CHEN, S. A Vision-Based Traffic Light Detection System at Intersections. Journal of National Taiwan Normal University: Mathematics, Science & Technology, vol. 47, pp 67-86, [8] CHARETTE, R. NASHASHIB, F. Real time visual traffic lights recognition based on Spot Light Detection and adaptive traffic lights templates. IEEE Intelligent Vehicles Symposium, pp , [9] KIM, H.; SHIN, Y.; KUK, S.; PARK, J e JUNG, H. Night-Time Traffic iht Detection Based On SVM with Geometric Moment Features. World Academy of Science, Engineering and Technology, vol. 7,

33 Sistema Tradutor LIBRAS - Português/Português - LIBRAS Anderson de Andrade Cunha Departamento de Sistemas de Informação Universidade Federal de Sergipe - Campus Alberto Carvalho Itabaiana - Brasil Guilherme Bruno Viturino Alves Departamento de Sistemas de Informação Universidade Federal de Sergipe - Campus Alberto Carvalho Itabaiana - Brasil Mai-Ly Vanessa Almeida Saucedo Faro Departamento de Sistemas de Informação Universidade Federal de Sergipe - Campus Alberto Carvalho Itabaiana - Brasil Resumo De acordo com o censo de 2010, do IBGE, há no Brasil mais de de pessoas com deficiência auditiva grave. Para muitas destas pessoas LIBRAS (Linguagens Brasileira de Sinais) é considerada a língua materna. Apesar de sua importância e do esforço por parte do governo federal, ao incluir LIBRAS como disciplina obrigatória dos cursos de licenciatura, sua popularização ainda não é realidade em nossa sociedade. Em um mundo de falantes, pessoas que se comunicam em LIBRAS muitas vezes ficam isoladas, restritas a se comunicar apenas com outras pessoas que dominam esta linguagem. Este trabalho versa sobre o desenvolvimento de um sistema computadorizado que possui como objetivo final permitir a clara comunicação, intermediada por computador, entre falantes de português e usuários de LIBRAS. O referido sistema será composto basicamente por dois módulos. O primeiro módulo tem como entrada uma frase em português, por voz ou por texto, que então é convertida para sua representação em LIBRAS, sendo exibida na tela do computador por meio de uma figura, digitalmente criada, que executa os movimentos. O segundo módulo, fazendo uso da tecnologia de dispositivos ópticos, capta os movimentos do usuário de LIBRAS e os converte para português, escrito ou falado por meio de um sintetizador de voz. Palavras chave; LIBRAS; Software tradutor; Inclusão Social; Comunicação. I. INTRODUÇÃO Segundo o censo realizado em 2010 pelo Instituto Brasileiro de Geografia e Estatística, (IBGE) cerca de 5,1% da população brasileira possui deficiência auditiva. Deste total, aproximadamente 1,12% possui deficiência severa, o que representa um universo de cerca de dois milhões de pessoas [1]. Infelizmente grande parte dos surdos brasileiros não conseguem se comunicar eficientemente em português escrito, entretanto se comunicam fluentemente em linguagem de sinais. Para este universo de pessoas, LIBRAS é considerada a Língua materna, sendo o fato de adquirir capacidade de se comunicar em português escrito um desafio semelhante à aprender um segundo idioma. Mesmo entre aqueles deficientes auditivos biblíngues, ou seja, alfabetizados, vê-se que a comunicação em LIBRAS é muito mais compreensível e confortável como podemos ver no texto de Ana Carolina Siqueira:...LIBRAS como toda língua materna, é a língua que desperta a subjetividade e a capacidade de compreensão do indivíduo [2]. Apesar da lei Nº de 24 de abril de 2002, que torna LIBRAS parte integrante dos Parâmetros Curriculares Nacionais PCN, sabemos que apenas uma pequena minoria de pessoas falantes podem ser consideradas fluentes neste idoma, a saber pessoas que lidam diretamente com surdos como familiares, cuidadores, intérpretes e alguns professores. Consequência disto é o isolamento social de surdos "falantes" de LIBRAS, que na maioria das vezes ficam restritos a se comunicar apenas com outras pessoas que dominam esta linguagem. A partir deste cenário idealizamos o projeto de um software Tradutor de LIBRAS para Português e de Português para LIBRAS. A utilização da tecnologia desenvolvida ao longo desse projeto permitiria interação imediata, mediada por computador, entre os usuários de português e de LIBRAS. Devido ao fato de que LIBRAS não é apenas um conjunto de sinais e sim um idioma completo, que além de sinais contém separadores, regras sintáticas e semântica próprias, utilizando não somente movimento de mãos mas também de algumas outras partes do corpo, considerando também à nossa falta de conhecimento inicial a respeito deste idioma, dividimos o desenvolvimento do software em algumas etapas. Na primeira etapa nosso objetivo é estudar e selecionar tecnologias que nos podem ser úteis para a construção do sistema, bem como desenvolver um software que seja capaz de traduzir o alfabeto e algumas palavras ou expressões de pouca complexidade, de português para LIBRAS e em seguida fazer também a tradução do alfabeto e dessas expressões simples de LIBRAS para português. Após esta etapa iremos ampliar o software para que seja feita a tradução das palavras mais usadas no português, segundo Antonio Cunha [3]. Posteriormente implementaremos no software a capacidade de separar uma frase, falada ao microfone ou escrita, em itens gramaticais, existentes em LIBRAS e exibir a animação correspondente à frase em LIBRAS. Deverá também ser desenvolvida no sistema a capacidade de captar os sinais em LIBRAS feitos por um usuário e estruturar uma frase em português com o mesmo significado. Esta frase poderá tanto ser exibida em texto, como "falada" por uma voz sintetizada. 23

34 Atualmente há dois softwares considerados referência nesta área a saber ProDeaf [4] e Hand Talk [5]. Ambos traduzem texto e voz de português para LIBRAS - com o objetivo de permitir a comunicação entre surdos e ouvintes. O diferencial do nosso projeto é que além de fazer o que os softwares citados fazem, também faremos o inverso, traduzir de LIBRAS para português, permitindo assim que a comunicação seja feita nos dois sentidos. Para avaliar a eficiência do sistema desenvolvido iremos realizar uma bateria de testes intermediando comunicação real entre surdos usuários de LIBRAS e ouvintes. II. OBJETIVO O objetivo do projeto, é desenvolver um software que realize a tradução mediada por computador de português para LIBRAS e de LIBRAS para português, em tempo real. O sistema será composto de dois módulos, cada módulo fazendo a tradução em um sentido. As entradas do módulo Português - LIBRAS podem ser feitas por voz ou de forma escrita. A saída é feita por meio de uma animação 3D executando os sinais correspondentes à frase em LIBRAS. As entradas do módulo LIBRAS - Português serão imagens, captadas por hardware específico, dos sinais em LIBRAS feito por um usuário. As saídas deste módulo podem ser tanto um texto escrito em Português como uma voz sintetizada "falando" a respectiva frase traduzida. III. A RESPEITO DE LIBRAS A língua brasileira de sinais (LIBRAS) é a língua usada pela maioria dos surdos dos centros urbanos brasileiros, sendo reconhecida pela Lei. LIBRAS não é composta simplesmente de gestos da língua portuguesa, e sim é uma língua à parte. Assim como as diversas línguagens naturais humanas existentes, ela é composta por níveis linguísticos como: fonologia, morfologia, sintaxe e semântica. Da mesma forma que nas línguas orais-auditivas existem palavras, em LIBRAS também existem itens lexicais, que recebem o nome de sinais. A diferença é sua modalidade de articulação, a saber visual-espacial. LIBRAS é comparável tanto em complexidade como em expressividade a qualquer língua oral, pois expressa idéias sutis, complexas e abstratas [6]. Para se comunicar em Libras, não basta apenas conhecer os sinais. É necessário conhecer a sua gramática para combinar as frases, estabelecendo comunicação. IV. DESENVOLVIMENTO DO SOFTWARE A. Da captação e tradução de voz para LIBRAS O código do software foi escrito em Java. A captação da voz está sendo feita pelo microfone do computador, via o software IBM Via Voice. Foi definido um arquivo de dicionário, ativado para ser usado pela Java Spech, de forma que a biblioteca "sabe o que deve procurar" ao receber o som escutado. Uma vez captada a voz do microfone, pelo IBM Via Voice, é feito um tratamento no sinal para retirar ruídos. O sinal, então, é enviado à API Java Spech que efetua testes padrões sobre o espectro de frequência do sinal recebido comparando-o com os testes padrões sobre os espectros de frequência dos padrões das palavras em português definidas no dicionário. Uma vez que seja encontrado o fonema correspondente ao som, é então chamada a animação em LIBRAS, previamente feita, que corresponde à palavra/letra escutada. Adicionalmente o software também pode trabalhar fazendo a tradução de texto para LIBRAS. Em uma próxima etapa o software fará também a tradução de frases. Ao ler/escutar uma frase, a mesma será dividida em unidades gramaticais existentes em LIBRAS e será chamada a animação correspondente a cada uma destas unidades gramaticais. Será feito um trabalho específico para tentar suavizar a transição entre animações. B. Da captação e tradução de LIBRAS para voz O módulo de tradução de LIBRAS para voz também é escrito em JAVA. Para captar os movimentos do usuário e interpretá-los como sinais de LIBRAS, é necessário tanto captar com precisão a movimentação dos dedos como também identificar a posição das mãos em relação ao corpo. Dentre alguns sensores de movimento estudados nos chamou a atenção o Kinect, um sensor de movimento desenvolvido para o console do videogame Xbox. Entretanto logo percebemos que o Kinect possui sérias limitações para a detecção de dedos. Estudamos, então o Leap Motion, um pequeno periférico que contém duas câmeras de infravermelho e três leds de infravermelhos. O dispositivo observa uma área aproximadamente hemisférica de raio de aproximadamente um metro, sendo sensível o suficiente para captar até mesmo o tremor das mãos. O Leap, entretanto possui a limitação de não conseguir identificar a posição das mãos em relação ao corpo. Surgiu então a idéia de captar os sinais de LIBRAS utilizando o Leap em conjunto com o Kinect. Uma vantagem deusarmos estes dispositivos, é o fato de ambos possuírem bibliotecas de desenvolvimento, que podem ser usadas em Java. Uma vez identificado o sentido em português do sinal feito em LIBRAS, a saída poderá ser feita em texto ou em uma voz sintetizada pelo software, conforme o usuário configure. REFERENCIAS BIBLIOGRÁFICAS [1] Disponível em < surdosusuariosdalinguaportuguesa.blogspot.com.br/2012/05/censo-do-ibge dados-sobre.html >. Acesso em 10 fev [2] VELOSO, Ana Carolina Siqueira. Alfabetização do individuo surdo: primeiro em LIBRAS ou em português?.in: XVI Congresso de Leitura do Brasil - Cole: Anais do XVI COLE, Universidade do Rio de Janeiro, [3] CUNHA, Antônio Geraldo da. A Propósito de um Dicionário de Frequência. In: Confluência Revista do Instituto de Língua Portuguesa. N º 8 2º semestre de 1994 Rio de Janeiro; pp [4] Disponível em < Acessado em 10/11/2014 às 11h. [5] Disponível em < Acessado em 10/11/2013 às 10h [6] ROSA, Andréa da Silva, Entre a visibilidade da linguagem de sinais e a invisibilidade da tarefa do intérprete f. Dissertação (Mestrado em Educação) - Faculdade de Educação, Universidade Estadual de Campinas, Campinas,

35 Processamento de Imagens e IA aplicado à Apresentação Interativa: Uma Comparação entre um Método Interativo Tradicional e um Método Interativo Fuzzy Nathanael Oliveira Vasconcelos, Thiago da Silva Almeida, Ed Charles Nascimento Ferreira, Breno Santana Santos e Alcides Xavier Benicasa Departamento de Sistemas de Informação - DSI Universidade Federal de Sergipe - UFS Itabaiana-SE, Brasil {breno1005, {charles.si.ufs, Resumo A interação intuitiva entre humanos e computadores é um campo de pesquisa que tem sido bastante investigado nos últimos anos. O uso de diferentes tipos de sensores, como por exemplo, sensores de movimento, toque, etc, têm proporcionado grandes avanços nesta área. Entretanto, de acordo com a especificidade de cada sensor, o custo para o desenvolvimento de determinadas aplicações pode tornar-se inviável. Este artigo possui como principal objetivo a proposta de um mecanismo baseado em inteligência artificial (IA) e processamento de imagens, como alternativa ao uso de sensores reais, neste caso, sensores de toque, fazendo uma comparação entre um método interativo tradicional e um método interativo Fuzzy. Para validação do mecanismo proposto, foi desenvolvida uma aplicação que torna possível a interação intuitiva entre o usuário e a imagem projetada por um projetor de imagem (datashow). Os resultados obtidos demonstram a efetividade do mecanismo proposto. Keywords-Processamento de imagens, inteligência artificial, interação humano-computador, imagem projetada, lógica fuzzy; I. INTRODUÇÃO Nos últimos anos os computadores têm se tornado dispositivos comuns ao cotidiano das pessoas, de acordo com Meirelles [4], coordenador da 25 a Pesquisa Anual do Uso de Tecnologia da Informação no mercado brasileiro, divulgada em abril de 2014 pela Fundação Getúlio Vargas, existem 136 milhões de computadores (pc, notebooks) em uso no Brasil, uma densidade de 67% per capita. Aplicações têm sido propostas com o objetivo de aproximar, facilitar ou ainda, tornar possível a interação entre o homem e a máquina, como por exemplo, captura de movimentos do globo ocular, o processamento da linguagem natural, de forma a ser compreendida automaticamente como texto, o que no passado somente seria possível através de processos mecânicos de digitação. Outro exemplo de interação emergente entre os dispositivos encontrados no mercado, é o uso de gestos como meio de comunicação com diferentes tipos de dispositivos, por ser um recurso natural do ser humano, a possibilidade de utilizá-los na comunicação com dispositivos computacionais permite com que estes sejam utilizados de modo bastante natural e intuitivo. De acordo com Rusnak [7], os sistemas presentes nestes dispositivos, os quais permitem este tipo de interação, são denominados por sistemas interativos. Ainda de acordo com Rusnak [7], os sistemas interativos são compostos pelos seguintes componentes: subsistema de visualização, camada de comunicação e camada de interação. Dentre estes, destacamos o último componente citado, o qual é o principal ponto de investigação deste trabalho. A camada de interação pode ainda ser dividida em três categorias distintas, sendo: superfície multi-touch, sensoriamento sem toque e dispositivos de apontamento [7]. Diversas pesquisas têm sido realizadas na área de sistemas interativos, relacionada às categorias citadas anteriormente. Entretanto, de acordo com os objetos deste trabalho, destacaremos aqui alguns trabalhos pertinentes ao sensoriamento sem toque, que permite a interação do usuário à aplicações, mesmo à distância, através de gestos captados a partir dos movimentos das mãos e, em alguns casos específicos, movimentos do corpo inteiro. Baudel and Beaudouin-Lafon [1] propuseram uma uma aplicação, denominada de CHARADE, que permite ao usuário controlar o computador durante uma apresentação com slides apenas utilizando gestos de mão. Para isto, os autores utilizaram uma luva especial, ligada a um controlador, responsável pela detecção dos movimentos. A luva tátil CyberGlove II possui 22 sensores espalhados entre os dedos e a palma da mão, podendo ser utilizada em uma ampla variedade de aplicações do mundo real, incluindo a avaliação digital de protótipo, realidade biomecânica virtual e animação [8]. No trabalho de Truyenque [9], gestos da mão e as posições dos dedos são utilizados para simular algumas funções presentes em mouses e teclados. Paula et al. [6] propuseram o Câmera Kombat, um jogo de luta multijogador que, com a utilização de técnicas de processamento de imagem, permite a interação do jogador com o jogo sem a necessidade de utilizar dispositivos convencionais, como teclado, mouse, joysticks, entre outros. Para isto utilizam uma webcam posicionada na frente do jogador e, quando 25

36 este utiliza uma sequência pré-determinada de movimentos, o personagem virtual dispara uma espécie de magia no outro competidor. Na pesquisa de Mistry and Maes [5], denominada de SixthSense, é utilizado uma câmera e um pequeno projetor, com uma aparência semelhante a um colar, informações são projetadas sobre superfícies, paredes e objetos físicos, permitindo interagir com a informação projetada através de gestos naturais da mão. Este trabalho possui como principal objetivo propor uma aplicação que, utilizando técnicas de inteligência artificial e processamento de imagem, torne possível a detecção e interação do usuário com o computador, a partir de informações providas por uma câmera de vídeo, de modo que não seja necessária a utilização de sensores especiais. Na seção seguinte será apresentada a revisão da literatura, onde será discutido brevemente o embasamento teórico necessário ao entendimento deste trabalho. Na seção de metodologia, descreveremos a aplicação proposta, com ênfase em seu fluxo de funcionamento. Finalmente, apresentamos as conclusões finais deste trabalho. II. EMBASAMENTO TEÓRICO O uso de câmeras para detecção da interação do usuário com uma aplicação tem sido muito comum em sistemas interativos, em especial nas aplicações baseadas em sensoriamento sem toque, onde, além do uso da câmera, algoritmos de processamento de imagens são utilizadas para o tratamento e obtenção de informações relevantes da cena. Para Gonzalez [2], uma imagem pertencente a uma cena pode ser definida como uma função bidimensional f(x, y), composta por um determinado número de pixels, de modo que cada pixel deva possuir coordenadas de localizações x e y, associadas a um valor específico. É importante notar que o processamento de uma imagem depende diretamente destes valores. Ainda de acordo com Gonzalez [2], uma grande variedade de técnicas podem ser utilizadas para o processamento de imagens. Para este trabalho, destacamos as seguintes: transformação de imagens coloridas para tons de cinza, histograma de cores e, finalmente, lógica fuzzy aplicada ao processamento de histograma de cores. Normalmente, uma imagem capturada por uma câmera de vídeo é apresentada em cores, assim, cada pixel da imagem deve ser formado por um conjunto de valores, ou também conhecido como canais de cores, geralmente de tamanho três ou quatro, podendo pertencer aos padrões de cores RGB (red, green e blue) ou CMY K (cyan, magenta, yellow e key=black), respectivamente. A combinação dos canais de cores pode representar uma grande variedade de cores, no entanto, muitas vezes essa quantidade de informação pode ser desnecessária para os objetivos de determinadas aplicações, de modo que seu processamento possa levar a desperdício de recurso. Uma forma para a resolução deste problema é a utilização de uma técnica de transformação para tons de cinza, considerado um processo simples sob os canais de cores. Aqui consideramos o padrão RGB, uma vez que este é o padrão de cores utilizado neste trabalho. A Equação 1, apresentada a seguir, descreve a transformação dos canais de um pixel i, pertencente ao padrão RGB, para tons de cinza, como segue: I i = R i + B i + B i (1) 3 onde é calculada a média aritmética dos três canais de cores, R, G, e B do pixel i. I i é o valor do tom de cinza obtido, também conhecido como valor de intensidade, representando o pixel i por um único valor. Conforme mencionado, outra técnica de processamento de imagem utilizada neste trabalho é o processamento de histograma. De acordo com Marques [3], o histograma de uma imagem é composto por um conjunto de números, indicando o percentual de pixels contidos na imagem, que apresentam um determinado nível de cinza. Estes valores são normalmente representados por um gráfico de barras que fornece, para cada nível de cinza, o número, ou o percentual, de pixels correspondentes na imagem. A informação obtida através do cálculo do histograma de cores de uma imagem pode ser útil para a indicação de sua qualidade quanto ao nível de contraste, brilho médio, ou demais informações a serem utilizadas para fins específicos. De acordo com Gonzalez [2], o cálculo do histograma de cores pode ser descrito como: h(r k ) = n k (2) onde r k é o k-ésimo nível de cinza e n k é o número de pixels da imagem contendo o nível de cinza r k. Com o objetivo de identificar ou sentir o nível de interação do usuário em relação à projeção, consideramos a lógica fuzzy como um dos principais componentes deste trabalho. Proposta inicialmente por ZADEH [10], a lógica fuzzy pode ser considerada como uma extensão da lógica tradicional, baseada na hipótese de que uma proposição lógica não é necessariamente verdadeira ou falsa, mas possui graus de verdade. Na teoria clássica dos conjuntos, o conceito de pertinência de um elemento a um conjunto é bem definido. Sendo assim, para um conjunto contido em um universo, os elementos deste universo simplesmente pertencem ou não àquele conjunto. A teoria dos conjuntos fuzzy vem sendo utilizada para tratar problemas que envolvam informações imprecisas, ajudando no desenvolvimento de soluções, de forma a aproximar o comportamento humano, comparado à soluções encontradas utilizando a teoria clássica de conjuntos. III. METODOLOGIA A aplicação proposta neste trabalho possui como principal objetivo a interação do usuário com uma imagem projetada 26

37 responsável por denotar o quanto de interação ocorreu entre o usuário e a imagem. A base de conhecimento utilizada foi construída de forma empírica, sendo: R 1 : Se VAH é Pequeno, então ET é Não. R 2 : Se VAH é Médio, então ET é Não. R 3 : Se VAH é Grande, então ET é Sim. Por fim, a determinação da ocorrência de interação do usuário ocorrerá através da obtenção do grau de pertinência do valor de alteração do histograma para cada função, considerando todos os termos linguísticos de VAH, de forma que o processo de fuzificação e defuzificação ocorra para cada função. Finalmente, o valor de saída gerado pelo sistema fuzzy é utilizado para definir o nível de interação com o usuário. C. Experimentos Os experimentos foram realizados considerando quatro situações de ambientes, sendo três diferentes do ambiente ideal, conforme enumerados a seguir: 1) Luz alta sobre a apresentação, luz ambiente normal, fundo branco; 2) Luz alta sobre a apresentação, luz ambiente alta, fundo branco; 3) Luz alta sobre a apresentação, luz ambiente normal, fundo escuro; 4) Luz normal sobre a apresentação, luz ambiente normal, fundo branco (ambiente ideal). Com o objetivo de avaliar os resultados, foram definidas três medidas de desempenho. Sendo a primeira Boa, que significa a identificação correta de todas as interações, onde nenhuma ação tenha ocorrido na ausência de interação, a segunda, denominada por Média, deve ocorrer a identificação correta da maioria das interações, sendo que nenhuma ação deva ocorrer sem interação e, por fim, a medida considerada Ruim, na qual tenha ocorrido a identificação incorreta da maioria das interações ou ações sem interação. Tabela I EXPERIMENTOS DOS MÉTODOS MIT E MIF EM AMBIENTE HETEROGÊNEOS Ambiente MIT MIF 1 Médio Bom 2 Ruim Ruim 3 Ruim Bom 4 Bom Bom Na Tabela 1 são apresentados os resultados obtidos a partir de experimentos considerando todos os ambientes citados. Pode-se concluir que, embora o MIT tenha apresentado resultados satisfatórios nos ambientes 1 e 4, o MIF apresentou medidas de desempenho melhores para um número maior de ambientes. IV. CONCLUSÕES Considerando ambientes ideais, os métodos propostos demonstraram-se robustos, de modo que não houveram interpretações de funções erroneamente ou disparo de função na ausência de interação. O ambiente ideal foi definido como uma projeção realizada em superfície de fundo claro, com iluminação ambiente normal, ou ainda, sem iluminação no ambiente, contanto que, não exista incidência direta de luz forte sobre a projeção. Observou-se também que, utilizando um intervalo de 300 à 600ms entre cada imagem capturada, foi possível uma interação natural com a projeção. Intervalos de tempo maiores causaram um atraso entre o tempo de tentativa de interação e a execução da função. Por outro lado, intervalos menores fizeram com o que a função fosse executada diversas vezes. A utilização da lógica fuzzy para a identificação de interação mostrou-se também bastante satisfatória para ambientes distintos, de modo a propiciar um importante enviesamento para pesquisas futuras. Podese concluir ainda que, a aplicação proposta neste trabalho pode ser considerada com um interessante alternativa para o desenvolvimento da interação homem-máquina, onde, através de técnicas de processamento de imagens e inteligência artificial, foi possível dispensar o uso de dispositivos menos acessíveis. REFERÊNCIAS [1] T. Baudel and M. Beaudouin-Lafon. Charade. Communications of the ACM, 7:28 35, [2] R. E. Gonzalez, R. C. e Woods. Processamento Digital de Imagens - 3 ed. Saulo: Pearson, [3] H. N. Marques, O. F. e Vieira. Processamento Digital de Imagens. Rio de Janeiro: Brasport, [4] Fernando S. Meirelles. 25 pesquisa anual do uso de ti [5] P. Mistry and P. Maes. Sixthsense a wearable gestural interface [6] L. P. Paula, N. Bonini, and R. Miranda. Cra kombat - intera livre para jogos [7] V. Rusnak. Interaction methods for large high-resolution screens. disponl em [8] C. Systems. Cyberglove ii. disponl em: [9] Michel Alain Q. Truyenque. Uma aplica de visomputacional que utiliza gestos da mara interagir com o computador [10] L. A. ZADEH. Information and control. Fuzzy Sets., 8: ,

38 PLANEJAMENTO DA MELHORIA DO PROCESSO DE TESTES DO CENTRO DE PROCESSAMENTO DA UNIVERSIDADE FEDERAL DE SERGIPE BASEADO NO MPT.BR Weverton dos Santos, Marcos Dósea Departamento de Sistemas de Informação/DSI Itabaiana-SE, Brasil A definição e utilização pela equipe de um processo de testes não é um trabalho final. O processo deve estar em constante avaliação buscando atividades do processo que podem ser melhoradas para obter um melhor desempenho e eficácia. Modelos de qualidade de processos de testes como o MPT.BR vêm sendo propostos para ajudar nessa tarefa. Nesse contexto este trabalho apresenta o planejamento para realizar a melhoria da qualidade de um processo de teste de software baseado no MPT.BR. Palavra-chave: ambiente, melhoria, nivel, processo, teste. I. INTRODUCÃO As empresas de desenvolvimento de software buscam através dos processos de testes software, melhorar a qualidade dos seus produtos. A garantia da qualidade auxilia as empresas a oferecer produtos que conquistam a confiança dos clientes, tornando-as mais competitivas. A melhoria contínua dos processos é essencial para garantir a competitividade. Para que as empresas de desenvolvimento de software consigam construir seus produtos com qualidade, tornam-se necessárias a elaboração e a utilização de estratégias de testes bem definidas, pois o processo de teste de software está intimamente ligado com a qualidade de produtos e de processos. Uma forma de garantir mais qualidade ao processo de teste é executar os testes separadamente [1] e utilizar modelos de qualidade para melhoria do processo de testes. O MPT.Br é um desses modelos de Melhoria do Processo de Teste concebido para apoiar organizações através dos elementos essenciais para o desenvolvimento da disciplina de teste. Trata a melhoria do processo de teste através das melhores práticas relativas às atividades ampliadas ao longo do ciclo de vida de teste do produto [8]. O MPT.Br avalia as empresas através de um conjunto de práticas específicas das áreas do processo e de algumas práticas genéricas em alguns níveis. Vem sendo adotado como modelo de referência por várias empresas brasileiras para guiar a melhoria dos seus processos de teste. Ele apresenta 5 níveis de maturidade, sendo que neste trabalho somente será abordado o nível 1. Visando melhorar a qualidade do software utilizada pela comunidade acadêmica, o Centro de Processamento de Dados da Universidade Federal de Sergipe (CPD/UFS) passou por um processo inicial de melhoria do seu processo de desenvolvimento de software. Várias melhorias foram realizadas, entre elas a definição de um processo para gerência de configuração e um processo para gerenciamento da execução de testes de software. Porém o processo implantado não foi guiado por nenhum modelo de maturidade de processos. Além disso, um processo de desenvolvimento depois de implantado precisa ser evoluído continuamente. O CPD/UFS se encontra em um estágio de processo onde já faz uso dos testes automatizados, o que é bastante útil para os testes de regressão. Mas possui pouca documentação dos projetos de teste. Nesse trabalho é apresentado o planejamento para avaliação da maturidade do processo de teste do CPD/UFS e a realização de melhorias no processo existente baseado no nível 1 do MPT.Br. Também serão realizados ajustes na ferramenta Testlink [4], utilizada para o gerenciamento do processo de teste, visando aumentar a eficiência e eficácia do processo. Este trabalho está organizado como segue: na Seção II é apresentada a metodologia a ser utilizada para realização das melhorias propostas no processo de testes. Na Seção 3 são apresentados alguns trabalhos relacionados e na Seção 4 as conclusões e trabalhos futuros. II. METODOLOGIA O percurso metodológico que se pretende adotar é uma pesquisa-ação definida como um tipo de pesquisa com base empírica que é concebida e realizada em estreita associação com uma ação ou ainda, com a resolução de um problema coletivo, onde todos os pesquisadores e participantes estão envolvidos de modo cooperativo e participativo [9]. O ambiente onde a pesquisa será realizada será CPD/UFS 1- Fases do Projeto Para elaboração do projeto foram consideradas as seguintes etapas: a- Fase exploratória Nesta fase será feito um levantamento do ambiente que será aplicado a melhoria de processo e as expectativas dos interessados. O processo de teste atual será modelado utilizando a notação BPMN [5] para ser possível realizar análise e identificação dos pontos de melhoria. b- Realização do seminário Nesta fase será feito um seminário para reunir os principais membros da equipe interessados na pesquisa. O objetivo é coletar propostas dos participantes para que a 29

39 partir dessa discussão saiam as diretrizes para elaboração da pesquisa e das ações. c- Seleção de amostra O objeto da pesquisa é o processo de testes do CPD/UFS. Para avaliá-lo serão coletadas métricas de desempenho em cada etapa do processo de pelo menos dois projetos distintos que estejam passando por um ciclo de testes. d- Coleta de dados A coleta de dados será realizada através da coleta de métricas durante a execução do processo. O objetivo será avaliar a eficiência e a eficácia do processo de testes em relatar erros válidos para equipe de desenvolvimento. As métricas que serão coletadas para avaliação do processo são o tempo médio para projeto de casos de testes; o tempo médio para execução de casos de testes; o número de casos de testes executados por ciclo e o número de erros válidos encontrados por ciclo. e- Análise e interpretação dos dados Os dados coletados serão analisados através de estatística descritiva e inferencial para prover subsídios para descoberta de possíveis pontos de melhoria no processo. Além disso, a modelagem do processo ajudará a determinar as atividades do processo que deverão ser modificadas ou incluídas no processo para atender as exigências do nível 1 do MPT.Br. f- Elaboração do plano de ação O plano de ação visa determinar as ações que serão propostas para melhoria do processo baseando-se no nível 1 do MPT.Br. O novo processo será modelado utilizando a notação BPMN e a ferramenta Testlink, utilizada atualmente no CPD/UFS, deverá ser adaptada para atender as exigências do mesmo. Para avaliação pretende-se realizar dois projetos pilotos com o novo processo, nos quais serão coletadas as mesmas métricas definidas na fase de coleta de dados. Os resultados obtidos com o novo processo serão comparados estatisticamente em relação aos dados obtidos com o processo existente. g- Divulgação dos resultados Os resultados obtidos na pesquisa serão divulgados através do Trabalho de Conclusão de Curso. Adicionalmente pretende-se apresenta-lo à equipe do CPD para que as melhorias propostas sejam adotadas para os demais projetos de testes. III. TRABALHOS RELACIONADOS Alguns trabalhos que foram desenvolvidos no contexto de Avaliação de Maturidade em processo de teste. Em [2] é proposta a avaliação da maturidade do processo de teste utilizando o nível 1 do método de maturidade MPT.Br. Neste trabalho foi feita uma avaliação do processo de teste de software em uma organização, analisando dois projetos, comparando as práticas dos projetos com as práticas do nível 1 do modelo MPT.BR, que nesta versão só avaliava a Gerência de Projetos de Teste de Software. Com os resultados analisaram se a empresa possuía boas práticas em teste de software, e se a empresa era aderente ao nível. Foram propostas algumas sugestões de melhorias. O projeto proposto também vai analisar uma organização, utilizando o nível 1 do MPT.Br, porém o objetivo é realizar melhorias no processo e avaliar se elas surtiram efeitos no processo da organização. Desenvolvimento do processo de teste SwTest definido para uma Empresa de Pequeno Porte Desenvolvedora de Software, este processo foi desenvolvido com base nas normas IEEE 829 e ISO/IEC 12119, seu objetivo foi melhorar e garantir a qualidade do software desenvolvido e voltado para empresa de pequeno porte [7]. Já neste projeto vai ser utilizado um processo de teste existente, mas também visando a garantia e a qualidade do software. Em outro trabalho foi realizada a melhoria da ferramenta Testlink para integrar resultados dos testes manuais com os resultados dos testes de unidade automáticos que não eram gerenciados pelo TestLink [3]. A ferramenta foi avaliada através de questionário respondido por profissionais que utilizam o TestLink. Neste projeto também propomos a integração de testes automáticos no Testlink, mas os testes que pretendemos integrar são os testes automáticos funcionais. IV. CONCLUSÃO Neste trabalho foi apresentado o planejamento para melhoria do processo de testes do CPD/UFS baseado no modelo MPT.BR. A melhoria envolve a avaliação do processo atual e ajustes na ferramenta Testlink para incorporar as melhorias definidas. O objetivo é a melhoria contínua do processo existente aumentando a eficiência e a eficácia das atividades realizadas. O trabalho presente já passou pela fase exploratória, realização do seminário através de reuniões, seleção de amostra e coleta de dados. O próximo passo será análise e interpretação dos dados, elaboração do plano de ação e divulgação dos resultados. Esperamos que este trabalho melhore a eficácia do processo de testes existem no CPD/UFS. REFERÊNCIAS [1] BASTOS, A.; RIOS, E.; CRISTALLI, R. & MOREIRA, T. Base de conhecimento em teste de software. 3o. ed. São Paulo: Editora Martins Fontes, [2] CRUZ, G. A. Avaliação de Maturidade em Processo de Teste de Software: uma Pesquisa-Ação. Minas Gerais: Lavras, p. 99 [3] GOIS, ELY L.; MARTINS, D. A. Uma abordagem para o gerenciamento integrado de testes manuais e automatizados no TestLink. São Cristóvão: UFC, p. 78 [4] HAVLAT, M. TestLink, Disponível em: <http://www.teamst.org>. Acesso em: 25 jul [5] OMG.BPMN - Business Process Model and Notation, 2011Disponívelem: <http://www.omg.org/spec/bpmn/2.0/pdf/>. Acesso em: 20 ago [6] Selenium. Disponível em: <http://www.seleniumhq.org/>. Acesso em 28 jun [7] SILVA, V. M. DE P. SwTest: Um Processo de Teste Definido para uma Empresa de Pequeno Porte Desenvolvedora de Software. Minas Gerais: Lavras, p. 81 [8] SOFTEXRECIFE. MPT.BR - Melhoria de Processo de teste: Guia de Implementação, Disponível em: <http://mpt.org.br/mpt/mpt/modelo-de-referencia-e-guia-deavaliacao>. Acesso em: 24 jun [9] THIOLLENT, Michael. Metodologia da pesquisa-ação. São Paulo: Cortez,

40 Em Direção à Melhoria do Processo de Aplicação de Surveys em Engenharia de Software Antônio Cruz, Erivan Santana, Marcos Dósea Departamento de Sistemas de Informação Universidade Federal de Sergipe, UFS/ITA Itabaiana, Brasil Abstract- A utilização de surveys por pesquisadores em engenharia de software vem se popularizando como método de pesquisa. Entretanto entre as dificuldades encontradas pelos pesquisadores para aplicação do método é a exibição e instrumentação de código-fonte de linguagens de programação. Este trabalho visa analisar o processo e as ferramentas utilizadas para aplicação de surveys em engenharia de software. O objetivo é caracterizar as necessidades e melhorar o processo de aplicação de surveys na área de engenharia de software em relação a efetividade e custo. Palavras-chave: Survey; Engenharia de Software; Ferramenta I. INTRODUÇÃO Os métodos para realizar pesquisa em engenharia de software vêm evoluindo nos últimos anos, adotando e adaptando os mesmos métodos já utilizados há décadas por outras engenharias. Em [1], é proposto um framework para experimentação em engenharia de software que ajuda a estruturar o processo experimental e prover um esquema de classificação para entender e avaliar estudos experimentais. Entre os métodos de investigação propostos destacam-se os experimentos controlados, os estudos de caso e o survey. O survey refere-se a um tipo particular de pesquisa social empírica e realizada para permitir enunciados descritivos sobre alguma população, isto é, descobrir a distribuição de certos traços e atributos [2]. O processo de aplicação de surveys em engenharia de software envolve uma série de dificuldades para os pesquisadores: (1) as ferramentas não possuem componentes que facilitem a visualização de código-fonte em diferentes linguagens; (2) quando as respostas também são trechos de código não há recursos que facilitem a instrumentação do código-fonte resultante; (3) não há possibilidade de realizar análise sintática e semântica do código-fonte resposta do desenvolvedor. Este trabalho apresenta o planejamento para criação de uma ferramenta WEB para a realização de surveys em engenharia de software com o propósito de melhorar o processo de aplicação de surveys. A ferramenta, além de permitir a realização de perguntas objetivas e subjetivas já realizadas por outras ferramentas, possuirá recursos adicionais para instrumentação de código-fonte. Na Seção 2 é apresentada a metodologia que será utilizada para elaboração do trabalho. Na Seção 3 uma breve análise de trabalhos na área de engenharia de software que utilizam surveys como método de pesquisa. A Seção 4 faz uma apresentação de trabalhos relacionados e na Seção 5 as conclusões e trabalhos futuros. II. METODOLOGIA As fases do projeto seguirão as seguintes etapas da pesquisa-ação segundo [10], que são elas: A. Fase exploratória Nesta fase, será feita uma pesquisa por trabalhos relacionados, bem como uma busca de artigos em periódicos que falem de survey em engenharia de software. B. Formulação do problema Com base na fase anterior, será formulado o problema na qual constará as principais dificuldades dos engenheiros de software para a construção de survey na área. C. Construção de hipóteses As hipóteses deverão ser construídas baseando-se nas novas características disponibilizadas pela ferramenta. D. Realização do seminário Nesta fase, será realizado um seminário para professores e estudantes da área com o objetivo de apresentar e discutir os problemas e dificuldades no processo de elaboração de um survey em engenharia de software (ES) com o objetivo de propor melhorias. E. Seleção da amostra Serão selecionados pesquisadores e engenheiros de software que irão avaliar a eficiência da ferramenta. F. Coleta de dados Com base na fase anterior utilizando a técnica de aplicação de um questionário os dados sobre a utilização da ferramenta e as melhorias realizadas no processo de aplicação serão coletadas a partir das respostas da amostra selecionada. G. Análise e interpretação dos dados Esta fase tem como objetivo analisar o feedback dos usuários da ferramenta e o quanto que a mesma contribuiu para a elaboração de surveys em relação a eficiência e custo. H. Elaboração do plano de ação Esta fase tem como objetivo desenvolver uma ferramenta online de survey para suprir as necessidades que as demais não apresentam de acordo com as necessidades na área de engenharia de software. 31

41 I. Divulgação dos resultados Os resultados obtidos na pesquisa serão divulgados através de artigos em congressos e eventos da área. A Seção 3 apresenta alguns estudos na área de engenharia de software que utilizaram o método de pesquisa survey para realização da pesquisa. III. SURVEYS EM ENGENHARIA DE SOFTWARE Vários trabalhos vêm usando surveys para entender melhor o mundo dos engenheiros de software. O trabalho [3] apresenta a instanciação de uma das etapas do projeto EduES Brasil, correspondente a um survey que visa caracterizar o cenário de educação em ES no pais, sob o ponto de vista da comunidade de educadores. Em [4], desenvolveu-se um trabalho onde foi realizado um estudo empírico onde investigaram: (i) o que os desenvolvedores usaram para avaliar a coesão de diferentes módulos e (ii) em que medida as classificações que deram, eram relacionadas com medidas estruturais e de coesão conceitual. Como resultado percebeu-se que a maioria dos desenvolvedores estão familiarizados com a coesão e os que não estão familiarizados com a coesão são mais provavelmente os menos experientes. No estudo [5] procuraram determinar o estado da prática de comentários em software e inspeções. O objetivo era encontrar fatores de contexto relevantes que influenciam a forma como comentários são conduzidos. Para aplicação de surveys existem várias ferramentas disponíveis no mercado. A Seção 4 apresenta algumas dessas ferramentas e dificuldades para utilização destas na área de engenharia de software. IV. TRABALHOS RELACIONADOS: ANÁLISE DE FERRAMENTAS SURVEYS Para aplicação de surveys existem na WEB várias ferramentas que facilitam o processo de construção, aplicação e análise dos resultados. SurveyMonkey é uma ferramenta que possibilita ao usuário trabalhar tanto com questões objetivas quanto questões subjetivas e oferece um recurso de banco de questões permitindo a criação ágil de um survey, além de oferecer a análise dos resultados por meio de gráficos [6]. FreeOnlineSurveys possui como maior característica o recurso drag and drop que lhe atribui uma agilidade no processo de elaboração do survey sendo uma ferramenta com uma interface bastante intuitiva [7]. QuestionPro é uma ferramenta bastante completa mesmo em sua versão gratuita permite a elaboração de diversos tipos de questões, oferece controle sobre o survey, envio por , link e compartilhamento nas redes sociais e análise sobre os resultados [8]. SurveyPlanet é uma ferramenta que possibilita ao usuário trabalhar com a criação, envio e análise dos resultados de um survey, entretanto os recursos de controle sobre o survey são limitados [9]. Nenhuma das ferramentas apresentadas possui mecanismos para facilitar a exibição e manipulação de códigos-fonte de linguagens, dificultando sua utilização em muitas pesquisas realizadas na área de engenharia de software. V. CONCLUSÃO Neste trabalho apresentamos o planejamento para criação de uma ferramenta com o objetivo de melhorar o processo de aplicação de surveys em engenharia de software. Foi realizada uma exploração inicial das principais ferramentas utilizadas para realização desse tipo de estudo com o objetivo de enumerar as principais dificuldades. A utilização do método de pesquisa Survey na engenharia de software encontra várias dificuldades quando é necessário apresentar código-fonte. O principal motivo são as ferramentas disponíveis no mercado não proporcionarem recursos adequados para uma melhor elaboração de surveys na área. Como trabalhos futuros pretende-se continuar a avaliação aprofundada das ferramentas existentes no mercado e seguindo a metodologia apresentada, iniciar a construção e posterior avaliação da ferramenta. Espera-se que a ferramenta facilite o processo de aplicação de surveys por engenheiros de software. VI. REFERÊNCIAS [1] BASILI, V. R.; SELBY, R. W.; HUTCHENS, D. H. Experimentation in software engineering. IEEE Transactions on Software Engineering, v. SE-12, n. 7, p , IEEE. Disponível em: <http://ieeexplore.ieee.org/articledetails.jsp?arnumber= >. Acesso em: 2/9/2014. [2] BABBIE, E. Metodos de Pesquisas de Survey. Belo Horizonte, [3] SCHOTS, M.; SANTOS, R.; MENDONÇA, A.; WERNER, C. Elaboração de um Survey para a Caracterização do Cenário de Educação em Engenharia de Software no Brasil.,n. 1, p. 2 5, [4] DA SILVA, B. C.; SANT ANNA, C. N.; CHAVEZ, C. V. F. G. An empirical study on how developers reason about module cohesion. [5] Proceedings of the 13th international conference on Modularity - MODULARITY 14, n. i, p , New York, USA: ACM Press. Disponível em: <http://dl.acm.org/citation.cfm?doid= >. Acesso em: 20/7/2014. [6] CIOLKOWSKI, M.; LAITENBERGER, O.; VEGAS, S.; BIFFL, S. Practical Experiences in the Design and Conduct of Surveys in Empirical Software Engineering. p , 2003 [7] SURVEYMONKEY. Create Surveys. Get Answers. Disponível em: <https://surveymonkey.com>. Acesso em: 15/5/2014. [8] FREEONLINESURVEYS. Create your own Free Online Survey. Disponível em: <http://freeonlinesurveys.com>. Acesso em: 7/6/2014. [9] QUESTIONPRO. Online Research Made Easy. Disponível em: <http://questionpro.com>. Acesso em: 27/5/2014. [10] SURVEYPLANET. Disponível em: <https://www.surveyplanet.com>. Acesso em: 7/6/2014. [11] GIL, A. C. Como Elaborar Projetos de Pesquisa. 5 a ed. São Paulo,

42 Planeta Saudável, Consumo Consciente em Jogo Ícaro M. R. de Oliveira, Isaac L. de Argolo e Kenia K. Cox Departamento de Computação Universidade Federal de Sergipe Aracaju-Se, Brasil Resumo - Tendo em vista a preservação ambiental, é importante que todos adotem o consumo consciente. Esta postura deve ser ensinado principalmente para as crianças - consumidores em formação, que são educados e preparados para a vida. Isso é conseguido por meio de processos interactivos, que simula a ação no ambiente. Uma ferramenta que se destaca neste sentido é o jogo computacional educativo: instrumento lúdico que possibilita a construção de um ambiente de ensino aprendizagem, onde a criança ao mesmo tempo em que se diverte, constrói conhecimento. Assim, este artigo apresenta "Planeta Saudável, Consumo Consciente" (PS2C), com uma ferramenta pedagógica para o ensino sobre o consumo consciente. É um jogo de tabuleiro em que existem cinco grandes temas: pilares do consumo consciente, consumo consciente, consumo consciente de água, o consumo de alimentos consciente e gestão de resíduos. O objetivo do jogador é chegar ao final do caminho e manter a saúde do planeta Terra virtual. Palavras chaves: consumo consciente, Jogos Educativos, Desenvolvimento de jogos Computacionais. I. INTRODUÇÃO A economia de mercado, apoiada pelo marketing, é direcionada hoje pela produção e pelo consumo de massas [1]. O consumo pessoal desempenha um papel central neste processo, sem levar em consideração os impactos provocados por este. Entretanto, quando o consumidor passa a levar em conta tudo que será causado no planeta, em diversos aspectos, com a compra que ele está desejando fazer, pode ser considerado um consumidor consciente. Assim, com vistas à preservação ambiental, é muito importante que todos aprendam que as decisões que tomamos afetam o nosso planeta. Pressupõe-se que esse tipo de conscientização deve ser efetuado em todos os ambientes, mas em especial nos infantis em que as crianças, consumidores em formação, estão sendo educados e preparados para a vida. A formação dessa geração de consumidores com valores socioambientais saudáveis apresenta-se como uma boa alternativa de educação ambiental. Carvalho [2] afirmou que se o consumo consciente for problematizado, discutido e vivenciado pelas crianças e adolescentes, a situação passa a ser mais dialogada, menos unilateral e eles também se transformam em atores sociais. O processo educativo ambiental, por sua vez, deve ser alcançado através de processos contínuos e interativos, adequados à formação da consciência e da capacidade de avaliação crítica do mundo. Não basta apenas ensinar sobre a natureza, mas possibilitar a compreensão e a construção de novas formas de pensamentos. Então, uma ferramenta educativa que se destaca pelos resultados que produz neste contexto são as brincadeiras, dentre as quais tem-se os jogos. No processo educativo os jogos correspondem a ferramentas fundamentais que permitem à criança brincar com a criação de hipóteses e soluções para problemas, aproximando-se assim da realidade [3]. No casamento entre educação e brincadeiras, destaca-se o computador como uma ferramenta que adiciona diversificados recursos. Como ferramenta de apoio ao ensino, as máquinas de processamento, no ambiente educacional, auxiliam na formação de conceitos; estímulam com a multiplicidade de formas de apresentação de informações, dinamicidade e interatividade que apresentam. Ao se aliar educação, brincadeiras e computador, surgem os jogos computacionais educativos. Por meio deles é possível construir um ambiente lúdico de ensino e aprendizagem, onde a criança ao mesmo tempo em que se diverte, constrói conhecimento. Este artigo apresenta o jogo computacional PS2C Planeta Saudável, Consumo Consciente o qual se volta especificamente para o estímulo ao consumo consciente na infância, por meio de brincadeira. Dessa forma, o jogo corresponde a uma maneira de sensibilizar crianças para o tema e assim contribuir para construção de um mundo que respeita o meio ambiente. Supõe-se que com a assimilação desses novos conceitos as crianças comecem a desenvolver um comportamento consciente útil à divulgação de novas atitudes; então, o conhecimento adquirido no jogo alcançará também para outras pessoas. II.CONSUMO CONSCIENTE O ato de consumir não deve ser reduzido ao ato de comprar. Todo o processo envolvido direta, ou indiretamente, com a decisão e necessidade de compra, uso e descarte de um produto faz parte do consumo deste e devem estar muito claros para o consumidor que deseja adotar o consumo consciente. Quando se trata da decisão de compra, o consumidor consciente deve considerar que no processo de consumo, quando um produto é vendido significa dizer que o consumidor dele estar aprovando todos os métodos utilizados; desde a obtenção da matéria-prima até o transporte deste. O consumidor passa a ser considerado consciente quando ele decide o que irá consumir levando em conta o que ele realmente necessita e qual das marcas, dos produtos e serviços almejados, o atende é a que menos agride o nosso ecossistema durante todo o processo de criação, industrialização, comercialização, uso e descarte [1]. Ou seja, o consumidor adota uma postura de 33

43 consumo consigo mesmo, com os outros, com a economia e com o planeta. É de suma importância a disseminação do conhecimento necessário para que haja uma mudança de comportamento da população, fazendo com que esta consuma de uma forma consciente e agredindo o mínimo possível o meio ambiente. Assim, consumidor consciente além de minimizar os impactos negativos de suas ações para com o meio ambiente, tenta maximizar os positivos. Considerando este pensamento, adotamos temas relevantes para atingir da melhor forma o objetivo do jogo: (a) pilares do consumo consciente, (b) consumo consciente de energia, especificamente quanto ao uso de lâmpadas; (c) consumo consciente de alimentos, específico a alimentação saudável e ecologicamente sustentável; e (d) gestão do lixo, que trata do reaproveitamento de produtos recicláveis e seu correto descarte. III. LÚDICO NA EDUCAÇAO A importância das brincadeiras para as crianças se dá devido ao fato de que enquanto elas brincam, internalizam também conhecimento. Criar, brincar e fazer, são aspectos que podem ser trabalhados por meio da confecção de aplicação de jogos, no contexto escolar e clínico: a ansiedade, os limites, a capacidade de realização, a atenção e concentração, a estratégia, o raciocínio lógico e a criatividade [6]. Todos podem ser facilmente explorados por meio de brincadeiras. Por exemplo, num jogo de quebra-cabeça, a criança descobre que cada peça tem um valor fundamental e que é preciso concentração, dedicação e raciocínio para encaixar as peças. Outro exemplo pode ser facilmente visualizado na brincadeira chamada de esconde-esconde, na qual a criança terá que pensar no melhor esconderijo, trabalhando assim o seu raciocínio lógico, além de aprender com as demais crianças pois se uma pessoa foi encontrada rapidamente, é pouco provável que as demais crianças escolham aquele mesmo lugar da próxima vez. Usar jogos na educação corresponde a educar de maneira a entreter os alunos, atiçar sua curiosidade e fazê-los vivenciar situações reais. Além de mexer com a imaginação infantil, os jogos também melhoram sua coordenação motora e visual [4]. Vê-se o benefício que o lúdico traz para as crianças quando se utiliza a tecnologia como apoio à educação. O jogo computacional instiga as crianças e faz com que elas consigam passar horas na frente de um computador, utilizar a curiosidade infantil e o seu interesse pela dinamicidade e interativa promovidas por aparatos tecnológicos, em consonância com a educação, torna o estudar muito mais interessante e divertido. Considerando-se o importante papel desempenhado pelos jogos computacionais educativos, que aliam diversão e aprendizado, tornando o estudar mais atrativo e de qualidade, no qual a criança não simplesmente é mera receptora e sim participa, busca e interage com casos expostos. Logo, a criação de um jogo educativo voltado para o consumo consciente faz-se válido. IV.IMPLEMENTAÇÃO DO JOGO PS2C O jogo PS2C foi implementado usando a linguagem de programação JAVA, no ambiente de desenvolvimento Eclipse, e banco de dados PostgresSQL. Todas ferramentas gratuitas com vários recursos que facilitaram a codificação do jogo. A linguamgem JAVA é uma linguagem orientada a objetos, que possui recursos de heranças e polimorfismos, os quais flexibilizaram o reaproveitamento de código. Figura 1 Planeta doente necessitando de cuidados. Na figura 1, a classe Questao, é uma subclasse da classe Casa, obtendo seus atributos e métodos. O que melhorar a legibilidade do código e reutiliza-o, evitando sua duplicidade desnecessária. Além disso, o ambiente JAVA possui varias api s que facilitam a manipulação de sons e imagens. Com esses recursos os jogos computadorizados se tornam atrativos. Outro ponto forte do recurso sonoro está na forma de ressaltar um determinado acontecimento, por exemplo, quando há um acerto em uma questão um sinal sonoro de sucesso é emitido. Da mesma forma um sinal sonoro negativo é emitido no caso contrário, um poderoso meio de resposta as açõe, com fundo pedagógico. O PostgreSQL foi o software gerenciador de banco de dados utilizado no projeto, sendo um dos principais aspectos, refere-se a segurança no gerenciamento das informações. Outro fator importate é que sua linceça é gratuita o que seu uso aumente significativamente. Portanto, PostgreSQL é o sistema gerenciador de dados necessário para manipular as informações do PS2C de maneira adequada. A metodologia de desenvolvimento adotada para a consturção do jogo foi o Scrum. O Scrum é uma metodologia de desenvolvimento ágil que trabalha de forma iterativa. Essas iterações são chamadas de sprints. Sprints geralmente duram de 2-4 semanas, mas podem durar menos ou mais dependendo do tamanho do projeto. Uma das características interessante é que ele é focado em equipes auto-organizadas e auto-gerenciáveis. São equipes que tem autonomia para decidir a melhor maneira de como fazer seu trabalho sem a interferência externa [7]. Ou seja, auto-organizáveis significa que são independentes para se organizar em torno de um 34

44 problema a ser resolvido. Desta forma, o Scrum possibilita focar somente no problema que é desenvolver um jogo educativo de consumo consciente. O PS2C foi desenvolvido com ferramentas livres que fornecem todos os recursos necessários para implementar jogos atrativos. Que por serem livres possibilitam que outras pessoas possam prosseguir e melhorá-lo. V. JOGO PLANETA SAUDÁVEL, CONSUMO CONSCIENTE (PS2C) O jogo Planeta Saudável, Consumo Consciente é uma proposta de ferramenta lúdica, para educação da criança, voltado para as relações de consumo, que permeiam toda sua infância, bem como toda sua vida adulta. Os jogos educativos computadorizados possuem, como uma de suas principais vantagens, um grande potencial para o processo de ensino e aprendizagem, por despertarem naturalmente o interesse dos alunos [5]. Os recursos de multimídia tentem a prender a concentração das crianças, que em certa idade é dispersada facilmente. O PS2C possui uma interface colorida, visando chamar a atenção da criança, e a motiva a se concentrar no ambiente interno do jogo. Que é representado por um campo com jardim verde. Aproveitando esta ideia, o jogo possui a estratégia pedagógica, no qual o planetinha e o ambiente do jogo sofrem alterações de acordo com os resultados obtidos sobre os questionamentos que lhe são apresentados. Assim, a criança percebe que os atos, os quais ela pratica, prejudicam o meio ambiente e a saúde do planeta. Figura 3 Planeta requerendo cuidados, de 6 a 10 pontos de saúde. No PS2C a estratégia adotada para levar a criança à reflexão é visual, pouco a pouco a interferência na paisagem vai sendo percebida à medida que a criança começa a interagir com o jogo. Se o jogador se depara com muitas situações negativas e/ou responde errado às questões que lhe são apresentadas o cenário se torna sujo, mostrando que o planeta está mal, conforme a figura 2. Caso contrário, o cenário passa a ser mais vivo, demonstrando que se o jogador agir de maneira consciente o planeta se torna saudável, e, portanto, um lugar melhor para se viver, como mostra a figura 3. Assim ganhos cognitivos ocorrem de forma gradativa e lúdica, de maneira que a criança consegue perceber que ela faz parte do mundo e suas escolhas são fundamentais para que ele se conserve. O PS2C é um jogo de tabuleiro onde o jogador se movimenta entre as casas que compõe um caminho, com o objetivo de alcançar o final deste e de preservar a saúde o planeta. A locomoção do jogador é efetuada pela definição do número de casas a avançar, em cada jogada, através do resultado aleatório de um lançamento de um dado, de 6 faces. Figura 2 Planeta doente necessitando de cuidados. De acordo com a Figura 2 o planeta está doente e precisa urgente de cuidados. A poluição e o lixo estão presentes demonstrando a situação do planeta. Além disso, o cenário está com uma cor não tão viva, simulando para a criança que o planeta está com problemas de saúde. Figura 4 Questão do jogo PS2C. E a saúde do planeta depende do quantitativo de acertos e erros que o jogador apresenta a questões apresentadas como desafios, a figura 4 corresponde a um questão sobre pilares do consumo consciente. O caminho será composto por 60 casas, as quais podem conter: situações positivas quando são apresentadas informações em que as pessoas se comportaram como consumidores conscientes, situações negativas quando são apresentadas 35

45 informações em que as pessoas não se comportam como consumidores conscientes, e desafios através dos quais são lançadas questões aos jogadores, cujas resposta afetarão a saúde do planeta. Essas informações serão apresentadas ao jogador sobre 5 temas principais: pilares do consumo consciente, consumo consciente de energia, consumo consciente de água, consumo consciente de alimentos e gestão de lixo. O objetivo do jogador é alcançar o final do caminho sem deixar que a saúde do planeta Terra chegue a zero. O jogo tem 36 itens de cada tema cadastrados (12 questões, 12 situações positivas e 12 situações negativas). A saúde do planeta é medida por meio de uma escala com 15 pontos: de 1 a 5 o planeta está doente; de 6 a 10 o planeta requer cuidados; de 11 a 15 o planeta está saudável. No início do jogo o jogador é posicionado na largada do caminho e a saúde do planeta Terra encontrase na escala 8 - "requerendo cuidados", figura 3. Quando o jogador parar em uma casa cujo conteúdo seja acerto ele ganhará 1 ponto de saúde do planeta e avançará 1 casa no tabuleiro. Quando a casa conter um erro ele perderá 1 ponto de saúde do planeta e voltará 1 casa no tabuleiro. Quando for um desafio se o jogador obter sucesso neste ele ganhará 1 ponto de saúde do planeta e avançará 2 casas, caso ele erre perderá 1 ponto de saúde do planeta e voltará 2 casas no tabuleiro. Se em qualquer momento do jogo a saúde do planeta chegar a zero haverá GAME OVER. A cada rodada, para obter o número de casas a avançar, no caminho, o jogador deve jogar um dado virtual. No tabuleiro cada tema seria representado por uma cor e uma forma de casa. O jogo possuim uma base de dados através da qual estes serão aleatoriamente selecionados em cada jogo. Assim, diferentes execuções, resultarão em diferentes jogos. Um jogador pode acessar todos os acertos, erros pelos quais já passou. Através de um log de respostas. O jogo PS2C estimula a capacidade de discernimento. Por meio dele a criança aprende agir em uma esfera cognitivista, sendo livre para determinar suas próprias ações com relação ao temas. O seu principal objetivo é a saúdo do planeta, mostrando para cirança que seus atos não isolados, e que afetam a vida do planeta em que vivem. VI.CONCLUSÃO Neste artigo considera-se que o jogo eletrônico é uma ferramenta lúdica que contribui para o processo de ensino. No jogo, as crianças buscam formular soluções para o que o jogo propõe. Desta maneira, assume uma postura ativa, possibilitando a formação do seu conhecimento. O PS2C, é uma aplicação para o ensino de consumo consciente, Para trabalhos futuros, sugerimos a abrangência maior para os temas de consumo. Para facilitar ainda mais o acesso e utilização do jogo, poderia ser feita uma versão online do PS2C. Outra sugestão seria a aplicação de síntese de voz para crianças com deficiência visual. VII. REFERENCIAS [1] AKATU: Perguntas Frequentes - O que é Consumo Consciente? Disponível em: Acessado em: 5 de mai [2] CARVALHO, Fabiana. Consumo Consciente: Sua escola estimula atitudes sustentáveis? Revista Atividade e Experiências [3] FRANÇA, Gisela Wajskop. O papel do jogo na educação das crianças. Disponível em: Série Idéias n. 7. São Paulo: FDE, [4] PASSERINO, Liliana Maria. Avaliação de Jogos Educativos Computarizados. Disponível em: Acessado em 28 de out [5] GRUBEL, Joceline Mausolff; BEZ, Marta Rosecler. Jogos Educativos, [6] LOPES, Maria da Glória. Jogos na Educação: Criar, Fazer, Jogar. Editora Cortez [7] INOVATIVIDADE. Scrum? O que é? Como funciona? Disponível em:<http://www.inovatividade.com/metodologias/scrumo-que-e-como-funciona>. Acessado em: 12 de jan

46 Uma Solução de Business Intelligence para Apoio a Decisão à Coordenadoria de Cursos Onezino Gabriel Moreira, Ramon Ramos, André Britto Departamento de Computação Universidade Federal de Sergipe São Cristóvão, SE, Brasil Resumo Nos dias atuais, os ambientes estão cada vez mais complexos. Logo, a informação se torna um recurso de valor estratégico no apoio a tomada de decisão. Através de ferramentas de Business Intelligence é possível disponibilizar informação atual, útil e de qualidade para os tomadores de decisão. A Coordenação Acadêmica do Departamento de Computação da Universidade Federal de Sergipe está inserida nesta realidade e necessita de mecanismos no apoio a tomada de decisão para, por consequência, melhorar a produtividade institucional. O objetivo deste trabalho é apresentar uma solução de Business Intelligence para auxiliar os coordenadores nas atividades de gerenciamento acadêmico. Este trabalho disponibilizou um projeto de Data Warehouse para armazenar informações acadêmicas e uma ferramenta OLAP que permite consultas realizadas pelos coordenadores de curso do departamento. Palavra-chave-Business Intelligence, OLAP, Apoio a Decisão à Coordenadoria de Curso. I. INTRODUÇÃO Nos dias atuais, as organizações possuem uma grande quantidade de dados, mas enfrentam dificuldades na extração de informação a partir destes dados. Os ambientes nos quais as organizações estão inseridas encontram-se cada vez mais complexos e os dados e informações devem estar disponíveis para as pessoas certas, no formato esperado, no local e tempo desejados, tornando a informação um recurso de valor estratégico [3]. A informação serve como insumo no processo de tomada de decisão e, por isso, a organização necessita controlá-la e torná-la acessível, confiável, tempestiva e adequada por meio de sistemas apropriados de gerenciamento de informações [1]. Não se pode desconsiderar a tecnologia da informação e os seus respectivos recursos para atender as necessidades informacionais dos usuários [9]. Neste contexto, surge Business Intelligence (BI). Business Intelligence é um conjunto de capacidades, tecnologias e práticas utilizadas em ambientes de negócio, de forma a adquirir melhor compreensão do contexto e transformar os dados existentes em informação útil [3]. BI tem o potencial de prover novas formas de entender os dados dos quais a organização dispõe, extraindo, portanto, informações capazes de gerar um novo entendimento ou conhecimento para o usuário final, neste caso o tomador de decisões. Os sistemas de BI estão tradicionalmente associados a três tecnologias: Data Warehouse (DW) como ferramenta de armazenamento de informação de negócio, Online Analytical Processing (OLAP) e Data Mining como ferramentas de interpretação dos dados [7]. Nas empresas privadas os sistemas de BI são utilizados, principalmente, com o intuito de se obter vantagens competitivas, satisfazer os anseios dos clientes e maximizar os lucros. Já nas entidades públicas, os gestores buscam satisfazer aos cidadãos, fazer um bom uso dos recursos públicos e maximizar a produtividade institucional. No âmbito de uma universidade pública, a produtividade institucional é beneficiar a sociedade com o maior número possível de profissionais egressos da universidade. Além de garantir que a formação destes profissionais contenha um referencial teórico e prático que os levem a exercer com qualidade as funções às quais se capacitou [2]. Para maximizar a produtividade, é necessário um estreitamento na relação entre universidade e alunos. Deve ser possível traçar o perfil dos alunos, identificar disciplinas e períodos que apresentam retenção de alunos e acompanhar, ao longo do tempo, os mais diversos indicadores. A média geral ponderada (MGP) e o índice de regularidade (IR) tanto por turma como também por aluno são exemplos destes indicadores. Neste contexto, esse trabalho apresenta uma solução de BI para auxílio na tomada de decisões dos coordenadores de cursos do Departamento de Computação da Universidade Federal de Sergipe. Este sistema é formado por um Data Warehouse com dados acerca do desempenho acadêmico dos alunos dos cursos de Ciência da Computação, Sistemas de Informação e Engenharia de Computação e uma ferramenta OLAP com consultas que solucionam algumas necessidades informacionais dos coordenadores de curso. O sistema foi desenvolvido com informações acadêmicas fornecidas pelo Centro de Processamento de Dados (CPD) da universidade (de forma anonimizada impedindo a identificação do aluno para manter a confidencialidade da informação) e disponibilizado para os coordenadores de curso do DCOMP. Os dados fornecidos pelo CPD foram integrados utilizando a ferramenta de integração Pentaho Data Integration (PDI) e o Microstrategy como ferramenta de consulta para o usuário final. Foram criadas consultas para atender as necessidades informacionais identificadas da coordenadoria de cursos do departamento. Com o monitoramento desta informação, que é representada por um conjunto de indicadores acadêmicos, é possível conhecer o que aconteceu no passado e traçar cenários para o futuro. 37

47 O trabalho está organizado da seguinte maneira. A seção II discute os conceitos básicos de Data Warehouse e de ferramentas OLAP. Na seção III é discutido o problema que os coordenadores enfrentam para extrair informações acadêmicas e sugere uma solução para esta dificuldade utilizando os conceitos de BI. A seção IV discute os passos no processo de desenvolvimento da solução e demonstra os resultados obtidos a partir das consultas disponibilizadas para o usuário final. Por fim, a seção V apresenta as considerações finais e as conclusões deste trabalho. II. DATA WAREHOUSE E FERRAMENTA OLAP A tradução literal de Data Warehouse (DW) é armazém de dados. Inmon [11] inventou o termo Data Warehouse em 1990 e define que Data Warehouse é uma coleção de dados orientada por assuntos, integrada, variante no tempo, e não volátil, que tem por objetivo dar suporte aos processos de tomada de decisão. O DW visa reunir e gerenciar dados de várias fontes com o objetivo de ganhar uma visão única e detalhada de parte ou da totalidade de um negócio [9]. Em geral, o Data Warehouse é armazenado em um banco de dados separado da base operacional. Esta separação evita a perda de desempenho no processo operacional da empresa. Um Data Warehouse contém uma grande variedade de dados que apresentam uma imagem coerente das condições da organização em um determinado ponto no tempo. O DW é uma ferramenta capaz de gerenciar grandes quantidades de dados, modelando-os para suprir as necessidades dos executivos por informações mais rápidas sobre o desempenho da empresa. Ele é um banco de dados analítico que é usado como base para os sistemas de apoio à decisão (SAD). É um banco de dados somente leitura e provê acesso intuitivo às informações que serão usadas na tomada de decisões [8]. Sistemas de Data Warehouse compreendem um conjunto de programas que: extraem os dados do ambiente operacional, um banco de dados que os mantém e sistemas que fornecem estes dados aos usuários [9]. A. Modelagem dimensional O modelo dimensional permite ao usuário compreender os dados do negócio e facilita a consulta e navegação pela informação. Ele é composto por tabelas de fatos e dimensões. O modelo dimensional permite a visão dos dados de negócio em forma de um cubo de dados sendo que as informações contidas nas células do cubo são medidas e os lados do cubo são dimensões [8]. A tabela de fatos é responsável normalmente por 90% do volume de dados de um Data Warehouse e o seu objetivo é de armazenar medições numéricas acerca do desempenho organizacional [8]. As tabelas de dimensões são consideradas as descritoras do negócio e possibilitam a análise da tabela de fatos por diferentes visões. B. Ferramentas OLAP Online Analytical Processing (OLAP) é considerado uma categoria de software que permite aos seus usuários obter resposta dentro do grande conjunto de dados do Data Warehouse. Também possibilita a realização de consultas de forma rápida, consistente, flexível, interativa, além do acesso a uma ampla variedade de possíveis visões [5]. O OLAP possibilita que o usuário produza facilmente seus próprios relatórios, análises de tendências e desempenho. Com isto, ajuda o usuário a analisar de forma mais eficiente a quantidade de dados crescentemente armazenados pelas organizações, transformando-os em informação. Bispo [4] apresenta o OLAP como uma ferramenta capaz de efetuar análises de dados com visão multidimensional do negócio, comparando-os por diversos ângulos. Aplicações que utilizam este tipo de ferramenta devem ter como características: Permitir visão multidimensional dos dados; Realizar cálculos complexos; Criar agregações e consolidações; Fazer previsões e análise de tendência; Construir cenários a partir de suposições; Fazer cálculos e manipular dados através de diferentes dimensões; Esquema otimizado para que as consultas realizadas pelos usuários sejam retornadas rapidamente; Geração de relatórios complexos de uma forma simples. III. APOIO A DECISÃO NA COORDENADORIA DE CURSOS DO DEPARTAMENTO DA COMPUTAÇÃO DA UNIVERSIDADE FEDERAL DE SERGIPE O cenário de aplicação deste trabalho foi a coordenadoria de cursos do Departamento da Computação (DCOMP) da Universidade Federal de Sergipe (UFS). Neste local, frequentemente, eram solicitados ao Centro de Processamento de Dados (CPD) dados acadêmicos do Sistema Integrado de Gestão de Atividades Acadêmicas (SIGAA). Estes dados eram verificados e salvos manualmente em planilha Excel para análise da situação do departamento. Esta dificuldade de se obter informações sobre o desempenho dos alunos dos cursos do DCOMP era externada como um fator preocupante no exercício das atribuições de um coordenador de cursos. A informação é utilizada pelos coordenadores de curso como apoio a tomada de decisões em atividades como: definição de horários, quantidade de vagas ofertadas, alocação de professores por disciplina. Além disso, os coordenadores buscam conhecer a evolução dos alunos dos cursos, buscando identificar a porcentagem de alunos egressos, períodos que apresentam a maior taxa de desistência, evolução da MGP dos alunos por semestre letivo, entre outros fatores que são importantes para apoiar os coordenadores. Assim, visando auxiliar esse processo de tomada de decisão, foi desenvolvida uma solução de BI para a coordenadoria de cursos do DCOMP. Por meio de uma entrevista com uma coordenadora de cursos, as necessidades informacionais foram identificadas. As necessidades informacionais da coordenadoria de cursos estão atreladas, basicamente, a três aspectos: acompanhamento dos alunos 38

48 ingressos, comparação dos alunos egressos e comparação das turmas ao longo do tempo. IV. DESENVOLVIMENTO DA SOLUÇÃO DE BUSINESS INTELLIGENCE O primeiro passo no desenvolvimento da solução de BI foi a construção do Data Warehouse. Para isto, foi definido o modelo dimensional, o qual permite desempenho nas consultas [9], baseado nas necessidades informacionais elencadas na Seção III. A Tabela 1 lista as dimensões e fatos identificados durante a concepção do modelo multidimensional. TABLE I. Nome Dmal_aluno Dmtm_tempo Dmcs_curso Dmpr_professor Dcc_comp_curricular Fttu_turma Ftda_desemp_aluno MODELO DO DATA WAREHOUSE Descrição Dimensão com informações dos alunos Dimensão com informações de período Dimensão com informações dos cursos ofertados pelo departamento Dimensão com informações do professor Dimensão com informações das disciplinas da grade dos cursos Fato com informações de acompanhamento da turma Fato Informações do desempenho individual de cada aluno A. Processo de Extract Transform Load Para carregar as informações acadêmicas no Data Warehouse foi solicitado ao Centro de Processamento de Dados (CPD) da UFS os dados necessários. Os dados foram disponibilizados no formato de Comma-Separeted-Value (CSV) para cada tabela do DW. Os dados dos alunos foram anonimizados garantido a confidencialidade. Utilizou-se a ferramenta Pentaho Data Integration (PDI), versão 5.1.0, para realizar o carregamento, garantir a integridade e padronizar a informação. Por questões de qualidade dos dados, a linha temporal de corte foi o ano de O processo ETL será executado semestralmente, após o fim de cada período letivo. Com isto, o Data Warehouse se manterá íntegro, histórico e atualizado. B. Consultas OLAP Existem diversas ferramentas OLAP disponíveis no mercado, uma variedade de ferramentas pagas ou gratuitas. Para Kimball [8], faz parte do ciclo de vida do desenvolvimento de um projeto de Data Warehouse a análise e escolha da ferramenta OLAP que melhor atenda às necessidades da organização. A ferramenta MicroStrategy Free Reporting Suite, versão 9.4.1, foi escolhida por possuir recursos que permitem ao usuário final produzir seus próprios relatórios de maneira simples, fácil, rápida, flexível e possibilitar grande parte das operações OLAP [6]. A aplicação está disponível para ser acessada pelo navegador e todos os artefatos que atendem as necessidades informacionais identificadas nos requisitos do projeto foram previamente criados. Estes artefatos são classificados como: documentos, relatórios, gráficos e dashboards. Eles permitem aos coordenadores serem explorados através de filtros e operações de consultas. Entretanto, caso surjam novas necessidades, a ferramenta permite a customização das consultas pelo usuário. As necessidades informacionais da Coordenaria dos cursos do Departamento de Computação são agrupadas por três aspectos relevantes: acompanhamento dos alunos ingressos, comparação dos alunos egressos e comparação das turmas ao longo do tempo. Por exemplo, a coordenação pode acompanhar o número médio de créditos que os alunos integralizam por semestre. Essa informação pode ser estratificada por curso, por ano, por turma, etc. Assim, os coordenadores podem prever quantos alunos irão se formar em cada semestre e prever a demanda de quantas disciplinas serão lecionadas por cada professor com antecedência. Para ter um melhor conhecimento dos alunos que ingressam no curso foi criado o relatório Forma de Ingresso do Aluno. Este relatório mostra a forma de ingressos dos alunos dos cursos do DCOMP. É possível verificar para cada ano a forma de ingresso dos alunos. Observando a Fig. 1, percebe-se que a grande maioria, cerca de 90% dos alunos, entrou via vestibular. Além disso, cerca de 7% dos alunos ingressam nos cursos através de transferência interna e portador de diploma. Esse número é importante para o coordenador, pois cerca de 200 alunos tiveram experiência em algum outro curso na UFS e por escolha própria resolveram cursar um curso de Computação. O coordenador deve procurar identificar o principal motivo dos alunos optarem por fazer computação e baseado nesse novo conhecimento estimular os alunos que ingressaram via vestibular a não evadirem. Dashboards são recursos disponíveis no Microstrategy que permitem combinar diversas formas de apresentar a informação. O gráfico de aprovados, apresentado na Fig. 2, representa o comparativo da quantidade de turmas e aprovados durante os anos. Ele mostra um crescimento linear de aprovados e da quantidade de turmas. O coordenador pode aplicar filtros para obter informações de uma determinada turma ou de um determinado período e incluir novos indicadores no gráfico comparativo. Figura 1. Relatório de forma de ingresso. Utilizando as operações de OLAP disponíveis no MicroStrategy conseguimos atender à necessidade informacional da coordenadoria para identificar as disciplinas que mais reprovam os alunos, Fig. 3. Visualizando apenas a dimensão de componente curricular identificamos estas disciplinas. Cálculo I é a disciplina que mais reprova os alunos. Outra informação é que as 39

49 disciplinas que não são do Departamento de Computação são maioria no Rank das dez disciplinas que mais reprovam. A Fig. 4 exibe a taxa de reprovação da disciplina e o seu período. O período que tem maior taxa de reprovação do curso de Ciências da Computação são o primeiro e segundo, para Sistemas de Informação o segundo e para o curso de Engenhaira da Computação o terceiro que também foi identificado como período que mais reprova alunos entre os três cursos com aproximadamente 47%. Figura 2. Gráfico de aprovados. V. CONCLUSÃO As ferramentas de BI permitem disponibilizar informações contínuas, atuais e de qualidade para os gestores, sendo um insumo de caráter estratégico nas organizações. A solução de BI implementada para a coordenadoria do Departamento de Computação mostrou-se valiosa para apoiar a tomada de decisões, atendendo as necessidades informacionais levantadas nos requisitos do projeto. A solução de BI desenvolvida permite acompanhar os indicadores acadêmicos como média, índice de regularidade, taxa de aprovação e reprovação. Baseando-se nos valores destes indicadores ao longo do tempo, será possível traçar projeções para o futuro. Foi possível identificar disciplinas e períodos com maior taxa de reprovação e o perfil dos alunos do departamento. Essa informação suporta a tomada de decisões dos coordenadores do departamento para melhorar a produtividade institucional. Como trabalhos futuros, deseja-se realizar uma tarefa de mineração de dados para extrair alguma informação não conhecida a priori. REFERÊNCIAS Figura 3. Relatório de disciplinas com mais reprovação. Figura 4. Períodos com maior taxa de reprovação. [1] A. Catelli, C. Pereira, M. Vasconcelos, Processo de gestão de sistemas de informações gerenciais São Paulo: Atlas,2001. [2] A. C. Bianchi, M. Alvarenga, R. Bianchi, Manual de orientações: Estágio supervisionado, 3th ed., São Paulo: Thomson Learning, [3] C. Barbieri, BI Business Intelligence: modelagem e tecnologia, 2nd ed., Axcel Books do Brasil, [4] C. A. F. Bispo, Uma análise da nova geração de sistemas de apoio à decisão Dissetação de mestrado, São Paulo: Universidade de São Paulo, [5] R. Barquini, Planning and designing the warehouse New Jersey: Prentice-Hall, [6] R. L. Sallam, Magic Quadrant for business intelligence and analytics platforms 2014, disponível em: <http://www.gartner/com/ technology/reprints.do?id=1-1qyl23j&ct=140220&st=sb>, acessado em: 18 out [7] R. Khan, Business intelligence: na integrated approach Business Intelligence Journal, vol. 5, [8] R. Kimball, M. Ross, The data warehouse toolkit: the complete guide to dimensional modeling John Wiley & Sons, [9] S. C. Cazella, Tecnologias para inteligência competitiva Editora Unisinos, [10] V. Francisco, Business Intelligence um caso prático. Faculdade de engenharia da universidade de Porto Relatório de projeto, [11] W. Immon, Building the Data Warehouse 4th ed., Wiley Publishing,

TPref-SQL: uma linguagem de consultas para bancos de dados com suporte a preferências temporais

TPref-SQL: uma linguagem de consultas para bancos de dados com suporte a preferências temporais TPref-SQL: uma linguagem de consultas para bancos de dados com suporte a preferências temporais Autor: Marcos Roberto Ribeiro 1, Orientadora: Sandra Aparecida de Amo 1 1 Programa de Pós-Graduação em Ciência

Leia mais

Desenvolvimento de uma Plataforma Gráfica para a Descrição de Modelos de Sistemas Ambientais

Desenvolvimento de uma Plataforma Gráfica para a Descrição de Modelos de Sistemas Ambientais Desenvolvimento de uma Plataforma Gráfica para a Descrição de Modelos de Sistemas Ambientais Tiago F. M. Lima 1,2, Tiago G. S. Carneiro 2, Sérgio D. Faria 3 1 Programa de Pós-Graduação em Análise e Modelagem

Leia mais

Pós-Graduação em Engenharia Elétrica Inteligência Artificial

Pós-Graduação em Engenharia Elétrica Inteligência Artificial Pós-Graduação em Engenharia Elétrica Inteligência Artificial João Marques Salomão Rodrigo Varejão Andreão Inteligência Artificial Definição (Fonte: AAAI ): "the scientific understanding of the mechanisms

Leia mais

Projeto: Estudo da arquitetura de navegação autônoma para robôs móveis SFX. Orientando: Julian Alberto Piovesan Ruiz Diaz Orientador: Adriana Postal

Projeto: Estudo da arquitetura de navegação autônoma para robôs móveis SFX. Orientando: Julian Alberto Piovesan Ruiz Diaz Orientador: Adriana Postal Projeto: Estudo da arquitetura de navegação autônoma para robôs móveis SFX. Orientando: Julian Alberto Piovesan Ruiz Diaz Orientador: Adriana Postal RELATO SOBRE O PROJETO: Este projeto tem como objetivo

Leia mais

EMENTAS DAS DISCIPLINAS

EMENTAS DAS DISCIPLINAS EMENTAS DAS DISCIPLINAS CURSO EDUCAÇÃO A DISTÂNCIA (EAD) SISTEMAS PARA INTERNET INTRODUÇÃO À COMPUTAÇÃO 68 A disciplina estuda a área da informática como um todo e os conceitos fundamentais, abrangendo

Leia mais

Sistema de Automação Comercial de Pedidos

Sistema de Automação Comercial de Pedidos Termo de Abertura Sistema de Automação Comercial de Pedidos Cabana - Versão 1.0 Iteração 1.0- Release 1.0 Versão do Documento: 1.5 Histórico de Revisão Data Versão do Documento Descrição Autor 18/03/2011

Leia mais

PROJETO DE REDES www.projetoderedes.com.br

PROJETO DE REDES www.projetoderedes.com.br PROJETO DE REDES www.projetoderedes.com.br Centro Universitário de Volta Redonda - UniFOA Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro

Leia mais

ABCTool - Uma Ferramenta para Cooperação Baseada na Arquitetura do Sistema

ABCTool - Uma Ferramenta para Cooperação Baseada na Arquitetura do Sistema ABCTool - Uma Ferramenta para Cooperação Baseada na Arquitetura do Sistema Cynthia Maria Silva de Barros Mestranda do PPGEE-PUC-Minas* cmsbarros@zipmail.com.br Carlos Alberto Marques Pietrobon Professor-Orientador

Leia mais

Um Ambiente Gráfico para Desenvolvimento de Software de Controle para Robôs Móveis Utilizando Simulação 3D

Um Ambiente Gráfico para Desenvolvimento de Software de Controle para Robôs Móveis Utilizando Simulação 3D Um Ambiente Gráfico para Desenvolvimento de Software de Controle para Robôs Móveis Utilizando Simulação 3D Cardoso Marchezi e Hans-Jorg Andreas Schneebeli VIII Simpósio Brasileiro de Automação Inteligente

Leia mais

Table 1. Dados do trabalho

Table 1. Dados do trabalho Título: Desenvolvimento de geradores de aplicação configuráveis por linguagens de padrões Aluno: Edison Kicho Shimabukuro Junior Orientador: Prof. Dr. Paulo Cesar Masiero Co-Orientadora: Prof a. Dr. Rosana

Leia mais

AUTOR(ES): CARLOS ANTONIO PINHEIRO PINTO, ERMÍNIO PEDRAL SANTANA, GUILHERME CASSIANO DA SILVA

AUTOR(ES): CARLOS ANTONIO PINHEIRO PINTO, ERMÍNIO PEDRAL SANTANA, GUILHERME CASSIANO DA SILVA Anais do Conic-Semesp. Volume 1, 2013 - Faculdade Anhanguera de Campinas - Unidade 3. ISSN 2357-8904 TÍTULO: SISTEMA MÓVEL DE COMPRAS POR QR CODE CATEGORIA: CONCLUÍDO ÁREA: ENGENHARIAS E TECNOLOGIAS SUBÁREA:

Leia mais

SISTEMA GERENCIADOR DE FORMULÁRIOS APLICADO AO SISTEMA NETCIF CENTRO INTEGRADO DE FISIOTERAPIA

SISTEMA GERENCIADOR DE FORMULÁRIOS APLICADO AO SISTEMA NETCIF CENTRO INTEGRADO DE FISIOTERAPIA SISTEMA GERENCIADOR DE FORMULÁRIOS APLICADO AO SISTEMA NETCIF CENTRO INTEGRADO DE FISIOTERAPIA Autores: Francisco de Oliveira Dantas; FILHO, PINTO, Giovanni Ferreira; MARIA, Hevanderson da Silva; Orientador:

Leia mais

UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ. Campus Ponta Grossa ANDRÉ LUIS CORDEIRO DE FARIA RELATÓRIO DE ESTÁGIO

UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ. Campus Ponta Grossa ANDRÉ LUIS CORDEIRO DE FARIA RELATÓRIO DE ESTÁGIO UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ Campus Ponta Grossa ANDRÉ LUIS CORDEIRO DE FARIA RELATÓRIO DE ESTÁGIO Ponta Grossa 2012 ANDRÉ LUIS CORDEIRO DE FARIA RELATÓRIO DE ESTÁGIO Trabalho elaborado pelo

Leia mais

Conformação Arquitetural. com DCLcheck. Defina as dependências aceitáveis e inaceitáveis de acordo com a arquitetura planejada de seu sistema

Conformação Arquitetural. com DCLcheck. Defina as dependências aceitáveis e inaceitáveis de acordo com a arquitetura planejada de seu sistema dclcheck_ Conformação Arquitetural com DCLcheck Defina as dependências aceitáveis e inaceitáveis de acordo com a arquitetura planejada de seu sistema Arquitetura de software é geralmente definida como

Leia mais

NOVA PROPOSTA DE MATRIZ CURRICULAR CURSO SUPERIOR DE TECNOLOGIA EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS - 2016

NOVA PROPOSTA DE MATRIZ CURRICULAR CURSO SUPERIOR DE TECNOLOGIA EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS - 2016 NOVA PROPOSTA DE MATRIZ CURRICULAR CURSO SUPERIOR DE TECNOLOGIA EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS - 2016 Diante da evolução de técnicas e ferramentas tecnológicas, aliado a novas necessidades curriculares,

Leia mais

SISTEMAS DE APOIO À DECISÃO SAD

SISTEMAS DE APOIO À DECISÃO SAD SISTEMAS DE APOIO À DECISÃO SAD Conceitos introdutórios Decisão Escolha feita entre duas ou mais alternativas. Tomada de decisão típica em organizações: Solução de problemas Exploração de oportunidades

Leia mais

EMENTAS DO CURSO SUPERIOR DE TECNOLOGIA EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS

EMENTAS DO CURSO SUPERIOR DE TECNOLOGIA EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS EMENTAS DO CURSO SUPERIOR DE TECNOLOGIA EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS INTRODUÇÃO À COMPUTAÇÃO 60 h 1º Evolução histórica dos computadores. Aspectos de hardware: conceitos básicos de CPU, memórias,

Leia mais

do grego: arkhé (chefe ou mestre) + tékton (trabalhador ou construtor); tekhne arte ou habilidade;

do grego: arkhé (chefe ou mestre) + tékton (trabalhador ou construtor); tekhne arte ou habilidade; 1 ARQUITETURA E DESIGN DE SOFTWARE O que é Arquitetura? do grego: arkhé (chefe ou mestre) + tékton (trabalhador ou construtor); tekhne arte ou habilidade; do dicionário: Arte de projetar e construir prédios,

Leia mais

WXDC: Uma Ferramenta para Imposição e Validação de Restrições de Integridade baseadas na Linguagem XDCL

WXDC: Uma Ferramenta para Imposição e Validação de Restrições de Integridade baseadas na Linguagem XDCL 232 - Encontro Anual de Tecnologia da Informação WXDC: Uma Ferramenta para Imposição e Validação de Restrições de Integridade baseadas na Linguagem XDCL Stevan D. Costa1, Alexandre T. Lazzaretti1, Anubis

Leia mais

Extração de Conhecimento a partir dos Sistemas de Informação

Extração de Conhecimento a partir dos Sistemas de Informação Extração de Conhecimento a partir dos Sistemas de Informação Gisele Faffe Pellegrini & Katia Collazos Grupo de Pesquisa em Eng. Biomédica Universidade Federal de Santa Catarina Jorge Muniz Barreto Prof.

Leia mais

O PROJETO DE PESQUISA. Prof. Angelo Augusto Frozza, M.Sc. http://about.me/tilfrozza

O PROJETO DE PESQUISA. Prof. Angelo Augusto Frozza, M.Sc. http://about.me/tilfrozza O PROJETO DE PESQUISA Prof. Angelo Augusto Frozza, M.Sc. http://about.me/tilfrozza ROTEIRO Escolher um tema de pesquisa Por onde começar? Ler para aprender Estrutura do Projeto de Pesquisa A Definição

Leia mais

EMENTAS DAS DISCIPLINAS

EMENTAS DAS DISCIPLINAS EMENTAS DAS DISCIPLINAS CST SISTEMAS DE INFORMAÇÃO DISCIPLINA: Algoritmo e Programação I A disciplina aborda o estudo de algoritmos, envolvendo os conceitos fundamentais: variáveis, tipos de dados, constantes,

Leia mais

MAPEAMENTO E LOCALIZAÇÃO DE REGIÕES DE INTERESSE UTILIZANDO REALIDADE AUMENTADA EM DISPOSITIVOS MÓVEIS COM PLATAFORMA ANDROID

MAPEAMENTO E LOCALIZAÇÃO DE REGIÕES DE INTERESSE UTILIZANDO REALIDADE AUMENTADA EM DISPOSITIVOS MÓVEIS COM PLATAFORMA ANDROID MAPEAMENTO E LOCALIZAÇÃO DE REGIÕES DE INTERESSE UTILIZANDO REALIDADE AUMENTADA EM DISPOSITIVOS MÓVEIS COM PLATAFORMA ANDROID Alessandro Teixeira de Andrade¹; Geazy Menezes² UFGD/FACET Caixa Postal 533,

Leia mais

O que é software? Software e Engenharia de Software. O que é software? Tipos de Sistemas de Software. A Evolução do Software

O que é software? Software e Engenharia de Software. O que é software? Tipos de Sistemas de Software. A Evolução do Software O que é software? Software e Engenharia de Software Programas de computador Entidade abstrata. Ferramentas (mecanismos) pelas quais: exploramos os recursos do hardware. executamos determinadas tarefas

Leia mais

DESENVOLVIMENTO EM DISPOSITIVOS MÓVEIS UTILIZANDO BANCO DE DADOS

DESENVOLVIMENTO EM DISPOSITIVOS MÓVEIS UTILIZANDO BANCO DE DADOS DESENVOLVIMENTO EM DISPOSITIVOS MÓVEIS UTILIZANDO BANCO DE DADOS Leandro Guilherme Gouvea 1, João Paulo Rodrigues 1, Wyllian Fressatti 1 1 Universidade Paranaense (Unipar) Paranavaí PR Brasil leandrog.gouvea@gmail.com,

Leia mais

Sistemas de Informações Gerenciais Prof. Esp. André Luís Belini Bacharel em Sistemas de Informações MBA em Gestão Estratégica de Negócios

Sistemas de Informações Gerenciais Prof. Esp. André Luís Belini Bacharel em Sistemas de Informações MBA em Gestão Estratégica de Negócios Sistemas de Informações Gerenciais Prof. Esp. André Luís Belini Bacharel em Sistemas de Informações MBA em Gestão Estratégica de Negócios Como Melhorar a Tomada de Decisão e a Gestão do Conhecimento Capítulo

Leia mais

INOVANDO UM PROCESSO DE SERVIÇOS DE TI COM AS BOAS PRÁTICAS DO ITIL E USO DE BPMS

INOVANDO UM PROCESSO DE SERVIÇOS DE TI COM AS BOAS PRÁTICAS DO ITIL E USO DE BPMS INOVANDO UM PROCESSO DE SERVIÇOS DE TI COM AS BOAS PRÁTICAS DO ITIL E USO DE BPMS Cilene Loisa Assmann (UNISC) cilenea@unisc.br Este estudo de caso tem como objetivo trazer a experiência de implantação

Leia mais

CURSO DE SISTEMAS DE INFORMAÇÃO

CURSO DE SISTEMAS DE INFORMAÇÃO 1 CURSO DE SISTEMAS DE INFORMAÇÃO EMENTÁRIO DAS DISCIPLINAS 2011.1 BRUSQUE (SC) 2015 2 SUMÁRIO 1ª FASE... 4 01 ARQUITETURA DE COMPUTADORES... 4 02 FILOSOFIA... 4 03 FUNDAMENTOS MATEMÁTICOS PARA COMPUTAÇÃO...

Leia mais

Apresentação do Portfólio da ITWV Soluções Inteligentes em Tecnologia

Apresentação do Portfólio da ITWV Soluções Inteligentes em Tecnologia P ORTFÓ FÓLIO Apresentação do Portfólio da ITWV Soluções Inteligentes em Tecnologia versão 1.1 ÍNDICE 1. A EMPRESA... 3 2. BI (BUSINESS INTELLIGENCE)... 5 3. DESENVOLVIMENTO DE SISTEMAS... 6 3.1. PRODUTOS

Leia mais

PROPOSTA DE UMA FERRAMENTA DE AUTORIA PARA A GERAÇÃO DE CONTEÚDOS ON-LINE. Maio/2005 023-TC-C5

PROPOSTA DE UMA FERRAMENTA DE AUTORIA PARA A GERAÇÃO DE CONTEÚDOS ON-LINE. Maio/2005 023-TC-C5 1 PROPOSTA DE UMA FERRAMENTA DE AUTORIA PARA A GERAÇÃO DE CONTEÚDOS ON-LINE Maio/2005 023-TC-C5 Viviane Guimarães Ribeiro Universidade de Mogi das Cruzes vivianegr@yahoo.com.br Saulo Faria Almeida Barretto

Leia mais

Automação do Processo de Instalação de Softwares

Automação do Processo de Instalação de Softwares Automação do Processo de Instalação de Softwares Aislan Nogueira Diogo Avelino João Rafael Azevedo Milene Moreira Companhia Siderúrgica Nacional - CSN RESUMO Este artigo tem como finalidade apresentar

Leia mais

3 Estudo de Ferramentas

3 Estudo de Ferramentas 3 Estudo de Ferramentas Existem diferentes abordagens para automatizar um processo de desenvolvimento. Um conjunto de ferramentas pode ser utilizado para aperfeiçoar o trabalho, mantendo os desenvolvedores

Leia mais

3 Multi-Agent System for Stock Exchange Simulation

3 Multi-Agent System for Stock Exchange Simulation Multi-Agent System for Stock Exchange Simulation 29 3 Multi-Agent System for Stock Exchange Simulation A participação na competição Agent Reputation Trust (ART) Testbed [10] motivou o estudo do domínio

Leia mais

INF 1771 Inteligência Artificial

INF 1771 Inteligência Artificial INF 1771 Inteligência Artificial Aula 02 Agentes Inteligentes Edirlei Soares de Lima Agentes Inteligentes Um agente é algo capaz de perceber seu ambiente por meio de sensores e de

Leia mais

UniRitter tecnológica: integrando Engenharias para desenvolvimento de um robô humanoide

UniRitter tecnológica: integrando Engenharias para desenvolvimento de um robô humanoide - SEPesq UniRitter tecnológica: integrando Engenharias para desenvolvimento de um robô humanoide 1. Introdução Diego Augusto de Jesus Pacheco Giovani Geremia Segundo Vargas (2012) é perceptível que uma

Leia mais

PLATAFORMA URBANMOB Aplicativo para captura de trajetórias urbanas de objetos móveis

PLATAFORMA URBANMOB Aplicativo para captura de trajetórias urbanas de objetos móveis PLATAFORMA URBANMOB Aplicativo para captura de trajetórias urbanas de objetos móveis Gabriel Galvão da Gama 1 ; Reginaldo Rubens da Silva 2 ; Angelo Augusto Frozza 3 RESUMO Este artigo descreve um projeto

Leia mais

Navegação autônoma de robôs baseada em técnicas de mapeamento e aprendizagem de máquina

Navegação autônoma de robôs baseada em técnicas de mapeamento e aprendizagem de máquina Navegação autônoma de robôs baseada em técnicas de mapeamento e aprizagem de máquina Alcides Xavier Benicasa 1 Resumo: Este artigo tem como objetivo principal apresentar um método de navegação autônoma

Leia mais

UM FRAMEWORK PARA DESENVOLVIMENTO DE

UM FRAMEWORK PARA DESENVOLVIMENTO DE UNIVERSIDADE FEDERAL DE PERNAMBUCO GRADUAÇÃO EM CIÊNCIA DA COMPUTAÇÃO CENTRO DE INFORMÁTICA UM FRAMEWORK PARA DESENVOLVIMENTO DE APLICATIVOS EM WINDOWS MOBILE. PROPOSTA DE TRABALHO DE GRADUAÇÃO Aluno:

Leia mais

Uma Ferramenta Web para BI focada no Gestor de Informação

Uma Ferramenta Web para BI focada no Gestor de Informação Uma Ferramenta Web para BI focada no Gestor de Informação Mikael de Souza Fernandes 1, Gustavo Zanini Kantorski 12 mikael@cpd.ufsm.br, gustavoz@cpd.ufsm.br 1 Curso de Sistemas de Informação, Universidade

Leia mais

Palavras-Chaves: Arquitetura, Modelagem Orientada a Objetos, UML.

Palavras-Chaves: Arquitetura, Modelagem Orientada a Objetos, UML. MODELAGEM ORIENTADA A OBJETOS APLICADA À ANÁLISE E AO PROJETO DE SISTEMA DE VENDAS ALTEMIR FERNANDES DE ARAÚJO Discente da AEMS Faculdades Integradas de Três Lagoas ANDRE LUIZ DA CUNHA DIAS Discente da

Leia mais

EMENTAS DAS DISCIPLINAS

EMENTAS DAS DISCIPLINAS EMENTAS DAS DISCIPLINAS CURSO CST ANÁLISE E DESENVOLVIMENTO DE SISTEMAS INTRODUÇÃO À COMPUTAÇÃO 68 A disciplina estuda a área da informática como um todo e os conceitos fundamentais, abrangendo desde a

Leia mais

UMA PROPOSTA DE PERSONALIZAÇÃO DE CONSULTAS EM DOCUMENTOS XML BASEADA EM PREFERÊNCIAS CONDICIONAIS

UMA PROPOSTA DE PERSONALIZAÇÃO DE CONSULTAS EM DOCUMENTOS XML BASEADA EM PREFERÊNCIAS CONDICIONAIS UNIVERSIDADE FEDERAL DA PARAÍBA CENTRO DE INFORMÁTICA PROGRAMA DE PÓS-GRADUAÇÃO EM INFORMÁTICA UMA PROPOSTA DE PERSONALIZAÇÃO DE CONSULTAS EM DOCUMENTOS XML BASEADA EM PREFERÊNCIAS CONDICIONAIS ANGÉLICA

Leia mais

Um processo para construção de software mais transparente

Um processo para construção de software mais transparente Um processo para construção de software mais transparente Eduardo Almentero 1, and Julio Cesar Sampaio do Prado Leite 1 1 Pontifícia Universidade Católica do Rio de Janeiro, PUC - Rio, Brasil {ealmentero,

Leia mais

Documento de Arquitetura

Documento de Arquitetura Documento de Arquitetura A2MEPonto - SISTEMA DE PONTO ELETRÔNICO A2MEPonto - SISTEMA DE PONTO ELETRÔNICO #1 Pág. 1 de 11 HISTÓRICO DE REVISÕES Data Versão Descrição Autor 28/10/2010 1 Elaboração do documento

Leia mais

PDS - DATASUS. Processo de Desenvolvimento de Software do DATASUS

PDS - DATASUS. Processo de Desenvolvimento de Software do DATASUS PDS - DATASUS Processo de Desenvolvimento de Software do DATASUS Coordenação Geral de Arquitetura e Engenharia Tecnológica Coordenação de Padronização e Qualidade de Software Gerência de Padrões e Software

Leia mais

UNIVERSIDADE FEDERAL DE SANTA MARIA CENTRO DE TECNOLOGIA AULA 10 PROFª BRUNO CALEGARO

UNIVERSIDADE FEDERAL DE SANTA MARIA CENTRO DE TECNOLOGIA AULA 10 PROFª BRUNO CALEGARO UNIVERSIDADE FEDERAL DE SANTA MARIA CENTRO DE TECNOLOGIA AULA 10 PROFª BRUNO CALEGARO Santa Maria, 10 de Outubro de 2013. Revisão aula anterior Documento de Requisitos Estrutura Padrões Template Descoberta

Leia mais

MARACATU. A component search tool. Especificação, Projeto e Implementação de uma Arquitetura para um Engenho de Busca de Componentes

MARACATU. A component search tool. Especificação, Projeto e Implementação de uma Arquitetura para um Engenho de Busca de Componentes MARACATU A component search tool Especificação, Projeto e Implementação de uma Arquitetura para um Engenho de Busca de Componentes Vinicius Cardoso Garcia July 29, 2005 Agenda Introdução Especificação

Leia mais

BUSINESS INTELLIGENCE -Inteligência nos Negócios-

BUSINESS INTELLIGENCE -Inteligência nos Negócios- UNIVERSIDADE SÃO FRANCISCO CENTRO DE CIÊNCIAS JURÍDICAS, HUMANAS E SOCIAIS BUSINESS INTELLIGENCE -Inteligência nos Negócios- Curso: Administração Hab. Sistemas de Informações Disciplina: Gestão de Tecnologia

Leia mais

1. DESCRIÇÃO DO SIE Sistema de Informações para o Ensino

1. DESCRIÇÃO DO SIE Sistema de Informações para o Ensino 1. DESCRIÇÃO DO SIE Sistema de Informações para o Ensino O SIE é um sistema aplicativo integrado, projetado segundo uma arquitetura multicamadas, cuja concepção funcional privilegiou as exigências da Legislação

Leia mais

DOCUMENTO DE REQUISITOS

DOCUMENTO DE REQUISITOS DOCUMENTO DE REQUISITOS ID documento: Data: / / Versão : Responsável pelo documento: ID Projeto: HISTÓRICO DE REVISÕES Data de criação/ atualização Descrição da(s) Mudança(s) Ocorrida(s) Autor Versão do

Leia mais

UTILIZANDO ICONIX NO DESENVOLVIMENTO DE APLICAÇÕES DELPHI

UTILIZANDO ICONIX NO DESENVOLVIMENTO DE APLICAÇÕES DELPHI UTILIZANDO ICONIX NO DESENVOLVIMENTO DE APLICAÇÕES DELPHI Dr. George SILVA; Dr. Gilbert SILVA; Gabriel GUIMARÃES; Rodrigo MEDEIROS; Tiago ROSSINI; Centro Federal de Educação Tecnológica do Rio Grande do

Leia mais

Nathalie Portugal Vargas

Nathalie Portugal Vargas Nathalie Portugal Vargas 1 Introdução Trabalhos Relacionados Recuperação da Informação com redes ART1 Mineração de Dados com Redes SOM RNA na extração da Informação Filtragem de Informação com Redes Hopfield

Leia mais

Palavras-chave: On-line Analytical Processing, Data Warehouse, Web mining.

Palavras-chave: On-line Analytical Processing, Data Warehouse, Web mining. BUSINESS INTELLIGENCE COM DADOS EXTRAÍDOS DO FACEBOOK UTILIZANDO A SUÍTE PENTAHO Francy H. Silva de Almeida 1 ; Maycon Henrique Trindade 2 ; Everton Castelão Tetila 3 UFGD/FACET Caixa Postal 364, 79.804-970

Leia mais

Arquitetura de Software: Uma Central para Gestão da execução de serviços

Arquitetura de Software: Uma Central para Gestão da execução de serviços Arquitetura de Software: Uma Central para Gestão da execução de serviços ADILSON FERREIRA DA SILVA Centro Paula Souza São Paulo Brasil afs.software@gmail.com Prof.a. Dr.a. MARILIA MACORIN DE AZEVEDO Centro

Leia mais

Levantamento de Requisitos.

Levantamento de Requisitos. FACULDADES INTEGRADAS MATO-GROSSENSES DE CIÊNCIAS SOCIAIS E HUMANAS RESUMO Levantamento de Requisitos. Leandro Cícero da Silva Mello. Prof. Jeanine Ferrazza Meyer Metodologia e Técnica de Pesquisa- Levantamento

Leia mais

Scientific Electronic Library Online Sistema SciELO de Publicação Guia do usuário

Scientific Electronic Library Online Sistema SciELO de Publicação Guia do usuário Scientific Electronic Library Online Sistema SciELO de Publicação Guia do usuário São Paulo, junho de 2007 1º Versão SUMÁRIO 1 Introdução... 3 2 Autor... 5 2.1 Cadastro no sistema (http://submission.scielo.br),

Leia mais

SISTEMA DE WORKFLOW PARA MODELAGEM E EXECUÇÃO DE PROCESSOS DE SOFTWARE. Aluno: Roberto Reinert Orientador: Everaldo A. Grahl

SISTEMA DE WORKFLOW PARA MODELAGEM E EXECUÇÃO DE PROCESSOS DE SOFTWARE. Aluno: Roberto Reinert Orientador: Everaldo A. Grahl SISTEMA DE WORKFLOW PARA MODELAGEM E EXECUÇÃO DE PROCESSOS DE SOFTWARE Aluno: Roberto Reinert Orientador: Everaldo A. Grahl Roteiro de apresentação Introdução Objetivos Fundamentação Teórica Workflow Processo

Leia mais

Planejamento Estratégico de TI. Prof.: Fernando Ascani

Planejamento Estratégico de TI. Prof.: Fernando Ascani Planejamento Estratégico de TI Prof.: Fernando Ascani Data Warehouse - Conceitos Hoje em dia uma organização precisa utilizar toda informação disponível para criar e manter vantagem competitiva. Sai na

Leia mais

CPrefSQL-Tool: Uma Ferramenta Web para Consultas com Suporte a Contextos e Preferências do Usuário

CPrefSQL-Tool: Uma Ferramenta Web para Consultas com Suporte a Contextos e Preferências do Usuário CPrefSQL-Tool: Uma Ferramenta Web para Consultas com Suporte a Contextos e Preferências do Usuário Vinicius V. S. Dias 1, Sandra de Amo 1 1 Faculdade de Computação Universidade Federal de Uberlândia (UFU)

Leia mais

Características do Software

Características do Software Questionamentos Por que tanta demora para entregar? Por que os prazos se atrasam? Por que os custos são altos? Por que não achar todos os erros antes de entregar? Por que dificuldade em medir o progresso

Leia mais

DESENVOLVIMENTO WEB DENTRO DOS PARADIGMAS DO HTML5

DESENVOLVIMENTO WEB DENTRO DOS PARADIGMAS DO HTML5 DESENVOLVIMENTO WEB DENTRO DOS PARADIGMAS DO HTML5 Alex de Andrade Catini¹, Tiago Piperno Bonetti¹ ¹Universidade Paranaense (Unipar) Paranavaí PR Brasil Alex.catini@gmail.com, bonetti@unipar.br Resumo:

Leia mais

Os Sistemas de Informação e a Evolução das Organizações

Os Sistemas de Informação e a Evolução das Organizações Os Sistemas de Informação e a Evolução das Organizações Leonardo C. de Oliveira1, Diogo D. S. de Oliveira1, Noemio C. Neto 1, Norberto B. de Araripe1, Thiago N. Simões1, Antônio L. M. S. Cardoso 1,2 1.Introdução

Leia mais

Capítulo 1. Introdução. 1.1 Linguagens. OBJETIVOS DO CAPÍTULO Ao final deste capítulo você deverá ser capaz de:

Capítulo 1. Introdução. 1.1 Linguagens. OBJETIVOS DO CAPÍTULO Ao final deste capítulo você deverá ser capaz de: i Sumário 1 Introdução 1 1.1 Linguagens....................................... 1 1.2 O que é um Compilador?................................ 2 1.3 Processadores de Programas: Compiladores, Interpretadores

Leia mais

Uma análise multidimensional dos dados estratégicos da empresa usando o recurso OLAP do Microsoft Excel

Uma análise multidimensional dos dados estratégicos da empresa usando o recurso OLAP do Microsoft Excel Uma análise multidimensional dos dados estratégicos da empresa usando o recurso OLAP do Microsoft Excel Carlos Alberto Ferreira Bispo (AFA) cafbispo@siteplanet.com.br Daniela Gibertoni (FATECTQ) daniela@fatectq.com.br

Leia mais

UTILIZAÇÃO DE RASTREAMENTO DE OBJETOS SEM O USO DE GPS PARA OTIMIZAR O PERCURSO DE DISPOSITIVOS ROBÓTICOS AUTÔNOMOS

UTILIZAÇÃO DE RASTREAMENTO DE OBJETOS SEM O USO DE GPS PARA OTIMIZAR O PERCURSO DE DISPOSITIVOS ROBÓTICOS AUTÔNOMOS UTILIZAÇÃO DE RASTREAMENTO DE OBJETOS SEM O USO DE GPS PARA OTIMIZAR O PERCURSO DE DISPOSITIVOS ROBÓTICOS AUTÔNOMOS Thiago Crestani 1 ; Marcelo Massocco Cendron 2 INTRODUÇÃO Saber a localização de algo

Leia mais

Similaridade entre Objetos Localizados em Fontes de Dados Heterogêneas

Similaridade entre Objetos Localizados em Fontes de Dados Heterogêneas Similaridade entre Objetos Localizados em Fontes de Dados Heterogêneas Rubens Guimarães 1, Gustavo Zanini Kantorski 1 1 Curso de Sistemas de Informação Universidade Luterana do Brasil (ULBRA) Campus Santa

Leia mais

Engenharia de Software Introdução. Ricardo Argenton Ramos UNIVASF Engenharia de Software I - Aula 1

Engenharia de Software Introdução. Ricardo Argenton Ramos UNIVASF Engenharia de Software I - Aula 1 Engenharia de Software Introdução Ricardo Argenton Ramos UNIVASF Engenharia de Software I - Aula 1 Tópicos Apresentação da Disciplina A importância do Software Software Aplicações de Software Paradigmas

Leia mais

Análise e Projeto de. Aula 01. Profa Cristiane Koehler cristiane.koehler@canoas.ifrs.edu.br

Análise e Projeto de. Aula 01. Profa Cristiane Koehler cristiane.koehler@canoas.ifrs.edu.br Análise e Projeto de Sistemas I Aula 01 Profa Cristiane Koehler cristiane.koehler@canoas.ifrs.edu.br Análise e Projeto de Sistemas I Horário das Aulas: 2as feiras das 10h10 às 11h40 e 5as feiras das 08h25

Leia mais

ENGENHARIA DA COMPUTAÇÃO

ENGENHARIA DA COMPUTAÇÃO ENGENHARIA DA COMPUTAÇÃO SOBRE O CURSO Com a revolução tecnológica, não é só o mundo que muda, mas a área de tecnologia também. O Engenheiro de Computação é um profissional fundamental para que essa evolução

Leia mais

SERVIÇO PÚBLICO FEDERAL UNIVERSIDADE FEDERAL DA PARAÍBA CONSELHO SUPERIOR DE ENSINO, PESQUISA E EXTENSÃO

SERVIÇO PÚBLICO FEDERAL UNIVERSIDADE FEDERAL DA PARAÍBA CONSELHO SUPERIOR DE ENSINO, PESQUISA E EXTENSÃO SERVIÇO PÚBLICO FEDERAL UNIVERSIDADE FEDERAL DA PARAÍBA CONSELHO SUPERIOR DE ENSINO, PESQUISA E EXTENSÃO RESOLUÇÃO N 75/2010 Aprova o Projeto Pedagógico do Curso de Graduação em Engenharia de do Centro

Leia mais

Visão computacional no reconhecimento de formas e objetos

Visão computacional no reconhecimento de formas e objetos Visão computacional no reconhecimento de formas e objetos Paula Rayane Mota Costa Pereira*, Josemar Rodrigues de Souza**, Resumo * Bolsista de Iniciação Científica da Faculdade de Tecnologia SENAI CIMATEC,

Leia mais

PROPOSTA PARA CONSTRUÇÃO DE UMA BIBLIOTECA DIGITAL COMO FERRAMENTA DE AUXÍLIO NO ENSINO À DISTÂNCIA

PROPOSTA PARA CONSTRUÇÃO DE UMA BIBLIOTECA DIGITAL COMO FERRAMENTA DE AUXÍLIO NO ENSINO À DISTÂNCIA PROPOSTA PARA CONSTRUÇÃO DE UMA BIBLIOTECA DIGITAL COMO FERRAMENTA DE AUXÍLIO NO ENSINO À DISTÂNCIA Daniel Gonzaga dos Santos 1 Faculdade Cidade de João Pinheiro Resumo: Este artigo aborda as etapas para

Leia mais

Especificação do KAPP-PPCP

Especificação do KAPP-PPCP Especificação do KAPP-PPCP 1. ESTRUTURA DO SISTEMA... 4 1.1. Concepção... 4 2. FUNCIONALIDADE E MODO DE OPERAÇÃO... 5 3. TECNOLOGIA... 7 4. INTEGRAÇÃO E MIGRAÇÃO DE OUTROS SISTEMAS... 8 5. TELAS E RELATÓRIOS

Leia mais

SERVIÇO PÚBLICO FEDERAL UNIVERSIDADE FEDERAL DA PARAÍBA CONSELHO SUPERIOR DE ENSINO, PESQUISA E EXTENSÃO

SERVIÇO PÚBLICO FEDERAL UNIVERSIDADE FEDERAL DA PARAÍBA CONSELHO SUPERIOR DE ENSINO, PESQUISA E EXTENSÃO SERVIÇO PÚBLICO FEDERAL UNIVERSIDADE FEDERAL DA PARAÍBA CONSELHO SUPERIOR DE ENSINO, PESQUISA E EXTENSÃO RESOLUÇÃO N 72/2009 Aprova o Projeto Político-Pedagógico do Curso de Sistemas de Informação, modalidade

Leia mais

ESTUDO COMPARATIVO DE BIBLIOTECAS GRÁFICAS I TEGRADAS COM OPE GL

ESTUDO COMPARATIVO DE BIBLIOTECAS GRÁFICAS I TEGRADAS COM OPE GL ESTUDO COMPARATIVO DE BIBLIOTECAS GRÁFICAS I TEGRADAS COM OPE GL Francisco Tiago Avelar, Vitor Conrado F. Gomes, Cesar Tadeu Pozzer Universidade Federal de Santa Maria UFSM Curso de Ciência da Computação

Leia mais

RECUPERANDO INFORMAÇÃO SOBRE TEXTOS PUBLICADOS NO TWITTER

RECUPERANDO INFORMAÇÃO SOBRE TEXTOS PUBLICADOS NO TWITTER RECUPERANDO INFORMAÇÃO SOBRE TEXTOS PUBLICADOS NO TWITTER Autores: Miguel Airton FRANTZ 1 ;; Angelo Augusto FROZZA 2, Reginaldo Rubens da SILVA 2. Identificação autores: 1 Bolsista de Iniciação Científica

Leia mais

3 OOHDM e SHDM 3.1. OOHDM

3 OOHDM e SHDM 3.1. OOHDM 32 3 OOHDM e SHDM Com a disseminação em massa, desde a década de 80, de ambientes hipertexto e hipermídia, principalmente a Web, foi identificada a necessidade de elaborar métodos que estruturassem de

Leia mais

Desenvolvimento de um Framework de Jogos 3D para Celulares

Desenvolvimento de um Framework de Jogos 3D para Celulares Desenvolvimento de um Framework de Jogos 3D para Celulares Fabrício Brasiliense Departamento de Informática e Estatística(INE) Universidade Federal de Santa Catarina (UFSC) Campus Universitário Trindade-

Leia mais

Sistema de Gerenciamento de Planos de Curso: Uma ferramenta de aperfeiçoamento para o processo de controle de planos de curso nas universidades

Sistema de Gerenciamento de Planos de Curso: Uma ferramenta de aperfeiçoamento para o processo de controle de planos de curso nas universidades Sistema de Gerenciamento de Planos de Curso: Uma ferramenta de aperfeiçoamento para o processo de controle de planos de curso nas universidades André Torres, Ednaldo Onofre, Francisco Celestino, Jafet

Leia mais

3 Um Framework Orientado a Aspectos para Monitoramento e Análise de Processos de Negócio

3 Um Framework Orientado a Aspectos para Monitoramento e Análise de Processos de Negócio 32 3 Um Framework Orientado a Aspectos para Monitoramento e Análise de Processos de Negócio Este capítulo apresenta o framework orientado a aspectos para monitoramento e análise de processos de negócio

Leia mais

Engenharia de Software

Engenharia de Software Engenharia de Software Requisitos de Software Prof. MSc. Edilberto Silva prof.edilberto.silva@gmail.com http://www.edilms.eti.br Requisito O que é um REQUISITO? Em software: É a CARACTERIZAÇÃO do que o

Leia mais

Fase 1: Engenharia de Produto

Fase 1: Engenharia de Produto Fase 1: Engenharia de Produto Disciplina: Análise de Requisitos DURAÇÃO: 44 h O objetivo principal da disciplina é realizar uma análise das necessidades e produzir um escopo do produto. Representará os

Leia mais

Automação de Bancada Pneumática

Automação de Bancada Pneumática Instituto Federal Sul-rio-grandense Campus Pelotas - Curso de Engenharia Elétrica Automação de Bancada Pneumática Disciplina: Projeto Integrador III Professor: Renato Allemand Equipe: Vinicius Obadowski,

Leia mais

USO DE JOGOS NAS AULAS DE INFORMÁTICA PARA IDOSOS: Relatos de Experiência

USO DE JOGOS NAS AULAS DE INFORMÁTICA PARA IDOSOS: Relatos de Experiência USO DE JOGOS NAS AULAS DE INFORMÁTICA PARA IDOSOS: Relatos de Experiência Lucas Santiago Rodrigues Graduando em Sistemas de Informação na UFMS Natália Fernanda de Castro Meira Graduanda em Engenharia de

Leia mais

Crescendo e Inovando com um Parceiro Confiável de Suporte

Crescendo e Inovando com um Parceiro Confiável de Suporte IBM Global Technology Services Manutenção e suporte técnico Crescendo e Inovando com um Parceiro Confiável de Suporte Uma abordagem inovadora em suporte técnico 2 Crescendo e Inovando com um Parceiro Confiável

Leia mais

CONCEITOS E APLICAÇÕES DA COMPUTAÇÃO EM NUVEM

CONCEITOS E APLICAÇÕES DA COMPUTAÇÃO EM NUVEM CONCEITOS E APLICAÇÕES DA COMPUTAÇÃO EM NUVEM Rogério Schueroff Vandresen¹, Willian Barbosa Magalhães¹ ¹Universidade Paranaense(UNIPAR) Paranavaí-PR-Brasil rogeriovandresen@gmail.com, wmagalhaes@unipar.br

Leia mais

Ferramenta para instanciação de processos de software que permite o gerenciamento de projetos de desenvolvimento distribuído

Ferramenta para instanciação de processos de software que permite o gerenciamento de projetos de desenvolvimento distribuído Ferramenta para instanciação de processos de software que permite o gerenciamento de projetos de desenvolvimento distribuído Ana Paula Chaves 1, Jocimara Segantini Ferranti 1, Alexandre L Erário 1, Rogério

Leia mais

EMISSÃO DE CERTIFICADOS ELETRÔNICOS NOS EVENTOS DO INSTITUTO FEDERAL CATARINENSE CÂMPUS VIDEIRA

EMISSÃO DE CERTIFICADOS ELETRÔNICOS NOS EVENTOS DO INSTITUTO FEDERAL CATARINENSE CÂMPUS VIDEIRA EMISSÃO DE CERTIFICADOS ELETRÔNICOS NOS EVENTOS DO INSTITUTO FEDERAL CATARINENSE CÂMPUS VIDEIRA Jeferson Boesing 1 ; Tiago Heineck 2 ; Angela Maria Crotti da Rosa 3 ; Leila Lisiane Rossi 4 INTRODUÇÃO Alunos

Leia mais

Requisitos de Software. Requisitos de Software. Requisitos de Software. Requisitos de Software. Requisitos de Software. Requisitos de Software

Requisitos de Software. Requisitos de Software. Requisitos de Software. Requisitos de Software. Requisitos de Software. Requisitos de Software INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DO RIO GRANDE DO NORTE Curso Técnico em Informática ENGENHARIA DE SOFTWARE Prof.: Clayton Maciel Costa clayton.maciel@ifrn.edu.br Clayton Maciel Costa

Leia mais

VERIFICAÇÃO DA APRENDIZAGEM DE UNIVERSITÁRIOS QUE USARAM UM SOFTWARE EDUCATIVO SOBRE LÓGICA

VERIFICAÇÃO DA APRENDIZAGEM DE UNIVERSITÁRIOS QUE USARAM UM SOFTWARE EDUCATIVO SOBRE LÓGICA VERIFICAÇÃO DA APRENDIZAGEM DE UNIVERSITÁRIOS QUE USARAM UM SOFTWARE EDUCATIVO SOBRE LÓGICA Resumo Elaine Pasqualini 1 - FATEC-OURINHOS Sílvia H. de Oliveira Santos 2 - FATEC-OURINHOS Viviane de F. Bartholo

Leia mais

SISTEMA COMPUTACIONAL PARA ANÁLISES DE DADOS EM AGRICULTURA DE PRECISÃO

SISTEMA COMPUTACIONAL PARA ANÁLISES DE DADOS EM AGRICULTURA DE PRECISÃO UNIVERSIDADE FEDERAL RURAL DO RIO DE JANEIRO INSTITUTO DE TECNOLOGIA DEPARTAMENTO DE ENGENHARIA PROJETO SISTEMA COMPUTACIONAL PARA ANÁLISES DE DADOS EM AGRICULTURA DE PRECISÃO ALUNO RICARDO CARDOSO TERZELLA

Leia mais

Questionário. A ferramenta auxilia na alocação de Não (0) x x x. Satisfatório (5) complexidade de um caso de uso? de uso (72) Sim (10)

Questionário. A ferramenta auxilia na alocação de Não (0) x x x. Satisfatório (5) complexidade de um caso de uso? de uso (72) Sim (10) Questionário Nível Avaliado Gerador de plano de teste Gerador de dados Função/característica do produto Gestão dos dados do plano de teste (51) Perguntas Pontuação Selenium BadBoy Canoo A ferramenta auilia

Leia mais

PROJETO E DESENVOLVIMENTO DE UM ROBÔ DE SERVIÇO INCORPORANDO AS VANTAGENS DE PROTOTIPAÇÃO RÁPIDA.

PROJETO E DESENVOLVIMENTO DE UM ROBÔ DE SERVIÇO INCORPORANDO AS VANTAGENS DE PROTOTIPAÇÃO RÁPIDA. PROJETO E DESENVOLVIMENTO DE UM ROBÔ DE SERVIÇO INCORPORANDO AS VANTAGENS DE PROTOTIPAÇÃO RÁPIDA. André Gustavo S. Conceição 1, Luciano F. Chaves 2, Luís Fernando A. Pereira 3 Pontifícia Universidade Católica

Leia mais

Tecnologia da Informação Aplicada a Gerenciamento de Acervo Documental Histórico

Tecnologia da Informação Aplicada a Gerenciamento de Acervo Documental Histórico Tecnologia da Informação Aplicada a Gerenciamento de Acervo Documental Histórico Kayo Delgado Medeiros de Almeida¹, Elon Gomes Vieira 2, Carlos Vitor de Alencar Carvalho 3, Magno Fonseca Borges 4, José

Leia mais

Suporte à Engenharia Reversa para o ambiente SEA

Suporte à Engenharia Reversa para o ambiente SEA Otavio Pereira Suporte à Engenharia Reversa para o ambiente SEA Orientador: Ricardo Pereira e Silva Universidade Federal de Santa Catarina - UFSC Departamento de Informática e Estatística - INE Florianópolis

Leia mais

Sistemas de Informação I

Sistemas de Informação I + Sistemas de Informação I Tipos de SI Ricardo de Sousa Britto rbritto@ufpi.edu.br + Introdução 2 n As organizações modernas competem entre si para satisfazer as necessidades dos seus clientes de um modo

Leia mais

DSI é o processo cujo objetivo é introduzir mudanças num sistema de informação, com objetivo de melhorar o seu desempenho.

DSI é o processo cujo objetivo é introduzir mudanças num sistema de informação, com objetivo de melhorar o seu desempenho. - DSI DSI é o processo cujo objetivo é introduzir mudanças num sistema de informação, com objetivo de melhorar o seu desempenho. Preocupação: Problema técnicos Mudança na natureza e conteúdo do trabalho

Leia mais

INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA CAMPUS AVANÇADO DE ARACATI PROJETO DE PESQUISA

INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA CAMPUS AVANÇADO DE ARACATI PROJETO DE PESQUISA INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA CAMPUS AVANÇADO DE ARACATI PROJETO DE PESQUISA IMPLEMENTAÇÃO DE SOLUÇÃO PARA AUTOMATIZAR O DESENVOLVIMENTO DE SOFTWARE UTILIZANDO A LINGUAGEM C#.NET

Leia mais

2 Jogos Educacionais. 2.1.Visão Geral de Jogos Educacionais

2 Jogos Educacionais. 2.1.Visão Geral de Jogos Educacionais 2 Jogos Educacionais Jogos estão presentes como uma prática habitual, eles tem sido concebidos como uma atividade lúdica que é bastante motivadora no processo de ensinoaprendizado. É assim que jogos educacionais

Leia mais