ISSN Fundação Educacional Guaçuana FEG Presidente Bruno Franco de Almeida

Tamanho: px
Começar a partir da página:

Download "ISSN 2236-0468. Fundação Educacional Guaçuana FEG Presidente Bruno Franco de Almeida"

Transcrição

1

2

3 ISSN Fundação Educacional Guaçuana FEG Presidente Bruno Franco de Almeida Faculdade Municipal Prof. Franco Montoro - FMPFM Diretor Geral Prof. Me. Márcio Antonio Ferreira Assessor da Direção - Prof. Me. João Paulo Barbosa Secretária Geral Profa. Alessandra Zaganin Falaschi Coordenadora do Curso de Administração Profa. Me. Marli Delfino Campos Coordenador do Curso de Ciências da Computação Prof. Dr. José Tarcísio Franco de Camargo Coordenador do Curso de Engenharia Ambiental Prof. Dr. Mário Roberto Barraza Larios Coordenadora do Curso de Engenharia Química Profa. Dra. Vanessa Dias Alves Coordenadora do Curso de Nutrição Profa. Me. Daniela Soares de Oliveira Coordenadora do Curso de Psicologia Profa. Esp. Luciene Aparecida Scanavachi de Jesus Editor: Prof. Dr. Norian Marranghello - Professor de Sistemas Digitais - UNESP - Campus de São José do Rio Preto Co-Editor: Prof. Dr. José Tarcísio Franco de Camargo Conselho Editorial Profa. Dra. Ana Olivia Barufi Franco de Magalhães Prof. Dr. Antonio Medina Rivilla Universidad Nacional de Educación a Distáncia (España) Profa. Dra. Daniela Melaré Universidade Aberta de Lisboa (Portugal) Prof. Dr. Erico Fernando Lopes Pereira-Silva Prof. Dr. Francisco García García Universidad Complutense de Madrid (España) Prof. Dr. João Alexandre Bortoloti Prof. Dr. José Tarcísio Franco de Camargo Profa. Dra. Maria Suzett Biembengut Santade Prof. Dr. Moacyr Rodrigo Hoedmaker de Almeida Prof. Dr. Norian Marranghello - UNESP Prof. Dr. Paulo Roberto Alves Pereira Pareceristas Prof. Dr. Alexandre César Rodrigues da Silva (UNESP) Prof. Dr. Alexandre Levada (UFSCar) Profa. Dra. Ana Carolina Lorena (UFABC) Prof. Dr. José Arnaldo Roveda (UNESP) Profa. Dra. Maria Istela Cagnin (UFMS) Prof. Dr. Pedro Corrêa ((USP) Profa. Dra. Sarita Mazzini Bruschi (USP) Prof. Dr. Tiago de Oliveira (UFABC) Prof. Dr. Wagner Luiz Alves de Oliveira (UEFS) Prof. Dr. Wagner Tanaka Botelho (UFABC)

4 Diagramação e Arte Edmar Pereira Gilson Anacleto da Mota Editora FMPFM FICHA CATALOGRÁFICA Ficha Catalográfica: Adriano Madaleno Miossi CRB 8 / nº 6981 Os textos publicados na revista são de inteira responsabilidade de seus autores. Permite-se a reprodução desde que citada a fonte e o autor. Endereço para correspondência e contato: REVISTA INTERCIÊNCIA & SOCIEDADE Faculdade Municipal Professor Franco Montoro FMPFM Rua dos Estudantes, s/nº, Cachoeira de Cima, Caixa Postal 293, CEP: Mogi Guaçu - SP. Fone: (19) e Homepage: www. fmpfm.edu.br revista@fmpfm.edu.br

5 EDITORIAL Há cerca de dois anos, quando eu iniciava o planejamento do II Workshop do Programa de Pós-Graduação em Ciência da Computação (WPPGCC) da UNESP, em conversa com o Prof. Dr. José Tarcísio Franco de Camargo sugeri a possibilidade de lançarmos um número especial da revista, com artigos do referido evento. O Prof. Tarcísio gostou da ideia e a levou ao Prof. Dr. Estéfano Vizconde Veraszto, diretor da Faculdade Municipal Professor Franco Montoro (FMPFM), e ao Prof. Dr. Moacyr Rodrigo Hoedmaker de Almeida, editor da revista, que se interessaram pelo projeto e me invitaram a atuar como editor convidado deste número especial, o que aceitei com muito entusiasmo. O II WPPGCC ocorreu nos dias 19 e 20 de abril de 2012, tendo contado com cinco palestras convidadas, mais 34 trabalhos apresentados pelos alunos do programa. Os palestrantes que nos deram a honra de compartilhar suas experiências foram: o Prof. Dr. Gerhard Wilhelm Dueck, Diretor do Escritório de Relações Internacionais da Universidade de New Brunswick, Canadá; o Prof. Dr. Paulo César Masiero, membro do Comitê Assessor de Ciências de Computação da CAPES e docente da USP de São Carlos; a Profª Drª Silvana Aparecida Borsetti Gregório Vidotti, docente da UNESP de Marília, representando a Profª Drª Marilza Vieira Cunha Rudge, Pró-Reitora de Pós -Graduação (ProPG) da UNESP; o Prof. Dr. José Celso Freire Júnior, assessor chefe de relações externas (AREx) da UNESP; e o Prof. Dr. Aparecido Nilceu Marana, coordenador do PPGCC/UNESP. Além dos palestrantes convidados, contamos também com a inestimável colaboração do Prof. Dr. Moacir Pereira Ponti Júnior, da USP de São Carlos; do Prof. Dr. Tiago de Oliveira, da UNIFESP; e do Prof. Dr. Wagner Tanaka Botelho, da UFABC. Estes professores foram responsáveis por um trabalho que considero muito importante e que desejávamos fazer desde a primeira edição do nosso workshop, qual seja, a avaliação, tanto dos trabalhos apresentados quanto do evento propriamente. Entendo que esta avaliação externa por colegas de outras instituições é muito importante, para nortear nossas discussões sobre futuras ações com vistas à evolução do PPGCC/UNESP. Da seleção feita pelos avaliadores convidamos 12 trabalhos, três de cada uma das linhas de atuação dos docentes do PPGCC/UNESP, a saber: Arquiteturas de Computadores e Sistemas Distribuídos; Engenharia de Software e Bancos de Dados; Visão Computacional e Processamento de Imagens; e Matemática Computacional e Inteligência Artificial. Nos últimos seis meses estive, junto com o corpo de revisores, trabalhando nesses artigos e, por fim, chegamos ao conjunto de 10 artigos que compõem esta edição especial da revista. Gostaria de agradecer a todos aqueles que contribuíram para o sucesso de nosso workshop, bem como para a realização deste número especial da revista. Todos foram muito importantes para que pudéssemos concluir essas atividades com o devido êxito. Não me arriscarei a citar cada indivíduo que contribuiu por duas razões: primeiro, porque provavelmente eu incorreria na injustiça de esquecer algum nome; e segundo, porque a lista ficaria, certamente, muito longa. Todavia, acho importante mencionar algumas instituições que concorreram para o bom termo de nosso evento e, ao citá-las, estendo meus agradecimentos a todos os seus colaboradores que, direta ou indiretamente, se envolveram com o nosso evento, são elas: FAPESP, FUNDUNESP, VUNESP e a UNESP/PROPG, pelo apoio financeiro; UNESP/AREx, UNESP/PPGCC, UNESP/IBILCE/GBD e UNESP/IBILCE/ SEDI, pelo apoio logístico; às direções das quatro unidades envolvidas com o PPGCC, quais sejam: FC/Bauru, FCT/Presidente Prudente, IGCE/Rio Claro e IBILCE/São José do Rio Preto, pelos apoios financeiro e logístico; e à direção da FMPFM por todo o apoio relativo à edição da revista. Acredito que o resultado deste trabalho tenha se materializado em um conjunto de artigos cuja leitura seja proveitosa a todos.meus agradecimentos e boa leitura. Norian Marranghello Editor Convidado

6

7 SUMÁRIO GESTÃO DE RECURSOS HUMANOS EM PROJETOS DE SOFTWARE: PROPOSTA INTEGRADA AO PROCESSO PESSOAL ESTECA, Antonio Marcos Neves; SOUZA, Rogéria Cristiane Gratão; SANTOS, Adriana Barbosa; VALÊNCIO, Carlos Roberto 09 APLICAÇÕES DO FLUXO DE RICCI À TEORIA DA RELATIVIDA- DE GERAL: ESTUDO DOS BURACOS NEGROS FRANCHI, Claudia M. G. Gonçalves; BORGES, Manoel Ferreira Neto 19 DESENVOLVIMENTO DE UM SISTEMA PARA NAVEGAÇÃO DE ROBÔS MÓVEIS POR CAMINHOS EM PLANTAÇÕES JODAS, Danilo Samuel; PEREIRA, Aledir Silveira; GUIDO, Rodrigo Capobianco 27 ANÁLISE DE FORMAS PLANAS EM IMAGENS DIGITAIS SOUZA, Gustavo Botelho de; MARANA, Aparecido Nilceu 39 ARQUITETURA DE UM SISTEMA MULTIAGENTE AUTÔNOMO PARA SUPERVISÃO E CONTROLE QUEIROZ, Jonas Felipe Pereira de; GUILHERME, Ivan Rizzo 51 SIMULAÇÃO DE PROBLEMAS DE ELETROHIDRODINÂMICA USANDO O MÉTODO DOS ELEMENTOS FINITOS MOMENTE, Julio Cesar; MACHADO, José Márcio 63 BUSCA QUÂNTICA EM BANCOS DE DADOS XML USANDO AL- GORITMO DE GROVER PONTES, Michael A.; BORGES, Manoel F. CARACTERIZAÇÃO DE LESÕES DE PELE EM IMAGENS DIGI- TAIS A PARTIR DA MÁQUINA DE VETOR DE SUPORTE OLIVEIRA, Roberta Barbosa; GUIDO, Rodrigo Capobianco; MARRANGHELLO, Norian; ARAUJO, Alex F. de; TAVARES, João Manuel R. S.; ROSSETTI, Ricardo Baccaro; PEREIRA, Aledir Silveira 71 83

8

9 GESTÃO DE RECURSOS HUMANOS EM PROJETOS DE SOFTWARE: PROPOSTA INTEGRADA AO PROCESSO PESSOAL ESTECA, Antonio Marcos Neves Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP) SOUZA, Rogéria Cristiane Gratão Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP) SANTOS, Adriana Barbosa Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP) VALÊNCIO, Carlos Roberto Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP) RESUMO: A qualidade de software representa um atributo cada vez mais importante para a sobrevivência e crescimento das indústrias de software. Visando a garantia da qualidade dos produtos construídos, várias práticas têm sido incorporadas ao processo de desenvolvimento. Neste contexto, algumas organizações produtoras de software bem-sucedidas estão investindo em uma abordagem diferenciada para a gestão de recursos humanos, que consiste em integrar as atividades gerenciais a um processo pessoal de software denominado Personal Software Process - PSP, o qual tem levado a manutenção de maior disciplina e controle sobre todas as fases do desenvolvimento. Diante disso, este trabalho apresenta uma proposta para a integração das técnicas estabelecidas no PSP a um sistema web previamente desenvolvido, denominado Sistema de Apoio à Gerência de Projetos - SAGP. PALAVRAS CHAVE: Qualidade de software, Gerenciamento de recursos humanos, Processo pessoal. ABSTRACT: The software quality represents a more and more important attribute for the survival and growth of software industries. In order to ensure the quality of products manufactured, various practices have been incorporated into the development process. In this context, some successful software organizations have invested in an approach to human resource management, which consists in integrating the management activities with a personal process called Personal Software Process - PSP, which has led to the maintenance of greater discipline and control over all development phases. Given this, this work presents a proposal for integration of techniques set out in the PSP with a web system previously developed, which is called System to Aid Project Management - SAPM. KEYWORDS: Software quality, Human resources management, Personal process. 1. INTRODUÇÃO A atual concorrência entre organizações tem tornado cada vez mais necessária a obtenção de informações de maneira rápida e segura, para que decisões adequadas possam ser tomadas em tempo hábil, de modo a aumentar o potencial competitivo das empresas. Com isso, os processos organizacionais tornam-se dependentes de sistemas de informação, o que eleva a demanda por software de qualidade (SILVA, 2006). Neste contexto, é necessário incorporar um conjunto de boas práticas ao processo de desenvolvimento de software, dentre as quais está a gerência dos projetos, que consiste na aplicação de conhecimentos, habilidades, ferramentas e técnicas nas atividades do projeto a fim de atender 9

10 (ISSN: ) - Vol. 3, N. 1, 2014 aos requisitos, bem como satisfazer as necessidades e expectativas dos interessados (stakeholders) (PRESSMAN, 2006; SOM- MERVILLE, 2007; PMBOK, 2008). Porém, apesar das técnicas de gerenciamento estarem em constante aperfeiçoamento, os resultados obtidos nos projetos de desenvolvimento de software ainda estão muito aquém do esperado, conforme revela o estudo CHAOS (STANDISH GROUP, 2009), segundo o qual 44% dos projetos concluídos apresentam alterações em relação às estimativas iniciais, 24% falham e apenas 32% são concluídos com sucesso e dentro das expectativas iniciais. Assim, com o intuito de obterem melhores resultados em seus projetos, organizações produtoras de software bem- -sucedidas têm adotado uma abordagem diferenciada em relação à gestão dos recursos humanos, considerando a integração dos benefícios oriundos de um processo para capacitação individual e monitoramento rigoroso dos membros da equipe, denominado Personal Software Process PSP, com a realização sistemática de atividades gerenciais. Como resultado, tem-se a manutenção de maior disciplina e controle em todas as fases do desenvolvimento e, conseqüentemente, um significativo aumento da taxa de sucesso dos projetos (HUM- PHREY, 2005). De modo geral, o PSP pode ser definido como um processo de auto- -melhoria que incorpora gradualmente um conjunto de roteiros, formulários, medições e padrões ao trabalho dos desenvolvedores de software com o intuito de ajudá-los a controlar, administrar e melhorar o modo como trabalham (HUMPHREY, 2005). Segundo um dos principais guias de apoio ao gerenciamento de projetos, o Project Management Body of Knowledge PMBoK (PMBOK, 2008), a gestão de recursos humanos representa uma das nove áreas de conhecimento que devem ser consideradas durante a gerência de um projeto. Neste contexto, este trabalho apresenta uma proposta de expansão de um sistema web de apoio à gerência de projetos, buscando viabilizar a efetivação das atividades relacionadas à gerência de recursos humanos baseada em parâmetros obtidos a partir de um processo pessoal, o PSP. Para tanto, é proposta a integração das técnicas do PSP ao Sistema de Apoio à Gerência de Projetos - SAGP (ESTECA, 2010; SOUZA, et al., 2011), que foi previamente desenvolvido pelo Grupo de Estudos e Pesquisas em Engenharia de Software (GEPES) com o intuito inicial de apoiar a aplicação das diretrizes do guia PMBoK às atividades cotidianas de gerenciamento de projetos. Com tal proposta, espera-se que os potenciais benefícios e vantagens do PSP, capazes de contribuir para a melhoria da maturidade dos recursos humanos (HUMPHREY, 2005), possam ser adequadamente explorados pelos gerentes de projetos de software, auxiliando na efetivação de suas atividades. O restante deste artigo está organizado da seguinte forma: na seção 2 são apresentados trabalhos relacionados à gestão de projetos e ao PSP; na seção 3 é apresentada a metodologia adotada para o desenvolvimento deste trabalho; na seção 4 são apresentados os resultados obtidos; por fim, na seção 5, são apresentadas as considerações finais e propostas para trabalhos futuros. 2. Trabalhos Relacionados Uma gerência eficiente dos recursos humanos pode trazer importantes benefícios às organizações, tais como: melhor seleção de recursos humanos; maior controle sobre os recursos humanos; maior comprometimento dos membros da equipe; maior eficácia no gerenciamento de conflitos; entre outros (HUMPHREY, 2005; OLI- VEIRA, 2009; PMI, 2011). Diante disso, diversos trabalhos vêm sendo publicados em torno desse assunto, sendo que a maioria concentra-se na proposta e avaliação de boas práticas gerenciais (KOCHAN, 2004; KISHORE, et al., 2005; ESTEVES, 2008; PMBOK, 2008). Além disso, alguns trabalhos propõem ferramentas computacionais de apoio a gerência de recursos humanos (MENVIE, 2012; MSPROJECT, 2012; PRIMAVERA, 2012; RHTM, 2012), visando maior agilidade na execução das atividades relacionadas. O emprego do PSP, por sua vez, também contribui para a obtenção de resul- 10

11 (ISSN: ) - Vol. 3, N. 1, 2014 tados positivos no cotidiano das organizações, dentre os quais destacam-se (WO- HLIN, 1998): aumento da produtividade; diminuição da taxa de produção de defeitos; melhoria da qualidade dos produtos de software; estimativas de custo e cronograma cada vez mais próximas da realidade; diminuição do tempo de realização de testes nos produtos de software e consequente redução do tempo total de desenvolvimento; atendimento, pelo menos parcial, de 12 das 18 Key Process Areas (KPAs) do Capability Maturity Model (CMM); geração de indicadores sobre os desenvolvedores. Devido aos benefícios que pode trazer, as publicações em torno do PSP concentram-se no estudo de suas potenciais contribuições em diferentes contextos (WOHLIN, 1998; LEE; BAIK, 2008). Porém, também destacam-se trabalhos que abordam a criação de ferramentas computacionais de apoio ao seu emprego (ETXANIZ, 2007; SHIN; CHOI; BAIK, 2007), bem como a proposição de adaptações que permitam adequá-lo a realidades específicas (BU- BLITZ, 1999; WILLIAMS, 2000). Cabe ressaltar que, durante a revisão bibliográfica, não foram encontrados trabalhos que abordassem em conjunto os temas gerência de recursos humanos em projetos e PSP, o que atesta a originalidade deste trabalho. 3. Metodologia A metodologia adotada para o desenvolvimento deste trabalho dividiu-se em três principais etapas: - Revisão bibliográfica: esta etapa consistiu na seleção e estudo de artigos relacionados aos temas abordados, com o intuito de identificar o estado da arte e, com isso, demonstrar a originalidade e contribuições do presente trabalho; - Integração do PSP ao SAGP: esta etapa consistiu na definição da forma como as técnicas propostas pelo PSP poderiam ser incorporadas ao SAGP de modo a apoiar o processo de melhoria da maturidade dos recursos humanos e, ao mesmo tempo, auxiliar os gerentes de projetos de software em suas atividades. Com isso, foram definidas as funções que o sistema deve oferecer aos usuários, garantindo uma abrangência adequada; - Projeto de interface: esta etapa consistiu na projeção de uma interface que permitisse o emprego do PSP tanto em nível pessoal, pelos recursos humanos em geral, como em nível de projeto, pelos gerentes de projetos de software, com o intuito de apoiar a efetivação de suas atividades de maneira ágil e consistente com o uso do SAGP. A partir destas etapas, foram estabelecidos os requisitos funcionais capazes de nortear a expansão do SAGP, de forma a contribuir para a qualidade do trabalho realizado tanto pelos membros da equipe de desenvolvimento de software quanto pelos gerentes de projetos, o que deverá conduzir a uma melhoria da qualidade dos projetos de software desenvolvidos. 4. Resultados Obtidos A partir da metodologia adotada, inicialmente foram identificadas as funções que o sistema deve oferecer para apoiar adequadamente o emprego do PSP a nível pessoal e também pelos gerentes de projetos para obtenção de informações que os auxiliem em suas tomadas de decisão. Para tanto, foram estabelecidos os requisitos funcionais (RFs) a serem contemplados pelo sistema em desenvolvimento, os quais estão apresentados no Quadro 1, sendo organizados em sete categorias: uma geral e outras seis referentes a cada nível do PSP. A categoria geral reúne os requisitos cujo principal objetivo é viabilizar a integração do PSP ao SAGP, enquanto as outras seis reúnem os requisitos específicos necessários para atender a cada nível do PSP. 11

12 (ISSN: ) - Vol. 3, N. 1, 2014 Quadro 1: Requisitos identificados para a integração do PSP ao SAGP. Requisito Descrição RF. 1 RF. 2 RF. 3 RF. 4 RF. 5 RF. 6 RF. 7 RF. 8 RF. 9 Registro do interesse em empregar o PSP nos projetos Disponibilização de painel para apresentação de indicadores pessoais Apresentação das atividades do projeto aos recursos humanos responsáveis Controle do fluxo de trabalho entre os recursos humanos para registro dos dados obtidos nos testes dos programas Geração do sumário do plano de projeto Disponibilização de instruções do PSP Registro dos programas a serem construídos Definição de atividades pessoais Estimativa de tempo de construção dos programas RF. 10 Disponibilização dos logs de registro de tempo e defeitos RF. 11 RF. 12 Registro da conclusão de atividades e programas Registro do padrão de codificação Requisitos gerais Durante o cadastro de um projeto, o sistema deve registrar o interesse do gerente do projeto em empregar o PSP para que sejam disponibilizadas informações geradas pelo processo. Da mesma forma, deve ser registrado o interesse dos recursos humanos em empregar o PSP, bem como o nível desejado, para que eles possam ter acesso a uma área exclusiva de emprego do PSP. Observa-se que só poderão ser selecionados níveis já empregados em projetos anteriores ou um nível acima do mais alto, como forma de garantir um ganho gradual de maturidade. O sistema deve disponibilizar um painel em que os gerentes de projetos possam acessar indicadores gráficos e numéricos gerados sobre os recursos humanos a partir da aplicação individual do PSP. O sistema deve apresentar as atividades de cada recurso humano na área exclusiva do PSP, direcionando a definição das atividades pessoais. O sistema deve permitir que os programas criados por um recurso humano possam ser testados por outros e que os dados sobre os testes sejam armazenados dentre os registros do autor do programa, conforme proposto pelo PSP. O sistema deve reunir, sumarizar e organizar os dados registrados pelos usuários sobre cada programa desenvolvido para gerar o sumário do plano de projeto. O sistema deve disponibilizar instruções que guiem os usuários no emprego do PSP. Requisitos referentes ao PSP 0 O sistema deve permitir que cada recurso humano que esteja empregando o PSP possa registrar o nome e a linguagem dos programas que irá construir. O sistema deve permitir que sejam registradas as atividades a serem realizadas para a construção de cada programa. O sistema deve permitir que os recursos humanos registrem a quantidade total de minutos que esperam gastar para o desenvolvimento de cada programa. O sistema deve oferecer um dispositivo que registre o tempo gasto pelos recursos humanos para o desenvolvimento de cada atividade pessoal, bem como a duração das interrupções ocorridas. Além disso, para cada defeito encontrado, deve ser registrado o tempo gasto para corrigi-los e a fase em que foram injetados e removidos. O sistema deve permitir que os recursos humanos mantenham atualizado o status das atividades pessoais e dos programas (em andamento ou concluídos). Requisitos referentes ao PSP 0.1 O sistema deve permitir que os recursos humanos registrem o padrão de codificação empregado para cada linguagem de programação, o qual deverá ser seguido para viabilizar um adequado processo de medição e manutenção de software. 12

13 (ISSN: ) - Vol. 3, N. 1, 2014 RF. 13 RF. 14 RF. 15 RF. 16 RF. 17 RF. 18 RF. 19 Registro dos dados obtidos com as medições de software Disponibilização de formulário para coleta de sugestões para melhoria do processo Disponibilização do método PROxy-Based Estimating (PROBE) para estimativa de tamanho e tempo de desenvolvimento de programas Cálculo do intervalo de previsão de 70% Registro do tempo estimado para cada atividade Distribuição automática do tempo estimado entre as fases do PSP. Geração do planejamento de tempo dos usuários O sistema deve permitir que os usuários registrem o tamanho (em linhas de código) dos programas construídos. As linhas de código devem ser classificadas de acordo com o tipo, conforme proposto pelo PSP: linhas do código base, linhas adicionadas, linhas modificadas, linhas deletadas, linhas reusadas. O sistema deve permitir que os usuários cadastrem propostas para a melhoria do processo pessoal de desenvolvimento de software. Requisitos referentes ao PSP 1 O sistema deve oferecer funções que permitam que os usuários empreguem o método PROBE para estimativa de tamanho e tempo de desenvolvimento de programas. Para tanto, deve ser possível: registrar um proxy para cada linguagem de programação, o qual consiste em uma unidade de programação, como objetos, classes ou arquivos de um programa; cadastrar categorias funcionais de proxies, que são os tipos de funções que um proxy pode assumir (cálculos, busca, etc); registrar dados históricos (tamanho e função) de proxies obtidos em programas já concluídos; gerar automaticamente a tabela de tamanho relativo, que apresenta o tamanho médio de um proxy de cada categoria funcional para cada tamanho relativo (muito pequeno, pequeno, médio, grande e muito grande), mostrando, por exemplo, o tamanho médio de uma classe em Java (proxy) que realiza buscas (categoria funcional) e é muito grande (tamanho relativo); registrar as partes estimadas para composição de um programa, sendo possível que o usuário declare quantas unidades de cada tipo de proxy são esperadas em um programa, bem como o tamanho relativo esperado. A partir disso, o sistema deve executar os cálculos para estimativa de tamanho (em linhas de código) e tempo (em minutos) de desenvolvimento do programa e apresentar os resultados aos usuários. O sistema deve reunir dados históricos dos usuários e calcular o intervalo de variação no qual há 70% de probabilidade de caírem os valores de tamanho e tempo estimados pelo PROBE. O sistema deve permitir que os usuários estimem o tempo de duração de cada atividade envolvida na construção de um programa. No entanto, a soma do tempo de cada atividade não pode estar fora do intervalo de 70% calculado para o programa. Requisitos referentes ao PSP 1.1 O sistema deve permitir que o tempo estimado pelo PROBE para desenvolvimento de um programa seja distribuído automaticamente entre as fases do PSP, de acordo com o percentual histórico de cada usuário. Deste modo, o tempo total das atividades de uma determinada fase deve corresponder ao percentual de tempo comumente consumido pela fase. O sistema deve analisar o tempo de alocação de cada usuário nos projetos e, com isso, gerar o planejamento para execução de suas atividades pessoais com base na duração de cada uma delas. Esse planejamento deve envolver a distribuição do tempo de duração das atividades ao tempo de alocação do usuário ao projeto, resultando na definição da data de início e término de cada atividade. 13

14 (ISSN: ) - Vol. 3, N. 1, 2014 RF. 20 RF. 21 RF. 22 RF. 23 RF. 24 Cálculo automático do Cost Performance Index (CPI) Registro e disponibilização de checklist de revisão de código Disponibilização do checklist de revisão de projeto Cálculo automático de indicadores de qualidade Geração automática de estimativa do número de defeitos. RF. 25 Disponibilização dos modelos de especificação de projeto RF. 26 Disponibilização do checklist de revisão de projeto O sistema deve calcular automaticamente o CPI de cada usuário, o qual indica o percentual de variação do tempo real em relação ao tempo planejado para as atividades. Requisitos referentes ao PSP 2 O sistema deve permitir que o usuário registre o checklist de revisão de código, o qual varia de acordo com a linguagem empregada. Além disso, deve ser oferecido apoio ao emprego do checklist de revisão de código, permitindo registrar os itens já verificados em cada programa. O sistema deve oferecer apoio ao emprego do checklist de revisão de projeto, permitindo registrar os itens já verificados em cada programa. Este checklist não precisa ser registrado, pois é padrão para o PSP. O sistema deve reunir dados sobre os usuários para calcular automaticamente vários indicadores de qualidade propostos pelo PSP. O sistema deve gerar automaticamente a estimativa do número de defeitos, baseando-se nos dados históricos sobre o número de defeitos gerados para cada 1000 linhas de código produzidas. Requisitos referentes ao PSP 2.1 O sistema deve oferecer os quatro modelos de especificação de projeto propostos pelo PSP, a saber: modelo de especificação funcional, modelo de especificação operacional, modelo de especificação lógica e modelo de especificação de estados. Cada um desses modelos pode ser empregado para a descrição de cada programa O sistema deve oferecer um checklist de revisão de projeto mais detalhado, o qual é proposto pelo PSP. Os requisitos apresentados permitem constatar que a integração do PSP ao SAGP disponibilizará uma grande quantidade de informações sobre o trabalho desenvolvido pelos usuários, a qual será útil não apenas aos recursos humanos em geral, mas também aos gerentes de projetos, que poderão conhecer melhor as habilidades e dificuldades de cada membro de equipe dos projetos. Na Figura 1, é esquematizada tal integração, indicando que o funcionamento do sistema baseia-se na troca de dados gerados pelo SAGP e pelo novo componente. Verifica-se também que os membros de equipe dos projetos de software podem utilizar o SAGP de forma independente, usufruindo dos benefícios intrínsecos à uma ferramenta de apoio à gerência de projetos, ou de maneira integrada ao PSP, fornecendo e acessando seus dados por meio do componente de apoio ao PSP. Como o PSP é um processo incremental, o componente de apoio ao PSP fornecerá acesso gradual aos seus seis níveis, liberando recursos de um nível apenas quando o anterior já tiver sido empregado em algum projeto. 14

15 (ISSN: ) - Vol. 3, N. 1, 2014 Figura 1: Integração do SAGP ao componente de apoio ao PSP. A etapa posterior à identificação dos requisitos funcionais consistiu na elaboração de um projeto de interface que permitisse integrar o PSP ao SAGP de modo a facilitar e incentivar o seu uso tanto em nível individual, pelos recursos humanos dos projetos, como em nível de projeto, pelos gerentes de projetos. Na Figura 2, é apresentada a página inicial do SAGP, que é exibida ao usuário logo após a seleção de um dos projetos de seu portfólio. Como proposta de integração com o PSP, foi projetada a inserção de dois novos itens referentes ao PSP no menu original do SAGP. O item Indicadores do PSP dará acesso aos indicadores gerados pelo sistema sobre os recursos humanos que aplicam o PSP. Este item será exibido apenas aos usuários que podem acessar todas as informações do projeto, que são os gerentes de projetos e outros usuários escolhidos por eles. Já o item Área exclusiva permitirá que os recursos humanos acessem a área do sistema ilustrada na Figura 3, na qual serão disponibilizadas todas as funções de apoio ao emprego pessoal do PSP, bem como dados oriundos da aplicação do processo. Este item será exibido aos usuários que optaram por empregar o PSP no projeto selecionado. 15

16 (ISSN: ) - Vol. 3, N. 1, 2014 Figura 2: Menu principal do SAGP com destaque para os itens relacionados ao PSP. Figura 3: Página inicial da Área exclusiva para emprego do PSP. 16

17 (ISSN: ) - Vol. 3, N. 1, 2014 De modo geral, pode-se verificar que a interface projetada para integração do PSP ao SAGP tem como objetivo oferecer facilidade para os usuários, uma vez permitirá o acesso rápido aos indicadores do PSP e à área de emprego pessoal do processo. Além disso, conforme ilustrado na Figura 3, o menu de acesso às funções relacionadas ao emprego do PSP será organizado de acordo com os níveis do PSP, o que facilitará o uso da ferramenta por usuários que conhecem o processo e, por outro lado, facilitará o aprendizado por usuários inexperientes. 5. CONSIDERAÇÕES FINAIS E TRABA- LHOS FUTUROS Neste trabalho é apresentada uma proposta de integração das práticas estabelecidas pelo PSP a um ambiente web de apoio à gerência de projetos previamente desenvolvido, denominado SAGP. A partir desta proposta, buscou-se viabilizar a gerência de recursos humanos integrada ao processo pessoal fornecido pelo PSP. Com isso, espera-se contribuir para a melhoria da maturidade dos recursos humanos e, ao mesmo tempo, gerar e fornecer informações que possam direcionar os gerentes de projetos em suas tomadas de decisão, o que pode trazer diversos benefícios, tais como: definição de estimativas de tempo e custo mais próximas da realidade; melhor planejamento e controle da qualidade; seleção de recursos humanos pautada em dados históricos relevantes; entre outros. Por meio da metodologia adotada, foram definidos os requisitos funcionais a serem atendidos para a integração das práticas propostas pelo PSP ao SAGP. Além disso, foi projetada a interface para permitir aos usuários empregarem o PSP tanto em nível pessoal como em nível de projeto. No momento, os requisitos identificados estão sendo analisados para o estabelecimento de uma arquitetura de software capaz de nortear a etapa de implementação, seguindo a interface definida, de modo a obter um sistema completo e de fácil utilização. Os próximos passos deste trabalho visam concluir a arquitetura e a implementação do sistema para, posteriormente, realizar a validação junto a profissionais do mercado de tecnologia da informação, com o intuito de ratificar a contribuição do sistema desenvolvido, bem como identificar melhorias a serem incorporadas. Futuramente, pesquisas podem ser desenvolvidas de modo a integrar novos processos e métodos para a gestão de outras áreas de conhecimento em projetos, buscando obter um ambiente cada vez mais completo que permita a aplicação de métodos eficientes durante as atividades gerenciais, contribuindo para a obtenção de bons resultados aos projetos executados. REFERÊNCIAS BIBLIOGRÁFICAS BUBLITZ, J. C. Aplicação do modelo PSP - Personal Software Process em um protótipo de sistema de gerenciamento do setor de engenharia de segurança do trabalho. Monografia (Trabalho de conclusão de curso), Blumenau: Universidade Regional de Blumenau, ESTECA, A. M. N. Gerência de Projetos: Apoio automatizado para efetivação das atividades. Monografia (Trabalho de Conclusão de Curso), São José do Rio Preto: Universidade Estadual Paulista, ESTEVES, M. T. F. P. Práticas de gestão de recursos humanos e atitudes e comportamentos de trabalho: estudo de caso no sector bancário português. Tese (Doutorado) - Departamento de Psicologia Social e das Organizações, Instituto Superior de Ciências do Trabalho e da Empresa, Lisboa, ETXANIZ, I. A Tool to Improve the Software Process Quality in an R&D Center Using PSP. WSEAS Transactions on Information Science and Applications, v. 4, n. 4, p , Abril de HUMPHREY, W. S. PSP: A Self-Improvement Process for Software Engineers. Reading: Addison- -Wesley Publishers, p. KISHORE, A.; URBAN, T. P.; MOREIRA, M. M. S. C.; CODA, R. Gestão estratégica de recursos humanos a partir da dinâmica de sistemas. In: VIII Seminários em Administração FEA-USP, 2005, Anais... São Paulo: FEA-USP, KOCHAN, T. A. Restoring trust in the human resource management profession. Asia Pacific Journal of Human Resources, v. 42, n. 2, p , LEE, T.; BAIK, D. Cost Benefit Analysis of Personal Software Process Training Pro-gram. In Proceedings of the IEEE 8th International Conference on Computer and Information Technology Workshops, Sydney, Australia, p , Julho de

18 (ISSN: ) - Vol. 3, N. 1, 2014 MENVIE. Menvie Recursos Humanos. Disponível em: install/qualified_install.exe. Acesso em: 02/06/2012. MSPROJECT. Microsoft Project Disponível em: library/ ms507336(v=office.12).aspx. Acesso em: 02/06/2012. OLIVEIRA, R. A. A importância da gestão estratégica de recursos humanos no incremento do lucro - Um estudo de caso. Tese (Doutorado) - Departamento de Gestão de Empresas, Instituto Superior de Ciências do Trabalho e da Empresa, Lisboa, PMBOK. Guide of Project Management Body of Knowledge. 4 ed. Newtown Square: Project Management Institute PMI, PMI, Project Management Institute. PMSURVEY. ORG National Report. Brasil: Chapters Brasileiros, p. PRESSMAN, R. Software Engineering: A Practitioner s Approach. 7 ed. New York: McGraw- -Hill, p. PRIMAVERA. Primavera P6. Disponível em: primavera/index.html. Acesso em: 02/06/2012. RHTM. RHTM- Software de Gestão de Recursos Humanos. Disponível em: Acesso em: 28/01/2012. SHIN, H.; CHOI, H. J.; BAIK, J. JASMINE: A PSP Supporting Tool. In Proceedings of the 2007 Internacional Conference on Software Process, Minneapolis, USA, p , Maio de SILVA, R. A. C. PSP e métodos ágeis na melhoria da qualidade em produção de software: um estudo de caso. Dissertação (Mestrado). Viçosa: Universidade Federal de Viçosa, SOMMERVILLE, I. Software Engineering. 9 ed. New York: Pearson Addison Wesley, p. SOUZA, R. C. G.; ESTECA, A. M. N.; SANTOS, A. B.; VALÊNCIO, C. R.; HONDA, M. T. Web System to Aid Project Management. In Proceedings of the SEKE 23rd Conference on Software Engineering and Knowledge Engineering, Miami, USA, p , Julho de STANDISH GROUP. Chaos Report. Boston: The Standish Group International, WILLIAMS, L. A. The Collaborative Software Process. Tese (Doutorado), Utah: University of Utah, WOHLIN, C. The Personal Software Process as a Context for Empirical Studies. IEEE TCSE Software Process Newsletter, n. 12, p. 7-12, Antonio Marcos Neves Esteca nasceu em Ribeirão Preto, São Paulo, Brasil, em 10 de julho de Graduou- -se Bacharel em Ciência da Computação no Instituto de Biociências, Letras e Ciências Exatas da Universidade Estadual Paulista Júlio de Mesquita Filho em 2010, onde atualmente cursa Mestrado em Ciência da Computação. Possui interesse nos seguintes temas: Engenharia de Software, Processo de Software, Qualidade de Software, Arquitetura de Software e Gerência de Projetos. Rogéria Cristiane Gratão de Souza nasceu em São José do Rio Preto, São Paulo, Brasil, em 12 de novembro de Graduou-se Tecnóloga em Processamento de Dados na Faculdade de Tecnologia de Sorocaba em 1995, Mestre em Ciência da Computação na Universidade Federal de São Carlos em 1998 e Doutora em Engenharia Elétrica na Escola Politécnica da Universidade de São Paulo em Trabalha no Departamento de Ciências de Computação e Estatística do Instituto de Biociências, Letras e Ciências Exatas da Universidade Estadual Paulista Júlio de Mesquita Filho, onde é Professora Assistente Doutora desde Possui interesse nos seguintes temas: Engenharia de Requisitos, Processo de Software, Qualidade de Software e Gerência de Projetos. Adriana Barbosa Santos nasceu em Santos, São Paulo, Brasil, em 15 de abril de Graduou-se Bacharel em Estatística na Universidade Estadual de Campinas em 1986, Mestre em Estatística na Universidade Estadual de Campinas em 1991 e Doutora em Engenharia de Produção na Universidade de Federal de São Carlos em Trabalha no Departamento de Ciências de Computação e Estatística do Instituto de Biociências, Letras e Ciências Exatas da Universidade Estadual Paulista Júlio de Mesquita Filho desde 1989, onde é Professora Assistente Doutora. Possui interesse nos seguintes temas: Gestão da Qualidade, Seis Sigma, Gerenciamento de Projetos e Estatística Médica. Carlos Roberto Valêncio nasceu em São José do Rio Preto, São Paulo, Brasil, em 23 de maio de Graduou- -se Bacharel em Matemática no Instituto de Biociências, Letras e Ciências Exatas da Universidade Estadual Paulista Júlio de Mesquita Filho em 1985, Mestre em Ciência da Computação no Instituto de Ciências Matemáticas e de Computação da Universidade de São Paulo em 1994 e Doutor em Física Computacional no Instituto de Física da Universidade de São Paulo em Trabalha no Departamento de Ciências de Computação e Estatística do Instituto de Biociências, Letras e Ciências Exatas da Universidade Estadual Paulista Júlio de Mesquita Filho desde 1989, onde é Professor Assistente Doutor. Possui interesse nos seguintes temas: Banco de Dados, Análise de Dados e Engenharia de Software. Os autores agradecem à Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP) pelo apoio financeiro concedido a esta pesquisa (Processo no 2010/ ). 18

19 APLICAÇÕES DO FLUXO DE RICCI À TEORIA DA RELATIVIDADE GERAL: ESTUDO DOS BURACOS NEGROS FRANCHI, Claudia Maria Gregorini Gonçalves Instituto de Biociências, Letras e Ciências Exatas de São José do Rio Preto claudiafranchi@oi.com.br BORGES, Manoel Ferreira Neto Instituto de Biociências, Letras e Ciências Exatas de São José do Rio Preto borges@iblice.unesp.br RESUMO: O fluxo de Ricci é uma ferramenta analítica e, um análogo da equação do calor para a geometria, um processo difusivo que atua sobre as métricas de uma variedade Riemanniana e assim, pode ser utilizado na matemática para entender a topologia de variedades e também no estudo das teorias geométricas. Sendo assim, a curvatura de Ricci desempenha um papel importante na Teoria da Relatividade Geral, uma teoria geométrica, em que é o termo dominante nas equações de campo de Einstein. O presente trabalho tem como principais objetivos desenvolver e aplicar técnicas de fluxo de Ricci à Relatividade Geral, no caso, uma métrica Riemanniana tridimensional assintoticamente plana como um conjunto de dados iniciais para equações de Einstein e estabelecer relações e comparações entre os mesmos. PALAVRAS-CHAVE: matemática computacional, computação científica, relatividade, entropia. ABSTRACT: The flow of Ricci is an analytical tool, and a similar equation for heat geometry, a diffusive process which acts on a variety of metrics Riemannian and thus can be used in mathematics to understand the topology of varieties and also in the study geometric theories. Thus, the Ricci curvature plays an important role in the General Theory of Relativity, characterized as a geometric theory, which is the dominant term in the Einstein field equations. The present work has as main objectives to develop and apply Ricci flow techniques to general relativity, in this case, a three-dimensional asymptotically flat Riemannian metric as a set of initial data for Einstein equations and establish relations and comparisons between them. KEYWORDS: computational mathematics, scientific computing, relativity, entropy. 1. INTRODUÇÃO Historicamente foi no ramo da física que o fluxo de Ricci fez sua primeira aparição, em um grupo de renormalização para modelos bidimensionais sigma. Posteriormente, foi introduzido na matemática por Hamilton (HAMILTON, 1982) como uma ferramenta para o estudo da topologia das variedades. Hamilton (op. cit.), entre outros trabalhos, desenvolveu um programa, recentemente apresentado por Perelman, para provar a conjectura da geometrização de Thurston sobre a classificação de 3-variedades (PERELMAN, 2002, PERELMAN, 2003, PERELMAN, 2003). O fluxo de Ricci fora em princípio utilizado pelos matemáticos para entender a topologia de variedades em dimensão três (MORGAN; TIAN, 2006, HAMILTON, 1982). Pode-se observar a possibilidade destes desenvolvimentos matemáticos para a física, no estudo das teorias geométricas, como a Teoria da Relatividade Geral. O trabalho inicial fora desenvolvido por Richard Hamilton (op. cit.), sob a égide dos trabalhos de Eells e Sampson (EELLS; SAMPSON, 1964), ao qual Hamilton (op. 19

20 (ISSN: ) - Vol. 3, N. 1, 2014 cit.) faz referências em artigos de 1975 a 1982, em que, introduzem o mapa harmônico do fluxo de calor, fazendo uso do mesmo para provar a existência de mapas harmônicos e objetivando que as curvaturas seccionais não são positivas. Hamilton edifica seu estudo sobre problemas pertinentes ao estudo das Conjecturas de Poincaré e Smith (GIFFEN, 1966, ROLFSEN, 1976), culminando posteriormente na completa elaboração do programa de Geometrização de Thurston (THURSTON, 1982). Em 1974, Firey (FIREY, 1974) propôs que o fluxo de curvatura de Gauss modelaria as formas de pedras gastas e considerando o caso em que a superfície é invariante e, no caso, menor que a identidade. Gauss escreveu um trabalho sobre um problema físico, a situação das pedras nas praias, cujas ondas batem e promovem desgaste de maneira suave, de formas irregulares, às vezes aparentemente elipsoidais e até mesmo esféricas. Firey (op.cit.), iniciou o trabalho com uma idealização do processo de desgaste para materiais isotrópicos, em seguida, desenvolveu uma equação que rege-o e passou a evidenciar que uma pedra que é inicialmente convexa e com simetria central tendia a assumir uma forma esférica como consequência da equação que a rege. Em física, a Teoria da Relatividade Geral é a generalização da Teoria da gravitação de Newton e foi publicada em 1915 por Albert Einstein. Um dos elementos mais importantes da Teoria da Relatividade Geral é a interpretação geométrica da gravidade: a densidade da matéria numa certa região e, portanto a intensidade do campo gravitacional é proporcional à curvatura do espaço tempo na métrica pseudo- Riemanniana. Com a estrutura das variedades diferenciáveis é possível definir alguns objetos geométricos importantes para a obtenção e análise das soluções advindas da Teoria da Relatividade Geral de Einstein e assim fazer correlações com o fluxo de Ricci. Pode este objeto conseguir medir normas de vetores (ou co-vetores) do espaço tangente (ou co-tangente) à variedade. E ainda, pode ser o objeto responsável pela relação entre as componentes dos elementos dos espaços tangente e co-tangente. De acordo com a Teoria da Relatividade Geral, um buraco negro é uma região do espaço da qual nada pode escapar. Este é o resultado da deformação do espaço-tempo causada por uma matéria maciça e altamente compacta. Um buraco negro é limitado pela superfície denominada horizonte de eventos, que marca a região a partir da qual não se pode mais voltar. Partindo-se do princípio que os buracos negros são estruturas descritas no arcabouço matemático da Teoria da Relatividade Geral, pode-se descrevê-los por intermédio da geometria da Teoria da Relatividade Geral. Assim, o fluxo de Ricci, utilizado sobretudo para estudar o comportamento de variedades pode ser útil para o estudo da evolução dos buracos negros, uma vez que faz uso do mesmo ferramental matemático da Teoria da Relatividade Geral. Assim, nos próximos tópicos, far- -se-á uma breve exposição da Teoria da Relatividade Geral, evolução do estudo dos buracos negros e da ferramenta fluxo de Ricci e ao final, serão apresentadas relações entre a Teoria da Relatividade Geral e o fluxo de Ricci e também as considerações finais e conclusões do presente trabalho. 2. Teoria da relatividade geral A Teoria da Relatividade Geral (TRG) foi publicada em 1915 por Albert Einstein e, é a generalização da Teoria da Relatividade Especial (TRE). Um dos fundamentos da TRG é o Princípio de Equivalência, que estabelece que um referencial inercial não acelerado na presença de um campo gravitacional e um referencial acelerado, mas agora sem um campo gravitacional são fisicamente equivalentes. Essencialmente, a TRG é uma teoria clássica de campos a qual descreve os efeitos gravitacionais produzidos pela geometria do espaço-tempo, e é modelada por uma variedade pseudo-riemanniana livre de torção. Se a variedade em questão possui uma conexão com uma parte antissimétrica, a variedade é dita ser do tipo Riemann-Cartan e a teoria a qual correspondentemente descreve o campo gravitacional é chamada teoria de 20

21 (ISSN: ) - Vol. 3, N. 1, 2014 Einstein-Cartan (FRIEDRICH, 1976). Dentre as consequências mais importantes da TRG, pode-se citar a de deflexão da luz em um campo gravitacional, o redshift gravitacional, a precessão do periélio de Mercúrio e a previsão de ondas gravitacionais. O redshift gravitacional faz com que o comprimento de onda dos fótons diminua nas proximidades de um campo gravitacional suficientemente forte. O fenômeno da precessão do periélio de Mercúrio, já era estudado pela mecânica clássica, a qual computava um valor discrepante ao observado (HAWKING; ELLIS, 1976). As elipses que designam o movimento dos corpos celestes não são fechadas em virtude das perturbações de outros planetas, as quais alteram o ponto do periélio (ponto mais próximo do sol), fazendo assim o periélio precessionar. Mas a questão é que ainda restavam 43 por século nas previsões da Mecânica Clássica, o que foi interpretado por Einstein como modificações do espaço-tempo para tal situação. De acordo com as palavras de Einstein em seu trabalho de 1915: Nós iremos, portanto assumir a completa equivalência física entre um campo gravitacional e a correspondente aceleração de um sistema de referência. Esta hipótese estende o princípio da relatividade especial para sistemas de referência uniformemente acelerados. Conceitos como singularidades e estrutura causal (HAWKING; ELLIS, 1976), também ocorrem como previsões da Teoria da Relatividade Geral e serão abordados nos próximos tópicos. 2.1 Tensor de Curvatura O tensor de curvatura, também chamado tensor de Riemann-Christoffel é de grande importância na Teoria da Relatividade Geral. Quando vetores são transportados paralelamente num circuito fechado em uma variedade, eles geralmente sofrem transformações, estas sendo relacionadas com a curvatura da variedade em questão. O mapeamento local da curvatura é realizado pelo tensor de Riemann. A derivada covariante de um vetor contravariante tem a seguinte forma onde, são os símbolos de Christofell. Aplicando-se novamente a derivada covariante na equação (2), obtém-se, tal que, efetuando-se uma permutação inicial na equação (3), resulta, Subtraindo-se a equação (4) da equação (3), bem como se efetuando as substituições iniciais necessárias e levando-se em consideração a comutatividade das derivadas parciais bem como a simetria dos índices inferiores do símbolos de Christoffel, isto é,, a expressão rearranjada para o comutador torna- -se onde, o termo entre parênteses é identificado como tensor de Riemann pode-se notar que o tensor de Riemann aparece como um tensor de quarta ordem e, portanto, de 256 componentes. Mas, devido às propriedades de simetria e antissimetria, suas componentes se reduzem a 20 (SILVA, 2012), 2.2 Tensor de Ricci e escalar de curvatura Pode-se agora, por uma contração do tensor de Riemann, obter um tensor de segunda ordem que porta um número de 10 componentes independentes no caso mais geral, chamado tensor de Ricci, pela propriedade de simetria, pode-se dizer que o tensor de Ricci é simétrico, isto é, 21

22 (ISSN: ) - Vol. 3, N. 1, 2014 tal que, em termos das componentes de conexão, tem-se Pela propriedade de antissimetria pode-se assegurar que é o único tensor de segunda ordem que pode ser formado a partir do tensor de Riemann a menos de um sinal arbitrário. Também, pode-se contrair o tensor de Ricci e construir o escalar de Ricci, denominado escalar de curvatura e dado por, O escalar de Ricci especifica um número real em cada ponto da variedade em consideração, determinando a curvatura intrínseca da variedade nesse ponto (SIL- VA, 2012). 3. Buracos Negros A expressão buraco negro foi adotada em 1969, pelo cientista americano John Wheeler (WHEELER, 1969), como descrição gráfica de uma ideia que, retrocedendo pelo menos 200 anos, chega a um tempo em que John Michell (MICHELL, 1784) postulou que uma estrela com massa suficientemente compacta poderia ter um campo gravitacional tão forte que a luz não poderia escapar. Qualquer luz emitida pela superfície da estrela seria puxada de volta por uma atração gravitacional antes que conseguisse se afastar. Esses objetos são os chamados atualmente de buracos negros, pois são vácuos escuros no espaço. No entanto, uma teoria adequada que justifique como a gravidade atua sobre a luz só foi sugerida por Einstein (EINS- TEIN, 1905, EINSTEIN, 1905, EINSTEIN, 1915), em 25 de novembro de 1915, em um seminário onde, comunicou as equações finais da Teoria da Relatividade Geral para a Academia de Berlim. Mesmo assim, decorreu um longo período antes que as implicações da teoria para estrelas compactas fossem compreendidas. Em 1915, Karl Schwarzschild (SCHWARZSCHILD, 1916) encontrou entre 08 de novembro e o fim do ano, um mês após a publicação da Teoria da Relatividade Geral de Einstein, a Solução de Schwarzschild. Foi a primeira solução exata para as equações de campo de Einstein executando-se a solução trivial para o espaço plano. Nas coordenadas de Schwarzschild (op. cit.), a métrica poderia ser expressa como, em que, corresponde a constante de gravitação universal, é entendida como a massa do objeto e,, corresponde a um elemento de ângulo sólido. A constante é entendida como raio de Schwarzschild e desempenha uma função importante na solução de Schwarzschild. A métrica de Schwarzschild é a solução para as equações de campo gravitacional no vácuo, válida apenas externamente ao corpo em questão. Portanto, em um corpo esférico de raio, a solução é válida para. Se for menor que o raio de Schwarzschild, então a solução descreve o que seria um buraco negro. Para determinar o campo gravitacional dentro ou fora do corpo em questão, deve-se descobrir a solução de Schwarzschild para. Adotando-se ou, obtém-se a métrica de Minkowski, (MINKO- WSKI, 1907/1915), Em 1972, Jacob Bekenstein (BEKENSTEIN, 1973) propôs a ideia de que o horizonte de eventos seria uma medida da entropia de um buraco negro, verificou-se então que se o horizonte de eventos de um buraco negro fosse realmente uma medida de sua entropia, ele deveria emitir radiação, algo impossível para um buraco negro, já que por sua própria definição, nada pode sair de seu interior. A entropia é uma medida do número de estados internos que um buraco negro poderia ter sem parecer diferente para um observador externo, que pode apenas observar sua massa, rotação e carga e é dada pela seguinte equação: 22

23 (ISSN: ) - Vol. 3, N. 1, 2014 em que, = área do buraco negro, = constante de Planck, = constante de Boltzmann, = força gravitacional, e = velocidade da luz. As equações que governam todas estas interações eram longas e complexas, mas em uma das maiores percepções da física moderna, Stephen Hawking (HA- WKING, 1975) conseguiu unir todas essas equações em uma única expressão. Nessa elegante equação (14) estão todos os ramos da física que podem afetar um buraco negro, desde o do confuso mundo quântico ao da termodinâmica. A lógica que deriva dessa expressão é realmente muito elaborada, porém é uma fórmula simples. O horizonte de eventos, limite da região do espaço-tempo do qual não é possível escapar, age quase como uma membrana de direção única em volta do buraco negro, em que objetos podem cair dentro dele, mas nada, jamais, poderá sair de lá pelo mesmo caminho. O horizonte de eventos é a trajetória, através do espaço-tempo, percorrida pela luz que está tentando escapar do buraco negro, e nada pode se deslocar mais rapidamente do que a luz. definido pela equação de evolução geométrica, O fluxo de Ricci é um análogo da equação do calor para a geometria, que diz que o calor flui das regiões de maior temperatura para as regiões de menor temperatura, para se entender o comportamento da métrica sob a ação do fluxo de Ricci, substitui-se a palavra temperatura pela palavra curvatura, assim ocorre um processo difusivo que atua sobre a métrica de uma variedade Riemanniana onde, à medida que o tempo evolui, a métrica se altera de acordo com a equação do fluxo, como pode ser observado na figura 1, onde parte-se de uma variedade irregular (parte superior da figura) e então, o haltere irregularmente curvo relaxa em uma superfície curvada de modo uniforme, numa versão 2-dimensional do fluxo de Ricci (parte inferior da figura). 4. O Fluxo de Ricci Historicamente foi no ramo da física que o fluxo de Ricci fez sua primeira aparição, em um grupo de renormalização para modelos bidimensionais sigma. Posteriormente, foi introduzido na matemática por Hamilton (op. cit.) como uma ferramenta para o estudo da topologia das variedades. Entre outras coisas, desenvolveu um programa, recentemente apresentado por Perelman, para provar a conjectura da geometrização de Thurston sobre a classificação de 3-variedades (PERELMAN, 2002, PERELMAN, 2003, PERELMAN, 2003). O fluxo de Ricci é utilizado pelos matemáticos para entender a topologia de variedades em dimensão três, sendo estes desenvolvimentos matemáticos aplicados no estudo de teorias geométricas, como a Teoria da Relatividade Geral. Considerando-se o tensor métrico e o tensor de Ricci associados, funções da variável tempo, o fluxo de Ricci pode ser Figura 1: Comportamento da variedade sob a ação do fluxo de Ricci (disponível na Revista Science 22 Dezembro 2006 vol. 314, 5807, páginas ). 5. Teoria da Relatividade versus Fluxo de Ricci Sabendo-se que na Teoria da Relatividade Geral, a área de horizontes aparente é relacionada à entropia do buraco negro e a massa de Hawking uma 2-esfera assintótica é a energia ADM, pode-se desenvolver relações entre o fluxo de Ricci à teoria da Relatividade Geral, particularmente ao estudo dos buracos negros e sua evolução. 23

24 (ISSN: ) - Vol. 3, N. 1, 2014 Definida uma variedade Riemanniana com tensor métrico g ij, pode-se calcular o tensor de Ricci Rij, que contém informações sobre as médias das curvaturas seccionais em uma espécie de traço do tensor de curvatura de Riemann. Considerando-se o tensor métrico e o tensor de Ricci associados funções da variável tempo, o fluxo de Ricci pode ser definido pela equação de evolução geométrica. Seja M uma variedade fechada, define-se um fluxo de Ricci em M como sendo um parâmetro da família de métricas Riemannianas sobre M e que satisfaçam a equação, em que, é tensor da métrica e é o tensor da curvatura de Ricci e é o parâmetro tempo de deformação. O fluxo de Ricci tende a não preservar o volume da variedade, por isso, introduz-se a constante cosmológica, passando a ser denominado então, fluxo de Ricci normalizado, que faz sentido para variedades compactas e é dado pela equação: Sendo R avg, a média da curvatura escalar e a dimensão da variedade. Esta equação normalizada preserva o volume da métrica, sendo que o sinal negativo do fluxo de Ricci é definido para tempos positivos suficientemente pequenos. Se o sinal for alterado, o fluxo de Ricci normalmente será definido para os pequenos momentos negativos, o que evidencia a analogia entre a equação do calor que se apresenta positiva quando considerada a favor do tempo. Visando evidenciar a aplicabilidade ao estudo dos buracos negros, considera-se a variedade Riemanniana sendo assintoticamente plana e tridimensional. Definem- -se os buracos negros como as regiões do espaço-tempo a partir da qual escapar para o infinito é impossível e, portanto, referem- -se a uma estrutura assintótica. Exige-se que a métrica tenda a uma métrica plana fixa no infinito: Dada a métrica inicial g ij, o fluxo de Ricci evolui a métrica consoante ao seu tensor de Ricci. A evolução do parâmetro t e da família de métricas em satisfaz a equação de fluxo de Ricci, Equação (16). A equação de campo de Einstein é a lógica que encerra todas as suas conclusões sobre o espaço e o tempo em que,, representa a distorção do espaço-tempo produzida pelo tensor de Ricci,, expressa o potencial da gravidade (métrica),, representa a distorção escalar, é uma constante, representa o vetor energia impulso. Pode-se observar que a Teoria da Relatividade Geral e o fluxo de Ricci estão diretamente relacionados, pois ambas são teorias geométricas e ambas utilizam o tensor métrico. Como o fluxo de Ricci evolui com o tempo, pode-se utiliza-lo para entender alguns fenômenos da Relatividade Geral, como por exemplo, a formação de buracos negros. 6. CONSIDERAÇÕES FINAIS E CONCLU- SÕES Da analogia fluxo de Ricci versus equação do calor, convém observar outra, envolvendo ideias oriundas do orbe da termofísica, em 1972, Bekenstein (BEKENS- TEIN, 1973), como descrito anteriormente, foi o primeiro a sugerir que os buracos negros devem ter uma entropia bem definida. Então, formula a Segunda Lei Generalizada da Termodinâmica, para sistemas incluindo os buracos negros. Stephen Hawking (HA- WKING, 1975) propôs a existência da Radiação de Hawking e em princípio opôs-se a ideia de Bekenstein (op. cit.), quando da sua exposição primordial, não obstante, reviu os fatos indo além da premissa original. No escopo da termodinâmica, energia e entropia figuram como quantidades de interesse físico, em Relatividade Geral, assumem um significado puramente geométrico-diferencial: a entropia relaciona-se intrinsecamente com a área do horizonte do buraco negro e a energia para a massa ADM no infinito. Conjectura-se ser possível a partir do estudo das propriedades do fluxo de Ricci verificar as propriedades supra descritas 24

25 (ISSN: ) - Vol. 3, N. 1, 2014 relativas à entropia intrínseca dos buracos negros como as propriedades das variedades relativas ao fluxo de Ricci. Observando-se os trabalhos de Vulcanov e Rubinstein (VULCANOV, 2008, RUBINSTEIN, 2005), pode-se encontrar alternativas viáveis tanto do ponto de vista geométrico, em que pode-se utilizar as superfícies mergulhadas, como uma resolução do problema por métodos numéricos que tornam esse estudo e o desenvolvimento dos resultados possíveis. De acordo com o que foi demonstrado neste trabalho, a Teoria da Relatividade Geral é uma teoria eminentemente geométrica e isso valida o desenvolvimento de tal trabalho. Pode-se ainda, verificar que existem vários trabalhos em relatividade numérica na literatura, o que justifica o uso de métodos numéricos. 7. REFERÊNCIAS BIBLIOGRÁFICAS BEKENSTEIN, J. D.; Black Holes and Entropy, Physical, New York, US: American Physical Society Review, V. D7, p , CAO, H. D., XI, P.; Z; A Complete Proof of the Poincaré and Geometrization Conjectures - application of the Hamilton-Perelman theory of the Ricci flow, Asian Journal of Mathematics, 10, CARROL, S. M.; An Introduction to General Relativity - Space-time and Geometry, Pearson Education, San Francisco, USA, EELLS, J. and SAMPSON, J. H.; Harmonic mappings of Riemannian manifolds, American journal of mathematics, Baltimore, Md., US: American Mathematical Society, V. 86, n. 1, p , EINSTEIN, A.; On the Electrodynamics of Moving Bodies, Annalen der Physik, Leipzig, Alemanha, DE: Johann Ambrosius Barth Verlag, V. 17, p , 1905, doi: EINSTEIN A.; Does the Inertia of a Body Depend Upon Its Energy Content, Annalen der Physik, Leipzig, Alemanha, DE: Johann Ambrosius Barth Verlag, V. 18, p , EINSTEIN, A.; Die Feldgleichungen der Gravitation (The Field Equations of Gravitation), Koniglich Preussische Akademie der Wissenschaften, Berlin, p , FIREY, W. J.; Shapes of worn stones, Mathematica: Journal of pure and pplied mathematics, London, GB: University College, Department of Mathematics, V. 21, p. 1-11, FRIEDRICH W., HEHL, et. al., Rev. Mod. Phys., Vol. 48, GIFFEN, C. H.; The Generalized Smith Conjecture. American Journal Mathematics, n.88, p , HAMILTON, R.; Three-Manifolds with positive Ricci Curvature, Journal of Diferential Geometry, Bethlehem, Pa., US: American Mathematical Society, V. 17, n.2, p , HAWKING, S. W. and ELLIS, G. F. R.; The Large Scale Structure of Space-Time, Cambridge University Press, HAWKING, S. W.; Particle Creation by Black Holes, Communications in Mathematical Physics, New York, US: Springer Verlag, V. 43, p , MICHELL, J.; On the means of discovering the distance, magnitude etc. of the fixed stars, Philosophical Transactions of the Royal Society, p , & Tab III, MINKOWSKI, H.; Das Relativity atsprinzip, Annalen der Physik, Leipzig, Alemanha, DE: Johann Ambrosius Barth Verlag, V. 352, n. 15, p , 1907/1915, doi: MISNER, C. W, THORNE, K. S., and WHEELER, J. A.; Gravitacion, W. H. Freeman and Company, MORGAN, J., TIAN G.; Ricci Flow and the Poincaré Conjecture, American Mathematical Society, Clay Mathematics Institute, Translations of mathematical monographs / American Mathematical Society, Providence, RI, US, MULLINS, W. M.; Two-dimensional motion of idealized grain boundaries, ournal of applied physics, New York, US: American Institute of Physics, V. 27, p , PERELMAN, G.; The entropy formula for the Ricci and its geometric applications, arxiv: math/ v1, PERELMAN G.; Ricci ow with surgery on three- -manifolds, arxiv: math/ vol.1, PERELMAN, G.; Finite extinction time for the solutions to the Ricci on certain three-manifolds, arxiv: math/ v1, ROLFSEN, D. Knots and LINKS, W., DE: Publish or Perish Press, pp , RUBINSTEIN, J. H. and SINCLAIR, R., Exp.Math., 14, nr.3 (2005), math.dg/ SCHWARZSCHILD, K.; Uber das Gravitationsfeld eines Massenpunktes nach der Einstein schen Theorie, Sitzungsberichte der Preussischen Akademie der Wissenschaften. Physikalisch-mathematische 25

26 (ISSN: ) - Vol. 3, N. 1, 2014 klasse, Reimer, Berlin, S., V. 3, p , SILVA, P. M. G. L. T.; Uma Descrição da Expansão e Aceleração do Universo no Contexto das Teorias F(R), Joinvile, SC, THURSTON, W. P.; Three-dimensional manifolds, Kleinian groups and hyperbolic geometry, Bulletin of the American Mathematical Society, Lancaster, Pa., US: American Mathematical Society, V. 6, n. 3, p , VULCANOV, D. N.; Numerical simulations with Ricci flow on surfaces: A review and some recent results, Physics AUC, Vol. 18, p , WHEELER, J. A.; Our Universe: the Know and the unknow; The Physics Teacher, College Park, Md., US: American Association of Physics Teachers, V. 7, n. 1, p. 24, Claudia Maria Gregorini Gonçalves Franchi é graduada em Matemática (Licenciatura) pelo Centro Universitário de São José do Rio Preto - UNIRP. Pós Graduada (Lato Sensu) em Física pela Universidade Federal de Lavras - UFLA. Mestranda em Ciências da Computação pela Universidade Estadual Paulista - UNESP, na área de Matemática Computacional. Atualmente é professora na União das faculdades dos Grandes Lagos - UNILAGO, e no Colégio Futuro. Áreas de atuação: Matemática, Cálculo Diferencial, Cálculo Tensorial, Estatística, Física, Física- -Matemática, Computação e Radiologia. Manoel Ferreira Borges Neto é graduado em Física pela Universidade de Brasília (UnB), Doutorado em Matemática pelo Kings College - University of London e Pós-doutorado pelo Department of Mathematics and Applied Mathematics - University of Cape Town (UCT). Professor titular da Universidade Estadual Paulista (UNESP). Membro da International Association of Mathematical Physics (IAMP). Membro e revisor da American Mathematical Society (AMS). Membro da European Society of Computational Methods in Sciences and Engineering (ESCMSE). Co-fundador e membro permanente do World Peace and Diplomacy Forum (WPDF), Cambridge. Vasta experiência na área de matemática e matemática aplicada atuando principalmente nos temas: i) Geometrias Hipercomplexas; ii) Aspectos geométricos da Física-Matemática, notadamente das Teorias Alternativas da Gravitação, e suas relações com Variedades Topológicas; iii) Criptografia e Computação Quântica. 26

27 DESENVOLVIMENTO DE UM SISTEMA PARA NAVEGAÇÃO DE RO- BÔS MÓVEIS POR CAMINHOS EM PLANTAÇÕES JODAS, Danilo Samuel Universidade Estadual Paulista Julio de Mesquita Filho (UNESP) MARRANGHELLO, Norian Universidade Estadual Paulista Julio de Mesquita Filho (UNESP) PEREIRA, Aledir Silveira Universidade Estadual Paulista Julio de Mesquita Filho (UNESP) GUIDO, Rodrigo Capobianco Universidade Estadual Paulista Julio de Mesquita Filho (UNESP) RESUMO: A utilização de robôs móveis na agricultura mostra-se importante em tarefas de cultivo e na aplicação de agrotóxicos em quantidades mínimas para reduzir a poluição do meio ambiente. Neste artigo apresentamos o desenvolvimento de um sistema para controlar a navegação de um robô móvel autônomo por caminhos em plantações. O controle da direção do robô é realizado com base em imagens das trilhas as quais, após um processamento prévio, para extração de características, são submetidas a uma máquina de vetores de suporte para a definição da rota a ser seguida. O objetivo do projeto no qual este trabalho se insere é o controle do robô em tempo real, para tanto, o sistema será embarcado em hardware. Neste trabalho, relata-se a implementação de uma máquina de vetores de suporte a qual apresentou uma precisão em torno de 93% da rota adequada. PALAVRAS-CHAVE: robótica móvel, processamento de imagens, redes neurais artificiais, máquinas de vetores de suporte. ABSTRACT: TThe use of mobile robots in the agriculture turns out to be interesting in tasks of cultivation and application of pesticides in minute quantities to reduce environmental pollution. In this paper we present the development of a system to control an autonomous mobile robot navigation through tracks in plantations. Track images are used to control robot direction by preprocessing them to extract image features, and then submitting such characteristic features to a support vector machine to find out the most appropriate route. As the overall goal of the project to which this work is connected is the robot control in real time, the system will be embedded onto a hardware platform. However, in this paper we report the software implementation of a support vector machine, which so far presented around 93% accuracy in predicting the appropriate route. KEYWORDS: mobile robotics, image processing, artificial neural network, support vector machine. 1. INTRODUÇÃO Nos últimos anos, houve um aumento significativo da utilização de robôs móveis em diversas áreas, tais como exploração espacial e operações de resgate. Esse aumento se deve à execução de atividades em locais de difícil acesso ou em situações que podem ocasionar riscos aos seres humanos. O surgimento de algoritmos inteligentes foi um fator que contribuiu significativamente para o avanço da robótica móvel devido a possibilidade de criação de agentes inteligentes que atuem de forma autônoma e confiável na execução de atividades para os quais foram projetados, sem a intervenção de um especialista humano. 27

28 (ISSN: ) - Vol. 3, N. 1, 2014 Módulo de processamento de imagem Grande parte dos trabalhos desenvolvidos em robótica móvel abrange a utilização de redes neurais artificiais como sistemas inteligentes, as quais determinam uma saída baseando-se nos dados de entrada do ambiente externo, sendo estes capturados por algum tipo de sensor. Esses dados de saída são utilizados para realizar algum tipo de controle do agente móvel. A combinação de algoritmos inteligentes com visão computacional tem proporcionado bons resultados em aplicações onde robôs móveis necessitam de um mapeamento do ambiente de atuação, com o intuito de evitar colisão com outros objetos ou determinar a direção para um local. Neste caso, as imagens são capturadas por uma câmera de vídeo e são utilizadas por algoritmos de pré-processamento e segmentação para extração das características relevantes da imagem, sendo estas utilizadas como dados de entrada pelos algoritmos inteligentes para a determinação de uma saída. O surgimento de processadores com maior capacidade computacional também teve importância nesse cenário, já que a execução dessas tarefas necessitam de respostas em tempo real para garantir a viabilidade da implementação em hardware dos algoritmos computacionais de controle do robô móvel. Dispositivos FPGA (Field Programmable Gate Array) também são utilizados na implementação de robôs móveis devido à possibilidade de reconfiguração da sua estrutura interna de dispositivos lógicos, podendo isto pode melhorar significativamente o desempenho na execução das atividades do robô móvel devido a adaptação do hardware para um algoritmo específico. 2. Objetivos O objetivo deste trabalho é apresentar um sistema de navegação baseado em algoritmos de processamento de imagens e máquinas de vetores de suporte, o qual será posteriormente implementado em hardware, para garantir a dirigibilidade de um robô móvel por caminhos de plantações. O sistema de navegação é utilizado para manter o robô na trilha da plantação e controlar sua direção baseando-se em imagens do terreno, as quais são utilizadas por algoritmos de processamento de imagens que são aplicados para a melhoria da qualidade da imagem e na extração das características do caminho. O caminho identificado é utilizado por uma máquina de vetores de suporte para a determinação do ângulo de direção do robô móvel. O desenvolvimento do sistema de navegação é direcionado para a agricultura. Além desta atividade, outras serão aplicadas neste cenário, tais como a detecção de pragas em plantações e controle da aplicação de agrotóxicos para erradicá-las. Portanto, o controle de navegação é um elemento essencial para o sucesso das outras atividades. 3. Método desenvolvido Na figura 1 é mostrado o diagrama de funcionamento do sistema de navegação proposto. Módulo de reconhecimento pré-processamento segmentação Máquina de Vetor de Suporte esqueletização translação Figura 1: Diagrama de funcionamento do sistema de navegação. 28

29 (ISSN: ) - Vol. 3, N. 1, 2014 No módulo de processamento de imagens são aplicadas técnicas para melhoria da qualidade da imagem e extração do caminho da plantação. No submódulo de pré-processamento é aplicado um filtro de suavização para a eliminação dos ruídos presentes na imagem. No submódulo de segmentação é feita a separação do caminho da área da plantação e a esqueletização do caminho identificado. No submódulo de translação é feito o deslocamento do caminho identificado para o centro da imagem com o objetivo de padronizar a representação dos dados para o módulo de reconhecimento. O módulo de reconhecimento é composto por uma máquina de vetores de suporte, a qual recebe os pixels da imagem resultante do módulo de processamento de imagens e determina uma saída que representa o ângulo de direção para o padrão de pixels apresentado. O uso de uma máquina de vetores de suporte se deve ao baixo tempo de treinamento e a capacidade de generalização semelhante ao perceptron de múltiplas camadas. O sistema de navegação foi desenvolvido em software para realização de testes iniciais. O desenvolvimento dos algoritmos de processamento das imagens foi realizado na linguagem de programação C em conjunto com a biblioteca OpenCV (Open Computer Vision Library). O desenvolvimento do algoritmo da máquina de vetores de suporte também foi realizado na linguagem de programação C. Para a realização dos testes, formou-se um banco de imagens composto por imagens de plantações de amendoim e soja, as quais foram adquiridas por uma câmera digital Kodak, modelo M531, sob diversas condições de iluminação. O banco é composto por 1186 imagens, sendo 570 imagens de amendoim e 616 imagens de soja. Cada imagem foi redimensionada à uma resolução de 300x225 pixels para diminuir o tempo de execução dos algoritmos de pré-processamento e segmentação. As imagens do banco foram submetidas a ruídos, procedimento efetuado com as funções da biblioteca OpenCV, para a realização de testes com técnicas de suavização. A filtragem mediana foi utilizada para remover os ruídos presentes na imagem. Na figura 2 (b) é visualizado o resultado da filtragem mediana com uma máscara 7x7 em uma imagem submetida a ruído. a) b) Figura 2: a) imagem submetida a ruídos b) resultado da aplicação da filtragem mediana. 29

30 (ISSN: ) - Vol. 3, N. 1, 2014 A segmentação consiste em obter uma imagem binária onde a área verde, a qual corresponde à plantação, é representada pela cor branca e a área correspondente ao caminho é representada pela cor preta. O modelo de cor HSV foi utilizado para identificação da área verde correspondente à plantação. No HSV, a imagem é representada por três componentes: Hue (Matiz): Representando a cor pura; Saturation (Saturação): Representando o grau de diluição da cor pura por luz branca; Value (Valor): Representando o contraste da imagem; A vantagem em utilizar o modelo de cor HSV é a separação da informação de cor da informação de intensidade. Uma deficiência do uso desta abordagem pode surgir quando uma imagem possui sombras. Uma sombra é uma região escura na imagem formada pelo bloqueio da iluminação por um objeto. Sombras podem prejudicar a segmentação de uma imagem devido à semelhança com regiões escuras pertencentes às áreas de interesse ou por serem processadas como extensão de um objeto presente na imagem. Na figura 3 é ilustrada a incorreta identificação do caminho da plantação em uma imagem com sombras. a) b) c) Figura 3: a) imagem com sombras b) componente matiz c) identificação incorreta do caminho da plantação. É possível notar na figura 3 (c) a identificação parcial do caminho da plantação. Isto se deve ao fato da região da sombra ser processada como parte integrante da área da plantação, como pode ser observado na figura 3 (b), devido a semelhança com a trilha da plantação esquerda. Portanto, a região correspondente à sombra, quando representada no componente matiz, possui os mesmos valores do intervalo considerado para identificação da área da plantação. Diante desta dificuldade, é necessário que sombras sejam identificadas e desconsideradas no procedimento de extração do caminho. A abordagem utilizada neste trabalho é a obtenção de uma imagem com valores de pixels no espaço logarítmico, denominada imagem do espaço log- -cromático, a qual é invariante a iluminação e livre de sombras (FINLAYSON, 2004). O método pode ser escrito conforme a equação 1, a qual é utilizada para obter uma imagem no espaço log-cromático (XU, 2006). r b inv = cos( è).ln + sin( è).ln (1) g g Na equação 1, [r,g,b] são os valores de cores da imagem no modelo RGB e Θ é a direção de projeção da sombra. Esta equação segue um princípio que diz que uma imagem no modelo de cor RGB pode ser convertida em uma imagem em nível de cinza a qual representa apenas a propriedade de refletância (FINLAYSON, 2004). Na figura 4 (b) é exibido o resultado da aplicação da equação 1 sobre uma imagem com sombra. 30

31 (ISSN: ) - Vol. 3, N. 1, 2014 a) b) c) Figura 4: a) imagem com sombra b) imagem invariante a iluminação c) imagem invariante a iluminação binarizada. É possível perceber na figura 4 (b) que os efeitos da sombra foram minimizados no caminho da plantação. A imagem invariante à sombras foi submetida ao processo de binarização, conforme é mostrado na figura 4 (c), onde foi possível identificar a área da plantação pela cor preta e o caminho pela cor branca. A imagem invariante a iluminação binarizada é utilizada juntamente com o componente matiz para gerar a imagem com o caminho extraído. A condição a ser satisfeita para que o caminho seja identificado corretamente é quando os valores de pixels no componente matiz estiverem entre 60º e 180º e os valores dos pixels correspondentes na imagem invariante a iluminação for igual à 0 (preto). Desta maneira, a região do caminho referente à sombra no componente matiz não é identificada como área da plantação, pois nesta situação a condição mencionada resulta em um valor lógico falso. Como a imagem invariante à sombras foi suficiente para a identificação do caminho, não foi necessário eliminar as sombras da imagem original. A operação morfológica de fechamento (GONZALEZ, 2000, p. 373) foi utilizada para suavizar as bordas do caminho identificado, eliminar pequenos buracos na imagem e eliminar pequenos istmos com a trilha adjacente, os quais são gerados devido a falhas na plantação. Este procedimento auxilia na melhor representação do esqueleto do caminho, minimizando os efeitos de proeminências que podem ser gerados devido a irregularidades nas bordas da imagem. Na figura 5 (b) é ilustrada a operação de fechamento sobre o resultado da segmentação do caminho da figura 5 (a) utilizando um elemento estruturante em forma de elipse de dimensões 20x20. Foram utilizadas 20 iterações do fechamento sobre a imagem segmentada para obter mais suavização das bordas. A definição do elemento estruturante e do número de iterações foi feita empiricamente mediante vários testes. a) b) Figura 5:. a) imagem segmentada b) resultado do fechamento. 31

32 (ISSN: ) - Vol. 3, N. 1, 2014 Devido ao posicionamento da câmera no terreno, é possível que hajam na imagem capturada caminhos adjacentes a trilha principal. A eliminação desses caminhos reduz a quantidade de informações a ser transmitida para a máquina de vetores de suporte. Para a eliminação desses caminhos, foi utilizado o algoritmo de crescimento de regiões por agregação de pixels (GONZALEZ, 2000, p. 326). O algoritmo inicia com a seleção de pixels sementes, sendo que a condição de escolha são os pixels com menor nível de cinza, ou seja, em uma imagem binária são pixels que tenham a cor preta. Esse nível de cinza pertence aos caminhos identificados na imagem. Em uma imagem com três caminhos identificados, é possível selecionar três pixels sementes, um para cada caminho. O procedimento de crescimento de regiões é realizado e, simultaneamente a este processo, é feita a contagem de pixels pertencentes a cada região. Cada região é rotulada com um valor inteiro e ao final do processo é possível determinar qual região caminho da imagem possui a maior quantidade de pixels, sendo que este caminho é o que prevalecerá na imagem. Os outros caminhos são eliminados mediante a alteração dos seus valores de níveis de cinza para branco. Na figura 6 é ilustrado o resultado deste processo em uma imagem com dois caminhos. Na imagem mostrada na figura 6 (a), os caminhos são representados pela cor preta, sendo possível notar que o caminho da direita é o que possui a maior quantidade de pixels em relação ao caminho adjacente. Na imagem da figura 6 (b) o caminho adjacente foi eliminado. a) b) Figura 6: a) imagem com dois caminhos, representados pela cor preta b) Imagem com caminhos adjacentes eliminados A próxima etapa foi o afinamento do caminho identificado (ZHANG e SUEN, 1984). O objetivo da obtenção do esqueleto da imagem é reduzir a quantidade de informações do caminho identificado a serem passadas para a máquina de vetores de suporte, reduzindo assim a sua complexidade. Na figura 7 (a) é ilustrado o processo de afinamento em uma imagem de plantação já segmentada. O caminho extraído da imagem de uma plantação pode estar sujeito à deslocamentos devido ao posicionamento da câmera. Isto pode ocasionar dificuldades no reconhecimento da direção, pois cada deslocamento é classificado pela máquina de vetores de suporte em um ângulo diferente, mesmo que tenham ângulos idênticos. Portanto, o reconhecimento da direção do esqueleto deve ser independente do seu deslocamento na imagem. Neste trabalho foi utilizado o algoritmo de invariância à translação (YÜCCER e OFLAZER, 1993), o qual é utilizado para calcular o centro do objeto na imagem e fazer com que ele coincida com o centro da imagem. O centro do objeto é obtido pela média das coordenadas (x,y) que contêm pixels brancos e é representada pelas equações 2 e 3. i= 1 j= 1 i= 1 j= 1 ( x, y ) i j ( x i, y j ) x i M N 1 x av = M N f. f (2) 32

33 (ISSN: ) - Vol. 3, N. 1, 2014 i= 1 j= 1 i= 1 j= 1 ( x, y ) i j ( xi, y j ) y j M N 1 y av = M N f. f (3) onde f(x, y) é a intensidade de cinza nas coordenadas (x,y), M e N representam as quantidades de linhas e colunas da imagem, respectivamente. A função de mapeamento dos pixels do objeto para o centro da imagem é realizada mediante a equação 4. f t ( x, y ) = (( M 2) Xav, ( N / 2) Yav) i i / (4) onde M e N representam as quantidades de linhas e colunas da imagem, respectivamente. O procedimento consiste em calcular a diferença entre o centro (Xav, Yav) do objeto neste caso o esqueleto - e o centro (x,y) da imagem e utilizar esta diferença para deslocar os pixels do objeto para o centro da imagem. Na figura 7 (b) é ilustrado este procedimento. a) b) Figura 7: a) imagem com esqueleto deslocado do centro b) esqueleto centralizado A imagem esqueletizada, com seu esqueleto centralizado por meio das equações 2, 3 e 4, foi transformada em um vetor de 690 elementos, os quais representam os pixels da imagem. O vetor de elementos é utilizado como entrada para uma SVM (Support Vector Machine), a qual é utilizada para determinar a direção de navegação do robô móvel. Foram estabelecidos 19 ângulos de direção, representados no intervalo de -45º a 45º, com intervalos de 5º de discretização. Máquinas de vetores de suporte permitem a classificação de padrões em duas classes separadas por um hiperplano de decisão. A construção de um hiperplano ótimo como superfície de decisão é fundamental para que a separação entre os exemplos seja máxima, sendo esta tarefa realizada na etapa de treinamento da SVM. Foi utilizada uma máquina de vetores de suporte para classificar as imagens de entrada em um padrão de direção. A topologia da SVM é composta de 690 elementos de entrada, 71 elementos intermediários e 1 elemento de saída. O número de elementos intermediários foi determinado de acordo com a quantidade de exemplos utilizados no treinamento. Em cada elemento intermediário foram utilizadas duas funções de kernel, as quais são apresentadas na tabela 1. Tabela 1. Núcleos do produto interno utilizados em SVM. Tipo Função do núcleo Núcleo de função de base radial -1 exp 2 2ó x y 2 Hardware Friendly Kernel ã x y

34 (ISSN: ) - Vol. 3, N. 1, 2014 O primeiro kernel apresentado na tabela 1 é uma função gaussiana, onde x é o vetor de entrada, y é o valor do vetor de suporte e γ é o valor que determina a largura da curva gaussiana. A segunda função de kernel apresentada na tabela 1, denominada Hardware Friendly Kernel, foi desenvolvida para reduzir a complexidade de implementação em hardware de funções de kernel de SVM (ANGUITA, D. et al, 2006). O uso deste kernel é mais apropriado para implementação em hardware do que o kernel de função de base radial, pois evita o cálculo de divisões e exponenciais. Desta maneira, o kernel Hardware Friendly torna- -se mais rápido no treinamento e no reconhecimento de padrões. O parâmetro γ é um valor inteiro definido como uma potência de dois, isto é, γ= 2 ± p, com p = 0, 1, 2,...,Z. A norma da distância entre os exemplos de entrada x e os vetores de suporte y é representada como x y. O uso da norma ao invés da distância euclidiana evita o cálculo da raiz quadrada e da exponencial, tornando a implementação em hardware menos complexa. No elemento de saída é apresentado um valor real o qual é o ângulo de direção classificado pela SVM. 4. Experimentos Os testes foram realizados com imagens de amendoim e soja. Foram realizados três testes com Máquina de Vetores de Suporte, cada um utilizando uma abordagem diferente. As funções de kernel utilizadas nas SVMs foram a de base radial e o hardware-friendly kernel. O valor escolhido para o parâmetro γ, do hardware-friendly kernel, foi , correspondente à 2-4. A escolha do valor de γ foi feita empiricamente por meio de testes. Em cada teste, foram consideradas as seguintes informações: Quantidade de acertos exatos Quantidade de acertos aproximados Erros magens não classificadas Percentual de acerto Os acertos exatos indicam a quantidade de imagens onde os ângulos de direção desejado e calculado pela SVM coincidiram exatamente. Os acertos aproximados indicam a quantidade de imagens onde os ângulos de direção desejado e calculado pela SVM tiveram uma diferença de 5º. Os erros representam a quantidade de imagens que tiveram uma diferença de 10º ou mais entre o ângulo desejado e o calculado pela SVM. O percentual de acerto no reconhecimento foi calculado considerando os acertos exatos e aproximados. Os acertos aproximados foram considerados devido à semelhança dos esqueletos que possuem ângulos com 5º de diferença, fazendo com que a SVM classifique uma imagem com a informação aproximada do ângulo. A tolerância pode ser aceitável se o tempo de processamento for baixo o suficiente para evitar que a próxima saída seja feita após uma longa distância percorrida pelo robô móvel, podendo isto minimizar a diferença de distância fora da rota. A determinação dos parâmetros de treinamento da máquina de vetores de suporte foi feita utilizando a transformada de Hough (GONZALEZ, 2000, p. 308) e o método dos mínimos quadrados. O primeiro método consiste em transformar as retas da imagem representadas no espaço (x,y) para o espaço de parâmetros (ρ,θ), onde ρ é a distância da reta em relação à coordenada (0,0) e θ representa o ângulo de inclinação da reta. Portanto, o valor de θ é associado à imagem e utilizado como referência no aprendizado supervisionado da máquina de vetores de suporte. O segundo método consiste em obter os parâmetros da equação da reta que melhor se ajustam a uma amostra de pontos. A equação da reta é representada por α.x + b, onde α é o ângulo de inclinação da reta e b representa o deslocamento da reta em relação ao eixo y. Os pontos da amostra são representados pelas coordenadas dos pixels que compõem o esqueleto do caminho identificado e o valor obtido para o parâmetro α é utilizado no treinamento da máquina de vetores de suporte. Entretanto, a transformada de Hough e método dos mínimos quadrados foram utilizados apenas na etapa de treinamento e não são técnicas integrantes do sistema de navegação, pois em tempo de execução 34

35 (ISSN: ) - Vol. 3, N. 1, 2014 a SVM, após ter sido treinada, deve ser capaz de reconhecer o ângulo de direção de novas imagens que não foram utilizadas na etapa de treinamento Primeiro teste O primeiro teste foi realizado com 1186 imagens, todas pertencentes ao banco de imagens de plantações. Foram utilizadas 800 imagens para treinamento, sendo 400 imagens de amendoim e 400 de soja, e 386 imagens para verificação, sendo 170 imagens de amendoim e 216 imagens de soja. Foram utilizadas 19 SVMs para classificação, sendo todas compostas por 690 elementos de entrada, 800 elementos intermediários e 1 elemento de saída. O número de elementos intermediários foi determinado de acordo com o número de exemplos utilizados no treinamento. Os exemplos de treinamento foram apresentados para cada SVM, inclusive a saída desejada. O ângulo de direção foi determinado pela SVM que apresentou saída 1. Na tabela 2 são apresentados os resultados obtidos neste primeiro teste para cada kernel usado no treinamento e reconhecimento da SVM. Tabela 2. Estatísticas do reconhecimento do primeiro teste. Função de base radial Hardware Friendly Kernel Acertos exatos Acertos aproximados Erros 4 5 Imagens não classificadas Percentual de acerto 72,5% 73,6% Os resultados obtidos dos kernels de função de base radial e do Hardware- -Friendly forem equivalentes. O fator prejudicial neste teste foi a quantidade de imagens que não foram classificadas. Essa situação ocorre quando a saída das 19 SVMs é -1, fato que ocorre devido a imagem apresentada não ter sido reconhecida em nenhum ângulo de direção. A quantidade insuficiente de imagens de treinamento para um determinado ângulo de direção foi um fator que contribui para que algumas imagens apresentadas às SVMs não pudessem ser classificadas Segundo teste A implementação em hardware de 19 SVMs pode não ser possível devido a grande quantidade de elementos de processamento que pode exceder a capacidade de armazenamento do hardware. Cada SVM possui 690 elementos de entrada, 800 elementos intermediários e 1 elemento de saída, totalizando elementos de processamento, sendo que a utilização de 19 SVMs totalizará elementos de processamento a serem implementados em hardware. Diante disso, foi estudado a possibilidade de implementação de apenas uma SVM que classifique todos os padrões de direção. Além de diminuir consideravelmente o espaço para síntese da SVM em hardware, o resultado da classificação foi melhor em relação ao teste anterior devido às imagens não classificadas terem sido reconhecidas como acertos exatos ou aproximados. Entretanto, a quantidade de erros também pode aumentar devido a saída da SVM estar sujeita a erros. Neste teste foi utilizada apenas uma SVM com 690 elementos de entrada, 800 elementos intermediários e 1 elemento de saída, o qual possui saída entre -45 a 45, ao invés de 1 ou -1. Os resultados foram melhores em relação ao teste anterior, conforme pode ser visto na tabela 3. Apesar da quantidade de erros ter aumentado boa parte das imagens que não haviam sido classificadas anteriormente foram classificadas com a tolerância de 5º de diferença, ocasionando um aumento na quantidade de acertos aproximados e consequentemente no percentual de acerto. 35

36 (ISSN: ) - Vol. 3, N. 1, 2014 Tabela 3. Estatísticas do reconhecimento para o segundo teste. Função de base radial Hardware Friendly Kernel Acertos exatos Acertos aproximados Erros Imagens não classificadas 0 0 Percentual de acerto 92,2% 92,5% 4.3. Terceiro teste O uso de 800 imagens de treinamento gera 800 vetores de suporte e 800 pesos para compor os parâmetros de reconhecimento da SVM. Sendo cada vetor de suporte representado por uma imagem de treinamento de 690 pixels de 1 byte, então são necessários bytes ou 539 kbytes de memória para armazenamento de tais parâmetros, os quais podem não ser suportados pela memória interna de determinados modelos de dispositivos de FPGA. Além disso, a utilização de um grande número de imagens de treinamento pode diminuir a capacidade de generalização no reconhecimento pela SVM. Diante disso, neste teste foram utilizadas 71 imagens de treinamento e 1057 imagens de verificação, todas pertencentes ao banco de imagens de plantações. Desta maneira, a SVM ficou composta por 690 elementos de entrada, 71 elementos intermediários e 1 elemento de saída. Foram removidas 58 imagens do banco inadequadas para teste. A redução do número de imagens de treinamento permite, além de solucionar o problema de limitação do FPGA, aumentar a capacidade de generalização no reconhecimento da SVM. Os resultados podem ser vistos na tabela 4. Tabela 4. Estatísticas do reconhecimento para o terceiro teste. Função de base radial Hardware Friendly Kernel Acertos exatos Acertos aproximados Erros Imagens não classificadas 0 0 Percentual de acerto 92,05% 93,19% Devido ao aumento no número de imagens de teste, o número de acertos aproximados e erros também aumentou. Entretanto, nota-se que houve uma pequena diferença no percentual de acerto em relação ao teste anterior, principalmente no percentual de acerto do segundo kernel. Além disso, os resultados obtidos por meio do hardware-friendly kernel neste teste foram melhores em relação ao kernel de função de base radial. O armazenamento em hardware diminui significativamente com a redução do número de imagens de treinamento, pois são necessários apenas 48 kbytes para armazenamento dos vetores de suporte e dos pesos Análise de desempenho Os testes foram realizados em computador com 4 Gibabytes de memória RAM e um processador Intel Dual Core de 2200 Mhz. O tempo de execução de cada função de kernel para o treinamento e reconhecimento da SVM é apresentado no gráfico da figura 8. O kernel HFK (Hardware Friendly Kernel) apresentou um tempo de execução duas vezes mais rápido que o kernel RBF (Radial Basis Function) e, além disso, foi o kernel que apresentou melhores resultados no último teste. Independentemente da função de kernel utilizada, o uso de SVM mostra-se mais vantajoso em 36

37 (ISSN: ) - Vol. 3, N. 1, 2014 relação ao tempo de treinamento do que redes neurais artificiais do tipo perceptron de múltiplas camadas, já que na SVM não há ciclos de retropropagação de erro como ocorre neste tipo de rede neural artificial. Isto possibilita a implementação de treinamento on-line para agregar a classificação de novos padrões em diferentes campos de plantações. Tempo (em segundos) 2 1,8 1,6 1,4 1,2 1 0,8 0,6 0,4 0,2 0 Tempo de execução da SVM HFK RBF Treinamento Reconhecimento 3,0 Tempo de execução por imagem Tempo (em milisegundos) 2,5 2,0 1,5 1,0 0,5 Treinamento Reconhecimento 0,0 HFK RBF Figura 8: a) tempo de execução médio b) tempo de execução por imagem. 5. CONCLUSÕES Neste trabalho foi apresentado um sistema de navegação para dirigibilidade de robôs móveis por caminhos em plantações, baseado em visão computacional e máquinas de vetores de suporte, além das etapas do desenvolvimento do sistema e os resultados obtidos por meio dos testes em software. O principal objetivo do trabalho foi obter um percentual de acerto superior a 90% utilizando uma pequena quantidade de informações da imagem, isto é, apenas o esqueleto do caminho da plantação. A maior dificuldade enfrentada nesta etapa do trabalho foi atingir um percentual de acerto exato no reconhecimento, fato este que ocorre devido a semelhança dos esqueletos que possuem valores próximos de ângulos. Entretanto, verificou-se que o reconhecimento para a maioria das imagens diferiu 5º em relação ao ângulo desejado, sendo que isto permitiu verificar a possibilidade de considerar o acerto aproximado por meio da análise da diferença da rota desejada. Verificou-se que uma diferença de 5º no reconhecimento causa 7 centímetros de desvio em relação à rota correta de navegação. Portanto, o tempo de execução do algoritmo deve ser rápido o 37

38 (ISSN: ) - Vol. 3, N. 1, 2014 suficiente para que essa aproximação seja considerada e permitir taxas de atualização do ângulo de navegação a distâncias menores. 6. REFERÊNCIAS BIBLIOGRÁFICAS ANGUITA, D. et al. Feed-Forward Support Vector Machine Without Multipliers. IEEE Transactions on Neural Networks, volume 17, nº 5, pp , setembro de 2006 FINLAYSON, G. D.; DREW, M. S.; CHENG, L. Intrinsic Images by Entropy Minimization. European Conference on Computer Vision, pp , de 2004 GONZALEZ, R. C. ; WOODS, R. E. Processamento de imagens digitais. Edgar Blücher, São Paulo, 2000 HAYKIN, S. Redes Neurais: Princípios e prática. Bookman, Porto Alegre, 2001 HEARST, M. Support Vector Machines. IEEE Intelligent Systems, pp , julho e agosto de 2008 MARQUES FILHO, O.; VIEIRA NETO, H. Processamento digital de imagens. Brasport, Rio de Janeiro, 1999 XU, L.; QI, F.; JIANG, R. Shadow Removal from a Single Image. Proceedings of the Sixth International Conference on Intelligent Systems Design and Applications, volume 2, pp , outubro de 2006 YÜCEER, C. OFLAZER, K. A rotation, scaling, and translation invariant pattern classification system. Journal of Pattern Recognition, volume 26, nº 5, pp , maio de 1993 ZHANG, T. Y.; SUEN, C. Y. A fast parallel algorithm for thinning digital patterns. Communications of the ACM, volume 27, nº 3, pp , Março de 1984 Danilo Samuel Jodas possui graduação em Ciência da Computação pelo Centro Universitário do Norte Paulista e atualmente é aluno do Programa de Pós Graduação em Ciência da Computação do Instituto de Biociências, Letras e Exatas de São José do Rio Preto. Tem experiência na área de Ciência da Computação, com ênfase em Processamento Digital de Imagens, e atua nos seguintes temas: processamento de imagens, reconhecimento de padrões e computação reconfigurável. Atualmente trabalha em pesquisa direcionada ao reconhecimento de padrões para a robótica móvel. Norian Marranghello possui graduação em Engenharia Eletrônica pela Pontifícia Universidade Católica do Rio Grande do Sul (1982), mestrado em Engenharia Elétrica pela Universidade Estadual de Campinas (1987), doutorado em Engenharia Elétrica pela Universidade Estadual de Campinas (1992), é pós-doutorado em Sistemas de Computação pela Universidade de Aarhus na Dinamarca (1998) e livre-docência em Sistemas Digitais pela Universidade Estadual Paulista (1998). Atualmente é Professor Titular da Universidade Estadual Paulista. Tem experiência nas áreas de Engenharia Elétrica e de Ciência da Computação, com ênfase em Sistemas Digitais, atuando principalmente nos seguintes temas: sistemas digitais integráveis, modelagem e simulação de sistemas, arquiteturas reconfiguráveis, redes de Petri e síntese de sistemas digitais. Aledir Silveira Pereira possui graduação em Engenharia Elétrica pela Fundação Educacional de Barretos (1980), mestrado em Engenharia Elétrica pela Universidade de São Paulo (1987) e doutorado em Física Aplicada Computacional pela Universidade de São Paulo (1995). Atualmente é professor assistente doutor da Universidade Estadual Paulista Júlio de Mesquita Filho. Tem experiência na área de Ciência da Computação, com ênfase em Processamento Digital de Imagens e Sistemas de Controle e Automação, atuando principalmente nos seguintes temas: processamento de imagens, imagens médicas, controle e automação, ferramenta de software e ensino de computação. Rodrigo Capobianco Guido possui graduação em Ciência da Computação pela UNESP - câmpus de São José do Rio Preto-SP e graduação em Engenharia de Computação pela Fundação Educacional de Votuporanga FEV. Obteve o grau de Mestre em Engenharia Elétrica pela Faculdade de Engenharia Elétrica e de Computacão da UNICAMP, de Doutor em Física Aplicada Computacional pelo Instituto de Física de São Carlos da USP e o título de Livre-docente na área de Processamento Digital de Sinais pelo Departamento de Engenharia Elétrica da Escola de Engenharia de São Carlos da USP. Atua na área de processamento de sinais, especialmente com base na transformada wavelet associada com técnicas inteligentes para aprendizado de máquina e reconhecimento de padrões. 38

39 ANÁLISE DE FORMAS PLANAS EM IMAGENS DIGITAIS SOUZA, Gustavo Botelho de Universidade Estadual Paulista (UNESP) MARANA, Aparecido Nilceu Universidade Estadual Paulista (UNESP) RESUMO: Com a difusão do uso dos computadores, o reconhecimento de padrões visuais tem sido automatizado em especial para poder tratar a enorme quantidade de imagens digitais disponíveis. Aplicações de diversas áreas utilizam técnicas de processamento de imagens bem como algoritmos de extração de características e reconhecimento de padrões visuais a fim de identificar pessoas, facilitar o diagnóstico de doenças, classificar objetos, etc. a partir de imagens digitais. Dentre as características que podem ser analisadas nas imagens encontra-se a forma de objetos ou regiões. Em alguns casos a forma é a única característica passível de análise com precisão. Este trabalho apresenta alguns dos mais importantes métodos de análise de formas descritos na literatura e compara seus desempenhos quando aplicados em três bases de dados públicas contendo imagens de formas. Por fim, propõe-se a criação de um novo descritor de formas baseado na Transformada de Hough. PALAVRAS-CHAVE: análise de formas; análise de imagens; transformada de Hough. ABSTRACT: Given the widespread use of computers, the visual pattern recognition task has been automated in order to address the huge amount of available digital images. Many applications use image processing techniques as well as feature extraction and visual pattern recognition algorithms in order to identify people, to make the disease diagnosis process easier, to classify objects, etc. based on digital images. Among the features that can be extracted and analyzed from images is the shape of objects or regions. In some cases, shape is the unique feature that can be extracted with a relatively high accuracy from the image. In this work we present some of most important shape analysis methods and compare their performance when applied on three well-known shape image databases. Finally, we propose the development of a new shape descriptor based on the Hough Transform. KEYWORDS: shape analysis; image analysis; Hough transform. INTRODUÇÃO A habilidade que o ser humano tem no trato com imagens é extremamente grande. Desde seu surgimento, o homem desenvolveu sistemas neurais altamente sofisticados voltados à tarefa de processamento de imagens e reconhecimento de padrões visuais (DUDA et al., 2000). Neste sentido, com o surgimento dos computadores, pesquisadores e empresas de todo o mundo voltaram suas expectativas à tentativa de mecanização do processo de captura, melhoramento, extração de características e reconhecimento de padrões a partir de imagens digitais dada a grande variedade de aplicações derivadas do trato automatizado das imagens. Atualmente, diversas técnicas de análise de imagens e hardwares mais eficientes e baratos estão disponíveis para a construção de sistemas de visão computacional. Entretanto, os desempenhos dos sistemas computacionais ainda estão distantes dos apresentados pelos sistemas visuais biológicos (como o sistema visual humano, por exemplo) em relação ao tratamento de imagens. Isto pode ser explicado pelo fato de ainda não se ter compreendido perfeita e completamente o processo de inteligência humana e pelo uso de processamento primordialmente serial. Neste contexto, novas técnicas de análise de imagens continuam surgindo aprimorando as já existentes ou tratando os problemas a partir de novas abordagens na 39

40 (ISSN: ) - Vol. 3, N. 1, 2014 tentativa de automatizar o processo de análise de imagens tipicamente realizado pelos seres humanos. Hardwares mais rápidos e eficientes também estão sendo criados. Com tudo isso, as máquinas cada vez mais se assemelham aos seres humanos em se tratando do processo de reconhecimento de padrões visuais e assim se tornam mais úteis aos mesmos. A análise de imagens pode se basear em várias características extraídas das mesmas a fim de obter informações sobre seus conteúdos. A forma de objetos ou regiões é uma das principais. Além de possuir grande poder de distinção entre elementos diferentes das imagens, em alguns casos a forma é a única passível de extração e análise com precisão. Deste modo, a análise de formas se configura como uma ferramenta essencial ao reconhecimento de padrões visuais nas imagens. Neste artigo são apresentados alguns dos mais importantes métodos de análise de formas descritos na literatura especializada. Os desempenhos desses métodos são avaliados sobre três bases de dados contendo formas de objetos (silhuetas). Ao final, é proposta a criação de um novo descritor de formas (rápido e preciso) baseado na Transformada de Hough (DUDA e HART,1972). 1. DEFINIÇÃO DE FORMA Como dito, dentre as características que podem ser analisadas em uma imagem a fim de descobrir informações sobre seu conteúdo encontra-se a forma de objetos ou regiões da mesma. Apesar de o ser humano lidar com formas (e seu reconhecimento) a todo instante, a definição em termos matemáticos do conceito forma (no caso deste trabalho, planas) não é uma tarefa fácil. De acordo com Costa e Júnior (2000), uma forma pode ser entendida como qualquer entidade visual singular. Em outras palavras, quando se menciona forma faz-se alusão a um objeto como um todo, um conjunto de pontos conectados (quer no espaço discreto ou no contínuo). Segundo Latecki e Lakämper (2000), independente do método usado na análise de formas, ele deve funcionar como o nosso sistema de percepção visual. Isto significa que ele deve apresentar as seguintes características: (i) a medida de similaridade entre formas deve permitir o reconhecimento de objetos visualmente similares, mesmo que não matematicamente idênticos; (ii) deve abstrair distorções, como ruídos da digitalização e erros de segmentação (localização e demarcação de estruturas na imagem); (iii) deve dar atenção à partes visuais significantes dos objetos e (iv) não deve depender da escala, orientação e posição dos objetos. 2. Descritores de formas Os métodos de análise de formas apresentados na literatura se baseiam em diferentes propriedades a fim de representá-las e identificá-las. Dentre estas propriedades podemos citar: a área, a curvatura da borda (contorno), a quantidade de concavidades, a posição dos seus pontos de borda, dentre outras. A seguir são apresentados alguns descritores de formas tradicionais encontrados na literatura BAS (Beam Angle Statistics) Um importante e eficiente descritor de formas proposto por Árica e Vural (2003) é o BAS (Beam Angle Statistics). O método BAS se baseia na ideia da representação do contorno de um objeto (que por natureza é uma função 2-D) através de uma função 1-D. Esta função 1-D deve representar todas as concavidades e convexidades do contorno do objeto com o mínimo de distorções. Uma borda (contorno) B previamente segmentada, isto é, localizada e demarcada na imagem sob análise, é representada por uma sequência de pontos conectados p i =(x i,y i ), onde i=1, 2,..., N, sendo N o número de pontos da borda e p i =p i +N. Para cada ponto da borda p i, os raios (beams) de pi podem ser representados pelo conjunto de vetores L(p i )={V i + j, V i -j} onde V i + j e V i - j são os vetores posterior e anterior que conectam pi aos pontos de borda p i + j e p i - j, respectivamente, na borda B, para j=1, 2,..., N/2. 40

41 (ISSN: ) - Vol. 3, N. 1, 2014 O ângulo entre o par de raios posterior (V i + j ) e anterior (V i - j ) de p i, fixado um valor de j (valor inteiro entre 1 e N/2), é definido por C j (i). A Figura 1 exibe o ângulo C4(i), entre os raios de um ponto de borda p i, obtido fixando-se o valor de j=4. Figura 1: Ângulo C4(i) entre o par de raios V i -4 e V i +4 (ou seja, j=4) do ponto p(i) (ou ainda p i ) (FALGUERA e MARANA, 2008). O processo de encontrar os ângulos Cj(i) entre cada par de raios L(pi)={Vi+j, Vi-j} associados a pi e com j=1, 2,..., N/2 é realizado para todos os pontos da borda da forma. A partir do conjunto de ângulos encontrados e associados a cada ponto p i da borda calcula-se os três primeiros momentos (média, desvio padrão e momento de ordem 3) dos valores dos mesmos e associa-se ao ponto p i, não mais o conjunto de ângulos C j (i), mas sim estes três valores de momentos, calculados com base no conjunto. Dado um ponto de referência da borda da forma e percorrendo-se a borda em sentido horário a partir deste ponto obtém-se três funções 1-D com base nos três valores de momentos associados a cada ponto da borda (cada valor de momento gera uma função). Dada uma forma de teste, suas três funções 1-D são encontradas e a partir delas um vetor de características de tamanho k é gerado para a forma ao se amostrar as três funções em um número k de posições. Deste modo, cada elemento do vetor de ca- racterísticas da forma contém três valores (os três momentos amostrados das funções em uma certa posição). Durante a fase de reconhecimento, o vetor de características da imagem de teste é comparado com os vetores das imagens da base de dados por meio do algoritmo OCS (Optimal Correspondent Subsequence) proposto por Wang e Pavlidis (1990). A cada forma da base de dados é associada uma distância em relação à forma de teste com base na comparação de seus vetores de características. A forma de teste é então classificada como sendo da mesma classe da imagem da base de dados que apresentou a menor distância, ou seja, da mesma classe da imagem da base de dados mais similar (com vetor de características mais parecido) Dimensão Fractal Multiescala Disseminada por Mandelbrot (1982), a dimensão fractal, que pode ser expressa por números fracionários, provê um eficiente meio de caracterizar a auto- -semelhança de objetos abstratos e reais chamados fractais (TORRES et al., 2004). Dada uma forma, representada pelo conjunto S de todos seus pontos, e sendo S r a dilatação exata (TORRES et al., 2004) da mesma por um disco de raio r, considerando-se A r a área da versão dilatada da forma (S r ). A dimensão fractal de Minkowski-Bouligand (F), da forma operando-se em um espaço bidimensional, é definida por: log( Ar ) F = 2 lim (1) r 0 log( r ) A dimensão fractal é, portanto, um número no intervalo [0, 2]. Ela pode ser estimada por meio de uma interpolação linear da curva logarítmica da área Ar em função do raio de dilatação r. Após encontrar a reta que melhor se aproxima dos pontos da curva logarítmica, seu coeficiente angular Ar pode ser utilizado para encontrar o valor de F aproximado por meio da equação: F = A (2) ' 2 r 41

42 (ISSN: ) - Vol. 3, N. 1, 2014 A Figura 2 ilustra esta interpolação para uma forma fractal e o cálculo do valor da dimensão fractal (F) a partir da mesma. dos mesmos e permitir classificar a forma sob análise como sendo da mesma classe da forma da base de dados com menor distância, ou seja, mais similar Saliências do Contorno Figura 2: Forma similar à estrela de Koch à esquerda e à direita os valores de log(a r ) em função de log(r) e a reta (tracejada) que melhor representa os pontos. A partir do coeficiente angular (A r ) desta reta pode-se obter o valor de F (TORRES et al., 2004). A representação de formas por meio de um único valor (dimensão fractal tradicional) pode ser muito pobre e perder informações relevantes das formas uma vez que a curva log-log (extremamente complexa) é aproximada por uma simples reta. Para tratar este problema foi proposta a dimensão fractal multiescala. Diferente da dimensão fractal tradicional, a qual utiliza uma interpolação linear para estimar o coeficiente angular da curva log-log, esse método explora o limite infinitesimal da interpolação linear por meio da derivada. A partir da curva log-log obtém-se, por exemplo, uma curva polinomial por regressão que melhor represente os pontos da primeira e gera-se como que uma função baseada na derivada da função polinomial (adaptação da Equação 1), a qual é chamada de dimensão fractal multiescala da forma sendo analisada (TORRES et al., 2004). Nesta técnica, para se gerar o vetor de características da forma em análise faz-se uma amostragem da função de dimensão fractal multiescala em n posições. Após, dados os vetores de características da forma sob análise e das formas da base de dados (extraídos das funções de dimensão fractal multiescala das mesmas), utiliza-se a métrica L 2 para a comparação entre eles a fim de verificar a similaridade Costa et al. (2001) propuseram o uso das saliências dos contornos das formas como meio de representá-las. As saliências do contorno de uma forma são definidas como as áreas máximas de influência de seus pontos (do contorno) de maiores curvaturas, denominados pontos de saliência, respeitando as regiões de Voronoi dos pontos e limitando-se as áreas a regiões próximas aos pontos apenas (TORRES e FALCÃO, 2007). O algoritmo proposto por Costa et al. (2001), e adaptado por Torres e Falcão (2007) para determinar as saliências de uma forma opera de maneira que, dado um conjunto S de sementes (pixels da borda da forma), ele associa a cada pixel p da imagem um valor C(p) e um rótulo R(p) os quais são, respectivamente, a distância euclidiana entre p e a semente mais próxima e o rótulo (identificação) da semente mais próxima de p. Após encontrar as áreas de influências internas e externas ao contorno da forma associadas aos pixels da borda (sementes), estes passam a ser representados pelos valores de suas respectivas áreas máximas. As áreas de influência de pontos de maiores curvaturas na borda, chamados de pontos de saliência, em geral, são maiores que as áreas de outros pixels da borda da forma e assim, para localizar estes na borda da forma basta aplicar um limiar nos pontos de borda selecionando os que apresentam áreas (valores de saliência) acima desse limiar. Com isto os pontos de saliência da borda da forma são encontrados (TORRES e FALCÃO, 2007). A Figura 3 ilustra as áreas de influências (internas e externas) de pontos de saliência de uma forma (polígono). 42

43 (ISSN: ) - Vol. 3, N. 1, 2014 Figura 3: Áreas de influência internas e externas de pontos de saliência convexos (A, B, D e E), isto é, cujas áreas de influência externas são maiores que as internas, e côncavos (C), no caso oposto. As áreas são limitadas por um ângulo θ (que respeita os limites das regiões de Voronoi dos pontos) e por uma distância r que garante que não se afaste muito dos pontos da borda (TORRES e FALCÃO, 2007). Após encontrar os pontos de saliência do contorno da forma representa-se a mesma pelos valores de saliência (maiores áreas de influência) associados aos mesmos. O descritor Saliências do Contorno (TORRES e FALCÃO, 2007) se baseia nesta representação para classificar as formas presentes em imagens digitais. Neste descritor, após determinar os pontos de saliência do contorno, pontos de saliência côncavos têm seus valores de saliência tomados como negativos e pontos de saliência convexos continuam com seus valores de saliência positivos. Um ponto de saliência aleatório é tomado como referência e o método calcula as posições relativas de cada ponto de saliência do contorno em relação ao ponto de referência. Então, os valores de saliências dos pontos de saliência do contorno e suas posições relativas formam dois vetores de características de mesmo tamanho, os quais são usados pelo descritor Saliências do Contorno na comparação entre formas. A Figura 4 ilustra estes vetores para um contorno poligonal. Figura 4: Polígono (forma) e seus pontos de saliência à direita e os vetores de características da forma representados no gráfico à esquerda. O ponto de saliência de referência neste caso é o ponto A (TOR- RES e FALCÃO, 2007). 43

44 (ISSN: ) - Vol. 3, N. 1, 2014 O descritor Saliências do Contorno usa um algoritmo de casamento heurístico de vetores de características que alinha os vetores usando os pontos de referência e calcula suas similaridades considerando a diferença de tamanhos entre eles. Ele é baseado no algoritmo proposto por Mokhtarian e Abbasi (2002). Após comparar a forma sob análise com as formas da base de dados, pode-se considerar a primeira como sendo da mesma classe que a forma mais parecida da base de dados Tensor Scale Saha (2005) introduz um método local para análise de imagens em tons de cinza, chamado Tensor Scale, o qual se resume em encontrar, para cada ponto p da forma, a maior elipse centrada em p dentro da região homogênea deste ponto na forma sendo analisada. O primeiro passo para se encontrar a elipse centrada em um ponto p corresponde em traçar segmentos de reta opostos em relação ao ponto e iniciando nele, variando suas inclinações em relação ao eixo x no intervalo [0º, 180º), conforme mostra a Figura 5(a). Um vetor unitário é usado para representar a direção de cada segmento, existindo assim m pares destes vetores (onde m não equivale a 180 necessariamente, isto é, pode-se espaçar mais ou menos os segmentos de reta em relação aos seus ângulos) (ANDALÓ et al., 2007). Após traçar os segmentos a partir do ponto p verifica-se, para cada um deles, o ponto da borda da forma mais próximo de p por onde o segmento passa como mostrado na Figura 5(b). Para encontrar estes pontos a intensidade (nível de cinza) presente ao longo de cada segmento de reta é verificada. Como uma observação, caso a distância entre o ponto de borda a ser encontrado sobre o segmento e o ponto p ultrapasse o valor de L escolhido (valor máximo de distância), o ponto escolhido para o segmento é o que está à distância L de p no mesmo (último ponto no segmento). Isto ocorre com dois segmentos na Figura 5(b) na parte inferior direita do objeto sob análise. Depois de encontrar o ponto da borda associado a cada segmento, em cada par de segmentos de reta (opostos), o ponto de borda com maior distância em relação ao ponto p é deslocado sobre o segmento de forma a ficar com a mesma distância em relação a p que o ponto de borda oposto (Figura 5(c)) a fim de garantir a simetria da elipse a ser gerada para o ponto p. Com os pontos todos rearranjados, uma elipse (que melhor se aproxima da posição dos mesmos) é obtida através da Análise do Componente Principal (Principal Component Analysis PCA) como mostrado na Figura 5(d). Figura 5: Cálculo da elipse associada ao ponto vermelho. Em (a) são traçados os segmentos de reta, em (b) os pontos de borda do objeto são localizados sobre os segmentos, em (c) os pontos são rearranjados e em (d) a elipse é traçada (SAHA, 2005). 44

45 (ISSN: ) - Vol. 3, N. 1, 2014 Miranda et al. (2005) otimizam algumas partes deste método e o usam como descritor de formas. Este descritor atua de forma que a todo ponto da forma (da sua borda ou interno à mesma) realiza-se o processo de encontrar a elipse centrada nele. Após encontrar a elipse para um dado ponto, a orientação dela é associada ao mesmo. A partir disto, o descritor Tensor Scale calcula o histograma das orientações locais dos pontos da forma sendo investigada (orientações das elipses centradas nos pontos da forma e encontradas como descrito anteriormente) e usa o mesmo como vetor de característica da forma. O casamento de duas imagens pelo método Tensor Scale é realizado por meio da diferença absoluta das áreas de seus histogramas após corrigir eventuais deslocamentos causados por rotações no objeto. A forma sob análise pode ser classificada como pertencente à mesma classe da forma da base de dados mais parecida (menor distância). 3. Comparação dos métodos de análise de formas Os métodos de análise de formas apresentados possuem princípios e estratégias de funcionamento bastante diferentes na extração de características, representação e classificação de formas. Com o objetivo de avaliar e comparar seus desempenhos, alguns experimentos foram realizados sobre três bases de imagens públicas contendo formas (silhuetas de objetos) Base Kimia-99 O primeiro experimento foi realizado usando-se a base de imagens Kimia-99 (SEBASTIAN et al., 2004). Nesta base existem 99 imagens de 9 classes de objetos (11 imagens por classe). Em cada imagem há a silhueta de um objeto em preto e um fundo branco. As dimensões das imagens não passam de 200 pixels e algumas das silhuetas estão rotacionadas, deformadas e transladadas. Cada descritor (BAS, Dimensão Fractal Multiescada, Saliências do Contorno e Tensor Scale) foi testado em separado e para analisar seus desempenhos foram calculados os valores Top n dos mesmos da seguinte forma: dada forma de consulta, toda vez que ela e a imagem da base de dados mais parecida com ela (menor distância) segundo o descritor realmente eram da mesma classe, incrementava-se em uma unidade o valor Top 1 do método. De forma similar, toda vez que as duas imagens da base de dados recuperadas como sendo as duas mais parecidas com a forma de consulta segundo o descritor eram da mesma classe desta, o valor de Top 2 do descritor era incrementado em uma unidade. Processo análogo foi repetido para se calcular o valor Top 3 para cada descritor. As 99 imagens da base de dados foram tomadas, uma por vez, como imagens de consulta. Desta forma um descritor ideal (com 100% de acerto) teria os valores Top 1 =99, Top 2 =99 e Top 3 =99. Os valores de Top 1, Top 2 e Top 3 dos descritores avaliados são mostrados na Tabela 1. O melhor desempenho foi obtido pelo método BAS e o pior pelo método Saliências do Contorno. Tabela 1. Total de acertos operando-se com a base Kimia-99 (SEBASTIAN et al., 2004). Os métodos estão ordenados (nas linhas) pelos seus desempenhos, iniciando pelo melhor (BAS) e terminando pelo pior (Saliências do Contorno). Descritor Top 1 Top 2 Top 3 BAS (40 amostras) Dimensão Fractal Multiescala Tensor Scale Saliências do Contorno

46 (ISSN: ) - Vol. 3, N. 1, Base Kimia-216 A mesma metodologia de avaliação utilizada nos experimentos com a base Kimia-99 (SEBASTIAN et al., 2004) foi repetida com a base de imagens de formas Kimia-216 (SEBASTIAN et al., 2004), a qual é uma extensão da Kimia-99. Nesta base as imagens apresentam as mesmas características que as da base anterior, no entanto existem 18 classes de objetos, com cada uma delas contendo 12 amostras (imagens de silhuetas), totalizando 216 imagens na base. Os valores de Top 1, Top 2 e Top 3 dos descritores são mostrados na Tabela 2. Novamente os métodos BAS e Saliências do Contorno apresentaram o melhor e o pior resultados, respectivamente. Tabela 2. Total de acertos operando-se sobre a base Kimia-216 (SEBASTIAN et al., 2004). Os métodos estão ordenados (nas linhas) pelo desempenho: iniciando pelo melhor (BAS) e terminando pelo pior (Saliências do Contorno). Descritor Top 1 Top 2 Top 3 BAS (40 amostras) Dimensão Fractal Multiescala Tensor Scale Saliências do Contorno Base MPEG-7 (Part B) O terceiro experimento para avaliação dos desempenhos dos descritores de formas foi realizado utilizando-se as imagens da base MPEG-7 Part B (The MPEG Project), que possui 1400 imagens de formas, sendo 20 amostras para cada uma das 70 classes de formas. As silhuetas dos objetos nas imagens desta base de dados estão em branco sobre um fundo em preto. Esta base apresenta mais rotações, translações e mudanças na escala, bem como deformações e ruídos nas silhuetas, do que as imagens das bases Kimia. Além disso, há grande variabilidade intraclasse e similaridade interclasses, o que torna esta base bastante desafiadora aos métodos de análise de formas. A metodologia de avaliação consistiu em calcular as curvas de Precisão-Revocação (Precision-Recall) para cada um dos descritores sendo analisados. Essas curvas são exibidas na Figura 6. Vale observar que quanto mais alta (mais próxima de Precisão =1 e Revocação =1) for a curva gerada por um descritor, melhor é o seu desempenho. Assim como nos experimentos realizados com as duas bases de dados Kimia, o BAS teve o melhor desempenho e o Saliências do Contorno o pior. Precision-Recall 1,2 1 Precision 0,8 0,6 BAS (40 samples) BAS (60 samples) Contour Saliences Multiscale Fractal Tensor Scale 0,4 0, ,1 0,15 0,2 0,25 0,3 0,35 0,4 0,45 0,5 0,55 0,6 0,65 0,7 0,75 0,8 0,85 0,9 0,95 1 Recall Figura 6: Curvas Precision-Recall dos descritores testados sobre a base MPEG-7 Part B. 46

47 (ISSN: ) - Vol. 3, N. 1, DISCUSSÃO A partir dos resultados obtidos nos experimentos pode-se perceber que o método BAS apresenta melhor desempenho nos testes realizados com as três bases de imagens e há uma boa diferença entre as taxas de acerto deste em relação ao segundo melhor método, o Dimensão Fractal Multiescada. Mesmo tendo sido proposto em 2003, o método BAS ainda apresenta desempenho superior em relação a outros métodos mais novos. A ideia do funcionamento deste descritor é relativamente simples, mas ele é capaz de analisar e classificar as formas com eficiência. Apesar dos bons resultados do BAS, este descritor pode ser muito lento quando as imagens são grandes ou as bordas apresentam muitos pontos. A complexidade da fase de extração de características do BAS é θ(n2) uma vez que para gerar as funções 1-D associada a uma certa forma é necessário calcular, para cada um dos n pontos da borda do objeto, n/2 ângulos. A fase de casamento do descritor BAS, a qual emprega o algoritmo OCS, também tem complexidade quadrática. Com o aumento do poder de armazenamento e a evolução dos sensores de captura, as bases de imagens e as próprias imagens tendem a se tornar cada vez maiores. Desta forma, o BAS pode acabar não sendo indicado para ser utilizado em aplicações onde o baixo tempo de processamento é um dos principais requisitos. Neste sentido, a criação de novos descritores de formas robustos, mas também ágeis, é um campo de pesquisa promissor. Uma abordagem ainda não utilizada nos trabalhos de análise de formas, mas que pode ser usada na descrição e classificação eficiente de formas corresponde à representação das bordas dos objetos por meio da Transformada de Hough (DUDA e HART, 1972). Para detectar retas em imagens por meio da Transformada de Hough, Duda e Hart (1972) propuseram a utilização da equação da reta definida por coordenadas polares, ρ=x cos(θ)+y sen(θ), uma vez que os parâmetros θ e ρ desta equação são limitados e, portanto, mais indicados que os parâmetros a e b da equação tradicional da reta y=a x+b. Como ilustrado na Figura 7, esta parametrização representa cada reta da imagem por meio do ângulo θ de seu vetor normal e de sua distância ρ em relação à origem do sistema (origem da imagem). Figura 6: Representação de retas através dos parâmetros θ e ρ. Se restringirmos θ ao intervalo [0, π), então os parâmetros ρ e θ de uma dada reta são únicos. Com esta restrição, toda reta no plano x-y corresponde a um único ponto no plano θ-ρ (espaço de parâmetros ou espaço de Hough). Cada ponto da imagem com suas coordenadas (x i,y i ) é representado por uma senóide (obtida a partir das coordenadas do ponto e da equação da reta citada) no espaço θ-ρ. Uma importante propriedade da Transformada de Hough (geração do espaço θ-ρ com base no espaço da imagem) é que as senóides do espaço de parâmetros θ-ρ que representam pontos colineares da imagem têm um ponto de intersecção comum (θ 0, ρ 0 ) o qual representa a reta da imagem à qual os pontos pertencem. Desta forma, após gerar o espaço de Hough de uma dada forma, isto é, após representar todos seus pontos de borda no espaço de parâmetros θ-ρ por meio de senóides, pontos da borda pertencentes a segmentos de reta da borda terão senóides que passam por posições onde há grande quantidade de intersecções de senóides no espaço de parâmetros (posições que representam os segmentos de reta da borda 47

48 (ISSN: ) - Vol. 3, N. 1, 2014 neste espaço). Por outro lado, pontos de regiões arredondadas da borda terão senóides que não passam por posições do espaço de parâmetros de alta concentração de senóides, isto é, o número de senóides que cruzam a curva senoidal do ponto no espaço θ-ρ estará bem distribuído ao longo da extensão da mesma. Com isto diversos descritores de formas podem ser criados, por exemplo, baseando-se na disposição das intersecções das senóides no espaço de parâmetros ou então na quantidade e disposição de intersecções ao longo de cada senóide. Diversas outras medidas podem ser extraídas deste espaço o qual pode ser representado por uma matriz de inteiros, estrutura de fácil armazenamento e acesso, viabilizando o desenvolvimento de descritores de formas rápidos e robustos, talvez até melhores que o BAS. A capacidade que os espaços de Hough têm de armazenar informações a respeito de formas a fim de se poder, com base nestas, caracterizar e identificar objetos presentes em imagens é grande. A Figura 8 mostra os espaços de Hough gerados a partir dos pontos de borda de quatro silhuetas de objetos. Nota-se que objetos semelhantes apresentam espaços de Hough similares, enquanto que objetos distintos apresentam espaços de Hough também distintos. Figura 8: Exemplos de espaços de Hough gerados a partir de silhuetas de maçãs (esquerda) e ossos (direita). Cada espaço de Hough foi gerado a partir da borda da respectiva forma. As regiões mais claras do espaço de Hough indicam posições de grande concentração de intersecções de senóides (as quais representam cada um dos pontos da borda da forma da imagem no espaço de parâmetros). CONSIDERAÇÕES FINAIS Com base nos descritores apresentados e nos resultados dos experimentos realizados percebe-se que existem várias abordagens para a caracterização e reconhecimento de formas. Dependendo da abordagem utilizada, um descritor de formas pode obter melhor ou pior desempenho dada uma base de imagens. Nos experimentos realizados neste trabalho o descritor bas se configurou como o melhor método de análise de formas. Apesar dos bons resultados o bas pode se tornar muito lento, em especial quando se trabalha com grandes bases de imagens ou com imagens de grandes dimensões uma vez que tanto para extrair as funções 1-d de uma borda quanto para ca- 48

49 (ISSN: ) - Vol. 3, N. 1, 2014 sar vetores de características de duas bordas diferentes ele apresenta complexidade θ(n2). Desta forma, novos métodos de descrição e identificação de formas continuam surgindo. Independente do enfoque do método na análise de formas, ele deve, pelo menos, ser invariante à translação, rotação e escala. Uma abordagem que pode ser empregada na análise de formas corresponde ao uso de espaços de hough na representação das mesmas. Estes espaços guardam grande quantidade de informações as quais podem ser extraídas a fim de identificar os objetos. Além disto, a criação do espaço de hough para uma dada forma é simples (usa- -se uma matriz de inteiros) e o acesso ao mesmo é bastante rápido. Desse modo, descritores de formas baseados na transformada de hough se apresentam como uma ideia inovadora e promissora. Extraindo as medidas certas dos espaços de hough, excelentes resultados (até melhores que os do bas) poderão ser obtidos de maneira mais rápida. REFERÊNCIAS BIBLIOGRÁFICAS ANDALÓ, F. A.; MIRANDA, P. A. V.; TORRES, R. S.; FALCÃO, A. X. A New Shape Descriptor Based on Tensor Scale. Proceedings of the 8th International Symposium on Mathematical Morphology, v. 1, p , ARICA, N.; VURAL, F. T. Y. BAS: a Perceptual Shape Descriptor Based on the Beam Angle Statistics. Pattern Recognition Letters, v. 24, n. 9-10, p , COSTA, L. F.; JÚNIOR, R. M. C. Shape Analysis and Classification Theory and Practice. Estados Unidos: CRC Press, COSTA, L. F.; CAMPOS, A.; MANOEL, E. An Integrated Approach to Shape Analysis: Results and Perspectives. Proceedings of the International Conference on Quality Control by Artificial Vision, p , Maio, DUDA, R. O.; HART, P. E. Use of the Hough Transformation to Detect Lines and Curves in Pictures. Communications of ACM, n. 1, p. 1-15, DUDA, R. O.; HART, P. E.; STORK, D. G. Pattern Classification. Estados Unidos: Wiley-Interscience, FALGUERA, J. R.; MARANA, A. N. Reconhecimento Automático de Sinus Frontais para Identificação Humana Forense Baseada na Transformada Imagem-Floresta e no Contexto da Forma, Dissertação (Mestrado em Ciência da Computação) - Instituto de Biociências, Letras e Ciências Exatas, Universidade Estadual Paulista (UNESP), São José do Rio Preto. Disponível em: < unesp.br/ppgcc/dissert/diss-03-juan.pdf>. Acesso em: 10 jun LATECKI, L. J.; LAKÄMPER, R. Shape Similarity Measure Based on Correspondence of Visual Parts. IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 22, n.10, p , MANDELBROT, B. The Fractal Geometry of Nature. Estados Unidos: H. Freeman and Co., MIRANDA, P. A. V.; TORRES, R. S.; FALCÃO, A. X. TSD: a Shape Descriptor Based on a Distribution of Tensor Scale Local Orientation. Proceedings of Brazilian Symposium on Computer Graphics and Image Processing, p , MOKHTARIAN, F.; ABBASI, S. Shape Similarity Retrieval under Affine Transforms. Pattern Recognition, n. 35, v. 1, p , SAHA, P. K. Tensor Scale: a Local Morphometric Parameter with Applications to Computer Vision and Image Processing. Computer Vision and Image Understanding, n. 3, p , SEBASTIAN, T.; KLEIN, P.; KIMIA, B. Recognition of Shapes by Editing their Shock Graphs. IEEE Transactions on Pattern Analysis and Machine Intelligence, v. 26, p , Maio, TORRES, R. S.; FALCÃO, A. X.; COSTA, L. F. A Graph-Based Approach for Multiscale Shape Analysis. Pattern Recognition, n. 37, p , TORRES, R. S.; FALCÃO, A. X. Contour Salience Descriptors for Effective Image Retrieval and Analysis. Image and Video Computing, n. 25, p. 3-13, The MPEG Project. Disponível em: < Acesso em: 10 jun WANG, Y. P.; PAVLIDIS, T. Optimal Correspondence of String Subsequences. IEEE Transactions on Pattern Analysis and Machine Intelligence, n. 11, v. 12, p ,

50 (ISSN: ) - Vol. 3, N. 1, 2014 Gustavo Botelho de Souza é técnico em informática pelo Colégio Técnico Industrial da Universidade Estadual Paulista (UNESP), campus de Bauru, e bacharel em Ciência da Computação pela mesma universidade. Atualmente é aluno de mestrado (em Ciência da Computação) da UNESP, campus de São José do Rio Preto. Tem interesse nas áreas de pesquisa: análise de imagens, visão computacional e biometria. Aparecido Nilceu Marana é graduado em Matemática pelo Instituto de Biociências, Letras e Ciências Exatas, UNESP, São José do Rio Preto. Mestre em Ciência da Computação pelo Instituto de Computação da UNICAMP, Campinas, e doutor em Engenharia Elétrica pela Faculdade de Engenharia Elétrica e de Computação da UNI- CAMP, Campinas. Realizou pós-doutorado na Michigan State University na área de biometria. É livre-docente em Sistemas Biométricos pela Universidade Estadual Paulista. Também tem interesse nas áreas de pesquisa: análise de imagens, visão computacional e biometria. 50

51 ARQUITETURA DE UM SISTEMA MULTIAGENTE AUTÔNOMO PARA SUPERVISÃO E CONTROLE QUEIROZ, Jonas Felipe Pereira de Universidade Estadual Paulista (UNESP Rio Claro) jonnas@rc.unesp.br GUILHERME, Ivan Rizzo Universidade Estadual Paulista (UNESP Rio Claro) ivan@rc.unesp.br RESUMO: Neste trabalho é apresentada uma arquitetura multiagentes voltada para o desenvolvimento de sistemas de supervisão e controle de processos, tendo como objetivo principal automatizar tarefas que são repetitivas e cansativas, além de sujeitas a erros quando realizadas por seres humanos. A partir do estudo de um conjunto de aplicações, presentes na literatura, que utilizam a abordagem de sistemas multiagentes para a integração de dados e monitoramento de processos para a detecção e diagnósticos de falhas, foram identificados um conjunto de agentes que são utilizados como base na definição da arquitetura multiagente proposta. Um protótipo de um sistema para a análise de anormalidades durante a perfuração de poços de petróleo foi desenvolvido. PALAVRAS-CHAVE: agentes de software; arquitetura multiagente; sistemas de supervisão e controle. ABSTRACT: This paper presents a multi-agent architecture that was designed to develop processes supervision and control systems, with the main objective to automate tasks that are repetitive and stressful, and error prone when performed by humans. A set of agents were identified, based on the study of a number of applications found in the literature, that use the approach of multi-agent systems for data integration and process monitoring to faults detection and diagnosis, these agents are used as basis of the proposed multi-agent architecture. A prototype system for the analysis of abnormalities during oil wells drilling was developed. KEYWORDS: software agents; multi-agent architecture; supervisory and control systems. 1. INTRODUÇÃO Nas ultimas décadas, especialmente devido ao desenvolvimento de novas tecnologias, houve um aumento na utilização de controladores e sensores nas indústrias, principalmente nos setores de produção, gerando ambientes complexos caracterizados por um grande número de componentes heterogêneos e a alta conectividade entre eles. Esses componentes correspondem a equipamentos, instrumentos e outros sistemas instalados nos ambientes industriais, e são responsáveis pela medição de parâmetros, controle de equipamentos e máquinas, e gerenciamento dos processos envolvidos. Nesses ambientes complexos é gerado um grande volume de dados em diversos formatos, provenientes dos vários componentes, e com isso cresce a demanda pela integração e análise desses dados a fim de melhorar o gerenciamento dos processos e do controle das operações. A grande quantidade de informações produzidas criam cenários onde pessoas não são mais capazes de administrar, supervisionar e controlar todas as atividades envolvidas (BRAZIER, KEPHART, et al., 2009). A fim de automatizar o gerenciamento e execução dos diversos processos e tarefas nesses ambientes há a necessidade de abordagens que suportem o projeto e desenvolvimento de sistemas computacionais para a integração e o controle dos vários componentes, fornecendo também ferramentas para auxiliar os profissionais no monitoramento dos processos e nas tomadas de decisão. Nesse sentido, a abordagem de sistemas multiagente (SMA) é uma tecnologia que vem sendo muito usada, não só nas pesquisas acadêmicas, mas em alguns projetos industriais (PECHOUčEK e 51

52 (ISSN: ) - Vol. 3, N. 1, 2014 MARÍK, 2008), e é apontada como uma das mais promissoras técnicas para o desenvolvimento de sistemas complexos. Essa abordagem oferece um caminho promissor e inovador para entender, desenvolver, gerenciar e manter sistemas computacionais distribuídos, em larga escala, dinâmicos, abertos e heterogêneos (JENNINGS, 2001). Um outro aspecto importante é que o gerenciamento desses sistemas além de exigir muito tempo dos profissionais, envolve atividades que demandam de mão de obra específica e qualificada para tratar situações imprevistas, como a reconfiguração do sistema em caso de mudanças no ambiente, restabelecer o funcionamento do sistema em caso de falhas, entre outras. Para lidar com esses problemas há a necessidade de sistemas computacionais com capacidades de se auto-gerenciar, de forma que seja necessária a mínima intervenção humana, liberando os profissionais das tarefas que podem ser automatizadas para que possam executar atividades de mais alto nível. Nesse sentido, neste trabalho é apresentado os resultados de um estudo para o desenvolvimento de uma arquitetura de software utilizando a abordagem de sistemas multiagentes para a construção de sistemas autônomos para a supervisão e controle de processos. No estudo foram identificados, em trabalhos correlatos, os aspectos relacionados a sistemas multiagentes voltados para as atividades de supervisão e controle. A arquitetura em questão deverá apresentar características e mecanismos para a análise e integração dos dados gerados, recuperação de falhas, se adaptar a mudanças no ambiente, otimizar seus processos, e fornecer interfaces gráficas para auxiliar os usuários na supervisão e controle dos processos assim como nas tomadas de decisão. 2. Sistemas multiagentes O paradigma de sistemas multiagentes apresenta uma nova abordagem para o desenvolvimento de sistemas de software, diferente da abordagem Orientada a Objetos (OO), mas não é vista como uma abordagem para substituir a abordagem OO. Ao invés disso é proposto como uma nova solução para complementar esse paradigma no desenvolvimento de aplicações onde as abordagens convencionais não oferecem os recursos e abstrações necessárias. Esse paradigma viabiliza a resolução de problemas de outra forma que não a tradicional, apresentando novas formas para resolver problemas complexos e distribuídos. Segundo (JENNINGS, 2000; WO- OLDRIDGE, 2002), um agente é um sistema computacional encapsulado que está situado em um ambiente e que é capaz de agir de forma flexível e autônoma neste ambiente, a fim de alcançar seus objetivos de projeto. Assim, agentes são componentes com interfaces bem definidas (sensores e atuadores), através das quais são capazes de perceber e agir no ambiente de forma autônoma, ou seja, possuem controle sobre seus estados e comportamentos, a fim de realizar tarefas para alcançar seus objetivos. Eles podem agir em respostas a mudanças do ambiente e são independentes da intervenção humana ou de outros sistemas para tomar decisões. Os agentes apresentam um conjunto de propriedades (WOOLDRIDGE e JENNINGS, 1995; WOOLDRIDGE, 2002): autonomia operam sem a intervenção direta de humanos ou outros sistemas e possuem controle sobre suas ações e estados; habilidade social capacidade de interagir com outros agentes utilizando uma linguagem de comunicação que permite aos agentes negociarem e cooperarem para alcançar seus objetivos; reatividade capacidade de agir em resposta ao ambiente; pró-atividade capacidade de exibir comportamento direcionado a objetivos, tomando a iniciativa para satisfazer seus objetivos de projeto. Existem sistemas onde um único agente é suficiente para a realização de algumas tarefas, mas na maioria das vezes são necessários mais de um agente, dessa forma caracterizando um sistema Multiagentes (SMA). Um SMA pode ser definido como (WOOLDRIDGE, 2002): um conjunto de agentes, que interagem uns com os outros. No caso mais geral, os agentes vão agir em favor de usuários com diferentes 52

53 (ISSN: ) - Vol. 3, N. 1, 2014 objetivos e motivações. Para terem sucesso nas interações, eles vão requerer habilidades de cooperação, coordenação e negociação. A abordagem multiagente é uma nova solução para o desenvolvimento de sistemas complexos (JENNINGS, 2001), estendendo as abordagens convencionais e fornecendo a abstração necessária para o desenvolvimento de sistemas: heterogêneos formados por diversas entidades; dinâmicos capazes de se adaptar a variações nas condições do ambiente em que estão situados; abertos componentes podem entrar ou deixar o sistema em tempo de execução; distribuído não possui necessariamente um controle centralizado, formados por entidades autônomas (agentes) que são capazes de se organizar, negociar e cooperar para alcançar os objetivos do sistema. 3. Sistemas de produção Sistemas de produção consistem de um ambiente formado por um conjunto de máquinas e equipamentos de diferentes tipos agrupados para a produção de bens a partir do processamento de matéria-prima (CHRYSSOLOURIS, 2006). Geralmente, cada um dos equipamentos nesse ambiente (também chamado de chão de fábrica) desempenha diferentes tarefas, onde cada uma dessas operações agrega certo valor a matéria-prima que ao final de uma sequência de operações se transforma em um produto acabado pronto para ser comercializados ou usado para a fabricação de outros produtos. Há também a necessidade de mão de obra para gerenciar os diversos processos envolvidos na cadeia de produção, responsáveis pela operação e o controle dos equipamentos, que demanda profissionais qualificados, com conhecimento técnico e especializado. Os sistemas de produção são classificados em dois grandes grupos: sistemas de processos contínuos e sistemas de processos discretos. Os sistemas que tratam processos contínuos envolvem a produção de bens que não podem ser identificados individualmente, exemplos de sistemas de produção contínuos são processos das indústrias de produtos químicos, petróleo e derivados, energia elétrica. Já nos que lidam com processos discretos esses bens podem ser isolados, em lotes ou unidades o que permite a distinção entre eles, exemplos de sistemas de produção discretos são processos das indústrias de automóveis, eletrodomésticos, e produtos cerâmicos. A internacionalização do mercado e da economia mundial nos últimos anos trouxe também um grande aumento na competitividade entre as empresas. Para se adaptar as novas necessidades do mercado, as indústrias vêm adotando novas estratégias para melhorar o desempenho da produção. Nesse sentido as indústrias tem buscado novos meios para otimizar a utilização dos recursos, maximizar a qualidade enquanto minimiza os custos e o tempo de produção. Nesse cenário, a automação da produção tem um papel fundamental nessa busca por melhor qualidade e redução dos custos. Os avanços tecnológicos ocorrido nos últimos anos, principalmente em relação a máquinas, sensores e equipamentos, contribuiu para a diminuição dos custos desses componentes, consequentemente aumentando sua utilização na indústria. Nesse contexto, o aumento do uso de instrumentos de medição responsáveis pelo monitoramento das condições dos componentes e das operações, ocasionou o aumento da quantidade de informações geradas pelos equipamentos e processos. Muitas dessas informações ainda não são devidamente aproveitadas principalmente porque as diferentes máquinas e equipamentos utilizam protocolos e tecnologias específicas o que dificulta a comunicação entre esses sistemas. Algumas das principais características identificadas nos ambientes de produção são: Variedade de equipamentos geralmente são constituídos por um grande número de componentes que podem ser tanto hardware (ex. sensores) como software (ex. sistemas de aquisição de dados); Natureza distribuída os diversos componentes que formam o siste- 53

54 (ISSN: ) - Vol. 3, N. 1, 2014 ma como: máquinas, equipamentos, sensores, controladores, etc.; se encontram distribuídos ao longo da planta de produção; Sistemas heterogêneos grande parte dos equipamentos, sensores e outros sistemas utilizam interfaces proprietárias o que pode dificultar a integração desses componentes; Flexibilidade de produção habilidade do sistema de mudar para produzir novos produtos, a ordem de operações executadas, usar múltiplas máquinas para a mesma operação, e também absorver mudanças em relação ao volume de produção; Grande quantidade de informação proveniente principalmente de sensores instalados nos equipamentos. Nesse sentido já existem alguns sistemas e ferramentas computacionais voltados para integrar e monitorar as informações dos diversos equipamentos. Esses sistemas de supervisão e controle, desenvolvidos especialmente com o objetivo de gerenciar e automatizar os processos de produção e assim garantir o funcionamento correto dos equipamentos e a segurança das operações. Analisando esse cenário, o grande desafio no desenvolvimento de sistemas de supervisão e controle industrial é a integração dos diversos componentes, sistemas e subsistemas. Desta forma, fazer com que haja comunicação entre todos eles, já que os mesmos muitas vezes são baseados em plataformas, interfaces e utilizam tecnologias diferentes. Tendo como o objetivo principal a coleta e integração das informações produzidas no chão de fábrica para que possam ser armazenadas e analisadas, e assim melhor aproveitadas pelos operadores e engenheiros. Ferramentas para a automação das tarefas de análise das informações são essenciais para a indústria. Os resultados, obtidos com a análise das informações, podem ser utilizados para diversas finalidades, como por exemplo, previsão dos tempos de produção, identificação da variação de desempenho dos equipamentos indicando problemas de mau funcionamento e degradação, identificação de anormalidades nos processos que também podem afetar a quantidade e qualidade do produto final. E também através da análise de informações em tempo real, provenientes de sensores, prever a ocorrência de possíveis falhas. Nesse sentido, o monitoramento em tempo real dessas informações também tem um papel fundamental para garantir a segurança e o bom funcionamento das operações. Considerando todos esses aspectos, o desenvolvimento de sistemas de supervisão e controle mais inteligentes, capazes de gerenciar e processar todas as informações dos processos, tornam-se cada vez mais necessários para a indústria. Dessa forma, melhorando significativamente a produção, fornecendo um maior entendimento do negócio e do ambiente, e com isso possibilitando analisar, monitorar e controlar as operações de forma mais segura. 4. Sistema multiagente de supervisão e controle A tecnologia de agentes vem sendo utilizada para uma variedade de aplicações no setor industrial tais como: sistemas para automação de controle, supervisão e diagnóstico, planejamento da produção, gerenciamento de riscos, logística e gerenciamento de recursos, simulação, entre outras (PECHOUčEK e MARÍK, 2008). A abordagem multiagente tem sido adotada por fornecer as abstrações e ferramentas adequadas para o desenvolvimento de sistemas complexos que apresentam características como as encontradas nos ambientes de produção. Com a utilização da tecnologia de agentes, cada um dos componentes envolvidos são transformados em componentes autônomos e independentes, capazes de se coordenar e cooperar para a realização das tarefas. Dessa forma facilitando também a integração entre os componentes heterogêneos, sendo que nesta infraestrutura os agentes trocam recursos e serviços através da utilização de uma linguagem de comunicação de agentes (ACL Agent Communication Language). Também devido ao comportamen- 54

55 (ISSN: ) - Vol. 3, N. 1, 2014 to autônomo dos agentes, podem ser atingidos maiores níveis de flexibilidade para sistemas de produção dinâmicos. Facilitando as mudanças tanto na reorganização das operações, como entrada de novos equipamentos ou saída de componentes do sistema que também podem ser causadas pela falha dos mesmos. Além de possibilitar a continuidade operacional de uma determinada parte local da produção, caso haja problemas em outras partes da produção por falhas de equipamentos que não podem ser substituídos entre outros problemas. A adoção de sistemas baseados em agentes com essas características eliminam ou pelo menos diminuem o trabalho manual de re- -configuração e restauração do sistema, que é uma tarefa complexa e que necessita de conhecimentos especializados para ser realizado pelos operadores e responsáveis pelos mesmos, caso o sistema seja executado em um ambiente aberto e sujeito a falhas ou mudanças que não foram previstas. Nesse sentido, várias arquiteturas têm sido definidas utilizando as abordagens multiagentes para a solução de uma variedade de problemas que vão desde a integração de componentes e sistemas heterogêneos, bases de informações distribuídas (CAPRETZ e HRYB, 2005; PURVIS, CRANEFIELD e NOWOSTAWSKI, 2000), até sistemas mais complexos para monitorar ambientes e processos a fim de prever e identificar a ocorrência de anormalidades (BUNCH, et al., 2005; CERRADA, et al., 2007; NG e SRINIVASAN, 2010). As arquiteturas multiagentes apresentadas nesses trabalhos foram analisadas a fim de identificar os principais aspectos desses SMAs, que inclui a forma como os agentes são empregados, quais os papéis e funções desses agentes e como eles interagem para a execução de suas tarefas, e também a organização arquitetural desses sistemas. A análise realizada foi utilizada como referência para auxiliar na especificação e desenvolvimento da arquitetura multiagentes proposta, que é apresentada na seção seguinte. 5. Arquitetura multiagente para supervisão e controle Na análise dos SMAs utilizados como referência foi possível observar que esses sistemas apresentam várias características em comum, mas também possuem características que são específicas do domínio da aplicação para a qual foram propostos. Entre as características em comum, em muitas das abordagens foram identificados agentes que desempenham as mesmas funções dentro do sistema, embora apareçam com nomes diferentes. Para a definição dos agentes que compõem a arquitetura multiagente proposta foi realizada uma análise de cada um dos agentes utilizados por essas abordagens, seus papéis e organização dentro do sistema. Com isso, foi identificado um conjunto de agentes necessários para desempenhar as tarefas de gerenciamento, supervisão e controle de processos. Onde as funções e capacidades dos agentes, assim como seus relacionamentos foram determinados. A seguir, é apresentada a organização arquitetural do SMA (Figura 1) em termos de seus componentes e alguns de seus relacionamentos, essa arquitetura está dividida em três componentes principais: Interface do usuário composto pelas interfaces gráficas responsáveis por apresentar as funcionalidades e recursos do sistema para os usuários, através das quais o usuário pode supervisionar e controlar os diversos processos envolvidos; Sistema Multiagente formado por um conjunto de agentes responsáveis por automatizar as tarefas de supervisão e controle, como integração monitoramento, e análise dos dados e processos, a fim de identificar situações indesejadas emitindo alarmes e notificações para que as medidas necessárias possam ser tomadas. 55

56 (ISSN: ) - Vol. 3, N. 1, 2014 Figura 1: Organização arquitetural do Sistema Multiagente. Dados e serviços representa as entidades físicas que compõem os ambientes industriais, como: sensores, controladores e outros dispositivos, bases de dados do sistema e fontes de informação, métodos usados para a análise dos dados a fim de identificar e prever a ocorrência de anormalidades, e também outros sistemas, os quais podem estar disponíveis através de interfaces de serviços. No componente Sistema Multiagente (Figura 1) estão representados os tipos de agentes que podem fazer parte do sistema, onde cada um representa um ou mais agentes responsáveis por desempenhar tarefas específicas de acordo com suas especialidades. Por exemplo, em um sistema pode haver vários agentes Recurso, onde cada um possui acesso a uma fonte de informação que pode ser utilizada pelo sistema. A seguir são descritos os tipos de agentes que compõem o SMA e suas capacidades (Figura 1): Interface do usuário representam um conjunto de agentes responsáveis por realizar a comunicação entre o SMA e os usuários, apresentando as funcionalidades do sistema através de interfaces gráficas e também pelo gerenciamento das requisições e preferências, baseado nas características dos dispositivos e no perfil de cada usuário. Para cada usuário que entra no sistema um novo agente é inicializado com o perfil desse usuário, o qual fica responsável por gerenciar a comunicação entre esse usuário e o SMA; Gerenciador de dados representam um conjunto de agentes responsáveis pelo gerenciamento dos dados do sistema. Esses agentes implementam interfaces que permitem basicamente a recuperação e o registro das informações geradas pelo sistema, como: as condições dos processos (medidas ou calculadas), os logs dos eventos, entre outras; Recurso um conjunto de agentes 56

57 (ISSN: ) - Vol. 3, N. 1, 2014 responsáveis por fornecer acesso aos recursos externos, como os dados dos sensores e outros equipamentos. Esses agentes implementam as interfaces de acesso a esses componentes. No sistema pode haver um agente desse tipo para cada recurso externo a ser utilizado pelo sistema, assim é possível que novos recursos sejam inseridos ou removidos do sistema sem afetar o resto da aplicação; Analisador representam um conjunto de agentes responsáveis pelo processamento e análise dos dados usados para a identificação de possíveis anormalidades durante as operações. Esses agentes implementam interfaces que permite a utilização de métodos inteligentes para identificar ou prever a ocorrência desses eventos. Os eventos gerados devem ser notificados, por exemplo, através de alarmes ou alertas, para os usuários ou outros agentes (como os supervisores) para que sejam devidamente tratados; Controlador representam um conjunto de agentes que dão acesso aos dispositivos como controladores e atuadores. Esses agentes devem implementar as interfaces desses dispositivos para permitir a execução das operações de controle. Essas operações são passadas pelos agentes Supervisores e representam ações de controle e planos corretivos a serem executados para reestabilizar ou restaurar os processos; Monitor um conjunto de agentes responsáveis pelo monitoramento dos diversos parâmetros, variáveis e condições dos processos e operações. Podem existir um conjunto desses agentes no sistema, onde cada um seria responsável pelo monitoramento de determinados processos. Esses agentes também podem lançar alarmes em caso de situações indesejáveis, notificando os agentes Supervisores para que as medidas necessárias sejam tomadas para restaurar o funcionamento dos processos; Corretor um agente responsável por manter um registro de todos os agentes presentes no sistema e os serviços prestados por eles. Quando um novo agente entra no sistema ele deve registrar seus serviços junto a um agente Corretor. Assim os agentes do sistema podem consultar um agente Corretor para dinamicamente encontrar quais agentes prestam os serviços necessários para a execução de suas tarefas; Conhecimento um agente responsável por manter uma base de conhecimento com regras e diretrizes necessárias nas tomadas de decisões e que determinam o comportamento global do sistema; Supervisor agentes responsáveis pela supervisão dos processos e tratamento das situações indesejadas. Esses agentes, a partir das notificações de eventos geradas pelos agentes Monitor e Analisador e das diretrizes de funcionamento dos processos obtido dos agentes de Conhecimento, realizam o planejamento e geram os planos corretivos e ações para o gerenciamento e controle dos processos. Coordenador agentes responsáveis pela coordenação dos agentes para alcançarem os objetivos comuns do sistema. Esses agentes, a partir das requisições dos usuários, gerenciam os outros agentes na execução de suas tarefas para automatizar as atividades de monitoramento e análise dos processos. Eles também podem consolidar os resultados de eventos gerados por diferentes agentes Analisadores para obter informações mais confiáveis. Em algumas das abordagens estudadas algumas das funcionalidades do agente Coordenador também são assumidas pelo agente Supervisor; 57

58 (ISSN: ) - Vol. 3, N. 1, Aplicação da arquitetura proposta Utilizando a arquitetura proposta foi implementado um protótipo de um sistema Web para automatizar o processo de análise e integração de dados. O objetivo do sistema é supervisionar e analisar o grande volume de dados produzidos na perfuração de poços de petróleo a fim de facilitar a identificação da ocorrência de anormalidades durante o processo de perfuração. Muitas atividades da perfuração de poços de petróleo são complexas e dispendiosas, envolvendo vários profissionais especializados que precisam monitorar continuamente os vários parâmetros de sensores e equipamentos para identificar e diagnosticar falhas ou comportamentos indesejados. Uma das anormalidades que pode ocorrer durante a perfuração de poços de petróleo é o Packer Hidráulico (TAVARES, 2006). O protótipo desenvolvido visa o monitoramento da perfuração de poços de petróleo para a identificação do Packer Hidráulico. Nesse protótipo foram implementados os três componentes da arquitetura: Interface do usuário, Sistema Multiagente e Dados e serviços. No componente de Interface do usuário foram implementadas algumas interfaces Web em XHTML com o auxilio do framework JSF (JavaServer Faces). Essas interfaces, que podem ser visualizadas através de qualquer navegador, apresentam os dados da perfuração e os resultados dos processos de análise para os usuários. Na interface do protótipo implementado (Figura 2) é apresentado os gráficos com quatro parâmetros monitorados e os resultados da análise (alertas sobre as condições de operação) realizada para a identificação da anormalidade Packer Hidráulico. Figura 2: Interface do protótipo para análise de anormalidades dos dados de perfuração. No componente de Dados e serviços foram implementados dois serviços Web que permitem aos agentes o acesso aos dados e ao método utilizado para a análise da anormalidade. Os dados utilizados representam um conjunto de dados da perfuração coletados de sensores que são utilizados na análise, e também um outro conjunto de dados, de poços já perfurados, onde especialistas classificaram a ocorrência da anormalidade Packer Hidráulico. Os dados utilizados para a análise e identificação dessa anormalidade são do trabalho de (TAVARES, 2006) e representam um conjunto de parâmetros de perfuração, como: Torque, SPP (pressão no Stand Pipe), ROP 58

59 (ISSN: ) - Vol. 3, N. 1, 2014 (taxa de penetração) e WOH (carga no gancho). Esses dados, disponíveis em um banco de dados, podem ser acessados através do serviço Web implementado. Ainda no componente de Dados e serviços foi implementado um método inteligente utilizado para a identificação da anormalidade. Esse método consiste de uma Rede Neural Artificial (RNA) Multi- -Layer Perceptron (HAYKIN, 1998) que foi implementada utilizando o framework Joone (JOONE, 2012). A RNA foi definida com quatro neurônios na camada de entrada correspondentes aos quatro parâmetros de perfuração monitorados (Torque, SPP, ROP, WOH), duas camadas ocultas com quatro neurônios e uma camada de saída com um neurônio, que indica a ocorrência dessa anormalidade. A RNA foi treinada para o reconhecimento da anormalidade Packer Hidráulico, utilizando um conjunto de dados previamente classificados por especialistas. Posteriormente esse método foi encapsulado como um serviço Web para ser utilizado pelo agente Analisador, para diagnosticar o status da operação, acusando diferentes níveis de alerta relacionados a ocorrência da anormalidade. No componente Sistema Multiagente foram desenvolvidos e implementados alguns agentes com a utilização da plataforma Jadex (JADEX, 2012). Os agentes implementados foram: Interface do usuário, Coordenador, Recurso, Analisador e Corretor. O agente Interface do usuário gerencia as interfaces gráficas apresentadas aos usuários. O agente Coordenador trata as requisições e coordena os outros agentes na execução das tarefas. O agente Recurso faz a aquisição dos parâmetros de perfuração através do serviço Web implementado no componente de Dados e serviços. O agente Analisador utiliza os dados fornecidos pelo agente Recurso para a análise da anormalidade. Para o agente Corretor foi utilizado um agente da plataforma Jadex que oferece os serviços de registro, esse agente é chamado de Directory Facilitator (DF). Na Figura 3 é apresentado o diagrama de sequência do processo de análise, este diagrama exemplifica como é o relacionamento e a comunicação entre os agentes do sistema para realizar a tarefa de análise da anormalidade Packer Hidráulico. Nesse cenário o usuário faz uma requisição de análise através de uma interface Web, essa requisição é interpretada pelo agente Interface Usuário que faz uma requisição para o agente Coordenador trata-la. O agente Coordenador analisa a requisição e então faz uma busca, solicitando ao agente DF (Corretor), por agentes que desempenham as atividades necessárias para a execução da análise da anormalidade. O agente DF fornece uma lista com os agentes que prestam os serviços relacionados à análise requisitada, que nesse caso são os agentes do tipo Analisador que realiza a análise da anormalidade Packer Hidráulico e também os agentes Recurso que fornecem os dados utilizados para esta análise. Conhecendo os agentes necessários, o Coordenador requisita a análise para um agente Analisador que foi encontrado na busca. Em seguida o Analisador solicita ao agente Recurso os dados necessários para o processo de análise. Posteriormente, com esses dados o agente Analisador invoca o serviço Web para a análise do Packer Hidráulico (PHWS), implementado no componente de Dados e serviços. Os resultados da análise são informados para o Coordenador, que se necessário pode processar essas informações, gerando o resultado final que é repassado ao agente Interface Usuário, e este apresenta ao usuário os resultados atualizando as interfaces Web. 59

60 (ISSN: ) - Vol. 3, N. 1, 2014 Figura 3: Diagrama de sequência do processo de análise. 7. CONSIDERAÇÕES FINAIS E TRABA- LHOS FUTUROS No desenvolvimento desse trabalho foi possível verificar que a abordagem multiagente está sendo utilizada para o desenvolvimento de sistemas computacionais complexos em vários domínios. No setor industrial, esses sistemas são usados para gerenciar grandes quantidades de informações, controlar processos, auxiliar profissionais em situações de tomada de decisões, automatizar atividades, entre outras tarefas, a fim de garantir a segurança e o funcionamento das operações e também automatizar algumas tarefas que são consideradas repetitivas ou cansativas para os seres humanos. Esses SMAs apresentam uma forma de controle descentralizado onde os agentes podem ser executados em plataformas distribuídas e com um grau de autonomia, são adaptativos e abertos sendo capazes de se adaptar a novas situações e permitem que componentes entrem ou saiam do sistema dinamicamente. Assim, a utilização de uma arquitetura multiagente fornece uma infraestrutura mais apropriada para lidar com a complexidade dos ambientes industriais. Possibilitando o desenvolvimento de sistemas de supervisão e controle mais inteligentes, onde pode ser feita a analisa, monitoramento e controle das etapas produtivas de forma mais eficaz. Nesse contexto, a arquitetura apresentada define um conjunto de agentes, seus comportamentos e organização que atendam aos requisitos de sistemas de supervisão e controle de processos. Desta forma, essa arquitetura pode ser utilizada como base para o desenvolvimento de sistemas de supervisão e controle de processos em vários domínios. Um protótipo foi implementado utilizando a arquitetura proposta. Para o teste do protótipo foi desenvolvido um sistema Web multiagente para a supervisão dos processos de perfuração de poços de petróleo. Alguns agentes necessários foram implementados e também uma RNA como método para análise da anormalidade Packer Hidráulico. Como trabalhos futuros para o aperfeiçoamento da arquitetura proposta será feito um estudo visando a definição de mecanismos e diretrizes que sirvam para guiar o comportamento do sistema multiagente nas operações de supervisão e controle. Dessa forma o sistema será capaz de se reconfigurar automaticamente para se adaptar as variações do ambiente como a 60

61 (ISSN: ) - Vol. 3, N. 1, 2014 saída ou entrada de novos agentes, assim como se recuperar de falhas. Também serão definidos mecanismos para o SMA continuamente avaliar suas operações e com isso identificar oportunidades para se tornar mais eficiente, otimizando a performance. Posteriormente o protótipo do sistema Web desenvolvido será evoluído para contemplar os mecanismos definidos. REFERÊNCIAS BIBLIOGRÁFICAS BRAZIER, F. M. T. et al. Agents and service-oriented computing for autonomic computing: A research agenda. Internet Computing, IEEE, v. 13, n. 3, p , BUNCH, L. et al. KARMEN - Multi-agent monitoring and Notification for Complex Processes. In LNAI No Heidelberg: Springer Verlag p CAPRETZ, M. A. M.; HRYB, M. C. Software integration using a dynamic wrapper agent. WSEAS Conferences p CERRADA, M. et al. Agents-based design for fault management systems in industrial processes. Computers in Industry, 58, n. 4, CHRYSSOLOURIS, G. Manufacturing Systems: Theory and Practice (Mechanical Engineering Series). 2nd. ed. New York: Springer, p. HAYKIN, S. Neural Networks: A Comprehensive Foundations. Second Edition JADEX. BDI Agent System - Jadex Software Projects, 2012 Disponível em: < uni-hamburg.de/>. Acesso em: 27 Julho JENNINGS, N. R. On agent-based software engineering. Artificial intelligence, v. 117, n. 2, p , JENNINGS, N. R. An agent-based approach for building complex software systems. Communications of the ACM, 44, n. 4, JOONE. Java Object Oriented Neural Engine, 2012 Disponível em: < Acesso em: 2 Setembro 2012 NG, Y. S.; SRINIVASAN, R. Multi-agent based collaborative fault detection and identification in chemical processes. Engineering Applications of Artificial Intelligence, 23, n. 6, PECHOUčEK, M.; MARÍK, V. Industrial deployment of multi-agent technologies: review and selected case studies. Autonomous Agents and Multi-Agent Systems, 17, n. 3, PURVIS, M.; CRANEFIELD, S.; NOWOSTAWSKI, M. A distributed architecture for environmental information systems. In Environmental Software Systems-Environmental Information and Decision Support p TAVARES, R. M. Interpretação e Análise de Dados de Perfuração em Poços de Petróleo. Dissertação de Mestrado (Universidade Estadual de Campinas) WOOLDRIDGE, M. An Introduction to MultiAgent Systems. John Wiley & Sons, WOOLDRIDGE, M.; JENNINGS, N. R. Intelligent Agents: Theory and Practice. The Knowledge Engineering Review, v. 10, n. 2, p , Jonas Felipe Pereira de Queiroz é graduado em Ciências da Computação (2007) pela UNESP Rio Claro. E mestrando em Ciências da Computação pela UNESP no Programa de Pós-graduação em Ciências da Computação (PPGCC). Realiza pesquisas na área de Sistemas Multiagentes. Ivan Rizzo Guilherme é formado em Ciências da Computação pela Universidade Federal de São Carlos (UFScar) em 1985, Mestre e Doutor em Engenharia Elétrica e Computação pela Universidade de Campinas (UNICAMP) em 1990 e 1996 respectivamente. Atualmente professor assistente e doutor na Universidade Estadual Paulista (UNESP Rio Claro). 61

62 62

63 SIMULAÇÃO DE PROBLEMAS DE ELETROHIDRODINÂMICA USAN- DO O MÉTODO DOS ELEMENTOS FINITOS MOMENTE, Julio Cesar Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP) juliocesar.momente@gmail.com MACHADO, José Márcio Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP) jmarcio@ibilce.unesp.br RESUMO: As descargas corona e a geração de fluxo eletrohidrodinâmico têm sido objeto de estudo de diversas pesquisas devido à sua grande aplicabilidade em processos industriais. Com o intuito de se analisar e estudar a fundo estes fenômenos, a simulação computacional das equações que os regem se faz necessária. O método dos elementos finitos apresenta-se como uma técnica numérica bastante robusta e precisa para a simulação destas equações e análise destes fenômenos. PALAVRAS-CHAVE: fluxo eletrohidrodinâmico (EHD), método dos elementos finitos, descargas corona. ABSTRACT: Corona discharges and electrohydrodynamic flow generation have been widely studied due to their large industrial applicability. In order to achieve a deep understanding on these phenomena, a computational simulation of their governing equations need to be performed. Thereby, the finite element method appears as a robust and reliable numerical method to perform this simulation, ensuring a good analysis of these phenomena. KEYWORDS: electrohydrodynamic (EHD) flow, finite element method, Corona discharges. 1. INTRODUÇÃO A eletrohidrodinâmica é o estudo das interações entre um campo elétrico e um campo de fluxo (Brown e Lai, 2009). A aplicação de uma grande diferença de potencial entre um conjunto de eletrodos é capaz de gerar uma descarga elétrica, conhecida como descarga corona, que é capaz de induzir o movimento do fluido, gás ou líquido, ao redor dos eletrodos. Este fluxo de fluido gerado pelas descargas corona é chamado de fluxo eletrohidrodinâmico ou, simplesmente, fluxo EHD. (Zhao e Adamiak, 2009) e (Labergue et al., 2005). A geração de fluxos EHD tem sido amplamente estudada para a aplicação em diversos processos industriais, tais como bombeamento de fluido, resfriamento de microcomponentes, coleta de partículas em suspensão, dentre diversos outros processos (Chang et al., 2009) e (Brown e Lai, 2009). Os diversos estudos realizados têm mostrado que a aplicação de fluxo EHD a tais processos industriais têm provido melhorias, como ganho em eficiência e maior precisão no controle do fluxo, a estes. As descargas corona e a consequente obtenção de fluxo EHD são regidas por um conjunto de equações de campo elétrico e de dinâmica de fluidos. A simulação dessas equações permite que os efeitos dessas descargas elétricas e do fluxo gerado sejam analisados previamente, permitindo a elaboração de técnicas que busquem otimizar a sua utilização nos processos industriais (Zhao e Adamiak, 2006) e (Zhao e Adamiak, 2008). Os problemas em eletrohidrodinâmica são regidos por equações diferenciais parciais as quais, em geral, são intrinsecamente não lineares. Além disso, a geometria dos problemas que envolvem a geração de fluxo EHD, comumente, não é trivial, ou seja, normalmente a geometria desses problemas não possui características de sime- 63

64 (ISSN: ) - Vol. 3, N. 1, 2014 tria que permitam a simplificação do mesmo (Stishkov e Chirkov, 2008). Devido a estas características de não linearidade e geometrias que não permitem simplificações no modelo, a solução analítica das equações que regem as descargas corona e a geração de fluxo EHD torna-se impraticável. A fim de se realizar a simulação das equações que regem esses efeitos, métodos numéricos apresentam-se como uma alternativa factível, visto que a solução analítica destas equações, normalmente, não possível de ser obtida. Neste cenário, o método dos elementos finitos mostra-se como uma boa opção para a simulação das equações que regem estes fenômenos. O método dos elementos finitos é uma técnica robusta e confiável para a solução de sistemas de equações diferenciais, a qual é capaz de lidar com não linearidades e geometrias não regulares apresentando boa precisão nos resultados (Davies, 1980). O objetivo deste trabalho é realizar a implementação do método dos elementos finitos para se realizar a simulação das equações regentes dos problemas de eletrohidrodinâmica. 2. Fundamentação Teórica Quando uma grande diferença de potencial é aplicada a um par de eletrodos, presencia-se a formação de um campo elétrico suficientemente forte para formar uma camada de ionização ao redor dos eletrodos (Moreau, Léger e Touchard, 2006). Esta diferença de potencial tem de ser da ordem de milhares de volts. Devido ao forte campo elétrico formado entre os eletrodos, uma pequena parcela do fluido que está presente ao redor desses se ioniza, formando uma camada de plasma não-térmico (Brown e Lai, 2009). A presença deste forte campo elétrico e da camada de ionização faz com que haja o deslocamento de íons de um eletrodo ao outro. Neste deslocamento, os íons chocam-se com as partículas neutras do fluido e acabam por produzir um deslocamento deste fluido. (Zhao e Adamiak, 2005). A toda esta configuração de formação da camada de ionização e deslocamento de íons devido o campo elétrico é dado o nome de descarga corona (Labergue et al., 2005). A ocorrência de descargas corona, normalmente, ocorre em eletrodos de grande curvatura, também conhecidos como sharp electrodes. Uma configuração de eletrodos bastante utilizada para a geração de descargas corona é composta por um par de eletrodos, sendo que um deles é aterrado e ao outro é aplicado um alto valor de tensão. Este último é denominado de eletrodo corona e é ao redor dele que se forma a camada de ionização (Zhao e Adamiak, 2005). A geração de fluxo EHD pode ser influenciada por diversos fatores, tais como o valor de tensão aplicada ao eletrodo corona, a geometria dos eletrodos, a distância de separação e o fluido que cerca os eletrodos (Brown e Lai, 2009). Estes fatores podem influenciar na eficiência da geração do fluxo, na velocidade do fluxo gerado e na corrente estabelecida pelo deslocamento de íons de um eletrodo ao outro. Todos estes aspectos devem ser analisados ao se aplicar uma configuração de geração de fluxo EHD a algum processo industrial, visto que estes possuem impacto direto no ganho ou melhoria esperados para o processo (Moreau, Léger e Touchard, 2006). Um aspecto importante a ser analisado é o tipo de camada de plasma que se forma ao redor do eletrodo corona. Há dois tipos possíveis de descargas de plasma. Descargas do tipo glow são descargas de plasma que ficam contidas no entorno do eletrodo corona, proporcionando uma geração mais uniforme de fluxo EHD, à baixa velocidade. Descargas do tipo spark estendem-se de um eletrodo ao outro na forma de uma faísca ou raio. Estas descargas produzem velocidades maiores de fluxo EHD, mas não são uniformes e nem constantes, durando por menor período de tempo. Desta forma, é preferível realizar a geração de fluxo EHD através de descargas do tipo glow, mesmo que estas apresentem menor velocidade do fluxo e limitação no valor de tensão aplicado (Moreau, Léger e Touchard, 2006). A geração de fluxo EHD pode ser dividida em duas partes, no que diz respeito às equações que regem este efeito, a parte elétrica e a parte de fluxo (Zhao e Adamiak, 64

65 (ISSN: ) - Vol. 3, N. 1, 2014 K 2006). As grandezas envolvidas na parte elétrica são o campo elétrico, a densidade espacial de carga e a corrente elétrica. Para as equações do fluxo as grandezas envolvidas são a velocidade do fluxo, as forças atuantes, a pressão e o campo de temperaturas (Adamiak, Atrazhev e Atten, 2005). Neste trabalho têm-se desenvolvido apenas a simulação das equações da parte elétrica, para que, com resultados consistentes desta simulação possa-se iniciar a abordagem KE da = parte de fluxo K do pro- ( KE) = 0 K ( qe) = 0 ( ) 0 ( qe) = 0 ( qe) = 0 q E + ( blema. qe) = 0 ( qe) = 0 q E + q E = 0 (6) As equações que regem a parte elétrica do problema são a equação de Poisson, Eq. 1, 2 Ö = q / å 0 (1) desconsideramos os termos de convecção e difusão, obtendo-se (Martins e Pinheiro, 2011): KE = (5) ( ) 0 Aplicando-se o divergente e sabendo que a mobilidade de íons K é constante, temos: Deste desenvolvimento resulta que o conjunto de equações 7 rege a parte elétrica de problemas em eletrohidrodinâmica (Martins e Pinheiro, 2011). onde Φ é o potencial elétrico, ϱ q é a densidade espacial de carga e ε 0 é a permissividade do meio. A equação de densidade de corrente, Eq. 2, j = q ( KE + u) D q (2) onde j é a densidade de corrente, K é a mobilidade dos íons, E é o campo elétrico, u é a velocidade do fluxo e D é o coeficiente de difusão de íons. E, finalmente, a equação de conservação da carga j. (Zhao e Adamiak, 2008), (Feng, 1999) e (Zhao e Adamiak, 2005). Aplicando-se a equação de conservação de carga à equação de densidade de corrente temos: KE + u D = ( ) 0 q q Aplicando-se, então o divergente à equação 3 obtém-se:. KE + u D ( D ) = 0 q Temos na equação 4 três termos, o primeiro corresponde ao termo de condução, o segundo ao termo de convecção e o terceiro ao termo de difusão. Os termos de convecção e difusão possuem pouca influência no valor da equação, sendo o termo de difusão o preponderante. Sendo assim, com o intuito de simplificar a equação, q (3) ( ) ( ) 0 q (4) q q 2 Ö E + = q q / å0 E O Método dos Elementos Finitos (MEF) foi a técnica escolhida para realizar a simulação destas equações. O MEF apresenta-se como uma técnica numérica para a resolução de equações e sistemas de equações diferenciais com boa precisão e robustez (Feng, 1999). A ideia central do método dos elementos finitos é a divisão do domínio do problema em regiões pequenas, onde se possa resolver o problema através de uma aproximação que torne a solução mais fácil. Quão menores forem as partes em que o domínio for dividido quão mais preciso será o resultado da simulação. Utilizando-se desta estratégia, o MEF é capaz de solucionar problemas lineares e não lineares (Davies, 1980) e (Azevedo, 2003). O método dos elementos finitos é dividido = em três etapas. A etapa de pré-processamento, que corresponde à definição do problema, especificação da geometria e condições de contorno e a geração da malha de elementos finitos, que é o conjunto das regiões em que o domínio foi dividido. A etapa de processamento, na qual se realiza a solução do problema para cada um dos elementos da malha e constrói-se a solução do problema como um todo com base nas contribuições de cada elemento. Por fim, a etapa de pós-processamento contempla a = 0 (7) 65

66 (ISSN: ) - Vol. 3, N. 1, 2014 análise dos resultados e a obtenção de informações sobre o problema com base nos resultados obtidos (Cardoso, 1995). 3.Trabalhos relacionados Muitas pesquisas têm sido realizadas com o intuito de prover um completo entendimento das descargas corona e da geração de fluxo EHD a fim de que estes fenômenos possam ser utilizados em processos industriais de forma a garantir uma melhoria nestes. O bombeamento de fluidos é um processo em que a geração de fluxo EHD é capaz de prover melhorias significativas no que diz respeito ao controle do fluxo e a dimensão do aparato utilizado para o bombeamento. Dispositivos de bombeamento de fluidos EHD, que utilizam a geração de fluxo EHD para realizar o bombeamento, possuem controle do fluxo de alta precisão, além de poderem ser utilizados dispositivos em escala reduzida (Adamiak et al., 2007)e (Moon, Hwang e Geum, 2009). A aplicação de geração de fluxo EHD para bombeamento de fluido tem sido estudada para aplicação na indústria farmacêutica para a produção de fármacos e também para o resfriamento de microcomponentes eletrônicos. A utilização de fluxo EHD, nestes casos, mostrou-se mais eficiente do que os dispositivos que utilizam partes mecânicas móveis (Adamiak et al., 2007)e (Moon, Hwang e Geum, 2009). Outra importante aplicação de descargas corona e fluxos EHD é na coleta de partículas em suspensão. Sistemas de filtros de micropartículas utilizam descargas corona e fluxos EHD há alguns anos. Contudo, somente com os recentes avanços em termos de poder computacional, o estudo da eficiência e otimização destes fenômenos pôde ser completamente realizado (Zhao e Adamiak, 2008) (Farnoosh, Adamiak e Castle, 2011). No trabalho desenvolvido por Zhang et al. (2011), acerca de precipitadores eletrostáticos (dispositivos para coleta de partícula em suspensão por meio da geração de fluxo EHD e descargas corona), mostrou-se a melhora na taxa de coleta de partículas menores que 10 (micrometros), que são extremamente prejudiciais a saúde. Há ainda a aplicação das descargas corona no controle ativo de fluxo em aeronaves. As descargas corona são utilizadas para modificar o fluxo de ar que percorre uma aeronave a fim de reduzir a força de arrasto sofrida pela aeronave (El-Kharaby e Colver, 1997). A utilização das descargas corona tem mostrado resultados bastante satisfatórios, sendo capaz de, além de reduzir o arrasto sofrido pela aeronave, aumentar a força de sustentação, deixando a aeronave mais estável, e, como consequência da redução do arrasto, promover uma redução no gasto de combustível. (Labergue et al., 2005) e (El-Kharaby e Colver, 1997). Por fim, a geração de fluxo EHD e as descargas corona são utilizadas em dispositivos de propulsão eletrostática, tais como levitadores eletrostáticos (Zhao e Adamiak, 2004). Dispositivos de propulsão eletrostática têm sido estudados para a aplicação na fabricação de telas de cristal líquido, LCD, pois, segundo o estudo realizado por Woo e Higuchi (2010), estes dispositivos são capazes de prover uma força de sustentação uniforme, o que permite que a camada de separação entre as duas placas de vidro que formam uma tela de cristal líquido seja reduzida, tornando possível a produção de telas mais finas e com maior eficiência energética. 4. Desenvolvimento O presente trabalho contempla a execução de três etapas para que uma análise da parte elétrica de problemas de geração de fluxo EHD seja realizada. As etapas são: modelagem, geração do modelo e das malhas e resolução pelo método dos elementos finitos. 4.1 Geração de modelos e malhas A primeira etapa a ser executada foi a criação dos modelos gráficos do domínio do problema. Esta representação gráfica é a especificação geométrica do domínio com todas as características de posição, elementos, materiais e fronteiras. Estes 66

67 (ISSN: ) - Vol. 3, N. 1, 2014 modelos foram construídos utilizando-se o software Blender (disponível em < blender.org>), um software para a criação de modelos tridimensionais de objetos e estruturas. A figura 1 mostra dois modelos gerados pelo Blender. A figura 1.a. mostra o modelo de um capacitor de placas paralelas e a figura 1.b mostra o modelo de um dispositivo de bombeamento de fluidos cuja configuração de eletrodos não é trivial (Moon, Hwang e Geum, 2009). Após os modelos terem sido criados, as respectivas malhas de elementos finitos foram criadas utilizando-se o software TetGen (disponível em < org>),um software para a geração de malhas de elementos finitos tetraédricas. Para que esta geração de malhas fosse executada, houve a necessidade de se realizar a conversão do formato suportado pelo Blender para o formato de arquivo aceito pelo TetGen. Esta conversão foi realizada por meio de uma programa em linguagem C escrito para este projeto. a) b) Figura 1: Modelos geométricos para aplicação do método dos elementos finitos. A figura 2 mostra as malhas de elementos finitos geradas pelo TetGen. A figura 2.a mostra a malha de elementos tetraédricos do capacitor de placas paralelas. A figura 2.b mostra a malha de elementos tetraédricos do dispositivo de bombeamento de fluidos (Moon, Hwang e Geum, 2009). A figura 2 mostra as malhas de elementos finitos geradas pelo TetGen. A figura 2.a mostra a malha de elementos tetraédricos do capacitor de placas paralelas. A figura 2.b mostra a malha de elementos tetraédricos do dispositivo de bombeamento de fluidos (Moon, Hwang e Geum, 2009). a) b) Figura 2: Modelos de malhas gerados pelo software. 4.2 Modelagem A etapa de modelagem consiste em transformar as equações regentes do problema em uma forma que seja possível de ser implementada computacionalmente. Neste trabalho realizou-se a modelagem tridimensional de problemas de eletrohidrodinâmica, utilizando malhas de elementos tetraédricos, ou seja, o domínio do problema 67

68 (ISSN: ) - Vol. 3, N. 1, 2014 foi dividido em pequenos tetraedros, dentro dos quais se fez a análise do problema. Sendo o resultado obtido para cada elemento combinado, ao final, para a obtenção da solução geral. Para tanto, o método de resíduos ponderados (ou método de Galerkin) foi utilizado para converter as equações que regem a parte elétrica do problema em uma forma matricial, que é facilmente implementado computacionalmente (Feng, 1999). este trabalho realizou-se a simulação da equação de Laplace, Eq. 8, 2 Ö = 0 (8) que rege a parte elétrica de problemas onde não há densidade de carga no ambiente. A equação de Laplace em sua forma matricial é dada pela equação 9, [S]V= 0 (9) onde a matriz [S] é dada facilmente encontrada na literatura (Silvester e Ferrari, 1996). 4.3 Resolução pelo método dos elementos finitos Com a malha gerada e as equações em sua forma matricial, o problema foi resolvido utilizando o método dos elementos finitos, o qual foi implementado em linguagem C, utilizando aproximações lineares para o cálculo da equação de Laplace em cada elemento. Seguindo a metodologia do método dos elementos finitos, uma solução global foi construída com base nos elementos da malha. Os valores de potencial elétrico foram calculados para todos os nós da malha, permitindo uma análise do comportamento do potencial para o capacitor de placas paralelas. Este exemplo mais simples foi utilizado devido a possibilidade de validação com modelos teóricos já conhecidos, o que não seria possível para o modelo do dispositivo e bombeamento de fluidos proposto por Moon, Hwang e Geum. (2009). 5. RESULTADOS Depois de gerados o modelo e a malha de elementos finitos e ao término da execução do método dos elementos finitos, obtém-se os valores de potencial para o modelo. Neste trabalho foi realizada a simulação da equação de Laplace, Eq. 8, para o capacitor de placas paralelas. Para o modelo do capacitor foi gerada uma malha de mais de 13 mil elementos tetraédricos, a qual foi utilizada para gerar a solução pelo método dos elementos finitos. Com o intuito de validar os resultados obtidos pela implementação do método dos elementos finitos, foi realizada uma comparação de um modelo com as mesmas dimensões no software LevSoft (software para a simulação de problemas de eletromagnetismo para modelos em duas dimensões produzido pelo Instituto de Estudos Avançados do Departamento de Ciência e Tecnologia Aeroespacial IEAv DCTA). Devido a restrições do software, o modelo executado no LevSoft é um modelo em duas dimensões, o que não compromete a validação, pois o modelo do capacitor de placas paralelas pode ser planificado sem perda de qualidade da solução. O resultado obtido para o modelo tridimensional e a comparação com o resultado obtido pelo LevSoft são mostrados na figura 3. Figura 3: Comparação de resultados para o modelo do capacitor de placas paralelas. 68

69 (ISSN: ) - Vol. 3, N. 1, 2014 Conforme mostrado na figura 3, a implementação do método dos elementos finitos gerou bons resultados, bastante próximos dos resultados obtidos pelo software LevSoft, que é um software específico para o cálculo de problemas de eletromagnetismo e do qual obtém-se resultados confiáveis. É possível ainda observar que, nas regiões externas às placas do capacitor, há uma discrepância de resultados, o que pode ser explicado pelo fato de a simulação efetuada neste trabalha ser tridimensional, permitindo uma análise mais detalhada do comportamento do campo elétrico. Além da precisão do método implementado, como pode ser notado na figura 3, esta implementação também é computacionalmente interessante, pois demanda um curto tempo de execução para gerar os resultados. A simulação foi efetuada em uma máquina com 8GB de memória RAM, processador intel core i7, com sistema operacional linux OpenSuse 12.1 e levou cerca de 2 minutos para concluir os cálculos e fornecer o resultado. A geração da malha também se deu de forma rápida, aproximadamente 30 segundos, utilizando as mesmas configurações. Estes resultados são bastante expressivos, principalmente por utilizar somente códigos desenvolvidos durante o projeto e, para a modelagem e geração das malhas softwares livres e de fácil obtenção; 6. CONCLUSÕES Como pode ser visto os problemas em eletrohidrodinâmica são de grande interesse devido à sua grande aplicabilidade em processos industriais, onde a geração de fluxo EHD e as descargas corona podem gerar melhorias e tornar tais processos mais confiáveis. Um dos grandes desafios da simulação de problemas em eletrohidrodinâmica é a dificuldade em se resolver as equações que os regem devido às suas características de não linearidade e de modelos geralmente assimétricos, não permitindo simplificações. Neste sentido o método dos elementos finitos se apresenta como uma alternativa confiável e robusta para simular essas equações. Conforme mostrado pelos resultados obtidos, a solução encontrada pelo programa desenvolvido neste projeto apresenta-se bastante próxima da encontra pelo software LevSoft, que possui resultados validados com resultados teóricos. O presente trabalho mostra um avanço no que diz respeito à realização de simulação computacional de modelos tridimensionais. Como trabalhos futuros pretende-se realizar a simulação do conjunto de equações da parte elétrica de problemas EHD com a presença de densidade espacial de carga, o que representa uma dificuldade adicional, pois a validação deve ser realizada com base em resultados experimentais e a simulação deve contemplar a não linearidade das equações. REFERÊNCIAS BIBLIOGRÁFICAS ADAMIAK, K.; MIZUNO, A. NAKANO, M. Electrohydrodynamic flow in optoelectrostatics micropump. Experiment versus numerical simulation. In: Industry Applications Conference, nd IAS Annual Meeting. Conference Record of the 2007 IEEE., p , ADAMIAK, K.; ATRAZHEV, V. ATTEN, P. Corona discharge in the hyperbolic point-plane configuration: direct ionization criterion versus approximate formulations. Dielectrics and Electrical Insulation, IEEE Transactions on, v. 12, n. 5, p , AZEVEDO, A. Método dos elementos finitos. Porto Portugal: Faculdade de Engenharia da Universidade do Porto, p. BROWN, N.; LAI, F. Electrohydrodynamic gas pump in a vertical tube. Journal of Electrostatics, v.67, n. 4, p , CARDOSO, J.R. Introdução ao método dos elementos finitos para engenheiros eletricistas. São Paulo, Brasil: Editoração Própria, p. CHANG, J. et al. Mechanism of electrohydrodynamically induced flow in wire-non-parallel plate electrode type gas pump. Journal of Electrostatics, v. 67, n. 2-3, p , DAVIES, A. The finite element method: A first approach. Clarendon Press, (Oxford applied mathematics and computing science series). EL-KHARABY, S.; COLVER, G.M. Drag reduction by DC corona discharge along an electrically conductive flat plate for small Reynolds number flow. AIP,v.9, n.3, p , FARNOOSH, N.; ADAMIAK, K. CASTLE, G. Three-di- 69

70 (ISSN: ) - Vol. 3, N. 1, 2014 mensional analysis of electrohydrodynamic flow in a spiked electrode plate electrostatic precipitator. Journal of Electrostatics, v.69, n. 5, p , FENG, J.Q. Application of galerkin finite-element method with newton iterations in computing steady-state solutions of unipolar charge currents in corona devices. Journal of Computational Physics, v.151, n.2, p , LABERGUE, A. et al. Effect of a plasma actuator on an airflow along an inclined wall: P.I.V. and wall pressure measurements. Journal of Electrostatics, v. 63, n. 6-10, p , MARTINS, A.A.; PINHEIRO, M.J. Modeling of na EHD corona flow in nitrogen gas using an asymmetric capacitor for propulsion. Journal of Electrostatics, v.69, n. 2, p , MOON, J.D.; HWANG, D.H.; GEUM, S.T. An EHD gas pump utilizing a ring/needle electrode. Dielectrics and Electrical Insulation, IEEE Transactions on, v.16, n. 2, p , MOREAU, E.; LÉGER, L.; TOUCHARD, G. effect of a DC surface-corona discharge on a flat plate boundary layer for air flow velocity up to 25m/s. Journal of Electrostatics, v. 64, n. 3-4, p , SILVESTER, P.; FERRARI, R. Finite elements for electrical engineers. Cambridge University Press,1996. STISHKOV, Y.; CHIRKOV, V. Computer simulation of EHD flows in a needle-plane electrode system. Technical Physics, MAIK Nauka/Interperiodica distributed exclusively by Springer Science+Business Media LLC., v.53, p , WOO, S.J.;HIGUCHI, T. Electric field and force modeling for electrostatic levitation of lossy dielectric plates. AIP, v.108, n.10, ZHANG, J.P. et al. A numerical simulation of diffusion charging effect on collection efficiency in wire-plate electrostatic precipitators. Plasma Science, IEEE Transactions on, v.39, n.5, p , ZHAO, L.; ADAMIAK, K. Effects of EHD and external airflows on electric corona discharge in point-plane/ mesh configurations. Industry Application, IEEE Transactions on, c. 45, n.1, p ZHAO, L.; ADAMIAK, K. Numerical simulation of the electrohydrodynamic flow in a single wire-plate electrostatic precipitator. Industry Applications, IEEE Transactions on, v.44, n. 3, p , ZHAO, L; ADAMIAK, K. EHD gas flow in air electrostatic levitation unit. Journal of Electrostatics, v.64, n 7-9, p , ZHAO, L.; ADAMIAK, K. Numerical analysis of forces in electrostatic levitation unit. Journal of Electrostatics, v.63, n.6-10, p , ZHAO, L.; ADAMIAK, K. EHD flow in air produced by electric corona discharge in pin-plate configuration. Journal of Electrostatics, v. 63, n. 3-4, p , Julio Cesar Momente é bacharel em ciência da computação pela Universidade Estadual Paulista Júlio de Mesquita Filho, UNESP, Câmpus de São José do Rio Preto/SP. Atua na área de eletromagnetismo computacional. José Márcio Machado é professor Doutor da Universidade Estadual Paulista Júlio de Mesquita Filho, UNESP, Câmpus de São José do Rio Preto/SP. Atua na área de eletromagnetismo computacional e soluções de alto- -desempenho para problemas de bioinformática. 70

71 BUSCA QUÂNTICA EM BANCOS DE DADOS XML USANDO ALGO- RITMO DE GROVER PONTES, Michael Alexandre Universidade Estadual Paulista (UNESP) BORGES, Manoel Ferreira Neto Universidade Estadual Paulista (UNESP) RESUMO: Este artigo apresenta a implementação de um algoritmo de busca quântica com pequenas modificações. A idéia desse algoritmo é ser hibrido, podendo funcionar em sistemas clássicos e sistemas quânticos. São apresentados os conceitos quânticos das buscas e introduzido um pseudo- -framework capaz de gerar códigos para computadores clássicos (C++) e computadores quânticos (QCL). Os algoritmos foram submetidos a simulações, que resultaram em um estudo comparativo do funcionamento do algoritmo de Grover em ambos os sistemas, realizando buscas em uma massa de dados em arquivos no formato XML. Como resultado, observa-se números muito parecidos entre sistemas clássicos e quânticos, isso gera uma expectativa de que a busca em computadores quânticos reais seja muito mais eficiente. PALAVRAS-CHAVE: busca quântica, grover, QCL, emaranhamento, sobreposição. ABSTRACT: This paper presents a quantum search algorithm implementation with small modifications. The algorithm idea is to be hybrid, capable to run on classical systems and quantum systems. We present the concepts of quantum search and introduced a pseudo-framework able to generate code for classical computers (C++) and quantum computers (QCL). The algorithms were submitted to simulations, which resulted in a comparative study of the operation of Grover s algorithm on both systems, carrying out searches in a mass of data in XML format files. As a result, we see very similar numbers between classical and quantum systems, this creates an expectation that the search in real quantum computers is much more efficient. KEYWORDS: quantum search, grover, qcl, entanglement, superposition. INTRODUÇÃO Como todas as simples ideias na ciência, levou tempo para que se notasse a conexão entre os conceitos de computação e as características de sistemas físicos microscópicos, propriedades como emaranhamento e superposição coerentes de estados distintos estão presentes nos fundamentos da mecânica quântica e sempre foram considerados aspectos mais estranhos desta teoria (NIELSEN; CHUANG, 2005). O reconhecimento de que a informação, muito mais que um conceito matemático abstrato, é uma propriedade de sistemas físicos, levou a enormes avanços na interpretação da Mecânica Quântica. Com a utilização da Computação Quântica, tempos impraticáveis necessários para executar certas tarefas na computação clássica, passam a ser tempos normais em computadores quânticos. Como afirma HA- WKING, 2009, problemas praticamente insolúveis para computação clássica passam a ser solúveis em computação quântica. Computadores quânticos oferecem computação mais poderosa (SIMON, 1994) do que os computadores clássicos, devido à capacidade dos computadores quânticos de terem alguns estados que não têm equivalência em um computador clássico. Características como a superposição de valores e/ou o emaranhamento de estados são aspectos que representam o coração do funcionamento de um sistema quântico. Isso tudo somado ao paralelismo quântico, 71

72 (ISSN: ) - Vol. 3, N. 1, 2014 representa um diferencial considerável frente à computação que estamos habituados. Visando contribuir com a área pouco explorada da Computação Quântica, este artigo propõe a implementação de um sistema híbrido de busca em bancos de dados não estruturados. Tal sistema visa realizar buscas clássicas e buscas quânticas, ambas baseadas no mesmo algoritmo de busca, o Algoritmo de Grover. Este algoritmo é conhecido na área quântica, porém sua implementação de forma híbrida é um desafio novo. A proposta de um mesmo engine capaz de realizar buscas em sistemas quânticos e clássicos é o que justifica e define a originalidade deste trabalho. As buscas realizadas pelo algoritmo proposto poderão ser aplicadas em sistemas de computação clássica, computação quântica ou computação hibrida (SCHUBOTZ, 2007; ÖMER, 2000). Neste artigo, o algoritmo proposto utiliza um simulador quântico para testar os algoritmos em sistemas quânticos, e realiza as buscas em bancos de dados baseados em estruturas XML (extensible Markup Language). 1. COMPUTAÇÃO QUÂNTICA Na computação clássica, a memória do computador é organizada em bits, onde cada bit representa um ou zero. Na computação quântica, por outro lado, existem alguns fenômenos da mecânica quântica, como superposição e emaranhamento de estados, que são utilizados para executar operações em dados (MUTIARA; RE- FIANTI, 1994). Computadores Quânticos foram propostos no início dos anos 1980 (BENIO- FF, 1980) e em muitos aspectos, mostraram- -se tão poderosos quanto os computadores clássicos. A descrição formal dos computadores quânticos só foi realizada no final dos anos 80 e início dos anos 90 (DEUTSCH, 1985; BERTHIAUME; BRASSARD, 1994; BERNSTEIN; VAZIRANI, 1993; YAO, 1993) e os computadores quânticos, em vários problemas específicos, se mostraram mais poderosos que os computadores clássicos. No início de 1994, (SHOR, 1994) demonstrou que um computador quântico poderia resolver de forma eficiente um problema bem conhecido, para o qual não havia algoritmo eficiente usando computadores clássicos. Este é o problema de fatoração, isto é, encontrando os fatores de um determinado número inteiro, em um tempo que é polinomial em. A pesquisa na área de computação e informação quântica ganhou um imenso interesse com os resultados apresentados para o problema de fatoração (SHOR, 1994). Na sequência, os algoritmos de busca (GROVER, 1996) também passaram a chamar bastante atenção para sua eficiência. Esses resultados comprovam o enorme poder computacional de uma máquina quântica. No entanto, a construção de computadores quânticos representa um imenso desafio tecnológico e, neste momento, o hardware quântico só está disponível em laboratórios de pesquisa. Diante desse cenário, os simuladores quânticos tornaram-se instrumentos valiosos no desenvolvimento e testes de algoritmos quânticos, bem como na simulação de modelos físicos (CARAI- MAN; MANTA, 2010). Um dos grandes atrativos na computação quântica é que no lugar de usar bits, são usados qubits (bits quânticos). Um único qubit pode representar um, zero, ou ambos ao mesmo tempo, o que é chamado de superposição. Com essa capacidade, a computação quântica pode realizar várias tarefas simultaneamente de forma mais rápida do que a computação clássica. Há também outro fenômeno em computação quântica, que é chamado emaranhamento. Se dois qubits receberem uma força externa, então os qubits podem estar na condição de emaranhados. Isso significa que, mesmo à distância um do outro, qualquer influência que um dos qubits receber, irá afetar o outro também (MUTIARA; RE- FIANTI, 1994). Sistemas de informação quântica, em geral, são baseados no uso de matemática intensa. Porém, o grande truque desses sistemas é a utilização de um modelo simples de construção por blocos de abstração: bits quânticos, portas e algoritmos (OSKIN; CHONG; CHUANG, 2002), o que facilita sua implementação. Nessa pequema introdução sobre computação quântica, é possível perceber 72

73 (ISSN: ) - Vol. 3, N. 1, 2014 a riqueza desse novo sistema de computação. A utilização de conceitos quânticos na computação ultrapassa fronteiras, oferecendo novas formas de processamento. Nas próximas sessões, será explorada algumas características dos sistemas quânticos, visando atingir o objetivo proposto por esse artigo. 2. Problema de busca Encontrar um dado em um banco de dados não-estruturado é conhecido como problema de pesquisa em banco de dados não-ordenados (UDS unsorted database search), este problema é muito comum e difícil de ser solucionado. Muitos problemas científicos podem ser reduzidos a problemas de UDS e esta tem larga aplicação em ciência e tecnologia (LONG; LIU, 2007; HU; ZHANG; LU, 2009). Mesmo em ciência da computação teórica, são bastante comuns problemas em que seja necessário examinar uma série de possibilidades diferentes para ver se uma delas satisfaz dada condição. Esta situação é análoga ao problema de busca descrito acima, e o ponto de observação mais crítico em problemas de busca é sempre o desempenho e eficiência do algoritmo utilizado (GROVER, 1996) Busca quântica Os algoritmos quânticos são probabilísticos, isso oferece um ótimo ponto de partida para se pensar em suas possíveis aplicações (BERNSTEIN; VAZIRANI, 1993). Nestes algoritmos, o sistema não está em um estado especificado, ao contrário disso, está em uma distribuição de vários estados com certa probabilidade de ser cada um deles. Em cada etapa, há uma probabilidade de acontecer uma transição de um estado para o outro. A evolução do sistema é obtida através da pré-multiplicação do vetor de probabilidades pelo estado de transição da matriz (GROVER, 1996). Suponha que se tenha um mapa contendo muitas cidades, e que se deseje encontrar o menor caminho entre elas. Um algoritmo simples para resolver esse problema consiste em encontrar todas as rotas possíveis, mantendo gravada a de menor comprimento. Em um computador clássico, se existirem N rotas, serão obviamente necessárias operações para se determinar o menor caminho (NIELSEN; CHUANG, 2005; LONG; LIU, 2007). O algoritmo quântico de Grover aumenta significativamente a velocidade dessa busca, necessitando apenas de operações. Além disso, o algoritmo quântico de busca é geral, no sentido de que ele pode ser aplicado para acelerar diversos algoritmos clássicos que usam rotinas de busca (GROVER, 1996). Tais algoritmos representam papéis muito importantes nos campos da informação e computação. Tomando como exemplo a tarefa de encontrar o proprietário de um número telefônico decifrando um código como DES (BRASSARD, 1997), resolvendo o problema de Simon (BRAS- SARD; HOYER, 1997), solucionando o problema de contagem quântica (BRASSARD; HOYER; TAPP, 1998). O espaço pode ser vasculhado de forma altamente eficiente por um robô quântico usando o algoritmo de busca (BENIOFF, 2000). Esses algoritmos também podem acelerar a resolução de problemas de raiz quadradas considerados difíceis, como o problema do deslocamento oculto (TWAMLEY, 2000), o problema do circuito hamiltoniano (DESURVIRE, 2009) e problemas NP-completos em geral (GUO; LONG; LI, 2002). O algoritmo de Grover, utilizando as propriedades quânticas da superposição e do emaranhamento, também pode ser usado para procurar um elemento em uma lista não estruturada de elementos quadrática com velocidade superior aos algoritmos clássicos (BRICKMAN; et al, 2005). 3. Algoritmo de Grover Na seção anterior, superposição e emaranhamento de estados quânticos foram apontados como os fatores essenciais para a obtenção do desempenho dos sistemas quânticos. O algoritmo de busca de Grover (BUGAJSKI, 2001; GROVER, 1996; KLAMKA, 2002) faz uso desses fenômenos. A complexidade da pesquisa clássica de uma coleção não ordenada de itens é 73

74 (ISSN: ) - Vol. 3, N. 1, 2014 de. Usando o algoritmo quântico, podemos reduzir esse fator para. O algoritmo utiliza um quregister único de qubits, onde. Para simplificar, assumimos que é uma potência de e. Como segue: 1. No primeiro passo, uma superposição de todos estados é gerado. 2. Uma transformação é realizada para fazer com que a amplitude da probabilidade do estado se diferencie das outras (Oráculo Quântico). 3. Outra transformação (difusão) é realizada para ampliar a probabilidade deste estado. 4. Os passos (2) e (3) são iterados quantas vezes forem necessárias. 5. O algoritmo termina quanto a probabilidade do estado desejado está próxima de 1. Na sequência, uma medição é realizada. A superposição é uma operação realizada através do operador quântico Hadamard, que resulta no mesmo valor para todas as amplitudes possíveis. Na Figura 1a está situação está representada por um registro de 4-qubit, que contém 16 valores diferentes. A soma dos quadrados de todas as amplitudes é 1, o valor de cada amplitude é demonstrado na sequência em (1): (1) O Oráculo Quântico é o segundo passo do algoritmo, esse é o ponto em que o item procurado é identificado. O Oráculo decide se o argumento é o item que está sendo procurado, e é simultaneamente chamado para cada item presente na lista de estados. A operação tem que ser reversível, portanto nenhuma informação pode ser perdida. Isto é obtido através da negação da amplitude do item procurado (Figura 1b). Dado que é o estado que está sendo pesquisado, temos em (2): (2) A medida da amplitude é complexa, a operação de negação é descrita antes como a rotação do estado marcado por uma fase de π. De qualquer modo, esta operação não irá afetar a possibilidade de detecção deste estado em uma medição feita nesse ponto. Figura 1: Etapas iniciais do Algoritmo de Grover. Fonte: Adaptado de: FRANCIK, O operador de difusão é o próximo passo do algoritmo, nessa etapa, é feita a operação de interferência. Esta operação é muitas vezes referenciada como inversão sobre a média, como é dado a seguir em (3): (3) onde é a média de todas as amplitudes. Esta operação é aplicada sobre um vetor no qual todos os componentes, exceto um, são iguais a um valor, como α; o componente um, que é diferente, é negativo (Figura 1b). A média ā é aproximadamente igual a, então componentes não alteram de forma significativa o resultado da inversão sobre a média. O componente um, que estava negativo, torna-se positivo e aumenta cerca de (Figura 2c). 74

75 (ISSN: ) - Vol. 3, N. 1, 2014 Figura 2: Iterações do Algoritmo de Grover. Fonte: FRANCIK, Iteração: o ganho efetivo obtido por uma inversão única sobre a média não é o suficiente, especialmente se for notado que mais estados possuem ganhos menores. Após certo número de iterações, possivelmente a amplitude se aproximará de 1. Porém a amplitude nunca será igual a 1, pelo fato do algoritmo de Grover ser probabilístico: o resultado mais adequado é obtido com uma alta probabilidade, mas não é garantido totalmente. Iterações consecutivas são mostradas da Figura 2c até Figura 2f. Na terceira iteração (Figura 2e) a amplitude do estado desejado atingiu o máximo (para o caso de 16 estados); após isso, diminui (Figura 2f). O valor do componente, denotado, lentamente diminui uma vez que se aproxima de zero, e o ganho efetivo inverte. Na verdade, ambos os valores são quantificados em uma função periódica (a amplitude desejada cresce novamente depois das iterações 9, 15 e assim por diante). O problema é: quantas vezes devemos iterar para obter o resultado ideal? Vamos denotar, sendo o valor de todas as amplitudes acrescido de um, e β é a amplitude do estado iniciando a pesquisa em. Então, a média é dada por (4): Usando (3), (2) e (1), temos: (4) onde e são os estados anteriores, e e são os próxmos estados de α e β. A solução (5) leva a uma equação quadrática com raízes complexas. A abordagem analítica pode ser complicada, mas observa-se que, depois de uma substituição, a equação (5) torna-se uma equação de rotação de um ponto ao redor do centro das coordenadas do sistema por um ângulo. O melhor resultado é alcançado quando o ângulo atinge π/2, então o número de iterações é apresentado em (6): Após a última iteração, a medição final é executada Grover sem emaranhamento quântico (5) (6) A propriedade de emaranhamento quântico é considerada necessária para que os algoritmos quânticos superem os 75

76 (ISSN: ) - Vol. 3, N. 1, 2014 clássicos. Porém, diversos autores, dentre eles LLOYD (1999) e MEYER (2000) observaram em suas pesquisas que o algoritmo de busca quântico de Grover pode ser implementado sem o emaranhamento quântico. Isso só é possível com a realização de substituições de partículas múltiplas (características quânticas) por uma partícula única, porém com muitos estados exponencialmente associados a ela. Segundo LLOYD (1999), qualquer algoritmo quântico pode ser reescrito sem o uso de emaranhamento. Para tal, basta simplesmente desconsidedar a estrutura do produto tensorial do espaço de Hilbert. Fazendo isso, naturalmente, haverá um custo extra de utilização do sistema, já que a computação quântica estará sendo subjulgada. Não se deve concluir que o emaranhamento é desnecessário. Para algoritmos iterativos, pode haver redução do número de consultas necessárias, reduzindo o caminho até a solução. Já nos algoritmos de contagens (funções locais), há perda de desempenho e aumento no uso dos recursos para sua execução. Simon (1994) demonstrou em seu algoritmo que a implementação da fatoração de Shor (1994) sem o emaranhamento não apresentavam resultados satisfatórios. Concluímos que alguns algoritmos quânticos podem ter seus equivalentes clássicos, abrindo mão de propriedades quânticas, em especial, o emaranhamento. Por outro lado, nem todos os algoritmos respondem bem a esse tipo de adaptação. Para o contexto desse artigo, as pesquisas de LLOYD (1999) e MEYER (2000) mostram que o algoritmo de busca quântico de Grover não sofre perdas ao retirar a propriedade de emaranhamento quântico, sendo assim, será conceitualizado o algoritmo de Grover em sistemas clássicos, visto que o objetivo do artigo é a criação de um sistema híbrido de buscas Implementação híbrida do algoritmo de Grover Conforme a sessão 3.1, o algoritmo de Grover pode ser implementado sem utilizar algumas propriedades que são exclusivamente quânticas. Diante disso, é possível a criação de um modelo de algoritmo que seja híbrido, e possa ser executado tanto em sistemas clássicos quanto em sistemas quânticos. YAMASHITA (2006) propõe em seu trabalho, a criação de um framework com o objetivo de permitir que algoritmos sejam ajustados de forma automática, dependendo do modelo clássico ou modelo quântico. Com relação ao algoritmo de Grover (1996), que pode ser considerado de uso geral, a adaptação de seu funcionamento em diversos modelos computacionais oferece notável flexibilidade em sua utilização. Para a modelagem híbrida proposta por esse artigo, os conceitos propostos por YAMASHITA (2006) foram utilizados, onde o algoritmo de Grover foi implementado usando uma linguagem Clássica (C++) e uma linguagem Quântica (QCL). O framework capaz de compatibilizar essa dupla implementação, funciona analisando o código e gerando novos códigos baseados nas plataformas específicas. Neste artigo, utilizamos o modelo, conceitos e implementamos uma versão própria do framework proposto por YAMASHITA (2006), mais simples com o objetivo apenas de gerar a versão híbrida do algoritmo de Grover. Na Figura 3, podemos observar o fluxo da informação dentro do pseudo-framework criado para esse artigo. O código desenvolvido é aplicado no framework, que faz uma pré-análise e gera os circuitos e códigos baseados no tipo de sistema a ser aplicado. 76

77 (ISSN: ) - Vol. 3, N. 1, 2014 Figura 2: Framework para geração de código híbrido. Fonte: YAMASHITA, No Quadro 1, podemos observar um trecho do código fonte do algoritmo de Grover em linguagem C++. Para fins Quadro 1. Função Grover em C++. de comparação, apenas a função Grover() está sendo apresentada. Por outro lado, no Quadro 2, notamos um trecho do código fonte do algoritmo de Grover em linguagem QCL. Para fins de comparação, apenas a função Grover() está sendo apresentada. Quadro 2. Função Grover em QCL. 77

78 (ISSN: ) - Vol. 3, N. 1, Simulações Com o objetivo de validar os conceitos apresentados nesse artigo, um ambiente de simulação foi estruturado com o desafio de realizar testes de carga nos algoritmos construídos. Para realização dos testes, foi gerado um banco de dados em XML com uma massa de dados não-estruturada de cerca de registros. O objetivo foi realizar buscas com os algoritmos de Grover nessa massa de dados, e analisar três fatores importantes: (i) Compatibilidade dos algoritmos, ou seja, se o algoritmo clássico e o quântico executam de formas semelhantes, sem a necessidade de realizar ajustes nos dados ou nos códigos fontes. Esse item avalia a portabilidade de códigos diferentes acessando o mesmo banco de dados. (ii) Desempenho da execução, um comparativo simples de tempos decorridos, para gerar informações sobre os tempos gastos por cada um dos algoritmos, considerando as mesmas condições. (iii) Número de iterações, como o algoritmo de Grover é iterativo, quanto menor o número de iterações, com a mesma eficiência, melhor os resultados da execução dos algoritmos Simuladores H H H H H X X X X X X X X H H H H X X X X Z X X X X H H H H Para realizar as simulações, foram utilizadas duas ferramentas. Para o desenho e avaliação do Circuito Quântico, foi utilizada a ferramenta Wolfram Demonstrations ( Essa ferramenta permitiu a construção de um código dinâmico para gerar o circuito quântico que foi implementado no simulador quântico para execução das buscas. Já para execução do código quântico, foi utilizada a biblioteca libquantum ( Tal biblioteca foi apresentada no trabalho de SCHU- BOTZ (2007), onde o autor realiza um estudo comparativo entre três simuladores, e a libquantum mostra-se melhor em todos os critérios. A libquantum é uma biblioteca em C específica para computação quântica. Ela usa o modelo QRAM, e fornece registradores quânticos, operações unitárias e funções de medição. A biblioteca vem com uma interface para codificar registros quânticos, controle de correção de erro quântico (QEC) e oferece flexibilidade no uso. Seu principal objetivo é uma precisa simulação física de um computador quântico com alto desempenho (SCHUBOTZ, 2007). Apesar da biblioteca já incluir a implementação do algoritmo de Grover, para as simulações, utilizamos os algoritmos e circuitos gerados no decorrer da pesquisa Resultados Os testes em sistemas clássicos foram realizados em ambiente de computação clássica tradicional, onde o arquivo XML com os dados estava armazenado em disco e as rotinas em C++ foram executadas e os indicadores analisados. Já os testes em sistemas quânticos, foram realizados no simulador libquantum apresentado na sessão 4.1. O arquivo XML foi armazenado dentro da estrutura do simulador e os testes foram realizados e os devidos indicadores foram analisados. Na Figura 4, observa-se o circuito quântico construído dentro da ferramenta libquantum, notem que o circuito sugere pelo menos 4 iterações, porém devido ao tamanho da massa de dados, a execução do circuito completo é interativa até que a massa de dados seja completamente analisada. X X X X Figura 4: Cirtuito Quântico iterativo aplicado na libquantum (gerado na ferramenta Wolfram). X X X X H H H H X X X X Z X X X X H H H H b b 1 b 2 b 3 b

79 (ISSN: ) - Vol. 3, N. 1, 2014 Na Tabela 1, temos os resultados das análises de cada um dos algoritmos, executados e analisados nos sistemas propostos, baseado em uma massa de dados com registros em formato XML. Podemos notar que o sistema Quântico, apesar de rodar sobre um simulador, apresentou uma quantidade menor de iterações até convergir para o melhor resultado. Apresentam-se as três iterações do sistema Quântico no momento em que a convergência ocorreu, e sua precisão chegou aos 100% com 55 iterações, mesma precisão atingida pelo sistema Clássico em 72 iterações. Essa diferença de precisão e número de iterações é esperada, já que o sistema Clássico é determinístico e o sistema Quântico é probabilístico. Tabela 1. Grover Clássico X Grover Quântico. Grover Clássico Quântico Quântico Quântico Iterações Tempo decorrido 23s 30s 32s 34s Precisão 100% 99,8% 100% 99,8% Compatibilidade Total Total Total Total Em termos de tempo decorrido, notamos uma diferença considerável onde o Grover clássico (23s) é cerca de 39% mais rápido que o Grover quântico (32s), porém isso se justifica pois o sistema quântico está rodando sobre um simulador, e a documentação da libquantum afirma perdas de até 45% pelo fato de ser um ambiente simulado. Além disso, não existem sistemas quânticos consistentes disponíveis para conseguirmos uma simulação com valores reais. Observamos também, que os códigos são perfeitamente portáveis, ou seja, ambos os códigos funcionaram na mesma massa de dados, sem quaisquer modificações ou necessidades de ajustes em nenhuma das partes. CONSIDERAÇÕES FINAIS A busca em bancos de dados nãoestruturados é muito importante para ciência e tecnologia. Ela serve como comparativo de algoritmos para demonstrar o poder de computadores quânticos. Curiosamente, um algoritmo totalmente quântico é relativamente simples de ser implementado, o que traz vantagens para essa área. Neste artigo, foram apresentados de forma breve alguns conceitos quânticos básicos. Também foi apresentado com mais detalhes a busca quântica, com especial atenção para o algoritmo de busca de Grover, e demonstra seu funcionamento em sistemas clássicos e quânticos. Seguindo as implementações sobre o algoritmo de Grover, o artigo apresenta um pseudo-framework capaz de tornar híbrido o algoritmo de busca, permitindo uma flexibilidade em seu uso. Após a criação dos algoritmos, simulações foram feitas, com o objetivo de comparar o funcionamento do algoritmo de Grover em sistemas clássicos (normais) e em sistemas quânticos (simulados). Os resultados foram apresentados na sessão 4.2, onde podemos observar poucas variações entre os modelos. O objetivo de implementar um sistema hibrido de busca, foi cumprido. Os algoritmos gerados conseguiram realizar buscas com eficiência em bases em formato XML, tanto para sistemas clássicos quanto para quânticos (simulados). O aspecto mais importante implícito nesse trabalho é que, gerenciar um banco de dados não-estruturado em um computador quântico é possível e eficiente. TRABALHOS FUTUROS Os resultados obtidos com essa pesquisa serão diretamente aplicados no projeto de mestrado do autor deste artigo, cujo tema é Busca Quântica em Bancos de Dados Relacionais. Este artigo apresenta os resultados da primeira fase, que se trata de buscas em arquivos XML, a próxima 79

80 (ISSN: ) - Vol. 3, N. 1, 2014 fase envolverá a integração com bancos de dados relacionais e acesso aos dados em baixo nível. REFERÊNCIAS BIBLIOGRÁFICAS BENIOFF, P. The computer as a physical system: A microscopic quantum mechanical Hamiltonian model of computers as represented by Turing machines. Journal of Statistical Physics, 22, 1980, pp BENIOFF, P. Spaces searches with a quantum robot. In Quantum computation and information. Washington DC: AMS Series on Contemporary Mathematics, 2000, 305: Disponível em: quant- -ph/ BERNSTEIN, E.; VAZIRANI, U. Quantum Complexity Theory. In Proceedings 25th ACM Symposium on Theory of Computing, 1993, pp BERTHIAUME, A.; BRASSARD, G. Oracle quantum computing. Journal of Modern Optics, vol.41, n. 12. December, 1994, pp BRASSARD, G. Searching a quantum phone book. Science, 1997, 275(5300): BRASSARD, G.; HOYER, P. An exact quantum polynomial-time algorithm for Simon s problem. In: Proceedings of 35th Annual Symposium on the Foundations of Computer Science. 1997, BRASSARD, G.; HOYER, P.; TAPP, A. Quantum counting. Lectures Notes in Computer Science, 1998, 1443: BRICKMAN, K. A.; HALJAN, P. C.; LEE, P. J.; AC- TON, M.; DESLAURIERS, L.; MONROE, C. Implementation of Grover s quantum search algorithm in a scalable system. FOCUS Center and Department of Physics, University of Michigan. In Proceedings of The American Physical Society, Physical Review A 72, (4). Michigan, USA:2005. BUGAJSKI, S. Quantum Search. Archiwum Informatyki Teoretycznej i Stosowanej, vol 13 No 2/2001, pp CARAIMAN, S.; MANTA, V. Parallel Simulation of Quantum Search. Gheorghe Asachi Technical University of Iasi. In Proceedings Journal of Computers, Communications & Control, V(5), pp Romania, DESURVIRE, E. Classical and Quantum Information. ebook (EBL), New York, Cambridge University Press, DEUTSCH, D. Quantum Theory, the Church-Turing principle and the universal quantum computer. In Proceedings Royal Society London Series A, 400, 1985, pp FRANCIK, J. Quantum Software. Studia Informatica. Vol 23, n. 2A (48). Redakcji, GROVER, L. K. A fast quantum mechanical algorithm for database search. In Proceedings of 28th ACM Annual STOC, pp ACM Press New York. Philadelphia-PA/USA:1996. GUO, H.; LONG, G.L.; LI, F. Quantum algorithms for some well-known NP problems. Communications in Theoretical Physics, 2002, 37(4): HAWKING, S. O Universo numa Casca de Noz. Rio de Janeiro: Nova Fronteira, 2009, 216p. HU, H.; ZHANG, Y.; LU, Z. An efficient quantum search engine on unsorted database. Huazhong University of Science and Technology, Disponível em: cs.db/ v1. KLAMKA, J. Quantum search algorithm. Seminarium Sieci Komputerowe, Zakopane, LLOYD, S. Quantum search without entanglement. Physical Reviews A61 (1999) LONG, G.L.; LIU, Y. Search an unsorted database with quantum mechanics. Frontiers of Computer Science in China, 2007, 1(3): MEYER, D. A. Sophisticated Quantum Search Without Entanglement. Project in Geometry and Physics. Department of Mathematics. Institute for Physical Sciences. University of California/San Diego. Disponível em quant-ph/ MUTIARA, A. B.; REFIANTI, R. Simulation of Grover s Algorithm Quantum Search in a Classical Computer. In Proceedings of the International Journal of Computer Science and Information Security. Indonesia, 8(9) ,1994. NIELSEN, M. A.; CHUANG, I. L. Computação Quântica e Informação Quântica. Rio de Janeiro, Brasil, Bookman/Artmed, ÖMER, B. Quantum Programming in QCL. Institute of Information Systems. Technical University of Vienna, pp Vienna, OSKIN, M.; CHONG, F. T.; CHUANG, I. L. A Pratical Architecture for Reliable Quantum Computers. Universidade de Toronto. IEEE Computer Society SCHUBOTZ, R. Programming and Simulation of Quantum Agents. Department of Computer Science. Faculty of Natural Sciences and Technology I. Saarland University, pp Saarbrücken, SHOR, P. W. Algorithms for quantum computation: discrete logarithms and factoring. In Proceedings 35th Annual Symposium of Fundamentals of Computer 80

81 (ISSN: ) - Vol. 3, N. 1, 2014 Science (FOCS). S. Goldwasser, Santa Fe, NM. pp IEEE Computer Society, Los Alamitos Novembro SIMON, D. R. On the power of quantum computation. In Proceedings of the 35th Annual Symposium of Foundations of Computer Science. S. Goldwasser, Santa Fe, NM. pp Novembro TWAMLEY, J. J. A hidden shift quantum algorithm. Journal on Physics A, 2000, 33: YAMASHITA, S. How to Utilize a Grove Search in General Programming. Scholl of Information Science, Nara Institute of Science and Technology. In Proceedings Laser Physics, vol 16, n. 4, pp Ikoma, Nara, Japan, YAO, A. Quantum circuit complexity. In Proceedings 34th Annual Symposium of Foundations of Computer Science (FOCS), 1993, pp Michael Alexandre Pontes é bacharel em Ciência da Computação pela UNiRP, Pós-graduado em Desenvolvimento Cliente/Servidor e Internet pela UNiRP, Pós-graduado em Engenharia de Sistemas pela Faculdade Modelo. Detentor de diversas certificações importantes, como Microsoft, Oracle, Progress, Novell, Citrix. Atualmente é professor nas seguintes instituições: Universidade Paulista, FATEC Rio Preto e Kees Informática. Também é líder de unidade de negócio da empresa Dual Software Ltda. Tem experiência com Governança de TI e Administração de Banco de Dados. Atua diretamente na área de Sistemas de Informação com ênfase em Engenharia de Sistemas. Possui vários projetos de pesquisa e desenvolvimento, tendo sido reconhecido e premiado em vários deles. Manoel Ferreira Borges Neto é graduado em Física pela Universidade de Brasília (UnB), Doutorado em Matemática pelo Kings College - University of London e Pós-doutorado pelo Department of Mathematics and Applied Mathematics - University of Cape Town (UCT). Professor titular da Universidade Estadual Paulista (UNESP). Membro da International Association of Mathematical Physics (IAMP). Membro e revisor da American Mathematical Society (AMS). Membro da European Society of Computational Methods in Sciences and Engineering (ESCMSE). Co-fundador e membro permanente do World Peace and Diplomacy Forum (WPDF), Cambridge. Vasta experiência na área de matemática e matemática aplicada atuando principalmente nos temas: i) Geometrias Hipercomplexas; ii) Aspectos geométricos da Física-Matemática, notadamente das Teorias Alternativas da Gravitação, e suas relações com Variedades Topológicas; iii) Criptografia e Computação Quântica. 81

82 82

83 CARACTERIZAÇÃO DE LESÕES DE PELE EM IMAGENS DIGITAIS A PARTIR DA MÁQUINA DE VETOR DE SUPORTE OLIVEIRA, Roberta Barbosa Universidade Estadual Paulista (UNESP) robyoliveira1@gmail GUIDO, Rodrigo Capobianco Universidade Estadual Paulista (UNESP) guido@ibilce.unesp.br MARRANGHELLO, Norian Universidade Estadual Paulista (UNESP) norian@ibilce.unesp.br ARAUJO, Alex F. de Faculdade de Engenharia da Universidade do Porto (FEUP) fa.alex@gmail.com TAVARES, João Manuel R. S. Faculdade de Engenharia da Universidade do Porto (FEUP) tavares@fe.up.pt ROSSETTI, Ricardo Baccaro Clínica DERM rbrossetti2010@hotmail.com PEREIRA, Aledir Silveira Universidade Estadual Paulista (UNESP) aledir@ibilce.unesp.br RESUMO: Este trabalho apresenta um método para a caracterização das lesões de pele, a partir das características da regra ABCD (assimetria, borda, cor e diâmetro) e análise de textura. As características ABCD são obtidas de acordo com o dermatologista e a textura das imagens é definida pela sua dimensão fractal, por meio do método box-counting. As características de assimetria e textura extraídas das imagens são utilizadas como entradas para o classificador SVM (Máquina de Vetor de Suporte), que é uma técnica baseada em aprendizado estatístico, utilizada para o reconhecimento de padrões em imagens. O SVM classifica a assimetria das lesões em simétrica ou assimétrica e a textura das lesões em lisa ou rugosa. Todas as informações referentes as características extraídas da lesão são passadas ao dermatologista com o intuito de auxiliá-lo no diagnóstico. PALAVRAS-CHAVE: lesões de pele, filtro mediana, Chan-Vese, SVM, dimensão fractal, box-counting. ABSTRACT: This paper presents a method for the characterization of skin lesions, from the characteristics of the ABCD rule (asymmetry, border, color and diameter) and texture analysis. The ABCD characteristics are obtained according to the dermatologist and the texture of images is defined by its fractal dimension through the box-counting method. The asymmetry and texture features extracted from the images are used as inputs to the SVM classifier (Support Vector Machine) which is a technique based on statistical learning, used for recognizing patterns in images. The SVM classifies the asymmetry of lesions in symmetrical or asymmetrical and the texture of lesions in smooth or rough. All information related the extracted features of the lesion are available to the dermatologist in order to assist in his diagnosis. KEYWORDS: skin lesions, Chan-Vese, SVM, fractal dimension, box-counting. 83

84 (ISSN: ) - Vol. 3, N. 1, 2014 INTRODUÇÃO O número de casos de cânceres tem aumentado cada vez mais, conforme apresentado na estimativa de incidência de câncer no Brasil, para ano de 2012 e também em 2013, realizada pelo Instituto Nacional de Câncer (INCA) (MINISTÉRIO DA SAÚDE, 2011). O câncer de pele corresponde a 29% dos tumores malignos registrados no país, sendo o de maior incidência. O grande número de casos de câncer motivaram a construção de sistemas computadorizados para auxiliar os dermatologistas no diagnóstico de lesões de pele. Estes sistemas tem como o objetivo principal analisar as lesões benignas, para evitar o seu desenvolvimento, ou diagnosticar as lesões malignas em seu estágio inicial, para serem tratadas precocemente, período onde tem mais chances de cura. No diagnóstico dermatológico as lesões são examinadas clinicamente, utilizando primeiramente a técnica de análise das características ABCD (assimetria, borda, cor e diâmetro) e textura, para então diagnosticá-las e tratá-las (WOLFF et al., 2006). Para facilitar este processo, os dermatologistas podem dispor de sistemas computacionais, que analisam as características das lesões de forma mais precisa, utilizando imagens digitais, obtidas pelo mesmo, para auxiliar no seu diagnóstico. Para a construção destes sistemas são muito utilizadas técnicas de processamento de imagens digitais e sistemas inteligentes, tais como, filtro mediana, para diminuir o efeito dos ruídos nas imagens, o modelo Chan-Vese para identificar a área doente e a máquina de vetor de suporte (SVM) para classificar as lesões de pele. O uso destas técnicas possibilitam uma análise mais rápida e informações mais precisas sobre as características das lesões e por essa razão são temas de diversos trabalhos para detecção e classificação de lesões de pele [2, 7, 12, 15, 17 e 20]. Um sistema automático para análise de lesões pigmentadas e diagnóstico de melanoma a partir de imagens adquiridas por câmera digital foi descrito por Alcón et. al. (2009). Essa combinação obteve 86% de precisão. Cudek et. al. (2010) apresenta um método para identificar lesões de pele a partir de imagens digitais usando a regra ABCD. A segmentação proposta obteve 92% de detecção correta. Maglogiannis e Doukas (2009) apresentam sistemas de visão computacional para caracterização de lesões de pele. Na classificação entre melanoma e nevo displásico a SVM obteve 100% de precisão. Na classificação entre nevos displásicos e lesões não displásicas, a SVM obteve 76,08%. Na classificação entre esses três tipos de lesões a SVM obteve 77,06% de precisão. Um método para detecção de borda em imagens dermatoscopicas de lesões melanocíticas e não melanocíticas é proposto por Norton e Colaboradores (2010). A avaliação deste método foi de 84,5% de acerto para as lesões não melanocíticas e 93,9% para as lesões melanocíticas. Rahman, Bhattacharya e Desai (2008) combinaram diferentes classificadores para o reconhecimento de melanoma em imagens dermatoscopicas. A SVM combinada com a probabilidade máxima gaussiana e o k vizinhos mais próximos obteve 62,50% de acerto para os nevos comuns, 77,14% de acerto para os nevos displásicos e 83,75% de acerto para os melanomas. Com o objetivo de auxiliar o dermatologista no seu diagnóstico, este trabalho apresenta um método para caracterizar lesões de pele a partir de imagens fotográficas, tais como nevos, ceratose seborréica e melanoma, utilizando máquina de vetor de suporte (SVM). 1. Características das lesões de pele As lesões de pele podem ser diferenciadas em benigna ou maligna, conforme suas características, analisadas pelos dermatologistas. A regra ABCD (assimetria, borda, cor e diâmetro) e a análise de textura são muito utilizadas pelos dermatologistas para analisar lesões de pele a partir de imagens fotográficas, contribuindo para o diagnóstico clínico. A demonstração desta regra é apresentada na Tabela 1. 84

85 (ISSN: ) - Vol. 3, N. 1, 2014 Tabela 1. Demonstração da regra ABCD [adaptado de 18]. Características Lesões benignas Lesões malignas A Assimetria Simétrica Assimétrica B Borda Regular Irregular C Cor Única tonalidade Várias tonalidades D Diâmetro Menor que 6 mm Acima de 6 mm Na característica de assimetria (A) listada na linha A considera-se a maior distância entre os pontos do contorno da lesão e traça-se uma reta sobre a mesma, para que possa ser analisada a similaridade entre as duas partes divididas. Quando essas partes são semelhantes, a característica de assimetria é considerada simétrica, que geralmente representa as lesões benignas. No caso destas partes serem muito diferentes, esta característica é assimétrica, caracterizando lesões malignas. A borda (B) considerada regular representa lesões benignas e a borda irregular geralmente definem as lesões malignas, assim como mostrado na linha B. No caso da característica de Cor (C), as lesões benignas geralmente possuem apenas uma tonalidade e já as malignas possuem várias tonalidades, como pode ser visto na linha C. A característica de Diâmetro (D), especificada na linha D, das lesões benignas são menores, até 6 mm e das malignas são iguais ou maiores que 6 mm. No caso da textura, as lesões do tipo ceratose seborréica (lesão benigna) são muito irregulares, sendo sua principal característica, e já os nevos melanocíticos (lesão benigna) e melanoma (lesão maligna) não são tão irregulares(cucé et al., 2001). 2. Caracterização das lesões O método desenvolvido tem por objetivo auxiliar o dermatologista no seu diagnóstico. São disponibilizadas informações referentes às principais características das lesões de pele. Na Figura 1 pode ser vista a estrutura do método desenvolvido neste trabalho. A primeira etapa do método desenvolvido é a suavização das imagens por meio do filtro mediana, para eliminar os ruídos presentes nas mesmas. Depois é realizada a segmentação, utilizando o modelo de contorno ativo sem borda Chan-Vese (CHAN; VESE, 2001), para detectar a lesão. Para suavizar a borda e eliminar ruídos resultantes do processo de segmentação, são aplicados filtros morfológicos nas imagens. A partir da detecção da lesão, as características da regra ABCD e a textura são extraídas. As características de assimetria e textura são passadas ao SVM para as lesões serem classificadas em suas determinadas classes, simétrica ou assimétrica e regular ou irregular, respectivamente. 85

86 (ISSN: ) - Vol. 3, N. 1, 2014 Figura 1: Diagrama do método desenvolvido para caracterização de lesões de pele. 2.1 Suavização Nesta etapa foi realizada a suavização nas imagens da base, com o intuito de amenizar os efeitos dos ruídos presentes, como pelos e linhas da pele, que podem atrapalhar no resultado da segmentação. Foi utilizado o filtro mediana, que é considerado um método não-linear, ou seja, além de suavizar a imagem, também realça os contornos (GONZALEZ; WOODS, 2002). A aplicação deste filtro consiste em definir a intensidade de cada elemento da imagem, pela mediana da sua vizinhança de acordo com a máscara, definida com dimensão 7 X 7, que obteve melhor resultado de suavização. Nas imagens da Figura 2(b) pode ser visto o resultado da suavização aplicada em imagens originais, conforme a Figura 2(a), contendo lesões do tipo melanoma. A presença dos ruídos (pelos) foi amenizada Segmentação A técnica utilizada para a segmentação das imagens neste trabalho é o modelo de contorno ativo sem borda, proposto por Chan e Vese (CHAN; VESE, 2001), que é aplicado por meio da minimização de energia da curva sobreposta à imagem. A segmentação deste modelo é baseada em região, e utiliza conceitos das técnicas de (MUMFORD; SHAH, 1989) e Level Set (OSHER; SETHIAN, 1988) para separar a região doente da região saudável. São várias as vantagens deste método, que permite que seu uso tenha bons resultados: a detecção de diferentes objetos com variadas intensidades e ainda com fronteiras borradas; mudança topológica da curva; detecção de objetos onde o contorno não possui gradiente, isso não é possível com a utilização do modelo de contorno ativo tradicional (KASS et al., 1988); e tem-se um bom resultado na detecção dos objetos em imagens com ruídos. 86

87 (ISSN: ) - Vol. 3, N. 1, 2014 (a) (b) (c) (d) (e) Figura 2: Resultado da aplicação do método desenvolvido: (a) imagem original, (b) imagem suavizada, (c) imagem segmentada, (d) imagem pós-processada e (e) detecção do contorno da lesão. Para a aplicação deste modelo a imagem suavizada em RGB é transformada em níveis de cinza e então definida uma curva sobre a mesma. A forma inicial da curva é quadrada com dimensão , posicionada próxima ao centro da imagem, desta forma são realizadas menos iterações para a curva envolver completamente a lesão. Foram definidas 500 iterações para a evolução da curva, ou seja, a minimização da mesma ocorrerá até o número de iterações ou quando a curva estiver localizada sobre o objeto. O resultado da aplicação do modelo Chan-Vese possibilita a binarização da imagem, como pode ser visto nas imagens da Figura 2(c) Pós-processamento Filtros morfológicos são aplicados nas imagens binarizadas para tratá-las, eliminando ruídos internos e externos a lesão. Esses ruídos são provenientes das imagens com pelos, que não foram eliminados no processo de suavização, ou reflexos. Mas no caso dos reflexos, pode ser considerado que não estarão presentes nas imagens quando forem adquiridas corretamente. Os filtros utilizados neste trabalho foram a abertura seguida do fechamento, utilizando um elemento estruturante em forma de elipse, com os dois raios iguais a quatro, parâmetros que permitiram melhores resultados na etapa de pós-processamento. A aplicação desses filtros tem como intuito suavizar a borda, além de eliminar os ruídos. O resultado do pós-processamento pode ser visto nas imagens da Figura 2(d) a partir das imagens segmentadas da Figura 2(c). A borda foi suavizada e os ruídos externos a lesão foram eliminados. Os ruídos internos da lesão não foram eliminados completamente nos casos onde o elemento estruturante era menor que os ruídos, acarretando a definição de bordas falsas. Depois de realizado este processo, o contorno é definido, como apresentado na Figura 2(e). O contorno (linha branca) representa as delimitações e irregularidades da borda, sendo importante para que as características da lesão possam ser extraídas, sem influência da pele Extração das características ABCD e textura A partir do contorno da região segmentada pode-se extrair as características 87

88 (ISSN: ) - Vol. 3, N. 1, 2014 ABCD (assimetria, borda, cor e diâmetro) e textura da lesão associada, que são muito utilizadas pelos dermatologistas para diferenciar lesões benignas das malignas Assimetria Para extrair as características da assimetria foram utilizados apenas os pontos que fazem parte da borda da lesão. A distância euclidiana (GONZALEZ; WOODS, 2002) foi aplicada para calcular as distâncias entre todos os pares de pixels da borda da lesão, para definir a maior diagonal, representada pela reta amarela na imagem da Figura 3(a). Desta forma a lesão é dividida em duas partes (ARAUJO, 2010). (a) (b) Figura 3: Características de lesões de pele: (a) representação da Assimetria e (b) representação da assinatura da borda. Foram encontradas as perpendiculares de cada ponto da diagonal com o seu determinado ponto do contorno, para as duas partes da lesão. Foram estabelecidas duas retas, perpendicular a diagonal, como no exemplo apresentado na Figura 3(a), que são representadas pela linha azul e a linha vermelha. A quantidade de perpendiculares de cada imagem é diferente, dependendo do tamanho da diagonal da lesão. Considerando que as informações referentes as perpendiculares formam o vetor de característica utilizada pela SVM para classificar a característica de assimetria, o vetor deve possuir a mesma quantidade de características para todas as imagens. Desta forma, para estabelecer uma única quantidade de perpendiculares, foi calculado o numero de saltos de pontos na diagonal maior, conforme a quantidade de perpendiculares desejadas. Sendo: (1) onde é o número de saltos ao percorrer a diagonal maior para encontrar as perpendiculares, é o total de perpendiculares encontradas anteriormente e representa a quantidade de perpendiculares desejadas, formando uma conjunto de amostras de perpendiculares. Para cada perpendicular do conjunto de amostras é calculado a distância das retas do ponto da diagonal até ponto da borda perpendicular a ele. Então, a característica que representa cada perpendicular é definida pela razão entre a distância menor sobre a maior. Estas características são passadas ao SVM para assim serem classificadas Borda Para extrair informações da borda, primeiramente foram encontrados somente os pontos da mesma, utilizando a vizinhança de 8, a partir do primeiro ponto encontrado. Tendo a sequência correta dos pixels da borda, foi gerada a sua assinatura, representação unidimensional do contorno (GONZALEZ; WOODS, 2002), como demonstrado na Figura 3(b), onde a lesão é apresentada em vermelho. Considerando a assinatura da lesão, as informações referentes a irregularidade da borda são definidas pelo produto vetorial, que fornece a quantidade de picos, vales e retas que a borda possui (ARAUJO, 2010). O produto vetorial utiliza três pontos ( ) do contorno para definir sua direção, com variação de pixels, sendo calculado conforme a Equação 2. A aplicação do produto vetorial permite definir se o segmento do contorno formado por tais pontos é um pico, vale ou reta. (2) 88

GESTÃO DE RECURSOS HUMANOS EM PROJETOS DE SOFTWARE: PROPOSTA INTEGRADA AO PROCESSO PESSOAL

GESTÃO DE RECURSOS HUMANOS EM PROJETOS DE SOFTWARE: PROPOSTA INTEGRADA AO PROCESSO PESSOAL GESTÃO DE RECURSOS HUMANOS EM PROJETOS DE SOFTWARE: PROPOSTA INTEGRADA AO PROCESSO PESSOAL ESTECA, Antonio Marcos Neves Universidade Estadual Paulista Júlio de Mesquita Filho (UNESP) am.esteca@sjrp.unesp.br

Leia mais

Gerenciamento de projetos. cynaracarvalho@yahoo.com.br

Gerenciamento de projetos. cynaracarvalho@yahoo.com.br Gerenciamento de projetos cynaracarvalho@yahoo.com.br Projeto 3URMHWR é um empreendimento não repetitivo, caracterizado por uma seqüência clara e lógica de eventos, com início, meio e fim, que se destina

Leia mais

Pós-Graduação em Gerenciamento de Projetos práticas do PMI

Pós-Graduação em Gerenciamento de Projetos práticas do PMI Pós-Graduação em Gerenciamento de Projetos práticas do PMI Planejamento do Gerenciamento das Comunicações (10) e das Partes Interessadas (13) PLANEJAMENTO 2 PLANEJAMENTO Sem 1 Sem 2 Sem 3 Sem 4 Sem 5 ABRIL

Leia mais

Sistema de Controle de Solicitação de Desenvolvimento

Sistema de Controle de Solicitação de Desenvolvimento Sistema de Controle de Solicitação de Desenvolvimento Introdução O presente documento descreverá de forma objetiva as principais operações para abertura e consulta de uma solicitação ao Setor de Desenvolvimento

Leia mais

Desenvolvimento de um software de gerenciamento de projetos para utilização na Web

Desenvolvimento de um software de gerenciamento de projetos para utilização na Web Resumo. Desenvolvimento de um software de gerenciamento de projetos para utilização na Web Autor: Danilo Humberto Dias Santos Orientador: Walteno Martins Parreira Júnior Bacharelado em Engenharia da Computação

Leia mais

Como conduzir com sucesso um projeto de melhoria da qualidade

Como conduzir com sucesso um projeto de melhoria da qualidade Como conduzir com sucesso um projeto de melhoria da qualidade Maria Luiza Guerra de Toledo Coordenar e conduzir um projeto de melhoria da qualidade, seja ele baseado no Seis Sigma, Lean, ou outra metodologia

Leia mais

PLANEJAMENTO E PROJETOS. Lílian Simão Oliveira

PLANEJAMENTO E PROJETOS. Lílian Simão Oliveira PLANEJAMENTO E GERENCIAMENTO DE PROJETOS Lílian Simão Oliveira Contexto Gerentes lutam com projetos assustadores e com prazos finais difíceis de serem cumpridos Sistemas não satisfazem aos usuários Gastos

Leia mais

Desafio Profissional PÓS-GRADUAÇÃO 2012. Gestão de Projetos - Módulo C Prof. Me. Valter Castelhano de Oliveira

Desafio Profissional PÓS-GRADUAÇÃO 2012. Gestão de Projetos - Módulo C Prof. Me. Valter Castelhano de Oliveira Desafio Profissional PÓS-GRADUAÇÃO 12 Gestão de Projetos - Módulo C Prof. Me. Valter Castelhano de Oliveira 1 DESAFIO PROFISSIONAL Disciplinas: Ferramentas de Software para Gestão de Projetos. Gestão de

Leia mais

VISÃO SISTÊMICA EM GERENCIAMENTO DE PROJETOS PARA WEB

VISÃO SISTÊMICA EM GERENCIAMENTO DE PROJETOS PARA WEB VISÃO SISTÊMICA EM GERENCIAMENTO DE PROJETOS PARA WEB Rogério Fernandes da Costa Professor especialista Faculdade Sumaré rogerio.fernandes@sumare.edu.br Resumo: O presente estudo tem como objetivo abordar

Leia mais

GERÊNCIA DE INTEGRAÇÃO DO PROJETO

GERÊNCIA DE INTEGRAÇÃO DO PROJETO GERÊNCIA DE INTEGRAÇÃO DO PROJETO Estevanir Sausen¹, Patricia Mozzaquatro² ¹Acadêmico do Curso de Ciência da Computação ²Professor(a) do Curso de Ciência da Computação Universidade de Cruz Alta (UNICRUZ)

Leia mais

Processos de Desenvolvimento de Software

Processos de Desenvolvimento de Software Processos de Desenvolvimento de Software Gerenciamento de Projetos Mauro Lopes Carvalho Silva Professor EBTT DAI Departamento de Informática Campus Monte Castelo Instituto Federal de Educação Ciência e

Leia mais

Engenharia de Software

Engenharia de Software Universidade São Judas Tadeu Profª Dra. Ana Paula Gonçalves Serra Engenharia de O Processo Uma Visão Genérica Capítulo 2 (até item 2.2. inclusive) Engenharia de - Roger Pressman 6ª edição McGrawHill Capítulo

Leia mais

PROCESSO DE DESENVOLVIMENTO DE SOFTWARE. Modelos de Processo de Desenvolvimento de Software

PROCESSO DE DESENVOLVIMENTO DE SOFTWARE. Modelos de Processo de Desenvolvimento de Software PROCESSO DE DESENVOLVIMENTO DE SOFTWARE Introdução Modelos de Processo de Desenvolvimento de Software Os modelos de processos de desenvolvimento de software surgiram pela necessidade de dar resposta às

Leia mais

MASTER IN PROJECT MANAGEMENT

MASTER IN PROJECT MANAGEMENT MASTER IN PROJECT MANAGEMENT PROJETOS E COMUNICAÇÃO PROF. RICARDO SCHWACH MBA, PMP, COBIT, ITIL Atividade 1 Que modelos em gestão de projetos estão sendo adotados como referência nas organizações? Como

Leia mais

FATEC Cruzeiro José da Silva. Ferramenta CRM como estratégia de negócios

FATEC Cruzeiro José da Silva. Ferramenta CRM como estratégia de negócios FATEC Cruzeiro José da Silva Ferramenta CRM como estratégia de negócios Cruzeiro SP 2008 FATEC Cruzeiro José da Silva Ferramenta CRM como estratégia de negócios Projeto de trabalho de formatura como requisito

Leia mais

DESENVOLVIMENTO DE INTERFACE WEB MULTIUSUÁRIO PARA SISTEMA DE GERAÇÃO AUTOMÁTICA DE QUADROS DE HORÁRIOS ESCOLARES. Trabalho de Graduação

DESENVOLVIMENTO DE INTERFACE WEB MULTIUSUÁRIO PARA SISTEMA DE GERAÇÃO AUTOMÁTICA DE QUADROS DE HORÁRIOS ESCOLARES. Trabalho de Graduação DESENVOLVIMENTO DE INTERFACE WEB MULTIUSUÁRIO PARA SISTEMA DE GERAÇÃO AUTOMÁTICA DE QUADROS DE HORÁRIOS ESCOLARES Trabalho de Graduação Orientando: Vinicius Stein Dani vsdani@inf.ufsm.br Orientadora: Giliane

Leia mais

W Projeto. Gerenciamento. Construindo a WBS e gerando o Cronograma. Autor: Antonio Augusto Camargos, PMP 1/12

W Projeto. Gerenciamento. Construindo a WBS e gerando o Cronograma. Autor: Antonio Augusto Camargos, PMP 1/12 W Projeto BS Construindo a WBS e gerando o Cronograma. Gerenciamento Autor: Antonio Augusto Camargos, PMP 1/12 Índice Remissivo Resumo...3 1. Introdução...3 2. Conceituando a WBS (Work Breakdown Structure/Estrutura

Leia mais

GARANTIA DA QUALIDADE DE SOFTWARE

GARANTIA DA QUALIDADE DE SOFTWARE GARANTIA DA QUALIDADE DE SOFTWARE Fonte: http://www.testexpert.com.br/?q=node/669 1 GARANTIA DA QUALIDADE DE SOFTWARE Segundo a NBR ISO 9000:2005, qualidade é o grau no qual um conjunto de características

Leia mais

PMONow! Serviço de Implantação de um Escritório de Projetos

PMONow! Serviço de Implantação de um Escritório de Projetos PMONow! Serviço de Implantação de um Escritório de Projetos PMONow! Serviço de Implantação de um Escritório de Projetos As organizações em torno do mundo estão implantando processos e disciplinas formais

Leia mais

SETIS- III Seminário de Tecnologia Inovação e Sustentabilidade 4 e 5 de novembro de 2014.

SETIS- III Seminário de Tecnologia Inovação e Sustentabilidade 4 e 5 de novembro de 2014. A importância da comunicação no gerenciamento de projetos de softwares: reflexões teóricas Lucas Krüger lucas_kruger-@hotmail.com Resumo: Esse artigo objetiva estudar a comunicação entre cliente e desenvolvedor

Leia mais

Itinerários de Ônibus Relatório Final

Itinerários de Ônibus Relatório Final CENTRO UNIVERSITÁRIO SENAC Itinerários de Ônibus Relatório Final Grupo 5 Caio Roque Daniel Nunes Elise Roese José Caneiro Marcos Grignani São Paulo Junho de 2007 1 ÍNDICE 1. Introdução... 3 2. Desenvolvimento...

Leia mais

ARCO - Associação Recreativa dos Correios. Sistema para Gerenciamento de Associações Recreativas Plano de Desenvolvimento de Software Versão <1.

ARCO - Associação Recreativa dos Correios. Sistema para Gerenciamento de Associações Recreativas Plano de Desenvolvimento de Software Versão <1. ARCO - Associação Recreativa dos Correios Sistema para Gerenciamento de Associações Recreativas Versão Histórico da Revisão Data Versão Descrição Autor Página

Leia mais

Requisitos de Software. Teresa Maciel DEINFO/UFRPE

Requisitos de Software. Teresa Maciel DEINFO/UFRPE Requisitos de Software Teresa Maciel DEINFO/UFRPE 1 Requisito de Software Características que o produto de software deverá apresentar para atender às necessidades e expectativas do cliente. 2 Requisito

Leia mais

Gerenciamento de Projetos Modulo II Ciclo de Vida e Organização do Projeto

Gerenciamento de Projetos Modulo II Ciclo de Vida e Organização do Projeto Gerenciamento de Projetos Modulo II Ciclo de Vida e Organização do Projeto Prof. Walter Cunha falecomigo@waltercunha.com http://waltercunha.com PMBoK Organização do Projeto Os projetos e o gerenciamento

Leia mais

Faculdade Pitágoras. Engenharia de Software. Prof.: Julio Cesar da Silva. juliocesar@tecnocracia.eti.br. Http://e-academy.com.br

Faculdade Pitágoras. Engenharia de Software. Prof.: Julio Cesar da Silva. juliocesar@tecnocracia.eti.br. Http://e-academy.com.br Faculdade Pitágoras Engenharia de Software Prof.: Julio Cesar da Silva juliocesar@tecnocracia.eti.br Http://e-academy.com.br Evolução do Software (1950 1965) - O hardware sofreu contínuas mudanças - O

Leia mais

ü Curso - Bacharelado em Sistemas de Informação

ü Curso - Bacharelado em Sistemas de Informação Curso - Bacharelado em Sistemas de Informação Nome e titulação do Coordenador: Coordenador: Prof. Wender A. Silva - Mestrado em Engenharia Elétrica (Ênfase em Processamento da Informação). Universidade

Leia mais

APLICACAÇÃO DE METRICAS E INDICADORES NO MODELO DE REFERENCIA CMMI-Dev NIVEL 2

APLICACAÇÃO DE METRICAS E INDICADORES NO MODELO DE REFERENCIA CMMI-Dev NIVEL 2 APLICACAÇÃO DE METRICAS E INDICADORES NO MODELO DE REFERENCIA CMMI-Dev NIVEL 2 Renan J. Borges 1, Késsia R. C. Marchi 1 1 Universidade Paranaense (UNIPAR) Paranavaí, PR Brasil renanjborges@gmail.com, kessia@unipar.br

Leia mais

AUTOR: DAVID DE MIRANDA RODRIGUES CONTATO: davidmr@ifce.edu.br CURSO FIC DE PROGRAMADOR WEB VERSÃO: 1.0

AUTOR: DAVID DE MIRANDA RODRIGUES CONTATO: davidmr@ifce.edu.br CURSO FIC DE PROGRAMADOR WEB VERSÃO: 1.0 AUTOR: DAVID DE MIRANDA RODRIGUES CONTATO: davidmr@ifce.edu.br CURSO FIC DE PROGRAMADOR WEB VERSÃO: 1.0 SUMÁRIO 1 Conceitos Básicos... 3 1.1 O que é Software?... 3 1.2 Situações Críticas no desenvolvimento

Leia mais

ISO/IEC 12207: Gerência de Configuração

ISO/IEC 12207: Gerência de Configuração ISO/IEC 12207: Gerência de Configuração Durante o processo de desenvolvimento de um software, é produzida uma grande quantidade de itens de informação que podem ser alterados durante o processo Para que

Leia mais

Processos Técnicos - Aulas 4 e 5

Processos Técnicos - Aulas 4 e 5 Processos Técnicos - Aulas 4 e 5 Trabalho / PEM Tema: Frameworks Públicos Grupo: equipe do TCC Entrega: versão digital, 1ª semana de Abril (de 31/03 a 04/04), no e-mail do professor (rodrigues.yuri@yahoo.com.br)

Leia mais

Referências internas são os artefatos usados para ajudar na elaboração do PT tais como:

Referências internas são os artefatos usados para ajudar na elaboração do PT tais como: Plano de Teste (resumo do documento) I Introdução Identificador do Plano de Teste Esse campo deve especificar um identificador único para reconhecimento do Plano de Teste. Pode ser inclusive um código

Leia mais

Metodologia e Gerenciamento do Projeto na Fábrica de Software v.2

Metodologia e Gerenciamento do Projeto na Fábrica de Software v.2 .:: Universidade Estadual de Maringá Bacharelado em Informática Eng. de Software III :. Sistema de Gerenciamento de Eventos - Equipe 09 EPSI Event Programming System Interface Metodologia e Gerenciamento

Leia mais

PROJETO Pró-INFRA/CAMPUS

PROJETO Pró-INFRA/CAMPUS INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA CAMPUS AVANÇADO DE ARACATI PROJETO Pró-INFRA/CAMPUS IMPLEMENTAÇÃO DE SOLUÇÃO PARA AUTOMATIZAR O DESENVOLVIMENTO DE SOFTWARE UTILIZANDO A LINGUAGEM C#.NET

Leia mais

Projeto de Sistemas I

Projeto de Sistemas I Instituto Federal de Educação, Ciência e Tecnologia de São Paulo Projeto de Sistemas I Professora: Kelly de Paula Cunha E-mail:kellypcsoares@ifsp.edu.br Requisitos: base para todo projeto, definindo o

Leia mais

Profa. Dra. Ana Paula Gonçalves Serra prof.anapaula@saojudas.br

Profa. Dra. Ana Paula Gonçalves Serra prof.anapaula@saojudas.br Modelos de Processo Pessoal e de Equipe na Melhoria da Qualidade em Produção de Software Profa. Dra. Ana Paula Gonçalves Serra prof.anapaula@saojudas.br Agenda Importância das Pessoas / Constatações Compromisso

Leia mais

Sistema de Gestão da Qualidade

Sistema de Gestão da Qualidade Sistema de Gestão da Qualidade Coordenadora Responsável Mara Luck Mendes, Jaguariúna, SP, mara@cnpma.embrapa.br RESUMO Em abril de 2003 foi lançado oficialmente pela Chefia da Embrapa Meio Ambiente o Cronograma

Leia mais

SISTEMA. Tecnologia. Software. Hardware. Prazos. Pessoas. Qualidade. Custo GERENCIAMENTO DE RISCO: COMO GARANTIR O SUCESSO DOS PROJETOS DE TI?

SISTEMA. Tecnologia. Software. Hardware. Prazos. Pessoas. Qualidade. Custo GERENCIAMENTO DE RISCO: COMO GARANTIR O SUCESSO DOS PROJETOS DE TI? GERENCIAMENTO DE RISCO: COMO GARANTIR O SUCESSO DOS PROJETOS DE TI? Os projetos de Tecnologia de Informação possuem características marcantes, que os diferencia dos demais são projetos onde o controle

Leia mais

Justificativa da iniciativa

Justificativa da iniciativa Sumário Justificativa da iniciativa O que é o Framework? Apresentação básica de cada ferramenta Quais projetos serão avaliados por meio do Framework? Fluxo de avaliação Expectativas Justificativa da iniciativa

Leia mais

Adriano Marum Rômulo. Uma Investigação sobre a Gerência de Projetos de Desenvolvimento de Software em Órgãos do Governo do Ceará com Base no MPS-BR

Adriano Marum Rômulo. Uma Investigação sobre a Gerência de Projetos de Desenvolvimento de Software em Órgãos do Governo do Ceará com Base no MPS-BR Adriano Marum Rômulo 2014 Uma Investigação sobre a Gerência de Projetos de Desenvolvimento de Software em Órgãos do Governo do Ceará com Base no MPS-BR Agenda I. Introdução II. Referencial Teórico III.

Leia mais

Geração do Portal CPCX - UFMS pelo UNION: Um Estudo de Caso

Geração do Portal CPCX - UFMS pelo UNION: Um Estudo de Caso Geração do Portal CPCX - UFMS pelo UNION: Um Estudo de Caso Lourival dos Santos Pires Júnior, Tony Carlos Bignardi dos Santos, Amaury Antônio de Castro Junior, Carlos Alberto da Silva, Leila Lisiane Rossi

Leia mais

O processo de melhoria de processo

O processo de melhoria de processo O processo de melhoria de processo Prof.ª Dra. Aida Araújo Ferreira aidaferreira@recife.ifpe.edu.br Modelos de Melhoria de Processo de Software Tecnologia em Análise e Desenvolvimento de Sistemas IFPE

Leia mais

EMISSÃO DE CERTIFICADOS ELETRÔNICOS NOS EVENTOS DO INSTITUTO FEDERAL CATARINENSE CÂMPUS VIDEIRA

EMISSÃO DE CERTIFICADOS ELETRÔNICOS NOS EVENTOS DO INSTITUTO FEDERAL CATARINENSE CÂMPUS VIDEIRA EMISSÃO DE CERTIFICADOS ELETRÔNICOS NOS EVENTOS DO INSTITUTO FEDERAL CATARINENSE CÂMPUS VIDEIRA Jeferson Boesing 1 ; Tiago Heineck 2 ; Angela Maria Crotti da Rosa 3 ; Leila Lisiane Rossi 4 INTRODUÇÃO Alunos

Leia mais

Oficina de Gestão de Portifólio

Oficina de Gestão de Portifólio Oficina de Gestão de Portifólio Alinhando ESTRATÉGIAS com PROJETOS através da GESTÃO DE PORTFÓLIO Gestão de portfólio de projetos pode ser definida como a arte e a ciência de aplicar um conjunto de conhecimentos,

Leia mais

Um espaço colaborativo de formação continuada de professores de Matemática: Reflexões acerca de atividades com o GeoGebra

Um espaço colaborativo de formação continuada de professores de Matemática: Reflexões acerca de atividades com o GeoGebra Um espaço colaborativo de formação continuada de professores de Matemática: Reflexões acerca de atividades com o GeoGebra Anne Caroline Paim Baldoni Universidade Estadual Paulista Júlio de Mesquita Filho,

Leia mais

PLANEJAMENTO PLANEJAMENTO ESTRATÉGIA CICLO PDCA CICLO PDCA 09/04/2015 GESTÃO DE ESCOPO GERENCIAMENTO DE PROJETOS ACT

PLANEJAMENTO PLANEJAMENTO ESTRATÉGIA CICLO PDCA CICLO PDCA 09/04/2015 GESTÃO DE ESCOPO GERENCIAMENTO DE PROJETOS ACT UNIVERSIDADE FEDERAL DO PARANÁ DEPARTAMENTO DE CONSTRUÇÃO CIVIL PLANEJAMENTO 2 GERENCIAMENTO DE PROJETOS SUBMETIDA E APROVADA A PROPOSTA DO PROJETO PROCESSO DE PLANEJAMENTO GESTÃO DE Processo fundamental

Leia mais

CHECK - LIST - ISO 9001:2000

CHECK - LIST - ISO 9001:2000 REQUISITOS ISO 9001: 2000 SIM NÃO 1.2 APLICAÇÃO A organização identificou as exclusões de itens da norma no seu manual da qualidade? As exclusões são relacionadas somente aos requisitos da sessão 7 da

Leia mais

PRÓ-REITORIA DE EXTENSÃO, PESQUISA E INOVAÇÃO DIRETORIA DE PESQUISA E INOVAÇÃO Proposta de Projeto de Pesquisa

PRÓ-REITORIA DE EXTENSÃO, PESQUISA E INOVAÇÃO DIRETORIA DE PESQUISA E INOVAÇÃO Proposta de Projeto de Pesquisa PRÓ-REITORIA DE EXTENSÃO, PESQUISA E INOVAÇÃO DIRETORIA DE PESQUISA E INOVAÇÃO Proposta de Projeto de Pesquisa IDENTIFICAÇÃO DO PROJETO Título do Projeto de Pesquisa: School Blocks Sistema de Gestão Acadêmica

Leia mais

Introdução à Computação

Introdução à Computação Aspectos Importantes - Desenvolvimento de Software Motivação A economia de todos países dependem do uso de software. Cada vez mais, o controle dos processos tem sido feito por software. Atualmente, os

Leia mais

Engenharia de Software II: Definindo Projeto III. Prof. Msc Ricardo Britto DIE-UFPI rbritto@ufpi.edu.br

Engenharia de Software II: Definindo Projeto III. Prof. Msc Ricardo Britto DIE-UFPI rbritto@ufpi.edu.br Engenharia de Software II: Definindo Projeto III Prof. Msc Ricardo Britto DIE-UFPI rbritto@ufpi.edu.br Sumário Explorando as Áreas de Conhecimento de Gerenciamento de Projeto Entendendo como Projetos Acontecem

Leia mais

Gestão do Conhecimento A Chave para o Sucesso Empresarial. José Renato Sátiro Santiago Jr.

Gestão do Conhecimento A Chave para o Sucesso Empresarial. José Renato Sátiro Santiago Jr. A Chave para o Sucesso Empresarial José Renato Sátiro Santiago Jr. Capítulo 1 O Novo Cenário Corporativo O cenário organizacional, sem dúvida alguma, sofreu muitas alterações nos últimos anos. Estas mudanças

Leia mais

Planejamento e Gerência de Projetos de Software. Prof.: Ivon Rodrigues Canedo. PUC Goiás

Planejamento e Gerência de Projetos de Software. Prof.: Ivon Rodrigues Canedo. PUC Goiás Planejamento e Gerência de Projetos de Software Prof.: Ivon Rodrigues Canedo PUC Goiás Projeto É um trabalho que visa a criação de um produto ou de serviço específico, temporário, não repetitivo e que

Leia mais

EMISSÃO DE CERTIFICADOS ELETRÔNICOS NOS EVENTOS DO INSTITUTO FEDERAL CATARINENSE CÂMPUS VIDEIRA

EMISSÃO DE CERTIFICADOS ELETRÔNICOS NOS EVENTOS DO INSTITUTO FEDERAL CATARINENSE CÂMPUS VIDEIRA EMISSÃO DE CERTIFICADOS ELETRÔNICOS NOS EVENTOS DO INSTITUTO FEDERAL CATARINENSE CÂMPUS VIDEIRA Autores : Jeferson BOESING; Tiago HEINECK; Angela Maria Crotti da ROSA; Leila Lisiane ROSSI Identificação

Leia mais

Tecnologia em Gestão Pública Desenvolvimento de Projetos - Aula 9 Prof. Rafael Roesler

Tecnologia em Gestão Pública Desenvolvimento de Projetos - Aula 9 Prof. Rafael Roesler Tecnologia em Gestão Pública Desenvolvimento de Projetos - Aula 9 Prof. Rafael Roesler Introdução Objetivos da Gestão dos Custos Processos da Gerência de Custos Planejamento dos recursos Estimativa dos

Leia mais

GESTÃO DAS INFORMAÇÕES DAS ORGANIZAÇÕES MÓDULO 11

GESTÃO DAS INFORMAÇÕES DAS ORGANIZAÇÕES MÓDULO 11 GESTÃO DAS INFORMAÇÕES DAS ORGANIZAÇÕES MÓDULO 11 Índice 1. Importância do ERP para as organizações...3 2. ERP como fonte de vantagem competitiva...4 3. Desenvolvimento e implantação de sistema de informação...5

Leia mais

FDQ-TOOL UMA FERRAMENTA PARA A ANÁLISE DA QUALIDADE DA MÉTRICA DE ESFORÇO DO PDS

FDQ-TOOL UMA FERRAMENTA PARA A ANÁLISE DA QUALIDADE DA MÉTRICA DE ESFORÇO DO PDS 25 a 28 de Outubro de 2011 ISBN 978-85-8084-055-1 FDQ-TOOL UMA FERRAMENTA PARA A ANÁLISE DA QUALIDADE DA MÉTRICA DE ESFORÇO DO PDS Marcos Mitsuo Ashihara 1, Nelson Tenório Jr 2, Rita Cristina Galarraga

Leia mais

Pós-Graduação em Gerenciamento de Projetos práticas do PMI

Pós-Graduação em Gerenciamento de Projetos práticas do PMI Pós-Graduação em Gerenciamento de Projetos práticas do PMI Planejamento do Gerenciamento das Comunicações (10) e das Partes Interessadas (13) PLANEJAMENTO 2 PLANEJAMENTO Sem 1 Sem 2 Sem 3 Sem 4 Sem 5 ABRIL

Leia mais

MRP II. Planejamento e Controle da Produção 3 professor Muris Lage Junior

MRP II. Planejamento e Controle da Produção 3 professor Muris Lage Junior MRP II Introdução A lógica de cálculo das necessidades é conhecida há muito tempo Porém só pode ser utilizada na prática em situações mais complexas a partir dos anos 60 A partir de meados da década de

Leia mais

Gestão do Conhecimento e Dasenvolvimento de Software

Gestão do Conhecimento e Dasenvolvimento de Software Gestão do Conhecimento e Dasenvolvimento de Software Gabriel Gavasso 1 Anderson R. Yanzer Cabral 2 Resumo: Gerenciar o conhecimento nas organizações tem se tornado um grande desafio, visto a grande importância

Leia mais

CES-32 e CE-230 Qualidade, Confiabilidade e Segurança de Software. Conceitos de Qualidade. CURSO DE GRADUAÇÃO e DE PÓS-GRADUAÇÃO DO ITA

CES-32 e CE-230 Qualidade, Confiabilidade e Segurança de Software. Conceitos de Qualidade. CURSO DE GRADUAÇÃO e DE PÓS-GRADUAÇÃO DO ITA CURSO DE GRADUAÇÃO e DE PÓS-GRADUAÇÃO DO ITA 2º SEMESTRE 2002 CES-32 e CE-230 Qualidade, Confiabilidade e Segurança de Software Prof. Dr. Adilson Marques da Cunha Conceitos de Qualidade CES-32 / CE-230

Leia mais

Engenharia de Software II

Engenharia de Software II Engenharia de Software II Aula 5 http://www.ic.uff.br/~bianca/engsoft2/ Aula 5-05/05/2006 1 Dúvidas da aula passada RUP (Rational Unified Process) é uma ferramenta ou um processo? Resposta: os dois. O

Leia mais

ALESSANDRO PEREIRA DOS REIS PAULO CESAR CASTRO DE ALMEIDA ENGENHARIA DE SOFTWARE - CAPABILITY MATURITY MODEL INTEGRATION (CMMI)

ALESSANDRO PEREIRA DOS REIS PAULO CESAR CASTRO DE ALMEIDA ENGENHARIA DE SOFTWARE - CAPABILITY MATURITY MODEL INTEGRATION (CMMI) ALESSANDRO PEREIRA DOS REIS PAULO CESAR CASTRO DE ALMEIDA ENGENHARIA DE SOFTWARE - CAPABILITY MATURITY MODEL INTEGRATION (CMMI) APARECIDA DE GOIÂNIA 2014 LISTA DE TABELAS Tabela 1 Áreas de processo por

Leia mais

Programa de Capacitação em Gestão do PPA Curso PPA: Elaboração e Gestão Ciclo Básico. Elaboração de Planos Gerenciais dos Programas do PPA

Programa de Capacitação em Gestão do PPA Curso PPA: Elaboração e Gestão Ciclo Básico. Elaboração de Planos Gerenciais dos Programas do PPA Programa de Capacitação em Gestão do PPA Curso PPA: Elaboração e Gestão Ciclo Básico Elaboração de Planos Gerenciais dos Programas do PPA Brasília, abril/2006 APRESENTAÇÃO O presente manual tem por objetivo

Leia mais

Capítulo 3. Avaliação de Desempenho. 3.1 Definição de Desempenho

Capítulo 3. Avaliação de Desempenho. 3.1 Definição de Desempenho 20 Capítulo 3 Avaliação de Desempenho Este capítulo aborda como medir, informar e documentar aspectos relativos ao desempenho de um computador. Além disso, descreve os principais fatores que influenciam

Leia mais

Cálculo de volume de objetos utilizando câmeras RGB-D

Cálculo de volume de objetos utilizando câmeras RGB-D Cálculo de volume de objetos utilizando câmeras RGB-D Servílio Souza de ASSIS 1,3,4 ; Izadora Aparecida RAMOS 1,3,4 ; Bruno Alberto Soares OLIVEIRA 1,3 ; Marlon MARCON 2,3 1 Estudante de Engenharia de

Leia mais

ENGENHARIA DE SOFTWARE I

ENGENHARIA DE SOFTWARE I ENGENHARIA DE SOFTWARE I Prof. Cássio Huggentobler de Costa [cassio.costa@ulbra.br] Twitter: www.twitter.com/cassiocosta_ Agenda da Aula (002) Metodologias de Desenvolvimento de Softwares Métodos Ágeis

Leia mais

Fábrica de Software 29/04/2015

Fábrica de Software 29/04/2015 Fábrica de Software 29/04/2015 Crise do Software Fábrica de Software Analogias costumam ser usadas para tentar entender melhor algo ou alguma coisa. A idéia é simples: compara-se o conceito que não se

Leia mais

A Grande Importância da Mineração de Dados nas Organizações

A Grande Importância da Mineração de Dados nas Organizações A Grande Importância da Mineração de Dados nas Organizações Amarildo Aparecido Ferreira Junior¹, Késsia Rita da Costa Marchi¹, Jaime Willian Dias¹ ¹Universidade Paranaense (Unipar) Paranavaí PR Brasil

Leia mais

Especial Online RESUMO DOS TRABALHOS DE CONCLUSÃO DE CURSO. Sistemas de Informação 2011-2 ISSN 1982-1816. www.unifoa.edu.br/cadernos/especiais.

Especial Online RESUMO DOS TRABALHOS DE CONCLUSÃO DE CURSO. Sistemas de Informação 2011-2 ISSN 1982-1816. www.unifoa.edu.br/cadernos/especiais. Especial Online ISSN 1982-1816 www.unifoa.edu.br/cadernos/especiais.html DOS TRABALHOS DE CONCLUSÃO DE CURSO Sistemas de Informação 2011-2 SISTEMA DE GERENCIAMENTO DE MANUTENÇÃO AUTOMOTIVA Alunos: WERNECK,

Leia mais

Simulações em Aplicativos

Simulações em Aplicativos Simulações em Aplicativos Uso Avançado de Aplicativos Prof. Marco Pozam mpozam@gmail.com A U L A 0 5 Programação da Disciplina 20/Agosto: Conceito de Project Office. 27/Agosto: Tipos de Project Office.

Leia mais

SISTEMAS DE GESTÃO São Paulo, Janeiro de 2005

SISTEMAS DE GESTÃO São Paulo, Janeiro de 2005 SISTEMAS DE GESTÃO São Paulo, Janeiro de 2005 ÍNDICE Introdução...3 A Necessidade do Gerenciamento e Controle das Informações...3 Benefícios de um Sistema de Gestão da Albi Informática...4 A Ferramenta...5

Leia mais

Proposta de um método para auditoria de projetos de desenvolvimento de software iterativo e incremental

Proposta de um método para auditoria de projetos de desenvolvimento de software iterativo e incremental Proposta de um método para auditoria de projetos de desenvolvimento de software iterativo e incremental Francisco Xavier Freire Neto 1 ; Aristides Novelli Filho 2 Centro Estadual de Educação Tecnológica

Leia mais

Introdução ao Aplicativo de Programação LEGO MINDSTORMS Education EV3

Introdução ao Aplicativo de Programação LEGO MINDSTORMS Education EV3 Introdução ao Aplicativo de Programação LEGO MINDSTORMS Education EV3 A LEGO Education tem o prazer de trazer até você a edição para tablet do Software LEGO MINDSTORMS Education EV3 - um jeito divertido

Leia mais

O IMPACTO DA UTILIZAÇÃO DE UM SOFTWARE DE GERENCIAMENTO ELETRÔNICO DE PROJETOS NAS EMPRESAS

O IMPACTO DA UTILIZAÇÃO DE UM SOFTWARE DE GERENCIAMENTO ELETRÔNICO DE PROJETOS NAS EMPRESAS O IMPACTO DA UTILIZAÇÃO DE UM SOFTWARE DE GERENCIAMENTO ELETRÔNICO DE PROJETOS NAS EMPRESAS Nadia Al-Bdywoui (nadia_alb@hotmail.com) Cássia Ribeiro Sola (cassiaribs@yahoo.com.br) Resumo: Com a constante

Leia mais

Análise e Projeto de Sistemas. Engenharia de Software. Análise e Projeto de Sistemas. Contextualização. Perspectiva Histórica. A Evolução do Software

Análise e Projeto de Sistemas. Engenharia de Software. Análise e Projeto de Sistemas. Contextualização. Perspectiva Histórica. A Evolução do Software Análise e Projeto de Sistemas Análise e Projeto de Sistemas Contextualização ENGENHARIA DE SOFTWARE ANÁLISE E PROJETO DE SISTEMAS ENGENHARIA DA INFORMAÇÃO Perspectiva Histórica Engenharia de Software 1940:

Leia mais

IMPLANTAÇÃO DE UM SISTEMA DE AVALIAÇÃO DE DESEMPENHO NA UFG

IMPLANTAÇÃO DE UM SISTEMA DE AVALIAÇÃO DE DESEMPENHO NA UFG IMPLANTAÇÃO DE UM SISTEMA DE AVALIAÇÃO DE DESEMPENHO NA UFG Rosângela da Silva Nunes 1 Centros de Recursos Computacionais - CERCOMP Universidade Federal de Goiás UFG Campus II, UFG, 74000-000, Goiânia

Leia mais

TRABALHOS TÉCNICOS Coordenação de Documentação e Informação INOVAÇÃO E GERENCIAMENTO DE PROCESSOS: UMA ANÁLISE BASEADA NA GESTÃO DO CONHECIMENTO

TRABALHOS TÉCNICOS Coordenação de Documentação e Informação INOVAÇÃO E GERENCIAMENTO DE PROCESSOS: UMA ANÁLISE BASEADA NA GESTÃO DO CONHECIMENTO TRABALHOS TÉCNICOS Coordenação de Documentação e Informação INOVAÇÃO E GERENCIAMENTO DE PROCESSOS: UMA ANÁLISE BASEADA NA GESTÃO DO CONHECIMENTO INTRODUÇÃO Os processos empresariais são fluxos de valor

Leia mais

MODELO CMM MATURIDADE DE SOFTWARE

MODELO CMM MATURIDADE DE SOFTWARE MODELO CMM MATURIDADE DE SOFTWARE O modelo CMM Capability Maturity Model foi produzido pelo SEI (Software Engineering Institute) da Universidade Carnegie Mellon (CMU), em Pittsburgh, EUA, por um grupo

Leia mais

ESTÁGIO DE NIVELAMENTO DE GERENCIAMENTO DE PROJETOS MACROPROCESSO DE GESTÃO DO PORTFÓLIO

ESTÁGIO DE NIVELAMENTO DE GERENCIAMENTO DE PROJETOS MACROPROCESSO DE GESTÃO DO PORTFÓLIO ESTÁGIO DE NIVELAMENTO DE GERENCIAMENTO DE PROJETOS MACROPROCESSO DE GESTÃO DO PORTFÓLIO 05.11.2015 SUMÁRIO INTRODUÇÃO DEFINIÇÃO DE PORTFÓLIO CENÁRIO NEGATIVO DOS PORTFÓLIOS NAS ORGANIZAÇÕES GOVERNANÇA

Leia mais

C.M.M. Capability Maturity Model Modelo de Maturidade da Capacidade

C.M.M. Capability Maturity Model Modelo de Maturidade da Capacidade UNISUL Universidade do Sul de Santa Catarina. Campus da Grande Florianópolis Pedra Branca. CIÊNCIA DA COMPUTAÇÃO ENGENHARIA DE SOFTWARE ALUNO: Volnei A. Caetano Palhoça 02 de Junho de 2000 C.M.M. Capability

Leia mais

ROTEIRO PARA TREINAMENTO DO SAGRES DIÁRIO Guia do Docente

ROTEIRO PARA TREINAMENTO DO SAGRES DIÁRIO Guia do Docente Conceito ROTEIRO PARA TREINAMENTO DO SAGRES DIÁRIO Guia do Docente O Sagres Diário é uma ferramenta que disponibiliza rotinas que facilitam a comunicação entre a comunidade Docente e Discente de uma instituição,

Leia mais

Artigo Lean Seis Sigma e Benchmarking

Artigo Lean Seis Sigma e Benchmarking Artigo Lean Seis Sigma e Benchmarking David Vicentin e José Goldfreind Benchmarking pode ser definido como o processo de medição e comparação de nossa empresa com as organizações mundiais best-in-class.

Leia mais

GERENCIAMENTO DE PORTFÓLIO

GERENCIAMENTO DE PORTFÓLIO PMI PULSO DA PROFISSÃO RELATÓRIO DETALHADO GERENCIAMENTO DE PORTFÓLIO Destaques do Estudo As organizações mais bem-sucedidas serão aquelas que encontrarão formas de se diferenciar. As organizações estão

Leia mais

Padrões de Qualidade de Software e Métricas de Software

Padrões de Qualidade de Software e Métricas de Software Universidade Federal do Vale do São Francisco Padrões de Qualidade de Software e Métricas de Software Engenharia de Software I Aula 3 e 4 Ricardo Argenton Ramos Agenda da Aula Introdução (Qualidade de

Leia mais

Conteúdo. Disciplina: INF 02810 Engenharia de Software. Monalessa Perini Barcellos

Conteúdo. Disciplina: INF 02810 Engenharia de Software. Monalessa Perini Barcellos Universidade Federal do Espírito Santo Centro Tecnológico Departamento de Informática Disciplina: INF 02810 Prof.: (monalessa@inf.ufes.br) Conteúdo 1. Introdução 2. Processo de Software 3. Gerência de

Leia mais

SUGESTÕES PARA ARTICULAÇÃO ENTRE O MESTRADO EM DIREITO E A GRADUAÇÃO

SUGESTÕES PARA ARTICULAÇÃO ENTRE O MESTRADO EM DIREITO E A GRADUAÇÃO MESTRADO SUGESTÕES PARA ARTICULAÇÃO ENTRE O MESTRADO EM DIREITO E A GRADUAÇÃO Justificativa A equipe do mestrado em Direito do UniCEUB articula-se com a graduação, notadamente, no âmbito dos cursos de

Leia mais

Trilhas Técnicas SBSI - 2014

Trilhas Técnicas SBSI - 2014 brunoronha@gmail.com, germanofenner@gmail.com, albertosampaio@ufc.br Brito (2012), os escritórios de gerenciamento de projetos são importantes para o fomento de mudanças, bem como para a melhoria da eficiência

Leia mais

Projeto Disciplinar de Infra-Estrutura de Software SILC - SISTEMA DE LOCAÇÃO E CONTROLE

Projeto Disciplinar de Infra-Estrutura de Software SILC - SISTEMA DE LOCAÇÃO E CONTROLE 1 Projeto Disciplinar de Infra-Estrutura de Software SILC - SISTEMA DE LOCAÇÃO E CONTROLE EDILBERTO SILVA 1, ALESSANDRA DE CARVALHO COSTA (0911272) 2, CRISTIANO LEOPOLDINO DA SILVA. (911343) 3, MARCELO

Leia mais

Concepção e Elaboração

Concepção e Elaboração UNIVERSIDADE ESTADUAL PAULISTA INSTITUTO DE BIOCIÊNCIAS, LETRAS E CIÊNCIAS EXATAS DEPARTAMENTO DE CIÊNCIAS DE COMPUTAÇÃO E ESTATÍSTICA Análise e Projeto Orientado a Objetos Concepção e Elaboração Estudo

Leia mais

Professor: Curso: Disciplina:

Professor: Curso: Disciplina: Professor: Curso: Disciplina: Aula 1 Turma: Esp. Marcos Morais de Sousa Sistemas de informação Engenharia de Software I Dinâmica da disciplina, plano de curso e avaliação 03º semestre Prof. Esp. Marcos

Leia mais

PONTIFÍCIA UNIVERSIDADE CATÓLICA DE GOIÁS Curso Superior de Tecnologia em Análise e Desenvolvimento de Sistemas

PONTIFÍCIA UNIVERSIDADE CATÓLICA DE GOIÁS Curso Superior de Tecnologia em Análise e Desenvolvimento de Sistemas PONTIFÍCIA UNIVERSIDADE CATÓLICA DE GOIÁS Curso Superior de Tecnologia em Análise e Desenvolvimento de Sistemas CMP1132 Processo e qualidade de software II Prof. Me. Elias Ferreira Sala: 402 E Quarta-Feira:

Leia mais

Estratégia de TI. Posicionamento Estratégico da TI: como atingir o alinhamento com o negócio. Conhecimento em Tecnologia da Informação

Estratégia de TI. Posicionamento Estratégico da TI: como atingir o alinhamento com o negócio. Conhecimento em Tecnologia da Informação Conhecimento em Tecnologia da Informação Conhecimento em Tecnologia da Informação Estratégia de TI Posicionamento Estratégico da TI: como atingir o alinhamento com o negócio 2011 Bridge Consulting Apresentação

Leia mais

ATIVIDADES DE LINHA E DE ASSESSORIA

ATIVIDADES DE LINHA E DE ASSESSORIA 1 ATIVIDADES DE LINHA E DE ASSESSORIA SUMÁRIO Introdução... 01 1. Diferenciação das Atividades de Linha e Assessoria... 02 2. Autoridade de Linha... 03 3. Autoridade de Assessoria... 04 4. A Atuação da

Leia mais

ROTEIRO PARA ELABORAÇÃO DE PROJETOS

ROTEIRO PARA ELABORAÇÃO DE PROJETOS APRESENTAÇÃO ROTEIRO PARA ELABORAÇÃO DE PROJETOS Breve histórico da instituição seguido de diagnóstico e indicadores sobre a temática abrangida pelo projeto, especialmente dados que permitam análise da

Leia mais

MBA EM GESTÃO DE PROJETOS PÓS-GRADUAÇÃO 2013. DESAFIO PROFISSIONAL Módulo C

MBA EM GESTÃO DE PROJETOS PÓS-GRADUAÇÃO 2013. DESAFIO PROFISSIONAL Módulo C MBA EM GESTÃO DE PROJETOS PÓS-GRADUAÇÃO 13 DESAFIO PROFISSIONAL Módulo C Ferramentas de Software para Gestão de Projetos Gestão de Custos Gestão de Aquisições e Contratações Autor: Prof. Dr. Valter Castelhano

Leia mais