SERG 2014 SEMIOTIC ENGINEERING RESEARCH GROUP

Documentos relacionados
Professora Clarisse Sieckenius de Souza 30/03/2011. serg

Professor Leandro Augusto Frata Fernandes Estudar e interpretar a situação atual das coisas

DECIDE - Guia para o planejamento de uma avaliação

Avaliação Heurística e Testes de Usabilidade

AVALIAÇÃO DE INTERFACES

Design de IHC: Conhecendo as Necessidades dos Usuários

Método de prototipação em papel Comparativo dos métodos de avaliação

Avaliação de comunicabilidade

Técnicas Experimentais Aplicadas à Zootecnia UNIDADE 1. NOÇÕES DE PLANEJAMENTO EXPERIMENTAL

Planejando a avaliação de IHC

Avaliação da Usabilidade da Interface Gráfica de Gerenciamento de um Estacionamento

Avaliação de IHC Métodos de INSPEÇÃO A Avaliação Heurística

Projeto de Curso Uso de Cenários em Projeto Entrevistas com Usuários

Usabilidade Facilidade de Uso, Produtividade, Satisfação

Análise da situação atual Que dados coletar De quem coletar dados Aspectos éticos. Professor Leandro Augusto Frata Fernandes

09 a 12 de novembro de 2016

A Teoria da Ação A. (Norman, 1986) INF1403 Introdução a IHC Aula 8 01/04/2013. Profa. Clarisse S. de Souza

Métodos de pesquisa quantitativa e qualitativa para Ciência da Computação

Interação Humano-Computador Introdução PROFESSORA CINTIA CAETANO

AVALIAÇÃO DE PRODUTOS DE SOFTWARE

Interface Humano- Computador (IHC): Avaliação. Isabela Gasparini

Desenvolvimento da Pesquisa

Introdução à IHC 3WC - Primeiro Trabalho T

TS04. Teste de Software PLANOS DE TESTE. COTI Informática Escola de Nerds

Avaliação de IHC Métodos de INSPEÇÃO A Avaliação Heurística

Interfaces Pessoa. Avaliação IV. Máquina. Cap. 9 -Avaliação

TESTES DE SOFTWARE 1. Fundamentos sobre testes de software

IHC-001. Tecnologia em Análise e Desenvolvimento de Sistemas Prof. Me. Álvaro d Arce

TECNOLOGIA EM ANÁLISE E DESENVOLVIMENTO DE SISTEMAS ANÁLISE E PROJETO DE SISTEMAS. Aula 5. Agenda

USABILIDADE. Prof.: Michele Nasu Tomiyama Bucci

PROJETO INTEGRADOR I. Aula 2. Prof. Carlos Café Dias

Gerenciamento dos Riscos do Projeto (PMBoK 5ª ed.)

Engenharia de Software ENGENHARIA DE REQUISITOS

Pesquisa de Mercado. 08 de junho de Profa. Daniela Callegaro, Dr. Martiele Cortes Borges

Procedimentos de Pesquisa em Ciências Sociais

Processos de Validação e Verificação do MPS-Br

Identificação de Necessidades dos Usuários e Requisitos de IHC

Ergonomia e Usabilidade

Produção de projeto de pesquisa na Blossom Educação em Terapia Floral

Engenharia de Software II

AULA Nº 7 METODOLOGIA CIENTÍFICA ALGUNS TIPOS DE PESQUISAS E SUAS PRINCIPAIS CARACTERÍSTICAS. Prof. MSc. Fernando Soares da Rocha Júnior

Interfaces Pessoa. Avaliação III. Máquina. Cap. 9 - Avaliação

Por que IHC é importante?

Método de Pesquisa: Estudo de Caso. Baseado no livro do YIN. Elaborado por Prof. Liliana

Engenharia de Software II

- Prototipação Iterativa - Observação Direta

VERIFICAÇÃO & VALIDAÇÃO

Metodologia da Pesquisa em Ciências Agrárias. Prof. Massena.

ENGENHARIA DE USABILIDADE E INTERFACES

MANUAL DO AVALIADOR O

No dicionário: Local bem determinado a que se aposta atingir; Objetivo; Limite ou abrangência de uma operação.

METODOLOGIA DA PESQUISA I. Marinês Steffanello

Referências Bibliográficas

Design de IHC: Cenários de Projeto

Engenharia de Software e Gerência de Projetos Prof. Esp. André Luís Belini Bacharel em Sistemas de Informações MBA em Gestão Estratégica de Negócios

serg O Processo de Design Requisitos semiotic engineering research group Informática PUC-Rio

Interfaces Pessoa-Máquina (IPM)

Disciplina: Processos Organizacionais Líder da Disciplina: Rosely Gaeta NOTA DE AULA 05 FERRAMENTAS E MÉTODOS PARA A RACIONALIZAÇÃO DOS PROCESSOS

A Computação e as Classificações da Ciência

Normas ISO:

Unidade VII Amostragem

INTERAÇÃO HOMEM COMPUTADOR. Professora Marcia Pereira Sistemas de Informação

DPS1036 SISTEMAS DA QUALIDADE I CAPÍTULO 2 METODOLOGIAS DE ANÁLISE E SOLUÇÃO DE PROBLEMAS. Aula 07 PDCA

Por que melhorar o processo? Melhoria do Processo de Software. De onde veio a idéia? Qualidade de Software

Avaliação de Desempenho

CURSO BÁSICO [156 HORAS]

GUTS-RS & GUIX. Teste de Usabilidade e Acessibilidade para melhorar a experiência do usuário Juliana Damasio

Engenharia de Requisitos

Áreas de Conhecimento, Técnicas de Análise de Negócio e Conceitos-Chave

Estágio II. Aula 01 Qualidade de Software. Prof. MSc. Fred Viana

3 Medição de Software

PESQUISA DE MERCADO. Profa. MSc Marilda Sena P. Zuza

ENGENHARIA DE USABILIDADE. Aula 08 - Técnicas para avaliação de interfaces

3 MÉTODO. 3.1 Introdução

AULA 02 PLANEJAMENTO ESTATÍSTICO

Pesquisa Científica. Atividade da Aula Passada... Pesquisa Científica. Pesquisa Científica...

Etapas da Pesquisa. 1 Etapas da Pesquisa. Especialização em Engenharia de Soldagem

Avaliação de Desempenho

Estudos formais de marketing. Pesquisa de marketing

As técnicas de concepção

Engenharia de Software Aula 2.3 Processos da Engenharia de Requisitos. Prof. Bruno Moreno

Testes de Usabilidade (1/2)

Teste de Software. Competência: Entender as técnicas e estratégias de testes de Software

QUALIDADE Grau até o qual um conjunto de características satisfaz as necessidades! Cumprimento dos requisitos pré determinados no Escopo do projeto;

Introdução à Revisão Sistemática da Literatura

INTRODUÇÃO INTRODUÇÃO INTRODUÇÃO ISO 9001 ISO /03/2015 QUALIDADE! GERENCIAMENTO DE PROJETOS GESTÃO DE QUALIDADE

Conceitos Básicos. Aula 04 13/03/2013. INF1403 Introdução a IHC. Profa. Luciana Salgado

Arquitetura de Software: O que é? Para que serve? Como validá-la? Rodrigo Rebouças de Almeida rodrigor.com

Profs. Rosana Braga e Paulo C. Masiero ICMC-USP 1º. 2017

Iden%ficação de Necessidades dos Usuários e Requisitos de IHC

(b) Quais os tipos de informações (diferentes, adicionais) disponibilizadas para as diferentes situações que os usuários podem se encontrar?

Parte I Visão Geral do Processo de Pesquisa 21. Capítulo 1 Introdução à Pesquisa em Atividade Física 23

Pesquisa Científica. Pesquisa Científica. Classificação das Pesquisas... Pesquisa Científica... Interpretar resultados. Realizar a pesquisa

serg semiotic engineering research group Avaliação em IHC Departamento de Informática, PUC-Rio

AMOSTRAGEM. É a parte da Teoria Estatística que define os procedimentos para os planejamentos amostrais e as técnicas de estimação utilizadas.

Planejamento e Desempenho de Custos. Disciplina: Gerenciamento de Projetos Docente: Cristina Almeida

SSC643 -Avaliação de Desempenho de Sistemas Computacionais -

Gerência de Projetos e Qualidade de Software. Prof. Walter Gima

Design Centrado no Usuário

Implantação do Controle de Qualidade Interno Laboratorial DR. JUNO DAMASCENO

Transcrição:

Interação Humano-Computador Avaliação em IHC: Primeiras noções (2) www.inf.puc-rio.br/~inf1403

Avaliação de IHC O que é? Chamamos de avaliação de IHC a atividade profissional especializada que tem por objetivo julgar a qualidade de interação que um sistema ou artefato computacional oferece aos seus usuários. 1. Avaliação é uma atividade profissional. Não é uma emissão de opinião baseada em preferências ou conjecturas pessoais. 2. Usuários sempre têm opiniões e julgamentos sobre a qualidade dos sistemas com que interagem: mas isto não é uma avaliação de IHC, a menos que os usuários sejam também profissionais.

Antes de começar qualquer avaliação, pergunte: Qual é mesmo o meu objetivo? Por que e para que estou fazendo a avaliação? Me encomendaram? Estou fazendo uma pesquisa? Estou fazendo um exercício?? Quais os meus recursos? Tenho prazos, orçamento, infraestrutura? Preciso observar pessoas? Onde? Como? Qual o objeto da minha avaliação? Tenho um sistema plenamente implementado? Parcialmente implementado? Apenas uma maquete? Completa? Parcial?

4 paradigmas para a avaliação de IHC 1. O rápido e rasteiro (que prima pela informalidade) 2. Os testes de usabilidade (experimentos controlados em laboratórios) 3. Os estudos em campo (que se realizam nos contextos naturais de uso das tecnologias avaliadas e são mais difíceis de controlar e registrar do que os testes de usabilidade) 4. A avaliação preditiva (que se baseia em conhecimento heurístico ou teórico de um avaliador especializado)

DECIDE Guia para o planejamento de uma avaliação (Preece et al., 2005) Determinar os objetivos gerais que a avaliação deverá tratar Explorar perguntas específicas a serem respondidas Escolher (Choose) o paradigma e as técnicas de avaliação que responderão as perguntas Identificar questões práticas que devem ser tratadas Decidir como lidar com questões éticas Avaliar (Evaluate), interpretar e apresentar os dados PREECE, J.; ROGERS, I.; SHARP, H. Design de Interação: Além da Interação Humano-Computador Porto Alegre: Bookman, 2005.

DECIDE Guia para o planejamento de uma avaliação Determinar os objetivos gerais que a avaliação deverá tratar quais são os objetivos gerais da avaliação quem solicitou a avaliação, e por quê Os objetivos influenciam a escolha de paradigma e técnica. Por quê?

DECIDE Guia para o planejamento de uma avaliação Explorar perguntas específicas a serem respondidas Quem são os usuários-alvo? Quais são suas atividades? Em quais tarefas ocorrem mais erros? Quais tarefas apresentam problemas mais graves de desempenho? A proposta A é melhor do que a proposta B em algum aspecto? Qual(is)? Toda boa avaliação tem de ser guiada por objetivos e questões claras; se não for, vira uma perda de tempo.

DECIDE Guia para o planejamento de uma avaliação Escolher (Choose) o paradigma e as técnicas de avaliação que responderão as perguntas prazo, custo, equipamentos necessários, e grau de conhecimento e experiência dos avaliadores exigidos por cada técnica Alguns paradigmas são incompatíveis com certas técnicas. Por exemplo, estudos de campo não são compatíveis com testes ou com modelagem. Por quê?

DECIDE Guia para o planejamento de uma avaliação Identificar questões práticas que devem ser tratadas Como selecionar os usuários? perfil e número de usuários Como ficar dentro de um orçamento apertado? Como não extrapolar o cronograma? Como encontrar avaliadores? alocação de pessoal para a realização da avaliação Como selecionar e preparar equipamentos? Quais tarefas serão avaliadas? Que material deve ser preparado para a avaliação?

DECIDE Guia para o planejamento de uma avaliação Decidir como lidar com questões éticas os avaliadores devem se certificar que os direitos dos participantes do teste estão sendo respeitados Preparar um termo de consentimento Todo participante tem o direito de: saber exatamente o objetivo do estudo saber exatamente o que vai ser feito com os dados ter garantias de seus dados pessoais e privativos não ser citado ou mostrado em qualquer situação sem seu consentimento prévio abandonar o estudo quando e por que bem entender exigir ser tratado com toda educação

DECIDE Guia para o planejamento de uma avaliação Avaliar (Evaluate), interpretar e apresentar os dados confiabilidade dos dados: a técnica produz os mesmos resultados nas mesmas circunstâncias? validade dos dados: a técnica permite medir o que deveria? potenciais distorções: existe algum viés oculto? escopo: o que pode ser generalizado? validade ecológica : o quanto o ambiente em que a avaliação é feita influencia ou distorce os resultados? Análise e apresentação dependem de paradigma e técnica.

Estudos-piloto Servem de teste para o teste pra valer. Visam avaliar O estudo/experimento é viável? Você consegue conduzir o procedimento inteiro e bem? Os scripts, entrevistas, questionários estão claros e sem bugs? Quantos estudos-piloto se deve fazer? quantos forem necessários para ajustar a qualidade do experimento pelo menos um é indispensável E se não tiver usuários sobrando? Procurar pessoas com perfil semelhante. Vale até usar seus próprios conhecidos.

Conhecimentos necessários a um avaliador Conhecimento sobre o domínio necessário para determinar o que os usuários querem, do que eles precisam, quais são as tarefas mais freqüentes e quais as mais importantes Conhecimento sobre o projeto de interfaces de usuário avaliador deve ser capaz de analisar os aspectos mais importantes de um projeto de interfaces (e.g. navegação, terminologia, estruturas de controle, etc.) e conhecer os princípios e diretrizes disponíveis na literatura Experiência de utilização do método de avaliação permite ao avaliador ao representar um cliente, bem como o conhecimento sobre o que procurar e o que relatar como resultado da avaliação

Paradigmas, Métodos e Técnicas Paradigma? É um modelo ou forma de conceber a atividade, normalmente atrelado ao objetivo que se quer atingir com ela. Método? É um conjunto claramente definido de passos, que são sistematica e rigorosamente repetidos, para se realizar um procedimento. Técnica? É uma forma de realizar uma tarefa ou atividade.

4 paradigmas para a avaliação de IHC 1. O rápido e rasteiro (que prima pela informalidade) 2. Os testes de usabilidade (experimentos controlados em laboratórios) 3. Os estudos em campo (que se realizam nos contextos naturais de uso das tecnologias avaliadas e são mais difíceis de controlar e registrar do que os testes de usabilidade) 4. A avaliação preditiva (que se baseia em conhecimento heurístico ou teórico de um avaliador especializado)

Técnicas de avaliação de IHC Há diferentes técnicas de avaliação. Rápido e Rasteiro Testes de Usabilida de Estudos de Campo Avaliação Preditiva Cada técnica se aplica melhor ou pior (ou não se aplica) conforme o paradigma em que nos encontramos. Logo o que queremos fazer é saber como preencher as colunas de uma tabela como esta ao lado. (Por quê?) Técnica 1 Técnica 2 Técnica n

Sobre as técnicas de avaliação 1/5 Paradigmas de Avaliação Tipo de Técnica Observação de usuários Rápida & Rasteira Teste de Usabilidade Estudos de Campo Avaliação Preditiva É muito útil Registros da A observação é Não acontece. para se ter atitude e o coração dos noção geral, interação estudos de embora não ajudam a ver campo; eles muito rica, de erros, descobrir não existem como os caminhos sem ela. O usuários atuam inesperados na avaliador tem em seu interface e a de ficar imerso contexto calcular tempo no ambiente natural. de interação. dos usuários.

Sobre as técnicas de avaliação 2/5 Paradigmas de Avaliação Tipo de Técnica Rápida & Rasteira Teste de Usabilidade Estudos de Campo Avaliação Preditiva Perguntar aos usuários Focus groups: técnica qualitativa de análise; 8-15 representantes dos usuários participam de uma discussão liderada e focada em uma questão específica. A idéia não é generalizar é entender melhor. É útil conversar com usuários individualmente ou com grupos de usuários (reais ou potenciais). Pode-se usar a técnica de focus groups. Questionários (com perguntas abertas ou fechadas), bem como entrevistas (com perguntas abertas ou fechadas) exploram a satisfação do usuário. É possível (embora não indispensável) entrevistar os usuários. A etnografia tem métodos específicos para isto, que têm sido muito usados em IHC. Não acontece. Etnografia é uma técnica utilizada principalmente por antropólogos e cientistas sociais. Consiste em REGISTRAR ou ESCREVER ( grafia ) detalhadamente as práticas culturais de um grupo ( etno ).

Sobre as técnicas de avaliação 3/5 Paradigmas de Avaliação Tipo de Técnica Consultar especialistas Rápida & Rasteira É bom colher críticas de especialistas ( relatório crítico ), pois o olhar do especialista treinado costuma identificar logo vários problemas. Teste de Usabilidade Estudos de Campo Avaliação Preditiva Não acontece. Não acontece. Previsões de especialistas logo no início do ciclo de design, sobretudo a partir de heurísticas, traz ganhos no tempo de desenvolvimento global.

Sobre as técnicas de avaliação 4/5 Paradigmas de Avaliação Tipo de Técnica Rápida & Rasteira Teste de Usabilidade Estudos de Campo Avaliação Preditiva Testes com usuários Não acontece. Testes com representantes de usuários típicos, em laboratórios, com variáveis controláveis, são o coração dos testes de usabilidade. Não acontece. Não acontece.

Sobre as técnicas de avaliação 5/5 Paradigmas de Avaliação Tipo de Técnica Modelo de desempenho dos usuários Rápida & Rasteira Teste de Usabilidade Estudos de Campo Avaliação Preditiva Não acontece. Não acontece. Não acontece. Especialistas podem usar modelos específicos para prever o desempenho de usuários, comparativamente aos modelos de design que há.

Sobre os dados coletados (1/2) Avaliação quantitativa necessariamente envolve métricas e números métrica é a expressão numérica de uma qualidade requer conhecimentos de outras disciplinas, em especial de Estatística amostragens que podem ser muito volumosas pode-se obter previsões bastante boas sobre o comportamento dos usuários

Sobre os dados coletados (2/2) Avaliação qualitativa normalmente não envolve métricas e números requer conhecimentos teóricos e técnicos de várias disciplinas, e também de conhecimentos práticos dos profissionais (heurísticas) trabalha tipicamente com casos fornece insumos para pesquisas quantitativas que poderão fazer previsões entender antes de medir

Exercício (para próxima aula) A partir do exercício realizado na aula anterior (em azul abaixo) Escolha uma aplicação e defina uma tarefa a ser executada. Em seguida: 1. Faça uma lista do que você acha que são itens a avaliar. 2. Identifique na sua lista o que é: subjetivo e objetivo 3. Identifique na sua lista o que, como visto em aulas anteriores, é relativo a: Interface/ Interação Usabilidade / Acessibilidade / Comunicabilidade) Defina um paradigma e as técnicas de avaliação que você julgue apropriados para essa avaliação que você propôs. Argumente sobre os prós e contras dessa escolha.

Referências Livro capítulo 9 BARBOSA, S.D.J.; SILVA, B.S. Interação Humano-Computador. Editora Campus-Elsevier, 2010.