Freitas & Janissek Análise léxica e Análise de conteúdo p.1

Tamanho: px
Começar a partir da página:

Download "Freitas & Janissek Análise léxica e Análise de conteúdo p.1"

Transcrição

1 Freitas & Janissek Análise léxica e Análise de conteúdo p.1

2 ANÁLISE LÉXICA E ANÁLISE DE CONTEÚDO: Técnicas complementares, sequenciais e recorrentes para exploração de dados qualitativos Freitas & Janissek Análise léxica e Análise de conteúdo p.2

3 Sphinx sistemas para pesquisas e análises de dados Sphinx Consultoria - Distribuidor EXCLUSIVO do Sphinx Único certificado e autorizado SPHINX na América Latina tel/fax: 0xx sphinx@portoweb.com.br Freitas & Janissek Análise léxica e Análise de conteúdo p.3

4 ANÁLISE LÉXICA E ANÁLISE DE CONTEÚDO: Técnicas complementares, sequenciais e recorrentes para exploração de dados qualitativos Henrique Freitas & Raquel Janissek 2000 Distribuição: Sphinx Freitas & Janissek Análise léxica e Análise de conteúdo p.4

5 Supervisão gráfica: terceirizada Capa: Fernando K. Andriotti, Maurício G. Testa e André Panisson Edição: Fernando K. Andriotti Impressão: Gráfica La Salle. Dados internacionais de Catalogação na Publicação (CIP) (Câmara Brasileira do Livro, SP, Brasil) FREITAS, Henrique Mello Rodrigues de. Análise léxica e análise de conteúdo: técnicas complementares, sequenciais e recorrentes para exploração de dados qualitativos / Henrique Mello Rodrigues de Freitas e Raquel Janissek. Porto Alegre: Sphinx: Editora Sagra Luzzatto, p.: il. Bibliografia: Metodologia da Pesquisa. 2. Técnicas de pesquisa. 3. Análise de Dados: pesquisa. I. Janissek, Raquel. II. Título Índice para catálogo sistemático: 1. Pesquisa e métodos Ciências sociais Análise de dados Henrique Freitas & Raquel Janissek Todos os direitos estão reservados à Sphinx Impresso em Junho Também disponível via Internet ( e Freitas & Janissek Análise léxica e Análise de conteúdo p.5

6 Agradecimentos Esta iniciativa teve origem na discussão entre professores da Escola de Administração sobre o que deveria ou não ser feito como análise de dados em um determinado estudo. O resultado, demonstrado neste documento, expressa nossa convicção na resposta que deveria ser aportada. A eles, pela provocação, nosso agradecimento especial! Esta realização só foi possível com o apoio da Sphinx Consultoria-Canoas RS, bem como da Escola de Administração da UFRGS e do Gesid-PPGA/EA/UFRGS. Em especial, nossa equipe de suporte (Fernando Kuhn Andriotti e outros bolsistas). Ao doutorando Jorge Audy (PPGA/EA/UFRGS), agradecemos a leitura e crítica da versão preliminar, bem como o prefácio do ponto de vista de quem necessita recorrer a este tipo de conhecimento aqui elaborado. Agradecemos em especial aos parceiros franceses de concepção e desenvolvimento de sistemas para análises de dados quanti-qualitativos, professores Jean Moscarola (Annecy) e Yves Baulac (Grenoble), pelas discussões intelectuais e pela motivação, sobretudo pela parceria promissora e sua amizade. Nossas famílias certamente são nossas fontes de energia, e merecem nosso agradecimento especial. Henrique Freitas & Raquel Janissek Freitas & Janissek Análise léxica e Análise de conteúdo p.6

7 Sumário Apresentação... 8 Prefácio dos Autores... 9 Dados dos Autores Prefácio Explorando dados textuais para identificar oportunidades e antecipar problemas Dados qualitativos: problemas e questões inerentes à sua coleta e análise Análise quali ou quantitativa de dados textuais? A Análise Léxica A Análise de Conteúdo Aplicações de análise qualitativa em gestão e em sistemas de informação Ferramentas para Análises Léxica e de Conteúdo Aplicação de análise de dados qualitativos: pesquisa sobre internet e negócios As questões abertas da pesquisa Como analisar os dados qualitativos? Análise léxica dos dados abertos da pesquisa: palavras e expressões Análise de Conteúdo das questões abertas Aprofundando a análise de dados através da Análise de Correspondência Considerações Finais Referências bibliográficas Índice Remissivo Índice de Autores Apêndice - Sistema Sphinx para pesquisas e análises de dados Freitas & Janissek Análise léxica e Análise de conteúdo p.7

8 Apresentação O diferencial proporcionado pelos métodos, bem como a isenção conferida pelo pesquisador que respeita estes métodos, retratam as diferenças das competências e das intenções em uma pesquisa. Todo profissional deve desenvolver habilidades e dominar sistemas, técnicas e métodos inerentes à necessidade por construção de conhecimento a partir de dados disponíveis de uma ou outra forma dentro do seu contexto de atuação. Mostra-se que é viável, com o auxílio de instrumental adequado, explorar dados quanti-qualitativos e produzir informações consistentes que possam trazer respostas ágeis a muitos questionamentos que surgem no dia-a-dia de uma organização e mesmo no trabalho do profissional de pesquisa. Com o uso de dados qualitativos, seja de que natureza for, pode-se ter a chance de identificar oportunidades ou antecipar problemas de forma bem mais pontual, precisa e com um custo operacional bem menor. Existem várias técnicas de coleta e de análise de dados que permitem capturar automática e quase gratuitamente dados qualitativos. Além disso, esse tipo de dado pode ser explorado mais de uma vez, constituindo-se numa fonte diferenciada para a geração de novos, diferentes e curiosos dados, os quais podem ser produzidos diretamente pelo pesquisador. Este livro demonstra algumas técnicas para realizar análise de dados textuais, em especial as análises léxica e de conteúdo, buscando repassar ao leitor condições para uma investigação prática e eficaz. Estas técnicas são apresentadas enfatizando o seu uso em conjunto. O pesquisador ou analista tem, nelas, diferentes recursos que permitem a exploração adequada dos dados, através de procedimentos sistematizados. Freitas & Janissek Análise léxica e Análise de conteúdo p.8

9 Prefácio dos Autores Este livro propõe uma abordagem para a condução de análises de dados qualitativos. Nosso propósito é descrever caminhos para o uso conjunto de diferentes técnicas de análises de dados. Em particular, são apresentadas as idéias de complementaridade, recorrência e sequencialidade do uso das análises léxica e de conteúdo, abordando diferentes aspectos metodológicos para a exploração mais criteriosa da análise de dados qualitativos. Esta iniciativa nasceu de nossa compreensão de que diversos pesquisadores pensam, de forma equivocada, que a escolha deve recair sobre uma ou outra técnica. Ora, a riqueza de análise só pode ser atingida com a variação e a aplicação conjunta de diferentes técnicas! Mostra-se em detalhe a utilização de métodos e técnicas para o desenvolvimento de análises de dados qualitativos, bem como são desenvolvidos exemplos - passo a passo - de como realizar tais análises. Para tal, utiliza-se uma pesquisa essencialmente qualitativa (com entrevistas em profundidade) para demonstrar a forma de implementar as idéias aqui propostas. Ao mesmo tempo, uma revisão da literatura pertinente, nacional e internacional, é apresentada, assim como são evocados exemplos de aplicações deste tipo de análise na área de gestão e sistemas de informação. Além disso, algumas ferramentas que podem ser utilizadas para este tipo de análise são ilustradas, em especial o sistema Sphinx Léxica. Nosso intuito é, sobretudo, fornecer aos gerentes, pesquisadores, professores e alunos de diversos níveis de formação, recursos que permitam a exploração adequada de dados qualitativos, Freitas & Janissek Análise léxica e Análise de conteúdo p.9

10 através de procedimentos sistematizados que assegurem a qualidade e mesmo originalidade das descobertas. Enfim, quando as pessoas e as organizações começam a prestar atenção nos telefonemas que recebem, nas sugestões e reclamações da clientela ou de fornecedores, e quando a academia começa a valorizar bem mais as questões subjetivas em harmonia com aquelas em demasia objetivas, temos firme convicção da potencial contribuição deste trabalho. A todos, bom proveito! Henrique Freitas & Raquel Janissek Freitas & Janissek Análise léxica e Análise de conteúdo p.10

11 Dados dos Autores Henrique Freitas é Professor Adjunto da Escola de Administração da UFRGS (desde 1994), onde integra a equipe do Gesid- PPGA/EA/UFRGS (Grupo de Estudos em Sistemas de Informação e apoio à Decisão do Programa de Pós-Graduação em Administração). É, desde 1993, Pesquisador 2A CNPq, onde já coordenou e realizou diversos projetos. Cursou Economia na UFRGS (1982), Especialização em Análise de sistemas na PUCRS (1983), Mestrado em Administração na UFRGS (1989), Doutorado em gestão na Université de Grenoble 2 França (1993) e Pósdoutoramento em sistemas de informação na University of Baltimore (MD, EUA, ). Já orientou 4 teses de doutorado e 17 dissertações de mestrado e orienta, atualmente, 2 doutorandos e 12 mestrandos. Publicou 3 livros e dezenas de artigos nacionais e internacionais, é coordenador nacional da área de Administração da informação da ANPAD e integra o comitê editorial do Journal of AIS. Desde 1989, em parceria com Jean Moscarola e Yves Baulac, coopera na melhoria dos Sistemas Sphinx. hfreitas@portoweb.com.br Raquel Janissek é Analista de Sistemas. Cursou Informática na UNIJUI (1995) e Mestrado em Administração: Sistemas de Informação Gesid-PPGA/EA/UFRGS (2000). A partir de setembro de 2000, dando continuidade ao trabalho de cooperação do Prof. Henrique Freitas com a equipe do Prof. Humbert Lesca, inicia seu Doutorado em Sistemas de Informação na Université Pierre Mendes France - Grenoble 2 (França). De 1996 a 1999, foi professora de Análise de Sistemas e Informática na Universidade Regional Integrada (URI), onde coordenou o Estágio Supervisionado do Curso Técnico em Informática e orientou trabalhos de conclusão de cursos. A partir de 2000, integra a equipe de suporte eletrônico dos usuários Sphinx, bem como coopera no desenvolvimento dos produtos e sistemas. raquelj@portoweb.com.br Freitas & Janissek Análise léxica e Análise de conteúdo p.11

12 Prefácio O uso de métodos qualitativos em pesquisa na área de SI tem crescido nos últimos anos. Esta abordagem aprofunda-se no mundo dos significados das ações e relações humanas, um dado pouco perceptível ou captável pelos métodos quantitativos. O grande desafio para os pesquisadores da área está pois relacionado com a análise de dados em uma pesquisa cada vez com base mais qualitativa. Este livro, oferecido pelos professores Henrique e Raquel, é uma significativa contribuição na busca de uma resposta para este desafio, avaliando algumas das principais abordagens de análise de dados e propondo uma sistematização clara e operacional para a exploração de dados qualitativos, em especial na área de SI. Contudo, pela escassez de literatura em língua portuguesa, e mesmo pela qualidade e clareza do material produzido, este é um documento certamente útil para todos pesquisadores das diferentes áreas de Administração, e mesmo das Ciências Sociais. Particularmente, como pesquisador envolvido na realização de uma tese de doutorado, na qual devia explorar dados coletados em diversas entrevistas em profundidade, a literatura e os exemplos aqui resgatados e relatados em detalhe me foram de grande valia. Jorge Audy Doutorando Gesid/PPGA/EA/UFRGS Professor Informática/PUCRS Freitas & Janissek Análise léxica e Análise de conteúdo p.12

13 1. Explorando dados textuais para identificar oportunidades e antecipar problemas A realização de pesquisas acadêmicas ou profissionais tem cada vez mais desafiado os analistas e pesquisadores visto que a objetividade dos dados coletados em uma pesquisa não é mais condição suficiente para a compreensão de um fenômeno (como por exemplo a opinião de um certo público, satisfação do cliente, resistência dos usuários finais de uma tecnologia recentemente adotada). De fato, a subjetividade é que vai permitir explicar ou compreender as verdadeiras razões do comportamento ou preferência de um certo grupo por algum produto, sistema, serviço, etc. A questão inerente é a de como o pesquisador, o analista, ou mesmo o gerente ou executivo poderia realizar tal tipo de análise ou exploração de dados. Ora, qual seria o gerente que não gostaria de rapidamente percorrer todos os dados captados através de uma linha 0800, como a do serviço de suporte, a de help desk ou outro, e se dar conta das principais reclamações ou sugestões atuais dos seus clientes? Não seria este tipo de dado, que fica esquecido, engavetado ou nem mesmo pensado como um recurso, uma fonte nobre de dados gerados sem nenhum custo adicional para a organização? Da mesma forma, como poderia este mesmo gerente ousar pensar nisso se ele nem imagina que existam métodos e técnicas para tal? Ele pode muito bem imaginar uma pesquisa onde os clientes dizem se estão ou não satisfeitos com os serviços prestados numa escala de totalmente satisfeitos a totalmente insatisfeitos, mas não se dá conta talvez que poderia saber disso sem mesmo ter que indagar aos clientes. De fato, a técnica quantitativa e supostamente bem dominada aporta um tipo de resposta que é em diversos casos Freitas & Janissek Análise léxica e Análise de conteúdo p.13

14 superficial no sentido que não permite uma qualificação ou um refinamento da opinião. No final, isto pode mesmo ser mais oneroso, pois quando os procedimentos de pesquisa são estabelecidos de maneira formal, há um viés natural na resposta oferecida pelas pessoas ou clientes, e o que se tem de volta são quantidades. Ao passo que, usando dados qualitativos, opiniões mais abertas, espontâneas ou mesmo e porque não principalmente aquelas coletadas de forma indireta (como a do setor de pós-venda ou de atendimento ao cliente), pode-se ter a chance de identificar oportunidades ou antecipar problemas de forma bem mais pontual, precisa e com um custo operacional bem menor, ainda por cima a partir da exploração de um dado completamente espontâneo, não induzido de forma alguma. Não são só as técnicas de coleta e de análise quantitativa de dados que foram aperfeiçoadas com o tempo. Hoje em dia, são factíveis e diversas as formas e tecnologias de se capturar automática e praticamente gratuitamente dados qualitativos (subjetivos, textos enfim) que nos denotem as preferências e comportamentos de um certo grupo de pessoas. Os procedimentos, métodos e ferramentas que possibilitam isso são cada vez mais presentes na literatura e no mercado. Há todo um leque de possibilidades que pode ser utilizado (WEITZMAN e MILES, 1995; FREITAS, MOSCAROLA e CUNHA, 1997 e MOSCAROLA, 1990). O que existe, contudo, é uma confusão conceitual ou mesmo prática sobre em que consistem e mesmo de como essas técnicas e ferramentas poderiam ser utilizadas. Em que implica cada uma delas? Como se poderia aplicar e explorar em benefício próprio cada uma delas? Enfim, há mesmo uma ignorância sobre a existência da análise léxica e da análise de conteúdo 1, sobre as distintas finalidades de uma e outra. Há ainda uma idéia equivocada de que se deve escolher uma 1 WEBER (1990, p.9) define Análise de Conteúdo como um método de pesquisa que utiliza um conjunto de procedimentos para tornar válidas inferências a partir de um texto. Freitas & Janissek Análise léxica e Análise de conteúdo p.14

15 OU outra para uma dada análise ou exploração de dados, quando na verdade os autores procuram neste livro demonstrar que pesquisadores acadêmicos ou analistas em geral DEVEM ter uma clara visão das vantagens em explorar estes recursos de análise de forma sequencial, recorrente e sobretudo complementar. Na sequência, faz-se uma discussão sobre o valor e importância da coleta e análise de dados qualitativos (seção 2). Logo após, na seção 3, apresentam-se definições conceituais de análise léxica e de análise de conteúdo. A seção 4 evoca exemplos da literatura e de pesquisas realizadas recorrendo a estas técnicas, e a seção 5 levanta e indica ferramentas disponíveis para tal. Em função do foco deste livro, a seção 6 detalha uma pesquisa essencialmente qualitativa, explorando as duas técnicas em questão na análise de dados coletados em entrevistas estruturadas (com guia de entrevista), buscando-se ser didático e ilustrar passo a passo a sua aplicação. Finalmente, na seção 7, faz-se uma reflexão final sobre o uso potencial destas análises no dia-a-dia das organizações, bem como no contexto de pesquisa acadêmica. Freitas & Janissek Análise léxica e Análise de conteúdo p.15

16 2. Dados qualitativos: problemas e questões inerentes à sua coleta e análise Não obstante as colocações recém realizadas, tentando olhar de forma mais precisa um processo de pesquisa qualquer, vai-se notar que dificilmente ele deixa de recorrer a mais de uma técnica de coleta de dados, bem como mais de uma fonte, fazendo inclusive recurso a diferentes técnicas de análise de dados. É pois tempo de método múltiplo de pesquisa, onde o pesquisador ou o analista comercial, financeiro, etc, tem cada vez mais e mais clara a necessidade de estar em contato com diferentes visões das situações reais. E isto utilizando-se de fontes de dados e de técnicas diversas, levando em consideração o rigor das pesquisas. Isto só reforça o valor, utilidade e oportunidade de se abordar de forma mais organizada e mesmo didática as técnicas e ferramentas no que se refere a dados qualitativos. Cada vez mais forte é a tendência de que uma pesquisa quantitativa, mais objetiva, deve ser precedida de uma atividade mais subjetiva, qualitativa, que permita melhor definir o escopo e a forma de focar o estudo. Também tem sido consenso que, mesmo sendo objetiva em sua essência, sempre se pode recorrer a algum tipo de opinião mais espontânea ou aberta, de forma a captar um algo mais da parte do respondente. Tudo isto valoriza a questão de como se tratar questões ditas qualitativas. Tais debates foram objetos de recente congresso internacional (LEE, LIEBENAU e DEGROSS, 1997). A estratégia de uso de questões abertas ou fechadas num instrumento é debatida por LEBART e SALEM (1994, p.25-28). Além disso, nas pesquisas, de forma geral, uma etapa pouco valorizada ou um tanto negligenciada é a de preparação de dados: há todo um esforço para que os dados sejam coletados, de forma que não Freitas & Janissek Análise léxica e Análise de conteúdo p.16

17 se dispõe de muito tempo quando os dados poderiam e deveriam ser analisados a fundo, em termos de significado e implicações. Ocorre que, antes de analisar os dados e cruzá-los das mais diferentes formas na busca por relações causais ou possíveis explicações para hipóteses previamente formuladas, é necessário que sejam preparados certos tipos de dados. Exemplos disso podem ser dados objetivos e numéricos como a idade e o salário, na busca por faixas etárias e salariais adequadas para os cruzamentos posteriores a serem realizados (pode-se gerar novos dados escalares a partir dos numéricos). Da mesma forma, é necessário um investimento (mais de tempo de análise do que outro recurso) para que sejam criadas categorias pertinentes e claras a partir de dados tipo texto, ou seja, efetivamente qualitativos. Um exemplo pode ser a criação de um dado novo a partir de uma questão texto que poderia ser quais as sugestões que você apresentaria para a melhoria dos nossos serviços? ou então mesmo quais as principais reclamações que você poderia apresentar?. Normalmente, pesquisadores e analistas desavisados ou talvez despreparados ou inadvertidos sobrecarregam suas pesquisas com questões abertas, criando uma expectativa em quem responde, a qual se torna falsa expectativa, visto que tais respostas nunca serão tabuladas e avaliadas como se deveria. Logo, o aprendizado que tal conteúdo permitiria não será jamais produzido. Cuidado especial é necessário no sentido de não se abusar de questões abertas num instrumento de pesquisa, pois seu excesso exige que o respondente se concentre bem mais que o normal: ele poderá pois ficar gradativamente desatento nas suas respostas e mesmo se desinteressar pelas questões posteriores. Cria-se pois uma falsa de idéia de que um dado espontâneo como esse dos exemplos recém evocados deve ser analisado uma só vez, quando ele poderia ser uma fonte bastante grande e diferenciada Freitas & Janissek Análise léxica e Análise de conteúdo p.17

18 para a geração de novos, diferentes e curiosos dados. Esta geração de novos dados a partir de um dado texto pode emergir do próprio texto de cada respondente, como uma lista mais objetiva de sugestões ou de reclamações (no caso dos dois exemplos citados). Mas tal fonte de dados também pode ser objeto de um julgamento a partir de critérios a priori adotados pelo gerente, analista ou pesquisador, como por exemplo gerar um indicador de satisfação a partir da simples leitura das sugestões ou das reclamações emitidas pelo respondente. Ou seja, ao invés de perguntar se o cliente está muito ou pouco satisfeito, o avaliador poderia ler cada uma das respostas emitidas e registradas e iria ele próprio julgar se o respondente está ou não satisfeito. Isto é claro de forma subjetiva, contudo, muitas vezes este dado poderá ser melhor considerado para fins de análise. Ou seja, a um dado aberto e espontâneo, devem corresponder n dados objetivos, gerados seja pela análise e identificação gradativa de um protocolo (como a lista de sugestões que se faz emergir do texto), seja pela avaliação da opinião de cada pessoa em relação a um protocolo ou mesmo escala de medida preparada pelo analista (como por exemplo satisfeito ou insatisfeito ). Além disso, um ponto importante diz respeito à definição de quem deveria realizar as análises (e quem finalmente as realiza!): normalmente, solicita-se a um terceiro (aluno, auxiliar, etc) para realizar esta única codificação, quando ela poderia ser rica em aprendizado caso feita pessoalmente pelo analista ou pesquisador. Esta atividade exige a leitura de cada uma das respostas, gerando, neste processo, novas idéias de análise e uma riqueza de compreensão e percepção sem iguais para o analista responsável. Este seria um motivo forte para que se repense cada decisão ou solicitação de codificação a terceiros: a pessoa está implicada no processo? Conhece o métier ou contexto pesquisado? Tem engajamento ou responsabilidade em relação ao objeto pesquisado? Sobretudo, tem Freitas & Janissek Análise léxica e Análise de conteúdo p.18

19 como associar a sua tarefa isolada de codificação a todo resto do processo e atividades desse projeto? Terá a iniciativa de sugerir novas dimensões de análise identificadas no decorrer da própria atividade de codificação? Talvez seja melhor arrumar uma resposta adequada a estas questões ou então de fato decidir que o pesquisador se responsabilizará pela realização da tarefa ou pela supervisão estreita desse processo. Normalmente, uma codificação derivada de uma análise vai gerar um novo dado de múltipla escolha (das diversas categorias criadas, algumas serão marcadas para cada resposta emitida por cada respondente). Este novo dado retratará de forma bem mais objetiva o conteúdo de cada opinião ou resposta. A construção das opções ou categorias desse novo dado gerado deve ser realizada segundo certas regras, de forma a se poder ter confiança na sua coerência, consistência, força enfim. Entretanto, muito da prática empresarial que se tem podido observar (em contato com institutos de pesquisa por ocasião de assessorias de tecnologia ou método) mostra que pessoas não tão bem preparadas realizam tal função. Ocorre que tal novo dado vai ser certamente a base para decisões estratégicas ou operacionais importantes para a organização envolvida. Logo, é de extrema importância a adequada e mesmo rigorosa formulação destas categorias. De fato, cada categoria pode implicar em n ações empresariais, que exigirão alocação de recursos, etc., ou seja, as implicações das corretas definições de categorias podem ser enormes para a organização. Caso as categorias não sejam pertinentes, todas análises, decisões e ações estarão igualmente comprometidas. Não é esta uma atividade para ser realizada com adivinhações ou amadorismos de qualquer sorte. Conceitos, técnicas, métodos e ferramentas são em muito necessários. É então fundamental que se desenvolva um conjunto de diretrizes ou procedimentos que possam ser seguidos: tal é o objetivo deste livro, com o exemplo desenvolvido Freitas & Janissek Análise léxica e Análise de conteúdo p.19

20 na seção 6 e com os conceitos e ferramentas abordados na seção 3 e 5, respectivamente. A preparação e análise de dados provenientes de pesquisas ou captura de dados, sejam eles qualitativos ou quantitativos, passa então pela identificação e categorização adequada dos seus conteúdos, na busca pela produção de conhecimentos e identificação de relações que nos permitam avançar na compreensão dos fenômenos investigados. Esta busca por informações consistentes, relevantes e fidedignas requer tempo e dedicação por parte do analista ou pesquisador, no intuito de gerar resultados que traduzam a realidade ou contexto estudado. Entretanto, não raro estas análises levantam dúvidas quanto à efetividade dos termos e resultados obtidos, especificamente pela não sistematização da sequência de análise dos dados ou por outros motivos, como a inadequação do próprio perfil ou preparação de quem analisa, como recém evocado. Ainda, há toda uma polêmica sobre a legitimidade de se ter somente uma pessoa responsável por uma dada codificação: seria válida tal categorização? Por quê? Seria necessário se ter mais de uma pessoa a codificar? Será que realmente esta segunda pessoa aportaria um ganho de qualidade na codificação realizada? Será que ela estaria engajada o suficiente no mesmo processo de forma a contribuir? Será ainda que este engajamento seria condição importante? Será que tal esforço e mesmo gasto de tempo seria necessário e mesmo compensador? Tendo-se uma segunda pessoa, seria então esperado que se pudesse confrontar as categorias criadas por cada um, consolidá-las num só conjunto (após discussão de cada discordância), e, além disso, comparar uma a uma cada uma das marcações (para cada resposta, cada dos 2 avaliadores ou analistas marcaria as categorias que julga que ali se manifestaram implícita ou explicitamente), dando-se conta do que fecha e do que não fecha em termos de classificação das categorias para cada uma das respostas de Freitas & Janissek Análise léxica e Análise de conteúdo p.20

21 cada respondente. É também nosso objetivo apresentar na sequência - algumas posições sobre essas colocações. O uso de técnicas de análise de dados qualitativos é pois um tema de crescente interesse e importância no campo da gestão e da informação. Este documento contribui colocando a questão da complementaridade das técnicas de análise léxica e de análise de conteúdo, evocando exemplos da literatura e sobretudo apresentando didaticamente um exemplo no qual aplica estes conceitos e técnicas. Nossa proposta reforce-se - é de que as duas técnicas sejam utilizadas de forma sequencial (uma após a outra), recorrente (podese ir e vir, deve-se mesmo ir e vir de uma a outra) e complementar (elas não são excludentes, ou seja, não se deve escolher uma ou outra, deve-se adquirir finalmente a visão, a consciência de que os recursos de ambas são excelentes ferramentas na mão do analista e que ele deve fazer bom uso e não isolar uma em detrimento de outra). Freitas & Janissek Análise léxica e Análise de conteúdo p.21

22 3. Análise quali ou quantitativa de dados textuais? A busca por informações consistentes e válidas não deve se deter somente nos dados estruturados, puramente quantitativos, tal qual os imagina-se - na forma de clássicas planilhas, relatórios volumosos, números, percentuais e gráficos: cada vez mais precisa-se recorrer aos dados de natureza qualitativa, como textos, discursos, entrevistas, trechos de livros, reportagens, etc. Dados estes que envolvem elementos que muitas vezes desafiam a astúcia do pesquisador ou do homem de negócios, pois escondem em suas entrelinhas posicionamentos, opiniões, perfis, que exigem uma leitura atenta e ferramentas que possibilitem chegar com maior rapidez (condição de sobrevivência) às informações realmente pertinentes (POZZEBON e FREITAS, 1996; LESCA, FREITAS e CUNHA, 1996; LESCA, FREITAS, POZZEBON, PETRINI e BECKER, 1998). Deve-se poder ir do dado bruto ou puro ao dado elaborado, via interpretação, análise e síntese, e, a partir disso, por uma constatação ou curiosidade, poder rapidamente aprofundar a investigação, eventualmente voltando à fonte e ao dado bruto como recurso mesmo de sustentação de argumento ou simplesmente de ilustração. É importante explorar e sobretudo cruzar de todas as formas possíveis dados quantitativos e qualitativos (Figura 1 - FREITAS, 2000) para a geração de idéias, a verificação de hipóteses, a elaboração de conclusões ou indicação de planos de ação, etc. O uso de técnicas qualitativas x quantitativas, tanto para coleta quanto análise de dados, permitem, quando combinadas, estabelecer conclusões mais significativas a partir dos dados coletados, conclusões estas que balizariam condutas e formas de atuação em diferentes contextos. Freitas & Janissek Análise léxica e Análise de conteúdo p.22

23 A abordagem literária, dita qualitativa, mais associada às técnicas de análise léxica e de conteúdo (abordadas nas seções 3.1 e 3.2), pressupõe a análise de poucas fontes ou dados, num procedimento exploratório ou de elaboração de hipóteses. A abordagem mais científica, dita quantitativa, pressupõe grande quantidade de dados num procedimento de confirmação de hipóteses. Há necessidade de se tratar do quantitativo, enriquecendo-o com informações qualitativas em grande número, de forma a ganhar força de argumento e qualidade nas conclusões e relatórios: o desafio é a busca da associação entre o quantitativo e o qualitativo, onde, por exemplo, o procedimento exploratório ganha força, visto que se poderá multiplicar os dados tratados, reforçando sobremaneira (e mesmo garantindo o bom caminho ) o procedimento confirmatório. Freitas & Janissek Análise léxica e Análise de conteúdo p.23

24 Figura 1 - O desafio de associar qualitativo e quantitativo (FREITAS, 2000) Freitas & Janissek Análise léxica e Análise de conteúdo p.24

25 Segundo KELLE (1995, p.15), "espera-se que as forças de ambas abordagens possam se reforçar mutuamente: a intersubjetividade e a fidedignidade ou confiabilidade providas pela informação padronizada derivada de amplas amostras, por um lado, e o conhecimento íntimo de um simples caso ou passagem de um texto adquirido pela análise interpretativa, por outro lado. A questão essencial nesse tipo de análise seria como transformar o significado da análise textual numa matriz de dados quantitativa, isto de maneira didática e sistemática". A utilidade da combinação destes métodos tem sido assunto discutido fortemente na comunidade acadêmica internacional (MASON, 1997; LEE, LIEBENAU e DEGROSS, 1997), apresentando-nos grande variedade de aspectos a serem levados em conta quando da formulação de questões com vistas à obtenção e análise de dados, sejam eles qualitativos x quantitativos, sejam eles diretos x indiretos, abertos ou fechados. É tempo de seguir em frente com mais estudos qualitativos (MILES e HUBERMAN, 1997), e educar nossos gerentes, começando pelas nossas crianças, que o mundo não é somente quantitativo, e sim qualitativo. Pelo menos, que bom estudo quantitativo não deveria ser precedido por um qualitativo? CRESWELL (1998), e também KIRK e MILLER (1986) oferecemnos alguns conceitos e discussões a respeito de pesquisa qualitativa e principalmente sobre confiabilidade (ou fidedignidade) e validade desse tipo de estudo. Da mesma maneira, a revista MIS Quarterly (v.21, no.3, September 1997) publicou 3 papers baseados em pesquisa qualitativa deste mesmo assunto. MASON (1997, p.9-34) oferece-nos alguns insights sobre essa discussão: o que deveria ser uma pesquisa qualitativa? De que forma relacionar aspectos quali e quanti em uma pesquisa? Estas pesquisas, seja na obtenção dos dados seja no tratamento destes, deveriam ser sistemática, rigorosa e estrategicamente conduzidas, ainda flexíveis e Freitas & Janissek Análise léxica e Análise de conteúdo p.25

26 contextuais, deveriam envolver críticas auto-construtivas pelo pesquisador, ou provocar reflexões. Também deveriam produzir explicações sociais para charadas ou quebra-cabeças intelectuais permitindo a generalização de alguma forma ou então, permitindo ampla aplicação. Não ser vistas como um corpo unificado de filosofia e prática, cujos métodos podem simplesmente ser combinados sem problemas, nem ser vistas como necessariamente opostas e não complementares. Ainda, deveriam ser conduzidas como uma prática ética levando em consideração o contexto político. De fato, sejam quais forem os fenômenos, entidades ou realidade objetos de investigação, o uso conjunto destes métodos qualitativos e quantitativos permitiriam um maior aprofundamento no conhecimento dos dados, evidenciando-se aspectos do que se deseja investigar e, da mesma forma, possibilitando focar o pensamento sobre o assunto, decidir e executar. O uso conjunto destes dois tipos de análise permite estabelecer conclusões: é importante, pois, diferenciar ambos enfoques, identificando as possibilidades de cada um. Existem ainda outras oposições qualitativo-quantitativo: impressionismo versus sistematização, hipóteses versus verificação, flexibilidade e liberdade versus rigidez (FREITAS, CUNHA e MOSCAROLA, 1997). Enquanto a análise qualitativa se baseia na presença ou ausência de uma dada característica, a análise quantitativa busca identificar a frequência dos temas, palavras, expressões ou símbolos considerados. A noção de importância deve ser clara em cada uma destas análises: o que aparece seguido é o que importa na análise quantitativa, enquanto a qualitativa valoriza a novidade, o interesse, os aspectos que permanecem na esfera do subjetivo. Tem-se assim um dilema de análise: adotar categorias específicas, retratando fielmente a realidade, mas com uma lista de temas cuja frequência será fraca, ou então reagrupar deliberadamente os dados num pequeno número de Freitas & Janissek Análise léxica e Análise de conteúdo p.26

27 categorias, não sem sacrificar informação talvez essencial, a qual ficará perdida no resultado final (FREITAS, CUNHA e MOSCAROLA, 1997). São diversas as fontes e motivações que podem viabilizar a coleta de dados textuais (todo dado cujo conteúdo é texto ou alfanumérico): questões abertas de pesquisas de opinião de mercado e outras; o conteúdo de respostas de entrevistas; mensagens recebidas e enviadas; livros, artigos e textos quaisquer; campos tipo texto nas bases de dados corporativas ou outras; o registro automatizado de telefonemas profissionais ou mesmo pessoais (como os de serviço de atendimento ao cliente); o registro automatizado das operações de consulta de sistemas corporativos como o registro de logs Internet, Intranets e outros sistemas, como por exemplo transações bancárias, suporte técnico, todas operações das caixas de supermercado, etc. Todas estas fontes de dados devem ser exploradas via quantificação e resumo, de forma a permitir a melhor compreensão e interpretação do seu conteúdo, visando daí depreender idéias, ações, enfim, produzir uma informação mais rica para embasar as decisões. Algumas outras aplicações de análise de dados qualitativos são: análise de entrevistas não diretivas, focus group; análise de mídia (TV, imprensa,...); controle de redação; pesquisas de mercado e de opinião; marketing direto a partir de arquivos internos ou externos; análise de documentos; auditoria na comunicação interna; inteligência Competitiva (patentes, pesq. bibliográfica); gestão de RH (sondagem opinião interna,...), etc. A análise de documentos, sejam eles originários de pesquisas quali ou quantitativas, inclui análise léxica e análise de conteúdo. Ela apresenta um conjunto de características racionais, sendo mais ou menos intuitiva, pessoal e subjetiva. Como outros métodos, apresenta problemas de validade, como autenticidade do texto, validade de interpretação e veracidade dos fatos. Tem ainda, em muitos casos, o Freitas & Janissek Análise léxica e Análise de conteúdo p.27

28 defeito do trabalho não sistematizado, dependendo fortemente do valor e competência do pesquisador. Com o uso conjunto destas técnicas de análise de textos é possível produzir novos dados que podem, por sua vez, ser confrontados especialmente com dados sócio-demográficos, como por exemplo um elenco de reclamações ou sugestões agora vistas por sexo, por faixa etária, por renda, por departamento ou qualquer outro dado mais objetivo ou quantitativo. Antecipar a análise léxica à de conteúdo faria com que a análise de dados se desse de uma maneira plena, ou seja, o uso destas duas técnicas encobrem diversas das possibilidades que dali poderiam surgir ou fazer emergir. Ao final de um esforço de análise de dados, poderia-se dispor de resultados significativos aplicáveis à uma dada realidade. Como isso deve ser feito? De que maneira combinar o uso destas duas formas de análise? Os dois tipos de análise de questões abertas são representados na Figura 2 (FREITAS e MOSCAROLA, 2000). Freitas & Janissek Análise léxica e Análise de conteúdo p.28

29 Figura 2 - A análise de conteúdo e a análise léxica (FREITAS e MOSCAROLA, 2000) Freitas & Janissek Análise léxica e Análise de conteúdo p.29

30 A Análise Léxica (FREITAS e MOSCAROLA, 2000) consiste em se passar da análise do texto para a análise do léxico (o conjunto de todas as palavras encontradas nos depoimentos ou respostas). Já a Análise de Conteúdo (FRANKFORT-NACHMIAS e NACHMIAS, 1996, p ), que consiste em uma leitura aprofundada de cada uma das respostas, onde, codificando-se cada uma, obtém-se uma idéia sobre o todo (FREITAS, 2000). WEBER (1990, p.10) apresenta algumas vantagens da análise de conteúdo, destacando sua aplicabilidade na análise de textos de comunicação de toda natureza, bem como o fato de permitir combinar métodos quanti e qualitativos, e mesmo explorar séries longitudinais de documentos ou fontes múltiplas, e enfim o fato de poder tratar com dados ditos mais espontâneos (e não induzidos ou expressamente perguntados). Com base em textos europeus (GRAWITZ, 1993; GAVARD- PERRET e MOSCAROLA, 1995), FREITAS, CUNHA e MOSCAROLA (1997) apresentam noções gerais sobre a análise de dados textuais, com sete diferentes níveis de aplicação e desenvolvimento da análise léxica, ilustrando a aplicação e uso dessas técnicas. Este tipo de análise contribui para a interpretação das questões abertas ou textos, a partir da descrição objetiva, sistemática e quantitativa do seu conteúdo. Diversas referências podem ser consultadas para um maior aprofundamento nas questões da análise de dados qualitativos. WEBER (1990) publicou o livro Basic Content Analysis, SILVERMAN (1993) descreve métodos para analisar discursos, textos e interações, no livro Interpreting Qualitative Data, MILES e HUBERMAN (1994) publicaram o livro Qualitative Data Analysis, o Journal of Applied Management Studies, inglês, publicou dois papers com aplicação de análise de conteúdo e análise léxica: CROUCH e BASCH, The Structure Of Managerial Thinking, e OSWICK, KEENOY e GRANT, Managerial Discourses.... A MIS Freitas & Janissek Análise léxica e Análise de conteúdo p.30

31 Quarterly também publicou pesquisa qualitativa durante 1997, mostrando disposição da comunidade (e dos editores!) rumo a estudos qualitativos. A literatura francesa também está recebendo novos textos, da parte de BARDIN (1996), e de LEBART e SALEM (1994). Na sequência são apresentadas tais técnicas de análise, buscando enfatizar sua complementaridade. Freitas & Janissek Análise léxica e Análise de conteúdo p.31

32 3.1. A Análise Léxica Toda a análise de textos começa pela organização completa do vocabulário utilizado. Mais do que palavras, fala-se de formas gráficas ou simplesmente de formas breves em razão de uma certa ambigüidade da palavra. A organização consiste em isolar cada forma gráfica supostamente delimitada por dois caracteres separadores que na maioria das vezes são os próprios espaços, mas também podem ser sinais de pontuação. Cada aparição de uma forma de dado é chamada ocorrência, as quais são evidentemente contabilizadas para formar o léxico. O léxico é então, por definição, a lista de todas as formas gráficas utilizadas, cada qual estando munida de um número de ordem ou frequência (LAGARDE, 1995, p ), ou ainda o conjunto das palavras diferentes usadas nesse texto, com a sua frequência de aparição (FREITAS, 2000). Já a Análise Léxica consiste em averiguar ou medir a dimensão das respostas: as pessoas responderam de forma extensa ou concisa? Cria-se uma hipótese de que aqueles que deram respostas extensas têm um interesse maior do que os demais. Uma hipótese discutível que dará, porém, uma indicação (FREITAS, 2000). Nesse tipo de técnica são feitas análises de palavras, e não de respondentes. Por exemplo, caso uma dada palavra apareça n vezes após realizada uma contagem, isso não significa que aquela palavra, ou aquela idéia, possa ser generalizada para grande parte dos respondentes ou representar uma idéia que tenha aparecido em várias opiniões: pode muito bem ocorrer que determinado respondente, ou um pequeno grupo destes, tenham enfaticamente apontado para aquela idéia, repetidamente (por que não?), diferentemente de uma Análise de Conteúdo, onde são identificadas idéias por respondentes, independentemente deste ter citado a palavra 1, 2 ou mais vezes. Freitas & Janissek Análise léxica e Análise de conteúdo p.32

33 Então pode-se dizer que a análise léxica é o estudo científico do vocabulário, com aplicações de métodos estatísticos para a descrição do vocabulário: ela permite identificar com maior detalhe as citações dos participantes, utilizando indicadores que relacionam aspectos relativos às citações e às palavras (BARDIN, 1996). A evolução se dá da visão geral do texto para os dados na sua essência, sejam eles palavras ou expressões (LEBART e SALEM, 1994, p.58-69), onde posteriormente serão novamente analisados com vistas ao universo total de informações. Pode-se ainda colocar que, através de processos automáticos que associam a matemática e a estatística, o uso da Análise Léxica permite rapidamente interpretar e fazer uma leitura adequada e dinâmica das questões abertas das enquêtes. Esse procedimento não é mais rigoroso do que a Análise de Conteúdo clássica. Seu tratamento dos dados é objetivo, mas a leitura subjetiva também é realizada: temse, assim, acesso a um processo de leitura mais rápido, automatizado e que, por outro lado, encontra um certo número de justificativas (FREITAS, 2000). A partir do corpo do texto, ou seja, o conteúdo das respostas abertas, evolui-se para analisar palavras e expressões, o léxico. Ao fazer isso, parte-se de um nível que se pode chamar de macroestatístico, iniciando com as entrevistas que foram realizadas e elencando as palavras produzidas nas respostas (GRAWITZ, 1993). Um esquema geral (Figura 3) para Análise Léxica é proposto por FREITAS, MOSCAROLA e JENKINS (1998). Uma Análise Léxica inicia sempre pela contagem das palavras, avançando sistematicamente na direção de identificação da dimensão das respostas. Nos casos de respostas abertas, normalmente são feitas aproximações ou agrupamentos que permitam apresentar critérios mais frequentemente citados, agrupando palavras afins, deletando palavras que não interessam, até resultar num conjunto tal de palavras Freitas & Janissek Análise léxica e Análise de conteúdo p.33

34 que representem na essência as principais descrições citadas nos textos. Tudo depende do quão sutil é feita a análise pelo pesquisador e da qualidade dos dados (amostra). Uma análise rápida em uma pequena amostra normalmente apresentará problemas de dispersão de um mesmo tema, de uma mesma idéia, até mesmo problemas de sinônimos. O tratamento para tal seria o correto agrupamento de palavras em critérios semelhantes. Nestes casos, as frequências permitem consolidar a aplicação de um tema ou locução, possibilitando uma análise de contexto onde as categorias identificadas representem a essência das idéias apresentadas (LEBART e SALEM, 1994, p ). Freitas & Janissek Análise léxica e Análise de conteúdo p.34

35 Corpo do Texto Lematizador Variáveis De Contexto Corpo do texto lematizado Dicionário Reduzindo e Estruturando o Léxico Navegação Léxica Verbatim Variáveis fechadas do léxico Medidas Lexicais: Intensidade banalidade Estrutura Estatística Figura 3 - Esquema para Análise Léxica Fonte: FREITAS, MOSCAROLA e JENKINS (1998) Freitas & Janissek Análise léxica e Análise de conteúdo p.35

36 Como ilustra a Figura 3, a realização de uma análise léxica se dá da seguinte forma: faz-se inicialmente o tratamento deste do conteúdo de um texto ou respostas abertas, através da identificação de número total de ocorrências de cada palavra, número total de palavras, número total de palavras diferentes ou vocábulos e a riqueza de vocabulário para produzir uma resposta (LEBART e SALEM, 1994, p.247). Além disso, classificam-se tais unidades de vocabulário em palavras ricas com algum significado, como verbos, substantivos e adjetivos, além de palavras instrumentais como artigos, preposições, etc. É também possível identificar o tempo aplicado a cada resposta, se isso, é claro, for aplicável naquela situação. A organização da frase, e certos aspectos sintáticos, são suscetíveis de revelar certas características de um discurso ou apontar confirmações de certas hipóteses formuladas, além das comparações entre estas. Para isso, deve-se ir além da Análise Léxica, iniciando a Análise de Conteúdo (BARDIN, 1996, p.82-92). Há recursos e técnicas que podem ser aplicados para ter um corpo do texto lematizado, ou seja, transformar as palavras que ainda constituirão o léxico na sua forma infinitiva ou na sua forma original (fala-se aqui no que diz respeito a verbos, substantivos e adjetivos). Pode-se assim reduzir significativamente o léxico, e, a partir daí, criar novos dados, objetivos (fechados sobre palavras do léxico), bem como gerar novos dados com medidas lexicais (intensidade lexical, banalidade ou trivialidade e ainda originalidade) (SPHINX, 1997). Tal análise, representada na Figura 3, inicia pela aproximação lexical sumária, que consiste em reduzir o texto apresentando as palavras mais frequentes que permitem uma idéia do seu conteúdo. Em seguida é realizada a aproximação lexical controlada, que reduz o texto ao seu léxico e controla, via navegação lexical, a validade e o fundamento das interpretações elaboradas a partir do léxico. Após isso, é realizada a aproximação lexical seletiva, eliminando palavras- Freitas & Janissek Análise léxica e Análise de conteúdo p.36

37 ferramentas e concentrando a atenção no exame de substantivos, verbos e adjetivos via utilização de dicionários e de um lematizador. Em seguida, é realizada a pesquisa das especificidades lexicais, que estabelece uma estatística das palavras do texto, segundo uma variável externa não textual (por exemplo país, região, departamento). A descrição do texto através de variáveis nominais e o cálculo das intensidades lexicais permitem que cada resposta seja descrita pela intensidade segundo a qual se manifestam os diferentes campos estudados. O aprofundamento da análise pode se dar com a análise bi ou multivariada dos dados textuais em função de outros dados, integrando-a desta forma com a análise de dados clássica (FREITAS, CUNHA e MOSCAROLA, 1997). Com a Análise Léxica, é possível apresentar opções (palavras, agrupamentos, expressões) para desvendar caminhos e descobrir opiniões, identificar necessidades, obsessões, seja qual for a intenção da pesquisa ali aplicada. Descobrir as razões de tal objeto de estudo significa passar da indecisão para a riqueza da leitura, e isso pode ser feito com o uso combinado das técnicas apresentadas neste livro. Desta forma, não somente pode-se contar com uma leitura das respostas, o que por si só já nos diz muita coisa, mas também com a identificação das opiniões expressas nas entrelinhas destes mesmos textos. Se em uma leitura espontânea já se pode identificar idéias, o que se poderia dizer de uma leitura e categorização mais atenta no sentido de observar e descobrir conteúdos ali ditos de forma indireta ou até mesmo obscura, permitindo descobrir significados e elementos suscetíveis não identificados a priori. De fato, a aplicação sequencial e recorrente destas técnicas permite assim avançar. Freitas & Janissek Análise léxica e Análise de conteúdo p.37

38 3.2. A Análise de Conteúdo Quando os dados a analisar se apresentam sob a forma de um texto ou de um conjunto de textos ao invés de uma tabela com valores, a análise correspondente assume o nome de Análise de Conteúdo neste texto AC (LAGARDE, 1995, p.143). A AC é uma técnica de pesquisa para tornar replicáveis e validar inferências de dados de um contexto que envolve procedimentos especializados para processamentos de dados de forma científica. Seu propósito é prover conhecimento, novos insights obtidos a partir destes dados (KRIPPENDORFF, 1980). Uma parte importante do comportamento, opinião ou idéias de pessoas se exprime sob a forma verbal ou escrita. A Análise de Conteúdo destas informações deve normalmente permitir a obtenção destas informações resumidas, organizadas. A AC pode ser usada para analisar em profundidade cada expressão específica de uma pessoa ou grupo envolvido num debate. WEBER (1990, p.9) apresenta alguns propósitos para uso de AC. Permite também observar motivos de satisfação, insatisfação ou opiniões subentendidas, natureza de problemas, etc, estudando as várias formas de comunicação. É um método de observação indireto, já que é a expressão verbal ou escrita do respondente que será observada. Não existiria dentro desse método uma riqueza e uma diversidade de modos de expressão? A AC torna possível analisar as entrelinhas das opiniões das pessoas, não se restringindo unicamente às palavras expressas diretamente, mas também àquelas que estão subentendidas no discurso, fala ou resposta de um respondente (PERRIEN, CHÉRON e ZINS, 1984, p.27). Freitas & Janissek Análise léxica e Análise de conteúdo p.38

39 O objetivo da AC é a inferência 2 de conhecimentos relativos às condições de produção com a ajuda de indicadores. A AC é como um trabalho de um arqueólogo: ele trabalha sobre os traços dos documentos que ele pode encontrar ou suscitar, traços estes que são a manifestação de estados, dados, características ou fenômenos. Existe alguma coisa a descobrir sobre eles, e o analista pode manipular esses dados por inferência de conhecimentos sobre o emissor da mensagem ou pelo conhecimento do assunto estudado de forma a obter resultados significativos a partir dos dados (Figura 4). Ele trabalha explorando os dados, como um detetive (BARDIN, 1996, p.43-44). Nesse sentido, a descrição do conteúdo é a primeira etapa a ser cumprida, a qual passa pela já citada Análise Léxica pela possibilidade de leitura rápida do conteúdo das respostas através de resultados tabulados das frequências das mesmas. Parte-se de dados qualitativos - fazendo um agrupamento quantitativo - para análise qualitativa novamente. 2 Inferência: operação lógica, pela qual se aprova uma proposição em verdade de sua ligação com outras proposições já tênues por verdades (BARDIN, 1996, p.43). Este tema é desenvolvido por BARDIN (1996, p ). Freitas & Janissek Análise léxica e Análise de conteúdo p.39

40 Leitura Normal Variáveis Inferidas / Análise de Conteúdo Figura 4 Análise de Conteúdo BARDIN (1996, p.46) Freitas & Janissek Análise léxica e Análise de conteúdo p.40

41 Fazer o processo dedutivo ou inferencial a partir de índices (palavras) ou indicadores não é raro dentro da prática científica. O médico faz suas deduções sobre a saúde de seu paciente graças aos seus sintomas, o meteorologista faz a previsão do tempo inferindo sobre estados ou posições da natureza. Ocorre o mesmo dentro da Análise de Conteúdo, pela dedução através da leitura e compreensão das mensagens. Os fatos, deduzidos logicamente a partir de indicadores, permitem tirar conclusões, obter novas informações ou completar conhecimentos através do exame detalhado dos dados. Ser objetivo, visto que a análise deve proceder segundo as regras préestabelecidas, obedecendo a diretrizes suficientemente claras e precisas de forma a propiciar que diferentes analistas, trabalhando sobre o mesmo conteúdo, obtenham os mesmos resultados. Ser também sistemático, pois todo o conteúdo deve ser ordenado e integrado nas categorias escolhidas, em função do objetivo perseguido, e elementos de informação associados ou relativos ao objetivo não devem ser deixados de lado. Ser ainda quantitativo, pela possibilidade de evidenciar os elementos significativos, calcular a sua frequência, etc., esta condição não sendo indispensável visto que certas análises de cunho qualitativo buscam mais os temas do que a sua exata medida ou importância. Segundo GRAWITZ (1993, p.534), tais características formam os atributos da Análise de Conteúdo, o que é reforçado por PERRIEN, CHÉRON e ZINS (1984) e FREITAS, MOSCAROLA e JENKINS (1998). Pode-se, ainda, classificar a AC de acordo com o propósito de investigação, que pode ser a descrição de características de comunicação - perguntando o quê, como e de quem alguém disse tal coisa, a inferência dos antecedentes da comunicação - que envolve perguntar porque alguém disse alguma coisa - ou ainda fazer inferências sobre os efeitos da comunicação - perguntando com que Freitas & Janissek Análise léxica e Análise de conteúdo p.41

42 intenção alguém disse tal coisa (HOLSTI, 1969 e JANIS, 1965 apud KRIPPENDORFF, 1980, p.34). De fato, a Análise de Conteúdo é uma técnica de pesquisa utilizada para tornar replicáveis e validar inferências de dados para seu contexto, segundo seus componentes, relações ou transformações entre estes (KRIPPENDORFF, 1980, p.35). Para BARDIN (1996, p.47), AC é um conjunto de técnicas de análise das comunicações que, através de procedimentos sistemáticos e objetivos de descrição do conteúdo das mensagens, visa obter indicadores (quantitativos ou não) que permitam a inferência de conhecimentos relativos às condições de produção e de recepção (variáveis inferidas) destas mensagens. A seguir, abordam-se alguns tópicos inerentes, como: os tipos de Análise de Conteúdo, as suas etapas, o seu valor como instrumento ou técnica de pesquisa, bem como seu uso e aplicação. Freitas & Janissek Análise léxica e Análise de conteúdo p.42

43 Tipos de Análise de Conteúdo Uma vez que diferentes fontes de dados estão normalmente disponíveis, pode-se usar vários modelos para explorar, processar e analisar dados. GRAWITZ (1993) desenvolve 3 diferentes enfoques (valorizados por FREITAS, MOSCAROLA e JENKINS, 1998): Verificação ou Exploração? Deve-se fazer distinção entre a análise de documentos tendo como objetivo a hipótese de verificação (sabendo-se o que se busca e podendo-se quantificar os resultados - neste caso o objeto é preciso), e aquela análise cujo objetivo seja exploração ou definição de hipóteses, onde a análise é menos rigorosa e sistemática, seguindo papéis e técnicas que não podem ser padronizadas, visto que faz apelo à intuição e à experiência. Análise quantitativa ou análise qualitativa? A análise quantitativa tenta acumular a frequência de temas, palavras ou símbolos, enquanto análise qualitativa é baseada na presença ou ausência de dadas características. Outra dicotomia quali-quanti é impressões versus sistematizações, hipóteses ao invés de verificações, e flexibilidade como oposto à rigidez. O que é importante deve estar claro em cada um dos tipos de análise. O número de vezes que um dado elemento ocorre é o que conta para a análise quantitativa, enquanto a novidade, interesse, tema ou atributo subjetivo é o objeto da análise quali. Sempre se tem um dilema: adotar categorias representativas, ou reagrupar deliberadamente os dados em um pequeno número de categorias, sacrificando informações. BERELSON (1971, apud FRANKFORT-NACHMIAS e NACHMIAS, 1996, p.328) Freitas & Janissek Análise léxica e Análise de conteúdo p.43

44 define que a Análise de Conteúdo se sustenta ou se destrói pelas suas categorias. FRANKFORT-NACHMIAS e NACHMIAS apontam, baseados na literatura, uma série de categorias mais frequentemente empregadas, do tipo o que é dito (tema, sentido, padrão, valores, métodos, características, origem, tempo, conflito, etc) e como é dito (forma ou tipo de comunicação, método ou técnica utilizada, forma de definição). Análise direta ou indireta? A análise quantitativa direta, medida mais comumente utilizada, consiste em contabilizar as respostas tal qual elas aparecem; já a análise quantitativa indireta pode, por vezes, além do que se tem como resultado claro e manifesto, obter por inferência, até mesmo aquilo que o autor deixou subentendido. Este tipo de informação (escolha das palavras, ritmo do discurso, etc) pode ser muito reveladora. Pode-se, então, a partir de uma análise quantitativa, buscar uma interpretação mais sutil, ou o que é latente sob a linguagem explícita utilizada no texto. A interpretação indireta, que vai além do que é dito, não é algo amparado apenas no qualitativo, ela pode perfeitamente se apoiar num conteúdo quantificado (e que possa ser destacado como exemplo). Freitas & Janissek Análise léxica e Análise de conteúdo p.44

45 Etapas da Análise de Conteúdo Toda a análise de conteúdo deve seguir uma série de etapas precisas, que se iniciam pela definição do universo estudado, delimitando e definindo claramente, desta forma, o que estará e o que não estará envolvido. Uma vez estando o universo corretamente definido, inicia-se sua categorização, que significa determinar as dimensões que serão analisadas, dimensões estas que definem a teia da grade de análise. Estas categorias serão determinadas em função da necessidade de informação a testar: elas constituirão o coração da Análise de Conteúdo. A categorização é uma etapa delicada, não sendo evidente determinar a priori suas principais categorias: na verdade, a categorização (processo de redução do texto no qual as muitas palavras e expressões do texto são transformadas em poucas categorias) é o problema central da AC (WEBER, 1990, p.15). Em certos casos, sua origem será empírica: a partir de um estudo de um certo número de casos, as categorias serão formadas a posteriori. Na definição das categorias, é importante utilizar-se dos critérios ou palavras identificadas na Análise Léxica. Tais critérios muito provavelmente serão agrupados ou reagrupados, formando então as categorias. É o que ilustra a Figura 5 (PERRIEN, CHÉRON e ZINS, (1984, p ). Freitas & Janissek Análise léxica e Análise de conteúdo p.45

46 Figura 5 Análise de Conteúdo em etapas Freitas & Janissek Análise léxica e Análise de conteúdo p.46

47 As categorias são as rubricas significativas em função das quais o conteúdo será classificado e eventualmente quantificado. WEBER (1990, p.56-57) aborda a questão da contagem de categorias. No caso de uma enquête, pode-se prever categorias já em forma de código. A Análise de Conteúdo deve normalmente permitir o aparecimento de variáveis e fatores de influência que se ignorava no início dos trabalhos. As categorias, quando não se tem uma idéia precisa, devem surgir com base no próprio conteúdo. Na enquête de exploração, as categorias constituem elas próprias o quadro, objeto ou contexto de análise, enquanto que, na busca de verificação de uma hipótese, pode-se ter categorias prédefinidas. De fato, um mesmo dado aberto pode servir de base aos dois exercícios ou lógicas ou estratégias de análise recém evocados. Pode-se explorar um dado para saber o que dele pode emergir como categorias (a lista de reclamações dos clientes, por exemplo), assim como se pode utilizar esse mesmo dado para julgar se a clientela está ou não satisfeita (classificação já pronta para se categorizar cada respondente em satisfeito ou insatisfeito ). As categorias devem se originar seja do documento objeto da análise, seja de um certo conhecimento geral da área ou atividade na qual ele se insere. Das respostas, caso se trate de uma entrevista; dos objetivos, intenções, crenças do emissor, no caso de um texto; não sem considerar elementos ausentes que podem ser significativos. A escolha das categorias é o procedimento essencial da Análise de Conteúdo; visto que elas fazem a ligação entre os objetivos de pesquisa e seus resultados. O valor da análise fica sujeito ao valor ou legitimidade das categorias de análise. É o objetivo perseguido que deve pautar a escolha ou definição do que deve ser quantificado. Segundo WEBER (1990) e BARDIN (1996), as categorias devem ser exaustivas (percorrer todo o conjunto do texto), exclusivas (os mesmos elementos não podem pertencem a diversas categorias), Freitas & Janissek Análise léxica e Análise de conteúdo p.47

48 objetivas (características claras de modo a permitir seu uso por diferentes analistas em um mesmo texto) e pertinentes (em relação com os objetivos perseguidos e com o conteúdo tratado). A escolha das unidades de análise é a etapa seguinte: o conteúdo de um texto pode ser analisado de diferentes maneiras, conforme as unidades de análise que serão definidas. Vários autores tratam das unidades de análises, apresentando-as com alguns enfoques ou rótulos diferentes. Além de LEBART e SALEM (1994, p.46-50) e de WEBER (1990, p.21-24), destacam-se: Para PERRIEN, CHÉRON e ZINS (1984), as unidades classificam-se em (1) palavras, que são as unidades de análise mais desagregadas, pois muitas vezes expressam situações momentâneas, medidas por estímulos situacionais; (2) em tema, que pode ser definido como a unidade mais manipulável, uma vez que compreende proposições ou afirmações de um sujeito - a presença ou ausência de um tema pode ser rica em informações; (3) em personagens, que representam um outro sujeito de interesse, sobre os quais pode-se manipular determinadas características e tomá-las como foco de análise e ainda (4) as características espaciais ou temporais, que implicam em relacionar e medir um certo número de especificidades dos textos, evidenciando o conjunto total das idéias apresentadas. Segundo KRIPPENDORFF (1980, p.57), as unidades de análise classificam-se em (1) unidades amostrais, que são aquelas partes da observação real, registradas independentemente das outras que a acompanham; (2) unidades de registro, que são segmentos específicos do conteúdo, Freitas & Janissek Análise léxica e Análise de conteúdo p.48

49 caracterizados por situarem-se dentro de uma dada categoria e descritas separadamente, podendo então serem registradas como partes analisáveis separadamente das unidades amostrais, e (3) unidades de contexto, que fixam limites de informações contextuais que podem apresentar a descrição de uma unidade de registro. Elas delineiam aquela parte do material necessário para ser examinado para que uma unidade de registro seja caracterizada. A quantificação é a última etapa da Análise de Conteúdo, cujo objetivo é permitir o relacionamento das características dos textos combinadas ao universo estudado. A presença ou ausência de uma unidade igual ao nome das unidades, representa uma quantificação ao nível nominal (PERRIEN, CHÉRON e ZINS, 1984, p ). Freitas & Janissek Análise léxica e Análise de conteúdo p.49

50 O valor da Análise de Conteúdo A Análise de Conteúdo é uma técnica refinada, delicada, e requer muita dedicação, paciência e tempo para satisfazer a curiosidade do investigador. Além disso, são necessárias intuição, imaginação e observação do que é importante, além de criatividade para escolha das categorias já citadas. Ao mesmo tempo, o analista deve ter disciplina, perseverança, e ainda rigidez na decomposição do conteúdo ou na contagem dos resultados das análises. Existem alguns aspectos que GRAWITZ (1993, p ) resgata com relação à AC, os quais são abordados e reforçados por FREITAS, MOSCAROLA e JENKINS (1998): Confiabilidade: A Análise de Conteúdo deve ser objetiva, e os resultados devem ser independentes do instrumento utilizado para medição, sendo conveniente minimizar as diferenças dos pontos de vista entre os analistas. Mas isso é um velho problema das ciências sociais, a confiabilidade não deve ser encarada da mesma forma quando se trata de análises quantitativas de um conteúdo claro e óbvio, como quando se trata de uma análise mais qualitativa, onde se procura identificar intenções ocultas, onde é preciso identificar presença ou ausência de um elemento e não a sua frequência. Segundo KRIPPENDORFF (1980, p.146), a verificação da confiabilidade visa prover uma base para inferências, recomendações, suporte à decisão ou mesmo a aceitação de um fato. Freitas & Janissek Análise léxica e Análise de conteúdo p.50

51 Validade lógica: o instrumento realmente mede o que ele se propõe a medir? Uma análise é válida quando a descrição quantificada que ela oferece a respeito de conteúdo é significativa para o problema original e reproduz fielmente a realidade dos fatos que ele representa. É claro, isso é condição essencial da representatividade da amostra e supõe que certas condições técnicas inerentes a cada estágio sejam observadas satisfatoriamente. A inferência: este ponto merece especial atenção porque algumas das expressões têm mais de uma interpretação, até mesmo interpretações positivas ou negativas, dependendo do contexto. Validade empírica: a predição inerente é justa ou precisa? Uma difícil questão para responder. Em lugar de convicções, prudência e humildade são recomendadas ao traçar as conclusões. Contudo, GRAWITZ (1993) acredita que a experiência e o treinamento do analista assinam a validade de sua análise. O valor da Análise de Conteúdo depende da qualidade da elaboração conceitual feita a priori pelo pesquisador, e da exatidão com a qual ele irá traduzi-la em variáveis, esboço de pesquisa ou categorias. Segundo WEBER (1990, p.15), uma variável baseada na classificação de um conteúdo é válida na medida em que de fato mede o construto que o pesquisador tenciona medir. Os assuntos guiados pelas categorias podem suscitar hipóteses interessantes (FREITAS, MOSCAROLA e JENKINS, 1998). Qualquer esforço nessa direção Freitas & Janissek Análise léxica e Análise de conteúdo p.51

52 deve passar pela confiabilidade e validade dos resultados gerados (KIRK e MILLER, 1986, p e p.41-42). Para os resultados de pesquisa serem válidos, os dados nos quais eles serão baseados, bem como os indivíduos envolvidos na sua análise e ainda o processo que vai gerar os resultados devem ser, todos eles, confiáveis. A confiabilidade é necessária, ainda que não seja uma condição suficiente por si só para a validade. A importância da confiabilidade está baseada na sua garantia de que os dados são obtidos independentemente do evento de medição, instrumento ou pessoa (KRIPPENDORFF, 1980). Dados confiáveis, por definição, são dados que permanecem constantes através das variações do processo de medida (KAPLAN e GOLDSEN, apud KRIPPENDORFF, 1980, p.129). A confiabilidade é vista como um problema no contexto de pesquisa qualitativa, em relação à sua estrutura de codificação, que poderia ser vista por ela mesma como confiável se, em qualquer recodificação subsequente, os mesmos códigos fossem repetidos por um diferente codificador com uma margem aceitável de erro. KRIPPENDORFF (1980, p ) aborda em detalhe esta questão da concordância, observando (p ) que adotou em sua equipe a diretriz de reter variáveis cuja concordância nesse sentido fosse de pelo menos 80% entre os dois codificadores (necessariamente independentes, somente discutindo, como último recurso, sobre efetivas dúvidas, e não buscando influenciar um no protocolo do outro), mas que seriam igualmente retidas ou consideradas variáveis cuja concordância fosse entre 67 e 80% (muito embora se deva ser sempre cauteloso ao concluir sobre estes resultados) 3. Ele observa ainda que o custo de não ser zeloso nesse sentido é o de se chegar a 3 OLIVEIRA (1999, p ) evoca referencial sobre o grau aceitável de concordância, inclusive identificando na literatura que as chances de concordância entre os classificadores é maior à medida que o número de opções ou categorias é menor. Freitas & Janissek Análise léxica e Análise de conteúdo p.52

53 conclusões equivocadas nas pesquisas. O autor observa (p.147) que se as implicações de uma AC forem consideradas drásticas, deve-se ser rigoroso na consideração de níveis de concordância; porém, em se tratando de estudos exploratórios sem sérias consequências, o nível da concordância "pode ser consideravelmente relaxado, contudo, não tão baixo que não permita levar a sério as descobertas". Para alcançar um bom nível de concordância, deve-se ter cuidado e construir categorias codificadas que sejam mutuamente exclusivas e não ambíguas. Não se deve confundir os requisitos que surgem na pesquisa hipotético-dedutiva com as demandas da pesquisa qualitativa exploratória. Numa abordagem hipotético-dedutiva para análise de textos, categorias (pré-definidas) serviriam para condensar informações relevantes contidas nos dados, as quais seriam representadas através de frequências. Já durante um estudo exploratório, a codificação deve ser construída através do próprio processo de análise de dados. Deve-se entender que cada abordagem requer um enfoque diferente de confiabilidade: um estágio dito exploratório, onde o ambiente (categorias e propriedades) é desenvolvido e hipóteses são geradas, e um estágio de construção de teoria baseada em dados, onde as hipóteses são refinadas com maior detalhe (KELLE, 1995, p.25). SILVERMAN (1993, p.149) discute validade como sendo verdade, ou seja, ele recorre a HAMMERSLEY, para quem validade é interpretada como a extensão ou medida pela qual uma apuração, contagem ou codificação representa efetivamente o fenômeno social ao qual se refere. SILVERMAN (1993, p ) descreve duas formas de validação na pesquisa qualitativa: a triangulação (comparar diferentes tipos de dados, quanti e qualitativos, obtidos pelo uso de diferentes métodos, como observação e entrevistas, de forma a ver se um corrobora o outro) e a validação pelo respondente (agregando as descobertas de um aos temas sendo estudados pelos Freitas & Janissek Análise léxica e Análise de conteúdo p.53

54 outros, e mesmo avaliando sua reação). Contudo, ele prefere outras técnicas a estas. Ele sugere (p ) que sejam utilizados métodos que permitam generalizar para uma população mais ampla (mas não numa lógica puramente estatística, e sim obtendo informações sobre aspectos relevantes da população de casos e comparando o caso em análise com esses dados, usando método survey numa amostra aleatória de casos, ou ainda realizando diversos estudos etnográficos), métodos de teste de hipóteses (indução analítica na busca de associações, com constante uso de métodos comparativos e a busca por casos de exceção), e mesmo que se use simples procedimentos de contagem (uso de alguma quantificação). Um procedimento confiável deve render os mesmos resultados a partir de um mesmo conjunto de fenômenos, indiferentemente das circunstâncias de aplicação (KRIPPENDORFF, 1980; KIRK e MILLER, 1986). Um codificador ou analista, por exemplo, pode duplicar o que ele tenha tido feito antes e, não encontrando maiores divergências entre as duas, concluir que tais dados são confiáveis. Agora, imagine o mesmo codificador confrontando sua codificação de categorias com codificações feitas por outra pessoa. Neste caso, a ausência de desvios é um indicativo de confiança dos dados, mas maior ainda porque está livre de erros ou inconsistências de um único codificador. Ou ainda, pode ser interessante o fato de estes dados serem testados por duas pessoas e ainda serem confrontados com normas sistematizadas de verificação. Portanto, para testar a confiabilidade dos dados, alguns esforços duplicados são essenciais, seja do codificador por si mesmo, seja a partir da exigência de codificação por mais de um envolvido, em ambas situações confrontando os resultados. Toda comunicação entre codificadores tenderá a melhorar o grau de concordância, contudo esse mesmo grau terá embutido um viés da própria comunicação. Esta confiabilidade da Análise de Conteúdo pode ser Freitas & Janissek Análise léxica e Análise de conteúdo p.54

55 obtida, segundo KRIPPENDORFF (1980, p ), através de 3 maneiras, que são a estabilidade, a reprodutibilidade e a exatidão, as quais exprimem, nessa ordem, o menor e o maior grau de confiabilidade. A Figura 6 apresenta características destes 3 tipos de confiabilidade. Estes aspectos são reforçados e revisados por WEBER (1990, p.17). Freitas & Janissek Análise léxica e Análise de conteúdo p.55

56 TIPO ESFORÇOS DEFINIÇÃO RELAÇÕES Estabilidade Teste - reteste É o grau ou intensidade no qual o processo é invariável ou imutável com o passar do tempo 1) Intra-observador / Inconsistências Reprodutibilidade Teste - teste É o grau ou intensidade no qual o processo pode ser recriado em variadas circunstancias, em diferentes locais, usando diferentes codificadores. Exatidão Teste - padrão É o grau ou intensidade no qual o processo funciona conforme um padrão conhecido. 1) Intra-observador / Inconsistências 2) Inter-observador / Discordâncias 1) Intra-observador / Inconsistências 2) Inter-observador / Discordâncias 3) Divergências sistemáticas, de acordo com as regras ou normas Figura 6 A confiabilidade na Análise de Conteúdo: tipos, características e técnicas (KRIPPENDORFF, 1980, p.131) Freitas & Janissek Análise léxica e Análise de conteúdo p.56

57 A verificação da estabilidade, dependendo do tipo de análise, por exemplo sendo mais exploratória, já pode ser uma razoável argumentação para legitimar o valor dos dados ou categorias apresentados, bem como o perfil do analista. No caso de pesquisas de verificação de hipóteses, é claro, seria fundamental a verificação quanto à reprodutibilidade e à exatidão (KELLE, 1995, p.18-28). SILVERMAN (1993, p ) discute detalhadamente sobre a confiabilidade, contudo é fortemente baseado em KIRK e MILLER. Estes resgatam uma definição de HAMMERSLEY para a confiabilidade: refere-se ao grau de consistência com o qual as categorias são definidas por diferentes observadores ou pelo mesmo observador em diferentes ocasiões. A confiabilidade de dados requer, portanto, que no mínimo dois codificadores independentes descrevam um mesmo conjunto de unidades, ou então um mesmo em duas ocasiões com certa distância de tempo. A confiabilidade é expressa como uma função de concordância entre os codificadores (ou as duas codificações do mesmo analista no tempo 1 e no tempo 2) em razão de um mesmo conjunto de dados. Uma vez de posse dos resultados de cada codificador (ou do teste e reteste de um mesmo codificador), existem vários cálculos que podem ser aplicados para verificar o grau de concordância obtido entre os codificadores. Tais cálculos são apresentados por KRIPPENDORFF (1980, p ). Segundo KRIPPENDORFF (1980, p.134), a forma mais convincente de expressar a confiabilidade dos dados pode ser obtida com base no máximo possível de concordância entre os dois avaliadores, isto combinado com uma contagem de desacordos observados em função de desacordos esperados, que ele define num cálculo chamado chance de concordância. Freitas & Janissek Análise léxica e Análise de conteúdo p.57

58 EVRARD (1997, p ) revisa diferentes autores a este propósito, bem como KRIPPENDORFF (1980, p ). Destacam-se duas proposições: um é o índice de convergência - o Kappa de Cohen, que compara o percentual de acordo entre os analistas em função do que seria obtido ao acaso, numa formulação matemática que envolve o número total de julgamentos feitos por cada analista, o número de julgamentos sobre os quais os analistas estão de acordo e o número de julgamentos em acordo obtidos ao acaso. Outro é a medida de percentual de acordo (ou a definição de matrizes de contingência entre analistas), onde as categorias de codificação dos analistas são relacionadas em uma tabela de duplas entradas, com as frequências das classificações que foram identificadas pelos dois analistas e a possibilidade de medir o percentual de acordo em relação ao percentual de desacordo. Numa posição contrária ao excesso de "formulismos", nossa idéia é de que - nas pesquisas em SI - estas verificações devem ser passíveis de serem realizadas de forma descomplicada e bastante honesta, isto qualquer que seja o conhecimento do analista. De fato, o que interessa é saber o real grau de concordância entre os dois codificadores em questão (normalmente o pesquisador em si e alguém que serve de referência). Não se deseja sobretudo induzir o pesquisador a realizar manipulações dos resultados observados (ele ficará tentado a tal para provar um supostamente improvável - alto grau de concordância), nem desviar sua atenção do objeto investigado em si com procedimentos de verificação e cálculos complicados e que exigem tempo nobre e muita paciência, além do envolvimento e doação de um terceiro. O leitor é quem deve julgar o uso adequado e a efetiva cientificidade das verificações da confiabilidade; este texto mostra posição a respeito, mas também o referencial necessário e suficiente para adoção de outra solução. Freitas & Janissek Análise léxica e Análise de conteúdo p.58

59 Assim sendo, note-se primeiro que os procedimentos matemáticos ou de confrontação com outro analista (indicados na literatura já referenciada) são mais pertinentes quando a variável envolvida é do tipo assumida ou definida a priori, ou seja, aquelas cuja classificação ou categorização foi realizada por ambos com base em protocolo comum e bem entendido, oriundo seja de literatura, seja de idéias que eles mutuamente compartilham. Neste caso, pode-se esperar um certo grau de concordância. Isto não é tão verdade para o caso das variáveis ditas inferidas, nas quais o pesquisador vai utilizar seu referencial e todo seu domínio por estar envolvido na pesquisa para criar categorias de forma gradativa à medida que avança de dado em dado. Esperar que o segundo analista, o qual realiza a categorização de confrontação, possa ter um alto grau de concordância, seria partir do pressuposto que ele tem um entendimento da questão e mesmo do seu conteúdo muito próximo do pesquisador principal. Ora, isto é muito difícil. Logo, deve-se esperar, nestes casos, um não tão alto grau de concordância nas confrontações cujo objeto seja este tipo de variável. WEBER (1990, p.18) chama a atenção sobre quão potencialmente confusa pode ser a questão de verificação da validade. Mesmo KRIPPENDORFF (1980, p.135) observa que a AC pode conter métricas e escalas complexas e distintas. Nossa proposta é que o pesquisador realize contagens de acordos e desacordos e, a partir disso, possa ter formas simplificadas que permitam dar uma noção do grau de concordância entre os dois avaliadores, entre as quais as seguintes, baseadas seja nas categorias, seja nas observações (pessoas, entrevistas ou fichas): Concordância exata com base no total de itens avaliados em relação ao total de categorias da questão sendo avaliada multiplicado pelo número de entrevistas ou pessoas ou fichas, quantas categorias foram comuns aos dois avaliadores, independentemente de Freitas & Janissek Análise léxica e Análise de conteúdo p.59

60 terem sido marcadas ou não (marcaram as mesmas e deixaram em branco as mesmas) 4. Concordância parcial com base no total de itens efetivamente marcados pelo pesquisador (ou pelos avaliadores) em relação ao total de categorias marcadas pelo pesquisador, quantas destas foram também marcadas pelo segundo avaliador, desconsiderando as desigualdades. Ou ainda, também a quantidade de categorias que o pesquisador deixou em branco e também foram deixadas em branco pelo segundo avaliador. A sofisticação (ou ponderação ou mesmo relativização) deste indicador seria também verificada pela quantidade de categorias que o pesquisador marcou e não foram marcadas de forma correspondente pelo segundo avaliador (o que se obtém diretamente, descontando do número total de categorias marcadas pelo pesquisador o número de categorias coincidentes marcadas pelos dois, ou seja, o número de categorias que o segundo avaliador marcou e que coincidem com as categorizações de fato do pesquisador). Além disso, também poderia ser indicada a quantidade de categorias que o segundo avaliador marcou e que não foram marcadas de forma correspondente pelo pesquisador (o que se obtém diretamente, descontando do número total de categorias efetivamente marcadas pelo segundo avaliador o número de categorias coincidentes marcadas pelos dois, este último tendo sido gerado a partir da comparação caso a caso ou categorização entre o pesquisador e o segundo avaliador). Estes dois últimos valores serviriam para mostrar que o principal indicador (a quantidade de categorias de fato igualmente marcadas) tem sua força de argumento amenizada. Este é um indicador simples que mostra honestamente o grau efetivo de concordância. 4 OLIVEIRA (1999, p.357) em sua pesquisa de doutorado, aplicou um cálculo de confiabilidade da codificação de uma questão aberta texto da seguinte forma: o coeficiente de concordância foi calculado dividindo o número total de citações com codificação igual pelo número total de citações e multiplicado por 100. Freitas & Janissek Análise léxica e Análise de conteúdo p.60

61 Concordância exata com base no total de respondentes forma mais rígida de avaliação da concordância qual o número de entrevistas ou pessoas ou fichas nas quais a marcação ou categorização realizada pelos dois avaliadores é exatamente coincidente? Concordância parcial com base no total de respondentes flexibilização do critério de avaliação da concordância com margem de mais ou menos um, mais ou menos dois, etc, ou seja, qual o número de entrevistas ou pessoas ou fichas nas quais a marcação ou categorização realizada pelos dois avaliadores é quase coincidente (quase todos coincidem, exceto um ou dois, ou mesmo uma quantidade razoável a ser definida pelo pesquisador, de acordo com o número de categorias envolvidas na questão)? No item 6.4 deste livro, são aplicadas estas idéias numa confrontação envolvendo uma variável cujas categorias foram inferidas a partir do conteúdo de cada entrevista, e também numa outra cujas categorias foram definidas a priori pelo pesquisador com base na literatura e na prática gerencial. Freitas & Janissek Análise léxica e Análise de conteúdo p.61

62 Aplicação da Análise de Conteúdo Os recursos oferecidos pelas ciências sociais para nossa reflexão são essencialmente compostos de comunicações orais ou escritas, que incluem textos de entrevistas, falas, discursos e conversas. Qualquer que seja o nível que se deseje atingir e o objeto de nossas pesquisas, os dados a reunir para compreender, explicar opiniões, condutas, ações, enfim, estes dados são quase sempre de origem verbal. A ação, quando nós a apreendemos, apresenta-se em um contexto de palavras: sempre se encontram falas ou discursos e escritos ou textos, ou seja, documentação em palavras. A Análise de Conteúdo pode ser uma boa técnica para ser usada em todos os tipos de pesquisa que possam ser documentadas em textos escritos (documentos oficiais, livros, jornais, documentos pessoais), em gravações de voz ou imagem (rádio, televisão, etc), ou em outras atividades que possam ser decompostas como uma entrevista, por exemplo. É muito importante que pesquisadores sociais estejam aptos a analisar esse tipo de dados de uma forma científica, não se contentando apenas com impressões casuais. A novidade em procedimentos modernos de Análise de Conteúdo está em substituir as impressões por procedimentos padronizados, quantitativos, através da transformação de dados iniciais (provenientes de pesquisas qualitativas) em dados possíveis de serem analisados digamos mais cientificamente. Para isso, utiliza-se da decomposição do texto, que será estudado como uma função das palavras que ele contém ou idéias que ele representa, este último sendo escolhido em função das relações com os objetivos da nossa pesquisa aqui descrita (FREITAS, MOSCAROLA e JENKINS, 1998). Qualquer que seja a comunicação, está-se na presença de um emissor que lança uma mensagem possuindo conteúdo e forma, visando atingir um objetivo, e endereçada a um ou vários receptores. Freitas & Janissek Análise léxica e Análise de conteúdo p.62

63 Quem fala? Para dizer o quê? A quem? Como? Com que resultado? De acordo com BERELSON (in GRAWITZ, 1976, p. 623), a Análise Léxica e a Análise de Conteúdo podem ser aplicadas nos casos que requerem maior precisão ou objetividade. Pode-se aplicar este tipo de técnica de análise de dados de várias formas, envolvendo diferentes fontes de dados. As comparações e evoluções formam o principal campo da Análise de Conteúdo, onde se aplica portanto a utilidade da Análise Léxica para basear toda uma evolução. Quando suficientemente definidas, detalhadas e analisadas em conjunto, permitem-nos passar de uma simples descrição e alcançar o objetivo de toda pesquisa científica: a descoberta de explicações e relações causais (FREITAS, MOSCAROLA e JENKINS, 1998). Freitas & Janissek Análise léxica e Análise de conteúdo p.63

64 4. Aplicações de análise qualitativa em gestão e em sistemas de informação A aplicação e utilidade da análise de dados qualitativos, vistas a partir das técnicas de Análise Léxica e de Análise de Conteúdo recém revisadas, pode ser verificada se valorizarmos diferentes estudos que têm sido desenvolvidos dentro da gestão e mais especificamente na área de sistemas de informação e decisão. A seguir, alguns destes estudos são resgatados. KIRK e MILLER (1986, p.24-29, p.33-40, p ), WEBER (1990) e MILES e HUBERMAN (1994) descrevem alguns exemplos básicos de aplicação. A exploração automática e sistematizada de informações geradas a partir do próprio uso de sistemas por clientes ou usuários finais tem sido muito valorizada ultimamente: um exemplo é o fato de o navegador Internet ser surpreendido com um bom dia personalizado já no seu segundo acesso a um dado site Internet, bem como ver oferecida uma lista de produtos adequada a aspectos (ou palavras-chave) identificados quando de sua última conexão. Em FREITAS (1993) e FREITAS e BALLAZ (1993), apresenta-se estudo no qual eram analisados os traçados ou dados gerados e armazenados automaticamente a partir da interação do usuário com uma interface disponibilizada remotamente (a experiência do minitel francês foi pioneira nesse sentido): a partir disso, mesmo uma tipologia de usuários seria possível. Era então chamada a atenção para aspectos da mineração de dados, bem como de sua exploração comercial ou mesmo para melhoria do próprio sistema. A análise do conteúdo dos dados gerados por cada um era o foco da questão. Vários estudos estão sendo realizados por nossa equipe (GESID - enfatizando procedimentos para mineração de dados (GONÇALVES,1999 e BERNARDES, 1999). Freitas & Janissek Análise léxica e Análise de conteúdo p.64

65 Uma outra aplicação bem interessante é a de um projeto nosso, no qual dados simples são estruturados e colocados em um só espaço para aplicação de técnicas de datamining: trata-se aqui dos anais dos congressos da ICIS (International Conference on Information Systems) e da AIS (Association for Information Systems), hoje na sua maioria disponíveis via Internet ou CD-ROM, bem como da ANPAD (Associação Brasileira dos Programas de Pós-Graduação em Administração). Estruturou-se uma base de dados (com campos como conferência, sessão, autores, título, resumo, etc), e então se tem condições de explorar e de comparar dados, com a identificação de especificidades e de principais temas. Pode-se ter uma idéia de quão mundiais são estes encontros, identificando ainda temas, pessoas e universidades para intercâmbio, como numa pesquisa de literatura. Em FREITAS (2000), com base em dados dos anais da AIS 97, ICIS 96 e 97, da ECIS (European Conference) 1996 e 97, e do Enanpad Adminfo , foram indicados elementos interessantes e curiosos sobre a área acadêmica de administração da informação. De fato, isso constitui uma base de dados para análises em projetos futuros, contendo a parte de referência essencial dos anais dos congressos: aplicando a técnica de análise de dados qualitativos, é possível oferecer uma idéia geral sobre o que está sendo agora feito na comunidade mundial, as tendências de temas e métodos, bem como é possível focar o esforço de revisão de literatura de projetos ou estudantes de nossas equipes. Pode-se ainda imaginar outras aplicações, como a de MOSCAROLA (1996), a qual diz respeito à busca (datamining) na Internet de um debate eleitoral nos EUA: Dole versus Clinton imediatamente após sua realização. Este é um campo de aplicação interessante, o da análise dos discursos, seja dos documentos estratégicos ou de políticas de uma organização, seja este do debate político eleitoral. A exploração desses dados apontou que os Freitas & Janissek Análise léxica e Análise de conteúdo p.65

66 candidatos não estabeleceram um debate: pode-se saber quem disse o que, o que foi original em cada um, como cada um abordou certos temas como educação ou economia, etc. Pode-se saber que, no caso, as intervenções de Clinton eram de em média 19 palavras contra 14 de Dole, ou ainda identificar as expressões que se repetiam no discurso de cada um (Clinton: worked hard, better of than we were four years ago; e Dole: economic package, people watching). Quantas pessoas assistiram a este debate e puderam ter rapidamente esta mesma percepção? Em parceria PPGA/UFRGS, IEL/FIERGS e SEBRAE/RS, foi realizada a pesquisa indicadores da qualidade e produtividade, envolvendo 120 empresas gaúchas, cujo relatório executivo permitiu traçar um primeiro diagnóstico com dados seriamente coletados e analisados acerca da situação da indústria gaúcha quanto aos programas de qualidade. Um terço dos 300 dados coletados com cada um dos 240 entrevistados (diretores de RH e de Qualidade ou Industrial) eram qualitativos: muitas curiosidades e inconsistências entre discurso e ação de fato foram apontados na época (RUAS, PIRES, FREITAS, ANTUNES, e CUNHA Jr, 1994). Um estudo de 2 anos foi realizado num hospital-universitário, usando a técnica de Focus Group para coletar dados em diferentes grupos de profissionais envolvidos no processo organizacional e educacional (gestores, médicos, professores, enfermeiros, etc). Os dados analisados ajudaram na definição de um prontuário essencial do paciente, com importantes modificações na gestão da informação corporativa e operacional. Este estudo foi apresentado na Argentina, Austrália, Brazil, Canadá, e EUA. Importantes ganhos foram realizados no Hospital (STUMPF e FREITAS, 1996). Foi realizada uma survey cross-cultural exploratória para se buscar identificar perfis de tomadores de decisão, envolvendo uma centena de gerentes de Brasil, França e EUA (285 ao todo): 72 Freitas & Janissek Análise léxica e Análise de conteúdo p.66

67 diferentes dados foram coletados (FREITAS, MOSCAROLA e MACADAR, 1996; MACADAR, COSTA, FREITAS, BECKER e MOSCAROLA, 1997). O processo de pesquisa, para definição dos instrumentos (FREITAS, BECKER, ZANELA, MACADAR, MOSCAROLA e JENKINS, 1998; MACADAR, 1998), bem como para realização e análise foi muito meticuloso (FREITAS, JENKINS, MOSCAROLA, BECKER, ZANELA e MACADAR, 1998; COSTA, FREITAS e BECKER, 1998). Este projeto exigiu muitas horas na codificação e validação de protocolos de análise, definição de dicionários para poder analisar cada uma das questões abertas. Além dos perfis ricos em detalhes sobre os decisores nos 3 países ( todo processo de definição e análise, bem como todo instrumental foi descrito (FREITAS, MOSCAROLA, JENKINS, BECKER, ZANELA e MACADAR, 1998; ZANELA, 1999). Neste caso, três analistas debateram suas discordâncias na criação de categorias de análise e mesmo quanto à composição de cada categoria, definindo dicionários específicos para análises automatizadas de textos-opiniões. Em outra survey realizada, coletou-se dados para melhor subsidiar o processo de Planejamento de SI de uma organização. Nosso objetivo aqui é unicamente ilustrar a aplicação do uso de análise de dados qualitativos via análise de conteúdo ou análise léxica. A partir de entrevistas com 300 gerentes em uma organização estatal americana de gestão dos transportes, foram levantados dados para identificar os principais fatores críticos de sucesso, as barreiras à adoção de novas tecnologias ou soluções, e outros aspectos. As respostas foram livres, depois digitadas, e uma análise de conteúdo foi realizada: a partir da leitura de cada resposta, o analista e equipe criaram um novo código, gerando novas variáveis (fechadas desta vez, e não mais abertas como as originais). Estes novos códigos, a partir de Freitas & Janissek Análise léxica e Análise de conteúdo p.67

68 dados abertos, foram cruciais nas decisões tomadas na sequência do projeto (JENKINS, FREITAS, ARSHAM e equipe, 1998). OLIVEIRA (1999) divulgou tese na qual definiu uma série de indicadores para tomada de decisão na etapa de concepção de um processo construtivo: os dados foram levantados a partir de técnicas como focus group, survey e estudo de caso. Foram consultados grupos de pessoas diferentes, a saber: usuários de edificações, projetistas e construtores. Este trabalho detalha o método de análise e de validação da informação de forma exemplar. Diversos estudos aplicados com análise de dados qualitativos, como a comunicação interna num banco comparada com as expectativas dos clientes, foram realizados por MOSCAROLA (1990, 1993, 1994, 1995). Neste estudo, o autor analisou o conjunto dos documentos que o banco comunicava aos seus clientes, bem como foram entrevistados clientes do banco, evocando sua relação com o mesmo. O banco falava do produto, enquanto que o cliente falava de seus problemas; o banco falava do quanto ele é bom e o cliente falava sobre as dificuldades nas quais se encontrava. Os dados obtidos comprovavam evidências que muitas vezes são contundentes, mas nem sempre percebidas, e que podem determinar o sucesso de um empreendimento. DOMENJOZ, GAVARD-PERRET e MOSCAROLA (1995), no artigo Price and communication: how do they interrelate? an analysis of car advertisements published in English, analisaram o conteúdo de 52 publicidades de carro usando um protocolo de observação; combinando observações descritivas e subjetivas da mídia, codificando a parte visual numa grade. A análise léxica foi aplicada para determinar como o preço se expressa e como a faixa de preço determina tipos específicos de mensagem ou temas em relação à mídia e aos mercados. Atualmente, diversos outros estudos estão sendo realizados em nossa equipe ( ou de certa forma com Freitas & Janissek Análise léxica e Análise de conteúdo p.68

69 nosso acompanhamento: estudos sobre gestão do conhecimento (BOFF, 1997), sobre escolhas em orçamento público (DORNELAS, 1999), sobre variáveis importantes na tomada de decisão gerencial (LUCIANO, 1999). Um estudo ao qual nos dedicamos particularmente é sobre a influência da implementação de sites Web em negócios empresariais (JANISSEK, 1999 e 2000). Neste estudo, dados relativos ao uso da Internet em organizações foram levantados a partir de entrevistas estruturadas abertas: o conteúdo foi analisado e foi possível criar categorias sobre as principais opiniões emitidas pelos respondentes (este estudo é apresentado em detalhe na Seção 6, ilustrando uma aplicação prática envolvendo de forma complementar as análises léxica e de conteúdo). Freitas & Janissek Análise léxica e Análise de conteúdo p.69

70 5. Ferramentas para Análises Léxica e de Conteúdo O progresso da tecnologia da informação e dos sistemas hoje disponíveis facilitam a aplicação das técnicas de Análise Léxica e de Análise de Conteúdo, entre outros procedimentos científicos de exploração de dados qualitativos. Pode-se surfar ou navegar pelos textos e rapidamente obter algumas noções básicas ali contidas. Uma grande variedade de investigação e mesmo de novas e diferentes leituras se torna possível. Contudo, isto não deve mascarar a dificuldade final de interpretação inerente a este processo. Dedicação e paciência, aliados à curiosidade, são as características importantes que o pesquisador ou analista deve desenvolver nesse campo (FREITAS, 2000). A evolução da análise de dados tipo texto oferece hoje soluções combinando: a estatística léxica e os métodos de análise de dados, a análise sintática, e a navegação léxica ou surfing e a leitura assistida por computador. As tecnologias disponíveis são bem mais poderosas que antes. BARDIN (1996, p.181) descreve algumas consequências do uso de ferramentas computacionais na realização de análise de dados textuais: o aumento da rapidez (processo); a possibilidade de maior rigor na organização da pesquisa (com a consequente menor ambigüidade); a flexibilidade é reforçada, podendo-se reutilizar os dados para verificação de novas hipóteses; a facilidade de padronização, reprodução e troca de documentos; a possibilidade de manipular e explorar dados complexos; enfim, o estímulo à criatividade e reflexão pela liberação do pesquisador de tarefas repetitivas e maçantes. No entanto, a análise de dados tipo texto não muda o significado essencial dos dados. Mesmo se a análise reduz o ruído contido nos dados, a redução de uma longa leitura e a rápida ou Freitas & Janissek Análise léxica e Análise de conteúdo p.70

71 apressada chegada a conclusões conduz todos analistas a uma leitura dita interpretativa. A interpretação é frequentemente perigosa, parecendo ser rápida e falsamente objetiva : MOSCAROLA (1994, 1995) aconselha que se tenha cuidado na investigação e nas conclusões. Quanto à aplicação de ferramentas computacionais, BARDIN (1996, p.180) destaca a importância de seu uso quando a unidade de análise é a palavra e o indicador é de frequência (ocorrência das palavras); quando a análise é complexa e comporta um grande número de análises a tratar simultaneamente; quando se deseja realizar uma análise de co-ocorrências (repetição de uma mesma palavra no mesmo depoimento); quando a pesquisa implica em diversas análises sucessivas; enfim, quando a análise demandará ao seu final operações estatísticas e numéricas mais complexas. KELLE (1995, p.18-28) apresenta idéias que devem ser também consideradas sobre a confiabilidade das ferramentas utilizadas. De fato, o uso dos computadores, mecanizando questões manuais em análises, sejam elas qualitativas ou quantitativas, vem auxiliando as análises de dados e tornando seu processo mais sistemático, ágil, rigoroso e transparente. Não obstante esse aperfeiçoamento no processo de análise, os computadores também podem auxiliar métodos de obtenção de validade em pesquisas qualitativas, de duas maneiras: de um lado podem assistir ao gerenciamento de grandes quantidades de dados (análises de dados quanti) e em segundo lugar, facilitar a recuperação e obtenção de todas as informações relevantes sobre certos tópicos analisados. Isso incrementa a veracidade de resultados qualitativos consideravelmente visto que estas facilidades podem assegurar que as hipóteses desenvolvidas sejam reais. A aplicação de critérios desenvolvidos no contexto da pesquisa experimental, como a replicabilidade (KRIPPENDORFF, 1980), Freitas & Janissek Análise léxica e Análise de conteúdo p.71

72 poderia claramente ir contra as intenções de indagações qualitativas (KELLE, 1995, p.22). Apesar disso, os conceitos de validade tradicionais merecem uma atenção especial: o conceito de validade não é prover uma perfeita concordância entre os resultados dos pesquisadores e a realidade, mas identificar possíveis fontes de erro. O ponto de vista entre o uso de computadores e a validade refere-se a uma abordagem que permite examinar dois dos maiores problemas para pesquisas qualitativas: (1) resultados amostrais, que se relacionam ao fato da amostra ser ou não ser representativa. Descobrir novos fenômenos através de uma análise cuidadosa em estudos de caso ou estudos de campo podem prover novos e proveitosos insights, mas é importante lembrar que estes não são generalizáveis. Outro problema é em relação à (2) consistência e confiabilidade da aplicação do plano de codificação. Muitos pesquisadores qualitativos usam exclusivamente ferramentas para auxiliar suas análises de dados qualitativos. Recentes investigações têm demonstrado que a implementação de métodos auxiliados por computadores por pesquisadores que não tem usado métodos de codificação pode causar dificuldades em desenvolver um plano de codificação comum ou aplicá-lo como um plano consistente. Em ambos problemas os computadores podem ser ferramentas úteis para identificar fontes de erros. Várias são as técnicas e métodos que podem ser utilizadas em conjunto para o levantamento, tratamento e análise de dados: amostragem, questionário, estatísticas de dados e análises de dados, síntese e comunicação (MOSCAROLA, 1990). Mas de que forma um dos muitos softwares que hoje permitem tal feito poderia ser utilizado para analisar dados qualitativos? Primeiramente, tem-se que ter bem claro que um software NÃO irá analisar dados. Ele irá auxiliar ou facilitar a análise feita por uma pessoa, mas jamais substituí-la. A formatação de dados, a tabulação destes, sua apresentação e até Freitas & Janissek Análise léxica e Análise de conteúdo p.72

73 mesmo seu tratamento são tarefas possíveis de serem executadas por programas de computadores, desde um simples editor de textos até o mais sofisticado software de datamining, e estes sim são o que podese chamar de procedimentos para auxílio à análise de dados. Na última década, vários destes sistemas foram desenvolvidos, o que de certa forma permitiu que cada vez mais o uso de computadores pudesse reduzir muito o tempo de análise, permitindo que o analista se concentrasse na análise de fato, e não passasse incansáveis horas tabulando dados, organizando dados, formatando dados, enfim, procedimentos esses que poderiam ser feitos de forma sistemática e explícita, assegurando totalidade e refinamento, além de permitir flexibilidade e revisão nos procedimentos de análise. Com a difusão da literatura nessa área, várias obras têm sido criadas, divulgadas e utilizadas por pesquisadores. Não somente o desenvolvimento desse tipo de software tem aumentado rapidamente, como também o uso destes em estudos qualitativos tem sido realizado em diferente áreas, englobando por exemplo: edição, revisão ou mesmo correção de anotações de pesquisa, codificação para posterior facilitação de pesquisa, busca e recuperação, relacionamento ou ligação entre dados de pesquisa, armazenamento (de forma organizada), análise de conteúdo, construção de teorias, mapeamento gráfico (diagramas), etc (WEITZMAN e MILES, 1995, p.4-5). Estes mesmos autores citam vários sistemas que podem ser utilizados para auxílio à análise de dados: (1) tratamento ou recuperação de textos (localização de documentos com base em palavras), (2) gerenciamento de textos (recuperar documentos e ajudar na sua seleção de forma organizada e sistemática), (3) programas para codificação e recuperação (recuperar documentos a partir de palavras-chave ou códigos), (4) programas construtores de teoria baseados em códigos (com recuperação de documentos e com funções de concepção de estruturas conceituais, anotações, e ainda formulação e teste de Freitas & Janissek Análise léxica e Análise de conteúdo p.73

74 hipóteses), e (5) programas de concepção de redes de relações, os quais ajudam a formular e representar esquemas conceituais através de uma rede de nós e ligações, podendo assistir todo o tipo de análise qualitativa de dados. Os autores apresentam 24 softwares, suas características, suas utilidades, enfatizando a prática da escolha dos mesmos a partir de questões que dizem respeito ao uso que deles será feito. Vários desses programas possuem algumas características semelhantes, porém com configurações distintas. A escolha pelo melhor software depende do nível de envolvimento do usuário com o computador, tempo dedicado a isso, tipo de projeto, expectativas sobre o projeto e ainda o tipo de análise que deseja fazer. Uma lista de sistemas é avaliada pelos autores (p.25), destacando-se produtos como Atlas/ti, QCA e Nud-ist. Além disso, pode-se citar PREIN, KELLE e BIRD (apud KELLE, 1995, p ), os quais avaliam estes e outros sistemas de forma sistematizada e consistente. Algumas das características a serem avaliadas quando da escolha de um sistema a utilizar para o tratamento de dados são (WEITZMAN e MILES, 1995, p.9-15): que tipo de usuário eu sou? Estou escolhendo o software para trabalhar um projeto em particular ou para trabalhar com vários projetos nos próximos anos? Sobre que tipo de projeto e base de dados eu estarei trabalhando? Que tipos de análise estou planejando realizar? Quais as restrições financeiras do projeto envolvido? Qual a importância de manter os dados reservados ou com acesso restrito? Diversos aspectos devem também ser observados, como os que se seguem: o tipo de base de dados (única x múltipla), se serão casos únicos ou múltiplos, se os registros serão fixos ou sujeitos a revisão (dinâmicos), se os dados serão estruturados ou abertos, se as entradas serão uniformes ou diversas, qual o tamanho da base de dados, que tipo de análises se pretende fazer, se será exploratória ou confirmatória, qual o esquema de codificação (bem Freitas & Janissek Análise léxica e Análise de conteúdo p.74

75 definido desde o início ou evolutivo), se a codificação será simples ou múltipla, será interativa ou de uma só passada (única), qual o grau de análise (sumária ou detalhada), qual o interesse no contexto dos dados, quais as intenções de exposição ou demonstração dos resultados (e quais necessidades de elaboração), enfim, se deseja-se uma apresentação qualitativa ou quantitativa (com números). Além da flexibilidade e da interface amigável, sempre desejáveis em um sistema, as ferramentas devem incorporar um conjunto particular de funções para realizar análise qualitativa (Figura 7): a flexibilidade diz respeito à possibilidade do programa trabalhar de diversas maneiras com seus dados, permitindo a adaptabilidade ou incremento de funções que permitam um melhor desempenho das funções requeridas para tratamento dos dados, como inclusão de macros, criação de novas rotinas, customização, adaptação, entre outros. Outra característica quase que obrigatória nos tempos atuais é a interface amigável com o usuário: quão difícil é aprender o manejo do software? Uma vez que você aprenda a trabalhar com ele, quão fácil é seu uso? O tempo e esforço requeridos para aprender e usar o programa são justificados em termos do que você está conseguindo? Quão bom é o suporte - manual, documentação, tutoriais, atendimento, helps, suporte técnico? Qualquer decisão de escolha deverá levar em conta tais questionamentos, envolvendo principalmente o pesquisador e seu trabalho como focos principais. Conhecer as necessidades e estar apto para reconhecer coisas que você irá ou não encontrar nestes softwares são fatores fundamentais nesse tipo de escolha (WEITZMAN e MILES, 1995, p.22). Da mesma forma, LEE e FIELDING (apud KELLE, 1995, p.29-40) discutem sobre aspectos inerentes à escolha de sistemas computadorizados para tal fim. Freitas & Janissek Análise léxica e Análise de conteúdo p.75

76 Caixa de título Avaliação global Estrutura de base de dados Entrada de dados Trabalhando com os dados Localização e busca Apresentação dos dados Construção de teorias Edição gráfica Interface amigável Outras oportunidades Atualização Comentários comparativos Referências sumárias Nome do sistema, sistema operacional que requer, autor, endereço, , www, preço, requisitos de hardware, etc. Apreciação sumária, como instalar e operar, com o que se assemelha, o que se pode fazer com ele, suas principais forças e características. Como o sistema organiza os seus dados. Como você insere seus dados no sistema e os prepara para análise. Como você codifica, seleciona e explora seus dados, como faz anotações, como os dados se relacionam. Como se busca e localiza itens nos dados (trechos, palavras) que necessita para análise. Como o sistema oferece os resultados, e com que recursos e métodos (tela, impressora, arquivos, etc). Como o sistema ajuda a pensar de forma sistematizada sobre os dados, desenvolver proposições ou hipóteses, testá-las, bem como gerar uma explanação coerente do que se está descobrindo. As habilidades do sistema para trabalhar com os dados e resultados de forma esquemática, interrelacionando dados e resultados. A facilidade de aprender o sistema, o suporte que o sistema oferece ao aprendizado, e a sua facilidade de uso uma vez aprendido. Qualquer aspecto de interesse e que não se encaixe em outro lugar, incluindo automação, facilitação, customização, etc. Informações recentes do autor do sistema sobre melhorias potenciais a serem implementadas, etc. Comparações com outros sistemas que podem fazer operações similares. Pontos específicos inerentes a este sistema (manual, artigos essenciais sobre seu uso,etc.). Figura 7 - Características desejáveis em um sistema de auxílio à análise de dados qualitativos. Adaptado de WEITZMAN e MILES (1995, p ) Freitas & Janissek Análise léxica e Análise de conteúdo p.76

77 WEBER (1990, p.80-82) descreve experiências embrionárias de informatização da análise de conteúdo, como também BARDIN (1996, p ). KELLE (1995) publicou uma obra com 22 colaboradores, na qual debate as questões inerentes à pesquisa qualitativa e seu instrumental, em especial o suporte computacional para análise de dados qualitativos. Algumas das principais ferramentas existentes para auxiliar a realização da Análise Léxica e da Análise de Conteúdo são as que de fato permitem, além do tratamento normal dos dados, recém descrito, aprofundar-se em vários tipos de procedimentos que gerem ou apresentem os dados de tal forma que seja possível a inferência de informações sobre os mesmos. Entre tais procedimentos, tem-se (1) as técnicas estatísticas como matrizes simétricas, diagonalização, entre outros; (2) análises de correlações e cálculos de coeficientes, regressão múltipla de dados, correlações lineares, etc; (3) análise discriminante, (4) análise de variância, entre outras que permitem o tratamento dos dados (LAGARDE, 1995; MOSCAROLA, 1990; PEREIRA, 1999). Moscarola e Lagarde são professores franceses na origem do sistema Sphinx ( em constante aperfeiçoamento por equipe franco-brasileira (hoje formada por Jean Moscarola, Yves Baulac e Henrique Freitas), e utilizado para as ilustrações da Seção 6 a seguir. No exemplo desenvolvido passo a passo, é examinada uma pesquisa com questões abertas e suas devidas análises: após uma ilustração prática inicial, desenvolvem-se alguns conceitos sobre análise léxica (com base na quantificação de palavras e expressões usadas nas respostas), a qual age como facilitador para, na sequência, realizar uma análise de conteúdo (com base em códigos e interpretações a partir das respostas). Freitas & Janissek Análise léxica e Análise de conteúdo p.77

78 6. Aplicação de análise de dados qualitativos: pesquisa sobre internet e negócios Está claro que a análise de um texto passa pelo estudo do vocabulário utilizado (LEBART e SALEM, 1994, p.247). Para ilustrar a análise de dados textuais conforme os preceitos descritos até o momento, evoluindo da Análise Léxica e tomando-a por base para a Análise de Conteúdo, é apresentada a seguir a sequência de análise de um caso. Tratam-se de dados de uma pesquisa realizada em 1999, no contexto de investigação de uma dissertação sobre a influência da Internet em negócios empresarias (JANISSEK,1999 e 2000). O levantamento de dados se deu em duas organizações (o HSA, Hospital de Caridade de Santo Ângelo, e a Mattiazzi Construções, empresa do ramo de Construção Civil de Santa Rosa, com atuação em todo o estado do RS), com 6 pessoas entrevistadas em cada uma, isto dentro de uma primeira etapa do estudo. O objetivo desta etapa era identificar categorias que definissem os elementos estudados (previamente definidos como por exemplo análise de mercado, clientes, fornecedores, custos, etc) para, numa segunda etapa, conseguir identificar quais das categorias emergentes, dentro do contexto de cada elemento, seriam de maior importância e permitiriam verificar os impactos desta tecnologia. A ferramenta de apoio utilizada para o registro das entrevistas, a gestão e preparação dos dados coletados, bem como para as análises, foi o sistema Sphinx 5. As respostas obtidas através de entrevistas, as quais foram compostas por perguntas abertas (uma para cada elemento investigado), permitiram formar o corpo de texto a ser analisado. Este 5 Sphinx ( é um sistema de concepção de pesquisas e de análise de dados quanti-qualitativos, com múltiplas possibilidades de cruzamentos e testes estatísticos, permitindo a análise léxica ou a análise de conteúdo das questões abertas tipo texto. Freitas & Janissek Análise léxica e Análise de conteúdo p.78

79 texto gerado pelas entrevistas pode ser analisado pelo seu próprio conteúdo, permitindo daí fazer emergir categorias, ou então pode ser analisado de acordo com categorias particulares já definidas (baseadas na literatura ou curiosidade de investigação), para ver se é específico de uma categoria particular de entrevistados (LAGARDE, 1995). Para ilustrar a maneira segundo a qual julgamos adequado realizar uma análise em dados deste tipo, apresenta-se a seguir uma evolução de etapas de análise, começando pela Análise Léxica e partir dela para a efetivação em melhores condições e conhecimento de causa - da Análise de Conteúdo. Nosso intuito aqui é apresentar e valorizar as idéias de sequencialidade, recorrência e complementaridade entre as duas análises (léxica e de conteúdo). Na sequência, são descritas as questões abertas da pesquisa objeto da aplicação (6.1), bem como é discutido um plano de análise de dados (6.2). As palavras e expressões são investigadas pela Análise Léxica (6.3) e as categorias são inferidas ou induzidas em dois procedimentos de Análise de Conteúdo (6.4), o que é encerrado com um aprofundamento e Análise de Correspondência (6.5). Freitas & Janissek Análise léxica e Análise de conteúdo p.79

80 6.1. As questões abertas da pesquisa A etapa de pesquisa aqui abordada continha 10 perguntas essencialmente abertas, obtendo-se 120 pequenos textos provenientes de 12 entrevistados: estes depoimentos indicam a percepção dos respondentes com relação aos 10 elementos questionados. A Figura 8 apresenta os elementos estudados, bem como algumas das colocações feitas aos respondentes na condução das entrevistas. As questões foram todas colocadas em função da Internet e da possibilidade desta interferir no desenvolvimento ou rotinas dos elementos estudados, de certa forma inerentes a questões organizacionais, de comunicação e de marketing. Freitas & Janissek Análise léxica e Análise de conteúdo p.80

81 Elemento Estudado Exemplo de colocação na entrevista para coleta da resposta ou dado aberto 1.Análise de Mercado Fale sobre sua percepção acerca de como é feita a Análise de Mercado em sua empresa e de que forma a Internet poderia auxiliar neste processo. 2.Atuação Uma vez identificadas necessidades e características do mercado onde vocês atuam, de que forma sua empresa posiciona-se para atuar? 3.Aquisição e Distribuição de De que forma é feita a Aquisição e Distribuição de Conhecimentos em Conhecimentos sua empresa e de que forma a Internet poderia auxiliar? 4.Atualização Quais os procedimentos adotados na empresa para Atualização das pessoas, tanto a nível pessoal quanto corporativo? De que forma a Internet poderia auxiliar? 5.Clientes De que forma são feitos os contatos com Clientes, tanto a nível de prestação de serviços quanto disponibilização de informações? Como a Internet poderia ser utilizada nesse sentido? 6.Fornecedores De que forma sua empresa hoje contacta com Fornecedores? Você acredita que esses contatos poderiam ser facilitados com o uso da Internet? 7.Custos Uma vez que sua empresa esteja utilizando Internet, você acredita em redução ou aumento Custos para a realização de atividades? 8.Decisão Como são embasadas as Decisões tomadas dentro da sua empresa? E de que forma você acredita que a Internet interfere ou poderia auxiliar nisso? 9.Imagem Corporativa Quais os procedimentos adotados pela empresa em relação ao estabelecimento de sua Imagem Corporativa? A Internet interfere neste processo? Como? 10.Vantagem Competitiva Você acredita que sua empresa pode obter ou manter Vantagem Competitiva estando posicionada na Internet? Figura 8 - Elementos e exemplo de questões ou colocações durante as entrevistas Freitas & Janissek Análise léxica e Análise de conteúdo p.81

82 Das 10 perguntas abertas evocadas, optou-se por desenvolver a ilustração das análises objeto deste livro com o processamento dos textos das respostas da questão nº 1, a qual diz respeito à Análise de Mercado. Serão examinadas, portanto, as respostas à seguinte questão (Figura 9): Elemento Estudado Exemplo de colocação na entrevista para coleta da resposta ou dado aberto 1.Análise de Mercado Fale sobre sua percepção acerca de como é feita a Análise de Mercado em sua empresa e de que forma a Internet poderia auxiliar neste processo. Figura 9 - O elemento tomado para exemplo das análises léxica e de conteúdo Freitas & Janissek Análise léxica e Análise de conteúdo p.82

83 Eis algumas das respostas obtidas a partir desta questão aberta (Figura 10): Respostas da Questão sobre Análise de Mercado Entrevistado 1 - quanto à concorrência hoje se faz uma análise de concorrência, mas principalmente em nível de preços, em nível de preços serviços, preços de diárias, preços de taxas, que eles estão cobrando, e essa pesquisa é feita assim ó: alguns hospitais parceiros da gente que tem uma relação mais tranquila, e que normalmente são fora de Santo Ângelo, a gente liga e pergunta os preços, pede tabela de preços, e daí a gente manda a nossa, para comparar e ver se está coerente ou não, e essa troca de informações se dá desse jeito. Para hospitais concorrentes nossos, vamos chamar assim, os de Santo Ângelo, a gente adota estratégias diferentes para verificar preços, eu peço para alguém que não tem nada a ver ligar, perguntar algum preço como se fosse se internar, ou fazer algum exame, enfim. Então é nesse sentido que a gente acompanha e monitora os preços da concorrência. Quanto a novos serviços, novos produtos, a maioria das vezes para gente conseguir novos serviços, na sua maioria eles são terceirizados, tipo tomografia, ecografia, ressonancia, essas coisas. Estamos seguidamente buscando esses novos serviços, inclusive agora a oncologia que é um serviço super importante, mas mais em nível de se conseguir profissionais para isso. A identificação dessas coisas novas se dá através de tudo um pouco, através de visitas a outros hospitais maiores, através de conversas com pessoas conhecidas, é nesse sentido que a gente procura identificar o que se está precisando, o que o público precisa, assim a gente busca novas tecnologias, novos serviços, até mesmo em nível de atendimento, mudanças de sistemáticas de atendimento a cliente, por ex. nós tínhamos um tempo atrás por exemplo uma internação só. Daí visitamos outros hospitais e vimos que faziam separado, uma para SUS e outra para convênios. Achamos legal e implantamos. A Internet nesse sentido ainda não tem sido muito usada. Há uma perspectiva inclusive pelo avanço da Internet, de cada vez mais a gente buscar informações pela Internet, principalmente agora com o programa de qualidade que a gente está implementando, nós estamos usando bastante a Internet para acessar site de outros hospitais para ver o que está sendo feito para a gente usar aqui ou até mesmo pular etapas. Entrevistado 2 - acho que o hospital não faz isso. Estamos tentando implantar isso agora com a nova administração, mas acho que não existe nada oficial assim para isso, ainda não. Ele está tentando assim trazer novos serviços para cá, estão tentando ampliar um pouquinho mais, mas o problema do hospital é que nós paramos muitos anos. Então agora assim, de 4 anos para cá que as coisas estão começando a engrenar de novo. Mas é um processo longo.... Entrevistado 12 - eu acho assim ó, sempre é positivo olhar o que o teu concorrente está fazendo, porque sempre tu vai poder trazer algo para dentro da tua empresa ou ver o que ele está fazendo, ou ver como você está em relação aos outros. Aqui na empresa a gente trabalha sempre com os olhos e ouvidos abertos ao que está sendo feito pelos outros. A Internet, especificamente, eu não uso muito, mesmo porque eu não tenho aqui na minha máquina. Quando eu preciso eu subo ali no Jonas e vejo alguma coisa junto com ele. Eu realmente espero ter logo o acesso a Internet aqui comigo logo porque daí a gente pode olhar para fora (para o mercado) não somente da forma tradicional, mas através da Internet também, que eu acho bem positivo. Eu não uso a Internet por não ter o hábito, por não ter tempo durante o expediente para fazer isso e também porque o que eu faço, essa parte financeira, está pouco ligado com a Internet. Figura 10 - Exemplos de respostas sobre Análise de Mercado Freitas & Janissek Análise léxica e Análise de conteúdo p.83

84 6.2. Como analisar os dados qualitativos? É nossa convicção que é fundamental compreender que diferentes análises podem ser realizadas a partir de uma mesma base de dados qualitativos, em especial que um mesmo dado aberto pode servir de base para diversas codificações ou análises, bem como também é fundamental que se perceba que as técnicas podem e devem ser usadas de forma complementar, possibilitando uma mais rica e convicta codificação. É, pois, necessário que se tente definir um plano de análise ou um esquema que permita ver claramente quais as etapas de análise a realizar e de que forma fazer uso combinado de técnicas e ferramentas. BARDIN (1996, p ) discute sobre a organização das atividades de análise de dados, envolvendo pré-análise, exploração do material e análise (tratamento dos resultados, inferências e interpretação). A Figura 11 ilustra um esquema que pode servir de referência para tal procedimento, com as devidas adaptações exigidas a cada caso. Na aplicação aqui ilustrada, em particular, os dados fornecidos pelos respondentes sobre a questão Análise de Mercado servem de massa bruta para diferentes enfoques de análise de dados. Inicialmente, convém ter uma rápida compreensão do conteúdo global das respostas, o que pode ser realizado através da Análise Léxica, a qual permite identificar o conjunto de todas as palavras ou expressões encontradas nos depoimentos ou respostas, cada qual com sua frequência de incidência. O resultado desta avaliação (topo ou palavras e expressões mais comumente citadas) servirá então de base para a Análise de Conteúdo, que consiste em uma leitura aprofundada de cada uma das respostas e consequente criação de um código que será registrado em um novo dado. Freitas & Janissek Análise léxica e Análise de conteúdo p.84

85 Figura 11 - Modelo para Análise de Dados Qualitativos COM =categorias assumidas a priori AC = categorias inferidas da pesquisa Freitas & Janissek Análise léxica e Análise de conteúdo p.85

86 Segundo BARDIN (1996), a Análise Léxica pode ser definida como a classificação e contabilização pormenorizada das frequências de um vocabulário. Desta forma, as palavras ou expressões podem ser agrupadas de acordo com o seu significado para subsidiar o pesquisador ou analista nesta fase de categorização. A partir disso, diferentes codificações podem ser realizadas: inferidas (que emergem do próprio texto) ou assumidas ou induzidas (que contém de alguma forma um referencial). Estas duas abordagens são detalhadas na sequência: uma delas permite extrair ou inferir dos dados textuais as principais idéias ali citadas, transformando-as em Categorias inferidas AC 6, as quais representam, no seu conjunto, o total das informações contidas, gerando neste caso o que convencionamos chamar de Tabela AC (ou Tabela de categorias inferidas AC); outra permite que, dado um conjunto pré-definido de categorias com base na literatura ou mesmo em uma suposição ou elaboração conceitual (no caso da etapa de pesquisa aqui ilustrada o protocolo assumido a priori, dito OCM 7 ), os textos sejam percorridos um a um e analisados sob o enfoque destas categorias pressupostas, permitindo ao final montar uma Tabela induzida ou, neste caso, Tabela induzida OCM, com a frequência em que tais categorias apareceram no texto. 6 Tabelas de categorias AC foram assim designadas neste artigo por se referirem ao conjunto de categorias geradas (inferidas) a partir da Análise de Conteúdo. 7 Protocolo OCM e Tabela OCM referem-se ao conjunto de categorias das dimensões estudadas na etapa da pesquisa utilizada para ilustração (JANISSEK, 2000), que após profunda revisão da literatura - são Organização, Comunicação e Marketing. Freitas & Janissek Análise léxica e Análise de conteúdo p.86

87 Como será evocado mais adiante (e já abordado conceitualmente na seção 3), há que se atentar ainda para a questão da validade e confiança das categorizações realizadas. Ao final, as categorias inferidas e induzidas (neste caso, AC e OCM) permitirão, juntamente com outros dados estudados, preencher uma grade de análise e realizar cruzamentos de dados, os quais se pressupõe possam vir a facilitar a compreensão de um certo fenômeno ou situação seja pelo pesquisador, seja pelo analista ou gerente. Freitas & Janissek Análise léxica e Análise de conteúdo p.87

88 6.3. Análise léxica dos dados abertos da pesquisa: palavras e expressões Uma das técnicas de análise de textos (seção 3.1), a Análise Léxica, permite apresentar o conjunto das palavras que compõem o corpo dos textos ou respostas de cada entrevistado, permitindo diversos tipos de contabilização e de navegação pelas respostas, o que será descrito a seguir. Um primeiro método de análise léxica consiste em averiguar ou medir a dimensão das respostas: as pessoas responderam de forma extensa ou concisa? Cria-se uma hipótese de que aqueles que deram respostas extensas têm um interesse maior do que os demais. Uma hipótese discutível que dará, porém, uma indicação (embora nem sempre a maior presença de uma palavra indica que esta tenha sido amplamente referenciada). A Figura 12 apresenta a quantidade de palavras por depoimento: os 12 entrevistados falaram 1970 palavras nos seus depoimentos sobre Análise de Mercado, mas somente 597 diferentes. Um dos depoimentos foi de somente 21 palavras, enquanto o mais extenso foi de 385, o depoimento-médio sendo de 164 palavras, com um desvio-padrão de 134 palavras. Freitas & Janissek Análise léxica e Análise de conteúdo p.88

89 AM_tamanho texto No. cit. Freq. menos de 50.0 de 50.0 a de a de a de a e acima TOTAL OBS. Mínimo= 21, Máximo= 385 Soma= 1970 Média= Desvio-padrão= % % % 1 8.3% 1 8.3% % % Figura 12 - A quantidade de palavras por depoimento Freitas & Janissek Análise léxica e Análise de conteúdo p.89

90 Na Figura 12, pode-se rapidamente notar que 7 dos 12 respondentes usaram menos de 150 palavras em seus depoimentos, 2 entre 150 e 300 e mesmo 3 com mais de 300 palavras. Cruzando esse dado com os gestores (8) e técnicos (4), verifica-se que 3 dos 4 técnicos usaram menos de 150 palavras para se expressar, ao passo que 4 dos 8 gestores usaram mais de 150 palavras para falar sobre Análise de Mercado: teriam os técnicos tendência a se expressarem menos ou seriam eles mais objetivos? Eis uma questão que poderia ser aprofundada, por exemplo. Na Figura 13, pode-se verificar que no total das 12 respostas, explorando-se todas as palavras, obtém-se alguns indicadores possibilitados pela análise léxica. Neste caso, foi usada a organização (HSA e Mattiazzi) como critério de cruzamento (poderia ser a distinção gestor técnico, ou sexo, idade...). Nota-se que o pessoal do HSA (1074 no total, em média 179 palavras) falou um pouco mais que o pessoal da Mattiazzi (896 no total, em média 149), contudo o índice de repetição do pessoal do HSA é mais elevado. Outros indicadores são oferecidos, mas seu uso teria de ser num grau de detalhe que nem sempre é explorado, depende da natureza da investigação e do interesse do analista. Freitas & Janissek Análise léxica e Análise de conteúdo p.90

91 HSA Mattiazzi Frequência da categoria 6 6 Quantidade total de palavras Comprimento médio Quantidade de palavras diferentes Quantidade de hapax Repetição média Frequência máxima Palavra mais frequente que de Peso das 148 palavras comuns 68.2% 70.1% Quantidade de palavras exclusivas Peso das palavras exclusivas 31.8% 29.9% Percentual do corpo 54.5% 45.5% Percentual de leitura 86.4% 82.7% Figura 13 - Análise Mercado: Balanço por contexto Freitas & Janissek Análise léxica e Análise de conteúdo p.91

92 Análise de palavras A análise de palavras consiste em reduzir rapidamente o corpo do texto a um conjunto de palavras que representem a sua essência. O software utilizado deve permitir a análise do conjunto de todas as palavras que compõem o corpo dos textos respondidos (neste caso, cada conjunto de 12 respostas a cada dos 10 elementos, aqui sendo utilizado apenas o elemento Análise de Mercado), permitindo assim diversos tipos de contabilização e de navegação pelas respostas. A Figura 14 apresenta o resultado da lista de palavras (coluna da esquerda), com suas respectivas frequências. São fornecidos outros cálculos de potencial interesse, como a banalidade (trivialidade ou o quão comum é a resposta em relação às outras) e a riqueza (o grau de originalidade das palavras daquela resposta). Freitas & Janissek Análise léxica e Análise de conteúdo p.92

93 Figura 14 - Interface para Análise Léxica do Sphinx Freitas & Janissek Análise léxica e Análise de conteúdo p.93

94 Embora o resumo contextual nos dê uma idéia dos tamanhos relativos das respostas e de sua riqueza de linguagem utilizada, ele ainda pode nos dar idéia do próprio conteúdo. Para tal, precisa-se retornar à lista de palavras e identificar aquelas idéias ou palavras chaves. O léxico ou conjunto de palavras pode ser reduzido manualmente ou automaticamente para torná-lo mais manejável: normalmente a redução é primeiro automática, para então ser finalizada manualmente (se necessário). A redução léxica automática é feita através de critérios de escolha estabelecidos, como por exemplo ignorar palavras com menos de 3 letras, ignorar determinadas palavras comuns, ignorar números, etc. (MOSCAROLA, 1996). Após identificar a frequência de cada das palavras do léxico (Figura 14), a partir de uma lista ordenada por frequência de todas as palavras existentes nas 12 respostas, optou-se por reduzi-las a um conjunto de dados "reais", ou de significado, ignorando, por exemplo, palavras com menos de 4 letras, e reagrupando palavras semelhantes, como por exemplo concorrência, concorrentes e concorrente. Na verdade, fez-se a chamada aproximação léxica, ou seja, retirou-se da lista ou léxico todas as palavras chamadas instrumentais (aquelas que não comunicam diretamente uma idéia ou conteúdo no sentido da análise realizada, como as preposições, os artigos, etc.) e chegou-se então a uma lista de palavras de conteúdo. Esse procedimento (sem agrupar palavras similares ainda) reduziu automaticamente o léxico, em nosso caso, partindo-se de 1970 palavras para 1135, onde 835 palavras foram suprimidas, contudo as palavras de origem (ou diferentes) que eram 597 passaram para 499, não tendo sido reduzidas tanto quanto se poderia esperar. Uma maior redução só poderia agora se dar por agrupamentos de palavras similares. Essa tarefa pode ser feita automaticamente, mas com procedimento de confirmação de grupos de palavras, tudo isso com base em raiz de tamanho n (por exemplo raiz mínima de tamanho 6 ou Freitas & Janissek Análise léxica e Análise de conteúdo p.94

95 7, pois raiz de tamanho 5 ou menor tende a agrupar palavras que normalmente não pertenceriam ao mesmo grupo). Agrupamento por raiz de tamanho 7 nos retornou 40 grupos (exemplo: hospitais, hospital e hospitalar), já um de tamanho 4 resgatou 88 grupos, mas tendo tendência a não serem confirmados, como por exemplo com comparar, complexa e comprar. Considerando por raiz 7, passou-se a ter 40 grupos automáticos, ficando então com 446 palavras compondo o léxico. Além disso, pode-se enfim partir para a ordenação de todo o léxico (lista de 446 palavras) por ordem alfabética, e então buscar marcar e reagrupar aquelas que julgamos similares. Após realizada uma cuidadosa redução através dos chamados agrupamentos, parte-se para analisar o contexto de uma determinada palavra. Já aqui se inicia, mesmo que imperceptivelmente, uma análise de conteúdo, pois se baseia fortemente na palavra para chegar até o contexto em que esta foi dita. Este procedimento é de fato interessante porque nos permite a percepção de idéias, sequências ou contexto no qual uma palavra (ou expressão, como veremos adiante) foi citada. Para exemplificar o que foi dito acima, toma-se como exemplo a palavra concorrência, que aparece (é citada) 9 vezes: mas em que contexto? Faz-se a chamada navegação léxica, que consiste em ir diretamente às respostas onde foi citada a palavra em questão (Figura 15). Pode-se exportar estas respostas para um documento em editor de texto se assim o desejar, possibilitando desta forma a edição e formatação do conteúdo em relatórios, documentos, análises, enfim. Este arquivo é chamado verbatim, que significa citação. A navegação léxica permite a restituição das respostas, organizando-as de acordo com seu conteúdo, possibilitando conhecer em que contexto e com que sentido foi empregada à palavra em questão. Pode-se ir além, marcando as palavras que dizem respeito à concorrência e analisando o contexto em que mesma foi expressa. Freitas & Janissek Análise léxica e Análise de conteúdo p.95

96 Figura 15 - O ambiente de uma palavra Freitas & Janissek Análise léxica e Análise de conteúdo p.96

97 Outro procedimento que pode ser feito é cruzar palavras com categorias de respondentes, como cargo, empresa, sexo, etc. Isso pode permitir uma leitura mais objetiva no sentido de identificar a origem de cada termo analisado. A Figura 16 apresenta um exemplo com palavras consideradas chave cruzadas com a categoria Cargo (se gestores ou técnicos), e na qual pode-se identificar por exemplo que os gestores falam mais de mercado e de serviços. BARDIN (1996, p.87) aborda em detalhe a análise das palavras mais frequentes. A unidade representada aqui é baseada nos 12 entrevistados e não na quantidade de ocorrências de cada palavrachave. A ocorrência de palavras por si só deixaria entender que Internet é citada 15 vezes por 5 entre 8 gestores e também 7 vezes por 3 entre 4 técnicos, ou então que mercado é citada 11 vezes pelos gestores (4 de 8) contra 2 vezes pelos técnicos (1 de 4), assim como serviços é uma idéia evocada 9 vezes por 4 de 8 gestores enquanto só 1 é citada por um técnico de 4, e ainda pesquisa é citada por 3 gestores de 8 e por 2 técnicos de 4 (porém 10 vezes), e enfim preço é enfatizado 9 vezes pelos gestores e nenhuma vez pelos técnicos. Análise de Mercado / Cargo Gestores (8) Técnicos (4) TOTAL Internet Novos Informações Mercado Pesquisa Serviços Concorrência Produto Figura 16 Exemplo de cruzamento de palavras-chave com cargo Freitas & Janissek Análise léxica e Análise de conteúdo p.97

98 Como demonstrado, várias são as leituras que podem ser feitas a partir de uma mesma lista do léxico. No caso aqui analisado, os cruzamentos principais estão sendo feitos pelo pesquisador entre o elemento (no caso Análise de Mercado) com cargo dos respondentes, sexo e organização. Ao final da análise de cada elemento (são 10), gerou-se uma lista de 40 a 50 palavras que mais aparecem no texto (Figura 17), a qual servirá, juntamente com a lista das expressões abordadas a seguir, para apoiar ou direcionar a Análise de Conteúdo da pesquisa em questão. De novo, na ilustração (Figura 17) aparece a indicação de quantas pessoas fizeram uso de cada palavra, e não o seu número ou quantidade de ocorrências. Acessar 1 Conseguir 1 Fornecedores 3 Observações 1 Acontecendo 2 Curiosidade 1 Identificação 1 Parceiros 2 Alterações 1 Descobrir 1 Indicativos 1 Pesquisa 5 Análise 2 Diferentes 2 Informações 5 Pessoas 5 Atendimento 1 Empreendimento 1 Internet 8 Preços 2 Atualizar 1 Empresa 6 Lançamentos 1 Produtos 4 Avanço 1 Englobando 1 Mercado 5 Qualidade 1 Benchmarking 1 Entidades 1 Monitorar 1 Relação 5 Cidade 1 Equipamentos 2 Mudanças 1 Serviços 5 Cliente 3 Especialidades 1 Necessidade 1 Tecnologia 3 Comunidade 1 Experiência 1 Negócios 1 Tendência 1 Concorrência 4 Estratégias 1 Novos 6 Verificar 1 Figura 17 - Lista das palavras e quantos entrevistados as utilizaram nas suas respostas (ordem alfabética) Freitas & Janissek Análise léxica e Análise de conteúdo p.98

99 Análise de expressões Ainda que a visão recém mostrada das simples palavras do texto nos permita perceber de forma geral seu conteúdo, a interpretação das respostas pode ser dificultada quando compreendidas fora de seu contexto (MOSCAROLA,1996). Por essa razão, é importante se fazer uma Análise de Expressões, pois permite complementar a Análise de Palavras recém descrita, identificando não somente o contexto das palavras, mas a correspondência entre palavras que apareçam juntas repetidamente dentro do corpo de um texto. Verificar as expressões ou segmentos que se repetem várias vezes no texto permite portanto uma melhor percepção da forma como tais componentes do léxico são apresentados (LEBART e SALEM, 1994, p.58-69). Tais expressões são determinadas em função do comprimento mínimo-máximo, frequência mínima dos segmentos procurados, número de palavras dentro do segmento ou a(s) palavra(s) que deve(m) imperativamente pertencer ao segmento (SPHINX, 1997; MOSCAROLA,1996). BARDIN (1996, p.194) aborda em detalhe a análise das expressões ou segmentos mais frequentes. No exemplo descrito, optou-se por encontrar expressões entre 3 e 10 palavras (e mesmo entre 2 e 10 palavras), que fossem repetidas no mínimo 2 vezes dentro do corpo do texto analisado (Figura 18): Freitas & Janissek Análise léxica e Análise de conteúdo p.99

100 Figura 18 - Opções de busca das expressões repetidas e expressões identificadas Freitas & Janissek Análise léxica e Análise de conteúdo p.100

101 As expressões identificadas foram transformadas numa lista de expressões, como a lista de palavras anteriormente ilustrada. A Figura 19 mostra os segmentos ou trechos repetidos que foram localizados nos textos das respostas da questão aberta Análise de Mercado, em ordem de ocorrências dentro do texto em análise. Além disso, é possível navegar nas observações ou efetuar uma recodificação com base nos elementos repetidos, ou seja, da mesma forma que na análise de palavras, foram reagrupadas algumas expressões que possuíam o mesmo significado (como por ex. usando Internet, utiliza Internet), agrupa-se também segmentos que tenham o mesmo significado. Com base nesse agrupamento, é gerada uma lista com as principais expressões, indicada na Figura 20. Freitas & Janissek Análise léxica e Análise de conteúdo p.101

102 Figura 19 - Lista geral de expressões Freitas & Janissek Análise léxica e Análise de conteúdo p.102

103 Figura 20 - Lista agrupada ou reduzida de expressões Freitas & Janissek Análise léxica e Análise de conteúdo p.103

104 Esta mesma lista de expressões pode ser vista sob várias perspectivas, como por exemplo em função do cargo ou perfil dos respondentes, aqui no caso enquadrados em gestores e técnicos. Outras visualizações seriam também possíveis nesse caso, como por organização ou por sexo, como já observado. Na Figura 21 a seguir, é apresentada uma divisão das expressões por cargo. Na Figura 22, apresentamos outra possibilidade também já demonstrada na análise de palavras, a navegação léxica (no caso navegação de expressões), que é a localização dentro do texto das citações analisadas e que consiste em ir diretamente às respostas onde foi citada a expressão em questão. Esta navegação permite conhecer em que contexto e com que sentido foi empregada a expressão em questão, ou seja, se a lista de expressões apresentar um termo chave, podemos rapidamente com a ajuda de uma ferramenta (ou duplo clique no mouse) descobrir palavras anteriores e posteriores em que tal expressão foi citada. Freitas & Janissek Análise léxica e Análise de conteúdo p.104

105 Figura 21 - Lista de expressões por cargo Freitas & Janissek Análise léxica e Análise de conteúdo p.105

106 Figura 22 - O ambiente de uma expressão Freitas & Janissek Análise léxica e Análise de conteúdo p.106

107 Estes são apenas alguns exemplos do tipo de navegação possível de ser feita a partir de um conjunto de textos. Tais navegações permitem explorar de várias maneiras um mesmo dado bruto de origem, permitindo dessa forma a construção de inferências que subsidiarão futuras análises ou verificações de hipóteses: os respondentes, nas expressões repetidas, evocam pesquisa de mercado, falam de forma a manifestar dúvidas ( acho, não sei, não uso ), e abordam algo sobre nível de preços, por exemplo. A lista completa das expressões, de tamanho 3 a 10, repetidas no mínimo 2 vezes, e reagrupadas em função de sua similaridade, está disposta a seguir: - abrir os olhos - acho que o hospital - da forma tradicional - está sendo feito para - feita uma pesquisa - nesse sentido a gente - nível de preços - o hospital faz - o que está acontecendo - o que está sendo feito - para dentro das empresas - para o mercado - passa pelo mundo - pela Internet a gente - pesquisa de mercado - troca de informações Tomando agora como base esta lista de expressões, e complementando-a com a lista de palavras anteriormente definida, pode-se então partir (sequencialidade) para a tentativa de criar categorias que traduzam as principais idéias dos textos dos respondentes em relação à Análise de Mercado. Ou seja, tem-se aqui um exemplo prático de como uma Análise Léxica pode facilitar nosso Freitas & Janissek Análise léxica e Análise de conteúdo p.107

108 entendimento ao pontuar palavras e expressões que apareçam mais no texto. Para a criação de categorias a partir destas listas definidas, deve-se partir para a efetiva Análise de Conteúdo, detalhada a seguir. Este procedimento deveria ser feito para cada dos 10 elementos (dos quais um é a Análise de Mercado aqui ilustrada). Freitas & Janissek Análise léxica e Análise de conteúdo p.108

109 6.4. Análise de Conteúdo das questões abertas Para a análise dos dados qualitativos, o primeiro desafio a ser enfrentado é a adequada codificação das informações. Segundo HOLSTI (apud MILES e HUBERMAN, 1994), a codificação é um processo pelo qual os dados brutos são sistematicamente transformados e agrupados em unidades que permitem uma descrição exata das características relevantes do conteúdo. A partir das principais palavras e expressões identificadas na Análise Léxica, pode ser efetuada uma Análise de Conteúdo. A realização de tais análises será feita sob as perspectivas apresentadas no início desta seção 6: criação de categorias de fato inferidas (que chamaremos aqui de categorias AC, ou seja Análise de Conteúdo com base na leitura que faz emergir categorias) e identificação da existência (ou não) de categorias assumidas ou induzidas (que chamaremos aqui de categorias OCM, ou seja Análise de Conteúdo com base num protocolo prévio baseado na literatura, cuja estrutura é a Organização, a Comunicação e o Marketing) dentro dos textos analisados, demonstrando desta forma a diversidade de exploração de uma mesma base de dados. Freitas & Janissek Análise léxica e Análise de conteúdo p.109

110 Criando ou inferindo categorias AC A primeira parte para a criação das Categorias AC consiste na leitura de cada um dos 12 textos de respostas. Tal procedimento requer que a análise léxica esteja concluída, de forma que os textos dos respondentes sejam confrontados com as listas de palavras e expressões obtidas anteriormente. Vai-se lendo o texto correspondente a cada um dos entrevistados e, a seguir, na mesma tela do sistema em uso, pode-se interpretar gradativamente o conteúdo de forma a codificar as respostas dadas. À medida que se lê o conteúdo da resposta em análise, pode-se criar as categorias de respostas ou Categorias AC. Este é um contexto no qual pode-se ler e anotar o conteúdo do que é lido, com a possibilidade de enriquecer os temas que se está interpretando. É como se fosse uma tentativa de fechar a questão, ou seja, dispor da questão aberta e espontânea, mas também criar uma nova, fechada ou com categorias de respostas correspondentes. Este procedimento requer atenção, paciência e muita seriedade por parte do pesquisador. Não são poucas as vezes que será necessário recorrer à Análise de Palavras ou Expressões, procedendo com a navegação lexical, identificando contextos em que tais citações foram ditas, por exemplo, ou até mesmo leitura e releitura de forma a ter certeza da validade das categorias que estão sendo criadas. Freitas & Janissek Análise léxica e Análise de conteúdo p.110

111 É importante ressaltar que tal procedimento é possível pela existência prévia das listas de palavras e expressões que compõem o léxico, ou seja, a complementaridade de tais procedimentos com a navegação nos textos, enfim, a busca da melhor definição de categorias somente é permitida pela sequencialidade e mesmo recorrência das análises. Para a criação de cada categoria em cada grupo de palavras, deve-se observar algumas regras básicas (BARDIN, 1996, p ; KELLE, 1995, p.24), fundamentais na sua elaboração. As categorias devem ser: Homogêneas: não misturar alhos-com-bugalhos ; cada categoria diz respeito a uma idéia central exclusiva. Exaustivas: esgotar a totalidade do texto. Praticamente todas as palavras foram classificadas, muito embora alguns termos não tenham sido passíveis de classificação. Exclusivas: um mesmo elemento do conteúdo não pode ser classificado em duas categorias diferentes. Desta forma, cada palavra pertence à somente uma categoria. Objetivas: codificadores diferentes devem chegar a resultados iguais. Cada membro da equipe realizou uma análise individual. As discordâncias foram debatidas até se chegar a uma percepção comum, procurando-se diminuir a subjetividade na análise. Adequadas ou pertinentes: as regras devem ser adaptadas ao conteúdo e ao objetivo. Freitas & Janissek Análise léxica e Análise de conteúdo p.111

112 De fato, este método de codificação representa um trabalho maçante e demorado, contudo gratificante em nossa opinião. É um método subjetivo, como a leitura pode sê-lo; é um método clássico de análise de conteúdo. Mas ao seu final, a codificação resultante é expressiva da realidade inerente àquela amostra. E a análise que se faz é com convicção e prazer de visualizar o resultado de tal esforço. Para testar a confiabilidade das categorias, alguns esforços duplicados são essenciais. Tal procedimento, para ter sua validade, deve passar pelas técnicas de confiabilidade definidas por KRIPPENDORFF (1980) e já descritas na seção 3.2, ou seja, a confiabilidade do procedimento de classificação do texto segundo algum critério, pode ser verificada (1) ao repetir o procedimento mais de uma vez pelo mesmo pesquisador (teste-reteste), (2) quando a classificação é realizada por uma outra pessoa, considerando as regras elaboradas pelo pesquisador, (3) ou pelo critério da exatidão, onde os resultados são confrontados com padrões previamente estabelecidos. O presente caso ampara-se, quando da geração das categorias, na estabilidade: o pesquisador realizou 3 categorizações dos dados, com intervalos de tempos percebidos entre estas. Foram, portanto, realizadas leitura (1 x) e releitura (2 x) por parte do pesquisador. Esta verificação foi ainda acompanhada e apoiada por um segundo analista (com titulação na área fim administração e análise de dados). Cada classificação ou categorização foi feita separadamente, isto é, não se buscou, forçosamente, utilizar as mesmas categorias para cada elemento, muito embora cada um dos 10 elementos (no caso exemplificado somente 1 elemento: Análise de Mercado) tenham tido categorias em comum com os demais, dada a própria natureza das palavras descritas pelos respondentes. Após a varredura de todos os textos das respostas, chegou-se enfim à lista completa das categorias AC para aquele elemento, conforme demonstra a Figura 23. A definição de cada uma das categorias foi feita gradativamente pelo Freitas & Janissek Análise léxica e Análise de conteúdo p.112

113 pesquisador, após leitura de cada das 12 respostas ao elemento considerado. De fato, o reteste permitiu também um aperfeiçoamento da designação de cada categoria (de cada elemento), ou mesmo o acréscimo ou exclusão de algum item. CATEGORIAS AC - ANÁLISE MERCADO Identificar novidades Obter informações Monitorar mercado Observar tendências Analisar concorrentes Atualizar informações Realizar benchmarking Descobrir oportunidades de negócios Identificar estratégias Analisar clientes e fornecedores Figura 23 Categorias Análise de Mercado Freitas & Janissek Análise léxica e Análise de conteúdo p.113

114 Após a criação das categorias, o próximo passo é a marcação das categorias em relação à cada respondente, ou seja, uma vez que categorias tenham sido identificadas, ou mesmo extraídas a partir de um dado conjunto de respostas (neste caso, 12 respostas), é necessário proceder toda uma releitura do que foi dito por cada respondente, confrontando-as com a lista de categorias criadas para aquele elemento e marcando a categoria que de fato apareça naquela resposta. A Figura 24 apresenta o início de uma codificação que evolui naturalmente à medida que se avança na leitura de cada resposta, e consequentemente a criação de novos códigos ou categorias de respostas a marcar, ou seja, em vários momentos da codificação o pesquisador vê-se compelido a alterar, criar ou até mesmo excluir categorias. Da mesma forma, se julgar necessário, o pesquisador pode alterar o texto das categorias, adequando o que for necessário. Isso normalmente é feito recorrendo-se novamente às listas de palavras, expressões e até mesmo aos textos, de forma que a marcação seja, de fato, a mais isenta possível de qualquer tipo de vício de leitura ou trabalho. Pode-se, ainda, voltar rapidamente para as primeiras observações, de forma a revisar as categorizações inicialmente marcadas, tendo assim consolidada a sua marcação. Freitas & Janissek Análise léxica e Análise de conteúdo p.114

115 Figura 24 Codificação para cada entrevistado Freitas & Janissek Análise léxica e Análise de conteúdo p.115

116 Estas categorias, na verdade, fazem emergir dos textos as principais idéias que pontuam cada um dos elementos estudados. Ao ler os textos, portanto, pode-se perceber a necessidade de ajustes de forma que a lista final das categorias possa realmente ser representativa, ou seja, indicar efetivamente as idéias principais. Claro, tais alterações são feitas, prioritariamente, pelo próprio pesquisador, sem contudo deixar de levar em consideração as opiniões e colocações de um segundo codificador (aquele que dá ao pesquisador elementos para argumentar sobre a maior ou menor confiabilidade da classificação de cada um dos dados e por consequência dos resultados). Este procedimento ampara-se na técnica da reprodutibilidade de KRIPPENDORFF (1980), onde, a partir do conjunto de categorias obtido, além do pesquisador, outro analista deve realizar a leitura de cada texto e sua classificação nas categorias propostas. Por se tratar de categorias inferidas (que emergiram do conjunto dos textos), foram criados protocolos mínimos de marcação das Categorias AC para a codificação por outro analista. Isto se deve à necessidade de melhor contextualizar o estudo e explicitar ao segundo codificador o que de fato deveria ser feito. O perfil do segundo analista é muito semelhante ao do pesquisador, em termos de formação e de atuação profissional. Este codificador recebeu, além do protocolo, uma quantidade de formulários (Figura 25) com as categorias desmarcadas, sendo um formulário para cada um dos 10 elementos, cada elemento com 12 opiniões ou respostas e cada resposta com um conjunto de categorias desmarcadas. Freitas & Janissek Análise léxica e Análise de conteúdo p.116

117 O confronto final entre tais resultados permitiu a definição final da lista de Categorias AC. Esta última etapa passou pelos procedimentos de verificação de concordância entre os codificadores em razão de um mesmo conjunto de dados (KRIPPENDORFF, 1980, p ). Figura 25 - Formulário com as categorias desmarcadas para o segundo codificador Freitas & Janissek Análise léxica e Análise de conteúdo p.117

118 Uma vez de posse dos resultados de cada codificador, foram utilizadas para verificação da reprodutibilidade as seguintes propostas, melhor detalhadas no item 3.2 deste livro, aqui exemplificadas (contadas em termos de comparação) a partir do caso estudado (Figura 26): Critério de avaliação Avaliador Pesquisador Segundo Avaliador Diferença / comentário Concordância exata com base no total de itens avaliados 23 / 120 marcadas iguais 47 / 120 não marcadas iguais 70 / 120 total iguais, sejam marcadas ou não marcadas Concordância parcial com base no total de itens marcados pelo pesquisador (ou pelos avaliadores) Concordância exata com base no total de respondentes Concordância parcial com base no total de respondentes 70 / 120 marcadas 50 / 120 não marcadas Total de respostas analisadas pelo 26 / 120 marcadas Pesquisador e pelo Segundo 94 / 120 não marcadas Avaliador : / 70 = 23 das 70 que o pesquisador marcou foram também marcadas pelo segundo avaliador. O segundo avaliador marcou 3 categorias que não foram marcadas pelo pesquisador. O pesquisador marcou 47 que o segundo avaliador não marcou. 47 / 50 = 47 de 50 que o pesquisador deixou em branco foram também deixadas em branco pelo segundo avaliador. Exatamente coincidente = 1 / 12 Coincidente (com + ou - 1 ) = 2 / 12 Coincidente (com + ou - 2 ) = 3 / 12 Coincidente (com + ou - 3 ) = 4 / 12 Figura 26 Verificação da confiabilidade AC segundo os 4 critérios adaptados por FREITAS e JANISSEK com base na literatura Freitas & Janissek Análise léxica e Análise de conteúdo p.118

119 Na Figura 26, pode-se verificar rapidamente que o pesquisador marcou 70 categorias da lista das 120 que formam o todo do elemento Análise de Mercado (10 categorias x 12 respostas), um nº bem maior que o total das categorias marcadas pelo Segundo Avaliador (26 de 120 totais). Podemos supor aqui que o Pesquisador, sendo conhecedor de causa e melhor situado em seu estudo, pôde identificar nas respostas, mesmo que nas suas entre-linhas, o que dali ele supôs serem as categorias previamente por ele criadas. O próprio fato de ter sido ele, o pesquisador, quem desenvolveu todo o estudo, revisou literatura, criou as perguntas abertas, fez a entrevista, degravou, e também fez emergir do conteúdo destas entrevistas as categorias aqui analisadas, faz que este tenha um bom domínio e maiores condições de análise e categorização, sem citar aqui a importância do conhecimento adquirido em experiências, neste estudo bastante importante. O pesquisador teve, enfim, mais firmeza para marcar. Surge aqui uma questão: a da real necessidade de esforços duplos, uma vez que um segundo avaliador, apesar de possuir em mãos um protocolo que o permita situar-se dentro do procedimento, jamais terá suficiente conhecimento de causa ou aquele sentimento de envolvimento para conduzir uma categorização e mesmo ter a clara noção e dedicação necessárias para a confiabilidade necessária. Seriam então estes esforços realizados simplesmente para justificar uma suposta verificação de resultados obtidos? Não seria o pesquisador figura suficiente para realizar e validar tais procedimentos? Vejamos mais alguns dados: Com base no indicador de concordância exata dos itens avaliados, exemplificado na Figura 26, podemos ali observar outros dados interessantes, como o nº de 23 categorias marcadas por ambos. Veja, das 26 categorias marcadas pelo segundo avaliador, 23 destas Freitas & Janissek Análise léxica e Análise de conteúdo p.119

120 são concomitantes com as marcadas pelo pesquisador. Seria isso uma simples coincidência? E ainda, que das 50 categorias não marcadas pelo pesquisador, 47 também não tenham sido marcadas pelo segundo avaliador? Desse total, de categorias marcadas e não marcadas, 70 sejam comuns? Eis algumas questões que poderiam ser aprofundadas, por exemplo. Ou isto seria um forte indicador de concordância? Julgamos que sim, especialmente constatando 58% de concordância entre os dois (70/120). Com base no indicador de concordância parcial dos itens avaliados, balizado pelo total das categorias marcadas pelo pesquisador, aqui no exemplo 70 categorias, podemos perceber que destas 70, 23 foram também marcadas pelo segundo avaliador, e que 47 das 50 que o pesquisador deixou em branco foram também deixadas em branco pelo segundo avaliador. Claro, o universo das categorias agora analisado restringe-se ao total das categorias marcadas pelo pesquisador. Este indicador vai além, mostrando também que o segundo pesquisador não concorda (será que realmente não concorda, ou sua marcação foi limitada pelo seu conhecimento?) com 47 das 70 categorias foram escolhidas pelo pesquisador. Mas somente 3 das categorias marcadas pelo segundo avaliador não coincidem com as do pesquisador. Seria este outro dado interessante? Em nosso julgamento, sim. Partindo agora para analisar não mais as categorias em si, mas a exata coincidência das categorias marcadas por resposta por cada um dos dois avaliadores, apresentamos, ainda com base nos dados da Figura 26, algumas outras verificações que podem ser percebidas, e que dizem respeito à concordância exata ou parcial com base no total de respondentes. Das 12 respostas analisadas, somente 1 das marcações realizadas pelo pesquisador e também pelo segundo avaliador coincide totalmente. Sendo flexível no critério, ou seja, permitindo coincidir fichas onde nem todas as categorias estejam Freitas & Janissek Análise léxica e Análise de conteúdo p.120

121 marcadas iguais, pode-se identificar um certo grau de concordância exata, ou seja, a codificação exatamente coincidente de 4 fichas em 12 é um argumento de validade dos dados. Contudo, muito subjetivo, considerando que se trata de categorias inferidas. De toda forma, os dados apresentados permitem aprofundar análises para dali fazer emergir algum dado interessante, objetivo buscado por todo pesquisador. Todo procedimento acima demonstrado para um elemento (Análise de Mercado) foi feito para cada um dos 10 elementos citados no início destas análises, gerando então 10 novos dados objetivos, cada qual com uma categorização e com sua respectiva validação ou confrontação. Cada confrontação significa que foi oferecida ao segundo avaliador uma listagem com a resposta de cada entrevistado para cada elemento, cada resposta sucedida de categorias validadas pelo pesquisador em teste-reteste, mas com casas de marcar em branco, as quais o segundo avaliador, no seu entendimento, marcava se fosse o caso daquela observação. A lista completa das categorias geradas pelo pesquisador para o elemento Análise de Mercado foi considerada. Na Figura 24 anterior, a resposta é do respondente nº 4, com a respectiva categorização. Este procedimento recém ilustrado é repetido para cada respondente (no total de 12) em cada um dos 10 elementos estudados. No final, é gerada uma tabela com o número de citações e o resultado das frequências de cada categoria de cada elemento, conforme ilustra a Figura 27 a seguir (onde o número de citações indica a quantidade de entrevistados enquadrados na categoria e a frequência é em relação aos 12 entrevistados). Freitas & Janissek Análise léxica e Análise de conteúdo p.121

122 Elemento Análise Mercado No. cit. Freq. Identificar novidades 11 91% Obter informações 10 83% Monitorar mercado 9 75% Observar tendências 9 75% Analisar concorrentes 8 66% Atualizar informações 8 66% Realizar benchmarking 4 33% Descobrir oportunidades de negócios 4 33% Identificar estratégias 4 33% Analisar clientes e fornecedores 3 25% TOTAL OBSERVADORES. 12 Figura 27 A classificação final das categorias do elemento Análise de Mercado, segundo pesquisador. Freitas & Janissek Análise léxica e Análise de conteúdo p.122

123 Após este tratamento todo, pode-se partir para o efetivo entendimento dos resultados. A Figura 28 apresenta as categorias que emergiram dos textos (inferidas na leitura e categorização da variável aberta texto sobre a Análise de Mercado), na frequência com que apareceram entre os 12 entrevistados: Identificar novidades Obter infos Monitorar mercado Observar tendências Analisar concorrência Atualizar infos Realizar benchmark. Descobrir oportun. negócios Identificar estratégias Analisar clientes e fornec. Figura 28 Representação gráfica das categorias mais citadas para Análise de Mercado entre os 12 entrevistados Freitas & Janissek Análise léxica e Análise de conteúdo p.123

124 Finalizadas todas as etapas da categorização, poder-se-ia então tentar tirar conclusões, cruzando-as contra outros elementos, como já evocado (cargo, sexo, organização). No caso da pesquisa em questão, além disso, esta categorização servirá de base para, considerando cada um dos 10 elementos, criar um instrumento fechado, o qual após uma série de implantações envolvendo sites web para melhoria da organização, da sua comunicação e do seu marketing - será aplicado novamente para cada um dos 12 respondentes, solicitando que os mesmos indiquem a importância ou incidência de cada um. Contudo, tal procedimento não é objeto deste texto. Freitas & Janissek Análise léxica e Análise de conteúdo p.124

125 Análise de Conteúdo induzida ou com base em protocolo assumido a priori Outro importante procedimento realizado ainda no contexto deste estudo foi a Análise de Conteúdo das Categorias OCM. As categorias OCM dizem respeito a um protocolo anteriormente criado, representativo das dimensões estudadas por JANISSEK (1999 e 2000), quais sejam a (O)rganização, sua (C)omunicação e seu (M)arketing: um protocolo pois baseado na literatura e especulações a priori do pesquisador. Esse segundo procedimento realizado, conforme introduzido no início desta seção, vem mostrar que uma mesma base de dados pode servir para várias elaborações ou para diferentes análises. Não somente é possível extrair categorias inferidas (AC) dos textos obtidos através das entrevistas, como também pode-se identificar a presença ou não de categorias que representem outras dimensões estudadas neste caso, as Categorias OCM. Ou seja, nas categorias OCM a leitura dos textos e sua subsequente marcação é feita na tentativa de verificar a existência de categorias assumidas a priori (induzidas), enquanto que as categorias AC são marcadas pela inferência de suas representações. WEBER (1990, p.37) aborda esta questão de inferência e indução. Ao contrário então do procedimento de criação de categorias (AC) já descrito na seção onde primeiramente se fizeram emergir dos textos categorias representativas e, em seguida, tais categorias foram cruzadas novamente com os textos, na tentativa de marcar aquelas ali citadas, o esforço agora é somente na direção de identificar a existência ou não das categorias pré-definidas (a partir da literatura ou de especulações mesmo do pesquisador) nos textos, sem Freitas & Janissek Análise léxica e Análise de conteúdo p.125

126 a necessidade de se fazer emergir nada destes. O protocolo OCM criado é composto por 9 categorias, assim identificadas (Figura 29): Organização-Serviços Organização-Gestão Organização-Informação Comunicação-Interna Comunicação-Externa Comunicação-Informal Comunicação-Formal Marketing-Comércio-Eletrônico Marketing-Publicidade O C M Figura 29 Os componentes do protocolo OCM para análise induzida das entrevistas em todos elementos Freitas & Janissek Análise léxica e Análise de conteúdo p.126

127 A Figura 30 ilustra o procedimento de marcação das categorias OCM, com base no texto do respondente de número 5. O perfil deste segundo analista também é o do pesquisador, em termos de formação e de atuação profissional. Este codificador recebeu, além do protocolo, uma quantidade de formulários (Figura 25) com as categorias desmarcadas, sendo 1 formulário para cada um dos 10 elementos, cada elemento com 12 opiniões ou respostas e cada resposta com 1 conjunto de categorias desmarcadas. Tais categorias são as indicadas na Figura 29. Para cada elemento (neste caso, a Análise de Mercado), cada resposta de cada entrevistado foi analisada pelo pesquisador e também por um segundo avaliador (neste caso, um outro que não aquele que codificou a parte inferida, mas ainda com mesmo perfil). Freitas & Janissek Análise léxica e Análise de conteúdo p.127

128 Figura 30 A categorização induzida Freitas & Janissek Análise léxica e Análise de conteúdo p.128

129 O resultado desta categorização apontou que, ao falar sobre Análise de Mercado, os entrevistados valorizam a questão da informação da organização (10 de 12), a comunicação externa (9 de 12), a comunicação informal (8 de 12), depois aparecendo outros aspectos (com 5 de 12), como a organizacional (gestão e serviços) e a comunicação formal. Eles não mencionaram algo mais fortemente inerente a marketing (comércio eletrônico e publicidade). Na sequência, tem-se a Figura 31, a qual mostra os dados de confrontação das avaliações do pesquisador e do segundo avaliador, de forma a dar maior poder de argumentação ao pesquisador. Freitas & Janissek Análise léxica e Análise de conteúdo p.129

130 Critério de avaliação Avaliador Pesquisador Segundo Avaliador Diferença / comentário Concordância exata com base no total de itens avaliados 29 / 108 marcadas iguais 55 / 108 não marcadas iguais 84 / 108 total iguais, sejam marcadas ou não marcadas Concordância parcial com base no total de itens marcados pelo pesquisador (ou pelos avaliadores) Concordância exata com base no total de respondentes Concordância parcial com base no total de respondentes 48 / 108 marcadas 60 / 108 não marcadas Total de respostas analisadas pelo 34 / 108 marcadas Pesquisador e pelo Segundo 74 / 108 não marcadas Avaliador : / 48 = 29 das 48 que o pesquisador marcou foram também marcadas pelo segundo avaliador. O pesquisador marcou 19 que o segundo avaliador não marcou. O segundo avaliador marcou 5 categorias que não foram marcadas pelo pesquisador. 55 / 60 = 55 de 60 que o pesquisador deixou em branco foram também deixadas em branco pelo segundo avaliador Exatamente Coincidentes = 2/12 Coincidente (com + ou - 1) = 5 / 12 Coincidente (com + ou - 2 ) = 7 / 12 Coincidente (com + ou - 3 ) = 11 / 12 Figura 31 Verificação da confiabilidade OCM segundo os 4 critérios adaptados por FREITAS e JANISSEK com base na literatura Freitas & Janissek Análise léxica e Análise de conteúdo p.130

131 Da mesma forma que a Figura 26, a Figura 31 nos apresenta alguns dados bastante interessantes, dados estes que agora estão sendo analisados não mais sobre uma base de categorias inferidas, e sim com base em categorias induzidas a priori, determinadas em função da literatura de referência. Nesta tabela, onde os dados são categorizados em função da Categorização OCM, 9 categorias compõem cada ficha apresentada aos dois avaliadores (o pesquisador sendo a primeira pessoa e o segundo avalista, enquanto replicabilidade das marcações), no total de 12 fichas - 12 respostas, gerando portanto um total de 108 categorias. Deste total, o pesquisador marcou 48, um nº aproximado ao total das categorias marcadas pelo Segundo Avaliador (34 de 108 totais). Deste total, 29 categorias foram coincidentemente marcadas pelos dois avaliadores, e 55 deixaram de ser marcadas, também por ambos. Isso nos gera um total de 84 categorias igualmente analisadas pelos dois avaliadores. Ora, isso representa um total de 77,8% de concordância sobre a mesma base avaliada (84/108), que, segundo KRIPPENDORFF (1980), indica um bom grau de acordo entre os dois pesquisadores. Também facilmente perceptível é o grau de acordo entre os avaliadores com base em seus universos determinados, exemplificado na FIGURA 31 pelo grau de concordância parcial que nos mostra que o segundo avaliador indicou 29 das 48 já indicadas pelo pesquisador, e mesmo 55 das 60 também deixadas em branco pelo pesquisador, apresentando um grau de concordância, com base no universo do pesquisador, de 84 categorias similares. Voltando a observação sobre as discordâncias entre os dois avaliadores, verifica-se que o pesquisador marcou 19 categorias que o segundo avaliador não marcou, e que este marcou apenas 5 categorias que não foram marcadas pelo pesquisador. Pode-se perceber aqui, rapidamente, um alto grau de categorias em acordo entre os avaliadores. Seria tal grau Freitas & Janissek Análise léxica e Análise de conteúdo p.131

132 de acordo um indicativo de que, pelo fato das categorias serem induzidas, ocorreria uma maior facilidade de assimilação ou aceitação, mesmo por parte do segundo avaliador, somente balizado por um protocolo que serviu para situá-lo no estudo? Sim, acreditamos que tal suposição seja verdadeira. Outros dados servem ainda para mostrar tal acordo, como por exemplo o grau de concordância exata com base no total de respondentes. Este grau nos indica (Figura 31) que 2 das 12 fichas analisadas tiveram exatamente o mesmo julgamento. Sendo novamente aqui flexível no critério, ou seja, permitindo coincidir fichas onde nem todas as categorias estejam marcadas iguais, pode-se identificar agora um alto grau de concordância exata, diferentemente do que ocorreu na categorização AC. No caso da flexibilização das fichas das OCM aqui analisadas, obtemos quase que a totalidade de acordo, chegando a 11 das 12 analisadas quando fixado em 3 o número de categorias flexíveis na análise. Ora, 11 dentre 12 fichas exatamente coincidentes é um alto argumento de validade e confiabilidade dos dados. Além disso, considerando que se tratam de categorias induzidas, tal dado representa a veracidade dos conteúdos aqui avaliados. Fazendo agora um comparativo entre a análise de categorias inferidas AC, anteriormente descrito, e a análise de categorias induzidas OCM, podemos perceber que a indução de categorias facilita a confiabilidade de uma situação ou elemento analisado. Traçando um paralelo entre as duas análises, percebemos claramente tal situação, dado que o percentual (ou número) de coincidências é notoriamente superior quando se trata de categorias induzidas OCM. É nossa suposição que sim se deve ter maior de concordância na induzida do que na inferida, visto que o protocolo assumido a priori é mais facilmente aceitável ou assimilável pelo segundo avaliador, mesmo quando este não esteja completamente engajado na pesquisa. Freitas & Janissek Análise léxica e Análise de conteúdo p.132

133 Ambas as análises aqui apresentadas permitem concluir que a duplicação de esforços pode ser importante quando do processo de investigação, pela possibilidade de aprofundar análises dos dados obtidos. Entretanto, tais esforços não podem nem devem balizar uma investigação, no sentido de amarrar o pesquisador ao processo da replicabilidade em si. Tal procedimento serviria para permitir que o pesquisador legitimasse suas conclusões ou pudesse perceber daí informações não imaginadas, elevando ao máximo a exploração dos dados. Reforça-se nossa convicção da importância cada vez maior de que o pesquisador busque aprofundar suas análises, mesmo que inicialmente isso possa parecer utópico. Essa aparente utopia da relevância da análise ou mesmo confrontação de resultados num processo de investigação permite desenvolver a capacidade de pensar, observar, relacionar, justificar, sintetizar, correlacionar e inferir, e consequentemente o processo de agir dentro de um dado contexto analisado. Freitas & Janissek Análise léxica e Análise de conteúdo p.133

134 6.5. Aprofundando a análise de dados através da Análise de Correspondência De fato, o aprofundamento das análises dos dados aqui usados como ilustração serão feitos oportunamente em outra publicação, em especial por JANISSEK 8. A Análise de Correspondência pode ser utilizada para explorar associações entre variáveis categóricas quaisquer, possibilitando a representação conjunta destas e suas relações. Dentre o conjunto de técnicas relacionadas com mapas perceptuais que permitem operar variáveis, a Análise de Correspondência merece destaque pela sua facilidade de aplicação e de interpretação, bem como pela sua versatilidade no tratamento de variáveis categóricas. Tais tipos de análises permitem que o analista visualize as proximidades, similaridades ou dissimilaridades entre os elementos estudados. Diversos autores descrevem este tipo de teste envolvendo dados qualitativos: MOSCAROLA (1990, p ), LEBART e SALEM (1994, p ), LAGARDE (1995, p e ), PEREIRA (1999,p ) e CUNHA Jr. (1997). BARDIN (1996, p.57) aborda os cruzamentos de variáveis objetivas (como a nossa classificação da amostra em gestores e técnicos) com as palavras mais frequentes. Este mesmo autor (p.190) fala da aplicação da Análise de Correspondência. A representação gráfica da Análise de Correspondência é especialmente rica em informação, permitindo que o analista depreenda, rápida e facilmente, as relações entre variáveis. O principal objetivo da Análise de Correspondência é a sintetização da massa de dados. Utilizando os procedimentos adequados de análise multidimensional de dados o pesquisador poderá poupar muitos recursos despendidos no processamento e análise dos mesmos. Estas técnicas de redução de 8 Freitas & Janissek Análise léxica e Análise de conteúdo p.134

135 dados viabilizam a exploração das variáveis disponíveis para análise. As variáveis apropriadas para a utilização deste tipo de análise são as do tipo categóricas (qualitativas), ou mesmo variáveis quantitativas que passaram por um processo de categorização. As distâncias do gráfico gerado indicam as correspondências existentes entre as categorias (LAGARDE, 1995; FREITAS e MOSCAROLA, 2000; FREITAS, 2000). O intuito seria cruzar dados para se tentar extrair daí informações que aparentemente não são explícitas numa tabela ou teste. As Figuras 32 e 33 apresentam uma visão de uma tabela que cruza as empresas ou organizações de origem (representadas por E1 e E2) e os cargos dos entrevistados (como G para gestor e T para técnico) com as categorias definidas por inferência para a Análise de Mercado: uma em forma de tabela propriamente dita e outra em forma de mapa perceptual da Análise de Correspondência. Trata-se de cruzar então variáveis objetivas (a empresa e o cargo) com uma variável que se origina de um dado completamente subjetivo, mas cuja objetividade foi buscada primeiro pelo pesquisador, depois confrontada com outro, na busca de confiabilidade. A partir daí, o que se pode construir como análise e aprendizagem é que poderá ditar o interesse de todo esse esforço de análise. Entretanto, este é apenas um exemplo do que se pode fazer com a combinação de tais técnicas de análise. Nosso intuito é apenas demonstrar que se pode buscar aprofundar a compreensão e a capacidade de análise a partir de duas visões diferentes do mesmo conjunto de dados. Basta tentar analisar a tabela e, ao mesmo tempo, tentar avaliar o que indicam as proximidades geográficas na Figura 33, indo e vindo de figura a figura (32 e 33), de forma a verificar curiosidades ou testar inferências a partir disso. Freitas & Janissek Análise léxica e Análise de conteúdo p.135

136 AC_Análise Mercado Empresa e Cargo C1 C2 C3 C4 C5 C6 C7 C8 C9 C10 TOTAL E1_G (3) E2_G (5) E1_T (3) E2_T (1) TOTAL Figura 32 Tabulação cruzada entre Empresa_Cargo (gestor ou técnico) e Categorização da Análise de Mercado (AC) Legenda: E1 = empresa 1, E2 = empresa 2, G = gestor, T = técnico C1= Categoria Identificar novidades C2= Categoria Realizar benchmarking C3= Categoria Analisar concorrentes C4= Categoria Descobrir oportun negócios C5= Categoria Identificar estratégias C6= Categoria Obter informações C7= Categoria Monitorar mercado C8= Categoria Observar tendências C9= Categoria Atualizar informações C10= Categoria Analisar clientes e fornec Freitas & Janissek Análise léxica e Análise de conteúdo p.136

137 Eixo 2 (37.6%) E2_Técnico (1) Atualizar informações Analisar concorrentes E1_Técnicos (3) E1_Gestores (3) Obter informações Monitorar mercado Eixo 1 (48.1%) Observar tendências Identificar novidades Realizar benchmarking E2_Gestores (5) Descobrir oportun negócios Identificar estratégias Analisar clientes e fornec Figura 33 Análise de Correspondência entre Empresa_Cargo (gestor ou técnico) e Categorização da Análise de Mercado (AC) Legenda: E1 = empresa 1, E2 = empresa 2, G = gestor, T = técnico Freitas & Janissek Análise léxica e Análise de conteúdo p.137

138 Com base na tabela e gráfico acima, podemos analisar informações que nos são apresentadas através da análise de correspondência entre as categorias do elemento Análise de Mercado, cruzados com variáveis de cargo dos entrevistados de cada empresa, as quais denotam curiosidades como, por exemplo, o fato de que os técnicos das duas empresas pensam mais ou menos as mesmas coisas (E1_Técnicos e E2_Técnicos), ao mesmo tempo que não dão importância à Identificação de Estratégias e Descobrir Oportunidades de Negócios. Seria este um indicativo de que Técnicos não se preocupam com dados mais administrativos da sua organização? Outro dado importante é que os Gestores da empresa 1 não falam da possibilidade de analisar clientes e fornecedores nem descobrir oportunidades de negócios através do uso da internet, enquanto que os gestores da empresa 2 dão bastante importância para isso. Seria pelo fato da empresa 2 estar mais aculturada ao uso da internet do que a empresa 1? Seria este um dado importante a ser investigado? Outras informações, tais como obter informações através da internet, monitorar mercado, observar tendências e identificar novidades recebem grande importância tanto por gestores quanto técnicos, de ambas as organizações. Estes são apenas alguns exemplos do que se pode avançar em relação à analise de uma base de dados, com o auxílio de uma ferramenta adequada que nos gere tais tabelas e/ou gráficos automaticamente, dando margem à uma análise mais fina e detalhada de dados inicialmente brutos e com pouco significado. Freitas & Janissek Análise léxica e Análise de conteúdo p.138

139 *** A proposta aqui foi apresentar algumas soluções de análises de dados qualitativos, tais como análise léxica e análise de conteúdo (e ainda outras como a aqui descrita análise de correspondência) que, uma vez aplicadas complementar, recorrente e sequencialmente, permitem no seu conjunto obter informações e chegar a um conjunto de cenários que nos possibilitem avançar, inferir, induzir e identificar tendências, influências, impactos ou o simples uso das tecnologias, situações ou contextos analisados. Freitas & Janissek Análise léxica e Análise de conteúdo p.139

140 7. Considerações Finais A realidade de boa parte de nossos pesquisadores e analistas é que eles acumulam dados em suas atividades, sem contudo explorá-los adequadamente. Normalmente, não dominam métodos, técnicas e ferramental para tal. O diferencial proporcionado pelos métodos, bem como a isenção conferida pelo pesquisador que respeita com rigor estes métodos, retratam as diferenças das competências e das intenções. Todo profissional, pesquisador, professor, executivo, gerente ou analista deve desenvolver habilidades e dominar sistemas, técnicas e métodos inerentes à cada vez maior necessidade por construção de conhecimento a partir de dados dispersos em redes locais e mesmo mundiais, assim como nas múltiplas facetas e atividades de toda organização. Considerando isto, procurou-se demonstrar técnicas para realizar análise de dados textuais, em especial as Análises Léxica e de Conteúdo, suas mazelas e as precauções inerentes, buscando repassar ao leitor condições para uma investigação prática e eficaz. Mostra-se que é viável, com o auxílio de instrumental adequado, levantar dados quanti-qualitativos e explorar informações consistentes que possam trazer respostas ágeis a muitos questionamentos que surgem no dia-adia de uma organização e mesmo no trabalho do profissional de pesquisa. As idéias aqui apresentadas mostram que as Análises Léxica e de Conteúdo não devem ser excludentes entre si, muito pelo contrário, ao utilizá-las em conjunto o pesquisador ou analista tem, nelas, diferentes análises que, juntas, podem permitir que dados sejam adequadamente explorados. Não se trata aqui de escolher entre as técnicas e sim de se dar conta de que uma e outra oferecem a possibilidade de avançar sobre os dados investigados, e aprender a Freitas & Janissek Análise léxica e Análise de conteúdo p.140

141 utilizá-las de forma sequencial, recorrendo uma a outra quando da necessidade de um entendimento maior ou definição de resultados e percebendo o valor que pode ter a compreensão e a prática da sua complementaridade. Fez-se uma discussão sobre o valor e importância da coleta e análise de dados qualitativos, apresentando conceitos de análise léxica e de análise de conteúdo, bem como exemplos da literatura e de pesquisas e sistemas realizados recorrendo a estas técnicas. Uma pesquisa essencialmente qualitativa, explorando as duas técnicas em questão na análise de dados coletados em entrevistas estruturadas (com guia de entrevista), foi descrita buscando-se ilustrar uma aplicação. A objetividade dos dados coletados em uma pesquisa não é mais suficiente para a compreensão de um fenômeno, é a subjetividade que pode permitir compreender as razões de dado comportamento ou preferência. O uso de dados qualitativos, opiniões mais espontâneas ou indiretas, permite identificar oportunidades ou antecipar problemas. Além disso, esse tipo de dado pode ser explorado mais de uma vez, constituindo-se numa fonte diferenciada para a geração de novos, diferentes e curiosos dados, os quais podem ser produzidos diretamente pelo pesquisador. As análises, bem como a sistematização de seus procedimentos, dependem muito do valor e competência do pesquisador, de forma que este possa levar a cabo sua investigação e extrair o máximo de suposições e ou conclusões a partir de um conjunto de dados ou realidade estudada: é fundamental o domínio por parte do analista (ou equipe) do tema, objeto ou foco de estudo. A análise de dados textuais é bastante intuitiva, pessoal e subjetiva, mas contém certa racionalidade, permitindo a aplicação de técnicas e o uso de sistemas na sua facilitação. Apresenta, como outros, problemas de validade, assim como a autenticidade do texto, a validade de Freitas & Janissek Análise léxica e Análise de conteúdo p.141

142 interpretação e a veracidade das afirmações de fato. Soluções para perceber e analisar a confiabilidade dos dados foram discutidas, através de 3 maneiras, que são a estabilidade, a reprodutibilidade e a exatidão. Nossa idéia é de que - nas pesquisas em SI - estas verificações sejam realizadas de forma simples, para o que revisamos e mesmo propusemos alguns indicadores com base no total de itens avaliados e com base no total de respondentes. Ao exemplificar as soluções aqui propostas através de uma pesquisa realizada sobre sites web e negócios empresariais, foi possível apresentar a sequência lógica de uma análise de dados qualitativos, descrevendo todos os passos para o plano de análise de dados e operacionalizando a idéia de que as técnicas apresentadas sejam de fato utilizadas de forma sequencial, recorrente e complementar. As palavras e expressões originadas pela pesquisa foram investigadas pela Análise Léxica e as categorias do presente estudo foram inferidas ou induzidas através dos procedimentos de Análise de Conteúdo. Durante esta análise, foi possível aplicar os 4 indicadores adaptados pelos autores a partir de literatura, visando verificar a confiabilidade dos dados, numa confrontação envolvendo uma variável cujas categorias foram inferidas a partir do conteúdo de cada entrevista, e também numa outra, cujas categorias foram definidas a priori pelo pesquisador com base na literatura e na prática gerencial. Todos estes passos foram exemplificados no intuito de mostrar o valor das idéias aqui apresentadas, baseadas no fato de que as verificações são passíveis de serem realizadas de forma descomplicada e bastante honesta, sem induzir o pesquisador a realizar manipulação de seus dados nem desviar sua atenção sobre o objeto investigado. Tal exemplificação foi finalizada com a Análise de Correspondência, utilizada para observar associações entre variáveis categóricas quaisquer, possibilitando a representação conjunta destas e Freitas & Janissek Análise léxica e Análise de conteúdo p.142

143 suas relações, num exercício de exploração dos dados da pesquisa objeto de aplicação. Nossa proposta reforce-se - é de que as duas técnicas sejam utilizadas de forma sequencial (uma após a outra), recorrente (pode-se ir e vir, deve-se mesmo ir e vir de uma a outra) e complementar (elas não são excludentes), ou seja, não se deve escolher uma ou outra, deve-se adquirir finalmente a visão de que os recursos de ambas são excelentes ferramentas na mão do analista e que ele deve fazer bom uso e não isolar uma em detrimento de outra. Freitas & Janissek Análise léxica e Análise de conteúdo p.143

144 8. Referências bibliográficas BARDIN, L. L analyse de contenu. Paris: PUF, 8. Ed.,1996. BERNARDES, R. Um estudo sobre a demanda de informações em sites Web: o caso de uma unidade de pesquisa de uma empresa de P&D para o agronegócio brasileiro. Porto Alegre: Projeto de Dissertação de Mestrado. PPGA/EA/UFRGS, ricardo@cppsul.embrapa.br, Dezembro 1999, 38 p. BICKMAN, L. & ROG, D.J. Handbook of Applied Social Research Methods. Sage Publications, BOFF, L. H. O uso da informação em ambientes de trabalho de conhecimento. Porto Alegre: Projeto de Tese. PPGA/EA/UFRGS. lhboff@vortex.ufrgs.br, Maio CRESWELL, J. W. Qualitative Inquiry and Research Design. Sage Publications, CUNHA JR. M. V. M. Análise Multidimensional de Dados Categóricos: A Aplicação das Análises de correspondência Simples e Múltipla em Marketing e Sua Integração com Técnicas de Análises de Dados Quantitativos. Porto Alegre: Caderno De Estudos - PPGA/EA/UFRGS, DOMENJOZ, P., GAVARD-PERRET, M. L., e MOSCAROLA, J. Price and communication: How do they interrelate? An analysis of car advertisements published in English. France: Actes du congrès de la AFM (Association Française du Marketing), DORNELAS, J. S. Inovações ligadas ao processo de gestão participativa e ao uso de sistemas de apoio à decisão em grupo, na direção de novas formas de estruturas organizacionais. Foz do Iguaçu: 23º ANPAD, jairo@npd.ufpe.br, Setembro, EVRARD, Y. Études et recherches en marketing. Paris: Nathan, FRANKFORT-NACHMIAS, C. & NACHMIAS,D. Research Methods in The Social Sciences. New York: St. Martin's Press, FREITAS, H. & MOSCAROLA, J. Content analyzing qualitative data on Information Systems. Baltimore, MD, EUA: Association for Freitas & Janissek Análise léxica e Análise de conteúdo p.144

145 Information Systems Americas Conference 1998, Technology research in progress, August 14-16, FREITAS, H., BECKER J.L., ZANELA, A. C., MACADAR M. A., MOSCAROLA, J. e JENKINS, M. The design process of a crosscultural exploratory quantitative-qualitative survey research project to study the decision-making process. Baltimore, MD, EUA: Association for Information Systems Americas Conference 1998, Technology research in progress, August 14-16, FREITAS, H., CUNHA Jr. M.V.M. e MOSCAROLA, J. Aplicação de sistema de software para auxílio na análise de conteúdo. São Paulo: RAUSP, v. 32, nº 3, Jul/Set. 1997, p FREITAS, H., MOSCAROLA, J., e JENKINS, M. Content and lexical analysis: a qualitative practical application. Baltimore, MD, EUA: ISRC, Merrick School of Business, University of Baltimore (MD, EUA), WP ISRC No , April p. FREITAS, H., MOSCAROLA, J., JENKINS, M., BECKER J.L., ZANELA, A. C. e MACADAR, M. A. Decision-making process, national culture, and decisional background, cross-cultural exploratory quantitativequalitative survey research project: Brazil, France and USA, some preliminary results - a report to the AIS 98. Baltimore, MD, EUA: Association for Information Systems Americas Conference 1998, Organizational research in progress. Baltimore, MD, EUA, August 14-16, 1998, 3 p. FREITAS, H.; MOSCAROLA, J. Análise de dados quantitativos e qualitativos: casos aplicados usando o Sphinx. Porto Alegre, Sphinx: 2000, 176 p. FREITAS, H. As tendências em Sistemas de Informação com base em recentes congressos. Porto Alegre: ReAd ( No.13, Jan. 2000, 20 p. FREITAS, H., CUNHA Jr., M. V. M. e MOSCAROLA, J. Pelo resgate de alguns princípios da análise de conteúdo: aplicação prática qualitativa em marketing. Angra dos Reis - RJ: Anais do 20ºENANPAD, ANPAD, Marketing, de Setembro 1996, p GRAWITZ, M. Méthodologie des Sciences Sociales. Paris: Dalloz, 1976 (chap. II, p ), and 1993 (9 ed., chap. 2, section 2, p ). 870 p. Freitas & Janissek Análise léxica e Análise de conteúdo p.145

146 GAVARD-PERRET, M.L. & MOSCAROLA, J. De l'énoncé à l'énonciation: relecture de l'analyse lexicale en marketing. Annecy, France: GEREG and CERIAM, Université de Savoie, Cahier GEREG, 1995, 34 p. GONÇALVES, L.P.F. Aplicação das técnicas de mineração de dados na administração: o caso de Três supermercados. Porto Alegre: Projeto de Dissertação de Mestrado. PPGA/EA/UFRGS. loren@aquiles.alternet.com.br, Dezembro p. JANISSEK, R. O impacto da implementação de sites Web em Negócios empresariais. Porto Alegre: Projeto de Dissertação de Mestrado. PPGA/EA/UFRGS. raquelj@portoweb.com.br, Junho JANISSEK, R. A influência da Internet em Negócios empresariais: identificação e caracterização de elementos para análise de sites. Porto Alegre: Dissertação de Mestrado. PPGA/EA/UFRGS. raquelj@portoweb.com.br, Maio JENKINS, M.; FREITAS, H.; ARSHAM, H. e equipe técnica. Preliminary report on the Assessment of the Status of the Current and Planned IT Environment, Maryland Department of Transportation (MDOT), presented to the Information technology Team. Baltimore, MD, EUA: relatório de atividade de pesquisa com 300 managers de 10 departamentos diferentes, participação como coordenador técnico de análise de dados. Baltimore, MD, EUA: ISRC, Merrick School of Business, University of Baltimore, January 22, 1998, 35 p. KELLE, U. Computer-Aided Qualitative Data Analysis: theory, methods and practice. Sage Publications, KIRK, J. & MILLER, M. Reliability and validity in qualitative research. Sage publications, KRIPPENDORFF, K. Content analysis: an introduction to its methodology. The Sage CommText Series, 1980, 191p. LAGARDE, J. Initiation à l'analyse des données. Paris: Dunod, p. LEBART, L. & SALEM, A. Statistique Textuelle. Paris: Dunod, p. LEE, A. S. LIEBENAU, J. ; DEGROSS, J. I. Information Systems and Qualitative Research. Philadelphia, USA: Proceedings ICIS, Chapman & Hall, LESCA, H. Information et Adaptation de l'entreprise. Paris: Masson, Freitas & Janissek Análise léxica e Análise de conteúdo p.146

147 LUCIANO, E. M. Mapeamento dos indicadores essenciais para diagnóstico e suporte ao processo decisório. Porto Alegre: PPGA/EA/UFRGS, emluciano@adm.ufrgs.br, Abril MASON, J. Qualitative researching. Sage, 1997, 180 p. MATTAR, F.N. Pesquisa de Marketing: edição compacta. São Paulo: Atlas, MILES, M. B. & HUBERMAN, A. M. Qualitative data analysis. Sage Publications, 1994, 338 p. MOSCAROLA, J. Balladur, Chirac, Jospin, les mots d une campagne: quelques exemples d analyse lexicone avec le Sphinx. Annecy, France: IUP, cahier du GEREG, Université de Savoie, 1995, 8 p. MOSCAROLA, J. La communication politique vue par l analyse lexicale. Annecy, France: IUP, Université de Savoie, Cahier du GEREG, n 32, MOSCAROLA, J. Discourse analysis with sphinx lexica. Annecy, France: MOSCAROLA, J. Analyse de contenu et analyse de données: solutions logiciels pour une intégration quali/quanti. Paris: Actes JADT, MOSCAROLA, J. Les actes de langage: protocoles d'enquêtes et analyse des données textuelles. Paris: Colloque Consensus Ex-Machina, La Sorbonne, April MOSCAROLA, J. Enquêtes et Analyse de donnés avec le Sphinx. Paris: Libraire Vuibert, OLIVEIRA, M. Indicadores para tomada de decisão na etapa de concepção do processo construtivo: a percepção dos principais intervenientes. Porto Alegre: Tese de Doutorado, PPGA/EA/UFRGS, PEREIRA, J. C. R. Análise de Dados Qualitativos. São Paulo: Edusp p. PERRIEN, J. CHÉRON, E.; ZINS, M. Recherche em Marketing: méthodes et décisions. Quebec, Canadá: Gaëtan Morin Éditeur, SILVERMAN, D. Interpreting Qualitative Data. Sage Publications, p. Freitas & Janissek Análise léxica e Análise de conteúdo p.147

148 SPHINX LÉXICA for Windows, Guia do usuário. Sphinx Consultoria, Brazil - website: WEBER, R.P. Basic content analysis. Sage University paper, p. WEITZMAN, E. A. e MILES, M. B. Computer programs for qualitative data analysis. Sage Publications, p. ZANELA, A. I. C. A influência da cultura nacional e da experiência decisória sobre a percepção do processo decisório individual: um estudo comparativo entre Brasil, França e Estados Unidos. Porto Alegre: Dissertação de Mestrado. PPGA/EA/UFRGS, Freitas & Janissek Análise léxica e Análise de conteúdo p.148

149 Índice Remissivo A abertas agrupamentos ambigüidade amostra aproximação autenticidade avaliação B banalidade C categorias categóricas categorização citações classificação codificação código cohen 58 coleta comparações complementaridade concordância concorrência confiabilidade confrontação contagem corpo correlações correspondência criatividade critério cruzamentos customização D dados datamining decisão decomposição dedicação definição desacordos designação 114 Freitas & Janissek Análise léxica e Análise de conteúdo p.149

150 desigualdades 60 desmarcadas desvio diagnóstico dicionários didática diferenciada dimensão dimensões direção diretrizes discordâncias dispersão 34 distinção divergências documentos E elaboração elementos emergir emissor empresa engajada enquêtes entendimento entrelinhas entrevista entrevistados equipe erro escala escolha especializados 38 especificidades espontânea essenciais estatística estratégias estrutura estudo etapa exatidão excludentes expectativa 17 expectativas experiência explicações exploração exportar 96 expressões extrair Freitas & Janissek Análise léxica e Análise de conteúdo p.150

151 F facilidade fenômeno ferramentas fichas fidedignidade flexibilidade foco formulação formulismos 58 fornecedores frequência G generalização 26 geração geradas gerentes gestão gradativa gratificante 113 gratuitamente 7 14 grau grupo H habilidades hipóteses honesta I identificação implementação implicações inconsistências indicadores induzidas inferência influência informação insights instrumental instrumento intensidade interação internet interpretação investigação isenção isenta 115 Freitas & Janissek Análise léxica e Análise de conteúdo p.151

152 J julgamento justificativas 33 L legitimidade leitura lematizado 36 levantamento léxica léxico limites 49 lineares 78 linguagem lista literatura locais localização logs 27 M material média medição medida mensagem mercado métodos métricas 59 mineração modelos modificações 67 múltipla multivariada 37 O objetividade objetivo ocorrências opções operações opinião oportunidades oposições 26 orçamento 69 ordenação 96 ordenada 95 organização originalidade Freitas & Janissek Análise léxica e Análise de conteúdo p.152

153 P padronização 70 palavras participantes 33 percepção pesquisa pesquisador população 54 possibilidade precauções 141 pressupostas propostas protocolo proximidades público Q qualidade qualitativa quantificação quantitativa quantitativas questão R reagrupadas recodificação recomendações 50 recorrência recursos redução referencial refinamento registro regras regressão 78 relação relacionamento relativos relatórios releitura relevância 134 repetição replicabilidade representatividade reprodutibilidade requisitos respostas restrições 75 Freitas & Janissek Análise léxica e Análise de conteúdo p.153

154 resultados reteste revisão rigor riqueza rotinas rubricas 47 S satisfação segmentos sequências 96 serviços significado significativa simétricas 78 similaridade simplificadas 59 sinais 32 sinônimos 34 sistemas sistemática sites subjetividade substantivos suporte T técnicas tendências teste transformações 42 tratamento triangulação 54 trivialidade U unidade universo V validação validade valor variância 78 variáveis verbatim 97 versatilidade 135 visualizações 105 vocabulário Freitas & Janissek Análise léxica e Análise de conteúdo p.154

155 Índice de Autores ARSHAM p. 68 BARDIN p BECKER p BERNARDES p. 65 BERELSON p BIRD p. 74 BOFF p. 69 CHÉRON p CRESWELL p. 24 CUNHA JR p DEGROSS p DOMENJOZ p. 68 DORNELAS p. 69 EVRARD p. 58 FRANKFORT-NACHMIAS p FREITAS p GAVARD-PERRET p GOLDSEN p. 52 GONÇALVES p. 65 GRANT p. 30 GRAWITZ p HAMMERSLEY p HUBERMAN p HOLSTI p JANIS p. 42 JANISSEK p JENKINS p KAPLAN p. 52 KEENOY p. 30 KELLE p KIRK p Freitas & Janissek Análise léxica e Análise de conteúdo p.155

156 KRIPPENDORFF p LAGARDE p LEBART p LEE p LESCA p. 21 LIEBENAU p LUCIANO p. 69 MACADAR p. 67 MASON p. 24 MILES p MILLER p MOSCAROLA p NACHMIAS p OLIVEIRA p. 68 OSWICK p. 30 PEREIRA p PERRIEN p PETRINI p. 21 PIRES p. 66 POZZEBON p. 21 PREIN p. 74 RUAS p. 66 SALEM p SILVERMAN p STUMPF p. 67 WEBER p WEITZMAN p ZANELA p. 67 ZINS P Freitas & Janissek Análise léxica e Análise de conteúdo p.156

157 Apêndice - Sistema Sphinx para pesquisas e análises de dados Freitas & Janissek Análise léxica e Análise de conteúdo p.157

158 ----- ADOTE ESTA 'IDÉIA!' no site você encontra aulas, textos, revista do HF... E ainda: Links para teses e dissertações, e-business, UFRGS, PPGA, EA, GESID, EAD, projetos e pesquisas em desenvolvimento, congressos, disciplinas, e muito, muito mais! Apoio a projetos de pesquisa: Freitas & Janissek Análise léxica e Análise de conteúdo p.158

159 Outros livros do autor: FREITAS, H e MOSCAROLA, J. Análise de dados quantitativos & qualitativos: casos aplicados usando o Sphinx. Porto Alegre/RS: Sphinx, 2000, 176 p. FREITAS, H., BECKER, J. L., KLADIS, C. M. e HOPPEN, N. Informação e decisão: sistemas de apoio e seu impacto. Porto Alegre/RS: Ed. Ortiz, 1997, 214 p. FREITAS, H. A informação como ferramenta gerencial: um telessistema de informação em marketing para o apoio à decisão. Porto Alegre - RS: Ed. ORTIZ, p. FREITAS, H. Um micro = um centro de informações. Rio de Janeiro - RJ: LTC, p. Informações pelo sphinx@portoweb.com.br Freitas & Janissek Análise léxica e Análise de conteúdo p.159

160 Sphinx Consultoria Ltda Distribuidor EXCLUSIVO dos sistemas Sphinx Único certificado e autorizado SPHINX na América Latina Rua Peru Canoas RS Brasil Fone/Fax: 0xx sphinx@portoweb.com.br Freitas & Janissek Análise léxica e Análise de conteúdo p.160

161 O Site da Sphinx Brasil Acesse o site da Sphinx Brasil. Você encontrará: DICAS sobre a utilização do Sphinx e seus módulos. DOWNLOAD de manuais, funções, demo, autodemo, dlls, drivers, etc. SUPORTE . Arquivo Sphinx DEMO, que permite instalar uma versão limitada do sistema para criar exemplos com até 5 questões e 20 questionários, ou abrir e analisar os casos cujos dados estão disponíveis para download no site. Arquivo AUTODEMO do Sphinx, que é uma apresentação eletrônica, que percorre automaticamente as funcionalidades do Sphinx (questionário, digitação e análise de dados). Descrição dos SISTEMAS Sphinx, para verificar aquele que melhor se adapta às suas necessidades. DIVERSOS ARTIGOS sobre pesquisas e análises de dados usando os sistemas Sphinx em diferentes áreas (turismo, comércio, política, saúde, engenharias, qualidade, etc). CASOS variados, exemplos e dados que podem ser abertos e analisados na versão de demo, para que se tenha melhor noção sobre o potencial uso e aplicação dos sistemas Sphinx. FLASH-MAILS periódicos, com dicas, promoções, etc. DEPOIMENTOS de clientes usuários Sphinx. Aproveite! Conecte-se com o que existe de melhor em soluções para análise de dados Freitas & Janissek Análise léxica e Análise de conteúdo p.161

Freitas & Janissek Análise léxica e Análise de conteúdo p.1

Freitas & Janissek Análise léxica e Análise de conteúdo p.1 Freitas & Janissek Análise léxica e Análise de conteúdo p.1 Sphinx sistemas para pesquisas e análises de dados Sphinx Consultoria - Distribuidor EXCLUSIVO do Sphinx Único certificado e autorizado SPHINX

Leia mais

Análise quali ou quantitativa de dados textuais?

Análise quali ou quantitativa de dados textuais? Análise quali ou quantitativa de dados textuais? Henrique Freitas (PPGA/EA/UFRGS e CNPq) Raquel Janissek-Muniz (PPGA/EA/UFRGS) A busca por informações consistentes e válidas não deve se deter somente nos

Leia mais

Prof. Dr. Guanis de Barros Vilela Junior

Prof. Dr. Guanis de Barros Vilela Junior Prof. Dr. Guanis de Barros Vilela Junior INTRODUÇÃO O que é pesquisa? Pesquisar significa, de forma bem simples, procurar respostas para indagações propostas. INTRODUÇÃO Minayo (1993, p. 23), vendo por

Leia mais

INSTITUTO FLORENCE DE ENSINO COORDENAÇÃO DE PÓS-GRADUAÇÃO CURSO DE PÓS-GRADUAÇÃO EM (TÍTULO DO PROJETO) Acadêmico: Orientador:

INSTITUTO FLORENCE DE ENSINO COORDENAÇÃO DE PÓS-GRADUAÇÃO CURSO DE PÓS-GRADUAÇÃO EM (TÍTULO DO PROJETO) Acadêmico: Orientador: INSTITUTO FLORENCE DE ENSINO COORDENAÇÃO DE PÓS-GRADUAÇÃO CURSO DE PÓS-GRADUAÇÃO EM (TÍTULO DO PROJETO) Acadêmico: Orientador: São Luis 2015 (TÍTULO DO PROJETO) (NOME DO ALUNO) Projeto de Pesquisa do Programa

Leia mais

ORIENTAÇÕES SOBRE O CONTEÚDO DO PROJETO

ORIENTAÇÕES SOBRE O CONTEÚDO DO PROJETO ORIENTAÇÕES SOBRE O CONTEÚDO DO PROJETO ESCOLHA DO TEMA - Seja cauteloso na escolha do tema a ser investigado. Opte por um tema inserido no conteúdo programático da disciplina pela qual teve a maior aptidão

Leia mais

Preparação do Trabalho de Pesquisa

Preparação do Trabalho de Pesquisa Preparação do Trabalho de Pesquisa Ricardo de Almeida Falbo Metodologia de Pesquisa Departamento de Informática Universidade Federal do Espírito Santo Pesquisa Bibliográfica Etapas do Trabalho de Pesquisa

Leia mais

MODELO DE APRESENTAÇÃO DE PROJETO DE PESQUISA

MODELO DE APRESENTAÇÃO DE PROJETO DE PESQUISA MODELO DE APRESENTAÇÃO DE PROJETO DE PESQUISA PÓS-GRADUAÇÃO EM CIÊNCIA E ENGENHARIA DE MATERIAIS Elaborado por Prof. Dr. Rodrigo Sampaio Fernandes Um projeto de pesquisa consiste em um documento no qual

Leia mais

Projeto de Graduação 1 Prof. Fabiano Dorça. Metodologia Científica

Projeto de Graduação 1 Prof. Fabiano Dorça. Metodologia Científica Projeto de Graduação 1 Prof. Fabiano Dorça Metodologia Científica Metodologia Científica Conjunto de abordagens, técnicas e processos utilizados pela ciência para formular e resolver problemas de aquisição

Leia mais

ISO 9000:2000 Sistemas de Gestão da Qualidade Fundamentos e Vocabulário. As Normas da família ISO 9000. As Normas da família ISO 9000

ISO 9000:2000 Sistemas de Gestão da Qualidade Fundamentos e Vocabulário. As Normas da família ISO 9000. As Normas da família ISO 9000 ISO 9000:2000 Sistemas de Gestão da Qualidade Fundamentos e Vocabulário Gestão da Qualidade 2005 1 As Normas da família ISO 9000 ISO 9000 descreve os fundamentos de sistemas de gestão da qualidade e especifica

Leia mais

Pré-texto. Texto. Pós-texto. Estrutura do Trabalho Final de Curso. A estrutura do Trabalho Final de Curso compreende: pré-texto, texto e pós-texto.

Pré-texto. Texto. Pós-texto. Estrutura do Trabalho Final de Curso. A estrutura do Trabalho Final de Curso compreende: pré-texto, texto e pós-texto. Estrutura do Trabalho Final de Curso A estrutura do Trabalho Final de Curso compreende: pré-texto, texto e pós-texto. Pré-texto Capa Folha de Rosto Dedicatória Agradecimentos Epígrafe Resumo Sumário Texto

Leia mais

CAPÍTULO 1 - CONTABILIDADE E GESTÃO EMPRESARIAL A CONTROLADORIA

CAPÍTULO 1 - CONTABILIDADE E GESTÃO EMPRESARIAL A CONTROLADORIA CAPÍTULO 1 - CONTABILIDADE E GESTÃO EMPRESARIAL A CONTROLADORIA Constata-se que o novo arranjo da economia mundial provocado pelo processo de globalização tem afetado as empresas a fim de disponibilizar

Leia mais

ORIENTAÇÕES AOS ACADÊMICOS BOLSISTAS PARA ELABORAÇÃO DO PROJETO DE PESQUISA SMS/RJ

ORIENTAÇÕES AOS ACADÊMICOS BOLSISTAS PARA ELABORAÇÃO DO PROJETO DE PESQUISA SMS/RJ ORIENTAÇÕES AOS ACADÊMICOS BOLSISTAS PARA ELABORAÇÃO DO PROJETO DE PESQUISA SMS/RJ OBSERVAÇÕES Todos os estagiários deverão elaborar trabalho de conclusão de estágio (edital processo seletivo da SMS),

Leia mais

Importância da normalização para as Micro e Pequenas Empresas 1. Normas só são importantes para as grandes empresas...

Importância da normalização para as Micro e Pequenas Empresas 1. Normas só são importantes para as grandes empresas... APRESENTAÇÃO O incremento da competitividade é um fator decisivo para a maior inserção das Micro e Pequenas Empresas (MPE), em mercados externos cada vez mais globalizados. Internamente, as MPE estão inseridas

Leia mais

Sugestão de Roteiro para Elaboração de Monografia de TCC

Sugestão de Roteiro para Elaboração de Monografia de TCC Sugestão de Roteiro para Elaboração de Monografia de TCC Sugerimos, para elaborar a monografia de TCC (Trabalho de Conclusão de Curso), que o aluno leia atentamente essas instruções. Fundamentalmente,

Leia mais

14 --------- Como redigir o projeto de pesquisa? 14. 1.2 Identificação

14 --------- Como redigir o projeto de pesquisa? 14. 1.2 Identificação 14 --------- Como redigir o projeto de pesquisa? 14. 1.2 Identificação Nesta primeira parte são apresentados os dados essenciais à identificação do projeto, quais sejam: a) título e subtítulo (se houver);

Leia mais

As pesquisas podem ser agrupadas de acordo com diferentes critérios e nomenclaturas. Por exemplo, elas podem ser classificadas de acordo com:

As pesquisas podem ser agrupadas de acordo com diferentes critérios e nomenclaturas. Por exemplo, elas podem ser classificadas de acordo com: 1 Metodologia da Pesquisa Científica Aula 4: Tipos de pesquisa Podemos classificar os vários tipos de pesquisa em função das diferentes maneiras pelo qual interpretamos os resultados alcançados. Essa diversidade

Leia mais

Pesquisa com Professores de Escolas e com Alunos da Graduação em Matemática

Pesquisa com Professores de Escolas e com Alunos da Graduação em Matemática Pesquisa com Professores de Escolas e com Alunos da Graduação em Matemática Rene Baltazar Introdução Serão abordados, neste trabalho, significados e características de Professor Pesquisador e as conseqüências,

Leia mais

GARANTIA DA QUALIDADE DE SOFTWARE

GARANTIA DA QUALIDADE DE SOFTWARE GARANTIA DA QUALIDADE DE SOFTWARE Fonte: http://www.testexpert.com.br/?q=node/669 1 GARANTIA DA QUALIDADE DE SOFTWARE Segundo a NBR ISO 9000:2005, qualidade é o grau no qual um conjunto de características

Leia mais

WALDILÉIA DO SOCORRO CARDOSO PEREIRA

WALDILÉIA DO SOCORRO CARDOSO PEREIRA UNIVERSIDADE DO ESTADO DO AMAZONAS PROGRAMA DE PÓS-GRADUAÇÃO EM EDUCAÇÃO E ENSINO DE CIÊNCIAS NO AMAZONAS MESTRADO PROFISSIONAL EM ENSINO DE CIÊNCIAS NO AMAZONAS WALDILÉIA DO SOCORRO CARDOSO PEREIRA PROPOSTAS

Leia mais

União do Ensino Superior de Nova Mutum - UNINOVA Nome dos acadêmicos em ordem alfabética. Orientações Sobre a Elaboração de Projetos de Pesquisa

União do Ensino Superior de Nova Mutum - UNINOVA Nome dos acadêmicos em ordem alfabética. Orientações Sobre a Elaboração de Projetos de Pesquisa União do Ensino Superior de Nova Mutum - UNINOVA Nome dos acadêmicos em ordem alfabética Orientações Sobre a Elaboração de Projetos de Pesquisa Nova Mutum MT 2012 Nome dos acadêmicos em ordem alfabética

Leia mais

Conceito de pesquisa

Conceito de pesquisa Conceito de pesquisa A pesquisa e uma atividade voltada para a solução de problemas, através do emprego de procedimentos científicos. Seus elementos são: 1. Problema ou dúvida 2. Metodo científico 3. Resposta

Leia mais

PESQUISA QUANTITATIVA e QUALITATIVA

PESQUISA QUANTITATIVA e QUALITATIVA universidade de Santa Cruz do Sul Faculdade de Serviço Social Pesquisa em Serviço Social I I PESQUISA QUANTITATIVA e QUALITATIVA BIBLIOGRAFIA: MARCONI, Marina de Andrade; LAKATOS, Eva Maria. Técnicas de

Leia mais

Tipos de Resumo. Resumo Indicativo ou Descritivo. Resumo Informativo ou Analítico

Tipos de Resumo. Resumo Indicativo ou Descritivo. Resumo Informativo ou Analítico Resumir é apresentar de forma breve, concisa e seletiva um certo conteúdo. Isto significa reduzir a termos breves e precisos a parte essencial de um tema. Saber fazer um bom resumo é fundamental no percurso

Leia mais

Ajuda ao SciEn-Produção 1. 1. O Artigo Científico da Pesquisa Experimental

Ajuda ao SciEn-Produção 1. 1. O Artigo Científico da Pesquisa Experimental Ajuda ao SciEn-Produção 1 Este texto de ajuda contém três partes: a parte 1 indica em linhas gerais o que deve ser esclarecido em cada uma das seções da estrutura de um artigo cientifico relatando uma

Leia mais

ROTEIRO PARA ELABORAÇÃO DE PROJETOS

ROTEIRO PARA ELABORAÇÃO DE PROJETOS APRESENTAÇÃO ROTEIRO PARA ELABORAÇÃO DE PROJETOS Breve histórico da instituição seguido de diagnóstico e indicadores sobre a temática abrangida pelo projeto, especialmente dados que permitam análise da

Leia mais

ELABORAÇÃO DE PROJETOS

ELABORAÇÃO DE PROJETOS Unidade II ELABORAÇÃO DE PROJETOS DE PESQUISA Profa. Eliane Gomes Rocha Pesquisa em Serviço Social As metodologias qualitativas de pesquisa são utilizadas nas Ciências Sociais e também no Serviço Social,

Leia mais

Gestão do Conhecimento A Chave para o Sucesso Empresarial. José Renato Sátiro Santiago Jr.

Gestão do Conhecimento A Chave para o Sucesso Empresarial. José Renato Sátiro Santiago Jr. A Chave para o Sucesso Empresarial José Renato Sátiro Santiago Jr. Capítulo 1 O Novo Cenário Corporativo O cenário organizacional, sem dúvida alguma, sofreu muitas alterações nos últimos anos. Estas mudanças

Leia mais

PRÓ-MATATEMÁTICA NA FORMAÇÃO DE PROFESSORES

PRÓ-MATATEMÁTICA NA FORMAÇÃO DE PROFESSORES PRÓ-MATATEMÁTICA NA FORMAÇÃO DE PROFESSORES Regina Luzia Corio de Buriasco * UEL reginaburiasco@sercomtel.com.br Magna Natália Marin Pires* UEL magna@onda.com.br Márcia Cristina de Costa Trindade Cyrino*

Leia mais

3 Metodologia e Objeto de estudo

3 Metodologia e Objeto de estudo Metodologia e Objeto de estudo 36 3 Metodologia e Objeto de estudo Neste capítulo, através da explanação da metodologia de pesquisa e do objeto de estudo, serão definidas as questões centrais de estudo,

Leia mais

No mundo atual, globalizado e competitivo, as organizações têm buscado cada vez mais, meios de se destacar no mercado. Uma estratégia para o

No mundo atual, globalizado e competitivo, as organizações têm buscado cada vez mais, meios de se destacar no mercado. Uma estratégia para o DATABASE MARKETING No mundo atual, globalizado e competitivo, as organizações têm buscado cada vez mais, meios de se destacar no mercado. Uma estratégia para o empresário obter sucesso em seu negócio é

Leia mais

A Área de Marketing no Brasil

A Área de Marketing no Brasil A Área de Marketing no Brasil Relatório consolidado das etapas qualitativa e quantitativa Job 701/08 Fevereiro/ 2009 Background e Objetivos A ABMN Associação Brasileira de Marketing & Negócios deseja

Leia mais

SUGESTÕES PARA ARTICULAÇÃO ENTRE O MESTRADO EM DIREITO E A GRADUAÇÃO

SUGESTÕES PARA ARTICULAÇÃO ENTRE O MESTRADO EM DIREITO E A GRADUAÇÃO MESTRADO SUGESTÕES PARA ARTICULAÇÃO ENTRE O MESTRADO EM DIREITO E A GRADUAÇÃO Justificativa A equipe do mestrado em Direito do UniCEUB articula-se com a graduação, notadamente, no âmbito dos cursos de

Leia mais

PROJETO DE PEQUISA CURSO: BACHAREL EM TEOLOGIA

PROJETO DE PEQUISA CURSO: BACHAREL EM TEOLOGIA PROJETO DE PEQUISA CURSO: BACHAREL EM TEOLOGIA Aluno : Período : Professor : Proposta para Orientação 1ª Opção : 2ª Opção : 3ª Opção : Aprovado em / / Assinatura Professor 1. AREA : Área do conhecimento

Leia mais

APRENDER A LER PROBLEMAS EM MATEMÁTICA

APRENDER A LER PROBLEMAS EM MATEMÁTICA APRENDER A LER PROBLEMAS EM MATEMÁTICA Maria Ignez de Souza Vieira Diniz ignez@mathema.com.br Cristiane Akemi Ishihara crisakemi@mathema.com.br Cristiane Henriques Rodrigues Chica crischica@mathema.com.br

Leia mais

universidade de Santa Cruz do Sul Faculdade de Serviço Social Pesquisa em Serviço Social I

universidade de Santa Cruz do Sul Faculdade de Serviço Social Pesquisa em Serviço Social I universidade de Santa Cruz do Sul Faculdade de Serviço Social Pesquisa em Serviço Social I ELABORAÇÃO DO PROJETO DE PESQUISA: a escolha do tema. Delimitação, justificativa e reflexões a cerca do tema.

Leia mais

Recursos Hídricos. Análise dos dados do Programa Prospectar. Anexo IV. Prospecção Tecnológica

Recursos Hídricos. Análise dos dados do Programa Prospectar. Anexo IV. Prospecção Tecnológica Centro de Gestão e Estudos Estratégicos Ciência, Tecnologia e Inovação Anexo IV Recursos Hídricos Análise dos dados do Programa Prospectar 1 Apresentação Este documento traz o resultado de análise realizada

Leia mais

A IMPORTÂNCIA DA GESTÃO DE CUSTOS NA ELABORAÇÃO DO PREÇO DE VENDA

A IMPORTÂNCIA DA GESTÃO DE CUSTOS NA ELABORAÇÃO DO PREÇO DE VENDA 553 A IMPORTÂNCIA DA GESTÃO DE CUSTOS NA ELABORAÇÃO DO PREÇO DE VENDA Irene Caires da Silva 1, Tamires Fernanda Costa de Jesus, Tiago Pinheiro 1 Docente da Universidade do Oeste Paulista UNOESTE. 2 Discente

Leia mais

AULA 11 Desenhos, recursos e obstáculos

AULA 11 Desenhos, recursos e obstáculos 1 AULA 11 Desenhos, recursos e obstáculos Ernesto F. L. Amaral 15 de abril de 2010 Metodologia (DCP 033) Fonte: Flick, Uwe. 2009. Desenho da pesquisa qualitativa. Porto Alegre: Artmed. pp.57-73 & 75-85.

Leia mais

FACULDADE DE ADMINISTRAÇÃO E NEGÓCIOS - FAN CEUNSP SALTO /SP CURSO DE TECNOLOGIA EM MARKETING TRABALHO INTERDISCIPLINAR

FACULDADE DE ADMINISTRAÇÃO E NEGÓCIOS - FAN CEUNSP SALTO /SP CURSO DE TECNOLOGIA EM MARKETING TRABALHO INTERDISCIPLINAR APRESENTAÇÃO DO TI O Trabalho Interdisciplinar é um projeto desenvolvido ao longo dos dois primeiros bimestres do curso. Os alunos tem a oportunidade de visualizar a unidade da estrutura curricular do

Leia mais

1 COMO ENCAMINHAR UMA PESQUISA 1.1 QUE É PESQUISA

1 COMO ENCAMINHAR UMA PESQUISA 1.1 QUE É PESQUISA 1 COMO ENCAMINHAR UMA PESQUISA 1.1 QUE É PESQUISA Procedimento racional e sistemático que tem por objetivo proporcionar respostas aos problemas que são propostos. Requerida quando não se dispõe de informação

Leia mais

Mídias sociais como apoio aos negócios B2C

Mídias sociais como apoio aos negócios B2C Mídias sociais como apoio aos negócios B2C A tecnologia e a informação caminham paralelas à globalização. No mercado atual é simples interagir, aproximar pessoas, expandir e aperfeiçoar os negócios dentro

Leia mais

INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE GOIÁS LICENCIATURA PLENA EM QUÍMICA. Nome do(s) autor(es)

INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE GOIÁS LICENCIATURA PLENA EM QUÍMICA. Nome do(s) autor(es) 1 INSTITUTO FEDERAL DE EDUCAÇÃO, CIÊNCIA E TECNOLOGIA DE GOIÁS LICENCIATURA PLENA EM QUÍMICA Nome do(s) autor(es) TÍTULO DO TRABALHO: SUBTÍTULO (SE HOUVE) LOCAL Ano 2 Nome do(s) autor(es) TÍTULO DO TRABALHO:

Leia mais

União do Ensino Superior de Nova Mutum - UNINOVA Nome dos acadêmicos em ordem alfabética. Orientações Sobre a Elaboração de Projetos de Pesquisa

União do Ensino Superior de Nova Mutum - UNINOVA Nome dos acadêmicos em ordem alfabética. Orientações Sobre a Elaboração de Projetos de Pesquisa União do Ensino Superior de Nova Mutum - UNINOVA Nome dos acadêmicos em ordem alfabética Orientações Sobre a Elaboração de Projetos de Pesquisa Nova Mutum 2009 Nome dos acadêmicos em ordem alfabética Orientações

Leia mais

CEAP CENTRO DE ENSINO SUPERIOR DO AMAPÁ CURSO DE ADMINISTRAÇÃO DISCIPLINA COMÉRCIO ELETRÔNICO PROF. CÉLIO CONRADO

CEAP CENTRO DE ENSINO SUPERIOR DO AMAPÁ CURSO DE ADMINISTRAÇÃO DISCIPLINA COMÉRCIO ELETRÔNICO PROF. CÉLIO CONRADO Contexto e objetivos CEAP CENTRO DE ENSINO SUPERIOR DO AMAPÁ CURSO DE ADMINISTRAÇÃO DISCIPLINA COMÉRCIO ELETRÔNICO PROF. CÉLIO CONRADO O desenvolvimento do plano de negócios, como sistematização das idéias

Leia mais

FATEC Cruzeiro José da Silva. Ferramenta CRM como estratégia de negócios

FATEC Cruzeiro José da Silva. Ferramenta CRM como estratégia de negócios FATEC Cruzeiro José da Silva Ferramenta CRM como estratégia de negócios Cruzeiro SP 2008 FATEC Cruzeiro José da Silva Ferramenta CRM como estratégia de negócios Projeto de trabalho de formatura como requisito

Leia mais

ANÁLISE DA ATUAÇÃO DO LÍDER NO SETOR DE SERVIÇO SOCIAL DA UNIDADE DE PRONTO ATENDIMENTO CONCHECITA CIARLINI MOSSORÓ/RN

ANÁLISE DA ATUAÇÃO DO LÍDER NO SETOR DE SERVIÇO SOCIAL DA UNIDADE DE PRONTO ATENDIMENTO CONCHECITA CIARLINI MOSSORÓ/RN 25 a 28 de Outubro de 2011 ISBN 978-85-8084-055-1 ANÁLISE DA ATUAÇÃO DO LÍDER NO SETOR DE SERVIÇO SOCIAL DA UNIDADE DE PRONTO ATENDIMENTO CONCHECITA CIARLINI MOSSORÓ/RN Paula Gurgel Dantas 1, Andréa Kaliany

Leia mais

Estratégia de TI. Posicionamento Estratégico da TI: como atingir o alinhamento com o negócio. Conhecimento em Tecnologia da Informação

Estratégia de TI. Posicionamento Estratégico da TI: como atingir o alinhamento com o negócio. Conhecimento em Tecnologia da Informação Conhecimento em Tecnologia da Informação Conhecimento em Tecnologia da Informação Estratégia de TI Posicionamento Estratégico da TI: como atingir o alinhamento com o negócio 2011 Bridge Consulting Apresentação

Leia mais

PLANEJAMENTO ESTRATÉGICO

PLANEJAMENTO ESTRATÉGICO PLANEJAMENTO ESTRATÉGICO Este material resulta da reunião de fragmentos do módulo I do Curso Gestão Estratégica com uso do Balanced Scorecard (BSC) realizado pelo CNJ. 1. Conceitos de Planejamento Estratégico

Leia mais

Como agregar valor durante o processo de auditoria

Como agregar valor durante o processo de auditoria QSP Informe Reservado Nº 55 Fevereiro/2006 Como agregar valor durante o processo de auditoria Tradução para o português especialmente preparada para os Associados ao QSP. Este guindance paper foi elaborado

Leia mais

A Descrição do Produto ou Serviço e a Análise do Mercado e dos Competidores Fabiano Marques

A Descrição do Produto ou Serviço e a Análise do Mercado e dos Competidores Fabiano Marques A Descrição do Produto ou Serviço e a Análise do Mercado e dos Competidores Fabiano Marques "O plano de negócios é o cartão de visitas do empreendedor em busca de financiamento". (DORNELAS, 2005) A partir

Leia mais

Martina Rillo Otero A importância do processo de avaliação. Existem muitas definições para avaliação, não existe uma única.

Martina Rillo Otero A importância do processo de avaliação. Existem muitas definições para avaliação, não existe uma única. Grupo de Estudos de Voluntariado Empresarial Avaliação, Monitoramento e Impacto no Programa de Voluntariado Empresarial: Teoria e Prática 25/11/14 Martina Rillo Otero A importância do processo de avaliação

Leia mais

A Importância do CRM nas Grandes Organizações Brasileiras

A Importância do CRM nas Grandes Organizações Brasileiras A Importância do CRM nas Grandes Organizações Brasileiras Por Marcelo Bandeira Leite Santos 13/07/2009 Resumo: Este artigo tem como tema o Customer Relationship Management (CRM) e sua importância como

Leia mais

Aumente sua velocidade e flexibilidade com a implantação da nuvem gerenciada de software da SAP

Aumente sua velocidade e flexibilidade com a implantação da nuvem gerenciada de software da SAP Parceiros de serviços em nuvem gerenciada Aumente sua velocidade e flexibilidade com a implantação da nuvem gerenciada de software da SAP Implemente a versão mais recente do software da SAP de classe mundial,

Leia mais

Empreendedorismo. Tópico 4 Plano de Negócios: Visão Geral

Empreendedorismo. Tópico 4 Plano de Negócios: Visão Geral Empreendedorismo Tópico 4 Plano de Negócios: Visão Geral Conteúdo 1. Objetivos do Encontro... 3 2. Introdução... 3 3. Planejar. Por quê?... 3 4. O Plano é produto do empreendedor... 4 5. Estrutura do Plano

Leia mais

Plano de Marketing. Introdução (breve) ao Marketing Análise de Mercado Estratégias de Marketing

Plano de Marketing. Introdução (breve) ao Marketing Análise de Mercado Estratégias de Marketing Plano de Marketing Introdução (breve) ao Marketing Análise de Mercado Estratégias de Marketing 1 Plano de Marketing É o resultado de um processo de planejamento. Define o quevai ser vendido, por quanto,

Leia mais

CÓDIGO CRÉDITOS PERÍODO PRÉ-REQUISITO TURMA ANO INTRODUÇÃO

CÓDIGO CRÉDITOS PERÍODO PRÉ-REQUISITO TURMA ANO INTRODUÇÃO PONTIFÍCIA UNIVERSIDADE CATÓLICA DE GOIÁS ESCOLA DE GESTÃO E NEGÓCIOS CURSO DE CIÊNCIAS CONTÁBEIS, ADMINISTRAÇÃO E ECONOMIA DISCIPLINA: ESTRUTURA E ANÁLISE DE CUSTO CÓDIGO CRÉDITOS PERÍODO PRÉ-REQUISITO

Leia mais

Sistemas de Gerenciamento do Relacionamento com o Cliente (Customer Relationship Management CRM)

Sistemas de Gerenciamento do Relacionamento com o Cliente (Customer Relationship Management CRM) CRM Definição De um modo muito resumido, pode definir-se CRM como sendo uma estratégia de negócio que visa identificar, fazer crescer, e manter um relacionamento lucrativo e de longo prazo com os clientes.

Leia mais

MARKETING DE RELACIONAMENTO UMA FERRAMENTA PARA AS INSTITUIÇÕES DE ENSINO SUPERIOR: ESTUDO SOBRE PORTAL INSTITUCIONAL

MARKETING DE RELACIONAMENTO UMA FERRAMENTA PARA AS INSTITUIÇÕES DE ENSINO SUPERIOR: ESTUDO SOBRE PORTAL INSTITUCIONAL MARKETING DE RELACIONAMENTO UMA FERRAMENTA PARA AS INSTITUIÇÕES DE ENSINO SUPERIOR: ESTUDO SOBRE PORTAL INSTITUCIONAL Prof. Dr. José Alberto Carvalho dos Santos Claro Mestrado em Gestão de Negócios Universidade

Leia mais

Marcos Antonio Lima de Oliveira, MSc Quality Engineer ASQ/USA Diretor da ISOQUALITAS www.qualitas.eng.br qualitas@qualitas.eng.

Marcos Antonio Lima de Oliveira, MSc Quality Engineer ASQ/USA Diretor da ISOQUALITAS www.qualitas.eng.br qualitas@qualitas.eng. 01. O QUE SIGNIFICA A SIGLA ISO? É a federação mundial dos organismos de normalização, fundada em 1947 e contanto atualmente com 156 países membros. A ABNT é representante oficial da ISO no Brasil e participou

Leia mais

Sistema para Visualização dos Resultados de Pesquisas de Clima Organizacional. PERSPECTIVA Consultores Associados Ltda.

Sistema para Visualização dos Resultados de Pesquisas de Clima Organizacional. PERSPECTIVA Consultores Associados Ltda. PERSPECTIVA Consultores Associados Ltda. Sistema para Visualização dos Resultados de Pesquisas de Clima Organizacional Manual do Usuário Este documento é de autoria da PERSPECTIVA Consultores Associados

Leia mais

NOME COMPLETO DA SUA INSTITUIÇÃO. Nome completo do integrante A Nome completo do integrante B Nome completo do integrante C

NOME COMPLETO DA SUA INSTITUIÇÃO. Nome completo do integrante A Nome completo do integrante B Nome completo do integrante C NOME COMPLETO DA SUA INSTITUIÇÃO Nome completo do integrante A Nome completo do integrante B Nome completo do integrante C TÍTULO DO TRABALHO: subtítulo, se houver Santa Rita do Sapucaí 2015 Nome completo

Leia mais

O Trabalho escrito atenderá ao disposto no Manual de Normatização de Projetos Finais da ESAMC.

O Trabalho escrito atenderá ao disposto no Manual de Normatização de Projetos Finais da ESAMC. Plano de Ensino CURSO: MBA Regular - Negócios Internacionais DISCIPLINA: Plano de Internacionalização Banca Final Última revisão: Abril/2015 Horas-aula: Orientação do projeto: 30 Desenvolvimento do projeto:

Leia mais

PROJETO DE PESQUISA: passo a passo

PROJETO DE PESQUISA: passo a passo UNIVERSIDADE ESTADUAL DE SANTA CRUZ PROFª MSC. RITA LÍRIO DE OLIVEIRA PROJETO DE PESQUISA: passo a passo ILHÉUS - BAHIA 2013 PROFª MSC. RITA LÍRIO DE OLIVEIRA PROJETO DE PESQUISA: passo a passo Módulo

Leia mais

Vendas - Cursos. Curso Completo de Treinamento em Vendas com Eduardo Botelho - 15 DVDs

Vendas - Cursos. Curso Completo de Treinamento em Vendas com Eduardo Botelho - 15 DVDs Vendas - Cursos Curso Completo de Treinamento em Vendas com - 15 DVDs O DA VENDA Esta palestra mostra de maneira simples e direta como planejar o seu trabalho e, também, os seus objetivos pessoais. Através

Leia mais

CAPÍTULO 5 CONCLUSÕES, RECOMENDAÇÕES E LIMITAÇÕES. 1. Conclusões e Recomendações

CAPÍTULO 5 CONCLUSÕES, RECOMENDAÇÕES E LIMITAÇÕES. 1. Conclusões e Recomendações 153 CAPÍTULO 5 CONCLUSÕES, RECOMENDAÇÕES E LIMITAÇÕES 1. Conclusões e Recomendações Um Estudo de Caso, como foi salientado no capítulo Metodologia deste estudo, traz à baila muitas informações sobre uma

Leia mais

Estruturando o modelo de RH: da criação da estratégia de RH ao diagnóstico de sua efetividade

Estruturando o modelo de RH: da criação da estratégia de RH ao diagnóstico de sua efetividade Estruturando o modelo de RH: da criação da estratégia de RH ao diagnóstico de sua efetividade As empresas têm passado por grandes transformações, com isso, o RH também precisa inovar para suportar os negócios

Leia mais

FLUXOGRAMA DA PESQUISA

FLUXOGRAMA DA PESQUISA FLUXOGRAMA DA PESQUISA Desde a preparação até a apresentação de um relatório de pesquisa estão envolvidas diferentes etapas. Algumas delas são concomitantes; outras são interpostas. O fluxo que ora se

Leia mais

Indicadores de Rendimento do Voluntariado Corporativo

Indicadores de Rendimento do Voluntariado Corporativo Indicadores de Rendimento do Voluntariado Corporativo Avaliação desenvolvida por Mónica Galiano e Kenn Allen, publicado originalmente no livro The Big Tent: Corporate Volunteering in the Global Age. Texto

Leia mais

Empresa como Sistema e seus Subsistemas. Professora Cintia Caetano

Empresa como Sistema e seus Subsistemas. Professora Cintia Caetano Empresa como Sistema e seus Subsistemas Professora Cintia Caetano A empresa como um Sistema Aberto As organizações empresariais interagem com o ambiente e a sociedade de maneira completa. Uma empresa é

Leia mais

AFINAL, O QUE É ESSA TAL OUVIDORIA?

AFINAL, O QUE É ESSA TAL OUVIDORIA? AFINAL, O QUE É ESSA TAL OUVIDORIA? Hélio José Ferreira e Hilma Araújo dos Santos * O título provocativo dessa matéria reflete uma situação peculiar pela qual vem passando as ouvidorias no Brasil, que

Leia mais

O papel do CRM no sucesso comercial

O papel do CRM no sucesso comercial O papel do CRM no sucesso comercial Escrito por Gustavo Paulillo Você sabia que o relacionamento com clientes pode ajudar sua empresa a ter mais sucesso nas vendas? Ter uma equipe de vendas eficaz é o

Leia mais

CHECK - LIST - ISO 9001:2000

CHECK - LIST - ISO 9001:2000 REQUISITOS ISO 9001: 2000 SIM NÃO 1.2 APLICAÇÃO A organização identificou as exclusões de itens da norma no seu manual da qualidade? As exclusões são relacionadas somente aos requisitos da sessão 7 da

Leia mais

3 Metodologia 3.1. Tipo de pesquisa

3 Metodologia 3.1. Tipo de pesquisa 3 Metodologia 3.1. Tipo de pesquisa Escolher o tipo de pesquisa a ser utilizado é um passo fundamental para se chegar a conclusões claras e responder os objetivos do trabalho. Como existem vários tipos

Leia mais

ENTENDENDO MELHOR PESQUISA DE MARKETING

ENTENDENDO MELHOR PESQUISA DE MARKETING ENTENDENDO MELHOR PESQUISA DE MARKETING Definições clássicas de Pesquisa de Marketing: "Investigação sistemática, controlada, empírica e crítica de dados com o objetivo de descobrir e/ou descrever fatos,

Leia mais

APLICACAÇÃO DE METRICAS E INDICADORES NO MODELO DE REFERENCIA CMMI-Dev NIVEL 2

APLICACAÇÃO DE METRICAS E INDICADORES NO MODELO DE REFERENCIA CMMI-Dev NIVEL 2 APLICACAÇÃO DE METRICAS E INDICADORES NO MODELO DE REFERENCIA CMMI-Dev NIVEL 2 Renan J. Borges 1, Késsia R. C. Marchi 1 1 Universidade Paranaense (UNIPAR) Paranavaí, PR Brasil renanjborges@gmail.com, kessia@unipar.br

Leia mais

Governança de TI. ITIL v.2&3. parte 1

Governança de TI. ITIL v.2&3. parte 1 Governança de TI ITIL v.2&3 parte 1 Prof. Luís Fernando Garcia LUIS@GARCIA.PRO.BR ITIL 1 1 ITIL Gerenciamento de Serviços 2 2 Gerenciamento de Serviços Gerenciamento de Serviços 3 3 Gerenciamento de Serviços

Leia mais

ATIVIDADES PRÁTICAS SUPERVISIONADAS

ATIVIDADES PRÁTICAS SUPERVISIONADAS ATIVIDADES PRÁTICAS SUPERVISIONADAS 1ª série Empreendedorismo Administração A atividade prática supervisionada (ATPS) é um método de ensino-aprendizagem desenvolvido por meio de um conjunto de atividades

Leia mais

Empreenda! 9ª Edição Roteiro de Apoio ao Plano de Negócios. Preparamos este roteiro para ajudá-lo (a) a desenvolver o seu Plano de Negócios.

Empreenda! 9ª Edição Roteiro de Apoio ao Plano de Negócios. Preparamos este roteiro para ajudá-lo (a) a desenvolver o seu Plano de Negócios. Empreenda! 9ª Edição Roteiro de Apoio ao Plano de Negócios Caro (a) aluno (a), Preparamos este roteiro para ajudá-lo (a) a desenvolver o seu Plano de Negócios. O Plano de Negócios deverá ter no máximo

Leia mais

O Marketing Educacional aplicado às Instituições de Ensino Superior como ferramenta de competitividade. Xxxxxx Xxxx Xxxxxxx Xxxxxxx Xxxxxxxxxxx

O Marketing Educacional aplicado às Instituições de Ensino Superior como ferramenta de competitividade. Xxxxxx Xxxx Xxxxxxx Xxxxxxx Xxxxxxxxxxx O Marketing Educacional aplicado às Instituições de Ensino Superior como ferramenta de competitividade Xxxxxx Xxxx Xxxxxxx Xxxxxxx Xxxxxxxxxxx Araçatuba SP 2012 O Marketing Educacional aplicado às Instituições

Leia mais

PLANEJAMENTO DA MANUFATURA

PLANEJAMENTO DA MANUFATURA 58 FUNDIÇÃO e SERVIÇOS NOV. 2012 PLANEJAMENTO DA MANUFATURA Otimizando o planejamento de fundidos em uma linha de montagem de motores (II) O texto dá continuidade à análise do uso da simulação na otimização

Leia mais

RESUMO RESENHA E RIO. LIP - Profa. KATIUSCIA

RESUMO RESENHA E RIO. LIP - Profa. KATIUSCIA RESUMO RESENHA E RELATÓRIO RIO LIP - Profa. KATIUSCIA QUANDO SE FALA EM PESQUISA, TRABALHO, O QUE VOCÊ PENSA??? Grupo de 4 pessoas Tempo: alguns dias para a elaboração 15 minutos apresentação (cada grupo)

Leia mais

11 de maio de 2011. Análise do uso dos Resultados _ Proposta Técnica

11 de maio de 2011. Análise do uso dos Resultados _ Proposta Técnica 11 de maio de 2011 Análise do uso dos Resultados _ Proposta Técnica 1 ANÁLISE DOS RESULTADOS DO SPAECE-ALFA E DAS AVALIAÇÕES DO PRÊMIO ESCOLA NOTA DEZ _ 2ª Etapa 1. INTRODUÇÃO Em 1990, o Sistema de Avaliação

Leia mais

ESCOLA, LEITURA E A INTERPRETAÇÃO TEXTUAL- PIBID: LETRAS - PORTUGUÊS

ESCOLA, LEITURA E A INTERPRETAÇÃO TEXTUAL- PIBID: LETRAS - PORTUGUÊS ESCOLA, LEITURA E A INTERPRETAÇÃO TEXTUAL- PIBID: LETRAS - PORTUGUÊS RESUMO Juliana Candido QUEROZ (Bolsista) 1 ; Natália SILVA (Bolsista) 2, Leila BRUNO (Supervisora) 3 ; Sinval Martins S. FILHO (Coordenador)

Leia mais

CONCURSO PÚBLICO ANALISTA DE SISTEMA ÊNFASE GOVERNANÇA DE TI ANALISTA DE GESTÃO RESPOSTAS ESPERADAS PRELIMINARES

CONCURSO PÚBLICO ANALISTA DE SISTEMA ÊNFASE GOVERNANÇA DE TI ANALISTA DE GESTÃO RESPOSTAS ESPERADAS PRELIMINARES CELG DISTRIBUIÇÃO S.A EDITAL N. 1/2014 CONCURSO PÚBLICO ANALISTA DE GESTÃO ANALISTA DE SISTEMA ÊNFASE GOVERNANÇA DE TI RESPOSTAS ESPERADAS PRELIMINARES O Centro de Seleção da Universidade Federal de Goiás

Leia mais

Um produto para jogar um conteúdo matemático e estudar um jogo social

Um produto para jogar um conteúdo matemático e estudar um jogo social Um produto para jogar um conteúdo matemático e estudar um jogo social 1 2 SUMÁRIO 1 INTRODUÇÃO... 3 2 OBJETIVOS... 4 3 DESENVOLVIMENTO... 5 4 CONCLUSÃO... 11 5 REFERÊNCIA... 11 TABELA DE FIGURAS Figura

Leia mais

Análise do Conteúdo e a Análise Documental

Análise do Conteúdo e a Análise Documental Análise do Conteúdo e a Análise Documental P R O F A. L I L L I A N A L V A R E S F A C U L D A D E D E C I Ê N C I A D A I N F O R M A Ç Ã O U N I V E R S I D A D E D E B R A S Í L I A Conceito Conceito

Leia mais

Objetivos da aula. Definição de Consultoria 1. Processos Gerenciais

Objetivos da aula. Definição de Consultoria 1. Processos Gerenciais Processos Gerenciais Prof. Clóvis Luiz Galdino Módulo: Inovação e Continuidade Tema: Consultoria Empresarial Objetivos da aula Apresentar os pressupostos básicos da consultoria e suas definições; Discutir

Leia mais

ATIVIDADE DE NEGOCIÇÃO

ATIVIDADE DE NEGOCIÇÃO ATIVIDADE DE NEGOCIÇÃO A IMPORTÂNCIA DA COMUNICAÇÃO NA NEGOCIAÇÃO RIO BRANCO- ACRE 2013 SUMÁRIO INTRODUÇÃO...3 1- A IMPORTÂNCIA DA COMUNICAÇÃO...4 2- COMUNICAÇÃO E NEGOCIAÇÃO...6 2.1 Os quatros conceitos

Leia mais

ATIVIDADES DE LINHA E DE ASSESSORIA

ATIVIDADES DE LINHA E DE ASSESSORIA 1 ATIVIDADES DE LINHA E DE ASSESSORIA SUMÁRIO Introdução... 01 1. Diferenciação das Atividades de Linha e Assessoria... 02 2. Autoridade de Linha... 03 3. Autoridade de Assessoria... 04 4. A Atuação da

Leia mais

Pesquisa IBOPE Ambiental. Setembro de 2011

Pesquisa IBOPE Ambiental. Setembro de 2011 Pesquisa IBOPE Ambiental Setembro de 2011 Com quem falamos? Metodologia & Amostra Pesquisa quantitativa, com aplicação de questionário estruturado através de entrevistas telefônicas. Objetivo geral Identificar

Leia mais

Gerenciamento de Projetos Modulo II Ciclo de Vida e Organização do Projeto

Gerenciamento de Projetos Modulo II Ciclo de Vida e Organização do Projeto Gerenciamento de Projetos Modulo II Ciclo de Vida e Organização do Projeto Prof. Walter Cunha falecomigo@waltercunha.com http://waltercunha.com PMBoK Organização do Projeto Os projetos e o gerenciamento

Leia mais

CURSO: LICENCIATURA DA MATEMÁTICA DISCIPLINA: PRÁTICA DE ENSINO 4

CURSO: LICENCIATURA DA MATEMÁTICA DISCIPLINA: PRÁTICA DE ENSINO 4 CAMPUS CARAGUATUBA CURSO: LICENCIATURA DA MATEMÁTICA DISCIPLINA: PRÁTICA DE ENSINO 4 PROFESSOR: ANDRESSA MATTOS SALGADO-SAMPAIO ORIENTAÇÕES PEDAGÓGICAS PARA A PRÁTICA DE ESTÁGIO SUPERVISIONADO NO CURSO

Leia mais

GASTAR MAIS COM A LOGÍSTICA PODE SIGNIFICAR, TAMBÉM, AUMENTO DE LUCRO

GASTAR MAIS COM A LOGÍSTICA PODE SIGNIFICAR, TAMBÉM, AUMENTO DE LUCRO GASTAR MAIS COM A LOGÍSTICA PODE SIGNIFICAR, TAMBÉM, AUMENTO DE LUCRO PAULO ROBERTO GUEDES (Maio de 2015) É comum o entendimento de que os gastos logísticos vêm aumentando em todo o mundo. Estatísticas

Leia mais

PERFIL EMPREENDEDOR DE ALUNOS DE GRADUAÇÃO EM DESIGN DE MODA

PERFIL EMPREENDEDOR DE ALUNOS DE GRADUAÇÃO EM DESIGN DE MODA PERFIL EMPREENDEDOR DE ALUNOS DE GRADUAÇÃO EM DESIGN DE MODA Alini, CAVICHIOLI, e-mail¹: alini.cavichioli@edu.sc.senai.br Fernando Luiz Freitas FILHO, e-mail²: fernando.freitas@sociesc.org.br Wallace Nóbrega,

Leia mais

Na introdução o aluno deverá explicar o assunto que deseja desenvolver. Situar o tema dentro do contexto geral da sua área de trabalho

Na introdução o aluno deverá explicar o assunto que deseja desenvolver. Situar o tema dentro do contexto geral da sua área de trabalho PROJETO DE PESQUISA INTRODUÇÃO (O QUE É O TEMA?) Na introdução o aluno deverá explicar o assunto que deseja desenvolver. Desenvolver genericamente o tema Anunciar a idéia básica Delimitar o foco da pesquisa

Leia mais