Terceira e Quarta Fases da Qualidade nos EUA

Documentos relacionados
Eficiência e Eficácia

Sistema da Gestão da Qualidade. Agradecimentos ao Prof. Robson Gama pela criação da apresentação original

Gestão de sistemas em energia:

Normas ISO:

PESQUISA OPERACIONAL. UNIDADE 1 Introdução à Pesquisa Operacional. Prof. Me. Carlos Guimarães

RESPONSABILIDADE SOCIAL CORPORATIVA NA GESTÃO DA CADEIA LOGÍSTICA

ESTRUTURA DE GERENCIAMENTO DE CAPITAL Resolução 3.988/2011. Área Responsável: Risco de Crédito e Capital Gerência de Capital

Análise de Sistema de Medição 3D segundo guia MSA

Planejamento Estratégico Aula 1

Recomendação de políticas Serviços de nuvem seguros e confiáveis

Tipos de Indicadores. Conceito. O que medir... 25/08/2016

FAMEBLU Engenharia Civil

CGCRE/INMETRO. Metrologia e Qualidade em Laboratório

MBA em Gerenciamento de Projetos. Teoria Geral do Planejamento. Professora: Maria Erileuza do Nascimento de Paula

Qualider Consultoria e Treinamento. Instrutor: José Roberto

introdução ao marketing - gestão do design

DECISÕES ESTRATÉGICAS DE CURTO PRAZO: Programação Linear

CERTIFICAÇÃO DA BIBLIOTECA PROFESSOR ALYSSON DAROWISH. Diana Palhano Ludmila Ventilari

#pública. Risco Operacional

Certificação ISO

ADMINISTRAÇÃO GERAL GESTÃO POR COMPETÊNCIAS

Conceito: estratégia de produção. Gestão da Produção Aula 3. Conceito: estratégia de produção. Conceito: estratégia de produção 03/04/2014

4.6. ATENDIMENTO ÀS METAS DO PLANO/PROGRAMA/PROJETO


Estabelecimento de Metas e seu Desdobramento

UFF - UNIVERSIDADE FEDERAL FLUMINENSE

Modelagem De Sistemas

Armazenagem Responsável Sistema de Gestão Outubro 2016 rev. 00

PROCEDIMENTO DA QUALIDADE

João Telles Corrêa Filho Abril de 2011

Núcleo de Materiais Didáticos

Certificações do PNCQ

GESTÃO EM SAÚDE. Teorias da Administração. Renata Loretti Ribeiro - Enfermeira

O PROCESSO DE AVALIAÇÃO PROFISSIONAL

TRATAMENTO E ACOMPANHAMENTO DA PESQUISA DE SATISFAÇÃO DOS CLIENTES

Business Case (Caso de Negócio)

ADMINISTRAÇÃO DO RELACIONAMENTO COM O CLIENTE

3. Engenharia dos requisitos de software

Gestão de Processos. Tópico 4. Ferramentas de Qualidade: PDCA

Wanessa Dose Bittar Formação Cursos Extras Experiências

POLÍTICA DE GERENCIAMENTO

Processo de gerenciamento de capacidade

BIG DATA Business Analytics Alexandre Massei

GERENCIAMENTO DE PROJETOS

COMPANHIA DO METROPOLITANO DE SÃO PAULO - METRÔ. Setembro/2004

Terceirização (Outsourcing)

Produtividade e Manutenção Industrial

Desempenho das Organizações. Administração da Qualidade Eficiência e Eficácia Modelo Japonês de Administração Responsabilidade Social e Ambiental

Escolhendo um Modelo de Ciclo de Vida

POLÍTICA DE INVESTIMENTOS DA BRASKEM

QUADRO DE DISCIPLINAS

COMO MUDAR AS CULTURAS ORGANIZACIONAIS. Profª Carminha Lage

OBJETIVOS. Dar a conhecer a estrutura do Modelo de Excelência de Gestão MEG. Refletir sobre o ciclo PDCL. Planejamento. Verificação Aprendizagem

A difícil arte de produzir, melhor e mais barato.

Como utilizar a margem de contribuição para tomar decisão quando existe limitação na capacidade produtiva

Projeto Na Medida MICROEMPRESA. Palestra de sensibilização Na Medida PARA MICROEMPRESÁRIOS. Competências Gerais. Modalidade. Formato.

Veja os 11 profissionais especialistas mais procurados durante a crise

Curso de Graduação em Administração. Administração da Produção e Operações I

PEQUENAS EMPRESAS E PRÁTICAS SUSTENTÁVEIS TENDÊNCIAS E PRÁTICAS ADOTADAS PELAS EMPRESAS BRASILEIRAS

Não Conformidade, Ação Corretiva e Ação Preventiva

ROTARY INTERNACIONAL ORGANIZAÇÃO MULTIDISTRITAL DE INFORMAÇÕES DE ROTARACT CLUBS - BRASIL EQUIPE DE PROJETOS GUIA BÁSICO PARA ELABORAÇÃO DE PROJETOS

Escola Politécnica de Pernambuco Departamento de Engenharia Mecânica PROGRAMA. Número de Créditos: TEÓRICOS: 04; PRÁTICOS: 0 ; TOTAL: 4

Sistemas de Informação na Empresa

A Implantação do Sistema do Sistema da Qualidade e os requisitos da Norma ISO NBR 9001:2000

Projeto Físico e Lógico de Redes de Processamento. Kleber A. Ribeiro

Planejamento e Desempenho de Custos. Disciplina: Gerenciamento de Projetos Docente: Cristina Almeida

Apresentação. Conteúdo. Conteúdo. Revisão Conceitos Didática utilizada Papel da Integração Processo de iniciação

PRINCÍPIOS DA ENGENHARIA DE SOFTWARE- AULA 06. Prof.: Franklin M. Correia

Cadeia de suprimentos

SISTEMA DE GESTÃO INTEGRADO SEGURANÇA, MEIO AMBIENTE E SAÚDE (OFICINA 08)

I - Introdução à Simulação

Introdução a Sistemas de Informação

AS SETE FERRAMENTAS DA QUALIDADE. Disciplina: GESTÃO DE PROCESSOS E QUALIDADE Prof. Afonso Celso M. Madeira

Administração de Cargos e Salários

Termos de Referência para serviços especializados de consultoria Individual na área de Especialista em Transito

Seleção de pessoal. Para julgar com eficácia esses dois aspectos, é necessária, então, a coleta de dados do candidato sobre seus/suas:

ENGENHARIA DA QUALIDADE A ENG AULA 7 FUNÇÃO PERDA QUADRÁTICA

Contabilidade de Custos Aula 1: Terminologias e Classificações. Professora: Caroline Camera

Escrito por Administrator Seg, 22 de Novembro de :55 - Última atualização Seg, 22 de Novembro de :09

Gestão de Processos. Gestão de Processos na Saúde. Identificação, mapeamento, redesenho e aprimoramento dos processos

Professor Roberto César. O que é qualidade?

A EVOLUÇÃO DA MANUTENÇÃO

Pesquisa Operacional. Evanivaldo Castro Silva Júnior

Informação de Custos e Qualidade do Gasto Público

Carlos Augusto de Oliveira. Inovação da Tecnologia, do Produto e do Processo

O Sistema HACCP no âmbito da NP EN ISO 9001:2000

EMPREENDEDORISMO PLANOS DE NEGÓCIO

Plano de Trabalho Docente Ensino Técnico

Requisitos. Silvério Sirotheau

19/10/2016. Liderança em custo. Processo de administração estratégica. Estratégias corporativas. Duas estratégias corporativas genéricas

Pesquisa de Clima Organizacional

Modelo para a elaboração do relatório: Estudo de métodos

ISO 9000 e ISO

ANEXO 01 (Conteúdo do EXIN Administração - Campus Mossoró) 3ª SÉRIE

Elementos Fundamentais para a Melhoria da Qualidade de Software nas Organizações de TI

A Responsabilidade Social Empresarial O Balanço Social

CRIATIVIDADE Relatório de Consultoria

Transcrição:

Terceira e Quarta Fases da Qualidade nos EUA I - Garantia da Qualidade No período da garantia da qualidade, a qualidade passou de uma disciplina restrita e baseada na produção fabril para uma disciplina com implicações mais amplas para o gerenciamento. A prevenção de problemas continuou sendo seu objetivo fundamental, mas os instrumentos da profissão se expandiram para muito além da estatística. Havia quatro elementos distintos: quantificação dos custos da qualidade, controle total da qualidade, engenharia da confiabilidade e zero defeito. a. Custos da Qualidade Até a década de 50, a maioria das tentativas de melhorar a qualidade eram baseadas na premissa implícita de que os defeitos tinham um custo. Quanto eles custavam era uma questão de opinião, pois poucas empresas tinham se dado ao trabalho de totalizar as despesas em que incorriam porque os produtos não eram feitos corretamente da primeira vez. Na falta deste padrão de medida, os gerentes acostumados a tomar decisões baseadas em números reais não tinham por que prosseguir. Para eles, continuava sendo crítica a seguinte pergunta: qual era o grau da qualidade suficiente? Em 1951, Juran publicou um livro, que logo se tornaria a bíblia da profissão, em cujo primeiro capítulo discutia a economia da qualidade e propunha a hoje famosa analogia com o ouro da mina. Juran observou que os custos para se atingir um determinado nível da qualidade podiam ser divididos em custos evitáveis e custos inevitáveis. Estes eram os custos associados à prevenção inspeção, amostragem, classificação e outras iniciativas. Custos evitáveis eram os dos defeitos e das falhas dos produtos material sucateado, horas de trabalho necessárias para refazer o produto e repará-lo, processamento de reclamações e prejuízos financeiros resultantes de fregueses insatisfeitos. Naquela oportunidade, Juran calculou que os prejuízos evitáveis provocados por problemas da qualidade equivaliam, de um modo geral, de 500 a 1.000 dólares por operador na produção por ano. Os gerentes tinham, então, uma maneira de decidir quanto investir na melhoria da qualidade. Mais despesas com prevenção provavelmente se justificariam desde que os custos das falhas continuassem elevados. O conceito também ilustrava outro princípio importante: o de que as decisões tomadas no início da cadeia de produção por exemplo quando os engenheiros fizeram o esboço do projeto de um novo produto tinham implicações para o nível de custos da qualidade em que se incorria mais adiante, tanto na fábrica quanto no campo. b. Controle Total da Qualidade Em 1956, Armand Feigenbaum levou este princípio a um passo adiante, propondo o controle total da qualidade. Produtos de alta qualidade, argumentava ele, não teriam probabilidade de serem produzidos se o departamento de fabricação fosse obrigado a trabalhar isoladamente: o princípio em que se assenta esta visão da qualidade total... é que, para se conseguir uma verdadeira eficácia, o controle precisa começar pelo projeto do produto e só terminar quando o produto tiver chegado às mãos de um freguês que fique satisfeito.... O primeiro princípio a ser reconhecido é o de que qualidade é um trabalho de todos. Feigenbaum observou que todos os produtos novos, à medida que iam passando do projeto para o mercado, envolviam aproximadamente as mesmas atividades. Do ponto de vista da qualidade, eles podiam ser grupados em três categorias: controle de novos projetos, controle de material recebido e controle de produtos ou local de produção. O primeiro, por exemplo, envolvia avaliações, antes da produção, da fabricabilidade de um projeto, bem como a depuração de novas técnicas de fabricação por meio de produções piloto. Para terem êxito, essas atividades exigiam a cooperação de muitos departamentos. De fato, à medida que os produtos iam passando pelas três etapas principais, tinha que haver a participação de grupos distintos como os de marketing, engenharia, compras, fabricação, expedição e atendimento ao cliente. Caso contrário, poder-se- 1

iam cometer erros logo no início do processo, que causariam problemas mais adiante durante a montagem ou, o que é pior, após o produto ter chegado às mãos de um cliente. Para fazer o sistema funcionar, muitas empresas criaram matrizes complicadas, que quase sempre revelavam uma considerável superposição de funções, pois poucas atividades, provavelmente, estariam livres de erro se fossem atribuídas a um único departamento ou se fossem executadas em série. Portanto, equipes interfuncionais tornavam-se essenciais: elas asseguravam a representação de pontos de vista variados e que departamentos, em outras circunstâncias autônomos, trabalhassem juntos. A alta gerência era a responsável final pela eficácia do sistema: para mantê-la interessada, Feigenbaum, como Juran, propôs uma cuidadosa mensuração e elaboração de relatórios dos custos da qualidade. Os dois especialistas também concordavam quanto à necessidade de um novo tipo de profissional da área de qualidade. Os métodos estatísticos ainda eram importantes, assim como as técnicas tradicionais de inspeção e medições, mas o sistema de qualidade passara a incluir agora o desenvolvimento de novos produtos, a seleção de fornecedores e o atendimento aos clientes, além do controle de fabricação. Para fazer frente a essas responsabilidades, argumentavam que era preciso uma nova função - a de engenharia de controle da qualidade, relacionada com o planejamento da qualidade em alto nível, a coordenação das atividades de outros departamentos, o estabelecimento de padrões da qualidade e a determinação de medidas da qualidade. Como exigiam uma combinação de habilidades gerenciais, a formação estatística não mais bastava para garantir a competência de um profissional da área de qualidade. c. Engenharia da Confiabilidade Contudo, mais ou menos na mesma época em que Feigenbaum e Juran estavam apresentando esses argumentos, outra ala da disciplina estava surgindo, com uma crença mais forte ainda na teoria da probabilidade e na estatística: a engenharia da confiabilidade, que tinha por objetivo garantir um desempenho aceitável do produto ao longo do tempo. Este campo esteve intimamente associado ao crescimento, após a guerra, da indústria aeroespacial e da indústria eletrônica nos Estados Unidos. Assim sendo, um dos seus principais pontos de apoio foi a área militar. O Departamento de Defesa publicou, em 1957, um grande relatório sobre o assunto, que acabou levando a inúmeras especificações militares que estabeleciam os requisitos de um programa formal de confiabilidade. Esses esforços foram estimulados pela queda da confiabilidade dos componentes e sistemas militares. Em 1950, apenas a terça parte dos dispositivos eletrônicos da Marinha estavam funcionando adequadamente, sendo que um estudo revelou que cada tubo de vácuo que os militares tinham funcionando era acompanhado de outros nove no depósito ou já encomendados. Havia problemas da mesma gravidade com mísseis e outros equipamentos aeroespaciais. O primeiro passo foi definir com maior precisão a confiabilidade - como a probabilidade de um produto desempenhar uma função especificada sem falhas, durante um certo tempo e sob condições preestabelecidas. Associada aos recursos da moderna teoria da probabilidade, esta definição levou a métodos formais de previsão do desempenho de equipamentos ao longo do tempo. As técnicas estatísticas desenvolvidas eram, então, associadas a programas de testes meticulosos que visavam a simular condições extremas de operação, para estimar níveis de confiabilidade mesmo antes de os produtos atingirem uma produção a plena escala. Para atingir os verdadeiros objetivos, de melhoria da confiabilidade e redução das taxas de falhas ao longo do tempo, aplicavam-se diversas técnicas, como a análise de modo e efeito de falhas que, com base no exame sistemático das possíveis falhas de um produto, propunha projetos alternativos; a análise de componentes individuais, que poderia resultar na eliminação ou reforço dos elos mais fracos; a reavaliação, que exigia que as peças fossem usadas abaixo de seus níveis de tensão especificados; e a redundância, que exigia o uso de sistemas paralelos para assegurar a existência de backups sempre que um componente ou subsistema importante falhasse. d. Zero Defeito 2

A Martin Company construía mísseis para o exército americano, cuja qualidade, de uma maneira geral satisfatória, só era conseguida por meio de uma maciça inspeção. Após a concessão de estímulos aos empregados, juntamente com inspeção e testes mais intensos ainda, conseguiram entregar, em dezembro de 1961, um míssil sem discrepância alguma. Portanto, era possível fazer um míssil sem defeito, embora isso exigisse muita depuração antes da entrega. Um mês depois, o gerente geral da Martin em Orlando aceitou um pedido para entregar outro míssil, não só em um prazo menor, como sem nenhum defeito, sem problemas físicos, documentais e com todo o equipamento preparado e em total condição de operação dez dias após a entrega (o normal eram noventa dias ou mais). Como havia pouco tempo para a inspeção usual e a posterior correção de erros, solicitou-se a contribuição de todos os empregados para que construíssem o míssil exatamente correto da primeira vez. O resultado foi a confecção de um míssil perfeito. Chegou a tempo e estava em plena operação em menos de vinte e quatro horas. Após um exame cuidadoso, a gerência concluiu que o sucesso do projeto era, primordialmente, reflexo de sua própria mudança de atitude: A razão que explica a falta de perfeição era simplesmente que não se esperava a perfeição. Quando a gerência passou a exigir perfeição, conseguiu-a! O mesmo raciocínio sugeriu uma necessidade de concentração na motivação e conscientização dos empregados. Das três causas mais comuns de erros dos empregados falta de conhecimento, falta de instalações adequadas e falta de atenção a gerência chegou à conclusão de que a última era a que menos se dava importância. Propôs-se desenvolver um programa cujo objetivo preponderante fosse promover uma vontade constante, consciente, de fazer o trabalho (qualquer trabalho) certo da primeira vez. O programa resultante chamou-se zero defeito. Com menos ênfase na formulação de propostas específicas e técnicas de solução de problemas, o zero defeito ressaltava muito a filosofia, a motivação e a conscientização. Na verdade, um passo essencial a identificação dos problemas em sua origem e o delineamento de providências corretivas (chamadas remoção por causa de erro) foi desenvolvido pelo Departamento de Pequenos Motores da General Electric, uma das primeiras empresas a adotar o programa, e não pela Martin. A contribuição desta consistiu, basicamente, na articulação de uma filosofia de que o único padrão de qualidade aceitável era zero defeito e em mostrar como os empregados poderiam ficar imbuídos dela através do treinamento, de eventos especiais, da divulgação de resultados relacionados com a qualidade, do estabelecimento de metas e do feedback pessoal. Não era uma conquista pequena. Como a ética da qualidade dominante na época eram os níveis de qualidade aceitáveis (AQL) a Martin estava lutando contra quase trinta anos de história do controle da qualidade. Mesmo hoje, o debate continua. II A Quarta Fase nos EUA: Gestão Estratégica da Qualidade Não se pode identificar com precisão os primórdios da gestão estratégica da qualidade, pois nenhum livro ou artigo marca a transição. Embora muitos gerentes norte-americanos ainda adotem programas estritamente parecidos com os que apareceram há vinte anos (década de 70), num número cada vez maior de empresas começou a surgir uma nova visão, que incorpora um notável desvio de perspectiva. Pela primeira vez, diretores no nível de presidência e diretoria executiva expressam interesse pela qualidade. Estão associando-a à lucratividade, definindo-a de acordo com o ponto de vista do cliente e exigindo sua inclusão no processo de planejamento estratégico. No mais radical de todos os avanços, insistem em que a qualidade seja vista como um arma agressiva de concorrência. Essas mudanças não aconteceram da noite para o dia. Diversas forças externas, cada uma delas relacionando as perdas de rentabilidade e de participação no mercado com a má qualidade, prepararam o terreno. Entre as influências mais importantes estiveram a maior concorrência externa, um significativo aumento do número de processos de indenização em função de produtos e pressões do governo em várias frentes. Para muitos gerentes norte-americanos, porém, o 3

despertar mais duro foi provocado pelas sérias incursões dos fabricantes japoneses devido à sua qualidade e confiabilidade superiores. A indústria de semicondutores serve de exemplo instrutivo. Em 1980, o gerente geral da Divisão de Sistemas de Dados da Hewlett-Packard contou que, após ter testado 300 mil chips de memória RAM de três fabricantes norte-americanos e três fabricantes japoneses, a HP descobriu grandes diferenças de qualidade. Na inspeção de chegada, os chips japoneses tinham uma taxa de falhas igual a zero; a taxa dos três fabricantes norte-americanos estava entre 0,11 e 0,19 por cento. Após mil horas de uso, a taxa de falhas dos chips japoneses era de 0,01 a 0,019 por cento; após o mesmo período, os chips norte-americanos apresentavam uma taxa de falhas de 0,059 a 0,267 por cento. A extensão dessas diferenças impressionou a indústria. Diversas companhias norteamericanas reagiram reclamando da expedição seletiva, alegando que os japoneses só estavam mandando seus melhores componentes para clientes norte-americanos importantes como a HP. Outras duvidaram da base de dados. Contudo, as diferenças de qualidade estavam bem de acordo com a rápida ascensão dos fabricantes de chips japoneses, que em poucos anos tinham passado de um começo tímido para grandes participações no mercado. Houve logo a tomada de ações corretivas, mas a lição foi aproveitada por outros gerentes de indústrias tão diversas quanto as de máquinas operatrizes, pneus radiais e televisores em cores, cujas posições tinham ficado prejudicadas diante da concorrência japonesa. Alguns anos antes, muitos órgãos públicos tinham começado a investigar meticulosamente a qualidade, o que resultou em programas que incluíam um melhor policiamento dos defeitos e do desempenho insatisfatório dos produtos oferecidos para consumo. Em consequência da identificação de riscos potenciais, as retiradas de produtos de uso aumentaram, de cerca de 7 milhões de unidades em 1973 para mais de 29 milhões, em 1978. As retiradas eram, quase sempre, extremamente custosas. É claro que nem todos os defeitos envolvem riscos potenciais para a segurança. Alguns são, simplesmente, irritantes e caros. Entre as providências tomadas pelas autoridades em relação a eles, está o surgimento de um programa de defeitos de produtos que responsabiliza os fabricantes por falhas ocorridas logo após o término dos prazos de garantia. A ação corretiva abrange desde os reparos e a devolução do dinheiro pago até a divulgação de mais informações sobre os produtos. Da mesma forma, vários Estados têm aprovado, recentemente, leis do limão, que se aplicam aos automóveis com defeitos que se repetem. Em conjunto, esses programas aumentaram muito o custo de produção de produtos com defeito. Uma crescente onda de processos judiciais de indenização do produto aumentou ainda mais esse custo. Devido às grandes quantias envolvidas, essas forças externas tiveram o efeito previsível de sensibilizar a alta gerência para a qualidade dos produtos. Com a reputação, a participação no mercado e a rentabilidade de suas companhias em risco, o assunto não podia mais ser ignorado. Tampouco podia ser relegado aos níveis mais baixos da organização, onde as lealdades funcionais poderiam interferir numa visão estratégica mais ampla. O que surgiu disso tudo foi uma nova abordagem da qualidade, fortemente influenciada pelas preocupações da gerência superior. Para aliviar estas preocupações, primeiro era preciso definir qualidade. A produção sem defeitos, objeto tanto da garantia de qualidade quanto do controle estatístico da qualidade, era muito limitada em seu escopo. Era preciso uma visão perspectiva mais voltada para fora para conseguir o comprometimento da alta gerência, cujos interesses eram estratégicos e competitivos. A solução foi definir qualidade do ponto de vista do cliente. A essência da abordagem foi bem resumida por um recente relatório da Sociedade Americana de Controle de Qualidade (ASQL) : 4

Não são os fornecedores do produto, mas aqueles para quem eles servem os clientes, usuários e aqueles que os influenciam ou representam que têm a última palavra quanto a até que ponto um produto atende às suas necessidades e satisfaz suas expectativas. A satisfação relaciona-se com o que a concorrência oferece. A satisfação, relacionada com o que a concorrência oferece, é conseguida durante a vida útil do produto, e não apenas na ocasião da compra. É preciso um conjunto de atributos para proporcionar o máximo de satisfação àqueles a quem o produto atende. A qualidade foi definida, aqui, comparativamente em relação com os concorrentes e não em relação com padrões fixos, internos. São os clientes, e não os departamentos internos, que dão a última palavra ao se determinar se um produto é aceitável ou não. A implicação disso é que o atendimento às especificações passou a ser uma preocupação secundária que só seria alvo de atenção após a cuidadosa definição das necessidades dos usuários. Essa perspectiva sugere várias evidências novas. A pesquisa de mercado para se avaliar a qualidade torna-se mais importante; se assim não fosse, as empresas não teriam como saber posicionar seus produtos com base na qualidade. Alguns métodos incluem exames cuidadosos dos produtos dos concorrentes, além de levantamentos para se estabelecer exatamente o que os clientes querem dizer quando afirmam que um produto é de melhor qualidade que outro. Além disso, a atenção se desvia dos preços iniciais, por ocasião da compra, para os custos do ciclo de vida, que incluem os gastos com atendimento e manutenção no tempo, refletindo assim, com maior exatidão, os custos totais dos usuários. Até as reclamações dos consumidores podem ter um novo papel a desempenhar. Como valiosas fontes de informação de mercado, passam a ser mais visíveis através de recursos como linhas telefônicas gratuitas, deixando de ser tratadas como más notícias potencialmente prejudiciais. Gerentes das grandes empresas vêm adotando esses programas, que podem ser muito dispendiosos, pois veem um elo mais claro entre qualidade e lucratividade. Existe a noção de que os consumidores de hoje são mais sensíveis às diferenças de qualidade e provavelmente capazes de dirigirem suas compras de acordo com isso. Por exemplo, espera-se que a alta qualidade leve a uma maior lealdade dos fregueses; com o tempo, isso deve traduzir-se numa maior volta dos consumidores à compra do produto. O retorno dessa fidelidade pode ser substancial. Um fabricante de automóveis estima que um cliente leal vale pelo menos cem mil dólares em receita durante a vida toda. Vários bancos chegaram à conclusão de que a manutenção de um cliente por cinco anos equivale a um lucro de 400 dólares. Novos fatos do mercado convenceram, então, muitos gerentes de que a melhoria da qualidade poderia ser uma meta rentável. Um exame do lado da produção também apontava nessa direção. Há muito tempo que os gerentes conhecem os custos da qualidade, mas só há pouco tempo é que descobriram a relação entre qualidade e produtividade. Fatos comprovados parecem mostrar que um processo de fabricação sem defeitos é muito mais eficiente do que outro que seja sempre interrompido para trabalhos e para reparos. A utilização das máquinas será provavelmente maior, os estoques de segurança serão menores e a mão-de-obra será mais produtiva. Diante de tais evidências, um número cada vez maior de empresas chegou à mesma conclusão: a qualidade era uma poderosa arma na concorrência. Tanto do lado do mercado quanto do lado do custo, oferecia uma grande alavancagem. Os gerentes mais dinâmicos logo deram mais um passo. Se a qualidade estava associada tão de perto à rentabilidade, eles não viam razão alguma em se equiparar aos níveis de qualidade dos concorrentes. Por que não os ultrapassar? Isso exigia uma reformulação das abordagens tradicionais da qualidade, já que se desejava uma melhoria marcante e continuada. Não seria de se esperar que os concorrentes ficassem de braços cruzados ao perceberem que sua qualidade tinha sido superada; eles também procurariam melhorar. As metas de qualidade tornar-se-iam, então, alvos móveis, que seriam sempre reformulados em níveis cada vez mais altos. Isso exigia uma dedicação ao processo de 5

melhoria, bem como o compromisso de toda a companhia. Um importante pré-requisito ficou logo claro: a alta gerência teria que ter uma participação ativa no processo. Este compromisso de alto nível era considerado essencial para se estabelecer seriedade de propósito e dedicação a longo prazo à qualidade. De fato, muitas empresas constataram que só depois de seus mais altos executivos terem destinado algum tempo à qualidade é que os empregados perceberam sua importância. A internalização de uma ética de qualidade requer, via de regra, uma mudança de atitude nos vários níveis da companhia. Na falta de tal mudança, os empregados continuarão vendo a qualidade como função do departamento de qualidade, e não como uma responsabilidade deles mesmos. A abordagem estratégica da qualidade também faz novas exigências aos profissionais da área da qualidade. A especialização técnica continua sendo desejável, mas passa a ser mais importante uma compreensão dos objetivos estratégicos da empresa. De um modo geral, há um claro afastamento de um papel de policiamento estreito e uma aproximação de um papel que enfatize mais uma perspectiva de gerência. Esforços desse tipo são, claramente, inovações do gerenciamento da qualidade. Mas a abordagem estratégica da qualidade também incorpora elementos dos movimentos que a precederam. Por exemplo, o controle estatístico da qualidade continua sendo um instrumento importante. Ainda se empregam equipes interfuncionais para se assegurar a coordenação das necessidades da engenharia e da produção. A gestão estratégica da qualidade é, então, mais uma extensão de suas antecessoras do que uma negação delas. Podem-se ver aspectos tanto de garantia da qualidade quanto de controle estatístico da qualidade em empresas que adotam a nova abordagem. Mas não se deve confundir os três movimentos. A abordagem estratégica da qualidade é mais ampla que suas antecessoras, mais intimamente ligada à lucratividade e aos objetivos empresariais básicos, mais sensível às necessidades da concorrência e ao ponto de vista do consumidor e mais firmemente associada à melhoria contínua. GARVIN, D.A. Gerenciando a Qualidade. Rio de Janeiro: Qualitymark, 1992. 6