COMPUTAÇÃO DO USUÁRIO FINAL DO EMC VSPEX



Documentos relacionados
COMPUTAÇÃO DO USUÁRIO FINAL DO EMC VSPEX

EMC VSPEX END-USER COMPUTING

EMC VSPEX PRIVATE CLOUD

EMC VSPEX. Guia da Proven Infrastructure

EMC VSPEX END-USER COMPUTING

Consolidação inteligente de servidores com o System Center

FileMaker Pro 14. Utilização de uma Conexão de Área de Trabalho Remota com o FileMaker Pro 14

EMC VSPEX END-USER COMPUTING

FileMaker Pro 13. Utilização de uma Conexão de Área de Trabalho Remota com o FileMaker Pro 13

Online Help StruxureWare Data Center Expert

SISTEMA DE ARMAZENAMENTO (STORAGE)

Avaliação da plataforma de armazenamento multiprotocolo EMC Celerra NS20

DELL POWERVAULT SÉRIE MD ARMAZENAMENTO DE DADOS MODULAR ARMAZENAMENTO DE DADOS DELL POWERVAULT SÉRIE MD

ARMAZENAMENTO E COMPUTAÇÃO

GERENCIAMENTO CENTRALIZADO DELL POWERVAULT DL 2000 BASEADO EM TECNOLOGIA SYMANTEC

FAMÍLIA EMC VPLEX. Disponibilidade contínua e mobilidade de dados nos datacenters e entre eles

Clique. Microsoft. Simples.

NUVEM PRIVADA DO EMC VSPEX

EMC VSPEX END-USER COMPUTING Citrix XenDesktop 7.5 e VMware vsphere com EMC XtremIO

EMC VSPEX END-USER COMPUTING Citrix XenDesktop 7.6 e VMware vsphere com EMC XtremIO

O EMC XTREMCACHE ACELERA O ORACLE

PROPOSIÇÃO DE VALOR:

FileMaker Pro 12. Utilização de uma Conexão de Área de Trabalho Remota com o

Soluções de Gerenciamento de Clientes e de Impressão Universal

Otimização do Gerenciamento de Datacenters com o Microsoft System Center

Apresentação resumida

EMC VSPEX END-USER COMPUTING:

AMBIENTES DE MISSÃO CRÍTICA ORACLE COM VMAX 3

EMC VSPEX PRIVATE CLOUD

Avaliação do sistema de armazenamento EMC CLARiiON AX4

Windows 2008 Server. Windows 2008 Server IFSP Boituva Prof. Sérgio Augusto Godoy.

Roteamento e Comutação

Detecção e investigação de ameaças avançadas. INFRAESTRUTURA

EMC VSPEX PARA MICROSOFT EXCHANGE 2013 VIRTUALIZADO COM MICROSOFT HYPER-V

Benefícios do Windows Server 2008 R2 Hyper-V para SMB

Especificações da oferta Gerenciamento de dispositivos distribuídos: Gerenciamento de ativos

arcserve Unified Data Protection Resumo da solução de virtualização

Como usar a nuvem para continuidade dos negócios e recuperação de desastres

Conheça a nova solução de servidor que ajuda pequenas empresas a fazer mais Com menos.

EMC VSPEX PRIVATE CLOUD:

EMC VSPEX PARA MICROSOFT EXCHANGE 2013 VIRTUALIZADO COM VMWARE VSPHERE

Proteção de ambientes Citrix XenServer com Arcserve

Symantec Backup Exec.cloud

BlackBerry Mobile Voice System

ACELERANDO A TRANSFORMAÇÃO DA TI COM A SOLUÇÃO EMC DE ARMAZENAMENTO UNIFICADO E BACKUP DE ÚLTIMA GERAÇÃO

Resumo da solução de virtualização

Benefícios e processos relacionados à migração e servidores dedicados para cloud servers. Juliano Simões. Diretor de Tecnologia

Eficiência operacional no setor público. Dez recomendações para cortar custos

EMC VSPEX PARA MICROSOFT SQL SERVER 2012 VIRTUALIZADO COM MICROSOFT HYPER-V

TRANSFORME SUA INFRAESTRUTURA DE BANCO DE DADOS

Microsoft Azure. Softmanager Soluções em TI. ModernBiz

EMC VSPEX PARA MICROSOFT SQL SERVER 2012 VIRTUALIZADO

10 DICAS DE TECNOLOGIA PARA AUMENTAR SUA PRODUTIVIDADE NO TRABALHO

EMC VSPEX END-USER COMPUTING

Veritas Storage Foundation da Symantec

Plataforma na nuvem do CA AppLogic para aplicativos corporativos

EMC VSPEX END-USER COMPUTING

FAMÍLIA EMC RECOVERPOINT

GUIA DE DESCRIÇÃO DO PRODUTO

EMC VSPEX PARA MICROSOFT SHAREPOINT 2013 VIRTUALIZADO

EMC SYMMETRIX VMAX 10K

Qual servidor é o mais adequado para você?

FTIN Formação Técnica em Informática Módulo Sistema Proprietário Windows AULA 05. Prof. André Lucio

Proteção de ambientes Microsoft Hyper-V 3.0 com Arcserve

Virtualização de Sistemas Operacionais

BlackBerry Mobile Voice System

CA ARCserve Backup PERGUNTAS MAIS FREQUENTES: ARCSERVE BACKUP R12.5

Serviço de Desenho e Implementação de Volume Virtual de HP Storage

SISTEMAS DISTRIBUÍDOS

Tópicos. Atualizações e segurança do sistema. Manutenção Preventiva e Corretiva de Software (utilizando o MS Windows XP)

PÚBLICA, PRIVADA OU HÍBRIDA: QUAL É A MELHOR NUVEM PARA SEUS APLICATIVOS?

CA Protection Suites. Proteção total dos dados para as pequenas e médias empresas

LAN Design. LAN Switching and Wireless Capítulo 1. Version Cisco Systems, Inc. All rights reserved. Cisco Public 1

utilização da rede através da eliminação de dados duplicados integrada e tecnologia de archiving.

EMC SYMMETRIX VMAX 10K

MANUAL TÉCNICO ISPBACKUP

EMC VSPEX PARA MICROSOFT EXCHANGE 2013 VIRTUALIZADO

COORDENAÇÃO DE TECNOLOGIA (COTEC) ABRIL/2011

FAMÍLIA EMC VNX. Armazenamento unificado de última geração, otimizado para aplicativos virtualizados

A consolidação de servidores traz uma séria de vantagens, como por exemplo:

Symantec NetBackup 7 O que há de novo e tabela de comparação de versões

Conceitos Básicos de Rede. Um manual para empresas com até 75 computadores

Curso Tecnológico de Redes de Computadores 5º período Disciplina: Tecnologia WEB Professor: José Maurício S. Pinheiro V

Kaspersky Security for Virtualization. Overview

ADMINISTRAÇÃO DE SISTEMAS OPERACIONAIS SERVIÇO DE BACKUP. Professor Carlos Muniz

Resumo da solução SAP SAP Technology SAP Afaria. Gestão da mobilidade empresarial como vantagem competitiva

UNIFIED DATA PROTECTION RESUMO DA SOLUÇÃO

CONCEITOS E APLICAÇÕES DA COMPUTAÇÃO EM NUVEM

PROPOSIÇÃO DE VALOR:

Conteúdo do pacote de 03 cursos hands-on

EMC VSPEX PARA MICROSOFT SQL SERVER 2012 VIRTUALIZADO COM VMWARE VSPHERE

PERGUNTAS FREQÜENTES: Proteção de dados Perguntas freqüentes sobre o Backup Exec 2010

EMC VSPEX END-USER COMPUTING

EMC VSPEX PARA ORACLE DATABASE 11g OLTP (Online Transaction Processing, processamento de transações on-line)

ADMINISTRAÇÃO DE SISTEMAS OPERACIONAIS SERVIÇOS IMPRESSÃO. Professor Carlos Muniz

Guia de início rápido do Powersuite

CA Mainframe Chorus for Storage Management Versão 2.0

Transcrição:

Guia da VSPEX Proven Infrastructure COMPUTAÇÃO DO USUÁRIO FINAL DO EMC VSPEX Citrix XenDesktop 7 e Microsoft Hyper-V Server 2012 para até 2.000 Desktops Virtuais Habilitado por EMC VNX de última geração e Backup EMC EMC VSPEX Resumo Este documento descreve a solução de computação de usuário final do EMC VSPEX com o Citrix XenDesktop, Microsoft Hyper-V Server 2012 e EMC VNX de última geração da EMC para 2.000 desktops virtuais. Novembro de 2013

Copyright 2013 EMC Corporation. Todos os direitos reservados. Publicado no Brasil. Publicado em novembro de 2013 A EMC assegura que as informações apresentadas neste documento estão corretas. As informações estão sujeitas a alterações sem prévio aviso. As informações nesta publicação são fornecidas no estado em que se encontram. A EMC Corporation não garante nem representa qualquer tipo de informação contida nesta publicação e especificamente se isenta das garantias implícitas de comercialização ou uso a um propósito específico. O uso, a cópia e a distribuição de qualquer software da EMC descrito nesta publicação exigem uma licença de software. EMC 2, EMC e o logotipo da EMC são marcas registradas ou comerciais da EMC Corporation nos Estados Unidos e em outros países. Todas as outras marcas comerciais aqui utilizadas pertencem a seus respectivos proprietários. Para obter uma lista mais atualizada de produtos da EMC, consulte EMC Corporation Trademarks no site brazil.emc.com. EMC VSPEX End-User Computing com Citrix XenDesktop 7 e Microsoft Hyper-V Server 2012 para até 2.000 Desktops Virtuais Número da peça H11973.1 2 Computação do usuário final do EMC VSPEX

Índice Índice Capítulo 1 Resumo executivo Introdução... 14 Público-alvo... 14 Objetivo deste guia... 14 Necessidades dos negócios... 15 Capítulo 2 Visão geral da solução Visão geral da solução... 18 Desktop broker... 18 Virtualização... 18 Computação... 18 Rede... 19 VMware... 19 Armazenamento... 19 Capítulo 3 Visão Geral da Tecnologia da Solução Tecnologia da solução... 26 Resumo dos componentes-chave... 27 Virtualização de desktop... 28 Citrix... 28 XenDesktop 7... 28 Machine Creation Services... 29 Citrix Provisioning Services... 29 Citrix Personal vdisk... 30 Citrix Profile Management... 30 Virtualização... 30 Microsoft Hyper-V Server 2012... 30 Microsoft System Center Virtual Machine Manager... 31 Alta disponibilidade do Hyper-V... 31 EMC Storage Integrator para Windows... 31 Computação... 31 Rede... 33 Armazenamento... 35 EMC VNX Snapshots... 35 EMC VNX SnapSure... 35 EMC VNX Virtual Provisioning... 36 VNX FAST Cache... 41 VNX FAST VP (opcional)... 41 13 17 25 Computação do usuário final do EMC VSPEX 3

Índice Compartilhamentos de arquivos do VNX... 41 ROBO... 41 Backup e recuperação... 42 EMC Avamar... 42 ShareFile... 42 ShareFile StorageZones... 42 Arquitetura do ShareFile StorageZone... 43 Uso do ShareFile StorageZone com arquiteturas do VSPEX... 45 Capítulo 4 Visão geral da solução 49 Visão geral da solução... 50 Arquitetura da solução... 50 Arquitetura lógica... 50 Componentes-chave... 52 Recursos de hardware... 56 Recursos de software... 59 Dimensionamento para configuração validada... 60 Diretrizes de configuração de servidor... 62 Virtualização de memória do Microsoft Hyper-V para VSPEX... 63 Diretrizes de configuração de memória... 64 Diretrizes de configuração de rede... 65 VLAN... 65 Habilitar jumbo-frames... 67 Agregação de links... 67 Diretrizes de configuração de armazenamento... 67 Virtualização de armazenamento do Hyper-V para VSPEX... 69 Componente modular de armazenamento do VSPEX... 71 Máximo validado de computação do usuário final do VSPEX... 72 Layout de armazenamento para 500 desktops virtuais... 72 Layout de armazenamento para 1.000 desktops virtuais... 76 Layout de armazenamento para 2.000 desktops virtuais... 81 Alta disponibilidade e failover... 86 Camada de virtualização... 86 Camada de computação... 86 Camada de rede... 87 Camada de armazenamento... 88 Perfil do teste de validação... 89 Diretrizes de configuração de ambiente de backup... 90 Características de backup... 90 Layout de backup... 90 Diretrizes de dimensionamento... 91 Carga de Trabalho de Referência... 91 4 Computação do usuário final do EMC VSPEX

Índice Definição de carga de trabalho de referência... 91 Aplicando a carga de trabalho de referência... 92 Implementando as arquiteturas de referência... 93 Tipos de recursos... 93 Recursos de backup... 95 Expansão de ambientes existentes do VSPEX EUC... 95 Resumo da implementação... 95 Avaliação rápida... 96 Requisitos de CPU... 96 Requisitos de memória... 96 Requisitos de desempenho de armazenamento... 97 Requisitos de capacidade de armazenamento... 97 Determinação de desktops virtuais de referência equivalentes... 97 Ajuste... 99 Capítulo 5 Diretrizes de Configuração do VSPEX 101 Visão geral... 102 Tarefas pré-implementação... 103 Pré-requisitos de implementação... 103 Dados de configuração do cliente... 105 Preparação de switches, conexão da rede e configuração de switches... 105 Preparação de switches de rede... 105 Configuração da rede de infraestrutura... 105 Configuração das VLANs... 107 Conclusão da conexão de rede... 107 Preparação e configuração do storage array... 108 Configuração do VNX... 108 Provisionamento do armazenamento de dados principais... 109 Provisionamento do armazenamento opcional para dados do usuário... 114 Provisionamento do armazenamento opcional para máquinas virtuais de infraestrutura... 116 Instalação e configuração de hosts do Microsoft Hyper-V... 117 Instalação dos hosts do Windows... 117 Instalação do Hyper V e configuração do clustering de failover... 117 Configuração do sistema de rede dos hosts Windows... 117 Instalação do PowerPath nos servidores Windows... 118 Habilitação de jumbo-frames... 118 Planejamento de alocações de memória de máquina virtual... 118 Instalação e configuração do banco de dados do SQL Server... 119 Criação de uma máquina virtual para o Microsoft SQL Server... 119 Instalação do Microsoft Windows na máquina virtual... 119 Instalação do SQL Server... 120 Configuração do banco de dados para Microsoft SCVMM... 120 Computação do usuário final do EMC VSPEX 5

Índice Implementação do servidor System Center Virtual Machine Manager... 121 Como criar a máquina virtual host do SCVMM... 121 Instalação do SO guest do SCVMM... 121 Instalação do SCVMM Server... 122 Instalação do SCVMM Management Console... 122 Instalação do agente do SCVMM localmente em um host... 122 Como adicionar um cluster do Hyper-V ao SCVMM... 122 Como adicionar armazenamento de compartilhamento de arquivos ao SCVMM (somente a variante de arquivo)... 122 Como criar uma máquina virtual no SCVMM... 122 Como criar um modelo de máquina virtual... 122 Implementação de máquinas virtuais a partir do modelo de máquina virtual... 123 Instalação e configuração da controladora XenDesktop... 123 Instalação de componentes de servidor do XenDesktop... 123 Configuração de um site... 124 Como adicionar uma segunda controladora... 124 Instalação do Citrix Studio... 124 Preparação de uma máquina virtual master... 124 Provisionamento de desktops virtuais... 125 Instalação e configuração de Provisioning Services (PVS apenas)... 126 Configuração de um conjunto de servidores PVS... 127 Como adicionar um segundo servidor PVS... 127 Criar um armazenamento PVS... 127 Configuração da comunicação de entrada... 127 Configurar um arquivo de bootstrap... 128 Configuração de um servidor TFTP no VNX... 128 Configuração das opções de inicialização 66 e 67 no servidor DHCP... 129 Preparação da máquina virtual master... 129 Provisionamento dos desktops virtuais... 130 Configuração do EMC Avamar... 130 Adições do GPO ao EMC Avamar... 132 Preparação da imagem mestre para o EMC Avamar... 135 Definindo conjuntos de dados... 136 Definindo agendamentos... 139 Ajuste do agendamento de janelas de manutenção... 140 Definindo políticas de retenção... 141 Criação de grupos e de política de grupo... 141 EMC Avamar Enterprise Manager: ativando clientes... 145 Resumo... 152 Capítulo 6 Validação da Solução 153 Visão geral... 154 Lista de verificação pós-instalação... 154 6 Computação do usuário final do EMC VSPEX

Índice Implementação e teste de apenas um desktop virtual... 155 Verificação da redundância dos componentes da solução... 155 Apêndice A Listas de material 157 Lista de material para 500 desktops virtuais... 158 Lista de material para 1.000 desktops virtuais... 160 Lista de material para 2.000 desktops virtuais... 162 Apêndice B Data sheet de configurações do cliente 165 Data sheets de configurações do cliente... 166 Apêndice C Referências 169 Referências... 170 Documentação da EMC... 170 Outra documentação... 170 Apêndice D Sobre o VSPEX 171 Sobre o VSPEX... 172 Computação do usuário final do EMC VSPEX 7

Índice Figuras Figura 1. Next-Generation VNX com otimização multi-core... 21 Figura 2. Os processadores ativos/ativos melhoram o desempenho, a resiliência e a eficiência... 23 Figura 3. Nova Unisphere Management Suite... 23 Figura 4. Componentes da solução... 26 Figura 5. Componentes da arquitetura do XenDesktop 7... 28 Figura 6. Flexibilidade da camada de computação... 32 Figura 7. Exemplo de projeto de rede altamente disponível... 34 Figura 8. Progresso de rebalanceamento do pool de armazenamento... 37 Figura 9. Utilização de espaço de thin-lun... 38 Figura 10. Examinando a utilização de espaço de pool de armazenamento... 39 Figura 11. Definindo limites de utilização de pool de armazenamento... 40 Figura 12. Definição de notificações automatizadas para block... 40 Figura 13. Arquitetura de alto nível do ShareFile... 43 Figura 14. Arquitetura lógica: Computação do usuário final do VSPEX para o Citrix XenDesktop com o ShareFile StorageZone... 45 Figura 15. Arquitetura lógica para variante SMB... 51 Figura 16. Arquitetura lógica para variante FC... 52 Figura 17. Consumo de memória de hipervisor... 63 Figura 18. Redes necessárias... 66 Figura 19. Tipos de discos virtuais Hyper-V... 69 Figura 20. Layout de armazenamento principal com provisionamento PVS para 500 desktops virtuais... 73 Figura 21. Layout de armazenamento principal com provisionamento MCS para 500 desktops virtuais... 74 Figura 22. Layout opcional de armazenamento para 500 desktops virtuais... 75 Figura 23. Layout de armazenamento principal com provisionamento de PVS para 1.000 desktops virtuais... 77 Figura 24. Layout de armazenamento principal com provisionamento de MCS para 1.000 desktops virtuais... 78 Figura 25. Layout opcional de armazenamento para 1.000 desktops virtuais... 79 Figura 26. Layout de armazenamento principal com provisionamento PVS para 2.000 desktops virtuais... 81 Figura 27. Layout de armazenamento principal com provisionamento de MCS para 2.000 desktops virtuais... 82 Figura 28. Layout opcional de armazenamento para 2.000 desktops virtuais... 84 Figura 29. Alta disponibilidade na camada de virtualização... 86 Figura 30. Fontes de alimentação redundantes... 86 Figura 31. Alta disponibilidade de camada de rede... 87 Figura 32. Alta disponibilidade da série VNX... 88 Figura 33. Arquitetura de rede de amostra variante SMB... 106 Figura 34. Amostra de arquitetura de rede variante FC... 107 Figura 35. Definir o parâmetro nthread... 111 8 Computação do usuário final do EMC VSPEX

Índice Figura 36. Caixa de diálogo Storage System Properties... 112 Figura 37. Crie a caixa de diálogo FAST Cache... 112 Figura 38. Guia Advanced na caixa de diálogo Create Storage Pool... 113 Figura 39. Guia Advanced da caixa de diálogo Storage Pool Properties... 113 Figura 40. Janela Storage Pool Properties... 115 Figura 41. Caixa de diálogo Manage Auto-Tiering... 115 Figura 42. Janela LUN Properties... 116 Figura 43. Caixa de diálogo Configure Bootstrap... 128 Figura 44. Configurando o redirecionamento de pastas do Windows... 132 Figura 45. Criar um mapeamento de drive de rede Windows para arquivos de usuários... 133 Figura 46. Configurar o mapeamento de drive... 134 Figura 47. Configurar as configurações comuns de mapeamento de drive... 134 Figura 48. Criar um mapeamento de drive de rede Windows para dados de perfis de usuários... 135 Figura 49. Menu de ferramentas do Avamar... 136 Figura 50. Caixa de diálogo Avamar Manage All Datasets... 136 Figura 51. Caixa de diálogo Avamar New Dataset... 137 Figura 52. Configurar o conjunto de dados do Avamar... 137 Figura 53. Conjunto de dados de perfil de usuários... 138 Figura 54. Configurações de exclusão do conjunto de dados de perfis de usuários... 138 Figura 55. Configurações de opções do conjunto de dados de perfis de usuários... 139 Figura 56. Configurações de Opções avançadas do conjunto de dados de perfis de usuários... 139 Figura 57. Agendamento da janela de backup/manutenção padrão do Avamar... 140 Figura 58. Agendamento modificado da janela de backup/manutenção do Avamar... 141 Figura 59. Criar um novo grupo de backup do Avamar... 142 Figura 60. Configurações do novo grupo de backup... 143 Figura 61. Selecionar conjunto de dados de grupo de backup... 143 Figura 62. Selecionar um agendamento de grupo de backup... 144 Figura 63. Selecionar a política de retenção de grupo de backup... 144 Figura 64. Avamar Enterprise Manager... 145 Figura 65. Avamar Client Manager... 145 Figura 66. Caixa de diálogo Avamar Activate Client... 146 Figura 67. Menu Avamar Activate Client... 146 Figura 68. Configuração do serviço de diretórios do Avamar... 147 Figura 69. Avamar Client Manager pós-configuração... 147 Figura 70. Avamar Client Manager clients desktop virtual... 148 Figura 71. Avamar Client Manager selecionar clients desktop virtual... 148 Figura 72. Seleção dos grupos do Avamar... 149 Computação do usuário final do EMC VSPEX 9

Índice Figura 73. Ativar Avamar Clients... 149 Figura 74. Confirmar ativação do Avamar Client... 150 Figura 75. Prompt de informação 1 para ativação do Avamar Client... 150 Figura 76. Prompt de informação 2 para ativação do Avamar Client... 151 Figura 77. Avamar Client Manager clientes ativados... 151 Tabelas Tabela 1. Limites e configurações no VNX OE Block versão 33... 40 Tabela 2. Recursos mínimos de hardware para dar suporte a StorageZone do ShareFile com o Storage Center... 46 Tabela 3. Armazenamento EMC VNX recomendado necessário para o compartilhamento CIFS do ShareFile StorageZone... 47 Tabela 4. Hardware da solução... 56 Tabela 5. Software da solução... 59 Tabela 6. Configurações que dão suporte a essa solução... 60 Tabela 7. Hardware de servidor... 62 Tabela 8. Recursos de hardware para rede... 65 Tabela 9. Hardware de armazenamento... 68 Tabela 10. Número de discos necessários para diferentes números de desktops virtuais... 72 Tabela 11. Perfil de ambiente validado... 89 Tabela 12. Características do perfil de backup... 90 Tabela 13. Características do desktop virtual... 92 Tabela 14. Linha da planilha em branco... 96 Tabela 15. Recursos do desktop virtual de referência... 97 Tabela 16. Exemplo de linha da planilha... 98 Tabela 17. Exemplos de aplicativos... 98 Tabela 18. Totais dos componentes de recursos de servidor... 99 Tabela 19. Planilha em branco do cliente... 100 Tabela 20. Visão geral do processo de implementação... 102 Tabela 21. Tarefas para a pré-implementação... 103 Tabela 22. Lista de verificação de pré-requisitos para implementação... 103 Tabela 23. Tarefas de configuração de switches e da rede... 105 Tabela 24. Tarefas de configuração de armazenamento... 108 Tabela 25. Tarefas de instalação de servidores... 117 Tabela 26. Tarefas de configuração do banco de dados do SQL Server... 119 Tabela 27. Tarefas para configuração do SCVMM... 121 Tabela 28. Tarefas de configuração da controladora XenDesktop... 123 Tabela 29. Tarefas de configuração da controladora XenDesktop... 126 Tabela 30. Tarefas para integração do Avamar... 131 Tabela 31. Tarefas de teste da instalação... 154 10 Computação do usuário final do EMC VSPEX

Tabela 32. Índice Lista de componentes usados na solução VSPEX para 500 desktops virtuais... 158 Tabela 33. Lista de componentes usados na solução VSPEX para 1.000 desktops virtuais... 160 Tabela 34. Lista de componentes usados na solução VSPEX para 2.000 desktops virtuais... 162 Tabela 35. Informações comuns do servidor... 166 Tabela 36. Informações do servidor Hyper-V... 166 Tabela 37. Informações do array... 167 Tabela 38. Informações sobre a infraestrutura de rede... 167 Tabela 39. Informações de VLAN... 167 Tabela 40. Contas de serviço... 168 Computação do usuário final do EMC VSPEX 11

Índice 12 Computação do usuário final do EMC VSPEX

Capítulo 1: Resumo executivo Capítulo 1 Resumo executivo Este capítulo apresenta os seguintes tópicos: Introdução... 14 Público-alvo... 14 Objetivo deste guia... 14 Necessidades dos negócios... 15 Computação do usuário final do EMC VSPEX 13

Capítulo 1: Resumo executivo Introdução As arquiteturas modulares e validadas do EMC VSPEX são desenvolvidas com tecnologias comprovadas para criar soluções de virtualização completas, que permitem tomar decisões embasadas sobre as camadas de hipervisor, computação e sistema de rede. O VSPEX elimina as sobrecargas de planejamento e configuração de virtualização do servidor. Ao dar início a um processo de virtualização de servidores, implementação de desktops virtuais ou consolidação de TI, o VSPEX agiliza a transformação da TI possibilitando implementações mais rápidas, mais opções, mais eficiência e menos riscos. Este documento pretende ser um guia abrangente dos aspectos técnicos desta solução. A capacidade do servidor é fornecida em termos genéricos para os requisitos mínimos de CPU, memória e interfaces de rede. O cliente tem a liberdade de selecionar o hardware do sistema de rede e do servidor que atenda ou supere os requisitos mínimos declarados. Público-alvo Objetivo deste guia Este guia assume que você tem o treinamento e o conhecimento necessários para instalar e configurar uma solução de computação do usuário final baseada no Citrix XenDesktop com Microsoft Hyper-V como um hipervisor, sistemas de armazenamento da série EMC VNX, e a infraestrutura associada, conforme exigido pro essa implementação. Referências externas são fornecidas quando aplicáveis, e você deve estar familiarizado com esses documentos. Você também deve estar familiarizado com as políticas de segurança de infraestrutura e de banco de dados da instalação do cliente. Os representantes voltados para a venda e o dimensionamento de uma solução VSPEX End-User Computing para o Citrix XenDesktop devem prestar atenção especial nos primeiros quatro capítulos deste documento. Os implementadores da solução devem se concentrar nas diretrizes da configuração no Capítulo 5, na validação da solução no Capítulo 6, e nas referências e apêndices apropriados. Este guia apresenta uma introdução inicial à arquitetura da computação do usuário final VSPEX, uma explicação sobre como modificar a arquitetura para projetos específicos e instruções sobre como implementar o sistema de maneira eficiente. A computação do usuário final VSPEX oferece ao cliente um sistema moderno, capaz de hospedar um grande número de desktops virtuais, com um nível de desempenho consistente. Essa solução é executada na camada de virtualização do Microsoft Hyper-V, com suporte da família de armazenamento VNX altamente disponível para armazenamento e para o desktop broker XenDesktop da Citrix. Os componentes de computação e de rede, enquanto podem ser definidos pelo fornecedor, são projetados para serem redundantes e são suficientemente avançados para manipular as necessidades de processamento e de dados de um ambiente amplo de máquina virtual. 14 Computação do usuário final do EMC VSPEX

Necessidades dos negócios Capítulo 1: Resumo executivo Os ambientes para 500, 1.000 e 2.000 desktops virtuais discutidos são baseados em uma carga de trabalho definida de desktop. Embora nem todos os desktops virtuais tenham os mesmos requisitos, este documento fornece métodos de ajuste e orientação para a implantação de um sistema de baixo custo. Uma arquitetura de computação do usuário final ou de desktop virtual é uma oferta de sistema complexa. Este documento facilita a configuração fornecendo listas de material de software e hardware iniciais, orientação e planilhas de dimensionamento passo a passo e etapas de implementação verificada. Testes de validação são fornecidos para garantir que seu sistema esteja funcionando corretamente após a instalação do último componente. O cumprimento das orientações deste documento garantirá uma implementação de desktop eficiente e sem esforço. O uso de aplicativos de negócios está se tornando mais comum no ambiente consolidado de computação, rede e armazenamento. O uso do Citrix para computação do usuário final do EMC VSPEX reduz a complexidade de configurar os componentes de um modelo de implementação tradicional. O gerenciamento de integração é simplificado enquanto são mantidas as opções de projeto e implementação do aplicativo. O Citrix unifica a administração, permitindo o controle e o monitoramento de separação do processo. Seguem abaixo as necessidades de negócios abordadas pela solução VSPEX End-User Computing para a arquitetura Citrix: Fornece uma solução de virtualização completa para usar os recursos dos componentes da infraestrutura unificada Fornece uma solução para a virtualização eficiente de 500, 1.000 ou 2.000 desktops virtuais para os diversos casos de uso de clientes Fornece um projeto de referência confiável, flexível e dimensionável Computação do usuário final do EMC VSPEX 15

Capítulo 1: Resumo executivo 16 Computação do usuário final do EMC VSPEX

Capítulo 2: Visão geral da solução Capítulo 2 Visão geral da solução Este capítulo apresenta os seguintes tópicos: Visão geral da solução... 18 Desktop broker... 18 Virtualização... 18 Computação... 18 Rede... 19 VMware... 19 Armazenamento... 19 Computação do usuário final do EMC VSPEX 17

Capítulo 2: Visão geral da solução Visão geral da solução Desktop broker A solução EMC VSPEX End-User Computing para Citrix XenDesktop no Microsoft Hyper-V Server 2012 fornece uma arquitetura de sistema completa que dá suporte e protege até 2.000 desktops virtuais com uma topologia de servidor e rede redundante, armazenamento altamente disponível e soluções de backup da EMC confiáveis. Os principais componentes que constituem essa solução específica são: desktop broker, virtualização, armazenamento, rede e computação. XenDesktop é a solução de desktop virtual da Citrix que permite que os desktops virtuais sejam executados no ambiente de virtualização Microsoft Hyper-V. Possibilita a centralização do gerenciamento de desktops e proporciona mais controle para os departamentos de TI. O XenDesktop permite que os usuários finais se conectem a seus desktops a partir de vários dispositivos por meio de uma conexão de rede. Virtualização Computação O Microsoft Hyper-V é a plataforma de virtualização que oferece flexibilidade e economia aos usuários finais permitindo a consolidação de conjuntos de servidores grandes e ineficientes em infraestruturas em nuvem ágeis e confiáveis. Os componentes de virtualização principais da Microsoft são o hipervisor Microsoft Hyper-V e o Microsoft System Center Virtual Machine Manager para gerenciamento de sistemas. O hipervisor Microsoft Hyper-V é executado em um servidor dedicado e permite que vários sistemas operacionais sejam executados no sistema simultaneamente, como máquinas virtuais. Os serviços em cluster da Microsoft permitem que vários servidores Hyper-V operem em uma configuração em cluster. A configuração do cluster do Microsoft Hyper-V é gerenciada como um pool de recursos maior através da Máquina Virtual do Microsoft System Center, que permitindo a alocação dinâmica de CPU, memória e armazenamento no cluster. Os recursos de alta disponibilidade do Microsoft Hyper-V Server 2012, como Migration e Storage Migration em tempo real, permitem migração perfeita de máquinas virtuais e arquivos armazenados de um servidor Hyper-V para outro, com pouco ou nenhum impacto sobre o desempenho. O VSPEX oferece flexibilidade para projetar e implementar os componentes de servidor selecionados pelo fornecedor. A infraestrutura deve estar de acordo com os seguintes atributos: RAM, núcleos de CPU e memória suficientes para comportar o número e os tipos de máquinas virtuais desejados Conexões de rede suficientes para permitir conectividade redundante com switches do sistema Excesso de capacidade para aceitar failover após uma falha do servidor no ambiente 18 Computação do usuário final do EMC VSPEX

Capítulo 2: Visão geral da solução Rede O VSPEX oferece flexibilidade para projetar e implementar os componentes de rede selecionados pelo fornecedor. A infraestrutura deve estar de acordo com os seguintes atributos: Links de rede redundantes para hosts, switches e armazenamento Suporte para agregação de links Isolamento de tráfego com base nas práticas recomendadas aceitas pelo setor VMware Armazenamento O EMC Avamar oferece a proteção e a eficiência necessárias para acelera a implementação de uma solução EUC (End-User Computing) do VSPEX. A Avamar permite aos administradores fazer backup e gerenciar políticas e componentes da infraestrutura de computação do usuário final centralmente, enquanto permitem que usuários finais recuperem seus próprios arquivos eficientemente, usando uma interface simples e intuitiva baseada na Web. O Avamar só move segmentos de dados de subarquivo novos e exclusivos, resultando em backups completos diários e rápidos. Isso resulta em uma redução de até 90 por cento nos tempos de backup e pode reduzir a largura de banda de rede diária necessária em até 99% e o armazenamento de backup necessário de 10 a 30 vezes. A série de armazenamento EMC VNX de última geração fornece acesso a file e block com um conjunto amplo de recursos, o que faz dela a escolha ideal para qualquer implementação de computação do usuário final. O armazenamento do VNX inclui os seguintes componentes, que são dimensionados para a carga de trabalho da arquitetura de referência mencionada: Portas com adaptador de host (para block) fornecem conectividade de host por meio de fabric ao array Data Movers (para arquivo) dispositivos de front-end que fornecem os serviços de arquivo aos hosts (opcional se forem fornecidos os serviços CIFS/SMB, NFS). Controladoras de armazenamento (SPs) os componentes de computação do storage array que são usados para todos os aspectos da movimentação de dados para fora e para dentro de arrays e entre eles Drives de disco spindles de disco e SSDs que contêm os dados de aplicativos ou host e seus compartimentos Obs.: O termo Data Mover refere-se a um componente de hardware do VNX, que tem uma CPU, memória e portas de I/O. Ele habilita os protocolos CIFS (SMB) e NFS no VNX. Computação do usuário final do EMC VSPEX 19

Capítulo 2: Visão geral da solução As soluções de desktop descritas neste documento são baseadas nos storage arrays EMC VNX5400 e EMC VNX5600. O VNX5400 pode dar suporte a um máximo de 250 drives e o VNX5600 pode hospedar até 500 drives. O EMC série VNX dá suporte a uma ampla gama de recursos de classe corporativa, ideais para o ambiente de computação do usuário final, inclusive: EMC Fully Automated Storage Tiering for Virtual Pools (FAST VP) EMC FAST Cache Desduplicação e compactação de dados em nível de arquivo Desduplicação em blocos Provisionamento thin Replicação Snapshots e checkpoints Retenção em nível de arquivo Gerenciamento de cotas Recursos e aprimoramentos A plataforma de armazenamento unificado EMC VNX otimizada para flash oferece inovação e recursos empresariais para armazenamento de arquivos, blocos e objeto em uma solução única dimensionável e fácil de usar. Ideal para cargas de trabalho mistas em ambientes físicos ou virtuais, o VNX combina hardware avançado e flexível com softwares de proteção, gerenciamento e eficiência avançados para atender às exigências dos ambientes de aplicativos virtualizados atuais. A série VNX de última geração inclui muitos recursos e aprimoramentos projetados e construídos com base no sucesso da primeira geração. Esses recursos e aprimoramentos incluem: Maior capacidade com otimização multi-core com Cache, RAID e FAST Cache multi-core (MCx ) Maior eficiência com um array híbrido otimizado para flash Maior proteção devido ao aumento da disponibilidade dos aplicativos com controladoras de armazenamento ativo-ativo Maior facilidade para administrar e implementar devido ao aumento da produtividade com o novo Unisphere Management Suite O VSPEX é construído com o VNX de última geração para proporcionar eficiência, desempenho e escala ainda melhores. Array híbrido otimizado para flash O VNX é um array híbrido otimizado para flash que fornece uma classificação por níveis automatizada para proporcionar um melhor desempenho para seus dados críticos, ao mesmo tempo em que move, com inteligência, dados menos acessados para discos de menor custo. 20 Computação do usuário final do EMC VSPEX

Capítulo 2: Visão geral da solução Nessa abordagem híbrida, uma pequena porcentagem de flash drives no sistema como um todo pode fornecer uma alta porcentagem de IOPS geral. Um VNX otimizado para flash aproveita todas as vantagens da baixa latência do flash para fornecer otimização econômica e dimensionamento de alto desempenho. A EMC Fully Automated Storage Tiering Suite (FAST Cache e FAST VP) classifica em níveis os block e file data por drives heterogêneos e impulsiona os dados mais ativos para os flash drives, garantindo que os clientes nunca precisem fazer concessões em relação ao custo ou ao desempenho. Os novos dados tendem a ser acessados com mais frequência que os dados mais antigos, por isso são armazenados em flash drives para proporcionar o melhor desempenho. À medida que os dados ficam mais velhos e menos ativos com o passar do tempo, o FAST VP classifica por níveis os dados de drives de alto desempenho para drives de alta capacidade automaticamente, com base em políticas definidas pelo cliente. Esse recurso foi aprimorado para oferecer uma eficiência quatro vezes melhor com novos SSDs Fast VP que são baseados na tecnologia emlc (enterprise multi-level cell, célula de multi-nível corporativa) para reduzir o custo por gigabyte. O FAST Cache absorve dinamicamente picos imprevisíveis nas cargas de trabalho do sistema. Todos os casos de uso do VSPEX se beneficiam de maior eficiência. As VSPEX Proven Infrastructures constituem soluções de aplicativos virtualizados, computação de usuário final e nuvem privada. Com o VNX, os clientes podem obter um maior retorno de seu investimento. O VNX fornece desduplicação baseada em bloco, fora de banda, que pode reduzir drasticamente os custos do nível de flash. Otimização do caminho do código MCx do VNX Intel O advento da tecnologia flash foi um catalisador na mudança significante dos requisitos dos sistemas de armazenamento midrange. A EMC reprojetou a plataforma de armazenamento midrange para otimizar, com eficiência, CPUs com vários núcleos e fornecer um sistema de armazenamento do mais alto desempenho ao menor custo do mercado. O MCx distribui todos os serviços de dados do VNX por todos os núcleos, conforme mostrado na Figura 1. A série VNX com MCx melhora drasticamente o desempenho dos arquivos para aplicativos transacionais, como bancos de dados ou máquinas virtuais por NAS (network-attached storage). Figura 1. Next-Generation VNX com otimização multi-core Computação do usuário final do EMC VSPEX 21

Capítulo 2: Visão geral da solução Cache multi-core O cache é o ativo mais valioso do subsistema de armazenamento; seu uso eficiente é a chave para a eficiência geral da plataforma ao manipular cargas de trabalho variáveis e mutáveis. O motor do cache foi modularizado para tirar proveito de todos os núcleos disponíveis no sistema. RAID multi-core Outra parte importante do novo modelo do MCx é o tratamento da I/O para o armazenamento de back-end permanente HDDs e SSDs. Importantes aprimoramentos de desempenho no VNX se originam da criação de módulos de processamento do gerenciamento de dados de back-end, que permite ao MCx expandir-se facilmente por todos os processadores. Desempenho do VNX O armazenamento VNX, habilitado com a arquitetura MCx, é otimizado para FLASH 1st e fornece desempenho global sem precedentes. Ele otimiza o sistema para desempenho de transação (custo por IOPS), o desempenho da largura de banda (custo por GB/s) com baixa latência e fornece eficiência de capacidade ideal (custo por GB). O VNX oferece os seguintes aprimoramentos de desempenho: Até quatro vezes mais transações de arquivos em comparação com arrays de controladoras duplas Desempenho três vezes melhor dos arquivos para aplicativos de transações (por exemplo, Microsoft Exchange no VMware por NFS), com um tempo de resposta 60% melhor Até quatro vezes mais transações OLTP do Oracle e do Microsoft SQL Server Até seis vezes mais máquinas virtuais Controladoras de armazenamento com array ativo-ativo A nova arquitetura do VNX fornece controladoras de armazenamento de array ativo-ativo, conforme mostrado na Figura 2, que elimina timeouts de aplicativo durante failover de caminho porque os dois caminhos atendem I/O ativamente. O balanceamento de carga também é aprimorado, e os aplicativos podem obter uma melhora de até duas vezes no desempenho. Ativo/ativo para block é ideal para aplicativos que exigem os níveis mais altos de disponibilidade e desempenho, mas não exigem classificação por níveis nem serviços de eficiência, como compactação, desduplicação ou snapshot. Com essa versão do VNX, os clientes do VSPEX podem usar VDMs (Data Movers virtuais) e o VNX Replicator para efetuar migrações de sistema de arquivos automatizadas e de alta velocidade entre sistemas. Esse processo migra todos os checkpoints e configurações automaticamente e permite que os clientes continuem a trabalhar durante a migração. 22 Computação do usuário final do EMC VSPEX

Capítulo 2: Visão geral da solução Figura 2. Os processadores ativos/ativos melhoram o desempenho, a resiliência e a eficiência Gerenciamento do Unisphere A nova Unisphere Management Suite amplia a interface fácil de usar do Unisphere para incluir o VNX Monitoring and Reporting para validação do desempenho e previsão de requisitos de capacidade. Conforme mostrado na Figura 3, a suite também inclui o Unisphere Remote para gerenciamento centralizado de milhares de sistemas VNX e VNXe com um novo suporte para o XtremSW Cache. Figura 3. Nova Unisphere Management Suite Computação do usuário final do EMC VSPEX 23

Capítulo 2: Visão geral da solução 24 Computação do usuário final do EMC VSPEX

Capítulo 3: Visão Geral da Tecnologia da Solução Capítulo 3 Visão Geral da Tecnologia da Solução Este capítulo apresenta os seguintes tópicos: Tecnologia da solução... 26 Resumo dos componentes-chave... 27 Virtualização de desktop... 28 Virtualização... 30 Computação... 31 Rede... 33 Armazenamento... 35 Backup e recuperação... 42 ShareFile... 42 Computação do usuário final do EMC VSPEX 25

Capítulo 3: Visão Geral da Tecnologia da Solução Tecnologia da solução Esta solução VSPEX usa storage arrays EMC VNX5400 (para até 1.000 desktops virtuais) ou VNX5600 (para até 2.000 desktops virtuais) e o Microsoft Hyper-V Server 2012 para fornecer os recursos de armazenamento e de computadores para um ambiente Citrix XenDesktop 7 de desktops virtuais Windows 7 provisionado por PVS (Provisioning Services) ou MCS (Machine Creation Services). A Figura 4 mostra os componentes da solução. Figura 4. Componentes da solução Planejar e projetar a infraestrutura de armazenamento para Citrix XenDesktop é uma etapa crítica, pois o armazenamento compartilhado deve ser capaz de absorver grandes picos de entrada/saída (I/O) que ocorrem durante alguns casos de uso, como quando muitos desktops são inicializados no início de um dia de trabalho ou quando patches necessários são aplicados. Esses picos grandes de I/O podem provocar períodos instáveis e imprevisíveis de desempenho do desktop virtual. Se o planejamento não levar esses casos de uso em conta, os usuários podem rapidamente ficar frustrados com o desempenho imprevisível. Para fornecer um desempenho previsível para um ambiente de computação do usuário final, o armazenamento deve ser capaz de manipular o pico de cargas de I/O dos clientes enquanto mantém um tempo de resposta rápido. Normalmente, o projeto desse tipo de carga de trabalho envolve a implementação de muitos discos para manipular períodos breves de alta pressão de I/O, o que é caro para implementar. Essa solução usa o EMC VNX FAST Cache, permitindo a redução do número de discos necessários. O backup de última geração da EMC possibilita a proteção de dados de usuário e a capacidade de recuperação do usuário final usando o EMC Avamar e seu cliente de desktop dentro da imagem de desktop. 26 Computação do usuário final do EMC VSPEX

Capítulo 3: Visão Geral da Tecnologia da Solução Resumo dos componentes-chave Esta seção descreve brevemente os componentes-chave desta solução. Virtualização de desktop O desktop broker de virtualização gerencia o provisionamento, a alocação, a manutenção e a eventual remoção das imagens de desktops virtuais que são fornecidas aos usuários do sistema. Esse software permite a criação sob demanda de imagens do desktop, permite a manutenção da imagem sem afetar a produtividade do usuário e impede que o ambiente cresça de maneira descontrolada. Virtualização A camada de virtualização permite que os recursos físicos sejam separados dos aplicativos que os utilizam. Isso permite que os aplicativos usem recursos que não estão diretamente relacionados ao hardware, habilitando muitos recursoschave para a computação do usuário final. Computação A camada de computação fornece recursos de memória e processamento para o software de camada de virtualização e aplicativos em execução na infraestrutura. O programa VSPEX define a quantidade mínima de recursos de camada de computação necessária e permite que o cliente implemente os requisitos usando qualquer hardware de computação que atenda a esses requisitos. Rede A camada de rede conecta os usuários do ambiente aos recursos de que precisam, além de conectar a camada de armazenamento à camada de computação. O programa VSPEX define o número mínimo de portas de rede necessárias para a solução e fornece orientação geral sobre a arquitetura de rede. Permite que o cliente implemente os requisitos usando qualquer hardware de rede que atenda a esses requisitos. Armazenamento A camada de armazenamento é um recurso essencial para a implementação do ambiente de computação do usuário final. Devido à maneira pela qual os desktops são usados, a camada de armazenamento deve ser capaz de absorver grandes picos de atividade transiente sem impacto indevido na experiência do usuário. Esta solução usa o EMC VNX FAST Cache para manipular essa carga de trabalho com eficiência. Backup e recuperação O componente opcional de backup e recuperação da solução fornece proteção de dados, caso os dados do sistema principal sejam excluídos, danificados ou se tornem inutilizáveis. ShareFile Os componentes de segurança da RSA oferecem aos clientes opções adicionais para controlar o acesso ao ambiente e garantir que somente usuários autorizados tenham permissão para usar o sistema. A arquitetura da solução fornece detalhes sobre todos os componentes que compõem a arquitetura de referência. Computação do usuário final do EMC VSPEX 27

Capítulo 3: Visão Geral da Tecnologia da Solução Virtualização de desktop A virtualização de desktop encapsula e entrega o desktop do usuário a um dispositivo client remoto, que pode ser um client thin, client zero, smartphones ou tablet. Ela permite que assinantes de diferentes locais acessem desktops virtuais hospedados em recursos de computação centralizados em datacenters remotos. Nesta solução, o Citrix XenDesktop é usado para provisionar, administrar, intermediar e monitorar o ambiente de virtualização do desktop. Citrix XenDesktop 7 Na arquitetura do XenDesktop 7, os componentes de gerenciamento e de entrega são compartilhados entre o XenDesktop e o XenApp para oferecer uma experiência de gerenciamento unificada aos administradores. A Figura 5 mostra os componentes da arquitetura do XenDesktop 7. Figura 5. Componentes da arquitetura do XenDesktop 7 Os componentes da arquitetura do XenDesktop 7 são descritos conforme a seguir: Receiver: Instalado em dispositivos de usuário, o Citrix Receiver oferece aos usuários acesso rápido, seguro e de auto-atendimento a documentos, aplicativos e desktops a partir de qualquer um dos dispositivos do usuário, incluindo smartphones, tablets e computadores. O Receiver fornece acesso sob demanda para aplicativos do Windows, Web e software como serviço (SaaS). StoreFront: O StoreFront autentica os usuários em recursos de hospedagem de site e gerencia lojas de desktops e aplicativos que os usuários acessam. Studio: Studio é o console de gerenciamento que permite configurar e gerenciar sua implementação, eliminando a necessidade de consoles de gerenciamento separados para gerenciar a entrega de aplicações e desktops. Ele fornece vários assistentes para guiá-lo pelo processo de criação de seu ambiente, criando suas cargas de trabalho para hospedar aplicativos e desktops e atribuindo aplicativos e desktops aos usuários. 28 Computação do usuário final do EMC VSPEX

Capítulo 3: Visão Geral da Tecnologia da Solução Controladora de entrega: Instalado em servidores no datacenter, o Controlador de entrega consiste em serviços que se comunicam com o hipervisor para distribuir aplicativos e desktops, autenticar e gerenciar o acesso do usuário e intermediar as conexões entre os usuários e seus desktops virtuais e aplicativos. A controladora gerencia o estado dos desktops, iniciando e parando-os com base na demanda e na configuração administrativa. Em algumas edições, a controladora permite que você instale gerenciamento de perfil para gerenciar as configurações de personalização de usuários em ambientes Windows virtualizados ou físicos. Cada local tem uma ou mais controladoras de entrega. Agente de entrega virtual (VDA): Instalado no servidor ou em sistemas operacionais de estação de trabalho, o VDA permite conexões para desktops e aplicativos. Para acesso remoto ao PC, instale o VDA no computador do escritório. Máquinas do SO do servidor: Máquinas do SO do servidor são máquinas virtuais ou máquinas físicas com base em sistemas operacionais do Windows Server e são usadas para a entrega de aplicativos ou de desktops compartilhados hospedados (HSDS) aos usuários. Máquinas do SO do desktop: Máquinas do SO de desktop são máquinas virtuais ou físicas com base no sistema operacional Windows Desktop e são utilizadas para entregar desktops personalizados para usuários ou aplicativos desde sistemas operacionais de desktop. Acesso ao PC remoto: Dispositivos de usuário que estão incluídos em uma lista branca permitem aos usuários acessar os recursos em seus computadores de escritório remotamente, a partir de qualquer dispositivo que esteja executando o Citrix Receiver. Machine Creation Services O MCS (Machine Creation Services) é um mecanismo de provisionamento integrado à interface de gerenciamento do XenDesktop, Citrix Studio, para provisionar, gerenciar e desativar os desktops durante o gerenciamento do ciclo de vida dos desktops em um ponto centralizado de gerenciamento. O MCS permite o gerenciamento de vários tipos de máquinas em um catálogo no Citrix Studio. A personalização do computador é persistente para máquinas que usam o Personal vdisk, enquanto máquinas vdisk não pessoais são apropriadas se as mudanças de desktop devem ser descartadas quando o usuário fizer log-off. Os desktops provisionados usando o MCS compartilham uma imagem de base comum em um catálogo. Devido a esse fato, a imagem base é normalmente acessada com frequência suficiente para usar o EMC VNX FAST Cache, enquanto os dados acessados frequentemente são promovidos a flash drives a fim de proporcionar o tempo de resposta de I/O ideal com menos discos físicos. Citrix Provisioning Services O Citrix Provisioning Services (PVS) tem uma abordagem diferente das soluções tradicionais de imagem de desktop, mudando fundamentalmente a relação entre o hardware e o software que executa nele. Transmitindo uma única imagem de disco compartilhado (vdisk), em vez de copiar as imagens para máquinas individuais de streaming, o PVS permite às organizações reduzir o número de imagens de disco que elas gerenciam. À medida que o número de máquinas continua crescendo, o DVE fornece a eficiência de um gerenciamento centralizado com as vantagens de processamento distribuído. Computação do usuário final do EMC VSPEX 29

Capítulo 3: Visão Geral da Tecnologia da Solução Como as máquinas transmitem os dados do disco dinamicamente em tempo real a partir de uma única imagem compartilhada, a consistência da imagem da máquina é garantida. Além disso, a configuração, as aplicações e até mesmo SO de grandes pools de máquinas podem mudar completamente durante a operação de reinício e reinicialização. Nesta solução, o PVS provisiona 500, 1.000 ou 2.000 desktops virtuais executando Windows 7. Os desktops são implantados a partir de uma única imagem do vdisk. Citrix Personal vdisk O recurso Citrix Personal vdisk (PvDisk ou PvD) foi introduzido no Citrix XenDesktop 5.6. Com o Personal vdisk, os usuários podem preservar as configurações de personalização e aplicativos instalados pelo usuário em um desktop em pool. Este recurso é executado redirecionando as alterações da máquina virtual em pool do usuário para um disco separado denominado Personal vdisk. Durante a execução, o conteúdo do Personal vdisk é combinado ao conteúdo da máquina virtual de base para proporcionar uma experiência unificada ao usuário final. Os dados do Personal vdisk são preservados durante as operações de reinicialização e atualização. Nesta solução, o PVS provisiona 500, 1.000 ou 2.000 desktops virtuais executando Windows 7. Os desktops são implantados a partir de uma única imagem do vdisk. Citrix Profile Management O Citrix Profile Management preserva perfis de usuário e os sincroniza dinamicamente com um repositório de perfis remotos. O Citrix Profile Management garante que as configurações pessoais sejam aplicadas a desktops e aplicativos, independentemente do local de log-in do usuário ou do dispositivo client. A combinação do Citrix Profile Management com desktops em pool fornece a experiência de um desktop dedicado, reduzindo potencialmente, ao mesmo tempo, a quantidade de armazenamento necessário em uma organização. Com o Citrix Profile Management, o perfil remoto de um usuário é obtido dinamicamente por download quando o usuário faz log-in em um Citrix XenDesktop. O Profile Management faz o download das informações de perfil do usuário somente quando o usuário precisa. Virtualização A camada de virtualização é um componente-chave de qualquer solução de computação de usuário final. Ela permite que as necessidades de recursos de aplicativos sejam dissociadas dos recursos físicos subjacentes que os servem. Isso possibilita uma maior flexibilidade na camada de aplicativos, eliminando o tempo de inatividade do hardware para manutenção, e permite que a capacidade física do sistema mude sem afetar os aplicativos hospedados. Microsoft Hyper-V Server 2012 O Microsoft Hyper-V Server 2012 é usado para construir a camada de virtualização desta solução. O Microsoft Hyper-V transforma os recursos físicos do computador virtualizando a CPU, a memória, o armazenamento e a rede. Essa transformação cria máquinas virtuais totalmente funcionais que executam sistemas operacionais e aplicativos isolados e encapsulados da mesma forma que computadores físicos. 30 Computação do usuário final do EMC VSPEX

Capítulo 3: Visão Geral da Tecnologia da Solução Os recursos de alta disponibilidade do Microsoft Hyper-V, como Migration e Storage Migration em tempo real, permitem migração perfeita de máquinas virtuais e arquivos armazenados de um servidor Hyper-V para outro, com pouco ou nenhum impacto sobre o desempenho. Microsoft System Center Virtual Machine Manager Alta disponibilidade do Hyper-V O Microsoft System Center Virtual Machine Manager é uma plataforma de gerenciamento centralizado para a infraestrutura do Microsoft Hyper-V. Ele oferece aos administradores uma interface única que pode ser acessada a partir de vários dispositivos para todos os aspectos de monitoramento, gerenciamento e manutenção da infraestrutura virtual. O recurso Microsoft Hyper-V Cluster High Availability permite que a camada de virtualização reinicie automaticamente máquinas virtuais em várias condições de falha. Se o hardware físico apresentar um erro, as máquinas virtuais impactadas poderão ser reiniciadas automaticamente em outros servidores no cluster. Obs.: Para que o Microsoft Hyper-V Cluster High Availability reinicie máquinas virtuais em hardware diferente, esses servidores deverão ter recursos disponíveis. A seção Cálculo fornece recomendações específicas para habilitar essa funcionalidade. O Microsoft Hyper-V Cluster permite que você configure políticas para determinar quais máquinas são reiniciadas automaticamente e em que condições essas operações devem ser executadas. EMC Storage Integrator para Windows O EMC Storage Integrator (ESI) 3.0 para Windows é uma interface de gerenciamento que fornece a capacidade de visualizar e provisionar armazenamento de block e file para ambientes Windows. O ESI simplifica as etapas envolvidas na criação e provisionamento de armazenamento de servidores Hyper-V como um disco local ou como um compartilhamento mapeado. O ESI também oferece suporte para descoberta de armazenamento e provisionamento através do PowerShell. Os guias do produto ESI para Windows que estão disponíveis no Suporte on-line da EMC fornecem mais informações. Computação A escolha de uma plataforma de servidor para uma infraestrutura EMC VSPEX é baseada não somente nos requisitos técnicos do ambiente, mas na capacidade de suporte da plataforma, nas relações existentes com o provedor do servidor, nos recursos avançados de desempenho e gerenciamento e em muitos outros fatores. Por isso, as soluções EMC VSPEX são projetadas para execução em uma ampla variedade de plataformas de servidor. Em vez de exigir um determinado número de servidores com um conjunto específico de requisitos, o VSPEX define os requisitos mínimos para o número de núcleos de processador e a quantidade de RAM. Essa implementação pode ser feita com dois ou 20 servidores, e ainda será considerada a mesma solução VSPEX. Computação do usuário final do EMC VSPEX 31

Capítulo 3: Visão Geral da Tecnologia da Solução Por exemplo, vamos supor que os requisitos da camada de computação de determinada implementação sejam 25 núcleos de processador e 200 GB de RAM. Um cliente quer usar servidores white-box com 16 núcleos de processador e 64 GB de RAM, enquanto um segundo cliente opta por um servidor avançado com 20 núcleos de processamento e 144 GB de RAM. Neste exemplo, o primeiro cliente precisa de quatro dos servidores, enquanto o segundo cliente precisa de dois, conforme mostrado na Figura 6. Figura 6. Flexibilidade da camada de computação Obs.: Para permitir alta disponibilidade na camada de computação, cada cliente precisará de um servidor adicional com capacidade suficiente para fornecer uma plataforma de failover no caso de paralisação do hardware. Na camada de computação, observe as seguintes práticas: Use um número de servidores idênticos ou, pelo menos, compatíveis. O VSPEX implementa tecnologias de alta disponibilidade de nível de hipervisor que podem exigir conjuntos de instruções semelhantes sobre o hardware físico subjacente. Implementando o VSPEX em unidades de servidor idênticas, você pode minimizar problemas de compatibilidade nessa área. Se estiver implementando alta disponibilidade de nível de hipervisor, a maior máquina virtual que você pode criar será limitada pelo menor servidor físico no ambiente. 32 Computação do usuário final do EMC VSPEX

Capítulo 3: Visão Geral da Tecnologia da Solução Implemente os recursos de alta disponibilidade disponíveis na camada de virtualização para garantir que a camada de computação tenha recursos suficientes para comportar, no mínimo, falhas de um servidor. Isso permite a implementação de upgrades com tempo mínimo de inatividade e a tolerância a falhas em uma só unidade. Dentro dos limites dessas recomendações e práticas recomendadas, a camada de computação para o EMC VSPEX pode ser flexível para atender necessidades específicas. A principal restrição é o provisionamento de núcleos de processador e RAM suficientes por núcleo, para atender às necessidades do ambiente de destino. Rede A rede de infraestrutura requer links de rede redundantes para cada host do Hyper-V, o storage array, as portas de interconexão de switches e as portas de uplink de switches. Essa configuração fornece redundância e largura de banda de rede adicional. Essa configuração é necessária, independentemente de a infraestrutura de rede da solução já existir ou estar sendo implementada juntamente com outros componentes da solução. Um exemplo deste tipo de topologia de rede altamente disponível está representado na Figura 7. Obs.: O exemplo é para redes baseadas em IP, mas os mesmos princípios subjacentes de múltiplas conexões e eliminação de pontos únicos de falha também se aplicam a redes baseadas em Fibre Channel. Computação do usuário final do EMC VSPEX 33

Capítulo 3: Visão Geral da Tecnologia da Solução Figura 7. Exemplo de projeto de rede altamente disponível Essa solução validada usa VLANs (Virtual Local Area Networks, redes de área local virtual) para separar o tráfego de rede de vários tipos a fim de melhorar o throughput, a capacidade de gerenciamento, separação de aplicativos, alta disponibilidade e segurança. As plataformas de armazenamento unificado da EMC fornecem alta disponibilidade de rede ou redundância ao usar agregação de links. A agregação de links permite que várias conexões ativas de Ethernet apareçam como um só link, com um endereço MAC único e possivelmente vários endereços IP. Nesta solução, o LACP (Link Aggregation Control Protocol, protocolo de controle de agregação de links) está configurado no VNX, combinando várias portas Ethernet em um só dispositivo virtual. Se um link for perdido na porta Ethernet, realizará o failover para outra porta. Todo o tráfego de rede é distribuído entre os links ativos. 34 Computação do usuário final do EMC VSPEX

Capítulo 3: Visão Geral da Tecnologia da Solução Armazenamento A camada de armazenamento é um componente-chave de qualquer solução de infraestrutura em nuvem, proporcionando eficiência de armazenamento, flexibilidade de gerenciamento e redução no custo total de propriedade. Esta solução VSPEX utiliza o EMC série VNX para fornecer virtualização na camada de armazenamento. EMC VNX Snapshots O VNX Snapshots é um recurso de software que cria cópias de dados point-intime. Os snapshots do VNX podem ser usados para backups de dados, desenvolvimento e teste de software, realocações, validação de dados e restauração local rápida. O VNX Snapshots aprimora a funcionalidade de snapshots do EMC VNX SnapView atual por meio da integração com pools de armazenamento. Obs.: LUNs criadas em grupos RAID físicos, também chamadas de LUNs RAID, são compatíveis apenas com snapshots do SnapView. Essa limitação existe porque o VNX Snapshots exige espaço em pool como parte de sua tecnologia. O VNX Snapshots dá suporte a 256 snapshots graváveis por LUN de pool. Ele dá suporte a Branching, também chamado de "Snap of a Snap" (snapshot de um snapshot), contanto que o número total de snapshots para qualquer LUN primária seja inferior a 256, que é o limite máximo. O VNX Snapshots usa tecnologia ROW (Redirect On Write, redirecionamento na gravação). Essa tecnologia redireciona novas gravações destinadas à LUN principal para um novo local no pool de armazenamento. Esse tipo de implementação é diferente da COFW (copy on first write) usada no SnapView, que mantém as gravações na LUN primária até que os dados originais sejam copiados para o pool reservado de LUNs a fim de preservar um snapshot. Essa versão também é compatível com CGs (Consistency groups, grupos de consistência). Várias LUNs de pool podem ser combinadas em um CG e ter snapshots realizados simultaneamente. Quando o snapshot de um CG é iniciado, todas as gravações nas LUNs do membro são retidas até que seus snapshots tenham sido criados. Normalmente, CGs são utilizados para LUNs que pertençam ao mesmo aplicativo. EMC VNX SnapSure O EMC VNX SnapSure é um recurso de software de arquivo do EMC VNX que permite que você crie e gerencie checkpoints que sejam point-in-time, imagens lógicas de um PFS (Production File System). O SnapSure utiliza um princípio COFW. Um PFS consiste em blocos. Quando um bloco dentro do PFS é modificado, uma cópia com o conteúdo original do bloco é salva em um volume separado, chamado de SavVol. Alterações subsequentes feitas no mesmo bloco do FPS não são copiadas para o SavVol. Os blocos originais do PFS no SavVol e os blocos não alterados restantes no PFS são lidos pelo SnapSure de acordo com uma estrutura de rastreamento de dados de bitmap e mapa de blocos. Esses blocos se combinam para fornecer uma imagem point-in-time completa, chamada de checkpoint. Um checkpoint reflete o estado de um PFS no momento em que o checkpoint foi criado. O SnapSure é compatível com estes tipos de checkpoints: Computação do usuário final do EMC VSPEX 35

Capítulo 3: Visão Geral da Tecnologia da Solução Checkpoints somente leitura sistemas de arquivos somente leitura criados a partir de um PFS Checkpoints graváveis sistemas de arquivos de leitura/gravação criados a partir de um checkpoint somente leitura O SnapSure pode manter um máximo de 96 checkpoints somente leitura e 16 checkpoints graváveis por PFS, ao mesmo tempo que permite aos aplicativos do PFS acesso contínuo a dados em tempo real. Obs.: Cada checkpoint gravável associa-se a um checkpoint somente leitura, o que é chamado de checkpoint da linha de base. Cada checkpoint da linha de base só pode ter um checkpoint gravável associado. Uso do VNX SnapSure fornece informações mais detalhadas. EMC VNX Virtual Provisioning O EMC VNX Virtual Provisioning permite que as empresas reduzam os custos de armazenamento, aumentando a utilização da capacidade, simplificando o gerenciamento do armazenamento e reduzindo o tempo de inatividade dos aplicativos. O Virtual Provisioning também ajuda as empresas a reduzir os requisitos de energia e refrigeração e a diminuir despesas de capital. O Virtual Provisioning oferece provisionamento baseado em pool implementando LUNs de pool que podem ser thin ou thick. Thin-LUNs oferecem armazenamento sob demanda, que maximiza a utilização de seu armazenamento alocando espaço apenas conforme necessário. Thick-LUNs oferecem alto desempenho e desempenho previsível para seus aplicativos. Ambos os tipos de LUNs se beneficiam dos recursos que facilitam o uso do provisionamento baseado em pool. Pools e LUNs de pool são, também, os componentes modulares dos serviços de dados avançados, como FAST VP, VNX Snapshots e compactação. LUNs de pool também dão suporte a uma variedade de recursos adicionais, como redução de LUN, expansão on-line e configuração de User Capacity Threshold (limite de capacidade de usuário). O Virtual Provisioning permite que você expanda a capacidade de um pool de armazenamento a partir da GUI do Unisphere depois de os discos serem conectados fisicamente ao sistema. Sistemas VNX têm a capacidade de rebalancear os elementos de dados alocados em todos os drives membros para usar novos drives após o pool ser expandido. A função de rebalanceamento inicia automaticamente e é executada em segundo plano após uma ação de expansão. É possível monitorar o progresso de uma operação de rebalanceamento na guia General da janela Pool Properties no Unisphere, conforme mostrado na Figura 8. 36 Computação do usuário final do EMC VSPEX

Capítulo 3: Visão Geral da Tecnologia da Solução Figura 8. Progresso de rebalanceamento do pool de armazenamento Expansão de LUN Use a expansão de LUN de pool para aumentar a capacidade de LUNs existentes. Isso permite o provisionamento de capacidades maiores à medida que as necessidades dos negócios crescerem. A família VNX tem a capacidade de expandir uma LUN de pool sem interromper o acesso do usuário. Você pode expandir uma LUN de pool com alguns cliques, e a capacidade ampliada torna-se disponível imediatamente. No entanto, não é possível expandir uma LUN de pool se ela for parte de uma operação de proteção de dados ou migração de LUN. Por exemplo, LUNs de snapshot ou LUNs em migração não podem ser expandidas. Redução da LUN Use a redução de LUN para diminuir a capacidade de thin-luns existentes. O VNX pode reduzir LUNs de pool. Essa capacidade só está disponível para LUNs com Windows Server 2008 e posterior. O processo de redução consiste nestas etapas: 1. Reduzir o sistema de arquivos do Windows Disk Management. 2. Reduzir a LUN de pool usando uma janela de comando e o utilitário DISKRAID. O utilitário DISKRAID está disponível por meio do VDS Provider, parte do pacote EMC Solutions Enabler. O novo tamanho de LUN é exibido assim que o processo de redução é concluído. Uma tarefa em segundo plano recupera o espaço excluído ou reduzido e o devolve para o pool de armazenamento. Depois que a tarefa está concluída, qualquer outra LUN naquele pool pode usar o espaço recuperado. Para obter informações mais detalhadas sobre a expansão/redução de LUNs, consulte o White Paper EMC VNX Virtual Provisioning Applied Technology. Computação do usuário final do EMC VSPEX 37

Capítulo 3: Visão Geral da Tecnologia da Solução Alertas de usuário por meio da configuração de Capacity Threshold Você deve configurar alertas proativos ao usar um sistema de arquivos ou pools de armazenamento baseados em thin-pools. Monitore esses recursos para que o armazenamento esteja disponível para provisionamento quando necessário e para que seja possível evitar escassez de capacidade. A Figura 9 demonstra por que o provisionamento com thin-pools requer monitoramento. Figura 9. Utilização de espaço de thin-lun Monitore os seguintes valores para utilização de thin-pool: Capacidade total é a capacidade física total disponível em todas as LUNs no pool. Alocação total é a capacidade física total atribuída atualmente para todas as LUNs de pool. Capacidade atribuída é o total de capacidade relatada pelo host suportada pelo pool. Capacidade sobrecarregada é o volume de capacidade de usuário configurado para LUNs que excede a capacidade física de um pool. A alocação total nunca poderá exceder a capacidade total. No entanto, caso ela chegue perto disso, adicione armazenamento aos pools de modo proativo antes que o limite rígido seja atingido. A A Figura 10 mostra a caixa de diálogo Storage Pool Properties no Unisphere, que exibe parâmetros como Free, Percent Full, Total Allocation, Total Subscription da capacidade física, Percent Subscribed e Oversubscribed By da capacidade virtual. 38 Computação do usuário final do EMC VSPEX

Capítulo 3: Visão Geral da Tecnologia da Solução Figura 10. Examinando a utilização de espaço de pool de armazenamento Quando a capacidade do pool de armazenamento se esgota, qualquer solicitação de alocação de espaço adicional em LUNs com provisionamento thin apresenta falha. Geralmente, os aplicativos que tentam gravar dados nessas LUNs também apresentam falha, e o resultado provável é uma paralisação. Para evitar essa situação, monitore a utilização de pool de maneira que receba alertas quando os limites forem atingidos, defina Percentage Full Threshold para permitir buffer suficiente para corrigir o problema antes que ocorra uma paralisação. Para editar essa configuração, clique em Advanced na caixa de diálogo Storage Pool Properties, conforme mostrado na Figura 11. Esse alerta só fica ativo se houver uma ou mais thin-luns no pool, pois thin-luns são a única forma de sobrecarregar um pool. Se o pool só tiver thick-luns, o alerta não ficará ativo, pois não haverá risco de falta de espaço devido a sobrecarga. Você também pode especificar o valor para o Percent Full Threshold, que é igual à Total Allocation/Total Capacity, quando um pool é criado. Quando a capacidade do pool de armazenamento se esgota, qualquer solicitação de alocação de espaço adicional em LUNs com provisionamento thin apresenta falha. Geralmente, os aplicativos que tentam gravar dados nessas LUNs também apresentam falha, e o resultado provável é uma paralisação. Para evitar essa situação, monitore a utilização de pool de maneira que receba alertas quando os limites forem atingidos, defina Percentage Full Threshold para permitir buffer suficiente para corrigir o problema antes que ocorra uma paralisação. Para editar essa configuração, clique em Advanced na caixa de diálogo Storage Pool Properties, conforme mostrado na Figura 11. Esse alerta só fica ativo se houver uma ou mais thin-luns no pool, pois thin-luns são a única forma de sobrecarregar um pool. Se o pool só tiver thick-luns, o alerta não ficará ativo, pois não haverá risco de falta de espaço devido a sobrecarga. Você também pode especificar o valor para o Percent Full Threshold, que é igual à Total Allocation/Total Capacity, quando um pool é criado. Computação do usuário final do EMC VSPEX 39

Capítulo 3: Visão Geral da Tecnologia da Solução Figura 11. Definindo limites de utilização de pool de armazenamento Visualização de alertas clicando em Alert no Unisphere. A Figura 12 exibe o Unisphere Event Monitor Wizard, no qual você também pode selecionar a opção de receber alertas por e-mail, serviço de pager ou trap SNMP. Figura 12. Definição de notificações automatizadas para block A Tabela 1 lista as informações sobre limites e suas configurações. Tabela 1. Limites e configurações no VNX OE Block versão 33 Tipo de limite Configurável pelo usuário Fontes de dados Faixa de limite Padrão de limite Severidade dos alertas Efeito colateral 1%-84% 70% Advertência Nenhum N/D 85% Crítico Limpa o alerta configurável pelo usuário 40 Computação do usuário final do EMC VSPEX

Capítulo 3: Visão Geral da Tecnologia da Solução Permitir que a alocação total exceda 90% da capacidade total faz com que você corra o risco de esgotar o espaço e afetar todos os aplicativos que usem thin- LUNs no pool. VNX FAST Cache VNX FAST VP (opcional) O VNX FAST Cache, parte da VNX FAST Suite, permite que flash drives sejam usados como uma camada de cache expandida para o array. O FAST Cache é um cache para o array completo, que não causa interrupções, disponível para armazenamento de file e block. Os dados acessados com frequência são copiados para o FAST Cache em incrementos de 64 KB. As próximas leituras e gravações realizadas no fragmento são executadas pelo FAST Cache. Isso permite imediata promoção de dados muito ativos para flash drives. Isso melhora drasticamente os tempos de resposta para os dados ativos e reduz pontos de acesso de dados que podem ocorrer na LUN. O VNX FAST VP, que faz parte da VNX FAST Suite, permite que você classifique dados automaticamente por níveis por meio de vários tipos de drives para balancear diferenças no desempenho e na capacidade. O FAST VP é aplicado no nível do pool de armazenamento do bloco e se ajusta automaticamente onde os dados são armazenados, com base na frequência de acesso. Os dados acessados com frequência são promovidos a níveis mais elevados de armazenamento em incrementos de 256 MB, enquanto os dados pouco acessados podem ser migrados para um nível inferior para fins de economia. Este rebalanceamento de unidades de dados de 256 MB, ou fatias, é feito como parte de uma operação de manutenção agendada regularmente. Compartilhamentos de arquivos do VNX Em muitos ambientes, é importante ter um local comum para armazenar arquivos acessados por muitos indivíduos diferentes. Isso é implementado como compartilhamentos de arquivos CIFS ou NFS a partir de um servidor de arquivos. Os storage arrays do VNX podem fornecer esse serviço em conjunto com gerenciamento centralizado, integração de cliente, opções avançadas de segurança e recursos de melhoria da eficiência. Configuração e gerenciamento do CIFS no VNX fornece mais informações. ROBO Organizações com ROBO (Remote Office/Branch Office) geralmente preferem manter dados e aplicativos perto dos usuários para fornecer melhor desempenho e reduzir a latência. Nesses ambientes, os departamentos de TI precisam equilibrar os benefícios do suporte local com a necessidade de manter controle central. É necessário que o armazenamento e os sistemas locais sejam administrados com facilidade pela equipe local, mas também deem suporte a ferramentas de agregação flexível e gerenciamento remoto que minimizem as demandas desses recursos locais. Com o VSPEX, é possível acelerar a implantação de aplicativos em filiais e escritórios remotos. Os clientes também podem aproveitar o Unisphere Remote para consolidar o monitoramento, os alertas do sistema e a geração de relatórios de centenas de locais, ao mesmo tempo em que mantêm a simplicidade da operação e a funcionalidade do armazenamento unificado para gerentes locais. Computação do usuário final do EMC VSPEX 41

Capítulo 3: Visão Geral da Tecnologia da Solução Backup e recuperação Backup e recuperação protege os dados ao fazer backup dos arquivos ou volumes de dados conforme um agendamento definido e a restauração dos dados do backup em caso de recuperação executada após um desastre. Nesta solução VSPEX, o EMC Avamar é usado para criar a pilha, que dá suporte até 2.000 máquinas virtuais. EMC Avamar O EMC Avamar fornece métodos para backup de desktops virtuais usando operações tanto em nível de imagem quanto com base em guest. O Avamar executa o mecanismo de desduplicação no nível de VHDX (Virtual Machine Disk, disco da máquina virtual) para backups de imagens e em nível de arquivo para backups baseados em guest. A proteção em nível de imagem possibilita que os clientes de backup façam cópia de todos os discos virtuais e arquivos de configuração associados ao desktop virtual específico em caso de falha de hardware, corrupção ou exclusão acidental de um desktop virtual. O Avamar reduz significantemente o tempo de backup e recuperação do desktop virtual ao utilizar o CBT (Change Block Tracking, rastreamento de blocos alterados) tanto para backup quanto para recuperação. A proteção baseada em guest é executada como as soluções tradicionais de backup. O backup baseado em guest pode ser usado em qualquer máquina virtual executando um sistema operacional para o qual o cliente de backup do Avamar esteja disponível. Ele permite o controle detalhado do conteúdo e dos padrões de inclusão e exclusão. Isso pode ser utilizado para impedir perda de dados devido a erros do usuário, como exclusão acidental de arquivo. A instalação do agente de desktop/laptop no sistema a ser protegido permite a capacidade de recuperação de autoatendimento dos dados do usuário. ShareFile O ShareFile é um serviço de compartilhamento e armazenamento de arquivos baseado em nuvem integrado para armazenamento e segurança de classe empresarial. O ShareFile permite aos usuários compartilhar documentos de forma segura com outros usuários. Os usuários do ShareFile incluem funcionários e usuários que estão fora do diretório empresarial (conhecido como clientes). ShareFile StorageZones O ShareFile StorageZones permite às empresas compartilhar arquivos em toda a empresa, atendendo às questões de conformidade e de regulamentação. O StorageZones permite aos clientes manter seus dados em sistemas de armazenamento que estão no local. Permite o compartilhamento de grandes arquivos com criptografia completa e oferece a capacidade de sincronizar arquivos com vários dispositivos. Mantendo os dados nos locais e mais perto dos usuários do que os dados que residem na nuvem pública, o StorageZone pode fornecer melhor desempenho e também maior segurança. O ShareFile StorageZone permite que você: Uso do StorageZone com ou no lugar do armazenamento em nuvem gerenciado pelo ShareFile. 42 Computação do usuário final do EMC VSPEX

Capítulo 3: Visão Geral da Tecnologia da Solução Configure o Citrix CloudGateway Enterprise para integrar os serviços do ShareFile com o Citrix Receiver para autenticação do usuário e provisionamento de usuários. Aproveite a reconciliação automatizada entre a nuvem do ShareFile e a implementação do StorageZone de uma empresa. Habilite análises de antivírus automatizadas de arquivos carregados. Ative a recuperação de arquivo do backup do Storage Center (o componente de servidor de um StorageZone é chamado de Storage Center). Você pode navegar pelos registros do arquivo de uma determinada data e hora e marcar os arquivos e pastas a serem restaurados a partir do backup do Storage Center. Arquitetura do ShareFile StorageZone A Figura 13 mostra a arquitetura de alto nível do ShareFile. Figura 13. Arquitetura de alto nível do ShareFile Uma ShareFile consiste em três componentes: Client acessa o serviço ShareFile por meio de uma das ferramentas nativas, como um navegador, por meio do Citrix Receiver, ou diretamente por meio da interface de programação de clientes (API). Control Plane executa funções como armazenamento de arquivos, pastas e informações de conta, controle de acesso, relatórios e várias outras funções de intermediação. O Control Plane reside em vários datacenters Citrix localizados em todo o mundo. StorageZone define os locais onde os dados são armazenados. O componente de servidor do StorageZone é chamado de Storage Center. A alta disponibilidade requer pelo menos dois Storage Centers por StorageZone. Um StorageZone deve usar um único compartilhamento de arquivos para todos os seus Storage Centers. O ShareFile Storage Center estende o armazenamento em nuvem do ShareFile Software-as-a-Service (SaaS), fornecendo à sua conta do ShareFile armazenamento privado no local, mencionado como StorageZone. O armazenamento no local do ShareFile é diferente do armazenamento em nuvem pelo seguinte: Computação do usuário final do EMC VSPEX 43

Capítulo 3: Visão Geral da Tecnologia da Solução O armazenamento em nuvem gerenciado pelo ShareFile é um sistema de armazenamento público de vários locatários mantido pela Citrix. Um ShareFile Storage Center é um sistema de armazenamento de um único locatário privado mantido pelo cliente, que pode ser usado apenas por contas de clientes aprovados. Por padrão, o ShareFile armazena dados no armazenamento em nuvem seguro gerenciado pelo ShareFile. O recurso ShareFile Storage Center permite que você configure o StorageZone privado no local. O StorageZone define locais onde os dados são armazenados e permite a otimização do desempenho através da localização de armazenamento de dados perto dos usuários. Determine o número de StorageZones e sua localização com base nos requisito de desempenho e de conformidade da organização. Em geral, a atribuição de usuários ao StorageZone que está mais próximo a eles geograficamente é a melhor prática para otimizar o desempenho. O Storage Center é um serviço da Web que controla todas as operações de HTTPS de usuários finais e o subsistema de controle do ShareFile. O subsistema de controle do ShareFile manipula todas as operações não relacionadas ao conteúdo do arquivo, tais como autenticação, autorização navegação de arquivos, configuração, metadados, envio e solicitação de arquivos e balanceamento de carga. O subsistema de controle também executa exames de estado do Storage Center e impede que os servidores off-line enviem solicitações. O subsistema de controle do ShareFile é mantido em datacenters Citrix Online. O subsistema de armazenamento do ShareFile manipula operações relacionadas ao conteúdo do arquivo, como uploads, downloads e verificação antivírus. Ao criar StorageZone, você está criando um subsistema de armazenamento privado para os dados do ShareFile. Para uma implantação de produção do ShareFile, a melhor prática recomendada é utilizar pelo menos dois servidores com o Storage Center instalado para alta disponibilidade. Ao instalar o Storage Center, você cria um StorageZone. Você pode, então, instalar o Storage Center em outro servidor e uni-lo ao mesmo StorageZone. Storage Centers que pertencem ao mesmo StorageZone devem usar o mesmo compartilhamento de arquivos para armazenamento. 44 Computação do usuário final do EMC VSPEX

Capítulo 3: Visão Geral da Tecnologia da Solução Uso do ShareFile StorageZone com arquiteturas do VSPEX A Figura 14 ilustra a computação de usuário final do VSPEX para ambiente do Citrix XenDesktop com infraestrutura adicional para suportar o ShareFile StorageZone com o Storage Center. A capacidade do servidor é especificada em termos genéricos para os requisitos mínimos de CPU e memória. O cliente tem a liberdade de selecionar o hardware do sistema de rede e do servidor que atenda ou supere os requisitos mínimos declarados. O armazenamento recomendado oferece uma arquitetura altamente disponível para a implantação do ShareFile StorageZone. Figura 14. Arquitetura lógica: Computação do usuário final do VSPEX para o Citrix XenDesktop com o ShareFile StorageZone Computação do usuário final do EMC VSPEX 45

Capítulo 3: Visão Geral da Tecnologia da Solução Servidor Um ambiente de produção de alta disponibilidade requer no mínimo dois servidores (máquinas virtuais) com o Storage Center instalado. A Tabela 2 resume os requisitos de CPU/memória para implementar o ShareFile StorageZone com o Storage Center. Tabela 2. Recursos mínimos de hardware para dar suporte a StorageZone do ShareFile com o Storage Center Centro de armazenamento CPU (núcleos) Memória (GB) Referência 2 4 Requisitos de sistema do Storage Center em Citrix edocs Rede Fornece portas de rede suficientes para sustentar os dois requisitos de servidores do Storage Center adicionais. Você pode implementar os componentes do sistema de rede usando redes IP de 1 Gb ou 10 Gb, desde que a largura de banda e a redundância sejam suficientes para atender aos requisitos listados. Armazenamento O ShareFile StorageZone requer um compartilhamento CIFS para fornecer armazenamento de dados privados para o Storage Center. A família de armazenamento do EMC VNX tem a capacidade de fornecer acesso a file e block com um conjunto amplo de recursos, fazendo dele uma escolha ideal para qualquer implementação de armazenamento do ShareFile. O EMC série VNX dá suporte a uma ampla gama de recursos de classe corporativa, ideais para o armazenamento da ShareFile StorageZone, inclusive: FAST VP (Fully Automated Storage Tiering for Virtual Pools, armazenamento com classificação totalmente automatizada por níveis para pools virtuais) FAST Cache Compactação de dados e desduplicação de arquivos Provisionamento thin Replicação Checkpoints Retenção em nível de arquivo Gerenciamento de cotas 46 Computação do usuário final do EMC VSPEX

Capítulo 3: Visão Geral da Tecnologia da Solução A Tabela 3 fornece o armazenamento do EMC VNX recomendado necessário para o compartilhamento CIFS do ShareFile StorageZone. Tabela 3. Armazenamento EMC VNX recomendado necessário para o compartilhamento CIFS do ShareFile StorageZone Armazenamento Configuração Observações Compartilhamento do CIFS Para 500 usuários: 2 Data Movers (somente variante CIFS ativo/standby) 8 discos NL-SAS de 3,5 polegadas, 2 TB, 7.200 RPM Para 1.000 usuários: 2 Data Movers (somente variante CIFS ativo/standby) 16 discos NL-SAS de 3,5 polegadas, 2 TB, 7.200 RPM Para 2.000 usuários: 2 Data Movers (somente variante CIFS ativo/standby) 24 discos NL-SAS de 3,5 polegadas, 2 TB, 7.200 RPM A configuração assume que cada usuário utiliza 10 GB de espaço de armazenamento privado. Computação do usuário final do EMC VSPEX 47

Capítulo 3: Visão Geral da Tecnologia da Solução 48 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Capítulo 4 Visão geral da solução Este capítulo apresenta os seguintes tópicos: Visão geral da solução... 50 Arquitetura da solução... 50 Diretrizes de configuração de servidor... 62 Diretrizes de configuração de rede... 65 Diretrizes de configuração de armazenamento... 67 Alta disponibilidade e failover... 86 Perfil do teste de validação... 89 Diretrizes de configuração de ambiente de backup... 90 Diretrizes de dimensionamento... 91 Carga de Trabalho de Referência... 91 Aplicando a carga de trabalho de referência... 92 Implementando as arquiteturas de referência... 93 Avaliação rápida... 96 Computação do usuário final do EMC VSPEX 49

Capítulo 4: Visão geral da solução Visão geral da solução Este capítulo inclui um guia completo para os principais aspectos dessa solução. A capacidade do servidor é especificada em termos genéricos para os requisitos mínimos de CPU, memória e interfaces de rede. Você pode selecionar o hardware do servidor e de rede que atenda ou supere os mínimos expressos. A arquitetura de armazenamento especificada, juntamente com o cumprimento dos requisitos de sistema de servidor e rede descritos, foi validada pela EMC para especificar altos níveis de desempenho e oferecer uma arquitetura altamente disponível para sua implementação de computação do usuário final. Cada VSPEX Proven Infrastructure faz o balanceamento do armazenamento, da rede e dos recursos de computação necessários para um determinado número de desktops virtuais validados pela EMC. Na prática, cada tipo de desktop virtual tem seu próprio conjunto de requisitos que raramente se enquadram em uma ideia predefinida do que seria um desktop virtual. Em qualquer discussão sobre computação do usuário final, uma carga de trabalho de referência deve ser definida previamente. Nem todos os servidores executam as mesmas tarefas e é impraticável criar uma referência que leve em conta todas as combinações possíveis de características das cargas de trabalho. Obs.: O VSPEX usa o conceito de uma carga de trabalho de referência para descrever e definir uma máquina virtual. Por isso, um desktop físico ou virtual em um ambiente existente pode não ser igual a um desktop virtual em uma solução VSPEX. Avalie sua carga de trabalho em termos de referência para chegar a um ponto de escala apropriado. Aplicando a carga de trabalho de referência fornece uma descrição detalhada. Arquitetura da solução Nós 1 validamos a solução VSPEX End-User Computing com o EMC VNX em três pontos de escala diferentes. Essas configurações definidas formam a base para criar uma solução personalizada. Esses pontos de escala são definidos em termos da carga de trabalho de referência. Arquitetura lógica Os diagramas de arquitetura nesta seção mostram o layout dos principais componentes nas soluções para as duas variantes de armazenamento: SMB e FC. 1 Neste Guia de Proven Infrastructure, "nós" refere-se à equipe de engenharia do EMC Solutions que validou a solução. 50 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução A Figura 15 descreve a arquitetura lógica da variante SMB, onde 10 GbE transportam todo o tráfego de rede. Figura 15. Arquitetura lógica para variante SMB Obs.: Você pode implementar os componentes do sistema de rede usando redes IP de 1 Gb/s ou 10 Gb/s, desde que a largura de banda e a redundância sejam suficientes para atender aos requisitos listados. Computação do usuário final do EMC VSPEX 51

Capítulo 4: Visão geral da solução A Figura 16 mostra a arquitetura lógica da variante FC, sendo que uma SAN FC transporta o tráfego de armazenamento e a 10 GbE transporta o tráfego de gerenciamento e aplicativos. Figura 16. Arquitetura lógica para variante FC Obs.: Você pode implementar os componentes do sistema de rede usando redes IP de 1 Gb/s ou 10 Gb/s, desde que a largura de banda e a redundância sejam suficientes para atender aos requisitos listados. Componenteschave Controladora Citrix XenDesktop 7 Usamos duas controladoras Citrix XenDesktop para fornecer entrega de desktop virtual redundante, autenticar usuários, gerenciar o conjunto montado de ambientes de desktops virtuais dos usuários e intermediar conexões entre os usuários e seus desktops virtuais. Nessa arquitetura de referência, as controladoras estão instaladas no Windows Server 2012 e hospedadas como máquinas virtuais no Hyper-V Server 2012. Servidor do Citrix Provisioning Services Foram utilizados dois servidores Citrix Provisioning Services (PVS) para fornecer serviços de fluxo redundantes para transmitir imagens de desktop de vdisks, conforme necessário, para dispositivos de destino. Nesta arquitetura de referência, vdisks são armazenados em um compartilhamento CIFS que é hospedado pelo sistema de armazenamento VNX. 52 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Desktops virtuais Provisionamos desktops virtuais executando o Windows 7 ou 8 usando MCS e PVS. Microsoft Hyper-V Server 2012 O Microsoft Hyper-V fornece uma camada de virtualização comum para hospedar um ambiente de servidor. A Tabela 13 na página 93 lista as características específicas do ambiente validado. O Microsoft Hyper-V Server 2012 fornece uma infraestrutura de alta disponibilidade por meio de recursos como os seguintes: Migração em tempo real fornece migração em tempo real de máquinas virtuais em servidores em cluster ou fora de cluster sem tempo de inatividade de máquinas virtuais ou interrupção de serviço. Storage Live vmotion fornece migração em tempo real de arquivos em disco de máquinas virtuais em storage arrays e entre eles, sem tempo de inatividade de máquinas virtuais ou interrupção de serviço Microsoft System Center Virtual Manager 2012 SP1 O Microsoft System Center Virtual Manager Server fornece uma plataforma dimensionável e extensível que forma a base do gerenciamento de virtualização do cluster Microsoft Hyper-V. O Microsoft System Center Virtual Manager gerencia todos os hosts do Hyper V e suas máquinas virtuais. SQL Server O Microsoft System Center Virtual Manager Server e os controladores XenDesktop requerem um serviço de banco de dados para armazenar os detalhes de configuração e de monitoramento. Um Microsoft SQL Server 2012 executado em um Windows 2012 Server é usado para essa finalidade. Servidor do Active Directory Os serviços do Active Directory (AD) são necessários para que os vários componentes da solução funcionem corretamente. O Microsoft AD Directory Service executado em um servidor Windows Server 2012 é utilizado para este fim. Servidor DHCP O servidor DHCP gerencia centralmente o esquema de endereços IP de desktops virtuais. Esse serviço está hospedado na mesma máquina virtual do controlador de domínio e do servidor DNS. O Microsoft DHCP Service executado em um servidor com Windows 2012 é usado com essa finalidade. Servidor DNS Os serviços DNS são necessários para que os vários componentes da solução executem a resolução de nomes. O Microsoft DNS Service executado em um servidor Windows Server 2012 é utilizado para este fim. Computação do usuário final do EMC VSPEX 53

Capítulo 4: Visão geral da solução EMC SMI-S Provider para Microsoft System Center Virtual Machine Manager 2012 SP1 O EMC SMI-S Provider para Microsoft System Center Virtual Machine Manager é um plug-in para o Microsoft System Center Virtual Machine Manager que fornece gerenciamento de armazenamento para arrays da EMC diretamente do cliente. O EMC SMI-S Provider ajuda a fornecer uma interface de gerenciamento unificada. Redes IP/armazenamento Todo o tráfego de rede é realizado pela rede Ethernet padrão com conexão e switches redundantes. O tráfego do usuário e de gerenciamento é transportado por uma rede compartilhada, enquanto o tráfego de armazenamento SMB é transportado por uma sub-rede privada sem roteamento. Rede IP A infraestrutura de rede Ethernet fornece conectividade IP entre desktops virtuais, clusters Hyper-V e armazenamento VNX. Para a variante SMB, a infraestrutura IP permite que os servidores Hyper-V acessem compartilhamentos CIFS no VNX e desktop transmitindo de servidores PVS com alta largura de banda e baixa latência. Isso também permite que os usuários de desktops redirecionem seus perfis e diretórios de usuário para compartilhamentos do CIFS mantidos centralmente no VNX. Rede Fibre Channel (FC) Para a variante FC, o tráfego de armazenamento entre todos os hosts Hyper-V e o sistema de armazenamento VNX é transportado por uma rede FC. Todo o restante do tráfego é transportado pela rede IP. Array EMC VNX5400 Um array VNX5400 fornece armazenamento apresentando armazenamento SMB/FC a hosts Hyper-V para até 1.000 desktops virtuais. Array EMC VNX5600 Um array VNX5600 fornece armazenamento apresentando armazenamento SMB/FC a hosts Hyper-V para até 2.000 desktops virtuais. Os storage arrays da família VNX incluem os seguintes componentes: As SPs (Storage Processors, controladoras de armazenamento) dão suporte a block data com a tecnologia I/O UltraFlex, que dá suporte a protocolos Fibre Channel, iscsi e FCoE (Fibre Channel over Ethernet). As SPs oferecem acesso a todos os hosts externos e aos arquivos do array VNX. O DPE (Disk-Processor Enclosure) tem 3U de tamanho e hospeda cada uma das controladoras de armazenamento, bem como a primeira bandeja de discos. Esse fator-forma é usado no VNX5300 e no VNX5500. X-Blades (ou Data Movers) acessam dados de back-end e dão acesso ao host usando a mesma tecnologia de I/O UltraFlex que dá suporte aos protocolos NFS, CIFS, MPFS e pnfs. Os X-Blades de cada array são dimensionáveis e fornecem redundância para garantir que não haja nenhum ponto de falha. 54 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução O DME (Data Mover Enclosure) tem 2U de tamanho e hospeda os Data Movers (X-Blades). O DME é semelhante ao SPE, sendo usado em todos os modelos VNX que dão suporte a protocolos de arquivo. As fontes de alimentação em standby têm 1U de tamanho e fornecem energia suficiente a cada controladora de armazenamento para garantir que qualquer dado em trânsito seja transferido para a área do compartimento em caso de falta de energia. Isso garante que as gravações não sejam perdidas. Após o array ser reiniciado, é feita a reconciliação e a persistência das gravações pendentes. As Control Stations têm 1U de tamanho e oferecem funções de gerenciamento aos componentes relacionados ao arquivo, denominados X- Blades. A Control Station é responsável pelo failover do X-Blade. Opcionalmente, a Control Station pode ser configurada com uma Control Station secundária correspondente para garantir redundância no array VNX. Os DAEs (Disk-Array Enclosures) hospedam os drives usados no array. EMC Avamar O software Avamar fornece a plataforma para proteção das máquinas virtuais. Essa estratégia de proteção utiliza desktops virtuais persistentes. Ela também permite proteção de imagem e recuperações do usuário final. Computação do usuário final do EMC VSPEX 55

Capítulo 4: Visão geral da solução Recursos de hardware A Tabela 4 lisa o hardware usado nesta solução. Tabela 4. Hardware da solução Hardware Configuração Observações Servidores para desktops virtuais Infraestrutura de rede Memória: SO do desktop: 2 GB de RAM por desktop 1 TB de RAM em todos os servidores para 500 desktops virtuais 2 TB de RAM em todos os servidores para 1.000 desktops virtuais 4 TB de RAM em todos os servidores para 2.000 desktops virtuais SO do servidor: 0,6 GB de RAM por desktop 300 GB de RAM entre todos os servidores para 500 desktops virtuais 600 GB de RAM entre todos os servidores para 1.000 desktops virtuais 1,2 TB de RAM entre todos os servidores para 2.000 desktops virtuais CPU: SO do desktop: 1 vcpu por desktop (8 desktops por núcleo) 63 núcleos em todos os servidores para 500 desktops virtuais 125 núcleos entre todos os servidores para 1.000 desktops virtuais 250 núcleos entre todos os servidores para 2.000 desktops virtuais SO do servidor: 0,2 vcpu por desktop (5 desktops por núcleo) 100 núcleos entre todos os servidores para 500 desktops virtuais Rede: 6 NICs de 1 GbE por servidor independente para 500 desktops virtuais 3 NICs de 10 GbE por chassi de blade ou 6 NICs de 1 GbE por servidor independente para 1.000/2.000 desktops 200 núcleos entre todos os servidores para 1.000 desktops virtuais 400 núcleos entre todos os servidores para 2.000 desktops virtuais Capacidade mínima de switch para a variante SMB: Dois switches físicos 6 portas de 1 GbE por servidor Hyper-V ou 3 portas de 10 GbE por chassi de blade 1 porta de 1 GbE por Control Station para gerenciamento 2 portas de 10 GbE por Data Mover para dados Capacidade total do servidor necessária para hospedar desktops virtuais Configuração de LAN (Local Area Network, rede de área local) redundante 56 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Hardware Configuração Observações Capacidade mínima de switch para a variante FC: 2 portas de 1 GbE por servidor Hyper-V 4 portas FC de 4/8 Gb para back-end de VNX 2 portas de 4/8 Gb FC por servidor Hyper-V Configuração de LAN/SAN redundante Armazenamento Comum 2 interfaces de 10 GbE por Data Mover 2 portas FC de 8 Gb por controladora de armazenamento (somente variante FC) Para 500 desktops virtuais: 2 Data Movers (somente variante SMB ativa/standby) Discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM Número de drives PvD Não PvD HSD Armazenamento compartilhado VNX para desktops virtuais PVS 16 8 8 MCS 13 10 10 3 flash drives de 3,5 polegadas, 100 GB Para 1.000 desktops virtuais: 2 Data Movers (somente variante SMB ativa/standby) Discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM Número de drives PvD Não PvD HSD PVS 32 16 16 MCS 26 20 20 3 flash drives de 3,5 polegadas, 100 GB Para 2.000 desktops virtuais: 2 Data Movers (somente variante SMB ativa/standby) Discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM Número de drives PvD Não PvD HSD PVS 64 32 32 MCS 26 40 40 5 flash drives de 3,5 polegadas, 100 GB Computação do usuário final do EMC VSPEX 57

Capítulo 4: Visão geral da solução Hardware Configuração Observações Infraestrutura compartilhada Backup EMC de última geração Servidores para a infraestrutura do cliente Para 500 desktops virtuais: 16 discos NL-SAS de 3,5 polegadas, 2 TB, 7.200 RPM Para 1.000 desktops virtuais: 24 discos NL-SAS de 3,5 polegadas, 2 TB, 7.200 RPM Para 2.000 desktops virtuais: 48 discos NL-SAS de 3,5 polegadas, 2 TB, 7.200 RPM Para 500 desktops virtuais: 5 discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM Para 1.000 desktops virtuais: 5 discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM Para 2.000 desktops virtuais: 5 discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM Na maioria dos casos, um ambiente de cliente já terá serviços de infraestrutura configurados, como o Active Directory e DNS. A configuração desses serviços está além do escopo deste documento. Se essa solução estiver sendo implementada sem infraestrutura existente, um número mínimo de servidores adicionais será necessário: 2 servidores físicos 20 GB de RAM por servidor 4 núcleos de processador por servidor 2 de 1 GbE por servidor Avamar 1 nó utility Gen4 1 nó de reposição Gen4 de 3,9 TB 3 nós de armazenamento Gen4 de 3,9 TB Número mínimo necessário: 2 servidores físicos 20 GB de RAM por servidor 4 núcleos de processador por servidor 2 de 1 GbE por servidor Opcional para dados do usuário Opcional para armazenamento de infraestrutura Os serviços podem ser migrados para o VSPEX após a implementação, mas devem existir antes de o VSPEX ser implementado Os servidores e as funções que desempenham podem já existir no ambiente do cliente 58 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Recursos de software A Tabela 5 lista o hardware usado nesta solução. Tabela 5. Software da solução Software Configuração VNX5400 ou 5600 (file system, armazenamento compartilhado) OE (Operating Environment, ambiente operacional) VNX para file Versão 8.1.0-34746 VNX OE para blocos Versão 33 (05.33.000.3.746) ESI para Windows Versão 3.0 Virtualização de desktop XenDesktop Controladora Citrix XenDesktop Sistema operacional para controladora XenDesktop Microsoft SQL Server Versão 7 Platinum Edition Windows Server 2012 R2 Standard Edition Versão 2012 Standard Edition Backup de última geração Avamar 7.0 Microsoft Hyper-V Hyper-V Server Hyper-V Server 2012 System Center Virtual Machine Manager Sistema operacional do System Center Virtual Machine Manager 2012 SP1 Windows Server 2012 Standard PowerPath Edition (somente variante FC) 5,7 Desktops virtuais Obs.: além do SO de base, o software foi usado para validação da solução e não é necessário. Sistema operacional básico Microsoft Windows 7 Enterprise (32 bits) SP1 Windows Server 2008 R2 SP1 Standard Edition Microsoft Office Office Enterprise 2007 SP3 Internet Explorer 8.0.7601.17514 Adobe Reader 9.1 Adobe Flash Player 11.4.402.287 Bullzip PDF Printer 9.1.1454 FreeMind 0.8.1 Computação do usuário final do EMC VSPEX 59

Capítulo 4: Visão geral da solução Dimensionamento para configuração validada Ao selecionar servidores para essa solução, o núcleo do processador deverá atender ou exceder o desempenho da família Intel Nehalem em 2,66 GHz. Quando se tornam disponíveis, os servidores com velocidades superiores de processador, maior desempenho e maior densidade de núcleo podem ser consolidados, desde que o total de núcleo e memória exigido seja atendido e um número suficiente de servidores seja incorporado para dar suporte ao nível necessário de alta disponibilidade. Assim como os servidores, a velocidade e a quantidade de NICs (Network Interface Card, placas de interface de rede) também podem ser consolidadas, desde que os requisitos gerais de largura de banda para essa solução e a redundância suficiente necessária para dar suporte à alta disponibilidade sejam mantidos. A Tabela 6 mostra as configurações dos servidores que oferecem suporte a esta solução. Cada servidor tem dois soquetes de quatro núcleos e 128 GB de RAM, além de dois 10 GbE para cada chassi blade. Tabela 6. Configurações que dão suporte a essa solução Tipo de desktop SO do desktop Número de servidores Número de desktops virtuais Total de núcleos 8 500 64 1 TB 16 1.000 128 2 TB Total de RAM 32 2.000 256 4 TB SO do servidor 13 500 100 300 GB 25 1.000 200 600 GB 50 2.000 400 1,2 TB Conforme mostrado na Tabela 13 na página 92, para dar suporte a oito desktops virtuais, é necessário pelo menos um núcleo com um mínimo de 2 GB de RAM para cada. Você deve considerar o equilíbrio correto de memória e núcleos necessários para o número de desktops virtuais a serem suportados por um servidor. Por exemplo, para que um servidor dê suporte a 24 desktops virtuais, ele requer um mínimo de três núcleos, mas também um mínimo de 48 GB de RAM. Os switches de rede IP usados para implementar essa arquitetura de referência devem ter uma capacidade mínima de backplane de 96 (para 500 desktops virtuais), 192 (para 1.000 desktops virtuais) ou 320 (para 2.000 desktops virtuais) Gb/s sem bloqueios e dar suporte aos seguintes recursos: Controle de fluxo Ethernet IEEE 802.1x Marcação de VLAN 802.1q Agregação de links de Ethernet por meio de protocolo de controle de agregação de links IEEE 802.1ax (802.3ad) Recurso de gerenciamento de SNMP Jumbo-frames 60 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Escolha o número e o tipo de switches necessários para oferecer suporte a alta disponibilidade e escolha um fornecedor de rede que possa fornecer peças facilmente disponíveis, bom serviço e contratos de suporte ideais. A configuração da rede também deve incluir: Um mínimo de dois switches para dar suporte à redundância Fontes de alimentação redundantes Um mínimo de 40 portas de 1 GbE (para 500 desktops virtuais), 2 portas de 1 GbE e 14 de 10 GbE (para 1.000 desktops virtuais), ou 2 portas de 1 GbE e 22 de 10 GbE (para 2.000 desktops virtuais), distribuídas para alta disponibilidade As portas de uplink apropriadas para conectividade do cliente Ao mesmo tempo em que o uso de portas de 10 GbE deva se alinhar com as localizadas no servidor e no armazenamento, mantenha em mente os requisitos gerais de rede para a solução e o nível de redundância para dar suporte à alta disponibilidade. Considere NICs de servidor adicionais e conexões de armazenamento para requisitos de implementação específicos. A infraestrutura de gerenciamento (Active Directory, DNS, DHCP e SQL Server) pode ser compatível em dois servidores semelhantes aos anteriormente definidos, mas exige um mínimo de 20 GB de RAM em vez de 128 GB. Computação do usuário final do EMC VSPEX 61

Capítulo 4: Visão geral da solução Diretrizes de configuração de servidor Quando você projeta e solicita a camada de computação/servidor da solução VSPEX, deve considerar vários fatores que podem alterar a compra final. De uma perspectiva de virtualização, se você entender completamente a carga de trabalho do sistema, recursos como memória dinâmica podem reduzir o requisito de memória agregada. Se o pool de desktops virtuais não tiver um alto nível de pico ou uso simultâneo, o número de vcpus poderá ser reduzido. Por outro lado, se os aplicativos sendo implementados usarem, por natureza, muitos recursos de computação, o número de CPUs e memória adquirido talvez precise ser maior. A Tabela 7 oferece detalhes de configuração para os servidores de desktop virtual e hardware de rede. Tabela 7. Hardware de servidor Servidores para desktops virtuais CPU: Memória: Rede: Configuração SO do desktop: 1 vcpu por desktop (8 desktops por núcleo) 63 núcleos em todos os servidores para 500 desktops virtuais 125 núcleos entre todos os servidores para 1.000 desktops virtuais 250 núcleos entre todos os servidores para 2.000 desktops virtuais SO do servidor: 0,2 vcpu por desktop (5 desktops por núcleo) 100 núcleos entre todos os servidores para 500 desktops virtuais 200 núcleos entre todos os servidores para 1.000 desktops virtuais 400 núcleos entre todos os servidores para 2.000 desktops virtuais SO do desktop: 2 GB de RAM por desktop 1 TB de RAM em todos os servidores para 500 desktops virtuais 2 TB de RAM entre todos os servidores para 1.000 desktops virtuais 4 TB de RAM entre todos os servidores para 2.000 desktops virtuais Reserva de 2 GB de RAM por host Hyper-V SO do servidor: 0,6 GB de RAM por desktop 300 GB de RAM entre todos os servidores para 500 desktops virtuais 600 GB de RAM entre todos os servidores para 1.000 desktops virtuais 1,2 TB de RAM entre todos os servidores para 2.000 desktops virtuais Reserva de 2 GB de RAM por host Hyper-V 6 NICs de 1 GbE por servidor para 500 desktops virtuais 3 NICs de 10 GbE por chassi de blade ou 6 NICs de 1 GbE por servidor independente para 1.000 desktops virtuais 3 NICs de 10 GbE por chassi de blade ou 6 NICs de 1 GbE por servidor independente para 2.000 desktops virtuais 62 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Virtualização de memória do Microsoft Hyper-V para VSPEX O Microsoft Hyper-V tem várias funcionalidades avançadas que ajudam a maximizar o desempenho e a utilização geral dos recursos. Os mais importantes estão na área de gerenciamento de memória. Esta seção descreve alguns desses recursos e os itens que você deve considerar ao usá-lo no ambiente. Em geral, você pode considerar máquinas virtuais em um só hipervisor consumindo memória como um pool de recursos. A Figura 17 mostra um exemplo do consumo de memória no nível do hipervisor. Figura 17. Consumo de memória de hipervisor Memória Dinâmica A Memória Dinâmica, que foi introduzida no Windows Server 2008 R2 SP1, aumenta a eficiência da memória física tratando-a como um recurso compartilhado e alocando-a para as máquinas virtuais de modo dinâmico. A memória realmente utilizada de cada máquina virtual é ajustada sob demanda. A Memória Dinâmica permite que mais máquinas virtuais sejam executadas por meio da recuperação de memória não utilizada das máquinas virtuais ociosas. No Windows Server 2012, a Memória Dinâmica permite o aumento dinâmico da memória máxima disponível para as máquinas virtuais. Computação do usuário final do EMC VSPEX 63

Capítulo 4: Visão geral da solução Acesso não uniforme à memória NUMA (Non-Uniform Memory Access, acesso a memória não uniforme) é uma tecnologia de computador de vários nós, que permite a uma CPU acessar a memória de nós remotos. Este tipo de acesso à memória é caro em termos de desempenho. Entretanto, o Windows Server 2012 utiliza uma afinidade de processo que se esforça para manter threads fixados na CPU em particular, a fim de evitar o acesso à memória do nó remoto. Em versões anteriores do Windows, esse recurso só está disponível para o host. O Windows Server 2012 estende essa funcionalidade a máquinas virtuais, onde aprimora o desempenho. Paginação Inteligente Mesmo com a Memória Dinâmica, o Hyper-V possibilita a existência de um número maior de máquinas virtuais do que permite a memória física disponível. Provavelmente há uma lacuna entre a memória mínima e a memória de inicialização. A Paginação Inteligente é uma técnica de gerenciamento de memória que aproveita os recursos do disco como uma substituição de memória temporária. Ela faz a troca (saída) da memória menos usada para o armazenamento em disco e faz a troca (entrada) quando necessário. A desvantagem é que isso pode comprometer o desempenho. O Hyper-V continua a utilizar a paginação guest quando a memória do host está sobrecarregada, pois esse recurso é mais eficiente do que a Paginação Inteligente. Diretrizes de configuração de memória Esta seção fornece diretrizes para a alocação de memória a máquinas virtuais. As diretrizes descritas aqui levam em conta a sobrecarga de memória do Hyper-V e as configurações de memória da máquina virtual. Sobrecarga de memória do Hyper-V A virtualização de recursos de memória apresenta uma certa sobrecarga associada, que inclui a memória consumida pelo Hyper-V, a partição pai e a sobrecarga adicional de cada máquina virtual. Reserve, pelo menos, 2 GB de memória para a partição pai do Hyper-V para essa solução. Alocação de memória a máquinas virtuais O dimensionamento adequado da memória de uma máquina virtual em arquiteturas VSPEX é baseado em vários fatores. Com o número de serviços de aplicativo e casos de uso disponíveis, a determinação de uma configuração adequada para um ambiente requer a criação de uma configuração de linha de base, testes e ajustes, como discutido mais adiante neste artigo. Tabela 13 na página 92 destaca os recursos utilizados por uma máquina virtual única. 64 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Diretrizes de configuração de rede Esta seção fornece diretrizes para efetuar uma configuração de rede redundante e altamente disponível. As diretrizes destacadas aqui levam em conta jumboframes, VLAN e LACP (Link Aggregation Control Protocol, protocolo de controle de agregação de links) no armazenamento unificado da EMC. Tabela 4 na página 56 fornece requisitos de recursos de rede detalhados. Tabela 8. Recursos de hardware para rede Componente Configuração Infraestrutura de rede Capacidade mínima de switches Block 2 switches físicos 2 portas de 10 GbE por servidor Microsoft Hyper-V 1 porta de 1 GbE por Control Station para gerenciamento 2 x portas FC/CEE/10GbE por servidor Microsoft Hyper-V para rede de armazenamento 2 portas de FC/CEE/10 GbE por SP, para dados do desktop 2 portas de 10 GbE por Data Mover para dados de usuário File 2 switches físicos 4 portas de 10 GbE por servidor Microsoft Hyper-V 1 porta de 1 GbE por Control Station para gerenciamento 2 portas de 10 GbE por Data Mover para dados Obs.: A solução pode usar uma infraestrutura de rede de 1 Gb, desde que os requisitos subjacentes de largura de banda e redundância sejam atendidos. VLAN É uma prática recomendada isolar o tráfego de rede para que o tráfego entre hosts e armazenamento e hosts e clientes, bem como o tráfego de gerenciamento, todos se movam por meio de redes isoladas. Em alguns casos, o isolamento físico pode ser necessário por razões de conformidade normativa ou de política, mas em muitos casos o isolamento lógico usando VLANs é suficiente. Essa solução exige um mínimo de três VLANs: ACESSO DO CLIENT Armazenamento Gerenciamento Computação do usuário final do EMC VSPEX 65

Capítulo 4: Visão geral da solução As VLANs são ilustradas na Figura 18. Figura 18. Redes necessárias Obs.: O diagrama demonstra os requisitos de conectividade de rede para um array VNX que utiliza conexões de rede de 10 GbE. Uma topologia semelhante deve ser criada para um array usando conexões de rede de 1 GbE. A rede de acesso do cliente é para os usuários do sistema (clientes) se comunicarem com a infraestrutura. A rede de armazenamento é usada para comunicação entre a camada de computação e a camada de armazenamento. A rede de gerenciamento é usada para que os administradores tenham uma forma dedicada de acessar conexões de gerenciamento no storage array, nos switches de rede e nos hosts. Obs.: Algumas práticas recomendadas exigem isolamento de rede adicional para o tráfego de cluster, a comunicação de camada de virtualização e outros recursos. Essas redes adicionais poderão ser implementadas, mas não são obrigatórias. Se a opção de rede de armazenamento Fibre Channel for escolhida para a implementação, práticas recomendadas e princípios de projeto semelhantes serão aplicáveis. 66 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Habilitar jumboframes Agregação de links Esta solução EMC VSPEX End-User Computing recomenda que a MTU seja definida a 9.000 (jumbo-frames) para armazenamento e tráfego de migração eficientes. A agregação de links é parecida com um canal Ethernet, mas utiliza o padrão LACP IEEE 802.3ad. O IEEE 802.3ad padrão aceita agregações de link com duas ou mais portas. Todas as portas na agregação devem ter a mesma velocidade e ser full duplex. Nesta solução, o LACP é configurado no VNX, combinando várias portas Ethernet em um só dispositivo virtual. Se um link for perdido na porta Ethernet, realizará o failover para outra porta. Todo o tráfego de rede é distribuído entre os links ativos. Diretrizes de configuração de armazenamento O Hyper-V permite mais de um método de utilização do armazenamento ao hospedar máquinas virtuais. Testamos as soluções descritas nesta seção e na Tabela 9 usando SMB, e o layout de armazenamento descrito está de acordo com todas as práticas recomendadas atuais. Clientes e arquitetos podem fazer modificações com base em sua compreensão do uso de sistemas e de carga, se necessário. Esta solução usava o Login VSI para simular uma carga de usuário contra os desktops. O Login VSI fornece orientação para avaliar o número máximo de usuários que um ambiente de desktop pode suportar. A carga de trabalho do meio do Login VSI é selecionada para este teste. Os layouts de armazenamento de 500, 1.000 e 2.000 desktops são definidos quando o tempo de resposta médio do Login VSImax está abaixo do limite máximo calculado dinamicamente. Este limite máximo é conhecido como a dinâmica VSImax. O Login VSI tem duas maneiras de definir o limite máximo: clássico e VSImax dinâmico. O limite VSImax clássico é definido como 4.000 milissegundos. No entanto, o limite VSImax dinâmico é calculado com base no tempo de resposta inicial das atividades do usuário. Computação do usuário final do EMC VSPEX 67

Capítulo 4: Visão geral da solução Tabela 9. Hardware de armazenamento Hardware Configuração Observações Armazenamento Comum: 2 interfaces de 10 GbE por Data Mover 2 portas FC de 8 Gb por controladora de armazenamento (somente variante FC) Para 500 desktops virtuais: 2 Data Movers (somente variante SMB ativa/standby) Discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM Armazenamento compartilhado VNX para desktops virtuais Número de drives PvD Não PvD HSD PVS 16 8 8 MCS 13 10 10 3 flash drives de 3,5 polegadas, 100 GB Para 1.000 desktops virtuais: 2 Data Movers (somente variante SMB ativa/standby) Discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM Número de drives PvD Não PvD HSD PVS 32 16 16 MCS 26 20 20 3 flash drives de 3,5 polegadas, 100 GB Para 2.000 desktops virtuais: 2 Data Movers (somente variante SMB ativa/standby) Discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM Número de drives PvD Não PvD HSD PVS 64 32 32 MCS 26 40 40 5 flash drives de 3,5 polegadas, 100 GB 68 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Hardware Configuração Observações Para 500 desktops virtuais: 16 discos NL-SAS de 3,5 polegadas, 2 TB, 7.200 RPM Para 1.000 desktops virtuais: 24 discos NL-SAS de 3,5 polegadas, 2 TB, 7.200 RPM Para 2.000 desktops virtuais: 48 discos NL-SAS de 3,5 polegadas, 2 TB, 7.200 RPM Para 500 desktops virtuais: 5 discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM Para 1.000 desktops virtuais: 5 discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM Para 2.000 desktops virtuais: 5 discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM Opcional para dados do usuário Opcional para armazenamento de infraestrutura Virtualização de armazenamento do Hyper-V para VSPEX Esta seção apresenta diretrizes para configuração da camada de armazenamento da solução para oferecer alta disponibilidade e o nível de desempenho esperado. O Windows Server 2012 Hyper-V e o cluster de failover utilizam os recursos Cluster Shared Volumes (CSV) V2 e o novo formato de disco rígido virtual (VHDX) para virtualizar o armazenamento apresentado pelo sistema de armazenamento compartilhado externo para hospedar máquinas virtuais. Na Figura 19, o storage array apresenta LUNs baseadas em block (como CSV) ou compartilhamento CIFS (como compartilhamentos SMB) baseado em file aos hosts Windows para hospedar máquinas virtuais. Figura 19. Tipos de discos virtuais Hyper-V Computação do usuário final do EMC VSPEX 69

Capítulo 4: Visão geral da solução CIFS O Windows Server 2012 dá suporte ao uso de compartilhamentos de arquivos CIFS (SMB 3.0) como armazenamentos compartilhados para máquinas virtuais Hyper-V. CSV UM CSV (Cluster Shared Volume) é um disco compartilhado que contém um volume NTFS que se torna acessível por todos os nós de um Cluster de Failover Windows. Ele pode ser implementado em qualquer local baseado em SCSI ou armazenamento em rede. Discos de passagem O Windows 2012 também é dá suporte a Pass Through (passagem), que permite que uma máquina virtual acesse um disco físico mapeado para o host que não tenha um volume configurado. SMB 3.0 (somente armazenamento baseado em arquivo) O protocolo SMB é o protocolo de compartilhamento de arquivos usado por padrão no Windows. A introdução do Windows Server 2012 oferece um amplo conjunto de novos recursos de SMB com um protocolo atualizado (SMB 3.0). Alguns dos recursos-chave disponíveis com o SMB 3.0 do Windows Server 2012 são: SMB Transparent Failover SMB Scale Out SMB Multichannel SMB Direct SMB Encryption Compartilhamentos de arquivos VSS para SMB SMB Directory Leasing SMB PowerShell Com esses novos recursos, o SMB 3.0 oferece funcionalidades mais ricas que, quando são combinadas, fornecem para as organizações uma alternativa de armazenamento de alto desempenho às soluções de armazenamento Fibre Channel tradicionais, a um custo mais baixo. Obs.: SMB também é conhecido como CIFS (Common Internet File System, sistema comum de arquivos da internet). Para obter mais detalhes sobre o SMB 3.0, consulte EMC Série VNX: Introdução ao Suporte do SMB 3.0. ODX (somente armazenamento baseado em bloco) O ODX (Offloaded Data Transfers) é um recurso da pilha de armazenamento no Microsoft Windows Server 2012 que oferece aos usuários a capacidade de usar o investimento em arrays de armazenamento externos para transmitir as transferências de dados do servidor para os storage arrays. Quando usado com hardware de armazenamento que dá suporte ao recurso ODX, as operações de cópia de file são iniciadas pelo host, mas executadas pelo dispositivo de armazenamento. O ODX elimina a transferência de dados entre o armazenamento e os hosts Hyper-V por meio da utilização de um mecanismo baseado em token para leitura e gravação de dados dentro ou entre storage arrays, além de reduzir a carga em sua rede e seus hosts. 70 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução O uso do ODX ajuda a permitir a clonagem e a migração rápidas de máquinas virtuais. Como a transferência de arquivos é transmitida para o storage array quando o ODX é usado, o uso de recursos do host, como CPU e rede, tem uma redução significativa. Ao maximizar o uso dos storage arrays, o ODX minimiza latências e melhora a velocidade de transferência de arquivos grandes, como arquivos de bancos de dados ou de vídeo. Quando operações de arquivos compatíveis com o ODX são executadas, as transferências de dados são transmitidas automaticamente para o storage array e tornam-se transparentes para os usuários. O ODX é habilitado por padrão no Windows Server 2012. Novo formato de disco rígido virtual O Hyper-V no Windows Server 2012 contém uma atualização do formato VHD, denominada VHDX, com uma capacidade muito maior e resiliência incorporada. Os principais recursos novos do formato VHDX são: Suporte ao armazenamento em disco rígido virtual com capacidade de até 64 TB Proteção adicional contra o corrompimento de dados em caso de falta de energia, por meio do registro de atualizações nas estruturas de metadados VHDX Alinhamento ideal da estrutura do formato de disco rígido virtual para se ajustar a discos com setores grandes O formato VHDX também tem os seguintes recursos: Tamanhos de bloco maiores para discos dinâmicos e diferenciais, o que permite aos discos atender às necessidades da carga de trabalho O disco virtual de setor lógico de 4 KB que possibilita um desempenho aprimorado quando usado por aplicativos e cargas de trabalho projetados para setores de 4 KB. A capacidade de armazenar metadados personalizados sobre os arquivos que o usuário talvez deseje registrar, como a versão do sistema operacional ou atualizações aplicadas Recursos de recuperação de espaço que podem resultar em tamanho menor de arquivos e que permitem ao dispositivo de armazenamento físico subjacente recuperar espaço não utilizado (por exemplo, o TRIM requer armazenamento com conexão direta ou discos SCSI e hardware compatível com TRIM). Componente modular de armazenamento do VSPEX O dimensionamento do sistema de armazenamento para atender à IOPS do servidor virtual é um processo complicado. Quando o I/O chega ao storage array, vários componentes, como o Data Mover (para armazenamento baseado em arquivo), SPs, cache DRAM (dynamic random access memory) de back-end, FAST Cache (se utilizado) e discos, servem tal I/O. Os clientes precisam considerar vários fatores no planejamento e dimensionamento de seu sistema de armazenamento, a fim de equilibrar capacidade, desempenho e custo para seus aplicativos. Computação do usuário final do EMC VSPEX 71

Capítulo 4: Visão geral da solução O VSPEX usa uma abordagem de componente modular para reduzir a complexidade. Um componente modular é um conjunto de spindles de disco capaz de dar suporte a um número determinado de desktops virtuais na arquitetura VSPEX. Cada componente modular combina vários spindles de disco para criar um pool de armazenamento que dê suporte às necessidades do ambiente de computação do usuário final. Três componentes modulares (500, 1.000 e 2.000 desktops) são atualmente verificados na série VNX e fornecem uma solução flexível para dimensionamento VSPEX. A Tabela 10 mostra uma simples lista dos discos necessários para dar suporte a várias escalas de configuração, excluindo necessidades de hot spare. Obs.: Se uma configuração for iniciada com o componente modular de 500 desktops para MCS, ela poderá ser expandida para ocomponente modular de 1.000 desktops, adicionando dez drives SAS correspondentes e permitindo que a redistribuição do pool. Para obter detalhes sobre expansão de pool e redistribuição, consulte o White Paper EMC VNX Virtual Provisioning Applied Technology. Tabela 10. Número de discos necessários para diferentes números de desktops virtuais Desktops virtuais Plataforma VNX Flash drives (FAST Cache) Drives SAS drives (PVS/Não PvD) Drives SAS drives (PVS/PvD) Drives SAS drives (MCS/Não PvD) 500 5400 2 13 21 10 13 1.000 5400 2 21 37 20 26 2.000 5.600 4 37 69 40 52 Drives SAS drives (MCS/PvD) Máximo validado de computação do usuário final do VSPEX As configurações de computação para o usuário final VSPEX são validadas nas plataformas VNX5400 e VNX5600. Cada plataforma tem capacidades diferentes em termos de processadores, memória e discos. Para cada array, há uma recomendação de configuração máxima de computação do usuário final do VSPEX. Conforme detalhado na Tabela 10, o máximo recomendado para VNX5400 é de 1.000 desktops, e o máximo recomendado para VNX5600 é de 2.000 desktops. Layout de armazenamento para 500 desktops virtuais Layout de armazenamento de núcleo com provisionamento PVS A Figura 20 mostra o layout dos discos que são necessários para armazenar 500 desktops virtuais com provisionamento de PVS. Este layout pode ser utilizado com aleatório, estático, Personal vdisk e hospedado com opções de provisionamento de desktop compartilhado. Esse layout não inclui espaço para dados do perfil do usuário. 72 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Figura 20. Layout de armazenamento principal com provisionamento PVS para 500 desktops virtuais Visão geral do layout de armazenamento de núcleo com provisionamento PVS A configuração principal seguinte é utilizada na arquitetura de referência para 500 máquinas de desktop virtual: Quatro discos SAS (mostrados aqui como 0_0_0 a 0_0_3) são usados para o ambiente operacional (OE) do VNX. A série EMC VNX não requer um drive hot spare dedicado. Os discos mostrados aqui como 1_0_4 e 1_1_5 são discos não ligados que podem ser usados como hot spares quando necessário. Esses discos são marcados como hot spares no diagrama do layout de armazenamento. Oito discos SAS (mostrados aqui como 1_0_7 a 1_0_14) no pool de armazenamento 1 do RAID 10 são usados para armazenar desktops virtuais. O FAST Cache é habilitado para o pool inteiro. Para NAS, dez LUNs de 200 GB cada são provisionadas por meio do pool para fornecer o armazenamento necessário para criar dois file systems CIFS. Os file systems são apresentados aos servidores Hyper- V como quatro compartilhamentos SMB. Para FC, duas LUNs de 1 TB cada são provisionadas do pool para serem apresentadas ao servidores Hyper-V como quatro CSVs. Dois flash drives (mostrados aqui como 1_0_5 e 1_0_6) são usados para o EMC VNX FAST Cache. Não há LUNs configuráveis pelo usuário nesses drives. Cinco discos SAS (1_1_0 a 1_1_4) no pool de armazenamento 2 do RAID 5 são usados para armazenar vdisks de PVS e imagens TFTP. O FAST Cache é habilitado para o pool inteiro. Os discos mostrados aqui como 0_0_4 a 0_0_24, 1_0_0 a 1_0_3 e 1_1_6 a 1_1_14 não são usados. Eles não foram usados para testar essa solução. Computação do usuário final do EMC VSPEX 73

Capítulo 4: Visão geral da solução Obs.: Drives maiores podem ser substituídos para fornecer mais capacidade. Para satisfazer as recomendações de carga, os drives devem ser todos de 15.000 RPM e do mesmo tamanho. Se tamanhos diferentes forem usados, os algoritmos de layout de armazenamento poderão gerar resultados abaixo do ideal. Layout de armazenamento de núcleo com provisionamento MCS A Figura 21 mostra o layout dos discos que são necessários para armazenar 500 desktops virtuais com provisionamento de MCS. Este layout pode ser utilizado com aleatório, estático, Personal vdisk e hospedado com opções de provisionamento de desktop compartilhado. Esse layout não inclui espaço para dados do perfil do usuário. Figura 21. Layout de armazenamento principal com provisionamento MCS para 500 desktops virtuais Visão geral do layout de armazenamento de núcleo com provisionamento MCS A configuração principal seguinte é utilizada na arquitetura de referência para 500 máquinas de desktop virtual: Quatro discos SAS (mostrados aqui como 0_0_0 a 0_0_3) são usados para o VNX OE. A série EMC VNX não requer um drive hot spare dedicado. Os discos mostrados aqui como 1_0_4 e 1_1_2 são discos não ligados que podem ser usados como hot spares quando necessário. Esses discos são marcados como hot spares no diagrama do layout de armazenamento. Dez discos SAS (mostrados aqui como 1_0_5 a 1_0_14) no pool de armazenamento 1 do RAID 5 são usados para armazenar desktops virtuais. O FAST Cache é habilitado para o pool inteiro. Para NAS, dez LUNs de 200 GB cada são provisionadas por meio do pool para fornecer o armazenamento necessário para criar dois file systems CIFS. Os file systems são apresentados aos servidores Hyper-V como quatro compartilhamentos SMB. Para FC, duas LUNs de 1 TB cada são provisionadas do pool para serem apresentadas ao servidores Hyper-V como quatro CSVs. 74 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Obs.: Se o Personal vdisk for implementado, a metade dos drives (dez discos SAS de 500 desktops) será suficiente para atender ao requisito de desempenho. No entanto, a capacidade do desktop será reduzida em 50 por cento. Se o seu requisito de capacidade ambiente for atendido, implemente o Personal vdisk com provisionamento MCS com 10 drives SAS de 500 desktops. Dois flash drives (mostrados aqui como 1_0_5 e 1_1_1) são usados para o EMC VNX FAST Cache. Não há LUNs configuráveis pelo usuário nesses drives. Os discos mostrados aqui como 0_0_4 a 0_0_24, 1_0_0 a 1_0_3 e 1_1_3 a 1_1_14 não são usados. Eles não foram usados para testar essa solução. Obs.: Drives maiores podem ser substituídos para fornecer mais capacidade. Para satisfazer as recomendações de carga, os drives devem ser todos de 15.000 RPM e do mesmo tamanho. Se tamanhos diferentes forem usados, os algoritmos de layout de armazenamento poderão gerar resultados abaixo do ideal. Layout opcional de armazenamento Nos testes de validação da solução, o espaço de armazenamento para dados do usuário foi alocado no array VNX como mostrado na Figura 22. Esse armazenamento é adicional ao armazenamento principal mostrado na Figura 21. Se o armazenamento de dados do usuário existir em algum outro lugar do ambiente de produção, esse armazenamento não será necessário. Figura 22. Layout opcional de armazenamento para 500 desktops virtuais Visão geral do layout opcional de armazenamento O layout de armazenamento opcional é usado para armazenar os servidores de infraestrutura, perfis de usuário e diretórios domésticos, e Personal vdisks. A configuração opcional seguinte é utilizada na arquitetura de referência para 500 desktops virtuais: A série EMC VNX não requer um drive hot spare dedicado. O disco mostrado aqui como 0_2_14 é um disco não ligado que pode ser usado como um hot spare quando necessário. Esse disco está marcado como hot spare no diagrama de layout de armazenamento. Computação do usuário final do EMC VSPEX 75

Capítulo 4: Visão geral da solução Cinco discos SAS (mostrados aqui como 0_2_0 a 0_2_4) no pool de armazenamento 6 do RAID 5 são usados para armazenar as máquinas virtuais da infraestrutura. É provisionada uma LUN de 1 TB do pool para ser apresentada ao servidores Hyper-V como um CSV. 16 discos NL-SAS (mostrados aqui como 0_2_5 a 0_2_13 e 1_2_0 a 1_2_6) no pool de armazenamento 4 do RAID 6 são usados para armazenar dados do usuário e perfis de roaming. Dez LUNs de 500 GB cada são provisionadas do pool para fornecer o armazenamento necessário para criar dois file systems CIFS. Se vários tipos de drives foram implementados, o FAST VP pode ser ativado para classificar dados por nível automaticamente, equilibrando as diferenças de desempenho e capacidade. O FAST VP é aplicado no nível do pool de armazenamento do bloco e se ajusta automaticamente onde os dados são armazenados, com base na frequência de acesso. Os dados acessados com frequência são promovidos a níveis mais elevados de armazenamento em incrementos de 256 MB, enquanto os dados pouco acessados podem ser migrados para um nível inferior para fins de economia. Este rebalanceamento de unidades de dados de 256 MB, ou fatias, é feito como parte de uma operação de manutenção agendada regularmente. O FAST VP não é recomendado para armazenamento de desktop virtual, mas pode fornecer melhorias de desempenho quando implementado em dados do usuário e perfis de roaming. Oito discos SAS (1_2_7 a 1_2_14) no pool de armazenamento 5 do RAID 10 são usados para armazenar Personal vdisks. O FAST Cache é habilitado para o pool inteiro. Para NAS, dez LUNs de 200 GB cada são provisionadas por meio do pool para fornecer o armazenamento necessário para criar dois file systems CIFS. Os file systems são apresentados aos servidores Hyper- V como quatro compartilhamentos SMB. Para FC, duas LUNs de 1 TB cada são provisionadas do pool para serem apresentadas ao servidores Hyper-V como quatro CSVs. Layout de armazenamento para 1.000 desktops virtuais Layout de armazenamento de núcleo com provisionamento PVS A Figura 23 mostra o layout dos discos que são necessários para armazenar 1.000 desktops virtuais com provisionamento de PVS. Este layout pode ser utilizado com aleatório, estático, Personal vdisk e hospedado com opções de provisionamento de desktop compartilhado. Esse layout não inclui espaço para dados do perfil do usuário. 76 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Figura 23. Layout de armazenamento principal com provisionamento de PVS para 1.000 desktops virtuais Visão geral do layout de armazenamento de núcleo com provisionamento PVS A configuração principal seguinte é utilizada na arquitetura de referência para 1.000 desktops virtuais: Quatro discos SAS (mostrados aqui como 0_0_0 a 0_0_3) são usados para o VNX OE. A série EMC VNX não requer um drive hot spare dedicado. Os discos mostrados aqui como 1_0_4 e 1_0_7 são discos não ligados que podem ser usados como hot spares quando necessário. Esses discos são marcados como hot spares no diagrama do layout de armazenamento. 16 discos SAS (mostrados aqui como 1_0_8 a 1_0_14 e 1_1_0 to 1_1_8) no pool de armazenamento 1 do RAID 10 são usados para armazenar desktops virtuais. O FAST Cache é habilitado para o pool inteiro. Para NAS, dez LUNs de 400 GB cada são provisionadas por meio do pool para fornecer o armazenamento necessário para criar quatro file systems CIFS. Os file systems são apresentados aos servidores Hyper- V como quatro compartilhamentos SMB. Para FC, quatro LUNs de 1 TB cada são provisionadas do pool para serem apresentadas ao servidores Hyper-V como quatro CSVs. Dois flash drives (mostrados aqui como 1_0_5 e 1_0_6) são usados para o EMC VNX FAST Cache. Não há LUNs configuráveis pelo usuário nesses drives. Cinco discos SAS (1_1_9 a 1_1_13) no pool de armazenamento 2 do RAID 5 são usados para armazenar vdisks de PVS e imagens TFTP. O FAST Cache é habilitado para o pool inteiro. Os discos mostrados aqui como 0_0_4 a 0_0_24, 1_0_0 a 1_0_3 e 1_1_14 não são usados. Eles não foram usados para testar essa solução. Computação do usuário final do EMC VSPEX 77

Capítulo 4: Visão geral da solução Obs.: Drives maiores podem ser substituídos para fornecer mais capacidade. Para satisfazer as recomendações de carga, os drives devem ser todos de 15.000 RPM e do mesmo tamanho. Se tamanhos diferentes forem usados, os algoritmos de layout de armazenamento poderão gerar resultados abaixo do ideal. Layout de armazenamento de núcleo com provisionamento MCS A Figura 24 mostra o layout dos discos que são necessários para armazenar 1.000 desktops virtuais com provisionamento de MCS. Este layout pode ser utilizado com aleatório, estático, Personal vdisk e hospedado com opções de provisionamento de desktop compartilhado. Esse layout não inclui espaço para dados do perfil do usuário. Figura 24. Layout de armazenamento principal com provisionamento de MCS para 1.000 desktops virtuais Visão geral do layout de armazenamento de núcleo com provisionamento MCS A configuração principal seguinte é utilizada na arquitetura de referência para 1.000 desktops virtuais: Quatro discos SAS (mostrados aqui como 0_0_0 a 0_0_3) são usados para o VNX OE. A série EMC VNX não requer um drive hot spare dedicado. Os discos mostrados aqui como 1_0_4 e 1_1_2 são discos não ligados que podem ser usados como hot spares quando necessário. Esses discos são marcados como hot spares no diagrama do layout de armazenamento. 20 discos SAS (mostrados aqui como 1_0_5 a 1_0_14 e 1_1_3 a 1_1_12) no pool de armazenamento 1 do RAID 5 são usados para armazenar desktops virtuais. O FAST Cache é habilitado para o pool inteiro. Para NAS, dez LUNs de 800 GB cada são provisionadas por meio do pool para fornecer o armazenamento necessário para criar quatro file systems CIFS. Os file systems são apresentados aos servidores Hyper- V como quatro compartilhamentos SMB. Para FC, quatro LUNs de 2 TB cada são provisionadas do pool para serem apresentadas aos servidores Hyper-V como quatro CSVs. 78 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Obs.: Se o Personal vdisk for implementado, a metade dos drives (dez discos SAS de 1.000 desktops) será suficiente para atender ao requisito de desempenho. No entanto, a capacidade do desktop será reduzida em 50 por cento. Se o seu requisito de capacidade ambiente for atendido, implemente o Personal vdisk com provisionamento MCS com 10 drives SAS de 1.000 desktops. Dois flash drives (mostrados aqui como 1_0_5 e 1_1_1) são usados para o EMC VNX FAST Cache. Não há LUNs configuráveis pelo usuário nesses drives. Os discos mostrados aqui como 0_0_4 a 0_0_24 e 1_1_13 a 1_1_14 não são usados. Eles não foram usados para testar essa solução. Obs.: Drives maiores podem ser substituídos para fornecer mais capacidade. Para satisfazer as recomendações de carga, os drives devem ser todos de 15.000 RPM e do mesmo tamanho. Se tamanhos diferentes forem usados, os algoritmos de layout de armazenamento poderão gerar resultados abaixo do ideal. Layout opcional de armazenamento Nos testes de validação da solução, o espaço de armazenamento para dados do usuário foi alocado no array VNX como mostrado na Figura 25. Esse armazenamento é adicional ao armazenamento principal mostrado na Figura 24. Se o armazenamento de dados do usuário existir em algum outro lugar do ambiente de produção, esse armazenamento não será necessário. Figura 25. Layout opcional de armazenamento para 1.000 desktops virtuais Computação do usuário final do EMC VSPEX 79

Capítulo 4: Visão geral da solução Visão geral do layout opcional de armazenamento O layout de armazenamento opcional é usado para armazenar os servidores de infraestrutura, perfis de usuário e diretórios domésticos, e Personal vdisks. A configuração opcional seguinte é utilizada na arquitetura de referência para 1.000 desktops virtuais: A série EMC VNX não requer um drive hot spare dedicado. Os discos mostrados aqui como 0_2_14 e 0_3_14 são discos não ligados que podem ser usados como hot spares quando necessário. Esses discos são marcados como hot spares no diagrama do layout de armazenamento. Cinco discos SAS (mostrados aqui como 0_2_0 a 0_2_4) no pool de armazenamento 6 do RAID 5 são usados para armazenar as máquinas virtuais da infraestrutura. É provisionada uma LUN de 1 TB do pool para ser apresentada ao servidores Hyper-V como um CSV. 24 discos NL-SAS (mostrados aqui como 0_2_5 a 0_2_13 e 1_2_0 a 1_2_14) no pool de armazenamento 4 do RAID 6 são usados para armazenar dados do usuário e perfis de roaming. Dez LUNs de 1 TB cada são provisionadas a partir do pool para fornecer o armazenamento necessário para criar dois sistemas de arquivos CIFS. Se você tiver implementado vários tipos de drive, poderá ativar o FAST VP para colocar os dados em camada automaticamente a fim de equilibrar as diferenças de desempenho e capacidade. O FAST VP é aplicado no nível do pool de armazenamento do bloco e se ajusta automaticamente onde os dados são armazenados, com base na frequência de acesso. Os dados acessados com frequência são promovidos a níveis mais elevados de armazenamento em incrementos de 256 MB, enquanto os dados pouco acessados podem ser migrados para um nível inferior para fins de economia. Este rebalanceamento de unidades de dados de 256 MB, ou fatias, é feito como parte de uma operação de manutenção agendada regularmente. O FAST VP não é recomendado para armazenamento de desktop virtual, mas pode fornecer melhorias de desempenho quando implementado em dados do usuário e perfis de roaming. 16 discos SAS (0_3_0 a 0_3_13 e 1_3_0 a 1_3_1 no pool de armazenamento 5 do RAID 10 são usados para armazenar Personal vdisks. O FAST Cache é habilitado para o pool inteiro. Para NAS, dez LUNs de 400 GB cada são provisionadas por meio do pool para fornecer o armazenamento necessário para criar quatro file systems CIFS. Os file systems são apresentados aos servidores Hyper- V como quatro compartilhamentos SMB. Para FC, quatro LUNs de 1 TB cada são provisionadas do pool para serem apresentadas ao servidores Hyper-V como quatro CSVs. Os discos mostrados aqui como 1_3_2 a 1_3_14 não são usados. Eles não foram usados para testar essa solução. 80 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Layout de armazenamento para 2.000 desktops virtuais Layout de armazenamento de núcleo com provisionamento PVS A Figura 26 mostra o layout dos discos necessários para armazenar 2.000 desktops virtuais com provisionamento de PVS. Este layout pode ser utilizado com aleatório, estático, Personal vdisk e hospedado com opções de provisionamento de desktop compartilhado. Esse layout não inclui espaço para dados do perfil do usuário. Figura 26. Layout de armazenamento principal com provisionamento PVS para 2.000 desktops virtuais Visão geral do layout de armazenamento de núcleo com provisionamento PVS A configuração principal seguinte é utilizada na arquitetura de referência para 2.000 desktops virtuais: Quatro discos SAS (mostrados aqui como 0_0_0 a 0_0_3) são usados para o VNX OE. A série EMC VNX não requer um drive hot spare dedicado. Os discos mostrados aqui como 1_0_4, 1_1_14 e 0_2_2 são discos não ligados que podem ser usados como hot spares quando necessário. Esses discos são marcados como hot spares no diagrama do layout de armazenamento. 32 discos SAS (mostrados como 1_0_5 a 1_0_14, 0_1_0 a 0_1_14 e 1_1_0 a 1_1_6) no pool de armazenamento 1 do RAID 10 são usados para armazenar desktops virtuais. O FAST Cache é habilitado para o pool inteiro. Para NAS, dez LUNs de 800 GB cada são provisionadas por meio do pool para fornecer o armazenamento necessário para criar oito file systems CIFS. Os file systems são apresentados aos servidores Hyper- V como quatro compartilhamentos SMB. Computação do usuário final do EMC VSPEX 81

Capítulo 4: Visão geral da solução Para FC, oito LUNs de 1 TB cada são provisionadas do pool para serem apresentadas ao servidores Hyper-V como quatro CSVs. Quatro flash drives (mostrados aqui como 1_1_12 a 1_1_13 e 0_2_0 a 0_2_1) são usados para o EMC VNX FAST Cache. Não há LUNs configuráveis pelo usuário nesses drives. Cinco discos SAS (1_1_7 a 1_1_11) no pool de armazenamento 2 do RAID 5 são usados para armazenar vdisks de PVS e imagens TFTP. O FAST Cache é habilitado para o pool inteiro. Os discos mostrados aqui como 0_0_4 a 0_0_24, 1_0_0 a 1_0_3 e 0_2_3 a 0_2_14 não são usados. Eles não foram usados para testar essa solução. Obs.: Drives maiores podem ser substituídos para fornecer mais capacidade. Para satisfazer as recomendações de carga, os drives devem ser todos de 15.000 RPM e do mesmo tamanho. Se tamanhos diferentes forem usados, os algoritmos de layout de armazenamento poderão gerar resultados abaixo do ideal. Layout de armazenamento de núcleo com provisionamento MCS A Figura 27 mostra o layout dos discos necessários para armazenar 2.000 desktops virtuais com provisionamento de MCS. Este layout pode ser utilizado com aleatório, estático, Personal vdisk e hospedado com opções de provisionamento de desktop compartilhado. Esse layout não inclui espaço para dados do perfil do usuário. Figura 27. Layout de armazenamento principal com provisionamento de MCS para 2.000 desktops virtuais 82 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Visão geral do layout de armazenamento de núcleo com provisionamento MCS A configuração principal seguinte é utilizada na arquitetura de referência para 2.000 máquinas de desktop virtual: Quatro discos SAS (mostrados aqui como 0_0_0 a 0_0_3) são usados para o VNX OE. A série EMC VNX não requer um drive hot spare dedicado. Os discos mostrados aqui como 1_0_4,0_1_2 e 0_2_5 são discos não ligados que podem ser usados como hot spares quando necessário. Esses discos são marcados como hot spares no diagrama do layout de armazenamento. 40 discos SAS (mostrados aqui como 1_0_5 a 1_0_14, 0_1_3 a 0_1_14, 1_1_2 a 1_1_14 e 0_2_0 to 0_2_4) no pool de armazenamento 1 do RAID 5 são usados para armazenar desktops virtuais. O FAST Cache é habilitado para o pool inteiro. Para NAS, dez LUNs de 600 GB cada são provisionadas por meio do pool para fornecer o armazenamento necessário para criar oito file systems CIFS. Os file systems são apresentados aos servidores Hyper- V como quatro compartilhamentos SMB. Para FC, oito LUNs de 2 TB cada são provisionadas do pool para serem apresentadas ao servidores Hyper-V como quatro CSVs. Obs.: Se o Personal vdisk for implementado, a metade dos drives (dez discos SAS de 2.000 desktops) será suficiente para atender ao requisito de desempenho. No entanto, a capacidade do desktop será reduzida em 50 por cento. Se o seu requisito de capacidade ambiente for atendido, implemente o Personal vdisk com provisionamento MCS com 20 drives SAS de 1.000 desktops. Dois flash drives (mostrados aqui como 0_1_0 a 0_1_1 e 1_1_0 a 1_1_1) são usados para o EMC VNX FAST Cache. Não há LUNs configuráveis pelo usuário nesses drives. Os discos mostrados aqui como 0_0_4 a 0_0_24, 1_0_0 a 1_0_3 e 0_2_6 a 0_2_14 não são usados. Eles não foram usados para testar essa solução. Obs.: Drives maiores podem ser substituídos para fornecer mais capacidade. Para satisfazer as recomendações de carga, os drives devem ser todos de 15.000 RPM e do mesmo tamanho. Se tamanhos diferentes forem usados, os algoritmos de layout de armazenamento poderão gerar resultados abaixo do ideal. Computação do usuário final do EMC VSPEX 83

Capítulo 4: Visão geral da solução Layout opcional de armazenamento Nos testes de validação da solução, o espaço de armazenamento para dados do usuário foi alocado no array VNX como mostrado na Figura 28. Esse armazenamento é adicional ao armazenamento principal mostrado na Figura 27. Se o armazenamento de dados do usuário existir em algum outro lugar do ambiente de produção, esse armazenamento não será necessário. Figura 28. Layout opcional de armazenamento para 2.000 desktops virtuais Visão geral do layout opcional de armazenamento O layout de armazenamento opcional é usado para armazenar os servidores de infraestrutura, perfis de usuário e diretórios domésticos, e Personal vdisks. A configuração opcional seguinte é utilizada na arquitetura de referência para 2.000 desktops virtuais: A série EMC VNX não requer um drive hot spare dedicado. Os discos mostrados aqui como 1_2_14, 0_4_9, 0_5_12 e 0_5_13 são discos não ligados que podem ser usados como hot spares quando necessário. Esse disco está marcado como hot spare no diagrama de layout de armazenamento. 84 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Cinco discos SAS (mostrados aqui como 1_2_0 a 1_2_4) no pool de armazenamento 6 do RAID 5 são usados para armazenar as máquinas virtuais da infraestrutura. É provisionada uma LUN de 1 TB do pool para ser apresentada ao servidores Hyper-V como um CSV. 48 discos NL-SAS (mostrados aqui como 1_2_5 a 1_2_13, 0_3_0 a 0_3_14, 1_3_0 a 1_3_14 e 0_4_0 to 0_4_8) no pool de armazenamento 4 do RAID 6 são usados para armazenar desktops virtuais. Dez LUNs de 2 TB cada são provisionadas a partir do pool para fornecer o armazenamento necessário para criar dois sistemas de arquivos CIFS. Se vários tipos de drives foram implementados, o FAST VP pode ser ativado para classificar dados por nível automaticamente, equilibrando as diferenças de desempenho e capacidade. O FAST VP é aplicado no nível do pool de armazenamento do bloco e se ajusta automaticamente onde os dados são armazenados, com base na frequência de acesso. Os dados acessados com frequência são promovidos a níveis mais elevados de armazenamento em incrementos de 256 MB, enquanto os dados pouco acessados podem ser migrados para um nível inferior para fins de economia. Este rebalanceamento de unidades de dados de 256 MB, ou fatias, é feito como parte de uma operação de manutenção agendada regularmente. O FAST VP não é recomendado para armazenamento de desktop virtual, mas pode fornecer melhorias de desempenho quando implementado em dados do usuário e perfis de roaming. 32 discos SAS (0_4_10 a 0_4_14, 1_4_0 a 1_4_14 e 0_5_0 a 0_5_11) no pool de armazenamento 5 do RAID 10 são usados para armazenar Personal vdisks. O FAST Cache é habilitado para o pool inteiro. Para NAS, dez LUNs de 800 GB cada são provisionadas por meio do pool para fornecer o armazenamento necessário para criar oito file systems CIFS. Os file systems são apresentados aos servidores Hyper-V como quatro compartilhamentos SMB. Para FC, oito LUNs de 1 TB cada são provisionadas do pool para serem apresentadas ao servidores Hyper-V como quatro CSVs. Computação do usuário final do EMC VSPEX 85

Capítulo 4: Visão geral da solução Alta disponibilidade e failover Essa solução VSPEX fornece um infraestrutura de armazenamento, rede e servidor virtualizado altamente disponível. Quando implementada de acordo com este guia, fornece a capacidade de sobreviver à maioria das falhas de uma só unidade com pouco ou nenhum impacto nas operações de negócios. Camada de virtualização Como indicado anteriormente, é recomendável configurar a alta disponibilidade na camada de virtualização e permitir que o hipervisor reinicie automaticamente as máquinas virtuais com falha. A Figura 29 ilustra a camada de hipervisor respondendo a uma falha na camada de computação. Figura 29. Alta disponibilidade na camada de virtualização A implementação de alta disponibilidade na camada de virtualização garante que, mesmo na eventualidade de uma falha de hardware, a infraestrutura tentará manter o maior número possível de serviços em execução. Camada de computação Essa solução oferece flexibilidade quanto ao tipo de servidor a ser usado na camada de computação, mas é recomendável utilizar servidores de nível corporativo projetados para o datacenter. Esses servidores, com fontes de alimentação redundantes, devem estar conectados a PDUs (Power Distribution Units, unidades de distribuição de energia), de acordo com as práticas recomendadas de seu fornecedor de servidor. Figura 30. Fontes de alimentação redundantes 86 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução É também recomendável configurar alta disponibilidade na camada de virtualização. Isso significa que a camada de computação tem de ser configurada com recursos suficientes para que o número total de recursos disponíveis atenda às necessidades do ambiente, mesmo no caso de falha do servidor, como demonstrado na Figura 30. Camada de rede Os avançados recursos de sistema de rede da família VNX fornece proteção contra falhas de conexão da rede no array. Cada host do Hyper-V tem várias conexões para as redes Ethernet de usuário e armazenamento para proteger contra falhas de link. Essas conexões devem ser distribuídas entre vários switches Ethernet para proteção contra falhas de componentes na rede, conforme mostrado na Figura 31. Figura 31. Alta disponibilidade de camada de rede Ao projetar a rede sem pontos únicos de falha, você pode garantir que a camada de computação seja capaz de acessar o armazenamento e se comunicar com os usuários, mesmo se um componente falhar. Computação do usuário final do EMC VSPEX 87

Capítulo 4: Visão geral da solução Camada de armazenamento A família VNX foi projetada para disponibilidade comprovada de 99,999% devido ao uso de componentes redundantes por todo o array. Todos os componentes do array podem continuar a operar em caso de falha de hardware. A configuração do disco RAID no array fornece proteção contra perda de dados causada por falhas de discos individuais e os drives hot spare disponíveis podem ser alocados dinamicamente para substituir um disco com falha, conforme mostrado na Figura 32. Figura 32. Alta disponibilidade da série VNX Os storage arrays EMC são projetados para serem altamente disponíveis por padrão. Quando eles são configurados de acordo com as instruções dos guias de instalação, as falhas de unidade única não resultam em perda de dados nem na falta de disponibilidade. 88 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Perfil do teste de validação A solução VSPEX foi validada com o perfil de ambiente detalhado na Tabela 11. Tabela 11. Perfil de ambiente validado Característica do perfil Número de desktops virtuais SO do desktop virtual CPU por desktop virtual Número de desktops virtuais por núcleo de CPU RAM por desktop virtual Método de provisionamento de desktops Armazenamento médio disponível para cada desktop virtual Média de IOPS por desktop virtual em estado estacionário Média de pico de IOPS por desktop virtual durante tempestades de inicialização Número de datastores para armazenar desktops virtuais Número de desktops virtuais por datastore Tipo de RAID e disco para datastores Tipo de disco e RAID para compartilhamentos CIFS para hospedar perfis de roaming e diretórios base de usuário (opcional para dados do usuário) Valor 500 para 500 desktops virtuais 1.000 para 1.000 desktops virtuais 2.000 para 2.000 desktops virtuais SO do desktop: Windows 7 Enterprise (32 bits) SP1 SO do servidor: Windows Server 2008 R2 SP1 SO do desktop: Uma vcpu SO do servidor: 0,2 vcpus SO do desktop: Uma vcpu SO do servidor: 0,2 vcpus SO do desktop: 2 GB SO do servidor: 0,6 GB Provisioning Services (PVS) MCS 4 GB (PVS) 8 GB (MCS) 8 IOPS 60 IOPS (variante MCS/NFS) 8 IOPS (variante PVS/NFS) 116 IOPS (variante MCS/FC) 14 IOPS (variante PVS/FC) 2 para 500 desktops virtuais 4 para 1.000 desktops virtuais 8 para 2.000 desktops virtuais 250 Discos SAS de 3,5 polegadas, 600 GB, 15.000 RPM, RAID 5 Discos NL-SAS de 3,5 polegadas, 2 TB, 7.200 RPM, RAID 6 Computação do usuário final do EMC VSPEX 89

Capítulo 4: Visão geral da solução Obs.: O IOPS médio por desktop virtual no estado estável é medido quando a carga de trabalho de perfil do meio do Login VSI é simulado em configurações de 500, 1.000 e 2.000 desktops. Em cada configuração, o Login VSImax está abaixo do limite de VSImax dinâmico. Diretrizes de configuração de ambiente de backup Esta seção fornece diretrizes para configurar o ambiente de backup e recuperação para esta solução VSPEX. Características de backup A Tabela 12 mostra como o perfil de ambiente de backup nesta solução foi dimensionado usando três pilhas. Tabela 12. Características do perfil de backup Característica do perfil Dados do usuário Valor 5 TB para 500 desktops virtuais 10 TB para 1.000 desktops virtuais 20 TB para 2.000 desktops virtuais Obs.: 10 GB de RAM por desktop Taxa de alteração diária para dados do usuário Dados do usuário 2% Retenção por tipos de dados Nº diário 30 diários Nº semanal 4 semanais Nº mensal 1 mensal Layout de backup O Avamar fornece várias opções de implementação para requisitos específicos de casos de uso e recuperação. Neste caso, a solução é implementada com um Avamar Data Store. Isso permite fazer backup dos dados não estruturados do usuário diretamente no sistema Avamar para recuperação simples no nível de arquivo. Essa solução unifica o processo de backup com software e sistemas de backup com desduplicação líder do setor e alcança os mais altos níveis de desempenho e eficiência. 90 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Diretrizes de dimensionamento As seções a seguir fornecem definições da carga de trabalho de referência utilizada para dimensionar e implementar as arquiteturas VSPEX discutidas neste documento. Elas fornecem orientação sobre como relacionar as cargas de trabalho de referência a cargas de trabalho reais do cliente e como isso pode alterar a configuração da entrega final do servidor e da perspectiva de rede. Você pode modificar a definição de armazenamento, adicionando drives para maior capacidade e desempenho, além de recursos como o FAST Cache para desktops e FAST VP para melhor desempenho de dados do usuário. Os layouts de disco foram criados para dar suporte ao número apropriado de desktops virtuais no nível de desempenho definido. Diminuir o número de unidades recomendadas ou rebaixar um tipo de array pode resultar em menor IOPS por desktop e uma experiência de usuário reduzida por causa do maior tempo de resposta. Carga de Trabalho de Referência Cada VSPEX Proven Infrastructure implementa os recursos de armazenamento, rede e computação necessários para determinado número de máquinas virtuais validado pela EMC. Na prática, cada máquina virtual tem seu próprio conjunto de requisitos que raramente se enquadram em uma ideia predefinida do que seria uma máquina virtual. Em qualquer discussão sobre infraestruturas virtuais, é importante, primeiramente, definir uma carga de trabalho de referência. Nem todos os servidores executam as mesmas tarefas e é impraticável construir uma referência que leve em conta todas as combinações possíveis de características das cargas de trabalho. Definição de carga de trabalho de referência Para simplificar a discussão, definimos uma carga de trabalho de referência representativa. Por meio da comparação entre as necessidades reais do cliente com essa carga de trabalho de referência, é possível inferir a arquitetura de referência ideal. Para a solução de computação do usuário final VSPEX, a carga de trabalho de referência é definida como um único desktop virtual que pode ser implantado usando um desktop ou SO do servidor. No caso de um SO de desktop, cada usuário acessa uma máquina virtual dedicada que é alocada a uma vcpu e 2 GB de RAM. Como acontece com um SO de servidor, cada máquina virtual é alocada a quatro vcpus e 12 GB de RAM, e é compartilhada entre 20 sessões de desktop virtual. A Tabela 13 mostra as características do desktop virtual de referência. Computação do usuário final do EMC VSPEX 91

Capítulo 4: Visão geral da solução Tabela 13. Características do desktop virtual Característica Sistema operacional do desktop virtual Processadores virtuais por desktop virtual RAM por desktop virtual Capacidade de armazenamento disponível por desktop virtual Média de IOPS por desktop virtual em estado estacionário Capacidade de armazenamento disponível por desktop virtual Valor SO do desktop: Microsoft Windows 7 Enterprise Edition (32 bits) SP1 SO do servidor: Windows Server 2008 R2 SP1 SO do desktop: Uma vcpu SO do servidor: 0,2 vcpus SO do desktop: 2 GB SO do servidor: 0,6 GB 4 GB (PVS) 8 GB (MCS) 8 8 GB (MCS) Essa definição de desktop é baseada em dados de usuários que residem em armazenamento compartilhado. O perfil de I/O é definido pelo uso de um modelo de referência de teste que opera em todos os desktops simultaneamente, com carga estacionária gerada pelo uso constante de aplicativos de escritório, como navegadores, software de produtividade administrativa e outros utilitários de tarefa padrão. Aplicando a carga de trabalho de referência Além do número aceito de desktops (500, 1.000 ou 2.000), outros fatores poderão ser considerados na hora de decidir qual solução de computação do usuário final implementar. Simultaneidade As cargas de trabalho usadas para validar soluções VSPEX presumem que todos os usuários de desktops estarão ativos o tempo todo. Em outras palavras, a arquitetura para 1.000 desktops foi testada com 1.000 desktops, todos gerando cargas de trabalho paralelamente, todos inicializados ao mesmo tempo etc. Se o cliente espera ter 1.200 usuários, mas somente 50% estarão conectados em dado momento em razão de diferenças de fuso horário ou turnos alternados, os 600 usuários ativos do total de 1.200 usuários poderão ter suporte da arquitetura para 1.000 desktops. Cargas de trabalho de desktops mais pesadas A carga de trabalho definida na Tabela 13 e usada para testar essas configurações de computação do usuário final do VSPEX é considerada como uma carga típica de funcionário administrativo. No entanto, alguns clientes têm usuários com mais de um perfil ativo. 92 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Se uma empresa tiver 800 usuários e, devido a aplicativos corporativos personalizados, cada usuário gerar 12 IOPS, em comparação com 8 IOPS utilizados na carga de trabalho do VSPEX, ela precisará de 9.600 IOPS (800 usuários * 12 IOPS por desktop). A configuração para 1.000 desktops poderia ser insuficiente nesse caso, pois foi classificada para 8.000 IOPS (1.000 desktops * 8 IOPS por desktop). Esse cliente deveria migrar para a solução de 2.000 desktops. Implementando as arquiteturas de referência As arquiteturas de referência requerem um conjunto de hardware disponível para as necessidades de CPU, memória, rede e armazenamento do sistema. Esses são apresentados como requisitos gerais, independentes de qualquer implementação particular. Esta seção descreve algumas considerações para a implementação dos requisitos. Tipos de recursos As arquiteturas de referência definem os requisitos de hardware para a solução em termos de quatro tipos básicos de recursos: Recursos da CPU Recursos de memória Recursos de rede Recursos de armazenamento Esta seção descreve os tipos de recursos, como eles são usados na arquitetura de referência e as principais considerações para a implementação deles no ambiente de um cliente. Recursos da CPU As arquiteturas definem o número necessário de núcleos de CPU, mas não definem um tipo nem uma configuração específica. Presume-se que as novas implementações utilizem revisões recentes de tecnologias de processador comum, e presume-se que essas irão executar tão bem ou melhor que os sistemas usados para validar a solução. Em qualquer sistema em operação, é importante monitorar a utilização dos recursos e fazer as adaptações necessárias. Supõe-se que com o desktop virtual de referência e os recursos de hardware necessários nas arquiteturas de referência, não haverá mais de oito CPUs virtuais para cada núcleo de processador físico (relação 8:1) quando o SO do desktop for usado. Na maioria dos casos, isso proporciona um nível adequado de recursos para os desktops virtuais hospedados. Nos casos em que essa relação pode não ser adequada, monitore a utilização da CPU na camada do hipervisor para determinar se são necessários mais recursos. Computação do usuário final do EMC VSPEX 93

Capítulo 4: Visão geral da solução Recursos de memória Cada desktop virtual na arquitetura de referência é definido como tendo 2 GB de memória dedicada a uma única instância do sistema operacional de desktop. Em um ambiente virtual, devido a limitações de orçamento, não é incomum provisionar desktops virtuais com mais memória do que o hipervisor tem fisicamente. A técnica de superalocação de memória aproveita o fato de que cada desktop virtual não utiliza totalmente a quantidade de memória alocada a ele. A superatribuição do uso de memória até certo ponto faz sentido nos negócios. O administrador é responsável por monitorar proativamente a taxa de superatribuição para que ela não distancie o gargalo do servidor e torne-se uma carga para o subsistema de armazenamento. Essa solução foi validada com memória atribuída estatisticamente e sem nenhuma superalocação de recursos de memória. Caso a superalocação de memória seja usada em um ambiente real, monitore regularmente a utilização de memória do sistema e a atividade associada de I/O de arquivo de página para garantir que nenhum déficit de memória cause resultados inesperados. Recursos de rede A arquitetura de referência descreve os requisitos mínimos do sistema. Se for necessária largura de banda adicional, será importante adicionar recursos tanto no storage array quanto no host de hipervisor para atender aos requisitos. As opções de conectividade de rede no servidor dependerão do tipo de servidor. Os storage arrays têm um número de portas de rede incluídas e a opção de adicionar portas usando módulos de I/O EMC FLEX. Para fins de referência no ambiente validado, a EMC supõe que cada desktop virtual gera 8 IOPS, com um tamanho médio de 4 KB. Isso significa que cada desktop virtual está gerando pelo menos 32 KB/s de tráfego na rede de armazenamento. Em um ambiente classificado para 500 desktops virtuais, isso se compara a um mínimo de aproximadamente 16 MB/s. Esse valor está de acordo com os limites das redes modernas. No entanto, isso não leva em conta outras operações. Por exemplo, é necessária largura de banda adicional para: Tráfego de rede de usuário Migração de desktop virtual Operações administrativas e de gerenciamento Os requisitos para cada um desses casos dependerão de como o ambiente está sendo usado. Dessa forma, não é prático fornecer números concretos nesse contexto. Entretanto, a rede descrita na arquitetura de referência para cada solução deve ser suficiente para manipular cargas de trabalho médias nos casos de uso acima. Independentemente dos requisitos de tráfego de rede, tenha sempre, pelo menos, duas conexões físicas de rede compartilhadas para uma rede lógica, de modo que uma falha em um só link não afete a disponibilidade do sistema. A rede deve ser projetada de modo que, em caso de falha, a largura de banda agregada seja suficiente para acomodar toda a carga de trabalho. 94 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Recursos de armazenamento As arquiteturas de referência contêm layouts para os discos usados na validação do sistema. Cada layout equilibra a capacidade de armazenamento disponível com o recurso de desempenho dos drives. Existem poucas camadas para considerar durante a verificação do dimensionamento do armazenamento. Especificamente, o array tem um conjunto de discos que são atribuídos a um pool de armazenamento. A partir desse pool de armazenamento, você poderá provisionar armazenamento para o cluster do Microsoft Hyper-V. Cada camada tem uma configuração específica definida para a solução e documentada no Capítulo 5. Geralmente, é aceitável substituir os tipos de drives por um tipo que tenha mais capacidade e com as mesmas características de desempenho ou substituir por drives com maior desempenho e a mesma capacidade. Da mesma forma, é aceitável alterar a colocação dos drives nas gavetas de drive para estar em conformidade com as disposições novas ou atualizadas de gavetas de drives. Em outros casos em que for necessário desviar-se do número e do tipo propostos de drives especificados ou do pool e dos layouts de datastores especificados, verifique se o layout de destino fornece os mesmos recursos ou até mesmo mais recursos para o sistema. Recursos de backup Expansão de ambientes existentes do VSPEX EUC Resumo da implementação A solução descreve as necessidades de armazenamento para backup e retenção iniciais e de crescimento do sistema. Você poderá coletar outras informações para dimensionar ainda mais o Avamar, inclusive necessidades de gravação em fita, especificações de RPO e RTO, bem como necessidades de replicação de ambientes com vários locais. A solução EMC VSPEX EUC oferece suporte a um modelo de implementação flexível, que permite expandir facilmente o seu ambiente conforme as necessidades do negócio mudam. Você pode combinar as configurações de componente modular apresentadas nesta solução para formar maiores implementações. Por exemplo, você pode construir a configuração de 1.000 desktops de uma só vez ou pode começar com a configuração de 500 desktops e expandi-la conforme necessário. Da mesma forma, você pode implementar a configuração de 2.000 desktops todos de uma vez ou gradualmente, expandindo os recursos de armazenamento à medida que são necessários. Os requisitos declarados nas arquiteturas de referência são os que a EMC considera o conjunto mínimo de recursos para manipular as cargas de trabalho necessárias com base na definição declarada de um desktop virtual de referência. Em qualquer implementação de cliente, a carga de um sistema variará no decorrer do tempo conforme os usuários interagirem com o sistema. No entanto, se os desktops virtuais do cliente diferirem significativamente da definição de referência e variarem no mesmo grupo de recursos, poderá ser necessário adicionar mais desses recursos ao sistema. Computação do usuário final do EMC VSPEX 95

Capítulo 4: Visão geral da solução Avaliação rápida Uma avaliação do ambiente do cliente ajuda a assegurar que seja implementada a solução VSPEX correta. Esta seção fornece uma planilha fácil de usar para simplificar os cálculos de dimensionamento e ajudar a avaliar o ambiente do cliente. Primeiro, resuma os tipos de usuário que você planeja migrar para o ambiente de computação do usuário final do VSPEX. Para cada grupo, determine o número de CPUs virtuais, a quantidade de memória, o desempenho de armazenamento necessário, a capacidade de armazenamento necessária e o número de desktops virtuais de referência no pool de recursos. Aplicando a carga de trabalho de referência fornece exemplos deste processo. Preencha uma linha da planilha para cada aplicativo, como mostrado na Tabela 14. Tabela 14. Linha da planilha em branco Aplicativo CPU (CPUs virtuais) Memória (GB) IOPS Desktops virtuais de referência equivalentes Número de usuários Total de desktops de referência Exemplo de tipo de usuário Requisitos de recursos Desktops de referência equivalentes --- --- --- Preencha os requisitos de recursos do tipo de usuário. A linha requer entradas em três recursos diferentes: CPU, memória e IOPS. Requisitos de CPU O desktop virtual de referência supõe que mais aplicativos de desktop são otimizados para uma só CPU. Se um tipo de usuário precisar de um desktop com várias CPUs virtuais, modifique a contagem de desktops virtuais proposta para justificar os recursos adicionais. Por exemplo, se 100 desktops estiverem sendo virtualizados, mas 20 usuários precisarem de duas CPUs em vez de uma, considere que o pool precisará fornecer 120 desktops virtuais de capacidade. Requisitos de memória A memória desempenha um papel fundamental para assegurar a funcionalidade e o desempenho dos aplicativos. Portanto, cada grupo de desktops terá diferentes destinos para a quantidade de memória disponível aceitável. Como no cálculo da CPU, se um grupo de usuários precisar de recursos de memória adicionais, simplesmente ajuste o número de desktops planejados para acomodar os requisitos de recursos adicionais. Por exemplo, se você tem 200 desktops que serão virtualizados usando SO do desktop, mas cada um deles precisar de 4 GB de memória, em vez dos 2 GB fornecidos na referência, planeje para 400 desktops virtuais. 96 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Requisitos de desempenho de armazenamento Requisitos de capacidade de armazenamento Determinação de desktops virtuais de referência equivalentes Os requisitos de desempenho de armazenamento para desktops são normalmente o aspecto de desempenho menos compreendido. O desktop virtual de referência usa uma carga de trabalho gerada por uma ferramenta reconhecida pelo setor para executar uma ampla variedade de aplicativos de produtividade de escritório que deve representar a maioria das implementações de desktops virtuais. Os requisitos de capacidade de armazenamento de um desktop podem variar muito dependendo dos tipos de aplicativos em uso e das políticas específicas do cliente. Os desktops virtuais apresentados nesta solução contam com armazenamento compartilhado adicional para dados de perfis e documentos de usuários. Esse requisito é coberto como um componente opcional que pode ser atendido com a adição de hardware de armazenamento específico da arquitetura de referência ou de compartilhamentos de arquivos existentes no ambiente. Com todos os recursos definidos, determine um valor apropriado para a linha "Desktops virtuais de referência equivalentes" na Tabela 14 usando as relações na Tabela 15. Arredonde todos os valores para cima para o número inteiro mais próximo. Tabela 15. Recursos do desktop virtual de referência Tipo de desktop SO do desktop Recurso Valor para o desktop virtual de referência Relacionamento entre requisitos e desktops virtuais de referência equivalentes CPU 1 Desktops virtuais de referência equivalentes = requisitos de recursos Memória 2 Desktops virtuais de referência equivalentes = (requisitos de recursos)/2 IOPS 8 Desktops virtuais de referência equivalentes = (requisitos de recursos)/8 SO do servidor CPU 0,2 Desktops virtuais de referência equivalentes = (requisitos de recursos)/0,2 Memória 0,6 Desktops virtuais de referência equivalentes = (requisitos de recursos)/0,6 IOPS 8 Desktops virtuais de referência equivalentes = (requisitos de recursos)/8 Por exemplo, se houver um grupo de 100 usuários que precisam de duas CPUs virtuais e 12 IOPS por desktop em uma implementação de SO do desktop, juntamente com 8 GB de memória, descreva-o como precisando de dois desktops de referência de CPU, quatro desktops de referência de memória e dois desktops de referência de IOPS com base nas características do desktop virtual na Tabela 13 na página 92. Esses números vão para a linha Desktops virtuais de referência equivalentes", conforme mostrado na Tabela 16. Use o valor máximo na linha para preencher a coluna Desktops virtuais de referência equivalentes. Multiplique o número de desktops virtuais de referência equivalentes pelo número de usuários para chegar ao total de recursos necessários para esse tipo de usuário. Computação do usuário final do EMC VSPEX 97

Capítulo 4: Visão geral da solução Tabela 16. Exemplo de linha da planilha Tipo de usuário Usuários pesados Requisitos de recursos Desktops virtuais de referência equivalentes CPU (CPUs virtuais) Memória (GB) IOPS Desktops virtuais de referência equivalentes Número de usuários 2 8 12 --- --- --- 2 4 2 4 100 400 Total de desktops de referência Depois de completar a planilha para cada tipo de usuário a ser migrado para a infraestrutura virtual, calcule o número total de desktops de referência virtual necessários no pool, calculando a soma da coluna "Total" no lado direito da planilha, conforme mostrado na Tabela 17. Tabela 17. Exemplos de aplicativos Tipo de usuário Usuários pesados Requisitos de recursos Desktops virtuais de referência equivalentes Requisitos de recursos Desktops virtuais de referência equivalentes Requisitos de recursos Desktops virtuais de referência equivalentes CPU (CPUs virtuais) Memória (GB) IOPS Desktops virtuais de referência equivalentes Número de usuários 2 8 12 --- --- --- 2 4 2 4 100 400 2 4 8 --- --- --- 2 2 1 2 100 200 1 2 8 --- --- --- 1 1 1 1 300 300 Total de desktops de referência Total 900 As soluções VSPEX End-User Computing estabelecem tamanhos definidos de pools de recursos. Para esse conjunto de soluções, os tamanhos de pool são 500, 1.000 e 2.000. No caso da Tabela 17, o cliente requer 900 desktops virtuais de capacidade do pool. Portanto, o pool de 1.000 desktops virtuais fornece recursos suficientes para as necessidades atuais, bem como margem de crescimento. 98 Computação do usuário final do EMC VSPEX

Capítulo 4: Visão geral da solução Ajuste Na maioria dos casos, o hardware recomendado para servidores e armazenamento será dimensionado apropriadamente com base no processo descrito na seção anterior. No entanto, em alguns casos, pode ser necessária uma personalização adicional dos recursos de hardware disponíveis. Uma descrição completa da arquitetura do sistema está além do escopo deste documento; entretanto, personalizações adicionais podem ser feitas neste momento. Recursos de armazenamento Em alguns aplicativos, existe a necessidade de separar algumas cargas de trabalho de armazenamento de outras. Os layouts de armazenamento das arquiteturas VSPEX colocam todos os desktops virtuais em um só pool de recursos. Para conseguir a separação da carga de trabalho, compre drives de discos adicionais para cada grupo que precisa de isolamento de carga de trabalho e adicione-os a um pool dedicado. Não é apropriado reduzir o tamanho do pool de recursos de armazenamento principal para dar suporte ao isolamento nem reduzir a capacidade do pool sem orientação adicional além deste documento. Os layouts de armazenamento apresentados neste documento são projetados para equilibrar diversos fatores diferentes em termos de alta disponibilidade, desempenho e proteção de dados. A alteração dos componentes do pool pode ter impactos significativos difíceis de prever em outras áreas do sistema. Recursos de servidor Na solução VSPEX End-User Computing, é possível personalizar os recursos de hardware do servidor de modo mais eficaz. Para isso, primeiro totalize os requisitos de recursos para os componentes do servidor, conforme mostrado na Tabela 18. Anote a soma das colunas Total de recursos de CPU e Total de recursos de memória à direita da tabela. Tabela 18. Totais dos componentes de recursos de servidor Tipo de usuário CPU (CPUs virtuais) Memória (GB) Número de usuários Total de recursos de CPU Total de recursos de memória Usuários pesados Usuários moderados Usuários típicos Requisitos de recursos Requisitos de recursos Requisitos de recursos 2 8 100 200 800 2 4 100 200 400 1 2 300 300 600 Total 700 1.800 Nesse exemplo, a arquitetura de destino precisou de 700 CPUs virtuais e 1.800 GB de memória. Com as suposições declaradas de oito desktops por núcleo de processador físico na implementação do SO do desktop e nenhum superprovisionamento de memória, isso se traduz em 88 núcleos de processador físico e 1.800 GB de memória. Em contraste, o pool de recursos para 1.000 desktops virtuais, conforme documentado na arquitetura de referência, pede 2.000 GB de memória e, pelo menos, 125 núcleos de processador físico. Nesse ambiente, a solução pode ser implementada de modo eficaz com menos recursos de servidor. Computação do usuário final do EMC VSPEX 99

Capítulo 4: Visão geral da solução Obs.: tenha em mente os requisitos de alta disponibilidade ao personalizar o hardware do pool de recursos. A Tabela 19 é uma planilha em branco para a coleta de informações sobre o cliente. Tabela 19. Planilha em branco do cliente Tipo de usuário CPU (CPUs virtuais) Memória (GB) IOPS Desktops virtuais de referência equivalentes Número de usuários Total de desktops de referência Requisitos de recursos --- --- --- Desktops virtuais de referência equivalentes Requisitos de recursos --- --- --- Desktops virtuais de referência equivalentes Requisitos de recursos --- --- --- Desktops virtuais de referência equivalentes Requisitos de recursos --- --- --- Desktops virtuais de referência equivalentes Requisitos de recursos --- --- --- Desktops virtuais de referência equivalentes Total 100 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Capítulo 5 Diretrizes de Configuração do VSPEX Este capítulo apresenta os seguintes tópicos: Visão geral... 102 Tarefas pré-implementação... 103 Dados de configuração do cliente... 105 Preparação de switches, conexão da rede e configuração de switches... 105 Preparação e configuração do storage array... 108 Instalação e configuração de hosts do Microsoft Hyper-V... 117 Instalação e configuração do banco de dados do SQL Server... 119 Implementação do servidor System Center Virtual Machine Manager... 121 Instalação e configuração da controladora XenDesktop... 123 Instalação e configuração de Provisioning Services (PVS apenas)... 126 Configuração do EMC Avamar... 130 Resumo... 152 Computação do usuário final do EMC VSPEX 101

Capítulo 5: Diretrizes de Configuração do VSPEX Visão geral A Tabela 20 descreve as fases do processo de implementação da solução. Após o término da implementação, a infraestrutura do VSPEX estará pronta para a integração com a rede e a infraestrutura de servidores existentes do cliente. Tabela 20. Visão geral do processo de implementação Fase Descrição Referência 1 Verificar pré-requisitos. Tarefas pré-implementação 2 Obter as ferramentas de implementação. 3 Reunir dados de configuração do cliente. 4 Montar em rack e conectar os componentes. 5 Configurar os switches e as redes, conectar à rede do cliente. Tarefas pré-implementação Tarefas pré-implementação Documentação do fornecedor Preparação de switches, conexão da rede e configuração de switches 6 Instalar e configurar o VNX. Preparação e configuração do storage array 7 Configure o armazenamento de máquina virtual. Preparação e configuração do storage array 8 Instalar e configurar os servidores. Instalação e configuração de hosts do Microsoft Hyper-V 9 Configure o SQL Server (usado pelo SCVMM, PVS Server e XenDesktop). Instalação e configuração do banco de dados do SQL Server 10 Instale e configure o SCVMM. Implementação do servidor System Center Virtual Machine Manager 11 Configurar a controladora XenDesktop. Instalação e configuração da controladora XenDesktop 12 Testar e instalar. Validação da Solução 102 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Tarefas pré-implementação As tarefas pré-implementação incluem procedimentos que não estão diretamente relacionados à instalação e à configuração do ambiente, mas cujos resultados serão necessários no momento da instalação. Como exemplos de tarefas préimplementação, temos o conjunto de nomes de host, endereços IP, IDs de VLAN, chaves de licença, mídia de instalação etc. Certifique-se de executar essas tarefas, conforme mostrado na Tabela 21, antes da visita ao cliente, para diminuir o tempo necessário no local. Tabela 21. Tarefas para a pré-implementação Tarefa Descrição Referência Reunir documentos Reunir ferramentas Reunir dados Reúna os documentos relacionados, listados nas referências. Eles são usados por todo o texto deste documento para fornecer detalhes sobre procedimentos de configuração e práticas recomendadas de implementação dos vários componentes da solução. Reúna as ferramentas necessárias e opcionais para a implementação. Use a Tabela 22 para confirmar que todo o equipamento, o software e todas as licenças apropriadas estejam disponíveis antes do processo de implementação. Reúna os dados de configuração específicos do cliente quanto ao sistema de rede, à nomenclatura e às contas necessárias. Especifique essas informações na planilha de dados de configuração do cliente para referência durante o processo de implementação. Documentação da EMC Outra documentação Tabela 22 Apêndice B Pré-requisitos de implementação Preencha a Planilha de Configuração do VNX Block para Fibre Channel, disponível no Suporte on-line da EMC, para fornecer as informações mais abrangentes do array. A Tabela 22 discrimina os requisitos de hardware, software e de licença para a solução. Para obter informações adicionais, consulte as tabelas de hardware e software neste guia. Tabela 22. Lista de verificação de pré-requisitos para implementação Requisito Descrição Referência Hardware Servidores físicos para hospedar desktops virtuais: Capacidade de servidor físico suficiente para hospedar desktops Servidores Hyper v Server 2012 para hospedar servidores de infraestrutura virtual Obs.: Esse requisito pode estar coberto pela infraestrutura existente. Computação do usuário final do EMC VSPEX 103

Capítulo 5: Diretrizes de Configuração do VSPEX Requisito Descrição Referência Sistema de rede: Capacidade de porta de switch e recursos necessários para a computação do usuário final EMC VNX: storage array multiprotocolo com o layout de disco necessário Software Mídia de instalação do Microsoft SCVMM 2012 SP1 Mídia de instalação do Citrix Provisioning Service 7 Mídia de instalação do Citrix XenDesktop 7 Mídia de instalação do Citrix Provisioning Services 7 ESI para Microsoft Suporte on-line da EMC Software somente variante FC Mídia de instalação do Microsoft Windows Server 2012 (AD/DHCP/DNS/Hypervisor) Mídia de instalação do Microsoft Windows 7 SP1 Mídia de instalação do Microsoft SQL Server 2012 EMC PowerPath Suporte on-line da EMC Licenças Arquivos de licença do Citrix XenDesktop 7 Chaves de licença do Microsoft Windows Server 2012 Standard (ou mais recente) Obs.: Este requisito pode estar coberto no Microsoft Key Management Server (KMS) existente. Chaves de licença do Microsoft Windows 7 Obs.: Este requisito pode estar coberto no Microsoft Key Management Server (KMS) existente. Chave de licença do Microsoft SQL Server Obs.: Esse requisito pode já estar coberto na infraestrutura existente. Chaves de licença do SCVMM 2012 SP1 Licenças somente a variante FC Arquivos de licença do EMC PowerPath 104 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Dados de configuração do cliente Para reduzir o tempo no local, informações, como endereços IP e nomes de host, devem ser reunidas como parte do processo de planejamento. O Apêndice B fornece uma tabela para manter um registro das informações importantes. Esse formulário pode ser expandido ou recolhido, conforme necessário, e é possível adicionar, modificar e registrar informações à medida que a implementação progredir. Além disso, preencha o documento VNX File and Unified Worksheet, disponível no site de Suporte on-line da EMC, a fim de registrar as informações mais completas referentes especificamente ao array. Preparação de switches, conexão da rede e configuração de switches Esta seção descreve os requisitos da infraestrutura de rede necessários para dar suporte a essa arquitetura. A Tabela 23 oferece um resumo das tarefas a completar com referências para mais informações. Tabela 23. Tarefas de configuração de switches e da rede Tarefa Descrição Referência Configure a rede de infraestrutura Configurar a rede de armazenamento (variante FC) Configurar VLANs Concluir o cabeamento de rede Configure o storage array e a rede de infraestruturas do host do Windows como especificado em Arquitetura da solução na página 50. Configure as portas de switch Fibre Channel, o zoneamento para hosts Hyper- V e o storage array. Configure VLANs públicas e privadas conforme a necessidade. Conecte as portas de interconexão dos switches. Conecte as portas do VNX. Guia de configuração de switches do fornecedor Guia de configuração de switches do fornecedor Preparação de switches de rede Configuração da rede de infraestrutura Para obter níveis validados de desempenho e alta disponibilidade, essa solução requer a capacidade de switches estabelecida na tabela Hardware da solução na página 56. Se a infraestrutura existente atender aos requisitos, não será necessária a instalação de um novo hardware. A rede de infraestrutura requer links de rede redundantes para cada host do Hyper-V, o storage array, as portas de interconexão de switches e as portas de uplink de switches. Essa configuração fornece redundância e largura de banda de rede adicional. Essa configuração é necessária, independentemente de a infraestrutura de rede da solução já existir ou estar sendo implementada juntamente com outros componentes da solução. Computação do usuário final do EMC VSPEX 105

Capítulo 5: Diretrizes de Configuração do VSPEX A Figura 33 e a Figura 34 mostram um exemplo de infraestrutura de rede redundante para essa solução. O diagrama ilustra o uso de switches e links redundantes para garantir que nenhum ponto de falha exista na conectividade de rede. Figura 33. Arquitetura de rede de amostra variante SMB 106 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Figura 34. Amostra de arquitetura de rede variante FC Configuração das VLANs Conclusão da conexão de rede Certifique-se de ter um número adequado de portas de switch para o storage array e hosts Hyper-V configurados com um mínimo de três VLANs para: Sistema de rede de máquinas virtuais e tráfego de gerenciamento Hyper-V (redes para clientes, que podem ser separadas, se necessário) Sistema de rede de armazenamento (rede privada) Migração ao vivo (rede privada) Certifique-se de que todos os servidores da solução, os storage arrays, as interconexões de switches e os uplinks de switch tenham conexões redundantes e estejam conectados em infraestruturas de switch separadas. Verifique se há uma conexão completa à rede existente do cliente. Obs.: Neste momento, o novo equipamento está sendo conectado à rede existente do cliente. É necessário cuidado para garantir que interações imprevistas não causem problemas de serviço à rede do cliente. Computação do usuário final do EMC VSPEX 107

Capítulo 5: Diretrizes de Configuração do VSPEX Preparação e configuração do storage array Esta seção fornece os recursos e as instruções para configurar e provisionar armazenamento de núcleo e armazenamento opcional. Configuração do VNX Esta seção descreve como configurar o storage array VNX. Nesta solução, a série VNX fornece armazenamento em bloco com conexão CIFS ou FC SAN para hosts Hyper-V. A Tabela 24 mostra as tarefas de configuração do armazenamento. Tabela 24. Tarefas de configuração de armazenamento Tarefa Descrição Referência Definir a configuração inicial do VNX Provisionar armazenamento FC para Hyper V (somente FC) Provisionar armazenamento opcional para dados do usuário Configure as informações de endereços IP e outros parâmetroschave no VNX. Crie LUNs FC que serão apresentadas aos servidores Hyper-V como CSV que hospedam os desktops virtuais. Crie LUNs FC que serão apresentadas aos servidores Hyper-V como CSV que hospedam os desktops virtuais. Guia de Instalação do VNX5400 Unified Guia de Instalação do VNX5600 Unified Planilha do VNX File e Unified Guia de Introdução do Unisphere System Guia de configuração de switches do fornecedor Preparando o VNX O Guia de Instalação do VNX5400 Unified fornece instruções sobre montagem, colocação em rack, conexão e alimentação do VNX. Para 2.000 desktops virtuais, consulte o Guia de Instalação do VNX5600 Unified. Não há etapas de configuração específicas para esta solução. Definição da configuração inicial do VNX Após concluir a configuração inicial do VNX, você deve configurar as informações essenciais sobre o ambiente existente de modo que o storage array possa se comunicar. Configure os seguintes itens, de acordo com suas políticas de datacenter TI e informações de infraestrutura existentes: DNS NTP Interfaces de rede de armazenamento Endereço IP de rede de armazenamento Lista de membros de serviços CIFS e domínio do Active Directory Os documentos de referência listados na Tabela 24 fornecem mais informações sobre como configurar a plataforma VNX. Diretrizes de configuração de servidor na página 62 fornece mais informações sobre o layout de disco. 108 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Provisionamento do armazenamento de dados principais Armazenamento central de dados é um repositório de dados do sistema operacional do desktop virtual. Pode ser variante FC e SMB. A Figura 20, Figura 24, Figura 26, Figura 27, Figura 29 e Figura 30 descrevem o layout de armazenamento de destino tanto para variantes Fibre Channel (FC) quanto SMB das três pilhas de soluções nesta solução VSPEX. As seções a seguir descrevem as etapas de provisionamento para variantes FC e SMB. Provisionando armazenamento para Cluster Hyper-V (somente variante FC) Execute as seguintes etapas na interface do EMC Unisphere para configurar LUNs FC no VNX, que serão usadas para armazenar desktops virtuais: 1. Crie um pool de armazenamento do RAID 5 baseado em blocos, que consista em 10, 20, ou 40 drives SAS de 600 GB (10 drives para 500 desktops virtuais, 20 para 1.000 desktops virtuais ou 40 para 2.000 desktops virtuais) para a configuração MCS/sem PvD, e apresente-os aos servidores ESXi como datastores. Para outra configuração MCS ou PVS, consulte Diretrizes de configuração de armazenamento para escolher o tamanho do LUN apropriado. Ative o FAST Cache para o pool de armazenamento. a. Faça log-in no EMC Unisphere. b. Escolha o array que será usado nesta solução. c. Selecione Storage > Storage Configuration > Storage Pools. d. Selecione a guia Pools. e. Clique em Create. 2. No pool de armazenamento do bloco, crie quatro, oito ou dezesseis LUNs (quatro LUNs para 500 desktops virtuais, oito LUNs para 1.000 desktops virtuais, ou 16 LUNs para 2.000 desktops virtuais), e apresente-as aos servidores Hyper V como CSV. a. Selecione Storage > LUNs. b. Clique em Create. c. Na caixa de diálogo, escolha o pool criado na etapa 1; MAX para User Capacity; e 4, 8 ou 16 para Número de LUNs a ser criado. As LUNs serão provisionadas após essa operação. 3. Configurar um grupo de armazenamento para permitir que os servidores Hyper-V acessem as LUNs recém-criadas. a. Selecione Hosts -> Storage Groups. b. Crie um novo grupo de armazenamento. c. Selecione LUNs e hosts Hyper-V a serem adicionados a esse grupo de armazenamento. Provisionando armazenamento para compartilhamento CIFS (somente variante SMB) Execute as seguintes etapas no EMC Unisphere para configurar no VNX os sistemas de arquivos CIFS que serão usados para armazenar desktops virtuais: Computação do usuário final do EMC VSPEX 109

Capítulo 5: Diretrizes de Configuração do VSPEX 1. Crie um pool de armazenamento do RAID 5 baseado em blocos que consista em 10, 20 ou 40 drives SAS de 300 GB (10 drives para 500 desktops virtuais, 20 para 1.000 desktops virtuais ou 40 para 2.000 desktops virtuais) para uma configuração MCS/sem PvD. Para outras configurações MCS ou PVS, consulte Diretrizes de configuração de armazenamento para escolher o tipo RAID e a contagem de discos apropriados. Ative o FAST Cache para o pool de armazenamento. a. Faça log-in no EMC Unisphere. b. Escolha o array que será usado nesta solução. c. Selecione Storage > Storage Configuration > Storage Pools. d. Selecione a guia Pools. e. Clique em Create. 2. Crie dez LUNs no pool de armazenamento de bloco, e apresente-as ao Data Mover como dvols no pool NAS definido pelo NAS. Cada LUN deve ter, para a configuração MCS/sem PvD, 200 GB para 500 desktops virtuais, 400 GB para 1.000 desktops virtuais ou 800 GB para 2.000 desktops virtuais. Apresente-os ao servidor Hyper-V como CSVs. Para outra configuração MCS ou PVS, consulte Diretrizes de configuração de armazenamento para escolher o tamanho da LUN apropriado. a. Selecione Storage > LUNs. b. Clique em Create. c. Na caixa de diálogo, escolha o pool criado na etapa 1; MAX para User Capacity; e 10 para o número de LUNs a ser criado. Obs.: Dez LUNs são criadas porque a Engenharia de desempenho da EMC recomenda a criação de aproximadamente uma LUN para cada quatro drives no pool de armazenamento e a criação de LUNs até mesmo em múltiplos de dez. Consulte o documento Práticas Recomendadas para Melhor Desempenho do EMC VNX Unified - Guia de Práticas Recomendadas Aplicadas. d. Selecione Hosts -> Storage Groups. e. Escolha filestorage. f. Clique em Connect LUNs. g. No painel Available LUNs, escolha as 10 LUNs que você acabou de criar. As LUNS aparecem imediatamente no painel Selected LUNs. O Gerenciador de volumes detecta automaticamente um novo pool de armazenamento de arquivo, ou você pode clicar Rescan Storage System em Storage Pool for File para procurá-lo imediatamente. Não continue até que o novo pool de armazenamento de arquivo esteja presente na GUI. 110 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX 3. Crie quatro, oito ou dezesseis sistemas de arquivos de 500 GB cada (quatro sistemas de arquivos para 500 desktops virtuais, oito para 1.000 ou dezesseis para 2.000) e apresente-os aos servidores Hyper-V como compartilhamentos SMB. Para outra configuração MCS ou PVS, consulte Diretrizes de configuração de armazenamento para escolher o tamanho do sistema de arquivos apropriado. a. Selecione Storage -> Storage Configuration -> File Systems. b. Clique em Create. c. Na caixa de diálogo, escolha Create from Storage Pool. d. Digite a capacidade de armazenamento, por exemplo, 500 GB. e. Aceite os valores padrão para todos os outros parâmetros. 4. Exporte os sistemas de arquivos usando CIFS. a. Selecione Storage -> Shared Folders -> CIFS. b. Clique em Create. 5. No Unisphere: a. Clique em Settings > Data Mover Parameters para fazer alterações na configuração do Data Mover. b. Na lista Set Parameters, escolha All Parameters. c. Role até o parâmetro nthreads como mostrado na Figura 36. d. clique em Properties para atualizar a configuração. O número padrão de threads dedicados para atender a solicitações NFS é 384 por Data Mover no VNX. Como essa solução exige até 2.000 conexões de desktop, aumente o número de threads NFS ativos para um máximo de 1.024 (para 500 desktops virtuais), ou 2.048 (para 1.000 e 2.000 desktops virtuais) em cada Data Mover. Figura 35. Definir o parâmetro nthread Computação do usuário final do EMC VSPEX 111

Capítulo 5: Diretrizes de Configuração do VSPEX Configurando o FAST Cache Para configurar o FAST Cache no pool de armazenamento desta solução, execute as seguintes etapas: 1. Configure flash drives como FAST Cache: a. Clique em Properties (no painel de controle da janela do Unisphere) ou Manage Cache (no painel à esquerda da janela do Unisphere) para abrir a caixa de diálogo Storage System Properties. Figura 36. Caixa de diálogo Storage System Properties b. Clique na guia FAST Cache para exibir as informações do FAST Cache. c. Clique em Create para abrir a caixa de diálogo Create FAST Cache. Figura 37. Crie a caixa de diálogo FAST Cache d. O campo RAID Type é exibido como RAID 1 quando o FAST Cache é criado. 112 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX e. Você também pode escolher o número de flash drives. A parte inferior da janela mostra os flash drives que serão utilizados para criar o FAST Cache. Você pode escolher os drives manualmente, selecionando a opção Manual. Consulte as Diretrizes de configuração de armazenamento para determinar o número de flash drives que são usados nesta solução. Obs.: Se não houver um número suficiente de flash drives disponível, será exibida uma mensagem de erro e o FAST Cache não poderá ser criado. 2. Ative o FAST Cache no pool de armazenamento. Se uma LUN for criada em um pool de armazenamento, você só poderá configurar o FAST Cache para aquela LUN no nível do pool de armazenamento. Em outras palavras, todas as LUNs criadas no pool de armazenamento terão o FAST Cache ativado ou desativado. 3. Para configurar o FAST Cache em um pool de armazenamento existente, use a guia Advanced na caixa de diálogo Create Storage Pool. Figura 38. Guia Advanced na caixa de diálogo Create Storage Pool Depois que o FAST Cache é instalado na série VNX, ele é ativado por padrão quando um pool de armazenamento é criado. Figura 39. Guia Advanced da caixa de diálogo Storage Pool Properties Computação do usuário final do EMC VSPEX 113

Capítulo 5: Diretrizes de Configuração do VSPEX Obs.: O recurso FAST Cache do array série VNX não melhora imediatamente o desempenho. O sistema precisa coletar dados sobre os padrões de acesso e promover informações usadas com frequência no cache. Este processo pode levar algumas horas durante as quais o desempenho do array melhora continuamente. Provisionamento do armazenamento opcional para dados do usuário Se o armazenamento necessário para dados do usuário (ou seja, perfis de usuários de roaming e diretórios base) ainda não existe no ambiente de produção, e o pacote opcional de discos de dados do usuário opcional foi adquirido, execute as seguintes etapas no Unisphere para configurar dois sistemas de arquivos CIFS no VNX: 1. Crie um pool de armazenamento do RAID 5 baseado em blocos, que consista em 16, 24 ou 48 drives NL-SAS (16 drives para 500 desktops virtuais, 24 para 1.000 desktops virtuais ou 48 para 2.000 desktops virtuais). A Figura 22, Figura 28 e a Figura 31 descrevem o layout de armazenamento de dados do usuário de destino para a solução. 2. Crie dez LUNs no pool de armazenamento de bloco, e apresente-as ao Data Mover como dvols no pool NAS definido pelo NAS. Cada LUN deve ter capacidade de 1 TB para 500 desktops virtuais, 2 TB para 1.000 desktops virtuais ou 4 TB para 2.000 desktops virtuais. 3. Crie dois sistemas de arquivos a partir do pool NAS definido pelo sistema contendo as dez novas LUNs. Exporte os sistemas de arquivos como compartilhamentos CIFS. Configurando o FAST VP (opcional) Se preferir, você pode configurar FAST VP para automatizar a movimentação de dados entre níveis de armazenamento. Você pode configurar o FAST VP no nível de pool ou no nível da LUN. Configurando o FAST VP no nível do pool 1. Selecione um pool de armazenamento e clique em Properties para abrir a caixa de diálogo Storage Pool Properties. 114 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX A Figura 41 mostra as informações da classificação por níveis de determinado pool com FAST VP ativado. Figura 40. Janela Storage Pool Properties A área Tier Status mostra as informações de realocação de FAST VP específicas ao pool selecionado. 2. Na lista Auto-Tiering, selecione Manual ou Automatic para o Relocation Schedule. O painel Tier Details exibe a distribuição exata dos dados. 3. Clique em Relocation Schedule para abrir a caixa de diálogo Manage Auto-Tiering. Figura 41. Caixa de diálogo Manage Auto-Tiering 4. Opcionalmente, na caixa de diálogo Manage Auto-Tiering, você pode alterar o Data Relocation Rate. A taxa padrão é definida como Medium de modo a não afetar significativamente o I/O de host. Computação do usuário final do EMC VSPEX 115

Capítulo 5: Diretrizes de Configuração do VSPEX 5. Clique em OK para salvar as alterações. Obs.: O FAST VP é uma ferramenta completamente automatizada que agenda realocações para que ocorram automaticamente. Programe as realocações fora do horário comercial para minimizar qualquer possível impacto no desempenho. Configurando o FAST VP no nível da LUN Algumas propriedades de FAST VP são gerenciadas no nível de LUN. 1. Clique em Properties para uma LUN específica. 2. Selecione a guia Tiering para visualizar as informações de classificação para a LUN. Figura 42. Janela LUN Properties A seção Tier Details exibe a distribuição atual de fatias dentro da LUN. 3. Use a lista Tiering Policy para selecionar a política de classificação para a LUN. 4. Clique em OK para salvar as alterações. Provisionamento do armazenamento opcional para máquinas virtuais de infraestrutura Se o armazenamento necessário para máquinas virtuais da infraestrutura (isto é, SQL Server, controlador de domínio, vcenter Server e/ou controladoras XenDesktop) ainda não existir no ambiente de produção e o pacote opcional de discos de dados do usuário tiver sido adquirido, configure um sistema de arquivos CIFS no VNX para ser usado como compartilhamento SMB no qual residem as máquinas virtuais da infraestrutura. Repita as etapas de configuração mostradas em Provisionando armazenamento para compartilhamento CIFS (somente variante SMB) para provisionar o armazenamento opcional, levando em conta o número menor de drives. 116 Computação do usuário final do EMC VSPEX

Instalação e configuração de hosts do Microsoft Hyper-V Capítulo 5: Diretrizes de Configuração do VSPEX Esta seção fornece os requisitos para a instalação e a configuração de servidores de infraestrutura e hosts Windows necessários para dar suporte à arquitetura. A Tabela 25 descreve as tarefas necessárias. Tabela 25. Tarefas de instalação de servidores Tarefa Descrição Referência Instalar hosts Windows Instalar o Hyper-V e configurar o cluster de failover Configurar o sistema de rede dos hosts Windows Instalar o PowerPath nos servidores Windows Instale o Windows Server 2012 nos servidores físicos para a solução. 1. Adicione a função de servidor do Hyper-V. 2. Adicione o recurso de cluster de failover. 3. Crie e configure o cluster do Hyper-V. Configure o sistema de rede de hosts Windows, incluindo agrupamento de NICs e a rede de switch virtual. Instale e configure o PowerPath para gerenciar múltiplos caminhos para LUNs do VNX http://technet.microsoft.com http://technet.microsoft.com http://technet.microsoft.com Guia de instalação e administração do PowerPath e do PowerPath/VE para Windows. Instalação dos hosts do Windows Instalação do Hyper V e configuração do clustering de failover Siga as práticas recomendadas da Microsoft para instalar o Windows Server 2012 e a função de Hyper-V nos servidores físicos desta solução. Para instalar e configurar o cluster de failover, execute as seguintes etapas: 1. Em cada host do Windows, instale o Windows Server 2012 e patches. 2. Configure a função do Hyper-V e o recurso de cluster de failover. 3. Instale os drivers HBA ou configure os iniciadores iscsi em cada host Windows. Para obter detalhes, consulte o EMC Host Connectivity Guide for Linux. A Tabela 25 fornece as etapas e referências para executar as tarefas de configuração. Configuração do sistema de rede dos hosts Windows Para garantir o desempenho e a disponibilidade, as seguintes placas de interface da rede (NICs) são necessárias: Pelo menos uma NIC para o gerenciamento e o sistema de rede de máquinas virtuais (é possível separar por rede ou VLAN, se necessário). Pelo menos duas NICs de 10 GbE para a rede de armazenamento. Pelo menos uma NIC para a Migração em tempo real. Obs.: Habilite os jumbo-frames para as NICS que transferem dados de SMB. Defina a MTU para 9.000. Consulte o guia de configuração da NIC de seu fornecedor para obter instruções. Computação do usuário final do EMC VSPEX 117

Capítulo 5: Diretrizes de Configuração do VSPEX Instalação do PowerPath nos servidores Windows Habilitação de jumbo-frames Instale o PowerPath nos servidores Windows para melhorar e aperfeiçoar o desempenho e os recursos do storage array VNX. Para obter etapas de instalação detalhadas, consulte o Guia de Administração e Instalação de PowerPath e PowerPath/VE para Windows. Jumbo-frame é um quadro Ethernet com uma "carga" maior do que 1.500 bytes e até 9.000 bytes. É conhecido como MTU (Maximum Transmission Unit, unidade máxima de transmissão). O tamanho máximo geralmente aceito para um jumboframe é 9.000 bytes. O processamento da sobrecarga é proporcional ao número de quadros. Dessa forma, a ativação de jumbo-frames reduz a sobrecarga de processamento, reduzindo o número de quadros a ser enviado. Isso aumenta o throughput da rede. Os jumbo-frames devem ser ativados completamente. Isso inclui os switches de rede e as interfaces VNX. Para habilitar jumbo-frames no VNX: 1. Selecione Unisphere -> Settings -> Network -> Settings for File. 2. Selecione a interface de rede apropriada na guia Interfaces. 3. Selecione Properties. 4. Defina o tamanho da MTU para 9.000. 5. Selecione OK para aplicar as alterações. Pode ser necessário permitir jumbo-frames em cada switch de rede. Consulte o guia de configuração de switches para obter instruções. Planejamento de alocações de memória de máquina virtual A capacidade do servidor tem duas finalidades na solução: Dar suporte à nova infraestrutura de desktops virtualizados. Dar suporte aos serviços necessários de infraestrutura, como autenticação/autorização, DNS e banco de dados. Para obter informações sobre os requisitos mínimos dos serviços de infraestrutura, consulte a Tabela 5. Se os serviços de infraestrutura existentes atenderem aos requisitos, o hardware listado para serviços de infraestrutura não será necessário. Configurando a memória Tome cuidado para dimensionar e configurar adequadamente a memória do servidor para essa solução. Esta seção apresenta uma visão geral do gerenciamento de memória em um ambiente Hyper-V. As técnicas de virtualização de memória permitem ao hipervisor abstrair recursos de hosts físicos, como a Memória dinâmica, para fornecer isolamento de recursos em várias máquinas virtuais e evitar o esgotamento dos recursos. Nos processadores avançados (como os processadores Intel com suporte EPT), essa abstração ocorre dentro da CPU. Caso contrário, esse processo ocorre dentro do próprio hipervisor. 118 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Há muitas técnicas disponíveis dentro do hipervisor que possibilitam maximizar o uso de recursos do sistema como, por exemplo, a memória. Procure não alocar excessivamente os recursos, pois isto pode causar degradação do desempenho do sistema. É difícil prever as implicações exatas da superalocação da memória em um ambiente real. A degradação no desempenho devido à exaustão de recursos aumenta com a quantidade de superalocação de memória. Instalação e configuração do banco de dados do SQL Server Este capítulo descreve como instalar e configurar um banco de dados do SQL Server para a solução. No final desta seção, você terá o servidor Microsoft SQL em uma máquina virtual, com os bancos de dados exigidos pelo Microsoft SCVMM, Citrix Provisioning Service e Citrix XenDesktop configurados para uso. A Tabela 26 identifica as tarefas para a configuração do banco de dados do SQL Server. Tabela 26. Tarefas de configuração do banco de dados do SQL Server Tarefa Descrição Referência Criar uma máquina virtual para o Microsoft SQL Server Instalar o Microsoft Windows na máquina virtual Instalar o Microsoft SQL Server Configurar banco de dados para Microsoft SCVMM Configurar as permissões do banco de dados do XenDesktop Crie uma máquina virtual para hospedar o SQL Server. Verifique se o servidor virtual atende aos requisitos de hardware e software. Instale o Microsoft Windows Server 2012 SQL Standard Edition na máquina virtual criada para hospedar o SQL Server. Instale o Microsoft SQL Server na máquina virtual designada para essa finalidade. Crie o banco de dados necessário para o SCVMM Server no datastore apropriado. Configure o servidor de banco de dados com as permissões apropriadas para o programa de instalação do XenDesktop. http://msdn.microsoft.com http://technet.microsoft.com http://technet.microsoft.com Acesso e Permissões do Banco de Dados para XenDesktop 7 Criação de uma máquina virtual para o Microsoft SQL Server Obs.: Talvez o ambiente do cliente já contenha um SQL Server designado para essa função. Nesse caso, consulte Configuração do banco de dados para Microsoft SCVMM. Os requisitos de processador, memória e SO variam de acordo com as diferentes versões do SQL Server. A máquina virtual deve ser criada em um dos servidores do Hyper-V designados para máquinas virtuais de infraestrutura e deve usar o CSV designado para a infraestrutura compartilhada. Instalação do Microsoft Windows na máquina virtual O serviço do SQL Server deve estar em execução no Microsoft Windows. Instale o Windows na máquina virtual e selecione as configurações apropriadas de rede, tempo e autenticação Computação do usuário final do EMC VSPEX 119

Capítulo 5: Diretrizes de Configuração do VSPEX Instalação do SQL Server Instale o SQL Server na máquina virtual a partir da mídia de instalação do SQL Server. O site do Microsoft TechNet especifica informações sobre como instalar o SQL Server. Um dos componentes no programa de instalação do SQL Server é o SQL Server Management Studio (SSMS). Você pode instalar esse componente no servidor SQL diretamente, bem como no console de um administrador. Certifique-se de instalar o SSMS em pelo menos um sistema. Em muitas implementações, talvez você queira armazenar arquivos de dados em outros locais que não o caminho padrão. Para alterar o caminho padrão, clique com o botão direito do mouse no objeto de servidor no SSMS e selecione Database Properties. Com essa ação, uma interface de propriedades será aberta, na qual é possível alterar os dados padrão e os diretórios do registro para novos bancos de dados criados no servidor. Obs.: Para alta disponibilidade, o SQL Server pode ser instalado em um Microsoft Failover Cluster. Configuração do banco de dados para Microsoft SCVMM Para usar o Microsoft SCVMM nesta solução, crie um banco de dados a ser usado pelo serviço. Obs.: Não use a opção de banco de dados baseada no Microsoft SQL Server Express para essa solução. É uma prática recomendada criar contas de log-in individuais para cada serviço que acessar um banco de dados no SQL Server. 120 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Implementação do servidor System Center Virtual Machine Manager Esta seção apresenta informações sobre como configurar o SCVMM. Execute as etapas na Tabela 27. Tabela 27. Tarefas para configuração do SCVMM Tarefa Descrição Referência Criar a máquina virtual host SCVMM Instalar o SO guest do SCVMM Crie uma máquina virtual para o SCVMM Server. Instale o Windows Server 2012 Datacenter Edition na máquina virtual host do SCVMM. Instalar um servidor SCVMM Instale um servidor SCVMM. http://technet.microsoft.com Instalar o SCVMM Management Console Instalar o agente do SCVMM localmente nos hosts Adicionar um cluster do Hyper- V ao SCVMM Adicione o armazenamento de compartilhamento de arquivos no SCVMM (somente a variante de arquivo) Criar uma máquina virtual no SCVMM Criar uma máquina virtual de modelo Implementar máquinas virtuais a partir do modelo de máquina virtual Instale o SCVMM Management Console. Instale o agente do SCVMM localmente nos hosts que o SCVMM gerencia. Adicione o cluster do Hyper-V ao SCVMM. Adicione o armazenamento de compartilhamentos de arquivo SMB a um cluster Hyper-V no SCVMM. Crie uma máquina virtual no SCVMM. Crie uma máquina virtual de modelo a partir da máquina virtual existente. Crie o perfil de hardware e o perfil do sistema operacional guest durante o procedimento. Implemente máquinas virtuais a partir da máquina virtual de modelo. http://technet.microsoft.com http://technet.microsoft.com http://technet.microsoft.com http://technet.microsoft.com http://technet.microsoft.com http://technet.microsoft.com http://technet.microsoft.com Como criar a máquina virtual host do SCVMM Para implementar o servidor Microsoft Hyper-V como uma máquina virtual em um servidor Hyper-V instalado como parte dessa solução, estabeleça uma conexão direta com um servidor Hyper-V de infraestrutura usando o gerenciador do Hyper-V. Crie uma máquina virtual no servidor Microsoft Hyper-V com a configuração de sistema operacional guest do cliente usando o datastore do servidor de infraestrutura apresentado a partir do storage array. Os requisitos de memória e processador para o servidor SCVMM dependem do número de máquinas virtuais e hosts do Hyper-V que o SCVMM precisa gerenciar. Instalação do SO guest do SCVMM Instale o SO guest na máquina virtual host do SCVMM. Instale a versão necessária do Windows Server na máquina virtual e selecione as configurações de rede, horário e autenticação apropriadas. Computação do usuário final do EMC VSPEX 121

Capítulo 5: Diretrizes de Configuração do VSPEX Instalação do SCVMM Server Configure o banco de dados VMM e o servidor de biblioteca padrão e depois instale o servidor SCVMM. Consulte o artigo, Instalando o VMM Server, para instalar o SCVMM server. Instalação do SCVMM Management Console Instalação do agente do SCVMM localmente em um host O SCVMM Management Console é uma ferramenta do cliente para gerenciar o servidor SCVMM. Instale o VMM Management Console no mesmo computador que o servidor VMM. Consulte o artigo, Instalando o VMM Administrator Console, para instalar o SCVMM Management Console. Se os hosts precisarem ser gerenciados em uma rede de perímetro, instale um agente do SCVMM localmente no host antes de adicioná-lo ao VMM. Opcionalmente, instale um agente do VMM localmente em um host em um domínio antes de adicionar o host ao VMM. Consulte o artigo, Instalando um Agente do VMM Localmente, para instalar um agente do VMM localmente em um host. Como adicionar um cluster do Hyper-V ao SCVMM Como adicionar armazenamento de compartilhamento de arquivos ao SCVMM (somente a variante de arquivo) Como criar uma máquina virtual no SCVMM Adicione o cluster do Microsoft Hyper-V implementado ao SCVMM. O SCVMM gerencia o cluster do Hyper-V. Consulte o artigo, Como Adicionar um Cluster Host ao VMM, para adicionar o cluster do Hyper-V. Para adicionar o armazenamento de compartilhamento de arquivos no SCVMM, faça o seguinte: 1. Abra a área de trabalho VMs and Services. 2. No painel VMs and Services, clique com o botão direito do mouse no nome do cluster do Hyper-V. 3. Clique em Properties. 4. Na janela Properties, clique em File Share Storage. 5. Clique em Add e, em seguida, adicione o armazenamento de compartilhamento de arquivos ao SCVMM. Crie uma máquina virtual no SCVMM para usar como modelo. Instale a máquina virtual, instale o software e, em seguida, altere as configurações do Windows e dos aplicativos. Consulte Como Criar uma Máquina Virtual com um Disco Rígido Virtual em Branco para criar uma máquina virtual. Como criar um modelo de máquina virtual A conversão de uma máquina virtual em um modelo remove a máquina virtual. Faça o backup da máquina virtual, pois ela poderá ser destruída durante a criação do modelo. Crie um perfil de hardware e um perfil de sistema operacional guest ao criar um modelo. Você pode usar o criador de perfil para implementar as máquinas virtuais. 122 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Consulte Como Criar um Modelo a partir de uma Máquina Virtual para criar o modelo. Implementação de máquinas virtuais a partir do modelo de máquina virtual Consulte Como Implementar uma Máquina Virtual para implementar as máquinas virtuais. O assistente de implementação possibilita salvar os scripts de PowerShell e reutilizá-los para implementar outras máquinas virtuais com a mesma configuração. Instalação e configuração da controladora XenDesktop Este capítulo especifica informações sobre como instalar e configurar as controladoras Citrix XenDesktop para a solução. Para uma nova instalação do XenDesktop, a Citrix recomenda que você complete as tarefas da Tabela 28 na ordem mostrada. Tabela 28. Tarefas de configuração da controladora XenDesktop Tarefa Descrição Referência Crie máquinas virtuais para controladoras XenDesktop Instale o sistema operacional guest para controladores XenDesktop e servidores PVS. Instalar componentes de servidor do XenDesktop Instalar o Citrix Studio Configurar um site Adicione um segundo controlador de entrega do XenDesktop. Preparar uma máquina virtual master. Crie quatro máquinas virtuais no Hyper V. Duas das máquinas virtuais são usadas como controladores de entrega do XenDesktop. Instale o sistema operacional guest Windows Server 2008 R2 ou Windows Server 2012. Instale os componentes de servidor do XenDesktop na primeira controladora de entrega. Instale o Citrix Studio para gerenciar a implementação do XenDesktop remotamente. Configure um site no Citrix Studio. Instale uma controladora de entrega adicional para obter alta disponibilidade. Crie uma máquina virtual master como a imagem base para os desktops virtuais. www.citrix.com Instalação de componentes de servidor do XenDesktop Instale os seguintes componentes de servidor do XenDesktop no primeira controladora: Controlador de entrega distribui aplicativos e desktops, gerencia o acesso do usuário e otimiza conexões Citrix Studio Permite criar, configurar e gerenciar componentes, aplicativos e desktops de infraestrutura Citrix Director Permite monitorar o desempenho e solucionar problemas Servidor de licenças Gerencia as licenças do produto Citrix StoreFront Fornece serviços de autenticação e de entrega de recurso para o Citrix Receiver Computação do usuário final do EMC VSPEX 123

Capítulo 5: Diretrizes de Configuração do VSPEX Obs.: A Citrix oferece suporte à instalação dos componentes do XenDesktop somente por meio dos procedimentos descritos na documentação da Citrix. Configuração de um site Como adicionar uma segunda controladora Inicie o Desktop Studio e configure um site. Para a configuração do site, faça o seguinte: 1. Licencie o site e especifique a edição do XenDesktop a ser usada 2. Configure o banco de dados do site usando uma credencial de log-in designada para o SQL Server. 3. Especifique informações sobre sua infraestrutura virtual, inclusive o caminho do Microsoft SCVMM que a controladora usará para estabelecer uma conexão com a infraestrutura do Hyper-V. Depois de configurar um site, você poderá adicionar uma segunda controladora para fornecer alta disponibilidade. Os componentes de servidor do XenDesktop necessários para a segunda controladora são: Controladora de entrega Citrix Studio Citrix Director Citrix StoreFront Não instale o componente servidor de licenças na segunda controladora porque ele é gerenciado centralmente na primeira controladora. Instalação do Citrix Studio Preparação de uma máquina virtual master Instale o Citrix Studio em consoles de administrador apropriados para gerenciar a implementação do XenDesktop remotamente. Otimize a máquina virtual master para evitar serviços desnecessários em segundo plano que gerem operações de I/O irrelevantes e afetem negativamente o desempenho geral do storage array. Execute as seguintes etapas para preparar a máquina virtual master: 1. Instale o sistema operacional guest Windows 7. 2. Instale as ferramentas de integração apropriadas, como o Hyper-V Tools. 3. Otimize as configurações do sistema operacional consultando Guia de Otimização do Citrix Windows 7 para Virtualização de Desktop. 4. Instale o Virtual Delivery Agent. 5. Instale ferramentas ou aplicativos de terceiros relevantes para seu ambiente, como o Microsoft Office. 124 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Provisionamento de desktops virtuais Execute as etapas a seguir para implementar desktops virtuais usando o Machine Creation Services (MCS) no Citrix Studio: 1. Crie um catálogo de máquinas usando a máquina virtual master como a imagem base. O MCS permite a criação de um catálogo de máquina que contém vários tipos de desktops. Os seguintes tipos de desktop foram testados nesta solução: SO Windows Desktop: Aleatório: os usuários se conectam a um novo desktop (aleatório) toda vez que efetuam log-on Personal vdisk: os usuários se conectam ao mesmo desktop (estático) toda vez que efetuam log-on. As alterações são salvas em um Personal vdisk separado. SO Windows Server: fornece desktops compartilhados hospedados para uma implantação em larga escala de máquinas padronizadas 2. Adicione as máquinas criadas no catálogo a um grupo de entrega de modo que os desktops virtuais estejam disponíveis aos usuários finais. Computação do usuário final do EMC VSPEX 125

Capítulo 5: Diretrizes de Configuração do VSPEX Instalação e configuração de Provisioning Services (PVS apenas) Este capítulo especifica informações sobre como instalar e configurar o Citrix Provisioning Services para a solução. Para uma nova instalação do Provisioning Services, a Citrix recomenda que você complete as tarefas da Tabela 29 na ordem mostrada. Tabela 29. Tarefas de configuração da controladora XenDesktop Tarefa Descrição Referência Crie máquinas virtuais para servidores PVS Instalar o sistema operacional guest para servidores PVS Instalar componentes do lado do servidor de Provisioning Services Configure o conjunto de servidores PVS Adicionar um segundo servidor Criar um armazenamento do PVS Configurar comunicação de entrada Configurar um arquivo de bootstrap Configure o servidor TFTP no VNX Configurar opções de inicialização 66 e 67 no servidor DHCP Preparar uma máquina virtual master Provisionar desktops virtuais Crie duas máquinas virtuais para o servidor do Hyper-V Essas máquinas virtuais serão usadas como servidores PVS. Instale o sistema operacional guest Windows Server 2008 R2 ou Windows Server 2012. Instale os componentes do servidor PVS e console no servidor PVS. Execute o Assistente de Configuração de Provisioning Services para criar um conjunto de servidores PVS. Instale os componentes do servidor PVS e console no segundo servidor e junte-os ao conjunto de servidores existente. Especifique o caminho de armazenamento onde os vdisks irão residir. Ajuste o número total de segmentos que serão usados para se comunicar com cada desktop virtual Atualize a imagem de inicialização para usar ambos os servidores PVS para fornecer serviços de streaming Copie a imagem de inicialização para o servidor TFTP hospedado no VNX Especifique o IP do servidor TFTP e o nome da imagem de inicialização usado para a inicialização do PXE (Preboot execution Environment) Crie uma máquina virtual master como a imagem base para os desktops virtuais. Provisione desktops usando o PVS. Website Citrix 126 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Configuração de um conjunto de servidores PVS Como adicionar um segundo servidor PVS Criar um armazenamento PVS Configuração da comunicação de entrada Quando os componentes do servidor PVS estiverem instalados no servidor PVS, inicie o Assistente de Configuração de Provisioning Services e configure um novo conjunto de servidores usando as seguintes opções: 1. Especifique o serviço DHCP a ser executado em outro computador. 2. Especifique o serviço PXE a ser executado em outro computador. 3. Selecione Create Farm para criar um novo conjunto de servidores PVS usando uma instância de banco de dados SQL designada. 4. Ao criar um novo conjunto de servidores, você precisa criar um site. Forneça um nome apropriado para o novo site e a coleta de dispositivo de destino. 5. Selecione o servidor de licença que está sendo executado no controlador XenDesktop. 6. Se você optar por executar o serviço TFTP no VNX, não utilize o serviço TFTP hospedado no servidor PVS: desmarque a opção Use the Provisioning Services TFTP service. Depois de configurar um conjunto de servidores PVS, você poderá adicionar um segundo servidor PVS para fornecer alta disponibilidade. Instale os componentes do servidor PVS e o console no segundo servidor PVS e execute o Assistente de Configuração de Provisioning Services para ingressar no segundo servidor no conjunto de servidores existente. Um armazenamento PVS é um contêiner lógico de vdisks. O PVS oferece suporte para o uso do compartilhamento CIFS como o destino de armazenamento de um armazenamento. Ao criar um armazenamento PVS, defina o caminho de armazenamento padrão para a convenção de nomenclatura universal (UNC) de um compartilhamento CIFS hospedado no armazenamento VNX. No console do Provisioning Services, clique com o botão direito do mouse em um armazenamento, selecione Properties e Validate para confirmar que todos os servidores PVS no farm de servidores pode acessar o compartilhamento CIFS. Cada servidor PVS mantém uma faixa de portas UDP (User Datagram Protocol) para gerenciar todas as comunicações de entrada de desktops virtuais. Idealmente, você deve dedicar um thread para cada sessão de desktop. O número total de threads suportados por um servidor PVS é calculado como: Total threads = (Number of UDP ports * Threads per port * Number of network adapters) Ajuste a contagem de threads de acordo para corresponder ao número de desktops virtuais implantados. Computação do usuário final do EMC VSPEX 127

Capítulo 5: Diretrizes de Configuração do VSPEX Configurar um arquivo de bootstrap Para atualizar o arquivo de inicialização necessário para os desktops virtuais para inicialização PXE, execute as seguintes etapas: 1. No console do Provisioning Services, navegue para Farm > Sites > Sitename > Servers. 2. Clique com o botão direito do mouse em um servidor e selecione Configure Bootstrap. Figura 43. Caixa de diálogo Configure Bootstrap 3. Na caixa de diálogo Configure Bootstrap, atualize a imagem de inicialização para refletir os endereços IP usados para todos os servidores PVS que fornecem serviços de streaming de forma round-robin. Selecione Read Servers from Database para obter uma lista de servidores PVS automaticamente ou selecione Add para adicionar as informações do servidor manualmente. 4. Depois de modificar a configuração, clique em OK para atualizar o arquivo de inicialização ARDBP32.BIN, que está localizado em C:\ProgramData\Citrix\Provisioning Services\Tftpboot. 5. Navegue até a pasta e examine o registro de data e hora do arquivo de inicialização para garantir que seja atualizado no servidor PVS desejado. Configuração de um servidor TFTP no VNX Além do servidor NFS/CIFS, a plataforma VNX também é usada como um servidor TFTP que fornece uma imagem de inicialização quando desktops virtuais PXE são inicializados. Para configurar o servidor VNX TFTP, execute as seguintes etapas: 1. Ative o serviço TFTP usando a seguinte sintaxe de comando: server_tftp <movername> -service -start 2. Use o seguinte comando para definir o diretório de trabalho TFTP e permitir o acesso de leitura/gravação para transferência de arquivos: server_tftp <movername> -set path <pathname> -readaccess all -writeaccess all 128 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX 3. Use um client TFTP para fazer upload do arquivo de inicialização ARDBP32.BIN de C:\ProgramData\Citrix\Provisioning Services\Tftpboot no servidor PVS para o servidor TFTP do VNX. 4. Use a seguinte sintaxe para definir o acesso ao diretório de trabalho TFTP como somente leitura para impedir a modificação acidental do arquivo de inicialização: server_tftp <movername> -set path <pathname> - writeaccess none Configuração das opções de inicialização 66 e 67 no servidor DHCP Preparação da máquina virtual master Para que o PXE inicialize os desktops virtuais com sucesso a partir da imagem de inicialização fornecida pelos servidores PVS, defina as opções de inicialização 066 e 067 no servidor DHCP. Conclua as seguintes etapas para configurar as opções de inicialização do servidor Microsoft DHCP: 1. Na interface de gerenciamento do DHCP do servidor Microsoft DHCP, clique com o botão direito do mouse em Scope Options e, em seguida, selecione Configure Options. 2. Selecione 066 Boot Server Host Name. 3. Em String Value, digite o endereço IP do Data Mover configurado como servidor TFTP. 4. Da mesma forma, selecione 067 Bootfile Name e, em seguida, digite ARDBP32.BIN na caixa String value. A imagem de inicialização do ARDBP32.BIN é carregada em um desktop virtual antes que a imagem do vdisk seja transmitida por meio dos servidores PVS. Otimize a máquina virtual master para evitar serviços desnecessários em segundo plano que gerem operações de I/O estranhas que afetem negativamente o desempenho geral do storage array. Execute as seguintes etapas para preparar a máquina virtual master: 1. Instale as ferramentas de integração apropriadas. 2. Otimize as configurações do sistema operacional consultando o documento a seguir: Guia de Otimização do Citrix Windows 7 para virtualização de desktop. 3. Instale o Virtual Delivery Agent. 4. Instale ferramentas ou aplicativos de terceiros, como o Microsoft Office, relevantes para seu ambiente. 5. Instale o software do dispositivo de destino PVS na máquina virtual mestre. 6. Modifique a BIOS da máquina virtual mestre para que o adaptador de rede esteja no topo da ordem de inicialização para assegurar que o PXE inicialize a imagem de inicialização PVS. Computação do usuário final do EMC VSPEX 129

Capítulo 5: Diretrizes de Configuração do VSPEX Provisionamento dos desktops virtuais Execute as etapas a seguir para implementar desktops virtuais baseados no PVS: 1. Execute o assistente de imagem PVS para clonar a imagem mestre em um vdisk. 2. Quando a clonagem estiver completa, desligue a máquina virtual mestre e modifique as seguintes propriedades do vdisk: Modo de acesso: Imagem padrão Tipo de cache: Cache no disco rígido do dispositivo 3. Prepare um modelo de máquina virtual a ser usado pelo Assistente de configuração do XenDesktop no passo seguinte. 4. Execute o Assistente de configuração do XenDesktop no console PVS para criar um catálogo de máquina que contenha o número especificado de desktops virtuais. 5. Adicione os desktops virtuais no catálogo a um grupo de entrega de modo que os desktops virtuais estejam disponíveis aos usuários finais. Configuração do EMC Avamar Este capítulo especifica informações sobre a instalação e a configuração do Avamar necessárias para aceitar backup in guest de arquivos de usuários. Existem outros métodos com base no Avamar para fazer backup de arquivos de usuários; entretanto, este método fornece capacidades de restauração do usuário final usando uma GUI comum. Para essa configuração, supõe-se que esteja sendo feito o backup apenas de arquivos e do perfil de um usuário. A Tabela 30 descreve as tarefas a serem executadas. Obs.: Os backups regulares dos componentes da infraestrutura do datacenter exigidos pelos desktops virtuais do Citrix XenDesktop devem complementar os backups produzidos pelo procedimento descrito aqui. Um plano de recuperação de desastre completo requer a capacidade de restaurar a computação do usuário final do Citrix XenDesktop, bem como a capacidade de restaurar dados e arquivos do usuário de desktop do Citrix XenDesktop. 130 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Tabela 30. Tarefas para integração do Avamar Tarefa Descrição Referência Preparação do Microsoft Active Directory Adições do GPO ao EMC Avamar Crie e configure o GPO (Group Policy Object, objeto de política de grupo) para ativar backups do EMC Avamar de arquivos e perfis de usuários. Preparação de imagem (mestre) do Citrix XenDesktop Preparação da imagem master do EMC Avamar Instale e configure o EMC Avamar Client para operar em modo de usuário. Preparação do EMC Avamar Definindo conjuntos de dados Definição de agendamentos Ajustar o agendamento de janelas de manutenção Definição de políticas de retenção Criação de grupos e de políticas de grupo Crie e configure conjuntos de dados do EMC Avamar para dar suporte a arquivos e perfis de usuários. Crie e configure agendamentos de backup do EMC Avamar para dar suporte a backups de desktops virtuais. Modifique o agendamento da janela de manutenção para dar suporte a backups de desktops virtuais. Crie e configure políticas de retenção do EMC Avamar. Criar e configurar grupos e políticas de grupo do EMC Avamar Guia do Administrador do EMC Avamar 7.0 Práticas operacionais recomendadas do EMC Avamar 7.0 Pós-implementação de desktop Ativar clientes (desktops) Ativação de desktops virtuais do Citrix XenDesktop usando o EMC Avamar Enterprise Manager. Guia do Administrador do EMC Avamar 7.0 Computação do usuário final do EMC VSPEX 131

Capítulo 5: Diretrizes de Configuração do VSPEX Adições do GPO ao EMC Avamar Você deve usar as unidades mapeadas para reduzir a carga de gerenciamento devido a limitações atuais do EMC Avamar (como a ausência de suporte para variáveis do lado do cliente, como %username%). Configure o redirecionamento de pastas do Windows para criar os caminhos UNC necessários para os drives mapeados. Você deve criar um novo GPO. Redirecionamento de pastas Para configurar o redirecionamento de pastas do Windows: 1. Edite o GPO acessando User Configuration > Policies > Windows Settings > Folder Redirection. 2. Clique com o botão direito do mouse em Documents. 3. Selecione Properties. 4. Na lista Settings, selecione Basic Redirect everyone s folder to the same location. 5. Na caixa Root Path, digite \\CIFS_server\folder, conforme mostrado na Figura 45 e, em seguida, clique em OK. Figura 44. Configurando o redirecionamento de pastas do Windows 132 Computação do usuário final do EMC VSPEX

Drives mapeados Capítulo 5: Diretrizes de Configuração do VSPEX Crie duas configurações de drives mapeados uma para os arquivos do usuário e outra para o perfil do usuário. Repita o procedimento a seguir duas vezes, alterando três variáveis de cada vez (Location, Label As e Drive Letter Used) para criar dois drives mapeados. Para configurar Mapeamentos de drives: 1. Edite o GPO e acesse User Configuration > Preferences > Windows Settings > Drive Maps. 2. Clique com o botão direito na área vazia/em branco no painel do lado direito. 3. No menu de contexto, selecione New > Mapped Drive, conforme mostrado na Figura 46. Figura 45. Criar um mapeamento de drive de rede Windows para arquivos de usuários 4. Na caixa de diálogo Mapped drive properties, defina os seguintes itens, conforme mostrado na Figura 47, para criar o drive mapeado User_Files: a. Na lista Action, selecione Create. b. Em Location, digite \\cifs_server\folder\%username%. c. Selecione Reconnect: d. Em Label as, digite User_Files. e. Na caixa Drive Letter, selecione Use, depois selecione U. f. Em Hide/Show this drive, selecione Hide this drive. Computação do usuário final do EMC VSPEX 133

Capítulo 5: Diretrizes de Configuração do VSPEX Figura 46. Configurar o mapeamento de drive 5. Na parte superior da janela Properties, selecione a guia Common, e depois selecione Run in logged-on user s security context (user policy option). Figura 47. Configurar as configurações comuns de mapeamento de drive Repita as etapas 1 a 5 para criar o drive mapeado USer_Profile usando as seguintes variáveis: a. Em Location, digite \\cifs_server\folder\%username%.domain.v2 em que domain é o nome de domínio do Active Directory. b. Em Label as, digite User_Profile. c. Na caixa Drive Letter, selecione Use, depois selecione P. 134 Computação do usuário final do EMC VSPEX

A Figura 49 mostra um exemplo de configuração. Capítulo 5: Diretrizes de Configuração do VSPEX Figura 48. Criar um mapeamento de drive de rede Windows para dados de perfis de usuários 6. Feche o Group Policy Editor para assegurar que as alterações foram salvas. Preparação da imagem mestre para o EMC Avamar Esta seção especifica informações sobre o uso do Avamar Client for Windows para fornecer suporte de backup e restauração para desktops virtuais do Citrix XenDesktop que armazenam arquivos gerados por usuários em diretórios base do EMC VNX. O Avamar Client for Windows é instalado e executado como um serviço do Windows chamado Backup Agent. Os recursos de backup e restauração são fornecidos por esse serviço do servidor. A segurança do Windows limita o acesso de serviços conectados usando a conta Sistema local a recursos locais somente. Em sua configuração padrão, o Backup Agent usa a conta Local System para fazer log-on. Ele não pode acessar recursos da rede, inclusive o perfil de usuário do Citrix XenDesktop ou compartilhamentos de arquivos de dados. Para acessar os perfis de usuário do Citrix XenDesktop e compartilhamentos de arquivos de dados, o Backup Agent deve ser executado como o usuário atualmente conectado. Isso é feito usando um arquivo em lotes que inicia o Backup Agent e faz log-on dele como um usuário quando o usuário faz o log-in. Obs.: Os comandos neste arquivo de lote supõem que a letra do drive do disco de dados do usuário para o diretório var Avamar Client para Windows seja D. Quando uma nova letra de drive for atribuída, substitua D em todas as instâncias de D:\ pela letra correta. O redirecionamento do diretório var é descrito em Redirecionar o diretório var do Avamar Client for Windows. Substitua D por P usando as etapas de configuração em Drives mapeados. Modifique o valor do caminho vardir no arquivo avamar.cmd localizado em C:\Program Files\avs\var para --vardir=p:\avs\var. Computação do usuário final do EMC VSPEX 135

Capítulo 5: Diretrizes de Configuração do VSPEX Definindo conjuntos de dados Nas seções a seguir, assuma que o Avamar Grid está ligado e funcional e que foi feito log-in no Avamar Administrator. Consulte o Guia de Administração do EMC Avamar 7.0 para obter informações sobre o acesso ao Avamar Administrator. Os conjuntos de dados do Avamar são uma lista dos diretórios e arquivos de um cliente dos quais será feito backup. Atribuir um conjunto de dados a um cliente ou grupo permite que seleções de backups sejam salvas. Consulte o Guia de Administração do EMC Avamar 7.0 para obter informações adicionais sobre conjuntos de dados.. Esta seção descreve os procedimentos para configurar os bancos de dados de desktop virtuais do Citrix XenDesktop que são necessários para garantir backups bem-sucedidos de arquivos de usuários e perfis de usuário. Crie dois conjuntos de dados: um para os arquivos de usuário e um para o perfil de usuário, utilizando os seguintes procedimentos. Criação do conjunto de dados de Arquivos do Usuário 1. No Avamar Administrator, selecione Tools > Manage Datasets. Figura 49. Menu de ferramentas do Avamar 2. Na janela Manage All Datasets, clique em New. Figura 50. Caixa de diálogo Avamar Manage All Datasets 136 Computação do usuário final do EMC VSPEX

A caixa de diálogo New Dataset é exibida. Capítulo 5: Diretrizes de Configuração do VSPEX Figura 51. Caixa de diálogo Avamar New Dataset 3. Selecione cada plug-in e clique em Remove ( ) para remover todos os plug-ins da lista. 4. No campo Name, digite View-User-Files. 5. Selecione Enter Explicitly. 6. Na lista Select Plug-in Type, selecione Windows File System. 7. Em Select Files and/or Folders, digite U:\ e, em seguida, clique para adicionar (+). Figura 52. Configurar o conjunto de dados do Avamar 8. Clique em OK para salvar o conjunto de dados. Computação do usuário final do EMC VSPEX 137

Capítulo 5: Diretrizes de Configuração do VSPEX Criação do conjunto de dados de Perfil do Usuário Para criar um novo conjunto de dados para dados de perfil do usuário, execute as etapas a seguir: 1. Conclua as etapas em Criação dos arquivos do usuário usando os seguintes valores: Nome: View-User-Profile. Selecione Files and/or Folders: P:\. Figura 53. Conjunto de dados de perfil de usuários 2. Clique na guia Exclusions. 3. Na lista Select Plug-in Type, selecione Windows File System. 4. Em Select Files and/or Folders, digite P:\avs e, em seguida, clique para adicionar (+). Figura 54. Configurações de exclusão do conjunto de dados de perfis de usuários 5. Clique na guia Options. 138 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX 6. Na lista Select Plug-in Type, selecione Windows File System. 7. Selecione Show Advanced Options. Figura 55. Configurações de opções do conjunto de dados de perfis de usuários 8. Percorra a lista de opções até localizar a seção Volume Freezing Options. 9. Na lista Method to freeze volumes, selecione None. 10. Clique em OK para salvar o conjunto de dados. Figura 56. Configurações de Opções avançadas do conjunto de dados de perfis de usuários Definindo agendamentos Os agendamentos do Avamar são objetos reutilizáveis que controlam quando ocorrem backups de grupos e notificações personalizadas. Defina um agendamento recorrente que atenda a seus RPOs (Recovery Point Objectives, objetivos de ponto de recuperação). Consulte o Guia de Administração do EMC Avamar 7.0 para obter informações adicionais sobre conjuntos de dados. Computação do usuário final do EMC VSPEX 139

Capítulo 5: Diretrizes de Configuração do VSPEX Ajuste do agendamento de janelas de manutenção A manutenção servidor Avamar compreende três atividades essenciais: Checkpoint um snapshot do servidor Avamar tirado com o propósito específico de facilitar reversões de servidor. Validação de checkpoint uma operação interna que valida a integridade de um checkpoint específico. Quando um checkpoint passa pela validação, ele pode ser considerado confiável o bastante para ser usado para uma reversão de servidor. Coleta de lixo uma operação interna que recupera espaço de armazenamento de backups excluídos ou expirados. Cada dia de 24 horas é dividido em três janelas operacionais durante as quais são executadas várias atividades do sistema: Janela de backup Janela de blackout Janela de manutenção A Figura 58 ilustra as janelas padrão de backup, blecaute e de manutenção do Avamar. Figura 57. Agendamento da janela de backup/manutenção padrão do Avamar A janela de backup é a parte do dia reservada para a execução de backups agendados normalmente. Nenhuma atividade de manutenção é executada durante a janela de backup. A janela de blecaute é a parte do dia reservada para a execução de atividades de manutenção do servidor, principalmente da coleta de lixo, que requer acesso irrestrito ao servidor. Nenhuma atividade de backup ou administrativa é permitida durante a janela de blecaute. É possível, entretanto, executar restaurações. A janela de manutenção é a parte do dia reservada para a execução de atividades de manutenção de rotina do servidor, principalmente a criação e a validação de checkpoints. 140 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Não devem ser feitos backups de arquivos de usuários nem de dados de perfis durante o dia enquanto os usuários estiverem conectados aos desktops virtuais. Ajuste a hora de início da janela de backup para evitar que os backups ocorram durante esse momento. A Figura 59 ilustra janelas modificadas de backup, blecaute e de manutenção para backup de desktops virtuais XenDesktop View. Figura 58. Agendamento modificado da janela de backup/manutenção do Avamar Para ajustar o agendamento de modo que apareça como mostrado acima, altere Backup Window Start Time: de 8:00 PM para 8:00 AM e clique em OK para salvar as alterações. Consulte o Guia de Administração do EMC Avamar 7.0 para obter mais informações sobre atividades de manutenção do servidor Avamar. Definindo políticas de retenção As políticas de retenção de backup do Avamar permitem especificar por quanto tempo um backup é mantido no sistema. Uma política de retenção é atribuída a cada backup quando ele ocorre. Especifique uma política de retenção personalizada para executar um backup sob demanda ou crie uma política de retenção que seja atribuída automaticamente a um grupo de clientes durante um backup agendado. Quando o período de retenção de um backup expira, o backup é automaticamente marcado para exclusão. A exclusão ocorre em lotes durante as horas de baixa atividade do sistema. Consulte o Guia de Administração do EMC Avamar 7.0 para obter mais informações sobre a definição de políticas de retenção. Criação de grupos e de política de grupo O Avamar usa grupos para implementar várias políticas a fim de automatizar backups e impor regras e comportamento consistente do sistema por todo um segmento ou grupo da comunidade do usuário. Os membros do grupo são máquinas client que foram adicionadas a um grupo específico para executar backups agendados. Computação do usuário final do EMC VSPEX 141

Capítulo 5: Diretrizes de Configuração do VSPEX Além de especificar quais clients pertencem a um grupo, os grupos também especificam: Conjuntos de dados Anexos Políticas de retenção Esses três objetos compõem a política de grupo. A política de grupo controla o comportamento de backup de todos os membros do grupo, a menos que essas configurações sejam sobrepostas no nível do client. Consulte o Guia de Administração do EMC Avamar 7.0 para obter mais informações sobre grupos e políticas de grupos. Esta seção especifica informações sobre a configuração de grupos necessária para garantir backups corretos de arquivos e perfis de usuários. Crie dois grupos e suas respectivas políticas de grupo: um para os arquivos do usuário e outro para o perfil de usuário. Repita o procedimento a seguir duas vezes, alterando duas variáveis a cada vez (Name e Dataset Used). Criação do grupo de arquivos do usuário 1. No menu Actions, selecione New Group. Figura 59. Criar um novo grupo de backup do Avamar 142 Computação do usuário final do EMC VSPEX

A caixa de diálogo New Group é exibida. Capítulo 5: Diretrizes de Configuração do VSPEX Figura 60. Configurações do novo grupo de backup 2. Em Name, digite View_User_Data. 3. Verifique se Disabled está desmarcado. 4. Clique em Next. 5. Na lista Select An Existing Dataset, selecione Citrix Xendesktop-User- Data. Figura 61. Selecionar conjunto de dados de grupo de backup 6. Clique em Next. Computação do usuário final do EMC VSPEX 143

Capítulo 5: Diretrizes de Configuração do VSPEX 7. Na lista Select An Existing Schedule, selecione um agendamento. Figura 62. Selecionar um agendamento de grupo de backup 8. Clique em Next. 9. Na lista Select An Existing Retention Policy, selecione uma política de retenção para o grupo. Figura 63. Selecionar a política de retenção de grupo de backup 10. Clique em Concluir. Obs.: Se você clicar em Next, poderá selecionar os clientes a serem adicionados ao grupo. Essa etapa não é obrigatória, pois os clientes serão adicionados ao grupo durante a ativação. 144 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX EMC Avamar Enterprise Manager: ativando clientes O Avamar Enterprise Manager é um console de aplicativo baseado na Web que fornece recursos centralizados de administração do sistema Avamar, inclusive a capacidade de adicionar e ativar os Avamar Clients em massa. Na próxima seção, presumimos que você saiba como fazer log-in no Avamar EM (Enterprise Manager) e que tenham sido criados os desktops do Citrix XenDesktop. Depois que você efetua log-in no Avamar Enterprise Manager, o painel aparece. Figura 64. Avamar Enterprise Manager 1. Clique em Client Manager. 2. Na janela EMC Avamar Client Manager, clique em Activate. Figura 65. Avamar Client Manager 3. Clique na seta da lista Client Information. Computação do usuário final do EMC VSPEX 145

Capítulo 5: Diretrizes de Configuração do VSPEX Figura 66. Caixa de diálogo Avamar Activate Client 4. Na lista Client Information, selecione Directory Service. Figura 67. Menu Avamar Activate Client 5. Na caixa de diálogo Directory Service, insira as credenciais do usuário necessárias, conforme mostrado na Figura 69. Isso supõe que um serviço do Active Directory tenha sido confirmado no Avamar; consulte o Guia de Administração do EMC Avamar 7.0 para obter informações adicionais sobre a ativação de Gerenciamento LDAP. a. Na lista LDAP Domains, selecione um domínio do serviço de diretórios. b. Em User Name e Password, digite o nome de usuário e a senha necessários para autenticação do serviço de diretório. c. Em Directory Domain, selecione um domínio de diretório a consultar para informações do client, e então clique em OK. 146 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Figura 68. Configuração do serviço de diretórios do Avamar As informações do Active Directory são exibidas no painel esquerdo da janela EMC Avamar Client Manager. Figura 69. Avamar Client Manager pós-configuração 6. Na árvore de diretório Client Information, localize os desktops virtuais Citrix XenDesktop. Computação do usuário final do EMC VSPEX 147

Capítulo 5: Diretrizes de Configuração do VSPEX Nesse exemplo, uma OU foi criada com o nome VSPEX. Figura 70. Avamar Client Manager clients desktop virtual 7. Selecione os desktops da máquina virtual que deseja adicionar ao servidor Avamar. Figura 72 mostra uma lista selecionada no painel Client Information e o domínio de destino no painel Server Information. Figura 71. Avamar Client Manager selecionar clients desktop virtual 8. Arraste e solte a lista selecionada para um domínio do Avamar existente no painel Server Information. A janela Select Groups é exibida. 148 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Figura 72. Seleção dos grupos do Avamar 9. Em Group Name, selecione os grupos aos quais deseja adicionar esses desktops, depois clique em Add. A janela do EMC Avamar Client Manager é exibida novamente. 10. Clique no domínio do Avamar ao qual você acabou de adicionar os desktops do XenDesktop, depois clique em Activate. Figura 73. Ativar Avamar Clients A janela Show Clients for Activation será exibida. 11. Clique em Commit. Computação do usuário final do EMC VSPEX 149

Capítulo 5: Diretrizes de Configuração do VSPEX Figura 74. Confirmar ativação do Avamar Client Um alerta aparece indicando que a ativação do cliente será executada como um processo de segundo plano. 12. Clique em OK. Figura 75. Prompt de informação 1 para ativação do Avamar Client O segundo alerta indica que o processo de ativação foi iniciado e que você deve executar a verificação dos registros quanto ao status. 13. Clique em OK. 150 Computação do usuário final do EMC VSPEX

Capítulo 5: Diretrizes de Configuração do VSPEX Figura 76. Prompt de informação 2 para ativação do Avamar Client A janela EMC Avamar Client Manager é exibida novamente e exibe os clientes ativados. Figura 77. Avamar Client Manager clientes ativados 14. Faça log-out do EMC Avamar Enterprise Manager. Computação do usuário final do EMC VSPEX 151