Substituição do cartão-matriz no server de Ultra- M UCS 240M4 - CP
|
|
- Débora Casado Cavalheiro
- 5 Há anos
- Visualizações:
Transcrição
1 Substituição do cartão-matriz no server de Ultra- M UCS 240M4 - CP Índice Introdução Informações de Apoio Abreviaturas Trabalhos do espanador Substituição do cartão-matriz na instalação de Ultra-M Substituição do cartão-matriz no nó do cálculo Identifique os VM hospedados no nó do cálculo Sem energia gracioso O nó do cálculo hospeda CPS/ESC VM Backup ESC Base de dados alternativo ESC Substitua o cartão-matriz Restaure os VM Compute os anfitriões CP do nó, ESC Restaure os CP VM Substituição do cartão-matriz no nó do cálculo OSD Põe CEPH no modo de manutenção Identifique os VM hospedados no nó do OSD-cálculo Sem energia gracioso O nó do OSD-cálculo do caso 1. hospeda o ESC Substitua o cartão-matriz Mova CEPH fora do modo de manutenção Restaure os VM Encaixote 1. nós do OSD-cálculo que hospedam ESC ou CP VM Substituição do cartão-matriz no nó do controlador Verifique o status de controle e põe o conjunto no modo de manutenção Substitua o cartão-matriz Restaure o estado do conjunto Introdução Este original descreve as etapas exigidas para substituir o cartão-matriz defeituoso de um server em um Ultra-M setup que a rede virtual dos anfitriões CP funciona (VNFs). Informações de Apoio Ultra-M é uma solução móvel virtualizada pré-embalada e validada do núcleo do pacote que seja projetada a fim simplificar o desenvolvimento de VNFs. OpenStack é o gerente virtualizado da
2 infraestrutura (VIM) para Ultra-M e consiste nestes tipos de nó: Cálculo Disco do armazenamento do objeto - Cálculo (OSD - Cálculo) Controlador Plataforma de OpenStack - Diretor (OSPD) A arquitetura de nível elevado de Ultra-M e os componentes envolvidos são descritos nesta imagem: Arquitetura de UltraM Este original é pretendido para os Ciscos personnel que são familiares com a plataforma de Cisco Ultra-M e detalha as etapas que são exigidas ser realizadas a nível de OpenStack e de StarOS VNF na altura da substituição do cartão-matriz em um server. Note: A liberação M 5.1.x é considerada ultra a fim definir os procedimentos neste original. Abreviaturas VNF Função da rede virtual ESC Controlador elástico do serviço ESPANAD Método do procedimento
3 OR OSD HDD SSD VIM VM EM UA UUID Discos do armazenamento do objeto Unidade de disco rígido Movimentação de circuito integrado Gerente virtual da infraestrutura Máquina virtual Element Manager Ultra Automation Services Universalmente identificador exclusivo Trabalhos do espanador
4
5 Trabalhos de nível elevado do procedimento de substituição Substituição do cartão-matriz na instalação de Ultra-M Em uma instalação de Ultra-M, pode haver as encenações onde uma substituição do cartãomatriz é exigida nos seguintes tipos de servidor: Cálculo, OSD-cálculo e controlador. Note: Os discos de inicialização com a instalação do openstack são substituídos após a substituição do cartão-matriz. Daqui não há nenhuma exigência adicionar o nó de volta a encobre. Uma vez que o server é posto SOBRE após a atividade da substituição, registrarse-ia de volta à pilha encobrir. Substituição do cartão-matriz no nó do cálculo Antes da atividade, os VM hospedados no nó do cálculo são graciosamente desligamento. Uma vez que o cartão-matriz foi substituído, os VM estão restaurados para trás. Identifique os VM hospedados no nó do cálculo Identifique os VM que são hospedados no server do cálculo. O server do cálculo contém CP ou controlador dos serviços do elástico (ESC) VM: [stack@director ~]$ nova list --field name,host grep compute-8 507d67c2-1d b9d1-da879af524f8 VNF2-DEPLOYM_XXXX_0_c8d98f0f-d874-45d0-af75-88a2d6fa82ea pod1-compute-8.localdomain f9c0763a-4a4f-4bbd-af51-bc be2 VNF2-DEPLOYM_c1_0_df4be88d-b4bf a ee229 pod1-compute-8.localdomain ef4b-4d68-b05d VNF2-ESC-ESC- 0 pod1-compute-8.localdomain Note: Na saída mostrada aqui, a primeira coluna corresponde universalmente ao identificador exclusivo (UUID), a segunda coluna é o nome VM e a terceira coluna é o hostname onde o VM esta presente. Os parâmetros desta saída serão usados nas seções subsequente. Sem energia gracioso O nó do cálculo hospeda CPS/ESC VM Etapa 1. Entre ao nó ESC que corresponde ao VNF e verifica o estado dos VM. [admin@vnf2-esc-esc-0 ~]$ cd /opt/cisco/esc/esc-confd/esc-cli [admin@vnf2-esc-esc-0 esc-cli]$./esc_nc_cli get esc_datamodel egrep --color "<state> <vm_name> <vm_id> <deployment_name>" <snip> <state>service_active_state</state> <vm_name>vnf2-deploym_c1_0_df4be88d-b4bf a ee229</vm_name> <state>vm_alive_state</state>
6 <vm_name>vnf2-deploym_c3_0_3e0db133-c13b-4e3d-ac14- <state>vm_alive_state</state> <deployment_name>vnf2-deployment-em</deployment_name> <vm_id>507d67c2-1d b9d1-da879af524f8</vm_id> <vm_id>dc168a6a-4aeb-4e81-abd9-91d7568b5f7c</vm_id> <vm_id>9ffec58b-4b9d-4072-b bf7fcf07</vm_id> <state>service_active_state</state> <vm_name>vnf2-deploym_xxxx_0_c8d98f0f-d874-45d0-af75-88a2d6fa82ea</vm_name> <state>vm_alive_state</state> <snip> Etapa 2. Pare os CP VM um a um com o uso de seu nome VM. (O nome VM notável da seção identifica os VM hospedados no nó do cálculo). [admin@vnf2-esc-esc-0 ~]$ cd /opt/cisco/esc/esc-confd/esc-cli [admin@vnf2-esc-esc-0 esc-cli]$./esc_nc_cli get esc_datamodel egrep --color "<state> <vm_name> <vm_id> <deployment_name>" <snip> <state>service_active_state</state> <vm_name>vnf2-deploym_c1_0_df4be88d-b4bf a ee229</vm_name> <state>vm_alive_state</state> <vm_name>vnf2-deploym_c3_0_3e0db133-c13b-4e3d-ac14- <state>vm_alive_state</state> <deployment_name>vnf2-deployment-em</deployment_name> <vm_id>507d67c2-1d b9d1-da879af524f8</vm_id> <vm_id>dc168a6a-4aeb-4e81-abd9-91d7568b5f7c</vm_id> <vm_id>9ffec58b-4b9d-4072-b bf7fcf07</vm_id> <state>service_active_state</state> <vm_name>vnf2-deploym_xxxx_0_c8d98f0f-d874-45d0-af75-88a2d6fa82ea</vm_name> <state>vm_alive_state</state> <snip> Etapa 3. Depois que para, os VM devem incorporar o estado do DESLIGAMENTO. [admin@vnf2-esc-esc-0 ~]$ cd /opt/cisco/esc/esc-confd/esc-cli [admin@vnf2-esc-esc-0 esc-cli]$./esc_nc_cli get esc_datamodel egrep --color "<state> <vm_name> <vm_id> <deployment_name>" <snip> <state>service_active_state</state> <vm_name>vnf2-deploym_c1_0_df4be88d-b4bf a ee229</vm_name> <state>vm_shutoff_state</state> <vm_name>vnf2-deploym_c3_0_3e0db133-c13b-4e3d-ac14- <state>vm_alive_state</state> <deployment_name>vnf2-deployment-em</deployment_name> <vm_id>507d67c2-1d b9d1-da879af524f8</vm_id> <vm_id>dc168a6a-4aeb-4e81-abd9-91d7568b5f7c</vm_id> <vm_id>9ffec58b-4b9d-4072-b bf7fcf07</vm_id> <state>service_active_state</state> <vm_name>vnf2-deploym_xxxx_0_c8d98f0f-d874-45d0-af75-88a2d6fa82ea</vm_name> <state>vm_shutoff_state</state> <snip> Etapa 4. Entre ao ESC hospedado no nó do cálculo e verifique se está no estado mestre. Se sim, comute o ESC ao modo standby: [admin@vnf2-esc-esc-0 ~]$ cd /opt/cisco/esc/esc-confd/esc-cli [admin@vnf2-esc-esc-0 esc-cli]$./esc_nc_cli get esc_datamodel egrep --color "<state> <vm_name> <vm_id> <deployment_name>" <snip>
7 <state>service_active_state</state> <vm_name>vnf2-deploym_c1_0_df4be88d-b4bf a ee229</vm_name> <state>vm_shutoff_state</state> <vm_name>vnf2-deploym_c3_0_3e0db133-c13b-4e3d-ac14- <state>vm_alive_state</state> <deployment_name>vnf2-deployment-em</deployment_name> <vm_id>507d67c2-1d b9d1-da879af524f8</vm_id> <vm_id>dc168a6a-4aeb-4e81-abd9-91d7568b5f7c</vm_id> <vm_id>9ffec58b-4b9d-4072-b bf7fcf07</vm_id> <state>service_active_state</state> <vm_name>vnf2-deploym_xxxx_0_c8d98f0f-d874-45d0-af75-88a2d6fa82ea</vm_name> <state>vm_shutoff_state</state> <snip> Backup ESC Etapa 1. O ESC tem a Redundância de 1:1 na solução de UltraM. 2 ESC VM são distribuídos e os apoios escolhem a falha em UltraM. isto é o sistema é recuperado se há uma única falha no sistema. Note: Se há mais do que uma única falha, não está apoiada e pode exigir a redisposição do sistema. Detalhes alternativos ESC: Configuração running ConfD CDB DB Logs ESC Configuração do Syslog Etapa 2. A frequência do backup ESC DB é complicada e precisa de ser segurada com cuidado como monitores ESC e mantém as várias máquinas de estado para vário VNF VM distribuídas. Recomenda-se que estes backup estão executados após seguintes atividades em VNF/POD/Site dado Etapa 3. Verifique que a saúde do ESC é boa para usar o script de health.sh. [root@auto-test-vnfm1-esc-0 admin]# escadm status 0 ESC status=0 ESC Master Healthy [root@auto-test-vnfm1-esc-0 admin]# health.sh esc ui is disabled -- skipping status check esc_monitor start/running, process 836 esc_mona is up and running... vimmanager start/running, process 2741 vimmanager start/running, process 2741 esc_confd is started tomcat6 (pid 2907) is running... [ OK ] postgresql-9.4 (pid 2660) is running... ESC service is running... Active VIM = OPENSTACK ESC Operation Mode=OPERATION /opt/cisco/esc/esc_database is a mountpoint ============== ESC HA (MASTER) with DRBD =================
8 DRBD_ROLE_CHECK=0 MNT_ESC_DATABSE_CHECK=0 VIMMANAGER_RET=0 ESC_CHECK=0 STORAGE_CHECK=0 ESC_SERVICE_RET=0 MONA_RET=0 ESC_MONITOR_RET=0 ======================================= ESC HEALTH PASSED Etapa 4. Tome um backup da configuração running e transfira o arquivo ao servidor de backup. [root@auto-test-vnfm1-esc-0 admin]# /opt/cisco/esc/confd/bin/confd_cli -u admin -C admin connected from using console on auto-test-vnfm1-esc-0.novalocal auto-test-vnfm1-esc-0# show running-config save /tmp/running-esc cfg auto-test-vnfm1-esc-0#exit [root@auto-test-vnfm1-esc-0 admin]# ll /tmp/running-esc cfg -rw tomcat tomcat Dec 20 21:37 /tmp/running-esc cfg Base de dados alternativo ESC Etapa 1. Entre a ESC VM e execute este comando antes que você tome o backup. [admin@esc ~]# sudo bash [root@esc ~]# cp /opt/cisco/esc/esc-scripts/esc_dbtool.py /opt/cisco/esc/escscripts/esc_dbtool.py.bkup [root@esc esc-scripts]# sudo sed -i "s,'pg_dump,'/usr/pgsql-9.4/bin/pg_dump," /opt/cisco/esc/esc-scripts/esc_dbtool.py #Set ESC to mainenance mode [root@esc esc-scripts]# escadm op_mode set --mode=maintenance Etapa 2. Verifique o modo ESC e assegure-se de que reaja do modo de manutenção. [root@esc esc-scripts]# escadm op_mode show Etapa 3. Backup de base de dados usando a ferramenta da restauração do backup da base de dados disponível no ESC. [root@esc scripts]# sudo /opt/cisco/esc/esc-scripts/esc_dbtool.py backup --file scp://<username>:<password>@<backup_vm_ip>:<filename> Etapa 4. Ajuste o ESC de volta ao modo de operação e confirme o modo. [root@esc scripts]# escadm op_mode set --mode=operation [root@esc scripts]# escadm op_mode show Etapa 5. Navegue ao diretório dos scripts e recolha os logs. [root@esc scripts]# /opt/cisco/esc/esc-scripts
9 sudo./collect_esc_log.sh Etapa 6. Para criar um instantâneo da parada programada ESC primeiro o ESC. sudo./collect_esc_log.sh Etapa 7. De OSPD crie um instantâneo da imagem. sudo./collect_esc_log.sh Etapa 8. Verifique que o instantâneo está criado sudo./collect_esc_log.sh Etapa 9. Comece o ESC de OSPD sudo./collect_esc_log.sh Etapa 10. Repita o mesmo procedimento em ESC à espera VM & transfira os logs ao servidor de backup. Etapa p11. Recolha o backup de configuração do Syslog em ambo o ESC VMS e transfira-os ao servidor de backup. [admin@auto-test-vnfm2-esc-1 ~]$ cd /etc/rsyslog.d [admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/00-escmanager.conf 00-escmanager.conf [admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/01-messages.conf 01-messages.conf [admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/02-mona.conf 02-mona.conf [admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.conf rsyslog.conf Substitua o cartão-matriz Etapa 1. As etapas a fim substituir o cartão-matriz em um server UCS C240 M4 podem ser consultadas de: Instalação do servidor de Cisco UCS C240 M4 e guia do serviço Etapa 2. Início de uma sessão ao server com o uso do IP CIMC Etapa 3. Execute a elevação BIOS se o firmware não é conforme a versão recomendada usada previamente. As etapas para a elevação BIOS são dadas aqui: Guia da elevação do server BIOS do montagem de rack da série C de Cisco UCS Restaure os VM Compute os anfitriões CP do nó, ESC
10 Recuperação de ESC VM Etapa 1. O ESC VM é recuperável se o VM está no erro ou o estado de fechamento faz uma repartição dura para trazer acima do VM impactado. Execute estas etapas para recuperar o ESC. Etapa 2. Identifique o VM que está no ERRO ou no estado de fechamento, duro-repartição uma vez identificada o ESC VM. Neste exemplo, recarregue auto-test-vnfm1-esc-0 [root@tb1-baremetal scripts]# nova list grep auto-test-vnfm1-esc- f03e3cac-a78a-439f-952b-045aea5b0d2c auto-test-vnfm1-esc- 0 ACTIVE - running auto-testautovnf1- uas-orchestration= ; auto-testautovnf1-uasmanagement= e0d a bce auto-test-vnfm1-esc- 1 ACTIVE - running auto-testautovnf1- uas-orchestration= ; auto-testautovnf1-uasmanagement= [root@tb1-baremetal scripts]# [root@tb1-baremetal scripts]# nova reboot --hard f03e3cac-a78a- 439f-952b-045aea5b0d2c\ Request to reboot server <Server: auto-test-vnfm1-esc-0> has been accepted. [root@tb1-baremetal scripts]# Etapa 3. Se o ESC VM é suprimido e precisa de ser trazido acima outra vez. [stack@pod1-ospd scripts]$ nova list grep ESC-1 c566efbf a2d8-0682e17b0d41 vnf1-esc-esc- 1 ACTIVE - running vnf1- UAS-uas-orchestration= ; vnf1-uas-uasmanagement= [stack@pod1-ospd scripts]$ nova delete vnf1-esc-esc-1 Request to delete server vnf1-esc-esc-1 has been accepted. Etapa 4. De OSPD, verifique ESC novo VM é ATIVE/running: [stack@pod1-ospd ~]$ nova list grep -i esc a4-d634-40c0-a51e-fc8d55ec7144 vnf1-esc-esc- 0 ACTIVE - running vnf1- UAS-uas-orchestration= ; vnf1-uas-uasmanagement= b8ec-8ff a-e859f6642ab6 vnf1-esc-esc- 1 ACTIVE - running vnf1- UAS-uas-orchestration= ; vnf1-uas-uasmanagement= #Log in to new ESC and verify Backup state. You may execute health.sh on ESC Master too.
11 #################################################################### # ESC on vnf1-esc-esc-1.novalocal is in BACKUP state. #################################################################### [admin@esc-1 ~]$ escadm status 0 ESC status=0 ESC Backup Healthy [admin@esc-1 ~]$ health.sh ============== ESC HA (BACKUP) ================= ======================================= ESC HEALTH PASSED [admin@esc-1 ~]$ cat /proc/drbd version: (api:1/proto:86-101) GIT-hash: 3a6a769340ef93b1ba2792c db49 build by mockbuild@build64r6, :27:11 1: cs:connected ro:secondary/primary ds:uptodate/uptodate C r----- ns:0 nr: dw: dr:0 al:8 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0 Etapa 5. Se o ESC VM é unrecoverable e exige a restauração do base de dados, restaure por favor o base de dados do backup previamente tomado. Etapa 6. Para a restauração do base de dados ESC, nós temos que assegurar-se de que o serviço esc esteja parado antes de restaurar o base de dados; Para ESC HA, execute no VM secundário primeiramente e então o VM preliminar. # service keepalived stop Etapa 7. Verifique o estado do serviço ESC e assegure-se de que tudo esteja parado em VM preliminares e secundários para o HA # escadm status Etapa 8. Execute o script para restaurar o base de dados. Como parte da restauração do DB ao exemplo recém-criado ESC, a ferramenta igualmente promoverá um dos exemplos para ser um ESC preliminar, monta seu dobrador DB ao dispositivo do drbd e começará o base de dados de PostgreSQL. # /opt/cisco/esc/esc-scripts/esc_dbtool.py restore --file scp://<username>:<password>@<backup_vm_ip>:<filename> Etapa 9. Reinicie o serviço ESC para terminar a restauração do base de dados. Para o HA execute em ambos os VM, reiniciam o serviço keepalived # service keepalived start Etapa 10. Uma vez que o VM é restaurado com sucesso e ser executado; assegure-se de que toda a configuração específica do Syslog esteja restaurada do backup conhecido bem sucedido precedente. Assegure-se de que esteja restaurada em todo o ESC VM [admin@auto-test-vnfm2-esc-1 ~]$ [admin@auto-test-vnfm2-esc-1 ~]$ cd /etc/rsyslog.d [admin@auto-test-vnfm2-esc-1 rsyslog.d]$ls /etc/rsyslog.d/00-escmanager.conf
12 00-escmanager.conf rsyslog.d]$ls /etc/rsyslog.d/01-messages.conf 01-messages.conf rsyslog.d]$ls /etc/rsyslog.d/02-mona.conf 02-mona.conf rsyslog.d]$ls /etc/rsyslog.conf rsyslog.conf Etapa 11. Se o ESC precisa de ser reconstruído do comando abaixo do uso do instantâneo OSPD usando o instantâneo tomado durante o backup nova rebuild --poll --name esc_snapshot_27aug2018 esc1 Etapa 12. Verifique o estado do ESC depois que a reconstrução está completa nova list --fileds name,host,status,networks grep esc Etapa 13. Verifique a saúde ESC com o comando abaixo health.sh Copy Datamodel to a backup file /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata > /tmp/esc_opdata_`date +%Y%m%d%H%M%S`.txt Restaure os CP VM Os CP VM estariam no estado de erro na lista da nova: [stack@director ~]$ nova list grep VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d 49ac5f22-469e-4b84-badc db0533 VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d ERROR - NOSTATE Recupere os CP VM do ESC: [admin@vnf2-esc-esc-0 ~]$ sudo /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli recovery-vm-action DO VNF2-DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d [sudo] password for admin: Recovery VM Action /opt/cisco/esc/confd/bin/netconf-console --port=830 --host= user=admin -- privkeyfile=/root/.ssh/confd_id_dsa --privkeytype=dsa --rpc=/tmp/esc_nc_cli.zprcgiieuw <?xml version="1.0" encoding="utf-8"?> <rpc-reply xmlns="urn:ietf:params:xml:ns:netconf:base:1.0" message-id="1"> <ok/> </rpc-reply> Monitore yangesc.log: admin@vnf2-esc-esc-0 ~]$ tail -f /var/log/esc/yangesc.log 14:59:50, Nov-2017 WARN Type: VM_RECOVERY_COMPLETE 14:59:50, Nov-2017 WARN Status: SUCCESS
13 14:59:50, Nov-2017 WARN Status Code: :59:50, Nov-2017 WARN Status Msg: Recovery: Successfully recovered VM [VNF2- DEPLOYM_s9_0_8bc6cc60-15d6-4ead-8b6a-10e75d0e134d]. Quando o ESC não começa o VM Etapa 1. Em alguns casos, o ESC não começará o VM devido a um estado inesperado. Uma ação alternativa é executar um switchover ESC recarregando o mestre ESC. O switchover ESC tomará aproximadamente um minuto. Execute health.sh no mestre novo ESC para verificar que está acima. Quando o ESC se transforma mestre, o ESC pode fixar o estado VM e começar o VM. Desde que esta operação é programada, você deve esperar 5-7 minutos por ela para terminar. Etapa 2. Você pode monitorar /var/log/esc/yangesc.log e /var/log/esc/escmanager.log. Se você não vê o VM obter recuperado após 5-7 minutos, o usuário precisaria de ir fazer a recuperação manual do VM impactado. Etapa 3. Uma vez que o VM é restaurado com sucesso e ser executado; assegure-se de que toda a configuração específica do Syslog esteja restaurada do backup conhecido bem sucedido precedente. Assegure-se de que esteja restaurada em todo o ESC VM. root@autotestvnfm1esc2:/etc/rsyslog.d# pwd /etc/rsyslog.d root@autotestvnfm1esc2:/etc/rsyslog.d# ll total 28 drwxr-xr-x 2 root root 4096 Jun 7 18:38./ drwxr-xr-x 86 root root 4096 Jun 6 20:33../] -rw-r--r-- 1 root root 319 Jun 7 18:36 00-vnmf-proxy.conf -rw-r--r-- 1 root root 317 Jun 7 18:38 01-ncs-java.conf -rw-r--r-- 1 root root 311 Mar ufw.conf -rw-r--r-- 1 root root 252 Nov cloudinit.conf -rw-r--r-- 1 root root 1655 Apr default.conf root@abautotestvnfm1em-0:/etc/rsyslog.d# ls /etc/rsyslog.conf rsyslog.conf Substituição do cartão-matriz no nó do cálculo OSD Antes da atividade, os VM hospedados no nó do cálculo são graciosamente desligamento e o CEPH é posto no modo de manutenção. Uma vez que o cartão-matriz foi substituído, os VM estão restaurados para trás e CEPH é movido fora do modo de manutenção. Põe CEPH no modo de manutenção Etapa 1. Verifique que estado da árvore do osd do ceph está acima no server [heat-admin@pod1-osd-compute-1 ~]$ sudo ceph osd tree ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY root default host pod1-osd-compute osd.0 up osd.3 up
14 osd.6 up osd.9 up host pod1-osd-compute osd.1 up osd.4 up osd.7 up osd.10 up host pod1-osd-compute osd.2 up osd.5 up osd.8 up osd.11 up Etapa 2. Entre ao nó do cálculo OSD e põe CEPH no modo de manutenção. [root@pod1-osd-compute-1 ~]# sudo ceph osd set norebalance [root@pod1-osd-compute-1 ~]# sudo ceph osd set noout [root@pod1-osd-compute-1 ~]# sudo ceph status cluster eb2bb192-b1c9-11e health HEALTH_WARN noout,norebalance,sortbitwise,require_jewel_osds flag(s) set monmap e1: 3 mons at {pod1-controller-0= :6789/0,pod1-controller- 1= :6789/0,pod1-controller-2= :6789/0} election epoch 58, quorum 0,1,2 pod1-controller-0,pod1-controller-1,pod1-controller-2 osdmap e194: 12 osds: 12 up, 12 in flags noout,norebalance,sortbitwise,require_jewel_osds pgmap v584865: 704 pgs, 6 pools, 531 GB data, 344 kobjects 1585 GB used, GB / GB avail 704 active+clean client io 463 kb/s rd, kb/s wr, 263 op/s rd, 542 op/s wr Note: Quando CEPH é removido, VNF HD RAID entra no estado degradado mas o hd-disco deve ainda ser acessível Identifique os VM hospedados no nó do OSD-cálculo Identifique os VM que são hospedados no server do cálculo OSD. O server do cálculo contém o controlador dos serviços do elástico (ESC) ou os CP VM [stack@director ~]$ nova list --field name,host grep osd-compute-1 507d67c2-1d b9d1-da879af524f8 VNF2-DEPLOYM_XXXX_0_c8d98f0f-d874-45d0-af75-88a2d6fa82ea pod1-compute-8.localdomain f9c0763a-4a4f-4bbd-af51-bc be2 VNF2-DEPLOYM_c1_0_df4be88d-b4bf a ee229 pod1-compute-8.localdomain ef4b-4d68-b05d VNF2-ESC-ESC- 0 pod1-compute-8.localdomain f5bd7b9c-476a e5-303f0aae9309 VNF2-UAS-uas- 0 pod1-compute-8.localdomain Note: Na saída mostrada aqui, a primeira coluna corresponde universalmente ao identificador exclusivo (UUID), a segunda coluna é o nome VM e a terceira coluna é o hostname onde o VM esta presente. Os parâmetros desta saída serão usados nas seções subsequente.
15 Sem energia gracioso O nó do OSD-cálculo do caso 1. hospeda o ESC A potência do procedimento graciosamente de ESC ou de CP VM é mesma independentemente de se os VM estão hospedados no nó do cálculo ou do OSD-cálculo. Siga etapas do da substituição cartão-matriz no nó do cálculo graciosamente ao sem energia os VM. Substitua o cartão-matriz Etapa 1. As etapas a fim substituir o cartão-matriz em um server UCS C240 M4 podem ser consultadas de: Instalação do servidor de Cisco UCS C240 M4 e guia do serviço Etapa 2. Início de uma sessão ao server com o uso do IP CIMC 3. Execute a elevação BIOS se o firmware não é conforme a versão recomendada usada previamente. As etapas para a elevação BIOS são dadas aqui: Guia da elevação do server BIOS do montagem de rack da série C de Cisco UCS Mova CEPH fora do modo de manutenção Log no nó do cálculo OSD e movimento CEPH fora do modo de manutenção. [root@pod1-osd-compute-1 ~]# sudo ceph osd unset norebalance [root@pod1-osd-compute-1 ~]# sudo ceph osd unset noout [root@pod1-osd-compute-1 ~]# sudo ceph status cluster eb2bb192-b1c9-11e health HEALTH_OK monmap e1: 3 mons at {pod1-controller-0= :6789/0,pod1-controller- 1= :6789/0,pod1-controller-2= :6789/0} election epoch 58, quorum 0,1,2 pod1-controller-0,pod1-controller-1,pod1-controller-2 osdmap e196: 12 osds: 12 up, 12 in flags sortbitwise,require_jewel_osds pgmap v584954: 704 pgs, 6 pools, 531 GB data, 344 kobjects 1585 GB used, GB / GB avail 704 active+clean client io kb/s wr, 0 op/s rd, 81 op/s wr Restaure os VM Encaixote 1. nós do OSD-cálculo que hospedam ESC ou CP VM
16 O procedimento para restaurar ofcf/esc/em/uas VM é mesmo independentemente de se os VM estão hospedados no nó do cálculo ou do OSD-cálculo. Siga etapas do dos anfitriões CF/ESC/EM/UAS do nó do cálculo caso 2. para restaurar os VM. Substituição do cartão-matriz no nó do controlador Verifique o status de controle e põe o conjunto no modo de manutenção De OSPD, entre ao controlador e verifique que os PCes estão no bom estado todos os três Online e galera dos controladores que mostram todos os três controladores como o mestre. [heat-admin@pod1-controller-0 ~]$ sudo pcs status Cluster name: tripleo_cluster Stack: corosync Current DC: pod1-controller-2 (version el7_3.4-e174ec8) - partition with quorum Last updated: Mon Dec 4 00:46: Last change: Wed Nov 29 01:20: by hacluster via crmd on pod1-controller-0 3 nodes and 22 resources configured Online: [ pod1-controller-0 pod1-controller-1 pod1-controller-2 ] Full list of resources: ip (ocf::heartbeat:ipaddr2): Started pod1-controller-1 ip (ocf::heartbeat:ipaddr2): Started pod1-controller-2 ip (ocf::heartbeat:ipaddr2): Started pod1-controller-1 ip (ocf::heartbeat:ipaddr2): Started pod1-controller-2 Clone Set: haproxy-clone [haproxy] Started: [ pod1-controller-0 pod1-controller-1 pod1-controller-2 ] Master/Slave Set: galera-master [galera] Masters: [ pod1-controller-0 pod1-controller-1 pod1-controller-2 ] ip (ocf::heartbeat:ipaddr2): Started pod1-controller-2 Clone Set: rabbitmq-clone [rabbitmq] Started: [ pod1-controller-0 pod1-controller-1 pod1-controller-2 ] Master/Slave Set: redis-master [redis] Masters: [ pod1-controller-2 ] Slaves: [ pod1-controller-0 pod1-controller-1 ] ip (ocf::heartbeat:ipaddr2): Started pod1-controller-1 openstack-cinder-volume (systemd:openstack-cinder-volume): Started pod1-controller-2 my-ipmilan-for-controller-0 (stonith:fence_ipmilan): Started pod1-controller-0 my-ipmilan-for-controller-1 (stonith:fence_ipmilan): Started pod1-controller-0 my-ipmilan-for-controller-2 (stonith:fence_ipmilan): Started pod1-controller-0 Daemon Status: corosync: active/enabled pacemaker: active/enabled pcsd: active/enabled Põe o conjunto no modo de manutenção. [heat-admin@pod1-controller-0 ~]$ sudo pcs cluster standby [heat-admin@pod1-controller-0 ~]$ sudo pcs status Cluster name: tripleo_cluster Stack: corosync
17 Current DC: pod1-controller-2 (version el7_3.4-e174ec8) - partition with quorum Last updated: Mon Dec 4 00:48: Last change: Mon Dec 4 00:48: by root via crm_attribute on pod1-controller-0 3 nodes and 22 resources configured Node pod1-controller-0: standby Online: [ pod1-controller-1 pod1-controller-2 ] Full list of resources: ip (ocf::heartbeat:ipaddr2): Started pod1-controller-1 ip (ocf::heartbeat:ipaddr2): Started pod1-controller-2 ip (ocf::heartbeat:ipaddr2): Started pod1-controller-1 ip (ocf::heartbeat:ipaddr2): Started pod1-controller-2 Clone Set: haproxy-clone [haproxy] Started: [ pod1-controller-1 pod1-controller-2 ] Stopped: [ pod1-controller-0 ] Master/Slave Set: galera-master [galera] Masters: [ pod1-controller-1 pod1-controller-2 ] Slaves: [ pod1-controller-0 ] ip (ocf::heartbeat:ipaddr2): Started pod1-controller-2 Clone Set: rabbitmq-clone [rabbitmq] Started: [ pod1-controller-0 pod1-controller-1 pod1-controller-2 ] Master/Slave Set: redis-master [redis] Masters: [ pod1-controller-2 ] Slaves: [ pod1-controller-1 ] Stopped: [ pod1-controller-0 ] ip (ocf::heartbeat:ipaddr2): Started pod1-controller-1 openstack-cinder-volume (systemd:openstack-cinder-volume): Started pod1-controller-2 my-ipmilan-for-controller-0 (stonith:fence_ipmilan): Started pod1-controller-1 my-ipmilan-for-controller-1 (stonith:fence_ipmilan): Started pod1-controller-1 my-ipmilan-for-controller-2 (stonith:fence_ipmilan): Started pod1-controller-2 Substitua o cartão-matriz Etapa 1. As etapas a fim substituir o cartão-matriz em um server UCS C240 M4 podem ser consultadas de: Instalação do servidor de Cisco UCS C240 M4 e guia do serviço Etapa 2. Início de uma sessão ao server com o uso do IP CIMC Etapa 3. Execute a elevação BIOS se o firmware não é conforme a versão recomendada usada previamente. As etapas para a elevação BIOS são dadas aqui: Guia da elevação do server BIOS do montagem de rack da série C de Cisco UCS Estado do conjunto da restauração O início de uma sessão ao controlador impactado, remove o modo standby ajustando unstandby. Verifique que o controlador vem Online com conjunto e galera mostra todos os três controladores como o mestre. Isto pode tomar alguns minutos. [heat-admin@pod1-controller-0 ~]$ sudo pcs cluster unstandby [heat-admin@pod1-controller-0 ~]$ sudo pcs status
18 Cluster name: tripleo_cluster Stack: corosync Current DC: pod1-controller-2 (version el7_3.4-e174ec8) - partition with quorum Last updated: Mon Dec 4 01:08: Last change: Mon Dec 4 01:04: by root via crm_attribute on pod1-controller-0 3 nodes and 22 resources configured Online: [ pod1-controller-0 pod1-controller-1 pod1-controller-2 ] Full list of resources: ip (ocf::heartbeat:ipaddr2): Started pod1-controller-1 ip (ocf::heartbeat:ipaddr2): Started pod1-controller-2 ip (ocf::heartbeat:ipaddr2): Started pod1-controller-1 ip (ocf::heartbeat:ipaddr2): Started pod1-controller-2 Clone Set: haproxy-clone [haproxy] Started: [ pod1-controller-0 pod1-controller-1 pod1-controller-2 ] Master/Slave Set: galera-master [galera] Masters: [ pod1-controller-0 pod1-controller-1 pod1-controller-2 ] ip (ocf::heartbeat:ipaddr2): Started pod1-controller-2 Clone Set: rabbitmq-clone [rabbitmq] Started: [ pod1-controller-0 pod1-controller-1 pod1-controller-2 ] Master/Slave Set: redis-master [redis] Masters: [ pod1-controller-2 ] Slaves: [ pod1-controller-0 pod1-controller-1 ] ip (ocf::heartbeat:ipaddr2): Started pod1-controller-1 openstack-cinder-volume (systemd:openstack-cinder-volume): Started pod1-controller-2 my-ipmilan-for-controller-0 (stonith:fence_ipmilan): Started pod1-controller-1 my-ipmilan-for-controller-1 (stonith:fence_ipmilan): Started pod1-controller-1 my-ipmilan-for-controller-2 (stonith:fence_ipmilan): Started pod1-controller-2 Daemon Status: corosync: active/enabled pacemaker: active/enabled pcsd: active/enable
Ultra-M UCS 240M4 escolhe a falha HDD - Procedimento quente da troca - vepc
Ultra-M UCS 240M4 escolhe a falha HDD - Procedimento quente da troca - vepc Índice Introdução Informações de Apoio Abreviaturas Trabalhos do espanador Única falha HDD Única falha HDD no server do cálculo
Procedimento de recuperação para a falha do conjunto de Ultra-M AutoVNF - vepc
Procedimento de recuperação para a falha do conjunto de Ultra-M AutoVNF - vepc Índice Introdução Informações de Apoio Abreviaturas Trabalhos do espanador Recuperação do caso 1. da única falha do conjunto
Ultra-M UCS 240M4 escolhe a falha HDD - Procedimento do swappable recente - CPAR
Ultra-M UCS 240M4 escolhe a falha HDD - Procedimento do swappable recente - CPAR Índice Introdução Informações de Apoio Abreviaturas Trabalhos do espanador Única falha HDD Única falha HDD no server do
Substituição dos componentes defeituosos no server UCS C240 M4 - CPAR
Substituição dos componentes defeituosos no server UCS C240 M4 - CPAR Índice Introdução Informações de Apoio Abreviaturas Trabalhos do espanador Pré-requisitos Backup Componente RMA - Nó do cálculo Identifique
Pesquise defeitos edições quando o Element Manager é executado em um modo autônomo
Pesquise defeitos edições quando o Element Manager é executado em um modo autônomo Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Abreviaturas Problema: O EM pode
Substituição do cartão-matriz no server de Ultra- M UCS 240M4 - CPAR
Substituição do cartão-matriz no server de Ultra- M UCS 240M4 - CPAR Índice Introdução Informações de Apoio Abreviaturas Trabalhos do espanador Substituição do cartão-matriz na instalação de Ultra-M Pré-requisitos
Procedimento de recuperação PCRF VM - OpenStack
Procedimento de recuperação PCRF VM - OpenStack Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Procedimento de backup Etapa 1. O elástico presta serviços de manutenção ao controlador
Procedimento de instalação para o CPAR
Procedimento de instalação para o CPAR Índice Introdução Informações de Apoio Procedimento de instalação Introdução Este documento descreve o procedimento para instalar o Access Registrar principal de
Backup e recuperação - Recuperação completa do conjunto - CP
Backup e recuperação - Recuperação completa do conjunto - CP Índice Introdução Informações de Apoio Abreviaturas Hipótese Procedimento de restauração Recuperação CP Gerente de cluster VM da restauração
Pesquise defeitos a recuperação Openstack da gerente de cluster VM PCRF
Pesquise defeitos a recuperação Openstack da gerente de cluster VM PCRF Índice Introdução Troubleshooting Potência na gerente de cluster do estado do DESLIGAMENTO Recupere todo o exemplo do estado de erro
Substituição do OSD-cálculo UCS 240M4 - CPAR
Substituição do OSD-cálculo UCS 240M4 - CPAR Índice Introdução Informações de Apoio Abreviaturas Trabalhos do espanador Parada programada do aplicativo CPAR Tarefa do instantâneo VM Instantâneo VM Restauração
Recomendações do backup de servidor do gerenciador de segurança 4.3
Recomendações do backup de servidor do gerenciador de segurança 4.3 Índice Introdução Informações de Apoio A terra comum presta serviços de manutenção ao GUI CLI no server CS Restaure um backup Problema:
Substituição do server UCS C240 M4 do cálculo - CPAR
Substituição do server UCS C240 M4 do cálculo - CPAR Índice Introdução Informações de Apoio Abreviaturas Trabalhos do espanador Pré-requisitos Backup Identifique os VM hospedados no nó do cálculo Processo
Recomendações do backup de servidor do gerenciador de segurança 4.3
Recomendações do backup de servidor do gerenciador de segurança 4.3 Índice Introdução Informações de Apoio A terra comum presta serviços de manutenção ao GUI CLI no server CS Restaure um backup Problema:
Backup e procedimento de restauração para vários componentes de Ultra-M - CP
Backup e procedimento de restauração para vários componentes de Ultra-M - CP Índice Introdução Informações de Apoio Abreviaturas Procedimento de backup Backup OSPD Backup ESC CP alternativos Procedimento
ISE: Mecanismos da recuperação de senha
ISE: Mecanismos da recuperação de senha Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Mecanismos da recuperação de senha Recuperação de senha para a máquina virtual ISE Recuperação
Substituição PCRF do server UCS C240 M4 do cálculo
Substituição PCRF do server UCS C240 M4 do cálculo Índice Introdução Informações de Apoio Healthcheck Backup Identifique os VM hospedados no nó do cálculo Desabilite os serviços PCRF que residem no VM
Modelo de distribuição da elevação PCA
Modelo de distribuição da elevação PCA Índice Acreditação principal da Colaboração (PCA) - Promova seu modelo de distribuição Introdução Pré-requisitos Requisitos Componentes Utilizados Problema Solução
Configurar CIMC e instale ESXi em BE6K/7K em caso da falha catastrófica
Configurar CIMC e instale ESXi em BE6K/7K em caso da falha catastrófica Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de fundo Processo a seguir Configuração CIMC da parte
Backup e procedimento de restauração para vários componentes de Ultra-M
Backup e procedimento de restauração para vários componentes de Ultra-M Índice Introdução Informações de Apoio Abreviaturas Procedimentos de backup Backup OSPD Backup de AutoDeploy Backup de AutoIT-VNF
Guia de função do exame médico completo do base de dados UCSM DME
Guia de função do exame médico completo do base de dados UCSM DME Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Características do exame médico completo do base
Exemplo de configuração da integração dos server UCSM da série C
Exemplo de configuração da integração dos server UCSM da série C Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Integração Conexões física Etapas UCSM Integração
Elevação VMware ESXi da versão 5.5 à 6.x.
Elevação VMware ESXi da versão 5.5 à 6.x. Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Configurar Verificar Troubleshooting Introdução Este documento descreve
Substituição PCRF do OSD-cálculo UCS 240M4
Substituição PCRF do OSD-cálculo UCS 240M4 Índice Introdução Informações de Apoio Healthcheck Backup Identifique os VM hospedados no nó do OSD-cálculo Sem energia gracioso Migre o ESC ao modo standby Exclusão
IoT-FND: Incapaz de verificar a Conexão ao base de dados. Exceção: java.sql.sqlexception: ORA-28001: a senha expirou
IoT-FND: Incapaz de verificar a Conexão ao base de dados. Exceção: java.sql.sqlexception: ORA-28001: a senha expirou Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio
Como restaurar a replicação de base de dados do Cisco Emergency Responder
Como restaurar a replicação de base de dados do Cisco Emergency Responder Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Procedimento da restauração da replicação de base de dados CER
Backup da fineza e configuração da elevação com SFTP
Backup da fineza e configuração da elevação com SFTP Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Configurar Estabelecer o servidor SFTP Apoio Atualização Verificar Troubleshooting
Método das substituições de placa ASR 5500 do procedimento (ESPANADOR)
Método das substituições de placa ASR 5500 do procedimento (ESPANADOR) Índice Introdução Tipos de placa ASR 5500 Placas frontais Cartão do armazenamento da tela (FSC) Cartão de status de sistema (SSC)
Má combinação SVN UUID e de dados SVN sincronização
Má combinação SVN UUID e de dados SVN sincronização Índice Introdução MÁ COMBINAÇÃO SVN UUID Verifique a sincronização SVN através de PCRFClient VM Fixe a sincronização do repositório SVN Reinitialize
Guia de Instalação ISR-WAAS no 4000 Series Router ISR
Guia de Instalação ISR-WAAS no 4000 Series Router ISR Índice Introdução Condições prévias da instalação ISR-WAAS Diferença entre NIM-SSD e ISR-SSD NIM-SSD ISR-SSD A instalação ISR-WAAS Pesquise defeitos
Gerente de rede do centro de dados (DCNM) com backup da configuração de switch SFTP
Gerente de rede do centro de dados (DCNM) com backup da configuração de switch SFTP Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Convenções Procedimento Backup manual Backup (programado)
Migração principal do acreditação da Colaboração de 11.x a 12.1
Migração principal do acreditação da Colaboração de 11.x a 12.1 Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Configurar Etapa 1. Instale o arquivo RPM Etapa 2. Inicie o backup no
Recuperação da falha do supervisor da espinha do nexo 9500
Recuperação da falha do supervisor da espinha do nexo 9500 Índice Introdução Problema Solução Prepare para converter o supervisor da substituição ao modo ACI Procedimento 1 - Converso de NX-OS à ACI Procedimento
Configurar a restauração alternativa da configuração no módulo de FirePOWER com ASDM (o Gerenciamento da Em-caixa)
Configurar a restauração alternativa da configuração no módulo de FirePOWER com ASDM (o Gerenciamento da Em-caixa) Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio
O server da lâmina B460 M4 falha a descoberta após uma substituição do cartão-matriz
O server da lâmina B460 M4 falha a descoberta após uma substituição do cartão-matriz Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Background Problemas da descoberta A descoberta falha
Migração do conjunto usando o desenvolvimento da Colaboração da prima de Cisco
Migração do conjunto usando o desenvolvimento da Colaboração da prima de Cisco Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Configurar Construa os grânulos de
Obtenha e execute o software da recuperação no CUCM VM
Obtenha e execute o software da recuperação no CUCM VM Índice Introdução Informações de Apoio Imagem ISO do software da recuperação da transferência Imagem ISO da transferência de arquivo pela rede ao
As informações neste documento são baseadas nestas versões de software e hardware:
Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Configuração do backup/restauração Configurar o backup remoto alternativo local Programando o backup Crie o perfil
O firmware da elevação em Cisco conectou o módulo da grade WPAN para o CGR 1000
O firmware da elevação em Cisco conectou o módulo da grade WPAN para o CGR 1000 Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Passos de upgrade para o firmware WPAN Elevação da imagem
Procedimento da substituição de chassi do nexo 7000
Procedimento da substituição de chassi do nexo 7000 Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Substitua um 7000 Series Switch do nexo de Cisco Antes de Começar Indicador da substituição
Determine a separação que é usada altamente. O comando seguinte mostra a utilização do disco:
Índice Introdução Etapas de verificação Se a separação de /Volume está completa Arquivos de backup velhos Atualização de software e arquivos de correção mais velhos Grande base de dados para armazenar
Configurar Sensu e outras ações aos clientes do registro
Configurar Sensu e outras ações aos clientes do registro Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Configurar Instale o repositório de Epel Instale o erlang
Pesquise defeitos arquivo manifesto não encontrado o erro no pacote recebido quando o ACS 5.x é promovido ou remendado
Pesquise defeitos arquivo manifesto não encontrado o erro no pacote recebido quando o ACS 5.x é promovido ou remendado Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Problema Solução
Gerencia um CSR para o certificado da terceira e a instalação em CMX
Gerencia um CSR para o certificado da terceira e a instalação em CMX Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Configurar Verificar Introdução Este documento descreve como gerar
Dispositivo principal alternativo e da restauração da infraestrutura de Gen1 com vara USB
Dispositivo principal alternativo e da restauração da infraestrutura de Gen1 com vara USB Índice Introdução Problema Solução Introdução Este original descreve como tomar um backup do dispositivo principal
Pesquise defeitos edições de encaixe de HyperFlex com vcenter de VMware
Pesquise defeitos edições de encaixe de HyperFlex com vcenter de VMware Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Passos de Troubleshooting Análise do log Coleção do log Mensagens
Cisco FirePOWER pesquisa defeitos procedimentos de geração do arquivo
Cisco FirePOWER pesquisa defeitos procedimentos de geração do arquivo Índice Introdução Pré-requisitos Usando a interface da WEB de FMC Gerencia um arquivo da pesquisa de defeitos Transfira um arquivo
Instale CP todos em um no jogador virtual 12 de VMware
Instale CP 10.1.0 todos em um no jogador virtual 12 de VMware Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Procedimento Verificar Introdução Este documento descreve
Desenvolvimento do centro de gerenciamento de FireSIGHT em VMware ESXi
Desenvolvimento do centro de gerenciamento de FireSIGHT em VMware ESXi Índice Introdução Pré-requisitos Componentes Utilizados Configuração Distribua um molde OVF Potência sobre e iniciação completa Configurar
Base de dados externo de Cisco Unified Presence Server PostgreSQL e exemplo de configuração da conformidade
Base de dados externo de Cisco Unified Presence Server PostgreSQL e exemplo de configuração da conformidade Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Configurar
Este documento descreve o procedimento para configurar a conformidade em Cisco Unified Presence Server (COPOS) com o uso de PostgreSQL para Windows.
Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Configurar Verificar Troubleshooting Introdução Este documento descreve o procedimento para configurar a conformidade
Índice. Introdução. Pré-requisitos. Requisitos. Componentes Utilizados
Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Configuração alternativa SCE da corrente Instale ou promova SCOS e PQI Promova SCOS e PQI com GUI Promova SCOS com CLI Promova PQI com
Procedimentos da captura de pacote de informação ESA
Procedimentos da captura de pacote de informação ESA Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Capturas de pacote de informação em versões 7.x e mais recente
Armazenamento anexado direto UCS e de Zoneamento FC exemplo de configuração
Armazenamento anexado direto UCS e de Zoneamento FC exemplo de configuração Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Convenções Informações de Apoio UCS com DAS mais cedo do que
Otimização expressa do espaço de disco do MeetingPlace
Otimização expressa do espaço de disco do MeetingPlace Índice Introdução Informações de Apoio Crie o espaço de disco Termine estas etapas a fim criar o espaço de disco Introdução Este documento descreve
Servidor de monitoramento de LDAP que não falha sobre
Servidor de monitoramento de LDAP que não falha sobre Índice Introdução Antes de Começar Convenções Pré-requisitos Componentes Utilizados Descrição Resolução Erros do monitor UCCX LDAP no visualizador
A empresa empacotada do centro de contato (PCCE) 11.5 erros do desenvolvimento no VM hospeda a tela
A empresa empacotada do centro de contato (PCCE) 11.5 erros do desenvolvimento no VM hospeda a tela Índice Introdução Pré-requisitos Componentes Utilizados Problema Solução Introdução Este documento descreve
Configurar o registrador na ponte do atendimento CMS/Acano
Configurar o registrador na ponte do atendimento CMS/Acano Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Disposições Disposições apoiadas A outra instalação Configurar
Índice. Introdução. Pré-requisitos. Requisitos. Componentes Utilizados
Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Instale contra o modo do pacote Instale o modo Empacote o modo Verifique o modo Atualização Limpeza instantânea Antes da limpeza instantânea
Upgrade de firmware no server UCS com a utilidade da elevação do host (HUU)
Upgrade de firmware no server UCS com a utilidade da elevação do host (HUU) Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Configurar Verificar Troubleshooting Introdução Este original
CURSO SUPERIOR DE TECNOLOGIA EM REDES DE COMPUTADORES LABORATÓRIO Disciplina: Administração de Serviços de Redes Aluno(a):
CURSO SUPERIOR DE TECNOLOGIA EM REDES DE COMPUTADORES LABORATÓRIO Disciplina: Administração de Serviços de Redes Aluno(a): Semestre: 2017.1 Prof(a).: Dayvidson Bezerra Data: 02/06/2017 LABORATÓRIO: Cluster
Pesquise defeitos edições com o Network Time Protocol (NTP) em sistemas de FirePOWER
Pesquise defeitos edições com o Network Time Protocol (NTP) em sistemas de FirePOWER Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Sintomas Troubleshooting Passo 1: Verifique a configuração
Pesquisando defeitos problemas de TFTP no Resource Manager Essentials
Pesquisando defeitos problemas de TFTP no Resource Manager Essentials Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Convenções Configurando o arquivo de configuração de TFTP como protocolo
O MeetingPlace web x instala e promove práticas comum
O MeetingPlace web 4.3.0.x instala e promove práticas comum Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Convenções Novo instale da Cisco MeetingPlace Web 4.3 (nenhuma Cisco MeetingPlace
Backup do Samba 4. Introdução. Backup do samba4
Backup do Samba 4 Introdução Este documento visa a orientação para a configuração de backup dos dados de configurações do Samba4. Porém, não é uma solução para backup dos arquivos dos usuários, servidor
O módulo ASA FirePOWER (SFR) pesquisa defeitos procedimentos de geração do arquivo usando ASDM (o Gerenciamento da Em-caixa)
O módulo ASA FirePOWER (SFR) pesquisa defeitos procedimentos de geração do arquivo usando ASDM (o Gerenciamento da Em-caixa) Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações
Processo do registro automático CUCM em modo misturado
Processo do registro automático CUCM em modo misturado Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Telefones apoiados Informações de Apoio Configurar Configurar modo misturado em
Nova imagem um centro de gerenciamento de Cisco FireSIGHT e um dispositivo de FirePOWER
Nova imagem um centro de gerenciamento de Cisco FireSIGHT e um dispositivo de FirePOWER Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Processo da nova imagem Antes de Começar Vista
Mobilidade DHCP interno expresso
Mobilidade DHCP interno expresso Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Configurar Configuração de GUI Configuração de CLI Verificar Troubleshooting Introdução Este documento
O monitor do C UCS B/UCS e substitui a unidade alternativa da bateria (BBU)
O monitor do C UCS B/UCS e substitui a unidade alternativa da bateria (BBU) Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Monitore a unidade alternativa da bateria (BBU) Server do
Migração da licença da versão 10.x CUCM no exemplo de configuração PLM
Migração da licença da versão 10.x CUCM no exemplo de configuração PLM Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Configurar Obtenha detalhes da licença da
Pesquise defeitos edições principais do espaço de disco do acreditação/abastecimento da Colaboração (PCA/PCP)
Pesquise defeitos edições principais do espaço de disco do acreditação/abastecimento da Colaboração (PCA/PCP) Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Problema Solução Pedindo
1. Após o boot se completar, será exibida a tela de inicial do Redo exibida abaixo, onde o usuário deverá escolher a opção Start Redo Backup.
RESTAURAÇÃO DE COMPUTADORES PREGÃO 83/2008 UTILIZANDO REDO BACKUP 1) RESTAURAÇÃO ATRAVÉS DE DISPOSITIVO USB COM IMAGEM DO SISTEMA O processo de restauração de imagem nos multiterminais deve ser feito utilizando-se
Configuração e Utilização de Discos Redundantes com o Cisco MCS
Configuração e Utilização de Discos Redundantes com o Cisco MCS Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Convenções Drive Mirroring (RAID 1) Reconheça uma falha na unidade Recupere
Como mover o base de dados de PostgreSQL entre o Inter-conjunto espreita em IM & em presença (IM&P)
Como mover o base de dados de PostgreSQL entre o Inter-conjunto espreita em IM & em presença (IM&P) Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Solução Termos Etapas executadas Introdução
Configurar WMI no controlador do domínio do Windows para o CEM
Configurar WMI no controlador do domínio do Windows para o CEM Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Configurar Crie um objeto novo da política do grupo WMI: Configurar a Segurança
Procedimentos de reconfiguração SSD/RAID para modelos do centro de gerenciamento FMC4000 e FMC2000 FireSIGHT
Procedimentos de reconfiguração SSD/RAID para modelos do centro de gerenciamento FMC4000 e FMC2000 FireSIGHT Índice Introdução Pré-requisito Requisitos de hardware Procedimentos Passo 1: Backup a configuração
Configurar a instalação wireless fácil ISE 2.2
Configurar a instalação wireless fácil ISE 2.2 Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Informação wireless fácil da característica Benefícios principais
Instalando CMX 10.5 em Cisco MSE 3365
Instalando CMX 10.5 em Cisco MSE 3365 Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Configurar Configuração CIMC e lançamento KVM Instalação de imagem CMX Instalação CMX inicial A
Promovendo um FTD HA emparelhe em dispositivos de FirePOWER
Promovendo um FTD HA emparelhe em dispositivos de FirePOWER Índice Introdução Objetivo Componentes do laboratório Topologia O processo de upgrade FTD HA Passo 1: Verifique as condições prévias Passo 2:
Como distribuir um serviço virtual em CSP 2100
Como distribuir um serviço virtual em CSP 2100 Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Configurar Diagrama de Rede Configurações Método 1: Usando CSP 2100 GUI Verificar Introdução
Pesquise defeitos a UCP/Memória de StarOs/a monitoração uso dos arquivos
Pesquise defeitos a UCP/Memória de StarOs/a monitoração uso dos arquivos Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Monitoração do USO de CPU Monitoração da
A instalação e desinstalação do agente de usuário de Sourcefire
A instalação e desinstalação do agente de usuário de Sourcefire Índice Introdução Pré-requisitos Requisitos de instalação A instalação do agente de usuário de Sourcefire Desinstalação do agente de usuário
Configuração ldap de Cisco C880 usando o microsoft ative directory
Configuração ldap de Cisco C880 usando o microsoft ative directory Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Aplicação LDAP Configurar Crie contas especiais Serviço de diretório
Pesquisando defeitos algumas edições do line card (LC) em NCS4016
Pesquisando defeitos algumas edições do line card (LC) em NCS4016 Índice Pesquisando defeitos algumas edições do line card (LC) em NCS4016 Introdução Informações de Apoio Antes que você começar: Estado
Sistemas de SAP HANA com exemplo da elevação do pacote de serviços de FusionIO
Sistemas de SAP HANA com exemplo da elevação do pacote de serviços de FusionIO Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Procedimento 1. Pare o base de dados de HANA 2. Suporte
Verifique a saúde de um conjunto da analítica do Tetration
Verifique a saúde de um conjunto da analítica do Tetration Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Quando verificar a saúde do conjunto: Maneiras diferentes
Rosa VS 9.1 HA - A falha alternativa DB, dois MySQL v e v estão no sistema
Rosa VS 9.1 HA - A falha alternativa DB, dois MySQL v5.5.28 e v5.6.29 estão no sistema Índice Introdução Problema Solução Introdução Este documento descreve que quando o módulo do supervisor virtual de
Instale o proxy unificado Cisco virtual do SORVO (vcusp) em um host de VMware ESXi
Instale o proxy unificado Cisco virtual do SORVO (vcusp) em um host de VMware ESXi Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Configuração Configurar subinterfaces no vcusp usando
Promovendo um FTD HA emparelhe em dispositivos da potência de fogo
Promovendo um FTD HA emparelhe em dispositivos da potência de fogo Índice Introdução Objetivo Componentes do laboratório Topologia O processo de upgrade FTD HA Passo 1: Verifique as condições prévias Passo
Expiração do certificado e supressão do CallManager
Expiração do certificado e supressão do CallManager Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Problema Solução Regeneração do certificado para versões 8.x e mais recente CUCM CAPF
Operações alternativas e da restauração para CUCM através do CLI
Operações alternativas e da restauração para CUCM através do CLI Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de fundo Procedimento de backup Procedimento de restauração
Coleção e análise dos relatórios do problema de Cisco IP Communicator
Coleção e análise dos relatórios do problema de Cisco IP Communicator Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Procedimento para recolher o PRT Análise do
Como instalar, configurar e pesquise defeitos? SORVA o App da câmera de vídeo? s
Como instalar, configurar e pesquise defeitos? SORVA o App da câmera de vídeo? s Índice Introdução Pré-requisitos Exigência Componentes Utilizados Procedimento para instalar o App da câmera Configurar
Comandos de Verificação. Alberto Felipe Friderichs Barros
Comandos de Verificação Alberto Felipe Friderichs Barros fstab fstab é um arquivo em texto puro para configuração de dispositivos de armazenamento e pontos de montagem do GNU/Linux e que pode ser editado
Configuração da Alta disponibilidade na série 3 centros da defesa
Configuração da Alta disponibilidade na série 3 centros da defesa Índice Introdução Pré-requisitos Requisitos Componentes Utilizados Informações de Apoio Alta disponibilidade das características Configuração
Configurar a captura de pacote de informação AP em controladores sem fio do catalizador 9800
Configurar a captura de pacote de informação AP em controladores sem fio do catalizador 9800 Índice Introdução Informações de Apoio Pré-requisitos Requisitos Componentes Utilizados Configuração Diagrama
Se você recebe alertas constantes da saúde, siga as etapas gritam para investigar a edição:
Índice Introdução Passo 1: Verifique o estado de saúde na interface da WEB Passo 2: Verifique o estado usando o CLI Dispositivo da potência de fogo Centro de gerenciamento de FireSIGHT Passo 3: Investigue
Suporte o base de dados de um dispositivo das M-séries de Cisco a outro
Suporte o base de dados de um dispositivo das M-séries de Cisco a outro ID do Documento: 117840 Atualizado em: junho 25, 2014 Contribuído por Fraidoon Sarwary, engenheiro de TAC da Cisco. Transferência