Pesquise defeitos a recuperação Openstack da gerente de cluster VM PCRF Índice Introdução Troubleshooting Potência na gerente de cluster do estado do DESLIGAMENTO Recupere todo o exemplo do estado de erro Reconstrua a gerente de cluster CP com o instantâneo Desmova a gerente de cluster CP com o instantâneo Verificar Introdução Este original descreve as etapas para recuperar a política virtual de Cisco e exemplos de carregamento da função das regras (vpcrf) distribuído no desenvolvimento Ultra-M/Openstack. Troubleshooting Potência na gerente de cluster do estado do DESLIGAMENTO Se qualquer exemplo está no estado do DESLIGAMENTO devido a uma parada programada de planeamento ou a alguma outra razão, use por favor este procedimento para começar o exemplo e permiti-lo está monitorando no controlador dos serviços do elástico (ESC). Etapa 1. Verifique o estado de exemplo através de OpenStack. nova list --fields name,host,status grep cm_0 c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 destackovs-compute-2 SHUTOFF Etapa 2. Verifique se o cálculo está disponível e assegure-se de que o estado esteja acima. source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 egrep status state state up status enabled Etapa 3. Entre ao mestre ESC como o usuário admin e verifique o estado de exemplo no opdata. /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata grep cm_0
SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 VM_ERROR_STATE Etapa 4. Potência no exemplo do openstack. nova start SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 Etapa 5. Espere cinco minutos pelo exemplo para carreg acima e vir ao estado ativo. nova list fields name,status grep cm_0 c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 ACTIVE Etapa 6. Permita o monitor VM no ESC depois que o exemplo está no estado ativo. /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 Para uma recuperação mais adicional de configurações do exemplo, consulte o tipo procedimentos específicos do exemplo fornecidos aqui. Recupere todo o exemplo do estado de erro Este procedimento pode ser usado se o estado de CP cita como exemplo no openstack é ERRO: Etapa 1. Verifique o estado de exemplo em OpenStack. nova list --fields name,host,status grep cm_0 c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 destackovs-compute-2 ERROR Etapa 2. Verifique se o cálculo está disponível e é executado muito bem. source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 egrep status state state up status enabled Etapa 3. Entre ao mestre ESC como o usuário admin e verifique o estado de exemplo no opdata. /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata grep cm_0 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 VM_ERROR_STATE Etapa 4. Restaure o estado de exemplo para forçar o exemplo de volta a um estado ativo em vez de um estado de erro, uma vez que feito, recarregue seu exemplo. nova reset-state active SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 nova reboot -hard SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 Etapa 5. Espere cinco minutos pelo exemplo para carreg acima e vir ao estado ativo.
nova list fields name,status grep cm_0 c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 ACTIVE Etapa 6. Se, a gerente de cluster muda o estado ao ACTIVE após a repartição, permita o monitor VM no ESC depois que o exemplo da gerente de cluster está no estado ativo. /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 Afixe a recuperação a ser executado/estado ativo, consulte o tipo procedimento específico do exemplo para recuperar a configuração/dados do backup. Reconstrua a gerente de cluster CP com o instantâneo Se a série da política de Cisco (CP) é colada no estado de erro e incapaz de pôr sobre com os procedimentos já descritos e o exemplo está disponível no openstack. Sugere-se que você reconstrua o exemplo com a imagem do instantâneo. Etapa 1. Assegure-se de que o instantâneo do último saiba que a boa configuração esta presente como um arquivo QCOW, usa este arquivo previamente gerado durante o backup, scp/sftp ele de volta ao cálculo do diretor da plataforma de OpenStack (OSPD). Use este procedimento para convertê-lo em uma imagem do relance: glance image-create --name CPS_Cluman_13.1.1 --disk-format "qcow2" --container "bare" --file /var/pcrf/cluman_snapshot.raw Alternatively, glance image-create --name rebuild_cluman --file /home/stack/cluman_snapshot.raw --disk-format qcow2 --container-format bare Etapa 2. Use um comando da reconstrução da nova em OSPD reconstruir como mostrado o exemplo de Cluman VM com o instantâneo transferido arquivos pela rede. nova rebuild <instance_name> <snapshot_image_name> Etapa 3. Espere cinco minutos pelo exemplo para carreg acima e vir ao estado ativo. nova list fields name,status grep cm c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 cm_0_170d9c14-0221-4609-87e3-d752e636f57f ACTIVE Etapa 4. Se, a gerente de cluster muda o estado ao ACTIVE após a reconstrução, verifique o estado de exemplo no ESC e permita o monitor VM no ESC se for necessário. echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine tab" /opt/cisco/esc/confd/bin/confd_cli -u admin C grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR cm_0_170d9c14-0221-4609-87e3-d752e636f57f Etapa 5. Verifique que o volume da cinza associado com a imagem ISO original da gerente de cluster está atualizado com as horas atual após desmover:
cinder list grep tmobile-pcrf-13.1.1-1.iso 2f6d7deb-60d6-40fa-926f-a88536cf98a3 in-use tmobile-pcrf-13.1.1-1.iso 3 - true a3f3bc62-0195-483a-bbc0-692bccd37307 cinder show 2f6d7deb-60d6-40fa-926f-a88536cf98a3 grep updated_at updated_at 2018-06-18T08:54:59.000000 updated_at 2018-06-18T08:54:59.000000 Etapa 6. Anexe os discos alternativos ou o algum outro volume da cinza anexados previamente ao automóvel do exemplo da gerente de cluster se não anexado em etapas precedentes. cinder list +--------------------------------------+-----------+---------------------------+------+--------- ----+----------+--------------------------------------+ ID Status Name Size Volume Type Bootable Attached to +--------------------------------------+-----------+---------------------------+------+--------- ----+----------+--------------------------------------+ 0e7ec662-b59e-4e3a-91a9-35c4ed3f51d7 available pcrf-atp1-mongo02 3 - false 2f6d7deb-60d6-40fa-926f-a88536cf98a3 in-use tmobile-pcrf-13.1.1-1.iso 3 - true a3f3bc62-0195-483a-bbc0-692bccd37307 4c553948-df75-4f0b-bf7b-0e64127dfda3 available pcrf-atp1-svn01 3 - false 594c052e-aaa3-4c82-867d-3b36162244b3 available tmobile-pcrf-13.1.1-2.iso 3 - true 64953713-de86-40d5-a0e5-07db22d692f2 in-use tmobile-pcrf-13.1.1.iso 3 - true 80a93e90-59e2-43bd-b67e-5d766d0a2f11 openstack server add volume <volume-id> <Server-ID> --device <location of dev in Instance example /dev/vdc> Etapa 7. Se o instantâneo do cluman é velho e o backup config_br.py está disponível de um instantâneo do cargo da data esteve tomado. Importe a configuração do backup e se não salte então esta etapa. ssh <cluman-ip> config_br.py a import --svn --etc --grafanadb --auth-htpasswd --haproxy /mnt/backup/<filename.tgz> Etapa 8. Reconstrua todas as imagens VM do backup com config_br.py na gerente de cluster: /var/qps/install/current/scripts/build/build_all.sh Desmova a gerente de cluster CP com o instantâneo Se a gerente de cluster VM CP é perdida (incapaz de recuperar) e o processo da reconstrução (como descrito lhe em 2.3) igualmente falhou, você precisa de demover o exemplo com o ESC. Este procedimento descreve o processo para o mesmos: Etapa 1. Assegure-se de que o instantâneo do último saiba que a boa configuração esta presente
como um arquivo QCOW, usa este arquivo previamente gerado durante o backup, scp/sftp ele de volta ao cálculo OSPD. ls ltr /var/pcrf/cluman_snapshot.qcow -rw-r--r--. 1 root root 328514100 May 18 16:59 cluman_snapshot.qcow Etapa 2. Use este procedimento para convertê-lo em uma imagem do relance. glance image-create --name CPS_Cluman_13.1.1 --disk-format "qcow2" --container "bare" --file /var/pcrf/cluman_snapshot.qcow Etapa 3. Uma vez que a imagem é início de uma sessão disponível ao ESC e verifique o estado de exemplo da gerente de cluster em ESC opdata. echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine tab" /opt/cisco/esc/confd/bin/confd_cli -u admin C grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE Etapa 4. Assegure-se de que o arquivo de /home/admin/pcrf_config.xml este presente como suportado em 2.1.1 Etapa 5. Obtenha o nome do desenvolvimento, do inquilino e do vm_group para que a gerente de cluster seja recuperada. Snippet da amostra: <esc_datamodel xmlns="http://www.cisco.com/esc/esc"> <tenants> <tenant> <name>pcrf</name> ---------------- Name of the tenant <managed_resource>false</managed_resource> <deployments> <deployment> <name>dep1</name> ---------------- Name of the Deployment ----- ----- ----- <vm_group> <name>cm</name> --------------- Name of the vm_group <image>pcrf-13.1.1.qcow2</image> ------------- Name of the Image used <flavor>pcrf-cm</flavor> <bootup_time>600</bootup_time> <recovery_wait_time>30</recovery_wait_time> Etapa 6. Provoque uma supressão da gerente de cluster vm do ESC: aviso: O comando remover o exemplo do opdata deve estar completo, comando incompleto pode suprimir do desenvolvimento inteiro. Seja por favor cauteloso. O comando deve sempre conter todo o nome do inquilino do parâmetro isto é, nome do desenvolvimento e nome do vm_group.
/opt/cisco/esc/confd/bin/confd_cli -u admin C esc-ha-01# config esc-ha-01(config)# no esc_datamodel tenants tenant Pcrf deployments deployment DEP1 vm_group cm esc-ha-01(config)# commit esc-ha-01(config)# exit Acima da etapa deve remover o exemplo do openstack assim como do ESC opdata. Ou seja a gerente de cluster não é agora parte de um desenvolvimento. Etapa 7. Verifique que o exemplo da gerente de cluster está removido do desenvolvimento de yangesc.log, de escmanager.log no ESC e da lista da nova no nó OSPD. Etapa 8. Altere o arquivo PCRF_config.xml suportado em etapa 2.1.1 e altere o nome da imagem da gerente de cluster à imagem recém-criado do instantâneo dentro acima das etapas: Antes da mudança Após a mudança <vm_group> <vm_group> <name>cm</name> <name>cm</name> <image>pcrf-13.1.1.qcow2</image> <image>cps_cluman_13.1.1</image> Etapa 9. Altere o PCRF_config.xml e remova o arquivo de dados da nuvem para o grupo vm da gerente de cluster. Prove o snippet do xml que deve ser removida é mostrado aqui: <config_data> <configuration> <dst>--user-data</dst> <file>file:///opt/cisco/esc/cisco-cps/config/pcrf-cm_cloud.cfg</file> <name>cluster_id</name> <val>p1</val> <name>cm_ip_addr_pvt</name> <val>192.168.1.107</val> <name>prefix</name> <val>vpc</val> <name>seq</name> <val>01</val> <name>site_id</name> <val>de</val> </configuration> </config_data> Etapa 10. Copie o arquivo PCRF_config.xml ao dobrador de /opt/cisco/esc/cisco-cps/config/ onde todos arquivos de configuração restantes estam presente. Etapa 11. Carregue a fusão o arquivo de configuração novo a ESC opdata.
/opt/cisco/esc/confd/bin/confd_cli -u admin C esc-ha-01# config esc-ha-01(config)# load merge /opt/cisco/esc/cisco-cps/config/pcrf_config.xml esc-ha-01(config)# commit esc-ha-01(config)# exit Etapa 12. Monitore yangesc.log, escmanager.log no ESC e a lista da nova em OSPD para verificar o desenvolvimento da gerente de cluster. nova list --fields name,status grep cm 96a5647e-9970-4e61-ab5c-5e7285543a09 cm_0_a11a9068-df37-4974-9bd8-566f825d5e39 ACTIVE Etapa 13. Se, a gerente de cluster muda o estado ao ACTIVE após a reconstrução, verifique o estado de exemplo no ESC e permita o monitor VM no ESC se for necessário. echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine tab" /opt/cisco/esc/confd/bin/confd_cli -u admin C grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR cm_0_170d9c14-0221-4609-87e3-d752e636f57f Etapa 14. Anexe os discos alternativos ou o algum outro volume da cinza anexados previamente ao exemplo e não ao automóvel da gerente de cluster anexados pelo esc na etapa precedente. cinder list +--------------------------------------+--------+------------------------+------+------------+-- -------+----------------------------------------+ ID Status Name Size Volume Type Bootable Attached to +--------------------------------------+--------+------------------------+------+------------+-- -------+----------------------------------------+ 4c478cce-c746-455a-93f1-3f360acb87ce in-use CPS_14.0.0.release.iso 3 - true 96a5647e-9970-4e61-ab5c-5e7285543a09 7e5573d9-29bc-4ea0-b046-c666bb1f7e06 in-use PCRF_backup 1024 - false d5ab1991-3e09-41f2-89f5-dd1cf8a9e172 in-use svn01 2 - false 09f4bafa-dfb6-457f-9af5-69196eb31b13 d74988a7-1f59-4241-9777-fc4f2d4f3e78 in-use svn02 2 - false 86ea448d-09bc-4d2f-81a3-de05884f1e05 +--------------------------------------+--------+------------------------+------+------------+-- -------+----------------------------------------+ openstack server add volume <volume-id> <Server-ID> --device <location of dev in Instance example /dev/vdc> Etapa 15. Se o instantâneo do cluman é velho e o backup config_br.py está disponível de um instantâneo do cargo da data esteve tomado. Importe a configuração do backup, se não salte então esta etapa. ssh <cluman-ip> config_br.py a import --svn --etc --grafanadb --users --auth-htpasswd --haproxy /mnt/backup/<file-name.tgz> Etapa 16. Reconstrua todas as imagens VM do backup com config_br.py na gerente de cluster:
/var/qps/install/current/scripts/build/build_all.sh Verificar Sibile o IP da gerente de cluster para assegurar-se de que a Conectividade esteja acima. SSH a gerente de cluster para verificar a acessibilidade. Verifique que os diagnósticos da gerente de cluster para assegurar o estado de saúde de outros VM dos CP não são afetados.