Pesquise defeitos a recuperação Openstack da gerente de cluster VM PCRF

Documentos relacionados
Procedimento de recuperação PCRF VM - OpenStack

Backup e recuperação - Recuperação completa do conjunto - CP

Procedimento de recuperação para a falha do conjunto de Ultra-M AutoVNF - vepc

Pesquise defeitos edições quando o Element Manager é executado em um modo autônomo

Ultra-M UCS 240M4 escolhe a falha HDD - Procedimento quente da troca - vepc

Instantâneo e recuperação CPAR VM

Elevação VMware ESXi da versão 5.5 à 6.x.

Gerente de rede do centro de dados (DCNM) com backup da configuração de switch SFTP

Modelo de distribuição da elevação PCA

Recomendações do backup de servidor do gerenciador de segurança 4.3

Captura de pacote de informação aumentada em todos os modelos do dispositivo VOS

Substituição do server UCS C240 M4 do cálculo - CPAR

Cisco FirePOWER pesquisa defeitos procedimentos de geração do arquivo

Otimização expressa do espaço de disco do MeetingPlace

Recomendações do backup de servidor do gerenciador de segurança 4.3

Pesquisando defeitos algumas edições do line card (LC) em NCS4016

Ultra-M UCS 240M4 escolhe a falha HDD - Procedimento do swappable recente - CPAR

Migração principal do acreditação da Colaboração de 11.x a 12.1

Como restaurar a replicação de base de dados do Cisco Emergency Responder

O módulo ASA FirePOWER (SFR) pesquisa defeitos procedimentos de geração do arquivo usando ASDM (o Gerenciamento da Em-caixa)

Determine a separação que é usada altamente. O comando seguinte mostra a utilização do disco:

Procedimento de instalação para o CPAR

Substituição PCRF do server UCS C240 M4 do cálculo

Acesso de console a WLC através de CIMC

Configurar Sensu e outras ações aos clientes do registro

Configurar CIMC e instale ESXi em BE6K/7K em caso da falha catastrófica

Exemplo de configuração do módulo do shell CLI do Cisco IOS

Erros de GUI 7.x expressos do gerente das comunicações unificadas

ASA 9.x: Promova uma imagem do software usando o ASDM ou o exemplo da configuração de CLI

ISE: Mecanismos da recuperação de senha

Substituição do OSD-cálculo UCS 240M4 - CPAR

Se você recebe alertas constantes da saúde, siga as etapas gritam para investigar a edição:

Pesquise defeitos edições de encaixe de HyperFlex com vcenter de VMware

Expiração do certificado e supressão do CallManager

Mobilidade DHCP interno expresso

Pesquisando defeitos problemas de TFTP no Resource Manager Essentials

Substituição dos componentes defeituosos no server UCS C240 M4 - CPAR

Arquivos de configuração alternativos e da restauração

Diretriz geral da elevação de XRv 9000

Questões e dicas. Servidores: Samba Sistema: Discos e partições Sistema: Rede Servidores: SSH Cliente: SSSD Servidores: BareOS/Bacula

Verificação do instantâneo de VMware das comunicações unificadas

Pesquise defeitos arquivo manifesto não encontrado o erro no pacote recebido quando o ACS 5.x é promovido ou remendado

Como mover o base de dados de PostgreSQL entre o Inter-conjunto espreita em IM & em presença (IM&P)

O GUI falha quando um arquivo é transferido ou exportado através do DCM

Configurar a plataforma NFS para o backup ACS 5.x em Windows e em Linux

A instalação e desinstalação do agente de usuário de Sourcefire

Backup da fineza e configuração da elevação com SFTP

Configurar o acesso HTTPS para a ferramenta diagnóstica do pórtico da estrutura UCCE com certificado assinado do Certificate Authority (CA)

Backup do chassi MDS9000, restauração, e exemplo de configuração da substituição

Exemplo de configuração da integração dos server UCSM da série C

MANUAL CONFIGURAÇÃO OLT EPON PHYHOME FHL104C

Backup e procedimento de restauração para vários componentes de Ultra-M - CP

Procedimento para reconstruir o Active ou a base de dados em standby na central principal devido fora da sincronização

Pesquisando defeitos a Conectividade CMX com WLC

Configurar o servidor de backup para o gerente das comunicações unificadas de Cisco

Conectividade do aplicativo de voz UC em um ambiente de VMware UCS

Exemplo de configuração da característica de Wireshark dos Catalyst 4500 Series Switch

Lista de verificação de Troubleshooting remota e no local do slot vazio ONS15800 SCF e IOC-W

A instalação e desinstalação do agente de usuário de Sourcefire

Configurar Certificados de server de aplicativo CA-assinados do abastecimento para aprontar o abastecimento da Colaboração

Configuração automática CUCM para gateways SCCP

Recuperação da falha do supervisor da espinha do nexo 9500

Pesquise defeitos edições com o Network Time Protocol (NTP) em sistemas de FirePOWER

Backup do Samba 4. Introdução. Backup do samba4

Procedimento da substituição de chassi do nexo 7000

As informações neste documento são baseadas nestas versões de software e hardware:

Índice. Introdução. Pré-requisitos. Requisitos. Componentes Utilizados

Verifique a Conectividade do servidor Radius com comando dos radius AAA do teste

Sistema operacional elástico de FirePOWER (FXO) 2.2: Authentication e autorização do chassi para o Gerenciamento remoto com ACS usando o TACACS+.

Índice. Introdução. Pré-requisitos. Requisitos. Componentes Utilizados

Este documento descreve como setup um armazenamento das mídias de externa com índice Server(TCS) do TelePresence.

Migração da licença da versão 10.x CUCM no exemplo de configuração PLM

Base de dados externo de Cisco Unified Presence Server PostgreSQL e exemplo de configuração da conformidade

O agente TMS pesquisa defeitos procedimentos

Este documento descreve o procedimento para configurar a conformidade em Cisco Unified Presence Server (COPOS) com o uso de PostgreSQL para Windows.

Migração do conjunto usando o desenvolvimento da Colaboração da prima de Cisco

Substituição do cartão-matriz no server de Ultra- M UCS 240M4 - CPAR

Nova imagem um dispositivo 1500/2000 de Sourcefire SSL à versão 3.6 ou mais recente

MANUAL DE INSTALAÇÃO

Nota Técnica em como executar LSI StorCli do shell EFI usando o KVM

Configuração ldap de Cisco C880 usando o microsoft ative directory

Recuperação de uma senha de conta SQLSvc

Instale CP todos em um no jogador virtual 12 de VMware

Índice. Introdução. Pré-requisitos. Requisitos. Componentes Utilizados

Pesquise defeitos a UCP/Memória de StarOs/a monitoração uso dos arquivos

Obtenha e execute o software da recuperação no CUCM VM

Dividindo dois Switches MDS após a conexão com um link ISL ou EISL

Uso de scripts EEM monitorar a utilização elevada da CPU em Series Switch do Cisco catalyst

Configurar o controlador CEM em CentOS 6.9

Cisco IOS Router: Local, TACACS+ e autenticação RADIUS do exemplo de configuração da conexão de HTTP

Índice. Introdução. Pré-requisitos

Substituição do cartão-matriz no server de Ultra- M UCS 240M4 - CP

Captura de pacote de informação no servidor de mídia da fiscalização da vídeo Cisco

Procedimentos de migração do server TMS

Procedimento para resolver a replicação de base de dados ou a questão de sincronização na rede principal

Restabelecendo uma Assinatura SQL quebrada do Cluster do CallManager com CallManager da Cisco

Questões de conectividade de rede satisfeitas da ferramenta de segurança

Configurar a resiliência do XMPP

Server virtual do Cisco TelePresence da elevação (TS) (1.13)

Transcrição:

Pesquise defeitos a recuperação Openstack da gerente de cluster VM PCRF Índice Introdução Troubleshooting Potência na gerente de cluster do estado do DESLIGAMENTO Recupere todo o exemplo do estado de erro Reconstrua a gerente de cluster CP com o instantâneo Desmova a gerente de cluster CP com o instantâneo Verificar Introdução Este original descreve as etapas para recuperar a política virtual de Cisco e exemplos de carregamento da função das regras (vpcrf) distribuído no desenvolvimento Ultra-M/Openstack. Troubleshooting Potência na gerente de cluster do estado do DESLIGAMENTO Se qualquer exemplo está no estado do DESLIGAMENTO devido a uma parada programada de planeamento ou a alguma outra razão, use por favor este procedimento para começar o exemplo e permiti-lo está monitorando no controlador dos serviços do elástico (ESC). Etapa 1. Verifique o estado de exemplo através de OpenStack. nova list --fields name,host,status grep cm_0 c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 destackovs-compute-2 SHUTOFF Etapa 2. Verifique se o cálculo está disponível e assegure-se de que o estado esteja acima. source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 egrep status state state up status enabled Etapa 3. Entre ao mestre ESC como o usuário admin e verifique o estado de exemplo no opdata. /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata grep cm_0

SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 VM_ERROR_STATE Etapa 4. Potência no exemplo do openstack. nova start SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 Etapa 5. Espere cinco minutos pelo exemplo para carreg acima e vir ao estado ativo. nova list fields name,status grep cm_0 c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 ACTIVE Etapa 6. Permita o monitor VM no ESC depois que o exemplo está no estado ativo. /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 Para uma recuperação mais adicional de configurações do exemplo, consulte o tipo procedimentos específicos do exemplo fornecidos aqui. Recupere todo o exemplo do estado de erro Este procedimento pode ser usado se o estado de CP cita como exemplo no openstack é ERRO: Etapa 1. Verifique o estado de exemplo em OpenStack. nova list --fields name,host,status grep cm_0 c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 destackovs-compute-2 ERROR Etapa 2. Verifique se o cálculo está disponível e é executado muito bem. source /home/stack/destackovsrc nova hypervisor-show destackovs-compute-2 egrep status state state up status enabled Etapa 3. Entre ao mestre ESC como o usuário admin e verifique o estado de exemplo no opdata. /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli get esc_datamodel/opdata grep cm_0 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 VM_ERROR_STATE Etapa 4. Restaure o estado de exemplo para forçar o exemplo de volta a um estado ativo em vez de um estado de erro, uma vez que feito, recarregue seu exemplo. nova reset-state active SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 nova reboot -hard SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 Etapa 5. Espere cinco minutos pelo exemplo para carreg acima e vir ao estado ativo.

nova list fields name,status grep cm_0 c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 ACTIVE Etapa 6. Se, a gerente de cluster muda o estado ao ACTIVE após a repartição, permita o monitor VM no ESC depois que o exemplo da gerente de cluster está no estado ativo. /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR SVS1-tmo_cm_0_e3ac7841-7f21-45c8-9f86-3524541d6634 Afixe a recuperação a ser executado/estado ativo, consulte o tipo procedimento específico do exemplo para recuperar a configuração/dados do backup. Reconstrua a gerente de cluster CP com o instantâneo Se a série da política de Cisco (CP) é colada no estado de erro e incapaz de pôr sobre com os procedimentos já descritos e o exemplo está disponível no openstack. Sugere-se que você reconstrua o exemplo com a imagem do instantâneo. Etapa 1. Assegure-se de que o instantâneo do último saiba que a boa configuração esta presente como um arquivo QCOW, usa este arquivo previamente gerado durante o backup, scp/sftp ele de volta ao cálculo do diretor da plataforma de OpenStack (OSPD). Use este procedimento para convertê-lo em uma imagem do relance: glance image-create --name CPS_Cluman_13.1.1 --disk-format "qcow2" --container "bare" --file /var/pcrf/cluman_snapshot.raw Alternatively, glance image-create --name rebuild_cluman --file /home/stack/cluman_snapshot.raw --disk-format qcow2 --container-format bare Etapa 2. Use um comando da reconstrução da nova em OSPD reconstruir como mostrado o exemplo de Cluman VM com o instantâneo transferido arquivos pela rede. nova rebuild <instance_name> <snapshot_image_name> Etapa 3. Espere cinco minutos pelo exemplo para carreg acima e vir ao estado ativo. nova list fields name,status grep cm c5e4ebd4-803d-45c1-bd96-fd6e459b7ed6 cm_0_170d9c14-0221-4609-87e3-d752e636f57f ACTIVE Etapa 4. Se, a gerente de cluster muda o estado ao ACTIVE após a reconstrução, verifique o estado de exemplo no ESC e permita o monitor VM no ESC se for necessário. echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine tab" /opt/cisco/esc/confd/bin/confd_cli -u admin C grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR cm_0_170d9c14-0221-4609-87e3-d752e636f57f Etapa 5. Verifique que o volume da cinza associado com a imagem ISO original da gerente de cluster está atualizado com as horas atual após desmover:

cinder list grep tmobile-pcrf-13.1.1-1.iso 2f6d7deb-60d6-40fa-926f-a88536cf98a3 in-use tmobile-pcrf-13.1.1-1.iso 3 - true a3f3bc62-0195-483a-bbc0-692bccd37307 cinder show 2f6d7deb-60d6-40fa-926f-a88536cf98a3 grep updated_at updated_at 2018-06-18T08:54:59.000000 updated_at 2018-06-18T08:54:59.000000 Etapa 6. Anexe os discos alternativos ou o algum outro volume da cinza anexados previamente ao automóvel do exemplo da gerente de cluster se não anexado em etapas precedentes. cinder list +--------------------------------------+-----------+---------------------------+------+--------- ----+----------+--------------------------------------+ ID Status Name Size Volume Type Bootable Attached to +--------------------------------------+-----------+---------------------------+------+--------- ----+----------+--------------------------------------+ 0e7ec662-b59e-4e3a-91a9-35c4ed3f51d7 available pcrf-atp1-mongo02 3 - false 2f6d7deb-60d6-40fa-926f-a88536cf98a3 in-use tmobile-pcrf-13.1.1-1.iso 3 - true a3f3bc62-0195-483a-bbc0-692bccd37307 4c553948-df75-4f0b-bf7b-0e64127dfda3 available pcrf-atp1-svn01 3 - false 594c052e-aaa3-4c82-867d-3b36162244b3 available tmobile-pcrf-13.1.1-2.iso 3 - true 64953713-de86-40d5-a0e5-07db22d692f2 in-use tmobile-pcrf-13.1.1.iso 3 - true 80a93e90-59e2-43bd-b67e-5d766d0a2f11 openstack server add volume <volume-id> <Server-ID> --device <location of dev in Instance example /dev/vdc> Etapa 7. Se o instantâneo do cluman é velho e o backup config_br.py está disponível de um instantâneo do cargo da data esteve tomado. Importe a configuração do backup e se não salte então esta etapa. ssh <cluman-ip> config_br.py a import --svn --etc --grafanadb --auth-htpasswd --haproxy /mnt/backup/<filename.tgz> Etapa 8. Reconstrua todas as imagens VM do backup com config_br.py na gerente de cluster: /var/qps/install/current/scripts/build/build_all.sh Desmova a gerente de cluster CP com o instantâneo Se a gerente de cluster VM CP é perdida (incapaz de recuperar) e o processo da reconstrução (como descrito lhe em 2.3) igualmente falhou, você precisa de demover o exemplo com o ESC. Este procedimento descreve o processo para o mesmos: Etapa 1. Assegure-se de que o instantâneo do último saiba que a boa configuração esta presente

como um arquivo QCOW, usa este arquivo previamente gerado durante o backup, scp/sftp ele de volta ao cálculo OSPD. ls ltr /var/pcrf/cluman_snapshot.qcow -rw-r--r--. 1 root root 328514100 May 18 16:59 cluman_snapshot.qcow Etapa 2. Use este procedimento para convertê-lo em uma imagem do relance. glance image-create --name CPS_Cluman_13.1.1 --disk-format "qcow2" --container "bare" --file /var/pcrf/cluman_snapshot.qcow Etapa 3. Uma vez que a imagem é início de uma sessão disponível ao ESC e verifique o estado de exemplo da gerente de cluster em ESC opdata. echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine tab" /opt/cisco/esc/confd/bin/confd_cli -u admin C grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE Etapa 4. Assegure-se de que o arquivo de /home/admin/pcrf_config.xml este presente como suportado em 2.1.1 Etapa 5. Obtenha o nome do desenvolvimento, do inquilino e do vm_group para que a gerente de cluster seja recuperada. Snippet da amostra: <esc_datamodel xmlns="http://www.cisco.com/esc/esc"> <tenants> <tenant> <name>pcrf</name> ---------------- Name of the tenant <managed_resource>false</managed_resource> <deployments> <deployment> <name>dep1</name> ---------------- Name of the Deployment ----- ----- ----- <vm_group> <name>cm</name> --------------- Name of the vm_group <image>pcrf-13.1.1.qcow2</image> ------------- Name of the Image used <flavor>pcrf-cm</flavor> <bootup_time>600</bootup_time> <recovery_wait_time>30</recovery_wait_time> Etapa 6. Provoque uma supressão da gerente de cluster vm do ESC: aviso: O comando remover o exemplo do opdata deve estar completo, comando incompleto pode suprimir do desenvolvimento inteiro. Seja por favor cauteloso. O comando deve sempre conter todo o nome do inquilino do parâmetro isto é, nome do desenvolvimento e nome do vm_group.

/opt/cisco/esc/confd/bin/confd_cli -u admin C esc-ha-01# config esc-ha-01(config)# no esc_datamodel tenants tenant Pcrf deployments deployment DEP1 vm_group cm esc-ha-01(config)# commit esc-ha-01(config)# exit Acima da etapa deve remover o exemplo do openstack assim como do ESC opdata. Ou seja a gerente de cluster não é agora parte de um desenvolvimento. Etapa 7. Verifique que o exemplo da gerente de cluster está removido do desenvolvimento de yangesc.log, de escmanager.log no ESC e da lista da nova no nó OSPD. Etapa 8. Altere o arquivo PCRF_config.xml suportado em etapa 2.1.1 e altere o nome da imagem da gerente de cluster à imagem recém-criado do instantâneo dentro acima das etapas: Antes da mudança Após a mudança <vm_group> <vm_group> <name>cm</name> <name>cm</name> <image>pcrf-13.1.1.qcow2</image> <image>cps_cluman_13.1.1</image> Etapa 9. Altere o PCRF_config.xml e remova o arquivo de dados da nuvem para o grupo vm da gerente de cluster. Prove o snippet do xml que deve ser removida é mostrado aqui: <config_data> <configuration> <dst>--user-data</dst> <file>file:///opt/cisco/esc/cisco-cps/config/pcrf-cm_cloud.cfg</file> <name>cluster_id</name> <val>p1</val> <name>cm_ip_addr_pvt</name> <val>192.168.1.107</val> <name>prefix</name> <val>vpc</val> <name>seq</name> <val>01</val> <name>site_id</name> <val>de</val> </configuration> </config_data> Etapa 10. Copie o arquivo PCRF_config.xml ao dobrador de /opt/cisco/esc/cisco-cps/config/ onde todos arquivos de configuração restantes estam presente. Etapa 11. Carregue a fusão o arquivo de configuração novo a ESC opdata.

/opt/cisco/esc/confd/bin/confd_cli -u admin C esc-ha-01# config esc-ha-01(config)# load merge /opt/cisco/esc/cisco-cps/config/pcrf_config.xml esc-ha-01(config)# commit esc-ha-01(config)# exit Etapa 12. Monitore yangesc.log, escmanager.log no ESC e a lista da nova em OSPD para verificar o desenvolvimento da gerente de cluster. nova list --fields name,status grep cm 96a5647e-9970-4e61-ab5c-5e7285543a09 cm_0_a11a9068-df37-4974-9bd8-566f825d5e39 ACTIVE Etapa 13. Se, a gerente de cluster muda o estado ao ACTIVE após a reconstrução, verifique o estado de exemplo no ESC e permita o monitor VM no ESC se for necessário. echo "show esc_datamodel opdata tenants tenant Pcrf deployments * state_machine tab" /opt/cisco/esc/confd/bin/confd_cli -u admin C grep cm cm_0_170d9c14-0221-4609-87e3-d752e636f57f VM_ERROR_STATE /opt/cisco/esc/esc-confd/esc-cli/esc_nc_cli vm-action ENABLE_MONITOR cm_0_170d9c14-0221-4609-87e3-d752e636f57f Etapa 14. Anexe os discos alternativos ou o algum outro volume da cinza anexados previamente ao exemplo e não ao automóvel da gerente de cluster anexados pelo esc na etapa precedente. cinder list +--------------------------------------+--------+------------------------+------+------------+-- -------+----------------------------------------+ ID Status Name Size Volume Type Bootable Attached to +--------------------------------------+--------+------------------------+------+------------+-- -------+----------------------------------------+ 4c478cce-c746-455a-93f1-3f360acb87ce in-use CPS_14.0.0.release.iso 3 - true 96a5647e-9970-4e61-ab5c-5e7285543a09 7e5573d9-29bc-4ea0-b046-c666bb1f7e06 in-use PCRF_backup 1024 - false d5ab1991-3e09-41f2-89f5-dd1cf8a9e172 in-use svn01 2 - false 09f4bafa-dfb6-457f-9af5-69196eb31b13 d74988a7-1f59-4241-9777-fc4f2d4f3e78 in-use svn02 2 - false 86ea448d-09bc-4d2f-81a3-de05884f1e05 +--------------------------------------+--------+------------------------+------+------------+-- -------+----------------------------------------+ openstack server add volume <volume-id> <Server-ID> --device <location of dev in Instance example /dev/vdc> Etapa 15. Se o instantâneo do cluman é velho e o backup config_br.py está disponível de um instantâneo do cargo da data esteve tomado. Importe a configuração do backup, se não salte então esta etapa. ssh <cluman-ip> config_br.py a import --svn --etc --grafanadb --users --auth-htpasswd --haproxy /mnt/backup/<file-name.tgz> Etapa 16. Reconstrua todas as imagens VM do backup com config_br.py na gerente de cluster:

/var/qps/install/current/scripts/build/build_all.sh Verificar Sibile o IP da gerente de cluster para assegurar-se de que a Conectividade esteja acima. SSH a gerente de cluster para verificar a acessibilidade. Verifique que os diagnósticos da gerente de cluster para assegurar o estado de saúde de outros VM dos CP não são afetados.