3 Controle de Admissão no ambiente DiffServ

Documentos relacionados
Qualidade de Serviço. Carlos Gustavo A. da Rocha. Tecnologia para Integração de Serviços

Qualidade de Serviço para Aplicações de Videoconferência sobre Redes IP. São Paulo, 11 de Maio de 2003

Qualidade de Serviço na Internet

Os princípios da B-ISDN podem ser resumidos nos seguintes itens:

Qualidade de Serviços em Redes IP. Edgard Jamhour

SSC0641 Redes de Computadores

QFlow: Um Sistema com Garantia de Isolamento e Oferta de Qualidade de Serviço para Redes Virtualizadas

Serviços Integrados na Internet

Exercícios QoS. [seg.]

Qualidade de Serviço com Mikrotik

O Multi Protocol Label Switching é um mecanismo de transporte de dados pertencente à família das redes de comutação de pacotes. O MPLS é padronizado

Comunicação. Multicast e Provisão de QoS Multimídia. Multicast e QoS. Multicast. Serviço Multicast. Comunicação Multicast.

Weighted Fair Queuing. Comparação dos métodos de filas

Protocolo MPLS: Multiprotocol Label Switching

! " # " & # dados comuns. tipos de tráfego. dados críticos. QoS. Integração de dados, áudio e vídeo em uma infraestrutura. redes tradicionais

EXERCÍCIOS PROPOSTOS Desempenho de redes

Protocolos Multimídia na Internet

Redes de Comunicação de Dados

2 Qualidade de serviço

Graduação Tecnológica em Redes de Computadores. Tecnologias de Interligação de Redes

GA-027 Redes de Computadores

Redes de Computadores. Prof. André Y. Kusumoto

AULA 2 - INTERNET. Prof. Pedro Braconnot Velloso

Redes de Computadores. Prof. MSc André Y. Kusumoto

5 Classificadores e Condicionadores de Tráfego

O que é ATM? Introdução ao ATM. Essência da Tecnologia. Essência da Tecnologia. Histórico. Quais as Necessidades Atuais?

Serviços Diferenciados no NS2. Tutoriais NS2 on-line, Xuan Chen, 2002 (Adaptado)

Comunicação Multicast. Garantia de QoS. QoS em Redes IP.

Redes de Computadores

Eduardo Barasal Morales Tiago Jun Nakamura Maputo, Moçambique 18/07/17-21/07/17

Qualidade de Serviço (QoS) Qualidade de Experiência (QoE) Dr. Daniel G. Costa

Redes de Computadores MPLS. Multiprotocol Label Switching. Gustavo Henrique Martin G. Miassi

Redes de Computadores

Redes de Computadores I Internet - Conceitos

5 Impactos Econômicos do Sistema Proposto

TELEFONIA IP. Fernando Rodrigues Santos

Qualidade de Serviço em Redes Sem Fio em Malha. Livia Ferreira Gerk Universidade Federal Fluminense Fundamentos de Sistemas Multimídia

MPLS Engenharia de Tráfego. Luis M. Yasuda Andre Omar Chiaverini

MPLS MultiProtocol Label Switching

Telefonia Fixa e VOIP NGN. Prof. Marco Cazarotto

e Protocolos de Streaming Aplicações Multimídia Multimídia Aplicações jitter Variação de retardo Efeito do jitter

Gerenciamento Baseado em Políticas

MPLS- Multiprotocol Label Switching

Protocolos Multimídia na Internet

Apresentação QoS ATM Arquitetura Elementos Funcionais Conclusão

AULA 4 - REDES. Prof. Pedro Braconnot Velloso

Roteamento Multicaminhos em Redes Definidas por Software. Pedro H. A. Rezende Luis F. Faina Lásaro Camargos Rafael Pasquini

Capítulo 4 A camada de REDE

2 Mecanismos de Controle de Admissão

Redes Metro Ethernet. Carlos Gustavo A. da Rocha. Tecnologia para Integração de Serviços

Protocolos de Roteamento Multicast. Fundamentos de Sistemas Multimídia

Gerenciamento Baseado em Políticas

Capítulo 4 A camada de REDE

Curso de extensão em Administração de sistemas GNU/Linux: redes e serviços

REDES DE COMPUTADORES E TELECOMUNICAÇÕES MÓDULO 11

Serviços de Comunicações. Serviços de Comunicações. Módulo 7 Qualidade de Serviço em redes IP. condições de rede existentes em cada momento

Considerações Iniciais

Desempenho de Redes de Computadores. Ricardo Couto A. da Rocha 2015

Revisão Desempenho e requisitos de aplicações Arquitetura hierárquica, multinível Organização em camadas Propriedades e características Encapsulamento

Configurar Qualidade de Serviço no Roteadores RV160 e RV260

Soluções em redes IP:

PROFESSOR: Bruno pontes ALUNAS: BRUNA SERRA BIANCA SOUZA Índice

Parte I: Introdução. O que é a Internet. Nosso objetivo: Visão Geral:

Capítulo 4: Camada de rede

Topologias e Classificação das RC. Prof. Eduardo

Tecnologias de Rede de Acesso e CORE

Protocolo ATM. Prof. Marcos Argachoy

Redes de Computadores

3 Serviços Diferenciados 2

Frame Relay. (C)Tião - Direitos Reservados

Redes ATM. Instituto Superior Técnico

AULA 3 - REDES. Prof. Pedro Braconnot Velloso

Negociador de QoS utilizando RMI para um domínio DiffServ

Nesse módulo, veremos como a qualidade de serviço (QoS) pode ser implementada em redes IP.

Capítulo 8: OSPF de Área Única

Família de protocolos H.323

FIGURA 59 Interação entre componentes da plataforma CrystalWalk. Fonte: do autor.

Gerenciamento x Gestão de Provedores com Alta Disponibilidade

1 Redes de comunicação de dados

Política de priorização de tráfego na rede Ipê

Zone Routing Protocol - ZRP[1]

4 Comparação de algoritmos

Modelo de Camadas. Redes de Computadores

Capítulo 4 Camada de Rede

Graduação Tecnológica em Redes de Computadores. Tecnologias de Interligação de Redes

Funcionalidades da camada de rede

Licença de uso do material

Arquiteturas de Redes de Computadores

Redes de Computadores

2 A Avaliação de RMU 20/12/2012. Nome:

Arquitetura em Camadas. Profª. Dianne Scherly Varela de Medeiros

Prof. Samuel Henrique Bucke Brito

Open Shortest Path First (OSPF)

Prof. Antonio P. Nascimento Filho. Tecnologias de rede. Ethernet e IEEE Token ring ATM FDDI Frame relay. Uni Sant Anna Teleprocessamento e Redes

Transporte Multimídia em Redes. Transporte Multimídia em Redes. Transmissão multimídia em tempo real. Categorias dos protocolos

FUNDAMENTOS DE REDES DE COMPUTADORES Unidade 5 Camada de Transporte e Aplicação. Luiz Leão

Prof. Samuel Henrique Bucke Brito

Computadores Digitais II

Transcrição:

3 Controle de Admissão no ambiente DiffServ 3.1 Arquitetura DiffServ O primeiro projeto para implementação de Qualidade de Serviço na Internet foi a arquitetura IntServ, baseada no princípio do controle individual de fluxos para a obtenção de garantias rígidas dos níveis de serviço. As garantias rígidas eram obtidas ao custo de grande volume de sinalização circulando entre os nós, o que gerava sérios problemas de escalabilidade em redes de grande porte. A arquitetura denominada DiffServ foi, então, proposta pelo IETF como alternativa capaz de contornar o obstáculo da complexidade da administração de fluxos com diferentes níveis de serviço em redes de grande porte com QoS. O tratamento de fluxos individualmente oferece garantias severas quanto à qualidade do serviço. No entanto, é uma tarefa que cresce exponencialmente em complexidade, resultando na necessidade de utilização de roteadores de custo elevado e em grande volume de tráfego de sinalização circulando na rede. No DiffServ, a provisão de QoS é feita a agregados de fluxos, e não a fluxos individuais. Dessa maneira, cada agregado de fluxos compõe uma classe de serviço, e cada classe tem uma política de encaminhamento adequada em cada nó da rede. Assim, o tempo de processamento de pacotes nos nós da rede é bastante reduzido, e o processo de gerenciamento dos recursos, bem menos complexo, pois não requer sinalização explícita nem manutenção de informação de estado por fluxo de tráfego no interior da rede. A agregação de fluxos em classes simplifica sensivelmente o funcionamento dos roteadores de núcleo (justamente os que recebem maior carga de tráfego), pois estes mantêm apenas as tarefas de classificação e encaminhamento de pacotes segundo o rótulo da classe respectiva, enquanto os

Técnicas de Controle de Admissão em ambiente DiffServ 32 Figure 3.1: Topologia DiffServ roteadores de borda realizam, além destas, as tarefas de marcação e policiamento. Essa divisão de tarefas, ilustrada na Figura 3.1, se justifica pelo fato de os roteadores de núcleo intermediarem um volume de tráfego maior do que os roteadores de borda. Reduzindo-se as tarefas do roteador de núcleo, o tempo de processamento de cada pacote será menor, viabilizando assim o controle de QoS para grandes volumes de tráfego. O conceito de rotulação de pacotes visando melhorar o desempenho nos roteadores de núcleo da rede é um recurso bastante eficiente, implementado em protocolos de comutação por rótulos, como o MPLS [31]. Para que um cliente receba de um provedor de serviços diferenciados um determinado nível de QoS, é necessário um acordo de nível de serviço, ou service level agreement (SLA). Nesse acordo ficam definidas as regras de encaminhamento, policiamento, marcação, etc. que o tráfego oriundo desse cliente sofrerá dentro do domínio DiffServ do provedor (Figura 3.2). Para que o acordo de nível de serviço seja mantido, são necessários diversos procedimentos na periferia da rede, como gestão de filas, controle de admissão, etc. objetivando a diferenciação no tratamento de fluxos com diferentes níveis de QoS. O IETF [10] define um domínio DiffServ como um conjunto de nós adjacentes que adotem o modelo Diffserv, e com as mesmas políticas de encaminhamento (PHB). Domínios DiffServ adjacentes podem possuir PHB s diferentes, tornando necessária a negociação do nível de serviço domínio a domínio. Se houver nós ou domínios intermediários que não adotem o modelo DiffServ, os pacotes são encaminhados sem qualquer diferenciação. A definição do IETF diz que a integração entre domínios DS e não-ds deve ser possível, com o intuito de prover a maior escalabilidade possível à arquitetura DiffServ.

Técnicas de Controle de Admissão em ambiente DiffServ 33 Figure 3.2: Região DiffServ 3.2 Evolução das técnicas de Controle de Admissão Em redes de baixa velocidade é possível a utilização de mecanismos de controle de congestionamento reativos, pois as baixas taxas de transferência das fontes permitem que os processos de sinalização atuem após a detecção do congestionamento sem grandes prejuízos às conexões. Em redes de alta velocidade, no entanto, o intervalo entre a detecção de congestionamento e a reação a este é suficientemente grande para comprometer o nível de QoS do sistema. Consequentemente, em redes com tecnologia de alta velocidade, são utilizados mecanismos de controle de congestionamentos preventivos, como as disciplinas de Controle de Admissão. A primeira implantação de QoS em redes públicas foi realizada através da tecnologia ATM, escolhida para sustentar a diversidade de serviços definidas para a B-ISDN. O ITU-T, o ATM Forum e o IETF publicaram diversas recomendações definindo parâmetros, especificações e requisitos para o ATM, visando padronizar sua estrutura para o suporte a serviços de banda larga. Entre esses requisitos, identificados na recomendação I.211 do ITU-T, está a Qualidade de Serviço. Para a provisão de QoS, o ATM Forum definiu três atributos básicos: Categorias de serviço Descritores de tráfego Parâmetros de QoS Definidos os três atributos, o ITU-T, através da recomendação I.311, especifica os aspectos e procedimentos de sinalização de uma rede ATM (sob

Técnicas de Controle de Admissão em ambiente DiffServ 34 responsabilidade do plano de controle), entre os quais está a negociação dos parâmetros de QoS da conexão. O ATM é orientado a conexão, logo, a alocação de recursos aos usuários é feita dinamicamente por conexão. A QoS é um conjunto de parâmetros negociado na fase do estabelecimento da conexão. No momento do estabelecimento da conexão, o usuário passa por um processo de Controle de Admissão, e deve especificar o serviço requerido através dos três atributos (classe de serviço, descritores da conexão e parâmetros de QoS). Se a rede constatar a possibilidade de satisfazer a esses requisitos, estabelecerá um contrato de tráfego [44] com o usuário e este será aceito. Como visto no Capítulo 2, há inúmeros algoritmos que podem ser utilizados para a tomada de decisão. Os algoritmos descritos em 2.2.1 e 2.2.2 são exemplos de Controle de Admissão que se enquadram no modelo apresentado. O ATM oferece várias características interessantes para redes multiserviços, mas não é uma tecnologia utilizada fim a fim, e como recentemente surgiram tecnologias para competir com ATM em velocidade, tanto em LANs (Gigabit Ethernet) como em WANs (IP sobre SONET ou WDM) há um questionamento muito grande dos reais benefícios em se implantar essa tecnologia. No entanto, o conceito de Controle de Admissão introduzido pelo ATM, baseado nos três atributos, foi adotado em outros ambientes. Com o surgimento das iniciativas de implantação de QoS na Internet, a arquitetura IntServ foi proposta inicialmente, oferecendo duas classes de serviço: Serviço Garantido e de Carga Controlada. A categoria de serviço garantido, fornece aos seus usuários, através de parâmetros quantitativos, garantias de atraso fim-a-fim e, qualitativamente, proteção contra perda de pacotes. Essas garantias são obtidas através de reserva de recursos, realizada pelo protocolo RSVP 1. No modelo RSVP, inicialmente o nó de origem gera uma mensagem endereçada ao destinatário, conhecida como mensagem PATH. Essa mensagem carrega informações que incluem a especificação do tráfego e do serviço e os endereços do transmissor e do receptor. A mensagem PATH vai em direção ao receptor, fazendo a mesma rota que o fluxo de dados faria. Esta rota fica registrada em cada elemento da rede através do chamado PATH state. Quando a mensagem PATH chega ao receptor, é gerada uma mensagem de resposta designada por RESV. A mensagem RESV retorna à fonte através do mesmo caminho traçado por PATH. Cada elemento da rede, através de seu Controle de Admissão, determina 1 A princípio, a reserva de recursos pode ser realizada por qualquer protocolo que seja compatível com o modelo IntServ, mas na prática o protocolo RSVP é o padrão de fato.

Técnicas de Controle de Admissão em ambiente DiffServ 35 se é capaz de fornecer os recursos requeridos pelo receptor. Se não houver recursos suficientes, a solicitação de reserva é rejeitada e uma mensagem com esta informação é enviada aos elementos da rota que cancelam a reserva e os registros da rota. Caso a reserva tenha êxito em todos os elementos a transferência de dados é iniciada e mensagens de atualização são trocadas periodicamente para manter a conexão. O tratamento individualizado dos fluxos, principal característica dessa arquitetura, e a necessidade de garantias rígidas de serviço, tornam o Controle de Admissão algo intrínseco ao modelo IntServ, presente, inclusive, na sua proposta inicial ([21]). Regular a entrada de fluxos no domínio é um ponto absolutamente necessário à provisão de QoS, e vários algoritmos têm sido propostos visando atingir uma melhor relação entre a utilização da rede (que deve ser a maior possível) e a garantia dos parâmetros de serviço. 3.3 Controle de Admissão em DiffServ Recentemente, várias estratégias têm sido discutidas visando prover Qualidade de Serviço no ambiente DiffServ, particularmente no que se refere a algoritmos de Controle de Admissão, já que este é um dos principais mecanismos componentes de um sistema de comunicações com Qualidade de Serviço. Considerando a ausência de mecanismos de Controle de Admissão na proposta DS, torna-se necessária a adoção de mecanismos externos à arquitetura para efetuar esse tipo de controle. O próprio RFC que define as bases da arquitetura DS ([10]) diz que mecanismos adicionais de alocação como o bandwidth broker ou o protocolo RSVP podem ser usados para alocar recursos dinamicamente para um BA. A princípio, a idéia de utilizar RSVP associado à arquitetura DiffServ parece contraditória, pois estas tecnologias representam abordagens opostas ao problema da alocação de usuários. No entanto, o objetivo é associar a escalabilidade do tratamento agregado de fluxos às garantias da sinalização RSVP, o que pode ser feito de várias maneiras. Há alguns anos, o IETF criou o ISSLL-WG (Integrated Services over Specific Link Layers Working Group [25]), que produziu alguns documentos com propostas para a integração IntServ/DiffServ. Um cenário possível de implementação de uma arquitetura IntServ sobre DiffServ consiste no uso de uma gerência de recursos dinâmica e distribuída

Técnicas de Controle de Admissão em ambiente DiffServ 36 no domínio DS. [36] traz uma proposta de utilização do protocolo RSVP para o Controle de Admissão de fluxos, sendo que, após a admissão, os fluxos são tratados de forma agregada, através do campo DSCP, com dimensionamento de recursos por agregado, e não individualmente. Nessa proposta, a sinalização RSVP fica restrita aos nós de borda e ao servidor de policiamento (que realiza a função de um Bandwidth Broker), que é a entidade que efetivamente toma a decisão de admissão. Uma outra solução ao problema da associação IntServ/DiffServ é apresentada em [50]. O autor propõe a integração entre roteadores IntServ e DiffServ em pontos-chave dos domínios, como ilustrado na Figura 3.3. Dessa forma, os núcleos dos domínios são formados apenas por roteadores DiffServ de núcleo, havendo, portanto, o tratamento de BA s e não de fluxos individualizados. Nas bordas dos domínios, são utilizados roteadores DiffServ de borda ou roteadores IntServ. Estes são utilizados apenas em pontos de acesso de usuários, ou na integração com domínios IntServ. Os nós DS de borda são utilizados na integração entre domínios DS. O processo de sinalização ocorre apenas entre o usuário e o roteador IntServ ou entre roteadores IntServ. Estes atribuem códigos DSCP aos fluxos que então são encaminhados pelos nós DiffServ. Ainda em [50] e também em [12], os autores apresentam a proposta do Estado Dinâmico do Pacote, ou DPS (Dynamic Packet State), que consiste numa maneira de armazenar os estados dos fluxos individuais sem aumento significativo na carga de processamento dos roteadores. Essas implementações podem ser consideradas soluções alternativas para a provisão de QoS sobre a arquitetura DS, pois são realizadas alterações em alguns pontos desta, resultando em arquiteturas híbridas, mesclando aspectos do IntServ e DiffServ. No entanto, há uma série de soluções sendo propostas atualmente que buscam contornar as deficiências da alocação por agregados sem perda de escalabilidade, mantendo-se dentro das disciplinas da arquitetura DS. O desafio em se implementar Controle de Admissão num domínio DiffServ está no chamado paradigma DiffServ, que deve ser respeitado, visando manter a característica de escalabilidade dessa arquitetura. Esse paradigma consiste no tratamento agregado de fluxos, sem sinalização explícita, evitandose o problema da crescente complexidade do tratamento individualizado de fluxos do ambiente IntServ, e com os nós de borda do domínio assumindo as principais funções de processamento, deixando aos nós de núcleo apenas tarefas de encaminhamento. O objetivo das implementações de Controle de Admissão na arquitetura DiffServ é prover um nível de Qualidade de Serviço similar ao das implementações da arquitetura IntServ, contornando os problemas de

Técnicas de Controle de Admissão em ambiente DiffServ 37 Figure 3.3: Integração IntServ/DiffServ escalabilidade destas. Seguindo essa linha de raciocínio, chegou-se aos mecanismos de Controle de Admissão Distribuídos. Nesses mecanismos, não há um controlador central responsável pelas decisões de admissão ou rejeição de fluxos. A tomada dessas decisões é distribuída entre os nós de borda do domínio em questão, seguindo a proposta da arquitetura DiffServ. Cada nó corresponde a um módulo de controle de admissão independente, responsável pela aquisição de dados e tomada de decisões, resultando, assim, num modelo dinâmico e escalável de controle do volume de tráfego ativo no domínio DiffServ. Há, entretanto, uma grande dificuldade a ser superada: cada roteador de borda toma as decisões de admissão dos fluxos solicitantes sem conhecimento do número de fluxos admitidos em outros nós (consequência do paradigma DiffServ: inexistência de informações de estado dos fluxos). Ou seja, as decisões de admissão estão sujeitas a erro devido ao desconhecimento das reais condições da rede. É preciso, portanto, uma disciplina eficiente para o gerenciamento de recursos da rede que permita, através de medidas de tráfego, diferenciação de

Técnicas de Controle de Admissão em ambiente DiffServ 38 prioridades e marcação de pacotes, a obtenção de estimativas do número de fluxos admitidos na rede suficientemente precisas para manter a margem de erro nas decisões dentro de parâmetros aceitáveis. O conceito dos algoritmos de controle de admissão distribuídos é semelhante ao dos mecanismos de controle de congestionamento atualmente utilizados [50]: ambos os mecanismos objetivam controlar o nível de congestionamento no domínio em questão, baseando-se em medidas realizadas continuamente, porém um (o controle de admissão distribuído) atua de forma preventiva e o outro, de forma reativa. Enquanto o controle de congestionamento (no caso do TCP [26], por exemplo) reduz a banda disponível para cada fluxo (reduzindo a janela de transmissão), o controle de admissão distribuído rejeita novos fluxos no domínio, uma vez detectada a iminência de violação de QoS.