UNIVERSIDADE FEDERAL FLUMINENSE CAMILA CURCIO GOMES GIOLIANO BARBOSA BERTONI BALANCEAMENTO DE CARGA EM SERVIDORES

Tamanho: px
Começar a partir da página:

Download "UNIVERSIDADE FEDERAL FLUMINENSE CAMILA CURCIO GOMES GIOLIANO BARBOSA BERTONI BALANCEAMENTO DE CARGA EM SERVIDORES"

Transcrição

1 UNIVERSIDADE FEDERAL FLUMINENSE CAMILA CURCIO GOMES GIOLIANO BARBOSA BERTONI BALANCEAMENTO DE CARGA EM SERVIDORES NITERÓI 2010

2 CAMILA CURCIO GOMES GIOLIANO BARBOSA BERTONI BALANCEAMENTO DE CARGA EM SERVIDORES Trabalho de Conclusão de Curso submetido ao Curso de Tecnologia em Sistemas de Computação da Universidade Federal Fluminense como requisito parcial para obtenção do título de Tecnólogo em Sistemas de Computação. Orientador: Leandro Soares de Sousa NITERÓI 2010

3 CAMILA CURCIO GOMES GIOLIANO BARBOSA BERTONI BALANCEAMENTO DE CARGA EM SERVIDORES: INTRODUÇÃO E CONCEITOS DO BALANCEAMENTO DE CARGA EM SERVIDORES Trabalho de Conclusão de Curso submetido ao Curso de Tecnologia em Sistemas de Computação da Universidade Federal Fluminense como requisito parcial para obtenção do título de Tecnólogo em Sistemas de Computação. Niterói, de de Banca Examinadora: Prof. Leandro Soares de Sousa, Msc. Orientador UFF - Universidade Federal Fluminense Prof. Cristiano Grijó Pitangui, Msc. Avaliador UFRJ Universidade Federal do Rio de Janeiro

4 Dedicamos este trabalho às nossas famílias, aos nossos amigos e aos tutores.

5 AGRADECIMENTOS À Deus, que nos iluminou e nos fez superar as dificuldades que encontramos no caminho. Aos nossos familiares, amigos, e colegas de curso pelo incentivo, pela troca de experiências, pelo apoio e pelo carinho que sempre tiveram conosco. Aos tutores, que sempre estiveram presentes em nossa caminhada, nos estimulando e repassando seus conhecimentos para que pudéssemos chegar até aqui. Ao nosso amigo Alan Teixeira de Figueiredo, que sempre nos apoiou, especialmente nas decisões referentes ao trabalho de conclusão.

6 A mente que se abre a uma nova idéia jamais volta ao seu tamanho original. '' Albert Einstein

7 RESUMO Esse trabalho tem como objetivo abordar conceitos sobre o balanceamento de carga, um tema relativamente novo, mas que possui uma grande importância atualmente, devido ao crescimento exponencial da utilização da Internet. Serão discutidas as características essenciais do balanceamento de carga, de uma forma simples e direta, bem como suas utilizações mais comuns. Palavras-chaves: balanceamento, Internet e redes de computadores.

8 LISTA DE ILUSTRAÇÕES Figura 1: Balanceamento de carga simplificado...17 Figura 2: Diagrama de balanceamento de carga global em servidores. [7]...25 Figura 3: Um cenário de clustering...27 Figura 4: Uma implementação típica de balanceamento de carga em servidores...29 Figura 5: O cabeçalho do pacote IP...30 Figura 6: Um dia na vida de um pacote...31 Figura 7: Um cenário de redundância ativa de espera...41 Figura 8: Um cenário de insuficiência de espera ativa...42 Figura 9: Um cenário ativo-ativo de recuperação de falhas...43 Figura 10: Demonstração de uma infraestrutura comum para Web hosting...48 Figura 11: Foto de um data center...49 Figura 12: Um cenário de linhas alugadas...50 Figura 13: Descrição da matriz que facilita a implementação do balanceamento de carga...61 Figura 14: Configuração One-armed...64 Figura 15: Configuração Two-armed...65 Figura 16: Design do four pack...67 Figura 17: Design do six Pack...68 Figura 18: Loop de transição no six pack...69 Figura 19: Six pack usando STP...70

9 LISTA DE TABELAS Tabela 1: Manipulação do tráfego SLB...32 Tabela 2 : Padrões e suas métricas...55

10 LISTA DE GRÁFICOS Gráfico 1: A barreira de desempenho...58

11 LISTA DE ABREVIATURAS E SIGLAS DoS - Denial of Service DDoS Distributed Denial of Service HTTP HyperText Transfer Protocol HTTPS - HyperText Transfer Protocol Secure FTP - File Transfer Protocol DNS Domain Name System IP Internet Protocol WWW World Wide Web POP3 Post Office Protocol versão 3 SMTP Simple Mail Transfer Protocol NAT - Network Address Translation TCP Transmission Control Protocol URL - Uniform Resource Locator FWLB - Firewall Load Balancing CPU - Central Processing Unit GSLB - Global Server Load Balancing LAN - Local Area Network WAN - Wide Area Network BGP Border Gateway Protocol SLB Server Load Balancing

12 MTU - Maximum Transmittable Units MAT Media Access Control MAT- MAC Address Translation VRRP- Virtual Router Redundancy Protocol STP - Spanning-Tree Protocol

13 SUMÁRIO RESUMO...7 LISTA DE ILUSTRAÇÕES...8 LISTA DE TABELAS... 9 LISTA DE GRÁFICOS...10 LISTA DE ABREVIATURAS E SIGLAS...11 SUMÁRIO INTRODUÇÃO DEFINIÇÃO DO BALANCEAMENTO DE CARGA ARQUITETURA DO BALANCEAMENTO DE CARGA EM SERVIDORES ABORDAGENS PARA O BALANCEAMENTO MÉTRICAS DE DESEMPENHO IMPLEMENTAÇÃO CONCLUSÕES E TRABALHOS FUTUROS CONCLUSÕES E TRABALHOS FUTUROS CONCLUSÕES E TRABALHOS FUTUROS CONCLUSÕES E TRABALHOS FUTUROS CONCLUSÕES E TRABALHOS FUTUROS CONCLUSÕES E TRABALHOS FUTUROS REFERÊNCIAS BIBLIOGRÁFICAS...77 REFERÊNCIAS BIBLIOGRÁFICAS...77 REFERÊNCIAS BIBLIOGRÁFICAS...77 REFERÊNCIAS BIBLIOGRÁFICAS...77 REFERÊNCIAS BIBLIOGRÁFICAS...77 REFERÊNCIAS BIBLIOGRÁFICAS...77

14 14 1 INTRODUÇÃO O objetivo do balanceamento é direcionar o tráfego imediatamente para os outros servidores disponíveis no ambiente, no caso de falhas em algum servidor na rede, fazendo com que praticamente se reduza a zero a indisponibilidade do serviço ao cliente. Apesar de ser um tópico um tanto não muito recente, este tem uma grande importância atualmente, pois com o crescimento acelerado na utilização da Internet são necessárias soluções para que as requisições de todos os clientes sejam quase sempre atendidas. O balanceamento de carga é utilizado, por exemplo, em serviços de comércio eletrônico e provedores de Internet. O texto foi subdividido da seguinte forma: No Capítulo 2, definimos o conceito de balanceamento de carga, explicando a distribuição de tráfego, como o balanceamento é feito nos servidores Web, tecnologias alternativas, o balanceamento de carga firewall, o GSLB e, também, informações sobre clustering. No Capítulo 3, descrevemos a arquitetura do balanceamento de carga em servidores, descrevendo de forma dinâmica o trajeto percorrido por um pacote e os desafios encontrados por ele no caminho até o seu destino. Além disso, falamos sobre servidor de retorno direto e outros métodos de balanceamento de carga em servidores. No Capítulo 4, citamos as abordagens para o balanceamento. Descrevemos o Modelo OSI e suas camadas resumidamente, os dispositivos balanceadores de carga em servidores, o provedor de infraestrutura, os data centers, que são os locais seguros que abrigam os equipamentos que disponibilizam, por exemplo, um site. No Capítulo 5, abordamos as métricas de desempenho, quais técnicas são usadas para monitorar o desempenho do balanceador,

15 15 como verificar o seu serviço, os perfis de tráfego, redundância stateful entre outros temas relacionados a essas métricas. No Capítulo 6, falamos resumidamente da implementação do balanceamento de carga e os detalhes de arquitetura que são relevantes para a implementação. Finalmente, no Capítulo 7, temos as conclusões e indicações para futuros trabalhos.

16 16 2 DEFINIÇÃO DO BALANCEAMENTO DE CARGA Balanceamento de servidores é uma solução muito utilizada para distribuição de carga entre vários servidores, o que permite alta disponibilidade ao sistema. Caso ocorra falha em algum servidor na rede, o tráfego é imediatamente direcionado para os outros servidores disponíveis no ambiente, fazendo com que o conteúdo permaneça sempre disponível para o cliente [1]. Outra grande vantagem de empregar o balanceamento de servidores é a segurança proporcionada por esta solução, uma vez que o equipamento balanceador localiza-se no front-end e é feito para esta função. O front-end é a parte do sistema de software que interage diretamente com o usuário, ou seja, recebe as requisições de trabalho (por exemplo, requisições por páginas web). Diante de um eventual ataque de DoS 1 ou DDoS 2, o balanceador contém o ataque por empregar processamento em hardware, o que confere maior velocidade e segurança. Desta forma, a integridade de servidores e serviços permanece preservada [1]. Quase todos os tipos de serviços podem ser balanceados. Por exemplo, o HTTP (Protocolo usado por servidores Web), HTTPS (Protocolo usado por servidores Web com criptografia, como os serviços que envolvem transações financeiras bancos, lojas virtuais, etc), FTP (Protocolo de Transferência de arquivos), DNS (Protocolo de resolução de nomes, ou seja, traduz nomes para endereços IP, como, por exemplo, (POP3 e SMTP, por exemplo. Protocolos usados para o envio e recepção de s). Na Figura 1, podemos ver um exemplo simplificado de um cenário de balanceamento de carga, no qual o tráfego vindo da 1 De acordo com a definição do CERT (Computer Emergency Response Team), os ataques DoS (Denial of Service), também denominados Ataques de Negação de Serviços, consistem em tentativas de impedir usuários legítimos de utilizarem um determinado serviço de um computador. Para isso, são usadas técnicas que podem: sobrecarregar uma rede a tal ponto em que os verdadeiros usuários dela não consigam usá-la; derru - bar uma conexão entre dois ou mais computadores; fazer tantas requisições a um site até que este não consiga mais ser acessado; negar acesso a um sistema ou a determinados usuários. [11] 2 O DDoS, sigla para Distributed Denial of Service, é um ataque DoS ampliado, ou seja, que utiliza até milhares de computadores para atacar uma determinada máquina. Esse é um dos tipos mais eficazes de ataques e já prejudicou sites bem conhecidos. [11]

17 17 Internet passa pelos balanceadores de carga que distribui os mesmos entre os servidores [1]. Figura 1: Balanceamento de carga simplificado. Um equipamento de balanceamento de servidores pode prover muitos benefícios para uma organização: Incrementar a eficiência dos servidores da rede; Praticamente reduzir a zero a indisponibilidade dos serviços ao cliente; Aumentar a segurança de servidores e de serviços; Simplificar a topologia da rede em certos cenários; Prover fácil escalabilidade dos serviços oferecidos aumentando o número de servidores empregados, com isso é possível aumentar o número de usuários do sistema de forma transparente.

18 18 O balanceador de carga normalmente ficará alinhado entre o cliente e os hosts que fornecem os serviços desejados pelos clientes, conforme pode ser observado na representação simplificada de um esquema de balanceamento apresentado na Figura 1. No balanceamento de carga, isto não é uma regra, mas uma boa prática em uma implementação típica. Considerando que o balanceador de carga já esteja configurado como servidor virtual, que aponta para um cluster formado por dois pontos de serviço. Nesse cenário de implementação, também é normal que os hosts tenham uma rota de retorno que aponte de volta para o balanceador, para que o tráfego de retorno seja processado por ele, no caminho de volta para o cliente [4]. A transação básica de balanceamento de carga funciona assim: 1. O cliente tenta conectar ao serviço no balanceador de carga. 2. O balanceador de carga aceita a conexão e, após decidir qual host deve receber a conexão, muda o IP de destino (e talvez a porta) para combinar com o serviço do host selecionado (o IP de origem do cliente não é alterado). 3. O host aceita a conexão e responde ao cliente original pela rota padrão, o balanceador de carga. 4. O balanceador de carga intercepta o pacote de retorno do host e muda o IP de origem (e provavelmente a porta) para combinar com o IP e a porta do servidor virtual, que encaminha o pacote de volta para o cliente. 5. O cliente recebe o pacote de retorno, pensando que ele vem do servidor virtual, e dá continuidade ao processo. Para o cliente, a comunicação parece ser direta ele manda pacotes para o servidor virtual e recebe respostas. O NAT atua na conexão. O balanceador de carga substitui o endereço IP de destino enviado pelo cliente (o do servidor virtual) com o IP de destino do host escolhido para balancear a carga do pedido. O IP de origem do pacote de retorno do host será o IP do host; se esse endereço não for alterado e o pacote for simplesmente encaminhado para o cliente, o cliente iria descartá-lo, pois estaria recebendo um pacote de alguém a quem não solicitou pacotes. Em vez disso, o balanceador de carga, lembrando-se da conexão, altera o pacote

19 19 para que o IP de origem seja aquele do servidor virtual, resolvendo esse problema [4]. 2.1 A DECISÃO DO BALANCEAMENTO DE CARGA Normalmente, é nesse ponto que surgem duas questões: como o balanceador de carga decide para qual host encaminhar a conexão, e o que acontece se o host selecionado não estiver funcionando? Bom, a resposta para a primeira pergunta é que a maioria dos balanceadores de carga acompanha o estado dos hosts, e dependendo do estado de disponibilidade host, ele decide se deve ou não estabelecer uma conexão com um host. A resposta mais simples para a segunda pergunta é que ele não responderá ao pedido do cliente e o tempo da conexão se esgotará, fazendo que ela falhe [4]. Sendo essa uma situação não ideal, pois não garante uma alta disponibilidade. É por isso que a maioria das tecnologias de balanceamento de carga possui algum tipo de "monitoramento de estado" que determina se um host está ou não disponível antes de tentar estabelecer conexões com ele. Há vários níveis de monitoramento de estado, cada um deles com granularidade e foco crescentes. Um monitor básico irá apenas executar um PING e aguardar a resposta do host. Caso o host não responda ao PING, considera-se que os serviços definidos no host provavelmente não estão ativos e devem ser removidos do cluster de serviços disponíveis [4]. 2.2 HARDWARE DE BALANCEAMENTO DE CARGA BASEADO EM REDE A segunda geração do balanceamento de carga de finalidade específica que se seguiu aos sistemas baseados em aplicativos surgiu na forma de dispositivos

20 20 baseados em redes [4, p.1]. Como esses dispositivos eram neutros em relação a aplicativos e residiam fora do serviço de aplicativos, eles podiam fornecer o balanceamento de carga usando técnicas diretas de rede. Esses dispositivos ofereciam um endereço de servidor virtual para mundo exterior e quando os usuários tentavam se conectar, ele encaminhava a conexão para ao servidor verdadeiro mais apropriado, fazendo uma tradução de endereços de rede (NAT) bidirecional. A distinção entre o servidor físico e os serviços de aplicativos sendo nele executados permite que o balanceador de carga interaja individualmente com os aplicativos, em vez de interagir com o hardware subjacente [4]. Um host pode ter mais de um serviço disponível (HTTP, FTP, DNS e assim por diante). Ao definir cada aplicativo individualmente (IP: número de porta específico de cada aplicação), o balanceador de carga pode aplicar um balanceamento de carga exclusivo e também o monitoramento de estado baseando-se no serviço e não no host. Entretanto, ainda existem momentos em que interagir com o host, como no monitoramento de estado em baixo nível ou ao desativar um servidor para manutenção, pode ser muito conveniente. A maioria das tecnologias de balanceamento de carga usa algum conceito para representar o host, ou servidor físico, e um segundo conceito para representar os serviços nele disponíveis [4, p.1]. O nó ou servidor é a idéia do servidor físico que recebe tráfego do balanceador de carga. Isso equivale ao endereço IP do servidor físico e, na falta de um balanceador, seria o endereço IP para o qual o nome do servidor seria atribuído. O segundo conceito é o membro. Normalmente um membro é mais bem definido do que um servidor ou nó, visto que inclui a porta TCP do aplicativo que recebe o tráfego. Por exemplo, um servidor chamado pode ser atribuído para o endereço , que representa o servidor/nó, e pode ter um aplicativo (um servidor Web) sendo executado na porta TCP 80, formando o endereço do membro :80. Um membro inclui a definição da porta do aplicativo, além do endereço IP do servidor físico.

21 DISTRIBUIÇÃO DE TRÁFEGO O balanceamento de carga permite que o tráfego de entrada seja distribuído entre vários destinos. É necessário, portanto, adotar o conceito da coleção de destinos de segundo plano. Os clusters, como são chamados, são coleções de serviços similares disponíveis em um número qualquer de hosts. Por exemplo, todos os serviços que oferecem a página Web da companhia seriam reunidos em um cluster chamado página Web da companhia e todos os serviços que oferecem comércio eletrônico seriam reunidos ou colecionados em um cluster chamado e-commerce. O ponto principal é que todo sistema tem um objetivo coletivo, que se refere a todos os serviços similares. Isso torna mais fácil trabalhar com eles como uma única entidade. Esse objetivo coletivo é quase sempre composto de serviços e não de hosts [4, p.2]. Reunir todos esses conceitos é a idéia principal do balanceamento de carga. O balanceador de carga oferece servidores virtuais para o mundo externo. Cada servidor virtual aponta para um cluster de serviços que reside em um ou mais hosts físicos [4]. 2.3 BALANCEAMENTO DE CARGA EM SERVIDORES WEB O constante crescimento da Internet vem causando diversos problemas de desempenho, incluindo baixos tempos de resposta, congestionamento da rede e interrupção de serviços. Existem diversas abordagens de como esses problemas podem ser solucionados. Uma abordagem ainda muito usada é a de espelhamento ou replicação de sites em diversos locais que podem ser acessados manualmente pelos usuários através de uma listagem com as URLs correspondentes [4]. Esse tipo de solução

22 22 trás muitas desvantagens. Duas delas são a não transparência do usuário e a ausência de controle na distribuição de requisições. Outra abordagem consiste em manter cópias (caches) de objetos Web acessados perto dos usuários. Isso pode ser controlado por servidores que colocam objetos Web populares em outros servidores cooperativos. Podem, também, ser disparados por requisições individuais de usuários que passam por um servidor Proxy. Outra técnica consiste em pré-carregar os objetos freqüentemente acessados de forma a mascarar a latência da rede. Uma abordagem complementar é fazer o servidor Web mais poderoso através do uso de uma arquitetura em cluster, na qual um conjunto de máquinas funciona como um único servidor. Para balancear a carga nos servidores, o sistema distribui as requisições para diferentes nós que componham o cluster de servidores, com o objetivo de aperfeiçoar o desempenho do sistema. Os resultados são alta disponibilidade, escalabilidade e administração facilitada da aplicação. Alta disponibilidade pode ser entendida como redundância de componentes. Se um servidor falhar ou não puder atender uma requisição, então outro servidor assumirá, da forma mais transparente possível, o processamento da requisição. Isso tende a eliminar os pontos de falha de uma aplicação [5]. Escalabilidade é a habilidade que uma aplicação tem de suportar um crescente número de usuários. É uma medida de vários fatores, incluindo o número de usuários simultâneos que um cluster pode suportar e o tempo que se leva para responder uma requisição [5]. A administração do sistema é facilitada no sentido de que o cluster aparece como um único sistema para os usuários, facilitando o acesso e a administração do sistema e dos recursos de rede [5]. As entidades que podem realizar o balanceamento de carga podem se dividir em quatro: baseada no cliente, baseada no DNS, baseada em um despachante e baseada no servidor. Existem duas abordagens de como colocar o mecanismo de seleção de servidores no lado do cliente satisfazendo o requisito de transparência: Através dos próprios clientes (browsers);

23 23 Por meio de servidores Proxy (que também é visto como um cliente). Em ambos os casos são necessários o conhecimento sobre a estrutura que está sendo balanceada. As arquiteturas distribuídas de servidores Web que utilizam mecanismos de roteamento no lado do cluster não sofrem as limitações das soluções baseadas no lado do cliente. Normalmente a transparência da arquitetura é obtida através de uma única interface virtual direcionada ao mundo externo, pelo menos ao nível da URL. Em uma primeira solução desenvolvida no lado do cluster, a responsabilidade de distribuir as requisições entre os servidores é atribuída ao DNS do cluster, ou melhor, ao servidor de DNS autoritário pelo domínio dos nós do cluster. Através de um processo de tradução entre os nomes simbólicos (URL) e endereços IP, o DNS do cluster pode selecionar qualquer nó que compõe o cluster [5]. 2.4 TECNOLOGIAS ALTERNATIVAS Existem alternativas, que evoluíram, para tratar uma alta demanda de acessos e de problemas administrativos em sites modernos. As ações do balanceamento de carga em servidores se concentram na interceptação e manipulação de pacotes de redes que são destinados aos servidores. Não sendo o balanceamento de carga em servidores a única alternativa, pois existem maneiras diferentes de abordar os mesmos aspectos, porém usando outras tecnologias BALANCEAMENTO DE CARGA FIREWALL Segundo Tony Bourke em [2], o balanceamento de carga firewall (FWLB) foi desenvolvido para superar algumas das limitações das tecnologias de firewall. A maioria dos firewalls é baseada na CPU. A velocidade do processador, tamanho do

24 24 pacote, configuração e diversas outras métricas são fatores determinantes para o que um firewall pode fazer. O firewall é um programa que executa no roteador de acesso (gateway) da rede de uma determinada organização e tem o objetivo de isolar a rede interna da rede pública (Internet). Em geral, o objetivo deste isolamento é proteger a rede interna da organização de ataques provindos da Internet. O firewall funciona como um filtro de pacotes, inspecionando cada pacote que deseja entrar ou sair da rede protegida. Utilizando um conjunto de regras definidas pela política de acesso da empresa, o firewall permite (ou não) que determinados pacotes sejam encaminhados de uma rede para a outra. As decisões de filtragem são normalmente baseadas em: Endereço IP de origem e endereço IP de destino; Porta TCP ou porta UDP de origem e destino; Tipo de mensagem ICMP; Pacotes de inicialização de conexão usando bits TCP SYN ou ACK; O balanceamento de carga firewall possibilita a implementação de diversos firewalls que dividem a carga, assim como no balanceamento de carga em servidores. A configuração e a tecnologia são diferentes devido à natureza do tráfego BALANCEAMENTO DE CARGA GLOBAL EM SERVIDORES (GLSB) O GSLB possui o mesmo conceito básico que o balanceamento de carga em servidores, segundo [2]. O diferencial é que o GSLB distribui a carga para vários locais em vez de um único local. O balanceamento de carga em servidores trabalha em redes locais, enquanto o GSLB trabalha em redes globais (WAN). Existem várias maneiras de implementar o GSLB, tais como o Baseado no DNS e o Baseado em BGP. Existem dois tipos importantes para implementar GSLB. Para ilustrá-los, será mostrado um exemplo de GSLB em ação.

25 25 Podemos tomar como exemplo um site que tem presença em dois centros de dados diferentes. um em San Jose, Califórnia e um em New York City. 1. GSLB traz mais conteúdo para os usuários. Com cross country de latência em torno de 60 milisegundos ou mais. 2. Fornece redundância no caso de qualquer falha no site. Existem muitas razões pelas quais a instalação de um centro de dados inteiro pode ficar offline, como um corte de fibra, um a falha no equipamento. Sites, que optarem por não colocar todo o seu conteúdo em um servidor, podem usar a tecnologia do GSLB para desviar o tráfego para os sites restantes em caso de falhas do site. Figura 2: Diagrama de balanceamento de carga global em servidores. [7] Como o GSLB é uma tecnologia, um trabalho ainda em andamento, existem limitações para o DNS e para os métodos baseados em BGP. Apesar de não totalmente eficazes, o GSLB ainda é uma importante tecnologia e é empregada por

26 26 muitos sites em grande escala. A Figura 2 [7] mostra resumidamente o que foi explicado sobre GSLB CLUSTERING - AGRUPAMENTO Clustering oferece uma solução para os mesmos problemas que o balanceamento de carga em servidores, ou seja, alta disponibilidade e escalabilidade, contudo, clustering trata disso de forma diferente. Clustering é um protocolo de software altamente complexo, executando em vários servidores que se concentram no recolhimento e partilha da carga. Mais do que sentar na frente de vários servidores e manipular os pacotes de rede, clustering envolve um grupo de servidores que aceitam dividir o tráfego e tarefas entre si. Trata-se de uma integração forte do software do servidor. Isso normalmente é chamado de balanceamento de carga, e embora a nomenclatura seja tecnicamente correta, é preferível o uso do termo clustering, uma vez que é baseada em aplicativo. A figura 3 mostra um cenário de clustering.

27 27 Figura 3: Um cenário de clustering. Com o cluster, há uma integração bastante forte entre os servidores (do cluster), decidindo quais os servidores que lidam com tarefas e algoritmos de determinação da carga de trabalho e qual o servidor que executa uma determinada tarefa. O balanceamento de carga em servidores é diferente na medida em que, normalmente, não há interação entre os servidores, e sim a concentração no balanceamento da carga BALANCEAMENTO DE CARGA VERSUS CLUSTERING Embora existam vantagens em ter servidores trabalhando juntos, existem várias desvantagens no uso de clustering. Uma vez que há integração entre os servidores, um software especial é necessário e, como resultado, um vendedor

28 28 provavelmente apoiará um número limitado de plataformas. Além disso, um número limitado de protocolos é suportado com esse regime; nada muito diferente do que HTTP. Balanceamento de carga em servidores é uma plataforma OS e neutra, de modo que funciona enquanto houver uma pilha de rede. Essa é uma das grandes forças do balanceamento de carga em servidores tático. Balanceamento de carga em servidores também suporta qualquer protocolo de rede. O balanceamento de carga em servidores é extremamente flexível a esse respeito. Um projeto de balanceamento de carga em servidores (se projetado corretamente) pode ser muito simples e elegante, bem como poderoso e funcional, como explica Tony Bourke em [2].

29 29 3 ARQUITETURA DO BALANCEAMENTO DE CARGA EM SERVIDORES Neste capítulo vamos abordar os caminhos que são tomados pelos pacotes e mostrar como estes são manipulados para tornar melhor o entendimento do funcionamento do balanceamento de carga em servidores. A Figura 4 ilustra o tráfego se movimentando do usuário para o balanceador de carga, para o servidor real e, em seguida de volta para o usuário. Figura 4: Uma implementação típica de balanceamento de carga em servidores.

30 UM DIA NA VIDA DE UM PACOTE O balanceamento de carga em servidores manipula um pacote antes e depois de chegar a um servidor real. Essa manipulação é feita na fonte ou destino dos endereços IP de um pacote IP da camada de rede. Esse processo recebe o nome de NAT (Network Address Translation). Figura 5: O cabeçalho do pacote IP. Na Figura 5, apresentamos um exemplo de um cabeçalho de um pacote IP enviado de um endereço de origem destinados a Este exemplo foi utilizado por Bourke em [2] e vamos usá-lo para descrever como seria acompanhar a viagem de um pacote IP. Este cabeçalho IP pode ser comparado a uma carta. O endereço IP fonte é como o Para: de uma carta e o De: é como o endereço IP de destino. Assim como os carteiros, os roteadores utilizam essas informações para seguir com o pacote ao longo do caminho até chegar ao destino do mesmo. Quando você envia um pacote com um endereço de origem e destino, espera-se que o pacote retorne com o endereço de origem correspondendo ao anteriormente de destino, e o de destino correspondendo ao anteriormente de origem. Se o pacote não chega com o endereço IP de destino igual ao anteriormente de origem, o pacote é descartado. O que não incomoda em nada pacotes UDP, pois o UDP é um protocolo sem conexão. Porém, a maior parte das implementações de balancea-

31 31 mento de carga em servidores que envolvem serviços Web, baseia-se no TCP, que é um protocolo com conexão. O exemplo da Figura 6 utiliza um endereço IP do cliente ( ), um VIP ( ) e um endereço IP real do servidor ( ). Este tipo de configuração pode ser chamado de arquitetura flat-based SLB, desde que o VIP e o servidor real estejam na mesma subnet. Para chegar ao local, um usuário insere uma URL, o que traduz o endereço da VIP ( ). O pacote segue pela Internet com um endereço IP de origem igual a e um endereço de destino igual a A Figura 6 resume o que foi descrito, o dia de um pacote, o trajeto que ele percorre. E a Tabela 1 demonstra a manipulação do tráfego SLB. Figura 6: Um dia na vida de um pacote.

32 32 Etapas Endereço IP origem Endereço IP destino Tabela 1: Manipulação do tráfego SLB 3.2 SERVIDOR DE RETORNO DIRETO O Servidor de retorno Direto (DSR) é um método para burlar o balanceador de carga na conexão de saída [2]. O servidor de retorno direto aumenta a performance do balanceador de carga. O DSR engana o servidor real para enviar um pacote com o endereço de origem já re-escrito para o endereço do VIP. O DSR faz isso com o intuito de coordenar pacotes e executar no SLB. Existe um processo que faz isso e que recebeu o nome de Translação de endereço MAC (MAC Address Translation - MAT). Caso haja o interesse em entender o processo citado e seu funcionamento, orientamos a leitura de [2]. Para implementar SLB sem passar pelo balanceador de carga na saída, o servidor de retorno direto utiliza o MAT e configurações do servidor real. Um servidor real está configurado com um endereço IP e também com o endereço IP da VIP. Para permitir que duas máquinas em uma rede possuam o mesmo endereço IP, (o que não pode ocorrer porque dois MACs não podem vincular o mesmo endereço IP) vincula-se o endereço VIP à interface de loopback. A interface loopback é uma pseudo-interface usada para a comunicação interna de um servidor, e é geralmente irrelevante para a configuração e utilização do mesmo. Esta interface possui um endereço IP universal ( ).

33 33 O recurso IP Alias permite que apenas uma Interface de rede responda por mais de um IP, dando a impressão que a rede possui diversos hosts, mas na verdade, é apenas uma máquina respondendo por diversos hosts virtuais [6]. Para usar o recurso do IP Alias é necessário que a opção IP Aliasing Support seja habilitada no kernel. Por ter um endereço VIP configurado na interface de loopback, não temos o problema de ter mais de uma máquina configurada com o mesmo IP em uma rede. Se o VIP for o endereço da interface de loopback, não ocorrerá conflito com outros servidores, porque não está realmente em uma rede Ethernet física. Normalmente, o serviço do servidor Web ou qualquer outro servidor, está configurado para vincular-se ao endereço VIP na interface de loopback. O servidor real que não possui o endereço VIP, mas tem um endereço VIP configurado na interface de loopback, acaba fazendo com que o servidor aceite o tráfego, quando existir uma ocorrência de queda do tráfego. Esse processo possui algumas dificuldades como a inclusão de complexidade na configuração, e o impedimento da aplicação de configurações interessantes por parte dos servidores reais e o software de servidor que roda neles. 3.3 OUTROS MÉTODOS SLB Existem muitas alternativas para realizar SLB baseado em rede. Normalmente nomeia-se a forma como é implementado de "half-nat". Um método conhecido como "full-nat" (que reescreve os endereços de origem e destino ao mesmo tempo) também existe.

34 TIPOS DE BALANCEADORES DE CARGA Os Dispositivos SLB costumam ser implementados em um dos dois tipos básicos: o balanceador de carga baseado em switch ou o balanceador de carga baseado em servidores. A seguir, estão descrições desses dois tipos que foram encontradas em [2] Balanceador de carga baseado em servidores Balanceadores de carga baseados em servidores geralmente são unidades com base em PC executando uma operação padrão do sistema. As funções são realizadas através do código do software em execução no topo da pilha de rede do sistema operacional do servidor. Geralmente, o sistema operacional é uma versão de um sistema operacional comercial ou como sistemas operacionais de código livre. Em um balanceador de carga, todo o sistema operacional é escrito pelo fabricante. Balanceadores de carga com base no servidor são geralmente fáceis de desenvolver, porque para a codificação de recursos para o sistema operacional utilizado são fáceis de encontrar. Isso pode ajudar a encurtar o código, mas também pode ser um obstáculo. Com um código menor, os erros podem se tornar mais prevalentes. Este ciclo de desenvolvimento rápido significa que balanceadores de carga baseados em servidores geralmente são flexíveis no que eles podem fazer. Novos recursos podem ser implementados rapidamente, e as próprias máquinas podem assumir novas formas criativas de monitoramento de desempenho, bem como outras tarefas.

35 Balanceadores de carga baseados em switches Balanceadores de carga baseados em comutadores, também conhecido como balanceadores de carga baseados em hardware, são dispositivos que dependem de Application Specific Integrated Circuit (ASIC) que são chips para executar funções de reescrita de pacotes. Um chip ASIC é um processador que remove várias camadas de abstração de uma tarefa. Devido a esta especialização, os chips ASIC freqüentemente executam tarefas de software mais rápido e de forma mais eficiente do que um processador geral. A desvantagem é que os chips não são muito flexíveis. Se uma nova tarefa é necessária, então, um novo projeto ASIC pode ter que ser construído. No entanto, o protocolo IP mantém-se inalterado, assim é possível queimar essas funções em um ASIC. Balanceadores de carga baseados em comutadores normalmente são mais difíceis de desenvolver o código. Eles muitas vezes são executados em arquiteturas proprietárias, ou pelo menos arquiteturas com o mínimo de recursos desenvolvimento. Portanto, o código sai mais lento, mas é mais estável. Os produtos baseados em switch são geralmente mais rápidos. Seus chips ASIC são mais eficientes que o software sozinho. Normalmente, eles também têm backbones de largura de banda interna capaz de lidar com um valor na ordem de Gigabits de tráfego.

36 36 4 ABORDAGENS PARA O BALANCEAMENTO Neste capítulo abordamos alternativas para o balanceamento. Para tal, buscamos as referências neste campo do conhecimento [2] e as apresentaremos em tópicos. Dentre eles estão o Modelo OSI, explicando suas camadas de forma sucinta, a definição de um dispositivo de balanceamento de carga, e como identificar falhas e verificar o serviço. 4.1 MODELO OSI Quando o assunto são balanceadores de carga, quase sempre citamos as camadas OSI. O autor Tony Bourke afirma em [2] que o modelo OSI foi desenvolvido como um quadro para o desenvolvimento de protocolos e aplicações que possam interagir sem problemas. Andrew S. Tanenbaun descreveu em [3], de forma básica, os princípios necessários para chegarmos às sete camadas: Uma camada deve ser originada onde existe a necessidade de outro grau de abstração. Cada camada executa uma função bem definida. Cada camada tem sua função determinada seguindo a definição de protocolos padronizados internacionalmente. Para diminuir o fluxo de dados pelas interfaces, devem ser determinados os limites de camadas.

37 37 A quantidade de camadas deve ser o suficiente para evitar que funções diferentes sejam alocadas em uma mesma camada e que a arquitetura se torne incontrolável. O modelo OSI é dividido em sete camadas. Cada uma delas representa uma camada de abstração separadamente, interagindo somente com suas camadas adjacentes. Camada 1 (Camada física): a camada mais baixa, também chamada de camada física, cuida da transmissão de unidades básicas de dados. Nessa camada, as preocupações estão em decidir que voltagem usar na hora de representar os bits, o tempo que um bit deve durar, se a transmissão é full-duplex, a maneira como a conexão inicial será estabelecida e encerrada e a quantidade e as funções de cada pino do conector de rede. Camada 2 (Camada de enlace): esta camada, também chamada de camada de enlace, se refere à organização e ao encapsulamento binário da informação para o transporte ao longo da camada 1. Geralmente os dispositivos de balanceamento de carga em servidores se baseiam em Ethernet. Um cabeçalho, uma soma de verificação e os dados formam um frame Ethernet. Estes variam de tamanho. Seu tamanho é chamado de Maximum Transmittable Unit (MTU). Camada 3 (Camada de rede): esta camada é responsável pelo roteamento e encaminhamento dos pacotes. Ela é formada por roteadores. Os pacotes da camada de rede (como também é chamada esta camada), respeitam o padrão do protocolo IP. A camada de redes deve superar as dificuldades presentes no caminho para interconectar redes heterogêneas. Camada 4 (Camada de transporte): a função básica da camada 4 é adquirir os dados da camada acima dela, repassar para a camada abaixo dela e garantir que os segmentos vão chegar de forma correta no receptor. Ela especifica que serviço vai ser fornecido para a camada de sessão que está acima dela e aos usuários da rede. A camada de transporte trabalha com dois protocolos: o TCP e o UDP. Os segmen-

38 38 tos, que são pacotes IP encapsulados, possuem um cabeçalho que é composto por um endereço IP de origem, um de destino, uma porta de origem e uma de destino. Camada 5 (Camada de sessão): possibilita o estabelecimento de sessões entre os usuários que estão em máquinas distintas. É importante para manter o controle de quem deve possuir a vez de transmitir dados, evitar que os dois lados executem operações críticas simultaneamente e ofereça o serviço de sincronização. Camada 6 (Camada de apresentação): preocupa-se com a sintaxe e a semântica das informações que estão sendo transmitidas. Camada 7 (Camada de aplicação): esta camada é formada por muitos protocolos de aplicação, dentre eles o HTTP. Existem outros que são usados, por exemplo, para a transferência de arquivos e correio eletrônico. 4.2 BALANCEADORES DE CARGA EM SERVIDORES Encontramos a seguinte definição de um balanceador de carga em [2]: Um balanceador de carga é um dispositivo que distribui a carga entre diversos servidores. Este tem o efeito de fazer vários servidores aparecerem como um só. Alguns dos vários componentes de dispositivos de balanceamento de carga em servidores são os VIPs 3, os servidores, que executam um serviço que compartilha a carga entre outros serviços (O termo servidor, normalmente é uma citação a um servidor HTTP. Um endereço IP e uma porta TCP ou UDP são associados ao servidor.), e os grupos, que são servidores que tem a sua carga balanceada. 3 Virtual IP (VIP) é uma instância de balanceamento de carga.

39 NÍVEIS DE ACESSO AO USUÁRIO O controle sobre as ações dos usuários registrados em um balanceador de carga é o aspecto abordado pelos níveis de acesso ao usuário. Estão descritos abaixo alguns níveis de acesso de acordo com o que foi apresentado por Bourke em [2]. Read-only: Neste nível de acesso nenhuma alteração é permitida. Só é permitida a visualização de configurações. Quase sempre, consideramos esse nível como o primeiro de um usuário conectado, antes que ele tenha permissão para mudar para um nível que permita maior acesso. Super usuário: Garante ao usuário liberdade total para efetuar qualquer ação sobre o sistema, ou seja, o usuário tem permissão para criar contas, alterar qualquer configuração e apagar arquivos. Outros níveis: Existem níveis intermediários que são oferecidos por alguns produtos que permitem ao usuário alterar apenas configurações do balanceamento de carga nos servidores, protegendo as configurações do sistema. Outros autorizam apenas a configuração de definições da porta Ethernet.

40 REDUNDÂNCIA Redundância possui um conceito simples. Segundo [2], se um dispositivo falhar, outro tomará a sua função, com pouco ou nenhum impacto sobre as operações como um todo. Existem muitas formas de se alcançar essa funcionalidade, mas normalmente dois dispositivos são implementados. O estado do parceiro é verificado por um dispositivo através de um protocolo. Algumas vezes um dispositivo aguarda para ser usado no caso de ocorrência de falhas enquanto o outro dispositivo é usado, em outras, os dois dispositivos ficam ativos Redundância de funções Em redundância, freqüentemente ocorre uma relação ativa de espera. Existe um dispositivo ativo que é responsável por alguma ou todas as funções, e um reserva que espera ser chamado para assumir as funções do dispositivo ativo. Esta relação é muitas vezes denominada de relação master / slave. Existe também o cenário em que as unidades podem ser masters de algumas funções e slaves de outras para distribuir a carga. E ainda existe a situação em que ambas as unidades são masters de todas as funções, ou seja, dividem as funcionalidades. A esta situação dá-se o nome de redundância ativa-ativa.

41 Cenário Active-Standby Este cenário é considerado o mais fácil, em questão de compreensão e implementação. O que ocorre neste caso é que um dispositivo está ativo, leva o tráfego, é o responsável pelas funcionalidades, enquanto o outro aguarda ser requisitado em caso de falha. Se ocorrer alguma falha no segundo dispositivo, o outro reconheceria a falha e passaria a ser o dispositivo titular, tomando assim, o tráfego para si. As Figuras 7 e 8 ilustram exatamente o que foi explicado anteriormente. Figura 7: Um cenário de redundância ativa de espera.

42 42 Figura 8: Um cenário de insuficiência de espera ativa Cenário ativo-ativo Apesar de existirem muitas variações deste cenário, em todas as situações os dois dispositivos aceitam o tráfego. Quando ocorre uma falha em um dos dispositivos, o outro assume as funções da unidade que apresentou a falha. Algumas variações desse cenário foram descritas por Bourke e vamos citar uma delas. Para obter mais informações sobre essas variações, recomendamos a leitura de [2]. Em uma dessas variações, ocorre uma distribuição de VIPs entre os balanceadores de carga, com a finalidade de compartilhar o tráfego de entrada.

43 43 Se um balanceador de carga falha, o VIP permanece responsável pelo restante das alterações, e o outro dispositivo, passa a assumir as funções que chegarem. A Figura 9 ilustra esse cenário VRRP Segundo este protocolo de redundância, dois dispositivos trocam pacotes esperando uma resposta. Se não chegar, o outro dispositivo assume as funções, pois considera que o outro não está funcionando. Figura 9: Um cenário ativo-ativo de recuperação de falhas. Para conhecer mais e se aprofundar nos detalhes de funcionamento deste protocolo indicamos a leitura de [2]. A figura acima demonstra o cenário onde esse protocolo atua.

44 44 O VRRP pede que os dispositivos possam se comunicar, que fiquem isolados e que cada um deles assuma o outro que apresentou falha, assumindo, então um estado master. Pode não ser tão vantajoso, pois ocorrem conflitos de IPs e também porque os dispositivos acreditam que são os dispositivos ativos quando existe um cenário de espera ativa. Esse protocolo tem muitas versões que normalmente possuem um nome terminado em RP CABO DE FAIL-OVER O cabo de fail-over é um método usado para a identificação de falhas entre dispositivos. Tony Bourke descreveu em [2] o funcionamento desse método de um modo simples de entender: Este método usa um batimento cardíaco (próprio do protocolo de verificação) que corre sobre uma linha entre um par de balanceadores de carga. Se este cabo for desconectado, ele faz com que ambas as unidades acreditem que ele é a única unidade disponível, e cada um assume o status de master. Para evitar redundância, um protocolo da camada de enlace, o Spanning- Tree Protocol (STP), que determina prioridades para as portas, fazendo com que apenas aquela que possui a maior prioridade fique ativa no caso de múltiplos caminhos, desligando as portas restantes, é utilizado PERSISTÊNCIA Persistência é o ato de manter um usuário específico em um tráfego que vai para o mesmo servidor que inicialmente foi atingido quando o site foi contatado. Este foi o conceito de persistência apresentado por Bourke. Ele explica também em

45 45 [2] que quando o dispositivo de balanceamento de carga tem várias máquinas para escolher, ele mantém sempre o tráfego de um determinado usuário indo para o mesmo servidor. Isto é muito importante em aplicações Web-store. Nestas aplicações, o usuário monta um carrinho de compras e este carrinho é guardado em uma máquina especial VERIFICAÇÃO DO SERVIÇO O serviço de verificação do estado de um servidor ou serviço é feito pelo dispositivo de balanceamento de carga, respeitando o intervalo de tempo definido pelo usuário. Ele deve identificar se o servidor ou o serviço está em declive de atividade e tomar a atitude de colocá-los fora de uso. A verificação de um serviço é simples de ser implementada. Pode ser usada, por exemplo, para essa verificação, uma seleção de porta para verificar a porta está respondendo ALGORITMOS DE BALANCEAMENTO DE CARGA A escolha de um algoritmo de balanceamento de carga vai depender das necessidades que devem ser supridas. Os algoritmos determinam os métodos de escalonamento, isto é, têm a função de regular a forma como a carga é distribuída entre os nós que compõem o sistema. A seguir serão apresentados alguns desses algoritmos de forma resumida e um exemplo para cada um deles. Seleção por menos conexões (Least Connection): Este método redireciona as requisições para o servidor baseando-se no menor número de requisições. Exemplo: Se o servidor A está controlando, atualmente, 30 requisições ou conexões, e um servidor B controla 10, a próxima requisição será automaticamente direcionada para B.

46 46 Isso acontece porque no momento, B tem um número menor de requisições ou conexões ativas [16].

47 47 Seleção circular (Round Robin): Neste método é utilizada a técnica de sempre direcionar as requisições para o próximo servidor disponível de forma circular. Exemplo: As conexões de entrada são direcionadas para o servidor A, depois para B e em seguida para C. Por fim, retorna para o servidor [16]. Seleção por menos carga (Weighted Fair): Esta técnica direciona as requisições para os servidores baseados na carga de requisições de cada um e performance deles. Exemplo: Se o servidor A é quatro vezes mais rápido que o B no atendimento às requisições, então o administrador atribui ao servidor A, um peso maior de trabalho [16]. 4.3 PROVEDOR DE INFRAESTRUTURA Os componentes de rede conectam os servidores Web com a Internet, Extranet ou Intranet para que os usuários possam usufruir seus serviços. Eles compõem a infraestrutura de rede e fazem essa conexão em um local manipulado pelo site. Essa conexão também pode ser feita em um local que é mantido por um provedor de hospedagem de empresas de infraestrutura. Este facilita a hospedagem de seu site. A Figura 10 [10] mostra uma infraestrutura comum. No switch Web à esquerda do firewall são implementados o gerenciamento de banda, filtro de pacotes, balanceamento de carga, detecção de falhas. No switch Web à direita do firewall são implementados o redirecionamento do cache, o balanceamento de carga, a detecção de falhas.

48 48 Figura 10: Demonstração de uma infraestrutura comum para Web hosting DATA CENTER CENTRO DE DADOS O data center é uma espécie de ambiente protetor, onde os equipamentos possuem alta segurança, temperatura ambiente adequada, geralmente são ambientes com ar condicionado, proteção contra incêndios e quedas de energia com sistemas de backup de energia, entre outros equipamentos de proteção para os equipamentos. Logicamente, isso possui um custo alto. A Figura 11 [9] mostra como é um data center.

49 49 Figura 11: Foto de um data center LINHA DEDICADA A vantagem do uso de linhas dedicadas é o controle absoluto e o total acesso que você tem sobre o seu equipamento. Neste caso, o cenário é de um site alojado internamente com conexões de linhas alugadas por fornecedores.

50 50 Figura 12: Um cenário de linhas alugadas. Na Figura 12 temos a descrição de um cenário de linhas alugadas, onde o servidor está conectado à Internet através de dois DS-3s (45 Mbps) de fornecedores diferentes. Provavelmente o protocolo executado nas duas linhas é o BGP. O BGP é um protocolo utilizado para a troca de informações sobre roteamento da Internet e que, no caso de uma dessas linhas cair, permite redundância.

51 51 5 MÉTRICAS DE DESEMPENHO As métricas têm como objetivo avaliar o desempenho dos servidores de carga. E são críticas, pois avaliam o limite da execução de um site. Neste capítulo descreveremos os dispositivos SLB, os perfis de tráfego, Web stores, redundância stateful, entre outros conceitos importantes para o monitoramento do desempenho de um dispositivo balanceador de carga. 5.1 DISPOSITIVOS SLB Existem muitas formas de medir o desempenho em dispositivos SLB, e cada uma tem um nível de importância dependendo das necessidades específicas de um site. Os parâmetros utilizados para essa avaliação são: Conexões por segundo. Total de conexões simultâneas. Taxa de transferência (em bits por segundo).

52 CONEXÕES POR SEGUNDO Talvez essa seja a medida de desempenho mais significativa, principalmente no caso de conexões HTTP. Esta métrica se refere ao número de conexões de entrada, transações ou sessões que podem ser aceitas em um dispositivo SLB em um determinado segundo. É comumente o fator limitante em qualquer dispositivo, a primeira de qualquer uma das métricas que deve ser utilizada para atingir um desempenho limite. A razão dessa métrica é crítica, porque abrir ou fechar conexões HTTP é muito oneroso para um processador de rede. As medidas necessárias para transferir um arquivo via HTTP são, basicamente, estas: 1. A caixa de cliente inicia uma conexão HTTP através do envio de um pacote TCP SYN destinado à porta 80 para o servidor Web. 2. O servidor Web envia um pacote ACK de volta ao cliente junto com um pacote SYN adicional. 3. O cliente envia um pacote ACK em resposta ao SYN enviado pelo servidor. 4. O início de uma conexão é conhecido como o "three-way handshake". Após o aperto de mão, ocorre uma negociação e os dados podem passar. No caso do HTTP, esta é normalmente uma página Web. Criar e encerrar conexões são recursos custosos e é por isso que a taxa na qual um dispositivo pode fazer isso é tão crítica. É muito importante levar em conta essa medida quando queremos comprar um dispositivo SLB e estamos lidando com um site que possui uma quantidade grande de tráfego HTTP.

53 TOTAL DE CONEXÕES SIMULTÂNEAS Esta métrica determina o número de sessões TCP abertas por um usuário um dispositivo SLB suporta. Normalmente, isso é limitado por fatores como a memória disponível no kernel de um dispositivo SLB ou processador de rede e o número variar de acordo com cada produto. Para o tráfego UDP, conexões simultâneas não constituem um problema, pois o UDP é um protocolo não orientado para conexão. O tráfego UDP é tipicamente associado a um streaming de mídia ou tráfego de DNS, embora existam vários outros protocolos que são executados em UDP. A maioria dos balanceadores de carga é capaz de lidar com os protocolos UDP para SLB THROUGHPUT Throughput é uma outra métrica importante que normalmente é medida em bits por segundo. Seu rendimento é a taxa à qual um dispositivo SLB é capaz de transmitir o tráfego através de sua infraestrutura interna. Tony Bourke em [2] ressaltou que todos os dispositivos têm fatores limitantes internos baseados de acordo com a arquitetura, por isso é necessário que se saiba a taxa de transferência. Por exemplo, alguns SLB só suportam Fast Ethernet, limitando-os a 100 Mbps (Megabits por segundo). Além disso, alguns produtos baseados em servidor não têm processadores rápidos o suficiente para lidar com códigos de taxas de transferência de mais de 80 Mbps. O rendimento é medido em bits por segundo e é uma combinação de duas variáveis: tamanho do pacote e quantidade de pacotes por segundo. Pacotes Ethernet variam de comprimento, com um MTU (Unidade Máxima de Transmissão) de cerca de 1,5 KB. Se uma parte específica de dados é maior do que 1,5 KB, então esta é cortada em pedaços de 1,5 KB para o transporte. Sendo

54 54 o fator mais importante de um balanceador de carga ou de qualquer dispositivo de rede usado o número de pacotes por segundo. Por exemplo, uma requisição HTTP GET em um arquivo de texto de 100 bytes, vai caber em um pacote muito facilmente. Já um HTTP GET em um diretório de imagem de 32 KB, resultará em um arquivo que está sendo cortado em cerca de 21 pacotes de Ethernet, ou seja, 21 MTUs, cada um com uma carga completa de 1,5 KB. Quanto maior a carga, mais eficiente é a utilização dos recursos. Por isso que nessa métrica é importante conhecer o número de conexões por segundo, não só porque essas conexões por segundo causam um pouco de sobrecarga no início do estabelecimento de uma conexão, mas também porque os locais que apresentam taxas elevadas de conexões por segundo geralmente têm pequenas cargas. O rendimento pode ser calculado da seguinte forma: Throughput = Taxa de transferência de transmissão de pacotes x o tamanho da carga. 5.2 A BARREIRA DE 100 MBPS Muitos modelos SLB estão equipados com interfaces Ethernet, limitando assim a capacidade total para 100 Mbps. Existem técnicas capazes de solucionar esse problema, como é o caso da técnica que envolve Fast EtherChannel, que liga dois ou mais links Fast Ethernet em um link, combinando a largura de banda disponível. Esta não é a solução mais simples, e não há limites para o Fast EtherChannel distribuir o tráfego. Quando uma parte do link é inundada, outra ligação é utilizada. Uma solução que também é possível é o retorno do servidor direto (DSR). O DSR não envolve o tráfego de saída que passa pelo dispositivo SLB, normalmente a maior parte do tráfego de um site. Um dispositivo de SLB tem menos requisitos de transferência. Nesse ponto, o fator limitante seria tornar a conectividade geral no site. A solução mais simples para esse problema é usar o Gigabit Ethernet (GigE) sobre a carga dos balanceadores. Os custos de GigE estão cada vez mais acessíveis, e é uma ótima maneira de

55 55 agregar grandes quantidades de tráfego para os servidores Fast Ethernet conectados. 5.3 PERFIS DE TRÁFEGO De acordo com Tony Bourke em [2], as características de cada local de trânsito são diferentes. Mas existem alguns padrões e semelhanças que muitos sites compartilham. Existem três padrões de tráfego típicos que são identificados: HTTP, FTP / Streaming e Web stores. A tabela a seguir relaciona esses padrões e suas métricas. O padrão de tráfego pode variar dependendo do site em questão, logo, para um determinado site pode ser diferente do que está sendo apresentado na Tabela 2. É fundamental identificar o tipo ou tipos de tráfego do seu site para contribuir para um melhor design, para torná-lo mais seguro, e ajustar o seu desempenho. Padrão de tráfego Tabela 2 : Padrões e suas métricas A métrica mais importante A segunda métrica mais importante A métrica menos importante HTTP Conexões por segundo Throughput Total de conexões sustentadas FTP / Streaming Throughput Total de conexões sustentadas Loja na Web Total de conexões sustentadas Conexões por segundo Conexões por segundo Throughput

56 HTTP O tráfego HTTP é, geralmente, de grande largura de banda e cria uma grande quantidade de conexões por segundo. Com o a versão 1.0 do protocolo HTTP, uma conexão TCP é aberta para todos os objetos, seja ele um arquivo HTML, de imagem (GIF ou JPEG) ou de texto. Uma página Web com 15 objetos sobre ela exigiria 15 conexões TCP separadas. Já a versão 1.1 padrão é mais eficiente. Uma conexão é gerada para recuperar vários objetos durante uma determinada sessão. Os 15 objetos na página de exemplo poderiam ser baixados em uma conexão TCP contínua. Isso reduziria o trabalho do balanceador de carga e do servidor Web. O HTTP ainda é muito ineficiente, porque páginas da Web e os seus objetos são normalmente mantidos pequenos para manter os tempos de download de pequeno porte, por exemplo, com um modem de 56KB do usuário. Essa medida é adotada para evitar que o usuário deixe a sua página por causa da demora da conclusão dos downloads. Assim, as páginas Web geralmente não têm muito mais do que 70 ou 80 KB de dados. Essa quantidade varia, mas pouco FTP / STREAMING O FTP e o tráfego de streaming são muito semelhantes, em seus efeitos sobre as redes. Ambos envolvem uma ligação inicial e uma grande quantidade de dados transferidos. A taxa de conexões FTP / streaming inicial permanecerá sempre relativamente pequena comparada à quantidade de dados transferidos. Uma conexão de FTP pode facilmente envolver um download de um megabyte ou mais no valor de dados. Isso pode saturar as redes.

57 WEB STORES (LOJA NA WEB) Nas Web Stores a velocidade é um fator importante, pois os usuários estão menos propensos a gastar dinheiro em sites que são muito lentos para eles. Normalmente esse tipo de tráfego geral não envolve uma grande quantidade de largura banda. Sustentar as conexões é importante, levando-se em conta que um site quer atender o maior número de requisições possível. 5.4 REDUNDÂNCIA STATEFUL Segundo [2], uma característica fundamental para este tipo de perfil, é a redundância de informações mantidas entre os balanceadores de carga. Isso é conhecido como Stateful Redundancy. Cookies, informações da tabela ou sessões TCP precisam ser espelhados para fazer isso. As lojas da Web costumam exigir esse nível de redundância. 5.5 O MURO De acordo com Tony Bourke, quando estamos lidando com o desempenho em qualquer dispositivo de balanceamento de carga, nos referimos á um conceito chamado muro. Bourke definiu o conceito de muro da seguinte forma: O muro é um ponto onde a quantidade de tráfego que está sendo processada é alta o suficiente para causar graves degradações de desempenho. Conforme aumenta o tráfego até que o muro seja alcançado, o tempo de resposta e o desempenho permanecem relativamente constantes. Porém, quando isso acontece, o efeito é trágico. Na maior parte dos casos, atingir o muro significa menor tempo de resposta HTTP e um nivelamento de tráfego. Nos casos extremos,

58 58 com uma quantidade incrivelmente alta de tráfego, não pode ser previsível e pode ter comportamento estranho. Isso pode incluir reinicializações, travamentos (que não permitem que a unidade redundante se torne a mestre), e o kernel surta. O Gráfico 1 encontrado em [2] mostra a curva acentuada que ocorre quando o muro de desempenho é atingido. No eixo das abscissas, temos o tráfego. E no eixo das ordenadas, temos a latência correspondente ao tráfego. Gráfico 1: A barreira de desempenho. Ao adicionar funcionalidades e capacidades a um balanceador de carga, é provável que seu desempenho seja prejudicado. Isso vai depender de como vai ser concebido o balanceador de carga e das configurações que serão aplicadas a ele. Balanceadores de carga geralmente não ficam mais lentos quando você adiciona funcionalidades. No entanto, adicionar recursos, provavelmente, vai causar alguma degradação do desempenho.

59 59 Um exemplo citado por Bourke que pode explicar melhor o que foi explicado será apresentado abaixo. Se um balanceador de carga pode empurrar 90 Mbps, não só com latência de execução da camada de transporte, pode ser capaz também de empurrar apenas 45 Mbps de análise de URL. A razão é que nas camadas de sessão, de apresentação e de aplicação, o pacote deve ser inspecionado. Isso pode significar um uso intensivo da CPU. Analisar a URL ou a leitura do cookie no pacote é muito mais do que apenas reescrever as informações do cabeçalho IP. 5.6 DEGRADAÇÃO DO DESEMPENHO A degradação de desempenho que foi observada com a adição de funcionalidades depende da engenharia do balanceador de carga. Balanceadores de carga baseados em servidor, possuem uma degradação muito linear à medida que são adicionadas funcionalidades. Quanto mais coisas o processador tem de fazer, menor a quantidade de tráfego de carga o balanceador pode processar com velocidade aceitável. Balanceadores de carga baseados em switch, não apresentam a mesma performance. Chips ASIC são empregados para lidar com o processamento de rede. Alguns fabricantes desenvolveram chips ASIC para manipular as funções da camada de sessão de processamento. Isso resulta em uma arquitetura mais distribuída. As características de desempenho de cada um desses componentes podem variar de acordo com a codificação e projeção de balanceador de carga e os recursos usados por ele. Essas características mudam de fornecedor para fornecedor e, geralmente, de modelo para modelo. É importante saber o tipo de tráfego que percorrem o balanceador de carga para entender o plano de desempenho, necessidades e o potencial de crescimento.

60 60 6 IMPLEMENTAÇÃO Neste capítulo serão abordadas, resumidamente, as formas de implementação, o que deve ser levado em consideração ao implementar o balanceamento de carga e os detalhes da arquitetura. Outras informações importantes para a implementação também são comentadas neste capítulo. 6.1 DEFININDO IMPLEMENTAÇÃO O balanceamento de carga entre servidores é mais que um simples redirecionamento de tráfego dos clientes para múltiplos servidores. Para implementá-lo corretamente, é necessário que o equipamento que fará o balanceamento possua características como checagem permanente da comunicação e dos servidores e capacidade de redundância. Para que seja possível fornecer um suporte ao crescente volume de tráfego das redes sem vir a se tornar um gargalo ou um ponto único de falha, são necessários estes itens citados [15]. Quando nos referimos à implementação de balanceamento de carga ou qualquer outra implementação de rede, devemos considerar alguns aspectos. São eles [2]: Simplicidade; Funcionalidade; e Elegância; Simplicidade é relevante, pois quanto mais simples, mais fácil é para implementar um projeto. Funcionalidade também é importante porque ninguém quer um produto incompetente, ineficiente e sem funcionalidades. E a elegância é importante em alguns casos porque podem ser necessárias futuras alterações, e uma implementação elegante, bem feita, ajuda na hora de efetuar essas possíveis mudanças.

61 61 Tudo isso contribui para a diminuição da complexidade, dos custos, do uso de equipamentos desnecessários e de outros fatores que devemos evitar. Principalmente porque em qualquer projeto o que se procura é a solução mais adequada, a melhor, a mais eficiente e a que possui a melhor relação custo benefício. 6.2 DETALHES DA ARQUITETURA Segundo Tony Bourke em [2], profissionais da área afirmam que a parte mais conflitante é entender a implementação do balanceamento de carga e não os seus conceitos ou funcionamento. E o mais complexo é saber a forma como adequar um balanceador de carga a infraestrutura. Existem muitas formas de se implementar e configurar o balanceamento de carga, em [2] encontramos uma definição que diz que por maiores possibilidades que se tenha com relação à implementação ou configuração, existe uma matriz para facilitar todo esse processo de compreensão, de entendimento. A Figura 13, encontrada em [2], ilustra essa matriz que ajuda a compreender a implementação do balanceamento de carga. Figura 13: Descrição da matriz que facilita a implementação do balanceamento de carga

62 62 Na Figura 13, a primeira coluna se refere à forma de representar a topologia IP. Para balanceamento de carga baseado em Flat, os VIPs e servidores reais estão na mesma sub-rede, e os balanceamentos de carga baseados em NAT, tem os VIPs e os servidores reais em sub-redes distintas. A segunda coluna se refere a maneira pela qual tráfego será direcionado aos balanceadores na rota que o servidor toma até a Internet. O Bridge-Path (ou caminho em ponte) tem a idéia de fazer com que o balanceador desempenhe a mesma função de uma ponte na camada de enlace. No Route-Path o balanceador desempenha a mesma função que um roteador. E finalmente, o DSR (Servidor de Retorno Direto), que é quando os servidores são configurados para ultrapassarem o balanceador de carga por completo CONFIGURAÇÃO DOS IPs Tanto balanceamentos de carga em servidores baseados em Flat como em NAT possuem vantagens e desvantagens. O que determina suas funcionalidades é o objetivo que se deseja alcançar com seu uso. Nas arquiteturas baseadas em Flat, os VIPs e os nós estão na mesma sub-rede e pode ser feito por dois métodos o Bridge e o Route-Path. Nas arquiteturas baseadas em NAT, o balanceador de carga fica em duas sub-redes separadas e diferentes, geralmente em duas VLANs 4 diferentes. O balanceador de carga desempenhará a função de gateway padrão dos servidores reais, e empregará o método Route-Path, pois o método de Bridge-Path não trabalha com balanceamento de carga em servidores baseados na arquitetura NAT. 4 Uma VLAN (Virtual Local Area Network ou Rede Local Virtual) é uma rede local que agrupa um conjunto de máquinas de forma lógica e não física. Em uma rede local, a comunicação entre as diferentes máquinas é governada pela arquitetura física. Usando as VLANs, é possível livrar-se das limitações da arquitetura física, como restrições de endereçamento, definindo-se uma segmentação lógica (software) baseada num agrupamento de máquinas graças a critérios como endereços MAC, números de porta, protocolo e etc. [12]

63 CONTROLE DO RETURN PATH Para explicar melhor o Return Path, vamos fazer um confronto entre os métodos Bridge e Route-Path e DSR. Segundo [13], o Route-path é mais utilizado que o Bridge-Path, por inúmeras razões, e a mais importante delas é a sua simplicidade quanto a sua implementação, pois o roteador atuará apenas no encaminhamento apropriado dos pacotes. O gateway padrão para os servidores é definido para um endereço IP no balanceador de carga. O balanceador de carga atua como um roteador, encaminhando os pacotes de forma apropriada. O endereço IP do gateway é configurado e conhecido como o gateway IP [13]. Em conjunto com one-armed ou two-armed na conectividade física, qualquer topologia, com relação a redundância, é muito mais fácil de resolver. O Bridge-Path funciona com uma implementação Flat, enquanto o Route- Path funciona com Flat ou NAT. O método Bridge-Path tem limitações em sua implementação, pois trabalha na camada 2. Se houver mais de um par de redundância, há mais de um caminho de camada de enlace, levando a falta de um loop de ponte ou de dispositivos da camada de enlace na rede. Nesse caso, o balanceador de carga atua como ponte para os pacotes da comunicação entre duas LANs separadas. O DSR (Servidor de Retorno Direto) é freqüentemente usado para obter um desempenho melhor no servidor ou para evitar o NAT em determinados tipos de aplicações [13].

64 CONECTIVIDADE FÍSICA: ONE E TWO-ARMED Segundo [2], o One-armed só é usado nos balanceamentos de carga em servidores baseados em Flat. E o Two-armed, só é usado nos balanceamentos de carga em servidores baseados em NAT. O método One-armed utiliza o método do caminho de rotas. Nos balanceamentos de carga em servidores baseados em NAT, a segurança é assegurada por duas VLANs separadas, uma para as redes externas e outra para as redes internas. Figura 14: Configuração One-armed Com uma configuração One-armed, só existe uma conexão do balanceador de carga na infraestrutura da rede. A Figura 14 ilustra a configuração One-armed. Isto se adéqua melhor a arquitetura Flat. Com o balanceamento de carga em servidores NAT-based, é possível ter redes externas e internas na mesma ligação. Mas isso gera um risco de segurança. Logo, deve ser evitado. O Two-armed é usado para topologias Bridge-Path, uma vez que os balanceadores de carga servem como ponte entre LANs separadas. E é isso que foi ilustrado na Figura 15, a configuração Two- armed.

65 65 Figura 15: Configuração Two-armed 6.3 INFRAESTRUTURA E CONECTIVIDADE À INTERNET O foco da infraestrutura é fornecer conectividade da rede local com o mundo exterior e a Internet. Então, ela aborda a forma como os balanceadores de carga e os outros componentes se ligam à Internet e tenta fornecer uma medida de redundância no caso de falhas em dispositivos ou ligações de rede. Para que uma infraestrutura de rede funcione é necessária a conectividade com dois componentes básicos: Um roteador, que fornece a conectividade IP com a Internet; e E um switch, que agrega esse tráfego IP usando Ethernet para conectar os servidores, balanceadores de carga, roteadores e etc. Existem muitas formas de projetar uma infraestrutura de conectividade à Internet. A seguir serão apresentadas algumas dessas formas que são encontradas quando se lida com balanceamento de carga em servidores. Segundo Tony Bourke em [2], conhecer a forma como uma infraestrutura é projetada é relevante por que

66 66 afeta como um balanceador de carga é conectado a uma rede e a implementação do esquema de redundância FOUR PACK E SIX PACK O four pack é uma configuração simples que utiliza quatro dispositivos de rede em uma configuração redundante, sendo dois switches e dois roteadores. Normalmente é usado quando um site tem seus próprios switches e roteadores dedicados. Para fornecer redundância, cada switch é conectado a um roteador. Um protocolo de redundância da camada de rede é executado entre os roteadores e sobre o canal que liga os dois switches. Pode ocorrer de um dos componentes falharem e com um protocolo de redundância da camada de rede (o VRRP, por exemplo) rodando, se o switch ligado a um roteador ativo falhar, então o segundo roteador não conseguiria mais se comunicar com o roteador, que até então estava ativo, pois os pacotes de verificação de saúde não seriam mais respondidos. O segundo roteador passa a ser então o ativo, assim sendo, o tráfego passa a fluir pelo switch ligado a ele.

67 67 Figura 16: Design do four pack O design do cenário que foi descrito pode ser visto na Figura 16. Um erro muito comum na fase de planejamento da arquitetura de uma rede é o de querer interconectar muitos dispositivos, quantos forem possíveis. Associando ao cenário apresentado na Figura 16, r1 teria um link para s1 e s2, e r2 teria um link para s1 e s2, de modo a adicionar redundância. É uma boa idéia, mas antes se deve verificar se o roteador possui múltiplas interfaces para camada de enlace. Se uma rede está instalada em um data center, provavelmente estar-se conectado em uma infraestrutura switch-roteador. Nesse caso, deve-se ter seus próprios switches, já que o roteador a empresa provavelmente irá lhe proporcionar. Muitos provedores usam switches para distribuir o tráfego do roteador, pois é mais lucrativo colocar vários clientes conectados em uma porta do roteador do que usar uma porta para cada cliente. O Six Pack é uma configuração que utiliza dois roteadores, dois switches provedores de colocação e dois switches do cliente, onde o switch do cliente é ligado diretamente com o switch provedor. A redundância nos roteadores fica por conta

68 68 de protocolos como o VRRP. Para obter maiores informações sobre essa configuração, sugerimos a leitura de [2]. A Figura 17 ilustra o design do six pack. Figura 17: Design do six Pack Para evitar loops de transição (ilustrados na Figura 18), indica-se o bloqueio de uma das portas de alguma forma, de modo a prevenir que os múltiplos caminhos existentes estejam disponíveis para os switches. O STP é um protocolo que resolve isso automaticamente. Usando este protocolo, cada porta tem um custo associado, sendo o menor custo o preferido. Se o STP detecta vários caminhos, ele desliga todos exceto o que possui a maior prioridade, que no caso é o que está associado à porta de menor custo [2]. A Figura 19 mostra o STP em ação.

Balanceamento de carga: Conceitos básicos

Balanceamento de carga: Conceitos básicos Balanceamento de carga: Conceitos básicos Introdução A tecnologia de balanceamento de carga está viva e está bem; de fato, ela é a base sobre a qual operam os application delivery controller (ADCs). A

Leia mais

TCP/IP TCP UDP IP HTTP HTTPS FTP TFTP TELNET POP3 IMAP SMTP SNMP DHCP

TCP/IP TCP UDP IP HTTP HTTPS FTP TFTP TELNET POP3 IMAP SMTP SNMP DHCP TCP/IP TCP UDP IP HTTP HTTPS FTP TFTP TELNET POP3 IMAP SMTP SNMP DHCP HTTP (Hypertext Transfer Protocol ) Protocolo usado na Internet para transferir as páginas da WWW (WEB). HTTPS (HyperText Transfer

Leia mais

Redes. Pablo Rodriguez de Almeida Gross

Redes. Pablo Rodriguez de Almeida Gross Redes Pablo Rodriguez de Almeida Gross Conceitos A seguir serão vistos conceitos básicos relacionados a redes de computadores. O que é uma rede? Uma rede é um conjunto de computadores interligados permitindo

Leia mais

REDES DE COMPUTADORES Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com

REDES DE COMPUTADORES Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com - Aula Complementar - MODELO DE REFERÊNCIA OSI Este modelo se baseia em uma proposta desenvolvida pela ISO (International Standards Organization) como um primeiro passo em direção a padronização dos protocolos

Leia mais

Prof. Manuel A Rendón M

Prof. Manuel A Rendón M Prof. Manuel A Rendón M Tanenbaum Redes de Computadores Cap. 1 e 2 5ª. Edição Pearson Padronização de sistemas abertos à comunicação Modelo de Referência para Interconexão de Sistemas Abertos RM OSI Uma

Leia mais

REDES ESAF. leitejuniorbr@yahoo.com.br 1 Redes - ESAF

REDES ESAF. leitejuniorbr@yahoo.com.br 1 Redes - ESAF REDES ESAF 01 - (ESAF - Auditor-Fiscal da Previdência Social - AFPS - 2002) Um protocolo é um conjunto de regras e convenções precisamente definidas que possibilitam a comunicação através de uma rede.

Leia mais

TCP/IP TCP UDP IP HTTP HTTPS FTP TFTP TELNET POP3 IMAP SMTP SNMP DHCP

TCP/IP TCP UDP IP HTTP HTTPS FTP TFTP TELNET POP3 IMAP SMTP SNMP DHCP TCP/IP TCP UDP IP HTTP HTTPS FTP TFTP TELNET POP3 IMAP SMTP SNMP DHCP HTTP (Hypertext Transfer Protocol ) Protocolo usado na Internet para transferir as páginas da WWW (WEB). HTTPS (HyperText Transfer

Leia mais

Revisão. Karine Peralta karine.peralta@pucrs.br

Revisão. Karine Peralta karine.peralta@pucrs.br Revisão Karine Peralta Agenda Revisão Evolução Conceitos Básicos Modelos de Comunicação Cliente/Servidor Peer-to-peer Arquitetura em Camadas Modelo OSI Modelo TCP/IP Equipamentos Evolução... 50 60 1969-70

Leia mais

Universidade Federal do Acre. Centro de Ciências Exatas e Tecnológicas

Universidade Federal do Acre. Centro de Ciências Exatas e Tecnológicas Universidade Federal do Acre Centro de Ciências Exatas e Tecnológicas Universidade Federal do Acre Centro de Ciências Exatas e Tecnológicas Pós-graduação Lato Sensu em Desenvolvimento de Software e Infraestrutura

Leia mais

Cap 03 - Camada de Aplicação Internet (Kurose)

Cap 03 - Camada de Aplicação Internet (Kurose) Cap 03 - Camada de Aplicação Internet (Kurose) 1. Qual a diferença entre um Programa de computador e um Processo dentro do computador? R. Processo é um programa que está sendo executado em uma máquina/host,

Leia mais

REDES DE COMPUTADORES

REDES DE COMPUTADORES REDES DE COMPUTADORES 09/2013 Cap.3 Protocolo TCP e a Camada de Transporte 2 Esclarecimentos Esse material é de apoio para as aulas da disciplina e não substitui a leitura da bibliografia básica. Os professores

Leia mais

Professor(es): Fernando Pirkel. Descrição da(s) atividade(s):

Professor(es): Fernando Pirkel. Descrição da(s) atividade(s): Professor(es): Fernando Pirkel Descrição da(s) atividade(s): Definir as tecnologias de redes necessárias e adequadas para conexão e compartilhamento dos dados que fazem parte da automatização dos procedimentos

Leia mais

APOSTILA DE REDES DE COMPUTADORES PARTE - III

APOSTILA DE REDES DE COMPUTADORES PARTE - III APOSTILA DE REDES DE COMPUTADORES PARTE - III 1 REDE DE COMPUTADORES III 1. Introdução MODELO OSI ISO (International Organization for Standardization) foi uma das primeiras organizações a definir formalmente

Leia mais

Há dois tipos de configurações bidirecionais usados na comunicação em uma rede Ethernet:

Há dois tipos de configurações bidirecionais usados na comunicação em uma rede Ethernet: Comunicação em uma rede Ethernet A comunicação em uma rede local comutada ocorre de três formas: unicast, broadcast e multicast: -Unicast: Comunicação na qual um quadro é enviado de um host e endereçado

Leia mais

Curso: Sistemas de Informação Disciplina: Redes de Computadores Prof. Sergio Estrela Martins

Curso: Sistemas de Informação Disciplina: Redes de Computadores Prof. Sergio Estrela Martins Curso: Sistemas de Informação Disciplina: Redes de Computadores Prof. Sergio Estrela Martins Material de apoio 2 Esclarecimentos Esse material é de apoio para as aulas da disciplina e não substitui a leitura

Leia mais

TECNOLOGIA WEB INTERNET PROTOCOLOS

TECNOLOGIA WEB INTERNET PROTOCOLOS INTERNET PROTOCOLOS 1 INTERNET Rede mundial de computadores. Também conhecida por Nuvem ou Teia. Uma rede que permite a comunicação de redes distintas entre os computadores conectados. Rede WAN Sistema

Leia mais

Redes de Computadores IEEE 802.3

Redes de Computadores IEEE 802.3 Redes de Computadores Ano 2002 Profª. Vívian Bastos Dias Aula 8 IEEE 802.3 Ethernet Half-Duplex e Full-Duplex Full-duplex é um modo de operação opcional, permitindo a comunicação nos dois sentidos simultaneamente

Leia mais

REDES DE COMPUTADORES Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com.br

REDES DE COMPUTADORES Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com.br - Aula 2 - MODELO DE REFERÊNCIA TCP (RM TCP) 1. INTRODUÇÃO O modelo de referência TCP, foi muito usado pela rede ARPANET, e atualmente usado pela sua sucessora, a Internet Mundial. A ARPANET é de grande

Leia mais

Informática I. Aula 22. http://www.ic.uff.br/~bianca/informatica1/ Aula 22-03/07/06 1

Informática I. Aula 22. http://www.ic.uff.br/~bianca/informatica1/ Aula 22-03/07/06 1 Informática I Aula 22 http://www.ic.uff.br/~bianca/informatica1/ Aula 22-03/07/06 1 Critério de Correção do Trabalho 1 Organização: 2,0 O trabalho está bem organizado e tem uma coerência lógica. Termos

Leia mais

Redes de Computadores. Protocolos de comunicação: TCP, UDP

Redes de Computadores. Protocolos de comunicação: TCP, UDP Redes de Computadores Protocolos de comunicação: TCP, UDP Introdução ao TCP/IP Transmission Control Protocol/ Internet Protocol (TCP/IP) é um conjunto de protocolos de comunicação utilizados para a troca

Leia mais

Equipamentos de Rede. Prof. Sérgio Furgeri 1

Equipamentos de Rede. Prof. Sérgio Furgeri 1 Equipamentos de Rede Repetidor (Regenerador do sinal transmitido)* Mais usados nas topologias estrela e barramento Permite aumentar a extensão do cabo Atua na camada física da rede (modelo OSI) Não desempenha

Leia mais

A Camada de Rede. A Camada de Rede

A Camada de Rede. A Camada de Rede Revisão Parte 5 2011 Modelo de Referência TCP/IP Camada de Aplicação Camada de Transporte Camada de Rede Camada de Enlace de Dados Camada de Física Funções Principais 1. Prestar serviços à Camada de Transporte.

Leia mais

Redes de Computadores

Redes de Computadores Redes de Computadores Capítulo 1 Gustavo Reis gustavo.reis@ifsudestemg.edu.br - O que é a Internet? - Milhões de elementos de computação interligados: hospedeiros = sistemas finais - Executando aplicações

Leia mais

TRANSMISSÃO DE DADOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com

TRANSMISSÃO DE DADOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com - Aula 5-1. A CAMADA DE TRANSPORTE Parte 1 Responsável pela movimentação de dados, de forma eficiente e confiável, entre processos em execução nos equipamentos conectados a uma rede de computadores, independentemente

Leia mais

1 TCI/IP... 3 1.1 MODELO TCP/IP... 3 1.1.1 Camada de Aplicação... 4

1 TCI/IP... 3 1.1 MODELO TCP/IP... 3 1.1.1 Camada de Aplicação... 4 TCP/IP Brito INDICE 1 TCI/IP... 3 1.1 MODELO TCP/IP... 3 1.1.1 Camada de Aplicação... 4 1.1.1.1 Camada de Transporte... 4 1.1.1.2 TCP (Transmission Control Protocol)... 4 1.1.1.3 UDP (User Datagram Protocol)...

Leia mais

Componentes de um sistema de firewall - I

Componentes de um sistema de firewall - I Componentes de um sistema de firewall - I O que são Firewalls? Os firewalls são sistemas de segurança que podem ser baseados em: um único elemento de hardware; um único elemento de software instalado num

Leia mais

REDES DE COMPUTADORES Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com.br

REDES DE COMPUTADORES Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com.br - Aula Complementar - EQUIPAMENTOS DE REDE 1. Repetidor (Regenerador do sinal transmitido) É mais usado nas topologias estrela e barramento. Permite aumentar a extensão do cabo e atua na camada física

Leia mais

FACSENAC. Versão:1.5. Identificador do documento: Projeto Lógico de Redes. Versão do Template Utilizada na Confecção: 1.0. Histórico de revisões

FACSENAC. Versão:1.5. Identificador do documento: Projeto Lógico de Redes. Versão do Template Utilizada na Confecção: 1.0. Histórico de revisões FACSENAC ECOFROTA Documento de Projeto Lógico de Rede Versão:1.5 Data: 21/11/2013 Identificador do documento: Projeto Lógico de Redes Versão do Template Utilizada na Confecção: 1.0 Localização: FacSenac

Leia mais

Prof. Luiz Fernando Bittencourt MC714. Sistemas Distribuídos 2 semestre, 2013

Prof. Luiz Fernando Bittencourt MC714. Sistemas Distribuídos 2 semestre, 2013 MC714 Sistemas Distribuídos 2 semestre, 2013 Virtualização - motivação Consolidação de servidores. Consolidação de aplicações. Sandboxing. Múltiplos ambientes de execução. Hardware virtual. Executar múltiplos

Leia mais

A Camada de Transporte

A Camada de Transporte A Camada de Transporte Romildo Martins Bezerra CEFET/BA s de Computadores II Funções da Camada de Transporte... 2 Controle de conexão... 2 Fragmentação... 2 Endereçamento... 2 Confiabilidade... 2 TCP (Transmission

Leia mais

Prof. Luís Rodolfo. Unidade III REDES DE COMPUTADORES E TELECOMUNICAÇÃO

Prof. Luís Rodolfo. Unidade III REDES DE COMPUTADORES E TELECOMUNICAÇÃO Prof. Luís Rodolfo Unidade III REDES DE COMPUTADORES E TELECOMUNICAÇÃO Redes de computadores e telecomunicação Objetivos da Unidade III Apresentar as camadas de Transporte (Nível 4) e Rede (Nível 3) do

Leia mais

Arquiteturas de Rede. Prof. Leonardo Barreto Campos

Arquiteturas de Rede. Prof. Leonardo Barreto Campos Arquiteturas de Rede 1 Sumário Introdução; Modelo de Referência OSI; Modelo de Referência TCP/IP; Bibliografia. 2/30 Introdução Já percebemos que as Redes de Computadores são bastante complexas. Elas possuem

Leia mais

Redes de Computadores LFG TI

Redes de Computadores LFG TI Redes de Computadores LFG TI Prof. Bruno Guilhen Camada de Aplicação Fundamentos Fundamentos Trata os detalhes específicos de cada tipo de aplicação. Mensagens trocadas por cada tipo de aplicação definem

Leia mais

Rede de Computadores

Rede de Computadores Escola de Ciências e Tecnologia UFRN Rede de Computadores Prof. Aquiles Burlamaqui Nélio Cacho Luiz Eduardo Eduardo Aranha ECT1103 INFORMÁTICA FUNDAMENTAL Manter o telefone celular sempre desligado/silencioso

Leia mais

Rede d s d e d Com o pu p t u ado d r o es Conceitos Básicos M d o e d los o de d Re R de d s:

Rede d s d e d Com o pu p t u ado d r o es Conceitos Básicos M d o e d los o de d Re R de d s: Tecnologia em Redes de Computadores Redes de Computadores Professor: André Sobral e-mail: alsobral@gmail.com Conceitos Básicos Modelos de Redes: O O conceito de camada é utilizado para descrever como ocorre

Leia mais

APLICAÇÃO REDE APLICAÇÃO APRESENTAÇÃO SESSÃO TRANSPORTE REDE LINK DE DADOS FÍSICA 1/5 PROTOCOLOS DE REDE

APLICAÇÃO REDE APLICAÇÃO APRESENTAÇÃO SESSÃO TRANSPORTE REDE LINK DE DADOS FÍSICA 1/5 PROTOCOLOS DE REDE 1/5 PROTOCOLOS DE O Modelo OSI O OSI é um modelo usado para entender como os protocolos de rede funcionam. Para facilitar a interconexão de sistemas de computadores, a ISO (International Standards Organization)

Leia mais

Sistemas Distribuídos Capítulos 3 e 4 - Aula 4

Sistemas Distribuídos Capítulos 3 e 4 - Aula 4 Sistemas Distribuídos Capítulos 3 e 4 - Aula 4 Aula passada Threads Threads em SDs Processos Clientes Processos Servidores Aula de hoje Clusters de Servidores Migração de Código Comunicação (Cap. 4) Fundamentos

Leia mais

Fesp - Tópicos Avançados II - Switching

Fesp - Tópicos Avançados II - Switching SWITCHING Quando o ethernet foi originalmente desenhado, os computadores eram lentos e as redes eram pequenas. Portanto, uma rede rodando a 10 mbps era mais que suficiente para qualquer aplicação. Atualmente,

Leia mais

Capítulo 11 - Camada de Transporte TCP/IP e de Aplicação. Associação dos Instrutores NetAcademy - Julho de 2007 - Página

Capítulo 11 - Camada de Transporte TCP/IP e de Aplicação. Associação dos Instrutores NetAcademy - Julho de 2007 - Página Capítulo 11 - Camada de Transporte TCP/IP e de Aplicação 1 Introdução à Camada de Transporte Camada de Transporte: transporta e regula o fluxo de informações da origem até o destino, de forma confiável.

Leia mais

INTERNET = ARQUITETURA TCP/IP

INTERNET = ARQUITETURA TCP/IP Arquitetura TCP/IP Arquitetura TCP/IP INTERNET = ARQUITETURA TCP/IP gatewa y internet internet REDE REDE REDE REDE Arquitetura TCP/IP (Resumo) É útil conhecer os dois modelos de rede TCP/IP e OSI. Cada

Leia mais

Prof. Samuel Henrique Bucke Brito

Prof. Samuel Henrique Bucke Brito - Switch na Camada 2: Comutação www.labcisco.com.br ::: shbbrito@labcisco.com.br Prof. Samuel Henrique Bucke Brito Introdução A conexão entre duas portas de entrada e saída, bem como a transferência de

Leia mais

Prof. Luís Rodolfo. Unidade II REDES DE COMPUTADORES E TELECOMUNICAÇÃO

Prof. Luís Rodolfo. Unidade II REDES DE COMPUTADORES E TELECOMUNICAÇÃO Prof. Luís Rodolfo Unidade II REDES DE COMPUTADORES E TELECOMUNICAÇÃO Redes de computadores e telecomunicação Objetivos da Unidade II Estudar, em detalhes, as camadas: Aplicação Apresentação Sessão Redes

Leia mais

Rede de Computadores II

Rede de Computadores II Slide 1 Técnicas para se alcançar boa qualidade de serviço Reserva de recursos A capacidade de regular a forma do tráfego oferecido é um bom início para garantir a qualidade de serviço. Mas Dispersar os

Leia mais

Figura 1 - Comparação entre as camadas do Modelo OSI e doieee. A figura seguinte mostra o formato do frame 802.3:

Figura 1 - Comparação entre as camadas do Modelo OSI e doieee. A figura seguinte mostra o formato do frame 802.3: Introdução Os padrões para rede local foram desenvolvidos pelo comitê IEEE 802 e foram adotados por todas as organizações que trabalham com especificações para redes locais. Os padrões para os níveis físico

Leia mais

Redes de Computadores II

Redes de Computadores II Redes de Computadores II INTERNET Protocolos de Aplicação Intranet Prof: Ricardo Luís R. Peres As aplicações na arquitetura Internet, são implementadas de forma independente, ou seja, não existe um padrão

Leia mais

Interconexão redes locais (LANs)

Interconexão redes locais (LANs) Interconexão redes locais (LANs) Descrever o método de funcionamento dos dispositivos bridge e switch, desenvolver os conceitos básicos de LANs intermediárias, do uso do protocolo STP e VLANs. Com o método

Leia mais

Questionário de RC Nota3

Questionário de RC Nota3 Questionário de RC Nota3 Entrega: Individual e escrita à mão. Data de entrega: 30/10. Em todas as questões deverão constar o desenvolvimento da sua resposta, caso contrário a questão será desconsiderada.

Leia mais

Professor: Gládston Duarte

Professor: Gládston Duarte Professor: Gládston Duarte INFRAESTRUTURA FÍSICA DE REDES DE COMPUTADORES Computador Instalação e configuração de Sistemas Operacionais Windows e Linux Arquiteturas físicas e lógicas de redes de computadores

Leia mais

Capítulo 8 - Comutação Ethernet. Associação dos Instrutores NetAcademy - agosto de 2007 - Página

Capítulo 8 - Comutação Ethernet. Associação dos Instrutores NetAcademy - agosto de 2007 - Página Capítulo 8 - Comutação Ethernet 1 Bridging da Camada 2 CCNA1_8_1_1_pt[1].swf Ao acrescentarmos mais hosts em um segmento, aumentamos o domínio de colisão e o número de retransmissões. Uma solução é dividir

Leia mais

1 Redes de Computadores - TCP/IP Luiz Arthur

1 Redes de Computadores - TCP/IP Luiz Arthur 1 Redes de Computadores - TCP/IP Luiz Arthur TCP/IP O protocolo TCP/IP atualmente é o protocolo mais usado no mundo. Isso se deve a popularização da Internet, a rede mundial de computadores, já que esse

Leia mais

CÓDIGO DA VAGA: TP08 QUESTÕES DE MÚLTIPLAS ESCOLHAS

CÓDIGO DA VAGA: TP08 QUESTÕES DE MÚLTIPLAS ESCOLHAS QUESTÕES DE MÚLTIPLAS ESCOLHAS 1) Em relação à manutenção corretiva pode- se afirmar que : a) Constitui a forma mais barata de manutenção do ponto de vista total do sistema. b) Aumenta a vida útil dos

Leia mais

SERVIÇO NACIONAL DE APRENDIZAGEM COMERCIAL. Curso Técnico em Informática

SERVIÇO NACIONAL DE APRENDIZAGEM COMERCIAL. Curso Técnico em Informática SERVIÇO NACIONAL DE APRENDIZAGEM COMERCIAL Curso Técnico em Informática Estrutura de Endereçamento IP e Mascara de Subrede Endereçamento IP e Classes Autoridade para Atribuição de Números da Internet http://www.iana.org/

Leia mais

AGENTE PROFISSIONAL - ANALISTA DE REDES

AGENTE PROFISSIONAL - ANALISTA DE REDES Página 1 CONHECIMENTO ESPECÍFICO 01. Suponha um usuário acessando a Internet por meio de um enlace de 256K bps. O tempo mínimo necessário para transferir um arquivo de 1M byte é da ordem de A) 4 segundos.

Leia mais

Roteador de Perímetro DMZ Hosts de Segurança Gateway de Aplicativo

Roteador de Perímetro DMZ Hosts de Segurança Gateway de Aplicativo Roteador de Perímetro DMZ Hosts de Segurança Gateway de Aplicativo Conectando-se à Internet com Segurança Soluções mais simples. Sistemas de Segurança de Perímetro Zona Desmilitarizada (DMZ) Roteador de

Leia mais

Protocolo. O que é um protocolo? Humano: que horas são? eu tenho uma pergunta

Protocolo. O que é um protocolo? Humano: que horas são? eu tenho uma pergunta Protocolo O que é um protocolo? Humano: que horas são? eu tenho uma pergunta Máquina: Definem os formatos, a ordem das mensagens enviadas e recebidas pelas entidades de rede e as ações a serem tomadas

Leia mais

Modelo de referência OSI. Modelo TCP/IP e Internet de cinco camadas

Modelo de referência OSI. Modelo TCP/IP e Internet de cinco camadas Modelo de referência OSI. Modelo TCP/IP e Internet de cinco camadas Conhecer os modelo OSI, e TCP/IP de cinco camadas. É importante ter um padrão para a interoperabilidade entre os sistemas para não ficarmos

Leia mais

PROJETO DE REDES www.projetoderedes.com.br

PROJETO DE REDES www.projetoderedes.com.br PROJETO DE REDES www.projetoderedes.com.br Curso de Tecnologia em Redes de Computadores Disciplina: Redes I Fundamentos - 1º Período Professor: José Maurício S. Pinheiro AULA 6: Switching Uma rede corporativa

Leia mais

www.projetoderedes.com.br Gestão da Segurança da Informação Professor: Maurício AULA 09 Firewall

www.projetoderedes.com.br Gestão da Segurança da Informação Professor: Maurício AULA 09 Firewall www.projetoderedes.com.br Gestão da Segurança da Informação Professor: Maurício O que é Firewall Um Firewall é um sistema para controlar o aceso às redes de computadores, desenvolvido para evitar acessos

Leia mais

Capítulo 6 - Protocolos e Roteamento

Capítulo 6 - Protocolos e Roteamento Capítulo 6 - Protocolos e Roteamento Prof. Othon Marcelo Nunes Batista Mestre em Informática 1 de 53 Roteiro (1 / 2) O Que São Protocolos? O TCP/IP Protocolos de Aplicação Protocolos de Transporte Protocolos

Leia mais

Senha Admin. Nessa tela, você poderá trocar a senha do administrador para obter acesso ao NSControl. Inicialização

Senha Admin. Nessa tela, você poderá trocar a senha do administrador para obter acesso ao NSControl. Inicialização Manual do Nscontrol Principal Senha Admin Nessa tela, você poderá trocar a senha do administrador para obter acesso ao NSControl. Inicialização Aqui, você poderá selecionar quais programas você quer que

Leia mais

Segurança de redes com Linux. Everson Scherrer Borges Willen Borges de Deus

Segurança de redes com Linux. Everson Scherrer Borges Willen Borges de Deus Segurança de redes com Linux Everson Scherrer Borges Willen Borges de Deus Segurança de Redes com Linux Protocolo TCP/UDP Portas Endereçamento IP Firewall Objetivos Firewall Tipos de Firewall Iptables

Leia mais

Arquitetura e Protocolos de Rede TCP/IP. Modelo Arquitetural

Arquitetura e Protocolos de Rede TCP/IP. Modelo Arquitetural Arquitetura e Protocolos de Rede TCP/IP Modelo Arquitetural Motivação Realidade Atual Ampla adoção das diversas tecnologias de redes de computadores Evolução das tecnologias de comunicação Redução dos

Leia mais

Modelo OSI. Prof. Alexandre Beletti Ferreira. Introdução

Modelo OSI. Prof. Alexandre Beletti Ferreira. Introdução Modelo OSI Prof. Alexandre Beletti Ferreira Introdução Crescimento das redes de computadores Muitas redes distintas International Organization for Standardization (ISO) Em 1984 surge o modelo OSI Padrões

Leia mais

Aula 03 Regras de Segmentação e Switches

Aula 03 Regras de Segmentação e Switches Disciplina: Dispositivos de Rede II Professor: Jéferson Mendonça de Limas 4º Semestre Aula 03 Regras de Segmentação e Switches 2014/1 19/08/14 1 2de 38 Domínio de Colisão Os domínios de colisão são os

Leia mais

Introdução as Redes de Computadores Transparências baseadas no livro Computer Networking: A Top-Down Approach Featuring the Internet James Kurose e Keith Ross Redes de Computadores A. Tanenbaum e Prof.

Leia mais

Redes de Computadores Aula 3

Redes de Computadores Aula 3 Redes de Computadores Aula 3 Aula passada Comutação: circuito x pacotes Retardos e perdas Aula de hoje Protocolo em camadas Aplicações C/S x P2P Web Estruturando a Rede Como organizar os serviços de uma

Leia mais

REDES DE COMPUTADORES

REDES DE COMPUTADORES Conteúdo 1 Topologia de Redes 5 Escalas 5 Topologia em LAN s e MAN s 6 Topologia em WAN s 6 2 Meio Físico 7 Cabo Coaxial 7 Par Trançado 7 Fibra Óptica 7 Conectores 8 Conector RJ45 ( Par trançado ) 9 Conectores

Leia mais

Sistemas Distribuídos. Professora: Ana Paula Couto DCC 064

Sistemas Distribuídos. Professora: Ana Paula Couto DCC 064 Sistemas Distribuídos Professora: Ana Paula Couto DCC 064 Sistemas Distribuídos Basedos na Web Capítulo 12 Agenda Arquitetura Processos Comunicação Nomeação Sincronização Consistência e Replicação Introdução

Leia mais

FACULDADE PITÁGORAS. Prof. Ms. Carlos José Giudice dos Santos cpgcarlos@yahoo.com.br www.oficinadapesquisa.com.br

FACULDADE PITÁGORAS. Prof. Ms. Carlos José Giudice dos Santos cpgcarlos@yahoo.com.br www.oficinadapesquisa.com.br FACULDADE PITÁGORAS DISCIPLINA FUNDAMENTOS DE REDES REDES DE COMPUTADORES Prof. Ms. Carlos José Giudice dos Santos cpgcarlos@yahoo.com.br www.oficinadapesquisa.com.br Material elaborado com base nas apresentações

Leia mais

Capítulo 5 Noções sobre TCP/IP

Capítulo 5 Noções sobre TCP/IP Capítulo 5 Noções sobre TCP/IP Endereços IP Arquitetura TCP/IP DHCP Redes classe A, B e C Protocolos TCP/IP Estudos complementares 3 Estudos complementares Consulte os capítulos 5 e 12 do livro: Capítulo

Leia mais

Wireshark. Captura de Protocolos da camada de aplicação. Maicon de Vargas Pereira

Wireshark. Captura de Protocolos da camada de aplicação. Maicon de Vargas Pereira Wireshark Captura de Protocolos da camada de aplicação Maicon de Vargas Pereira Camada de Aplicação Introdução HTTP (Hypertext Transfer Protocol) 2 Introdução Camada de Aplicação Suporta os protocolos

Leia mais

Segurança da Informação

Segurança da Informação INF-108 Segurança da Informação Firewalls Prof. João Henrique Kleinschmidt Middleboxes RFC 3234: Middleboxes: Taxonomy and Issues Middlebox Dispositivo (box) intermediário que está no meio do caminho dos

Leia mais

SuRFE Sub-Rede de Filtragens Específicas

SuRFE Sub-Rede de Filtragens Específicas SuRFE Sub-Rede de Filtragens Específicas Ricardo Kléber Martins Galvão, PPGEE, UFRN Sergio Vianna Fialho, PPGEE, UFRN Resumo O aumento do número de ataques a redes de corporativas tem sido combatido com

Leia mais

SISTEMAS OPERACIONAIS LIVRES SERVICOS DE REDE LOCAL. Professor Carlos Muniz

SISTEMAS OPERACIONAIS LIVRES SERVICOS DE REDE LOCAL. Professor Carlos Muniz SISTEMAS OPERACIONAIS LIVRES SERVICOS DE REDE LOCAL Na internet, cada computador conectado à rede tem um endereço IP. Todos os endereços IPv4 possuem 32 bits. Os endereços IP são atribuídos à interface

Leia mais

Acesso Ethernet com Hubs

Acesso Ethernet com Hubs Acesso Ethernet com Hubs O dado é enviado de um por vez Cada nó trafega a 10 Mbps Acesso Ethernet com Bridges Bridges são mais inteligentes que os hubs Bridges reuni os quadros entre dois segmentos de

Leia mais

AULA 01 INTRODUÇÃO. Eduardo Camargo de Siqueira REDES DE COMPUTADORES Engenharia de Computação

AULA 01 INTRODUÇÃO. Eduardo Camargo de Siqueira REDES DE COMPUTADORES Engenharia de Computação AULA 01 INTRODUÇÃO Eduardo Camargo de Siqueira REDES DE COMPUTADORES Engenharia de Computação CONCEITO Dois ou mais computadores conectados entre si permitindo troca de informações, compartilhamento de

Leia mais

MÓDULO 7 Modelo OSI. 7.1 Serviços Versus Protocolos

MÓDULO 7 Modelo OSI. 7.1 Serviços Versus Protocolos MÓDULO 7 Modelo OSI A maioria das redes são organizadas como pilhas ou níveis de camadas, umas sobre as outras, sendo feito com o intuito de reduzir a complexidade do projeto da rede. O objetivo de cada

Leia mais

02/03/2014. Conteúdo deste módulo. Curso de Preparatório para Concursos Públicos. Tecnologia da Informação REDES. Conceitos Iniciais

02/03/2014. Conteúdo deste módulo. Curso de Preparatório para Concursos Públicos. Tecnologia da Informação REDES. Conceitos Iniciais Curso de Preparatório para Concursos Públicos Tecnologia da Informação REDES Conceitos Iniciais; Classificações das Redes; Conteúdo deste módulo Equipamentos usados nas Redes; Modelos de Camadas; Protocolos

Leia mais

Camadas da Arquitetura TCP/IP

Camadas da Arquitetura TCP/IP Camadas da Arquitetura TCP/IP A arquitetura TCP/IP divide o processo de comunicação em quatro camadas. Em cada camada atuam determinados protocolos que interagem com os protocolos das outas camadas desta

Leia mais

Redes de Computadores. Trabalho de Laboratório Nº7

Redes de Computadores. Trabalho de Laboratório Nº7 Redes de Computadores Curso de Eng. Informática Curso de Eng. de Electrónica e Computadores Trabalho de Laboratório Nº7 Análise do tráfego na rede Protocolos TCP e UDP Objectivo Usar o Ethereal para visualizar

Leia mais

Kemp LoadMaster Guia Prático

Kemp LoadMaster Guia Prático Kemp LoadMaster Guia Prático 2014 v1.1 Renato Pesca renato.pesca@alog.com.br 1. Topologias One Armed Balancer Figura 1: Topologia single-armed. Esta topologia mostra que as máquinas reais fazem parte da

Leia mais

Aula 6 Modelo de Divisão em Camadas TCP/IP

Aula 6 Modelo de Divisão em Camadas TCP/IP Aula 6 Modelo de Divisão em Camadas TCP/IP Camada Conceitual APLICATIVO TRANSPORTE INTER-REDE INTERFACE DE REDE FÍSICA Unidade de Dados do Protocolo - PDU Mensagem Segmento Datagrama /Pacote Quadro 01010101010100000011110

Leia mais

CONSULTA PÚBLICA Nº 003/2015

CONSULTA PÚBLICA Nº 003/2015 CONSULTA PÚBLICA Nº 003/2015 TI APPLICATION DELIVERY CONTROLLER ESCLARECIMENTOS AOS QUESTIONAMENTOS APRESENTADOS PELAS EMPRESAS INTERESSADAS País: BRASIL Nome do Projeto: PLANO DE DESENVOLVIMENTO DA ADMINISTRAÇÃO

Leia mais

REDES DE COMPUTADORES

REDES DE COMPUTADORES REDES DE COMPUTADORES O QUE É PROTOCOLO? Na comunicação de dados e na interligação em rede, protocolo é um padrão que especifica o formato de dados e as regras a serem seguidas. Sem protocolos, uma rede

Leia mais

SISGEP SISTEMA GERENCIADOR PEDAGÓGICO

SISGEP SISTEMA GERENCIADOR PEDAGÓGICO FACSENAC SISTEMA GERENCIADOR PEDAGÓGICO Projeto Lógico de Rede Versão: 1.2 Data: 25/11/2011 Identificador do documento: Documento de Visão V. 1.7 Histórico de revisões Versão Data Autor Descrição 1.0 10/10/2011

Leia mais

Interconexão de Redes Parte 2. Prof. Dr. S. Motoyama

Interconexão de Redes Parte 2. Prof. Dr. S. Motoyama Interconexão de Redes Parte 2 Prof. Dr. S. Motoyama 1 Software IP nos hosts finais O software IP nos hosts finais consiste principalmente dos seguintes módulos: Camada Aplicação; DNS (Domain name system)

Leia mais

Capítulo 9 - Conjunto de Protocolos TCP/IP e Endereçamento. Associação dos Instrutores NetAcademy - Julho de 2007 - Página

Capítulo 9 - Conjunto de Protocolos TCP/IP e Endereçamento. Associação dos Instrutores NetAcademy - Julho de 2007 - Página Capítulo 9 - Conjunto de Protocolos TCP/IP e Endereçamento IP 1 História e Futuro do TCP/IP O modelo de referência TCP/IP foi desenvolvido pelo Departamento de Defesa dos Estados Unidos (DoD). O DoD exigia

Leia mais

Interconexão de redes locais. Repetidores. Pontes (Bridges) Hubs. Pontes (Bridges) Pontes (Bridges) Existência de diferentes padrões de rede

Interconexão de redes locais. Repetidores. Pontes (Bridges) Hubs. Pontes (Bridges) Pontes (Bridges) Existência de diferentes padrões de rede Interconexão de redes locais Existência de diferentes padrões de rede necessidade de conectá-los Interconexão pode ocorrer em diferentes âmbitos LAN-LAN LAN: gerente de um determinado setor de uma empresa

Leia mais

Comunicando através da rede

Comunicando através da rede Comunicando através da rede Fundamentos de Rede Capítulo 2 1 Estrutura de Rede Elementos de comunicação Três elementos comuns de comunicação origem da mensagem o canal destino da mensagem Podemos definir

Leia mais

Camada de Enlace de Dados - Apêndice. Prof. Leonardo Barreto Campos 1

Camada de Enlace de Dados - Apêndice. Prof. Leonardo Barreto Campos 1 Camada de Enlace de Dados - Apêndice Prof. Leonardo Barreto Campos 1 Sumário Endereço MAC; ARP Address Resolution Protocol; DHCP Dynamic Host Configuration Protocol; Ethernet Estrutura do quadro Ethernet;

Leia mais

Interligação de Redes

Interligação de Redes REDES II HETEROGENEO E CONVERGENTE Interligação de Redes rffelix70@yahoo.com.br Conceito Redes de ComputadoresII Interligação de Redes Quando estações de origem e destino encontram-se em redes diferentes,

Leia mais

ALGUNS CONCEITOS. Rede de Computadores

ALGUNS CONCEITOS. Rede de Computadores ALGUNS CONCEITOS Rede de Computadores Prof. Airton Ribeiro de Sousa E-mail: airton.ribeiros@gmail.com 1 OBJETIVO 1. Compartilhar recursos computacionais disponíveis sem considerar a localização física

Leia mais

CCNA 2 Conceitos Básicos de Roteadores e Roteamento

CCNA 2 Conceitos Básicos de Roteadores e Roteamento CCNA 2 Conceitos Básicos de Roteadores e Roteamento Capítulo 10 - TCP/IP Intermediário 1 Objetivos do Capítulo Descrever o TCP e sua função; Descrever a sincronização e o controle de fluxo do TCP; Descrever

Leia mais

PROAPPS Security Data Sheet Professional Appliance / Apresentação

PROAPPS Security Data Sheet Professional Appliance / Apresentação O ProApps Security O ProApps Security é um componente da suíte de Professional Appliance focada na segurança de sua empresa ou rede. A solução pode atuar como gateway e como solução IDS/IPS no ambiente.

Leia mais

Roteamento e Comutação

Roteamento e Comutação Roteamento e Comutação Uma estação é considerada parte de uma LAN se pertencer fisicamente a ela. O critério de participação é geográfico. Quando precisamos de uma conexão virtual entre duas estações que

Leia mais

FACULDADE PITÁGORAS. Prof. Ms. Carlos José Giudice dos Santos cpgcarlos@yahoo.com.br www.oficinadapesquisa.com.br

FACULDADE PITÁGORAS. Prof. Ms. Carlos José Giudice dos Santos cpgcarlos@yahoo.com.br www.oficinadapesquisa.com.br FACULDADE PITÁGORAS DISCIPLINA FUNDAMENTOS DE REDES REDES DE COMPUTADORES Prof. Ms. Carlos José Giudice dos Santos cpgcarlos@yahoo.com.br www.oficinadapesquisa.com.br Material elaborado com base nas apresentações

Leia mais

Arquitetura e Protocolos de Rede TCP/IP. Modelo Arquitetural

Arquitetura e Protocolos de Rede TCP/IP. Modelo Arquitetural Arquitetura e Protocolos de Rede TCP/IP Modelo Arquitetural Agenda Motivação Objetivos Histórico Família de protocolos TCP/IP Modelo de Interconexão Arquitetura em camadas Arquitetura TCP/IP Encapsulamento

Leia mais

Administração de Sistemas de Informação I

Administração de Sistemas de Informação I Administração de Sistemas de Informação I Prof. Farinha Aula 03 Telecomunicações Sistemas de Telecomunicações 1 Sistemas de Telecomunicações Consiste de Hardware e Software transmitindo informação (texto,

Leia mais

Redes de Dados. Aula 1. Introdução. Eytan Mediano

Redes de Dados. Aula 1. Introdução. Eytan Mediano Redes de Dados Aula 1 Introdução Eytan Mediano 1 6.263: Redes de Dados Aspectos fundamentais do projeto de redes e análise: Arquitetura Camadas Projeto da Topologia Protocolos Pt - a Pt (Pt= Ponto) Acesso

Leia mais

REDES DE COMPUTADORES

REDES DE COMPUTADORES CURSO TÉCNICO DE INFORMÁTICA Módulo A REDES DE COMPUTADORES Protocolos de Rede FALANDO A MESMA LÍNGUA Um protocolo pode ser comparado a um idioma, onde uma máquina precisa entender o idioma de outra máquina

Leia mais