Controle de Tráfego em Provedores de Serviço de Internet
|
|
- Amanda Macedo Ferretti
- 8 Há anos
- Visualizações:
Transcrição
1 Controle de Tráfego em Provedores de Serviço de Internet Carlos Alexandre Zimmermann Escola Politécnica da Universidade de São Paulo Tereza Cristina M. B. Carvalho Lab. Arquitetura e Redes de Computadores Escola Politécnica da Universidade de São Paulo carvalho@larc.usp.br Resumo Os Provedores de Serviço de Internet estão sujeitos a volatilidade da demanda e a incerteza da capacidade de resposta. Estas características da carga e do sistema tornam difícil a manutenção da qualidade de serviço em sistemas de alta demanda. Este trabalho apresenta uma proposta de controle automático do fluxo de dados para aumento da eficiência, diminuição dos tempos de resposta e economia de recursos em sites com resposta dinâmica. 1. Introdução A manutenção de qualidade de serviço em Provedores de Serviço de Internet (ISP - Internet Service Provider) é um desafio aos profissionais da área de infraestrutura de tecnologia. Com o aumento da demanda é importante que os sistemas sejam cada vez mais eficientes possibilitando qualidade de serviço a baixo custo. Este estudo foi motivado pela dificuldade encontrada na análise e controle de desempenho de ISP s. Em especial para os sistemas que possuem necessidades críticas de desempenho. O trabalho está organizado da seguinte forma. No próximo capítulo caracterizamos o problema de desempenho em ISP s. No capítulo 3, são apresentados os fundamentos para a solução do problema descrito no capítulo anterior. No capítulo 4 descrevemos a solução baseada no controle tráfego. O capítulo 5 é dedicado à experimentos e a discussão dos resultados. 2. Desempenho em Provedores de Serviço 2.1. Contexto Apesar da evolução continua da tecnologia dos sistemas computacionais distribuídos, muitos dos protocolos utilizados na internet continuam os mesmos do seu início, basicamente HTTP sobre TCP/IP. O protocolo HTTP, utilizado na comunicação entre browser e ISP, inicialmente transportava páginas HTML estáticas. Mas com o aumento da demanda e surgimento de novas necessidades acabou sendo empregado na distribuição não apenas de documentos, mas também de aplicações. Percebe-se que a construção de páginas dinâmicas aumentou a complexidade do ISP. E, portanto, aumentou a complexidade da análise e do controle de desempenho do sistema. Existem algumas tentativas de análise e controle com elementos entre os servidores da rede interna. No entanto, essas soluções não são genéricas, uma vez que os servidores de aplicações e as bases de dados não possuem padrão definido. Cada sistema propõe a sua solução, que pode ser uma mistura de tecnologias, inviabilizando a análise de forma genérica. Este estudo propõe uma solução genérica, para análise e controle das métricas de desempenho do ISP, através dos Servidores HTTP. Estes servidores estão presentes em qualquer site, os mais comuns: Apache Server (67% do mercado [18]), Microsoft IIS (21%) e Netscape Enterprise (3%). Estes servidores possuem funcionalidades e interface similar além de comunicação padronizada. Nestes sistemas verifica-se alternância de momentos de sobrecarga e de abundância de recursos. Portanto, existe campo para a otimização dos processos envolvidos. O desafio está em analisar e controlar sistemas com variação abruptas na oferta e demanda de serviço. Estas variações ocorrem devido a diversos fatores do sistema e da carga que são de difícil modelagem Servidores HTTP O Servidor HTTP (SH) é a porta de entrada de um ISP. As requisições são tratadas de acordo com o tipo de documento. Documentos estáticos, como páginas HTML e imagens, são simplesmente recuperados do disco rígido e enviados ao requisitante. Caso seja uma chamada a um serviço a página deverá ser construída de forma dinâmica. Existem inúmeras formas de tratamento do conteúdo dinâmico. Em sistemas de alto desempenho, esta tarefa é repassada a servidores de aplicações e bases de dados dedicados. Independentemente de como estes servidores são requisitados, há uma latência. Este tempo de reposta é a
2 métrica que utilizaremos para determina a qualidade de serviço do ISP. Um dos problemas em relação à análise de desempenho deste tipo de sistema é a dificuldade em se determinar, quantitativamente e qualitativamente, os parâmetros que afetam o desempenho do sistema. Sem esta análise fica difícil determinar de forma criteriosa a quantidade de recursos necessários para a obtenção de um determinado tempo de resposta. Observa-se, no entanto, que a definição do parâmetro a ser controlado é outro problema. Nos trabalhos estudados os parâmetros de controle e as técnicas de monitoração e atuação não são genéricos. Resolvendose o problema de apenas um determinado tipo de SH em determinas plataformas. Os sistemas também carecem de controles globais. Ao invés disso o que existe são controles atuando individualmente em cada camada de rede. O protocolo TCP, por exemplo, apesar de possuir controle de fluxo e congestionamento não possui inteligência global. Ou seja, um controle que a partir do conhecimento do comportamento do sistema tente evitar o congestionamento. Desta forma os roteadores precisam de mais memória para seus buffers e os enlaces físicos sofrem sobrecargas que poderiam ser minimizadas. Há, portanto, um desbalanceamento entre a capacidade de oferta do sistema e da rede com a demanda gerada pelos usuários. Em sistemas de alta demanda esta falta de equilíbrio causa significativo desperdício de recursos. O ponto de equilíbrio dificilmente será alcançado, mas pode ser perseguido se o sistema for controlado com inteligência global Trabalhos Relacionados A teoria de filas desenvolveu um ferramental matemático muito poderoso para a análise de processos distribuídos [1]. Contudo a maioria dos conceitos parte do principio que os processos e a carga são Markovianos. Ou seja, tempos de chegada com distribuição Poisson e tempos de serviço com distribuição Exponencial. Estas características de filas M/M/1 não ocorrem em sistemas de internet. Estes são mais parecidos com sistemas G/G/n, sem distribuição específica, que limitam o estudo de forma analítica e forçam a simulação e a prototipação [2-4]. Alguns trabalhos recentes fixam o tempo de resposta e controlam a alocação de recursos para o SH. Em [6,7] são propostos modelos preditores com malha de controle feedfoward. Nestes trabalhos, foram encontradas dificuldades na determinação das taxas de chegada e de serviço que podem variar abruptamente. Mas a principal limitação é a forma de controle dos recursos de um servidor. No caso deles, o teste foi realizado em um servidor Apache, controlando-se a quota de processamento. Mas esse é um caso específico, em outros SH s e plataformas não é possível controlar a quota de processamento de forma determinística. Uma técnica interessante e que foi o caminho adotado neste trabalho é o controle da outra ponta, ou seja, da taxa de chegada de requisições e da disciplina de serviço através de algoritmos de agendamento. O EDF (Earliest Deadline First) apresentado em [5] propõe um algoritmo para o regime de fila em que o elemento mais próximo do limite de tempo de resposta teórico é disparado. Em [8] a variante PSCED (Packet Scheduled Control Earliest Deadline First) discute a discretização do EDF. 3. Fundamentos Teóricos Nesta seção são abordados tópicos que são os fundamentos matemáticos e conceituais para a proposta de controle de tráfego. A abordagem foca o que é utilizado nos próximos capítulos. Não há a intensão de se aprofundar nestes temas. As provas matemáticas podem ser encontradas em [8] e [9] Álgebra MIN-PLUS e Cálculo de Rede Nos ISP s tratamos parâmetros que variam abruptamente. Um valor pontual, como uma amostra do parâmetro é pouco representativa. Precisamos análisar um conjunto de amostras. Então estes parâmetros podem ser melhor análisados quando tratados como curvas. Ou seja, funções acumulativas dos parâmetros. A álgebra MIN-PLUS é um ferramental matemático para tratamento de curvas. Entenda-se por curvas as funções no tempo para as quais dados quaisquer t2 > t1 temos f(t2) f(t1). Ou seja, funções que nunca decrescem. Por exemplo, dado o parâmetro número de requisições por segundo. Uma amostragem em um minuto não é representativa. Podemos então análisar a curva do número de requisições até um determinado ante. O Cálculo de Rede [9] estuda a relação entre as curvas de parâmetros dos sistemas em rede. No capítulo 4 faremos uso destas relações. Para miaores detalhes e formalização veja as referências [8-13] Protocolo TCP Nesta seção são descritos alguns detalhes do protocolo TCP ([14] e [16]) e dos algoritmos de controle padronizados (RFC 2581 [15]) necessários para o entendimento da solução proposta. O segmento TCP possui a estrutura mostrada na Figura 1. Pode ter tamanho variado, limitado de acordo com as características da rede. PORTA ORIGEM PORTA DESTINO NÚMERO DE SEQUÊNCIA NÚMERO DE RECONHECIMENTO OFFSET - FLAGS JANELA DE RECEPÇÃO CHECKSUM DADOS URGENTES OPÇÕES (TAM VARIÁVEL) DADOS DE APLICAÇÃO (TAM VARIÁVEL) 0 32 Figura 1. Estrutura do segmento TCP. O campo JANELA DE RECEPÇÃO (rwnd) informa ao emissor a capacidade do buffer receptor. O emissor
3 deve assegurar que a quantidade de dados em transito (dt) não seja superior a janela rwnd. São considerados dados em transito os segmentos para os quais ainda não houve reconhecimento (ACK) por parte do receptor. Esta janela, no entanto, não é suficiente para garantir que não haja saturação dos enlaces de rede e dos buffers nos equipamentos intermediários. Por isso foram criados os controles de fluxo e congestionamento. Estes controles determinam a janela de ou janela de congestionamento (cwnd), que é uma variável de sessão do emissor. A janela de transmissão utilizada é a menor entre a janela de recepção rwnd e a janela de congestionamento cwnd. Em condições normais, sem erro e perda de dados, a velocidade de transmissão é controlada pelos algoritmos Slow Start e Congestion Avoidance. Eles trabalham juntos para determinar o tamanho da janela de congestionamento Modelagem de latência. Posteriormente, neste trabalho, será determinada a curva de serviço β u, que representa a resposta da conexão de um determinado usuário através da internet. Nesta sessão será feita a modelagem de latência, ou tempo de transmissão para determinarmos a curva de serviço. Dada a curva de serviço βu= r u.[t d u ]+, podemos aferir os parâmetros taxa de transmissão r u e retardo d u, através da análise da seqüência de segmentos TCP. A transmissão de dados começa com o estabelecimento da conexão. Nesta fase são enviados segmentos de controle (sem dados) e pode-se amostrar o RTT (Round Trip Time), ou tempo entre o de um segmento e a recepção do ACK. Devido a variação rápida dos valores amostrados do RTT o protocolo TCP utiliza estimativa por média móvel exponencial (EWMA - Exponential Weighted Moving Average). Por este método a cada amostra atualiza-se a estimativa de média e desvio padrão, conforme segue: Esta estimativa é eficiente, pois diminui o peso das amostras mais antigas. Quanto maior o fator p (tipicamente igual a 0,1) mais rápido as estimas antigas são descartadas. A média EWMA também é utilizada nos controles de fluxo e congestionamento para estimar o tempo ótimo de retransmissão de segmentos. Na Figura 2 temos a seqüência simplificada de conexão e requisição. Neste exemplo temos a fase de conexão, onde são passados segmentos de controle. E a fase de requisição com passagem de segmentos de dados completos (MSS bytes). Na fase de conexão, o tempo entre o do segmento de controle e o recebimento do ACK é 1 RTT. O retardo de transmissão d u é determinado como a metade do valor estimado RTT. Enquanto que nos períodos de de dados o tempo transcorrido entre o do segmento e a recepção do ACK é igual a RTT + MTU/r. Ou seja, temos os parâmetros de βu conforme segue: Tem-se então a taxa de r u (em bytes/s) e a latência d u (em segundos). Está definida, portanto, a curva de serviço β u. 4. Controle de Tráfego Pretendemos controlar o tráfego no ISP determinando quando e como responder às requisições. Em sistemas elétricos, mecânicos, hidraulicos entre outros, existe o conceito de casamento de impedância. Significa que há um ponto de equilibrio entre o sistema e a carga que otimiza a transferência de energia. Quando há casamento de impedância o sistema trabalha no ápice da eficiência, ou seja, com perda mínima de energia. No caso de sistemas de internet as coisas não são tão simples. Trata-se de um mundo discretizado onde os componentes e a carga são dificilmente modelados com resultados satisfatórios. Ao requisitar um serviço através da internet o usuário envia uma requisição HTTP GET ou POST a um Servidor HTTP que é a porta de entrada do sistema. A subrede do SH é ideal para hospedar um proxy de monitoração e controle. Pois concentra a interface entre a rede externa e a interna. Quando o SH verifica que a chamada deve ser tratada de forma dinâmica esta tarefa é repassada a servidores de aplicação. Independentemente de como estes servidores são requisitados, para a contrução de uma página dinâmica, nos importa conhecer a curva de resposta do sistema de cada serviço. Na Figura 3 a curva de resposta R s (t) do serviço s, representa a resposta (bytes em função do tempo) do conjunto de recursos que geram a página dinâmica requisitada pelo usuário u (requisição γ s,u ). Figura 2. Diagrama seqüência de segmentos TCP. Figura 3. Sistema internet simplificado recebendo a requisição γs,u do usuário u ao serviço s.
4 Cada um dos serviços de um sistema representa um conjunto de recursos de hardware e software diferentes que conseguem dar vazão a um determinado número de requisições simultâneas. Além do qual fomar-se-ão filas de atendimento em algum ponto do sistema. O que afeta o desempenho do conjunto e se reflete em aumento do tempo de resposta. Assim como a rede interna, a externa também possue suas limitações de resposta. A internet é o gargalo de comunicação. Impõem limitações de taxa de transferência e latência que devido a sua natureza heterogênea podem variar muito de um usuário para outro. Temos, por exemplo, usuários conectados por banda larga e outros por linha discada, backbones rápidos em locais de boa infra-estrutura e sub-redes sobrecarregadas em outros. Inicialmente a inserção de um cache de saída pode melhorar a eficiência do sistema. Cada resposta de um determiando serviço possui uma parte criada dinamicamente única e uma parte comum a todas as respostas. Se pudermos adiantar a parte comum (estática) teremos um ganho em relação ao tempo de resposta Controle de Antecipação A partir da existencia do cache de saída podemos realizar o controle de fluxo. Na Figura 4 temos a malha de controle do proxy para antecipação da parte estática na taxa de transferência adequada a banda do usuário. Dada a requisição γ s,u do usuário u para o serviço s, o sistema responde com tempo de resposta drs. Se esta resposta for gerada dinamicamente a parte estática é separada da dinâmica e armazanada no cache. Caso este serviço já tenha sido requisitado antes então já deve existir uma cópia desta. A partir da existência de uma cópia confiável pode-se antecipar a parte estática Re s. A curva de resposta Rds apresentada ao Moderador é a parte dinâmica filtrada da resposta do serviço. Que pode ser enviada assim que ficar pronta. enlace com a rede pública recebe dados acima da capacidade de e sobrecarrega os buffers dos roteadores. Isso é tratado pelo controle de fluxo e congestionamento do TCP. Mas pode ser evitado através do controle de proposto adiante. O bloco Identificador funciona como sniffer capturando os dados no segmento de rede dos Servidores HTTP. Através da análise das requisições e respostas HTTP pode-se determinar o tempo de resposta e a página gerada. Estas informações são guardadas em uma base de dados formando um cache de respostas HTTP. No caso de páginas estáticas a resposta do Servidor HTTP é rápida e não há a necessidade de antecipar nada. Já no caso de páginas dinâmicas, sempre há um retardo devido ao processamento e montagem. Neste tempo de processamento estão incluidos os períodos de requisições a servidores de aplicações, bases de dados e mainframes. O bloco Filtro tem a função de separar a parte dinâmica e estática da resposta HTTP e armazená-las no cache. A parte estática é enviada ao Moderador. Depois de algumas requisições, a um mesmo serviço, é possível determinar qual a parte dinâmica e qual a parte estáticas da resposta. Alternativamente o início e o fim do trecho dinâmico podem ser indicados por tags. Por exemplo, o site disponibiliza um serviço de tradução Inglês-Português (Figura 5). A página gerada é composta do cabeçalho e do código HTML, conforme exemplificado abaixo: <html> <head> <title>search Results</title> </head> <body BACKGROUND="images/bckgrndyd.jpg> <table class="blue_border" width="90%" cellpadding="2"> <tr><th valign="top" align="left">terms</th><th valign="top" align="left">translations</th></tr> <!- - IniDin - - > <tr> <td align="left" valign="top"><b>1. <a href = "?text=smoothing&service=ep">smoothing</a> [n.]</b></td> <!- - FimDin - - > </table> </body> </html> Figura 4. Diagrama de controle. Devido a limitações da rede interna e da internet os dados enviados pelo sistema Rs,u são recebidos pelo usuário com outra curva R u caracterizada por uma taxa e um retardo específico de cada usuário (conexão). Como o gargalo de comunicação é a internet a taxa de transferência da rede interna ao backbone é maior que a do backbone ao browser do usuário. Então a banda do Figura 5. Exemplo: serviço de tradução do site Neste exemplo, a maior parte do HTML e seus componentes, como a imagem bckgrndyd.jpg, podem ser antecipadas enquanto a parte dinâmica, tradução, é realizada. Esta antecipação será mais efetiva quanto
5 maior a carga estática e menor a taxa de transferência do usuário requisitante. Alguns elementos que aumentam a carga estática são: imagens, applets, arquivos de estilo (CSS) entre outros. Na prática esta antecipação é realizada substituindose o trecho dinâmico por uma chamada ao próprio site conforme segue: <!- - IniDin - - > <frame src = " alt = "Aguarde "> <!- - FimDin - - > Esta chamada é feita pelo browser assim que a linha de código chegar. E quando retornar ao sistema, não será atendida pelo Servidor HTTP e sim pelo proxy. Este irá responder enviando apenas a parte dinâmica da página Determinação dos Instantes de Envio e Processamento Apenas com o controle de antecipação já é possível obter um ganho no tempo de resposta. Na Figura 6 a parte dinâmica é enviada logo após a parte estática. No entanto o da parte estática assim que a requisição é recebida pode nem sempre ser a melhor solução para sistemas de alta demanda. Esta determinação deve ser feita com base no taxa de transferência e no tamanho da parte estática. A taxa de transferência para o usuário u é estimada (β u ). E o tamanho da parte estática é obtido do cache. A existência do cache torna possível o agendamento do inicio de processamento e de inicio de transmissão. Além de permitir o controle da taxa de para adequar a curva de saída R u à curva de resposta β u. Figura 6. Otimização da banda e diminuição do tempo de resposta total: T2< T1. (a) Curva de resposta sem controle (T1). (b) Curva de resposta com antecipação e controle de fluxo (T2). No bloco Moderador estão as funcionalidades para determinação da curva de serviço de comunicação com o usuário e para o controle da taxa de. Determinamos a curva de resposta através de estimativa do RTT dos segmentos TCP enviados. Uma vez conhecida a curva de serviço de comunicação com o usuário u pode-se estimar a duração do de uma determinada resposta de s,u. Sendo Le s o tamanho conhecido da parte estática do serviço s, tem-se: Com base nesta estimativa, e na estimativa do tempo de processamento dp s do serviço s, podemos determinar os antes de início de da parte estática tes,u e dinâmica td s,u (Figura 7): para dp s < de s,u para dp s > de s,u Figura 7. Faixas de tempos de da parte estática e dinâmica. (a) dp s < de s,u (b) dp s > de s,u A determinação do ante de início de processamento pode diminuir o número de usuários simultâneos no sistema e liberar recursos para terminar os serviços em andamento. A existência de muitos usuários no sistema pode afetar o desempenho devido a concorrência no acesso a recursos como rede, disco rígido e processador. Para os serviços com pouca variação no tempo de resposta podemos utilizar a seguinte expressão:, então: quando dp s < de s,u => 0 tp s de s,u - dp s ; quando dp s > de s,u => tp s = 0. Já a determinação dos isntântes de pode ser usada para otimizar a banda de transmissão. Podemos pensar em algoritmos de agendamento de. No entanto deixaremos este tópico para trabalhos futuros. Vamos considerar os seguintes tempos: te s,u = 0, da parte estática assim que a requisição chegar; td s,u = max{dp s, de s,u }, da parte dinâmica assim que ficar pronta, após o da parte estática; Ao invés da ação pontual de determinar os antes de ótimos, optamos por iniciar o o quanto antes e controlar a taxa de transmissão. Este controle feito em malha fechada pode trazer melhores resultados, diante das incertezas do comportamento da rede Controle de Taxa de Transmissão O emissor TCP normalmente tentará enviar os dados na maior taxa possível. Como, com base nos dados do cache, conhecemos o tamanho da parte estática Le s e a duração do processamento da parte dinâmica dp s, podemos determinar a taxa de ótima:, onde d u é a latência de transmissão, característica que não pode ser alterada.
6 Esta é a taxa de transferência mínima necessária para o da parte estática antes que a parte dinâmica fique pronta. Taxas maiores iriam sobrecarregar o enlace de saída da rede desnecessariamente. Para obter esta taxa será necessário manipular as janelas de controle do emissor TCP. A janela de recepção (rwnd) é preferível em relação à janela de congestionamento (cwnd), pois ela não interfere nos algoritmos de controle de fluxo e congestionamento. A pergunta é como calcular o tamanho da janela W u para que a curva de serviço da internet se aproxime de βwu = cu.[du t] +. O diagrama da Figura 8 mostra o processo de transmissão em controle de malha fechada. O moderador não pode controlar a curva de R s,u pois os dados são transmitidos pelo emissor TCP (o SH). A não ser que fosse reescrito um emissor TCP para este fim. O que acarretaria em perda de generalidade e aplicabilidade do proxy. Em vez disso o Moderador pode modificar a janela informada pelo receptor TCP (o browser). ru). Mas quando ru é tal que ru.du > W então βwu >= βu e c u = W u /d u. Figura 9. Curva de serviço βw u para: (a) r u.d u <= W u ; (b) r u.d u > W u Ou seja, devemos modificar a janela de recepção tal que rwnd(t) = min{ [c u.d u - R s,u (t)] +, rwnd(t) } e o emissor TCP utilizará a menor entre Wu e cwnd. Desta forma a taxa de transmissão é modificada utilizando as variáveis de controle do próprio protocolo TCP. 5. Avaliação do Controle de Tráfego Figura 8. Diagrama de controle da taxa de transferência do serviço s ao usuário u. Modificando a janela do receptor percebida pelo emissor podemos atuar na taxa de emissão. O controle realizado pelo moderador deve ser tal que: ou Então, aplicando o Teorema de [8], a máxima solução é a convolução entre R s e o fechamento subaditivo de R u + W, ou seja, (1) Não conhecemos o mapeamento de Rs,u em Ru mas sabemos que R u é limitado por β u (conhecido) : (2) Então, substituindo (2) em (1): Ou, substituindo (1) em (2): Então, dada a curva de serviço da rede (internet) β u = r u.[d u t] + e limitando a janela de a W u, temos a curva de serviço da malha fechada βw u = c u.[d u t] +. A Figura 9 mostra o efeito do controle da janela na taxa de transferência. Para β u com taxa de transferência r u tal que r u.d u <= W não há atuação e βw u = β u (ou c u = Para verificar o ganho com a utilização do contrle de tráfego recorremos aos logs dos Servidores HTTP de um sistema real. Trata-se do log de requisições do IIS (Internet Information Service) de um sistema de Internet Banking. A partir destes dados reais vamos averiguar o ganho caso o cache fosse inserido. Para cada requisição o IIS realiza diversos registros como: date (data da requisição), time (tempo da requisição), c-ip (IP do cliente (browser), s-ip (IP do servidor), cs-uri-stem (trecho da URI sem o domínio início e a query ), cs-uri-query (query, trecho da URI com parâmetros GET), sc-bytes (bytes recebidos), csbytes (bytes enviados), time-taken (tempo para processamento) e cs(referer) (referência). Este último campo permite rastrear qual requisição originou outra. Por exemplo, ao requisitar uma página que possua imagens ao IIS, o browser recebe primeiro a página HTML. Que então indica as imagens que devem ser requisitadas. Neste caso a requisição à página HTML não possui referência, ou seja Referer nulo. Mas as requisições às imagens fazem referência no log à página anterior. Denominamos de requisições primárias as chamadas às páginas e aos serviços. E de requisições secundárias as chamadas aos arquivos complementares como imagens, javscripts, CSS, etc Podemos estimar o tamanho da parte estática e dinâmica considerando, por simplificação, que a parte estática é composta apenas pelos arquivos secundários e que todo o código HTML da requisição primária é construído de forma dinâmica. A Tabela 1 mostra um trecho do log com a vinculação, através do campo ref, das partes secundárias às partes primárias de cada requisição. Com base neste vínculo, determinamos os tamanhos (em kb) das partes primárias ( tam ) e das partes secundárias ( tam ).
7 Tabela 1. Trecho do log e análise para determinação da parte estática (tamanho em bytes). time req cs-uri-stem ref tam tam 00:01: /scripts/comunic_owb.dll :01: /rie/imagens/bul_tit_sessao.gif :01: /rie/imagens/bul_ret_verdec.gif :03: /scripts/comunic_owb.dll :03: /owb/images/setaazul.gif :03: /owb/images/amarelo.gif O cache proposto deve antecipar a parte estática da requisição. Nesta avaliação fomos obrigados a fazer uma simplificação por falta de dados da composição das páginas HTML. Portanto, consideramos que a parte estática é composta apenas pelos arquivos secundários e que todo o código HTML da requisição primária é construído de forma dinâmica. Com base no tamanho da parte estática e com a taxa de transferência média para um dado usuário podemos estimar os tempos de. Vamos considerar que a curva de resposta da rede para todos os usuários é: β(t) = t, ou seja, taxa de transmissão r=32 kb/s e latência de transmissão d = 0 (simplificação). Na Tabela 2 estimamos o tempo de resposta. Sem o cache, a parte secundária só é requisitada após a parte primária ser processada e enviada. Tabela 4. Comparativo com e sem cache (tempos em segundos). time req resp s/ tempo CACHE tempo resp c/ CACHE dif % 00:01: ,623 0,579-0,044-7,098 00:02: ,731 0,528-0,203-27,759 00:03: ,903 0,874-0,029-3,219 00:03: ,445 2,149-0,296-12,105 00:03: ,471 0,328-0,144-30,536 00:03: ,766 0,406-0,360-47,036 Percebe-se uma diferença significativa, mas para validar a comparação fizemos os mesmos cálculos com uma massa maior de dados. Tomamos 30 min do log, aproximadamente 2500 requisições (260 requisições primárias). As Figuras 10 e 11 mostram o ganho do tempo de resposta. Figura 10. Gráfico de Ganho, em segundos, do tempo de resposta por requisição. Tabela 2. Análise do tempo de resposta sem cache (tempos em segundos). time req tam tam dur dur cheg req resp usu U min resp usu U temp resp 00:01: ,376 0, , , , , ,623 0,623 00:02: ,029 0, , , , , ,731 0,731 00:03: ,015 0, , , , , ,903 0,903 00:03: ,015 2, , , , , ,445 2,445 00:03: ,047 0, , , , , ,471 0,471 00:03: ,031 0, , , , , ,766 0,766 Com a inserção do cache a parte secundária é enviada de imediato (sem esperar o processamento da parte primária - dur proc ). Na Tabela 3, podemos notar diminuição dos tempos de resposta. Tabela 3. Análise do tempo de resposta com cache (tempos em segundos). time req tam tam dur dur cheg req min resp usu U min resp usu U temp resp 00:01: ,376 0, , , , , ,579 0,579 00:02: ,029 0, , , , , ,528 0,528 00:03: ,015 0, , , , , ,874 0,874 00:03: ,015 2, , , , , ,149 2,149 00:03: ,047 0, , , , , ,328 0,328 00:03: ,031 0, , , , , ,406 0,406 Na Tabela 4 comparamos os tempos de resposta das Tabelas 2 e 3. Figura 11. Gráfico de Ganho, proporcional, do tempo de resposta por requisição. A diminuição do tempo de resposta foi em média de 17,4%, chegando a 50%. Em servidores de alta demanda, com dezenas de requisições por segundo, estas diferenças porcentuais são muito significativas, podendo trazer redução nos custos de infra-estrutura além de aumento da qualidade de serviço. O ganho obtido com a antecipação será mais efetivo quanto maior a carga estática e menor a taxa de transferência do usuário requisitante. 6. Conclusões Apesar do crescente interesse nesta área ainda é complexo modelar sistemas de internet. Pois o sistema e a carga são governados por eventos de distribuição de probabilidades indeterminados. O que torna difícil controlar o desempenho para manutenção de tempos de resposta baixos. Também existe a dificuldade de
8 determinação de parâmetros de desempenho genéricos, entre servidores e plataformas diferentes. O Controle de Tráfego determina quando transmitir, como transmitir e que tipo de requisição e resposta deve ser transmitida. Com a inserção de um cache para antecipação da parte dinâmica obtemos alguns parâmetros de controle independentes da plataforma e da tecnologia dos servidores. Estes parâmetros são: a taxa de transmissão dos dados, o ante de início transmissão e o ante de início de processamento. Controlando estes parâmetros é possível aumentar a eficiência do ISP. O tempo de resposta é reduzido pela ação antecipatória do cache. A banda de transmissão utilizada é reduzida pelo controle da taxa de transferência e do intante de. E o processamento dos servidores também é reduzido pelo controle do ante de início de processamento. Este conjunto de ações controla o tráfego no Servidor HTTP balanceando a oferta e a demanda do sistema Contribuições do Trabalho A utilização do controle proposto contribui para a melhoria da qualidade de serviço dos sistemas de alto desempenho. E propicía redução de custos de infraestrutura Trabalhos Futuros Trabalhos futuros podem se valer dos algoritimos apresentados para a elaboração de uma ferramenta de gerênciamento de desempenho. Na Figura 12 temos a tela de modelagem da ferramenta que está sendo dedenvolvida. Os componentes hardware e software monitorados são considerados servidores de filas. [5] V. Sivaraman and F. Chiussi, End-to-End Statistical Delay Guarantees using Earliest Deadline First Packet Scheduling, in Proc. of GlobeCom, Rio de Janeiro, Brazil, Dec. 1999, pp [6] L. Sha, X. Liu, Y. Lu and T. Abdelzaher, Queueing model based network server performance control, in 23th IEEE Real- Time System Symposium, [7] L. Sha, X. Liu, Y. Lu, T. Abdelzaher and C. Lu, Feedback Control with Queueing-Theoretic Prediction for Relative Delay Guaranteees in Web Servers, in 9th IEEE Real-Time and Embedded Technology and Applications Symposium, [8] Jean-Yves Le Boudec and Patric Thiran, Network Calculus: A theory of Deterministic Queueing Systems for the Internet, Springer-Verlag, Berlin Germany, [9] D. Starobinski, J. Karpovsky and L. A. Zakrevsky, Application of Network Calculus to General Topologies Using Turn-Prohibition, IEEE/ACM TRANSACTIONS ON NETWORKING Vol. 2 - N.3, Jun [10] C.S. Chang, On deterministic traffic regulator and service guarantee: A systematic aproach by filtering, IEEE Transactions on Information Theory, Aug. 1998, pp [11] R. Arawal and R. Rajan, Performance bounds for guaranteed and adaptive services, IBM Technical Report RC 20649, Dec [12] J. Naudts, Toward real-time meassurement of trafic control parameters, Computer Networks, 2000, pp. 34: [13] F. Baccelli, G. Cohen, G. J. Olsder and J. P. Quadrat Synchronization and Linearity, An Algebra for Discrete Event Systems, John Wiley and Sons, [14] Information Sciences Institute (USC), Transmission Control protocol, Network Working Group RFC 793, EUA, Sep [15] M.Allman, V.Paxson and W.Stevens, TCP Congestion Control, Network Working Group RFC-2581, EUA, Apr [16] G.McKinney, TCP/IP State Transition Diagram, Network Working Group RFC-793, EUA, Feb [17] ITU-T Recomendação I.311, B-ISDN General Networks Aspects, Genebra, [18] Server Watch statistics (indicated by ISOC site), at May Figura 12. Ferramenta de monitoração e análise do sistema. 7. Referências Bibliográficas [1] R. Jain, The Art of Computer Systems Performance Analysis: Techniques for Experimental Design, Measuremente, Simulation and Modeling, Wiley-Interscience, New York - NY, April [2] J. Lehoczky, Real-Time Queueing Theory, in 17th IEEE Real-Time systems Symposium, [3] J. Lehoczky, Real-Time Queueing Network Theory, in 18th IEEE Real-Time systems Symposium, [4] J. Lehoczky, Using Real-Time Queueing Network Theory To Control Lateness In Real-Time Systems, ACM SIGMETRICS 97, 1997, pages
Entendendo como funciona o NAT
Entendendo como funciona o NAT Vamos inicialmente entender exatamente qual a função do NAT e em que situações ele é indicado. O NAT surgiu como uma alternativa real para o problema de falta de endereços
Leia maisTRANSMISSÃO DE DADOS Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com
- Aula 5-1. A CAMADA DE TRANSPORTE Parte 1 Responsável pela movimentação de dados, de forma eficiente e confiável, entre processos em execução nos equipamentos conectados a uma rede de computadores, independentemente
Leia mais2 Controle de Congestionamento do TCP
2 Controle de Congestionamento do TCP 17 2 Controle de Congestionamento do TCP A principal causa de descarte de pacotes na rede é o congestionamento. Um estudo detalhado dos mecanismos de controle de congestionamento
Leia maisREDES DE COMPUTADORES
REDES DE COMPUTADORES 09/2013 Cap.3 Protocolo TCP e a Camada de Transporte 2 Esclarecimentos Esse material é de apoio para as aulas da disciplina e não substitui a leitura da bibliografia básica. Os professores
Leia maisRede de Computadores II
Rede de Computadores II Slide 1 Roteamento Determinar o melhor caminho a ser tomado da origem até o destino. Se utiliza do endereço de destino para determinar a melhor rota. Roteador default, é o roteador
Leia maisQualidade em Servicos de Rede Prof. Eduardo Maronas Monks Roteiro de Laboratorio Camada de Transporte Parte II
Qualidade em Servicos de Rede Prof. Eduardo Maronas Monks Roteiro de Laboratorio Camada de Transporte Parte II 1) Explicar os seguintes mecanismos e conceitos do protocolo TCP: 1. Slow Start O algoritmo
Leia maisCONCEITOS INICIAIS. Agenda A diferença entre páginas Web, Home Page e apresentação Web;
CONCEITOS INICIAIS Agenda A diferença entre páginas Web, Home Page e apresentação Web; O que é necessário para se criar páginas para a Web; Navegadores; O que é site, Host, Provedor e Servidor Web; Protocolos.
Leia maisJones Bunilha Radtke. Tarefas:
Faculdade de Tecnologia SENAC Pelotas Tecnólogo em Redes de Computadores Qualidade de Serviços de Rede Prof. Eduardo Monks Camada de Transporte Parte 2 Jones Bunilha Radtke Tarefas: 1.1) O algoritmo Slow
Leia maisMÓDULO 7 Modelo OSI. 7.1 Serviços Versus Protocolos
MÓDULO 7 Modelo OSI A maioria das redes são organizadas como pilhas ou níveis de camadas, umas sobre as outras, sendo feito com o intuito de reduzir a complexidade do projeto da rede. O objetivo de cada
Leia maisTeleprocessamento e Redes (MAB-510) Gabarito da Segunda Lista de Exercícios 01/2010
Teleprocessamento e Redes (MAB-510) Gabarito da Segunda Lista de Exercícios 01/2010 Prof. Silvana Rossetto (DCC/IM/UFRJ) 1 13 de julho de 2010 Questões 1. Qual é a diferença fundamental entre um roteador
Leia mais3 Qualidade de serviço na Internet
3 Qualidade de serviço na Internet 25 3 Qualidade de serviço na Internet Além do aumento do tráfego gerado nos ambientes corporativos e na Internet, está havendo uma mudança nas características das aplicações
Leia maisProgramação para Web Artefato 01. AT5 Conceitos da Internet
Programação para Web Artefato 01 AT5 Conceitos da Internet Histórico de revisões Data Versão Descrição Autor 24/10/2014 1.0 Criação da primeira versão HEngholmJr Instrutor Hélio Engholm Jr Livros publicados
Leia maisSistemas Distribuídos
Sistemas Distribuídos Modelo Cliente-Servidor: Introdução aos tipos de servidores e clientes Prof. MSc. Hugo Souza Iniciando o módulo 03 da primeira unidade, iremos abordar sobre o Modelo Cliente-Servidor
Leia maisWireshark. Captura de Protocolos da camada de aplicação. Maicon de Vargas Pereira
Wireshark Captura de Protocolos da camada de aplicação Maicon de Vargas Pereira Camada de Aplicação Introdução HTTP (Hypertext Transfer Protocol) 2 Introdução Camada de Aplicação Suporta os protocolos
Leia maisCap 03 - Camada de Aplicação Internet (Kurose)
Cap 03 - Camada de Aplicação Internet (Kurose) 1. Qual a diferença entre um Programa de computador e um Processo dentro do computador? R. Processo é um programa que está sendo executado em uma máquina/host,
Leia maisSistemas Distribuídos. Professora: Ana Paula Couto DCC 064
Sistemas Distribuídos Professora: Ana Paula Couto DCC 064 Processos- Clientes, Servidores, Migração Capítulo 3 Agenda Clientes Interfaces de usuário em rede Sistema X Window Software do lado cliente para
Leia maisArquitetura de Redes: Camadas de Protocolos (Parte I) Prof. Eduardo
Arquitetura de Redes: Camadas de Protocolos (Parte I) Prof. Eduardo Introdução O que é Protocolo? - Para que os pacotes de dados trafeguem de uma origem até um destino, através de uma rede, é importante
Leia mais6 de Julho de 2015. Exercício 23 Para que servem portas na camada de transporte?
Lista de Exercícios Camada de Transporte GBC-056 Arquitetura de Redes de Computadores Bacharelado em Ciência da Computação Universidade Federal de Uberlândia 6 de Julho de 2015 Exercício 1 Para que serve
Leia maisCapítulo 7 CAMADA DE TRANSPORTE
Capítulo 7 CAMADA DE TRANSPORTE SERVIÇO SEM CONEXÃO E SERVIÇO ORIENTADO À CONEXÃO Serviço sem conexão Os pacotes são enviados de uma parte para outra sem necessidade de estabelecimento de conexão Os pacotes
Leia maisCamada Transporte Parte 2. Prof. Dr. S. Motoyama
Camada Transporte Parte 2 Prof. Dr. S. Motoyama 1 Algoritmo de Janela Deslizante em TCP O TCP clássico emprega um protocolo de janela deslizante com confirmação positiva e sem repetição seletiva. O TCP
Leia maisCurso: Redes II (Heterogênea e Convergente) Tema da Aula: Controle de Congestionamento
Curso: Redes II (Heterogênea e Convergente) Tema da Aula: Controle de Congestionamento Professor Rene - UNIP 1 Revisão... Segmento A unidade de dados trocada entre as entidades de transporte é denominada
Leia maisMárcio Leandro Moraes Rodrigues. Frame Relay
Márcio Leandro Moraes Rodrigues Frame Relay Introdução O frame relay é uma tecnologia de chaveamento baseada em pacotes que foi desenvolvida visando exclusivamente a velocidade. Embora não confiável, principalmente
Leia maisA Camada de Transporte
A Camada de Transporte Romildo Martins Bezerra CEFET/BA s de Computadores II Funções da Camada de Transporte... 2 Controle de conexão... 2 Fragmentação... 2 Endereçamento... 2 Confiabilidade... 2 TCP (Transmission
Leia maishttp://aurelio.net/vim/vim-basico.txt Entrar neste site/arquivo e estudar esse aplicativo Prof. Ricardo César de Carvalho
vi http://aurelio.net/vim/vim-basico.txt Entrar neste site/arquivo e estudar esse aplicativo Administração de Redes de Computadores Resumo de Serviços em Rede Linux Controlador de Domínio Servidor DNS
Leia mais4 Arquitetura básica de um analisador de elementos de redes
4 Arquitetura básica de um analisador de elementos de redes Neste capítulo é apresentado o desenvolvimento de um dispositivo analisador de redes e de elementos de redes, utilizando tecnologia FPGA. Conforme
Leia maisCapacidade = 512 x 300 x 20000 x 2 x 5 = 30.720.000.000 30,72 GB
Calculando a capacidade de disco: Capacidade = (# bytes/setor) x (méd. # setores/trilha) x (# trilhas/superfície) x (# superfícies/prato) x (# pratos/disco) Exemplo 01: 512 bytes/setor 300 setores/trilha
Leia maisCAMADA DE TRANSPORTE
Curso Técnico de Redes de Computadores Disciplina de Fundamentos de Rede CAMADA DE TRANSPORTE Professora: Juliana Cristina de Andrade E-mail: professora.julianacrstina@gmail.com Site: www.julianacristina.com
Leia maisSistemas Distribuídos Capítulos 3 e 4 - Aula 4
Sistemas Distribuídos Capítulos 3 e 4 - Aula 4 Aula passada Threads Threads em SDs Processos Clientes Processos Servidores Aula de hoje Clusters de Servidores Migração de Código Comunicação (Cap. 4) Fundamentos
Leia maisFundamentos de Redes de Computadores. Elementos de Redes Locais
Fundamentos de Redes de Computadores Elementos de Redes Locais Contexto Implementação física de uma rede de computadores é feita com o auxílio de equipamentos de interconexão (repetidores, hubs, pontos
Leia maisRedes de Computadores. Trabalho de Laboratório Nº7
Redes de Computadores Curso de Eng. Informática Curso de Eng. de Electrónica e Computadores Trabalho de Laboratório Nº7 Análise do tráfego na rede Protocolos TCP e UDP Objectivo Usar o Ethereal para visualizar
Leia maisComo medir a velocidade da Internet?
Link Original: http://www.techtudo.com.br/artigos/noticia/2012/05/como-medir-velocidade-da-suainternet.html Como medir a velocidade da Internet? Pedro Pisa Para o TechTudo O Velocímetro TechTudo é uma
Leia maisNa Figura a seguir apresento um exemplo de uma "mini-tabela" de roteamento:
Tutorial de TCP/IP - Parte 6 - Tabelas de Roteamento Por Júlio Cesar Fabris Battisti Introdução Esta é a sexta parte do Tutorial de TCP/IP. Na Parte 1 tratei dos aspectos básicos do protocolo TCP/IP. Na
Leia maisTecnologias Web. Lista de Exercícios AV02. Luiz Leão luizleao@gmail.com http://www.luizleao.com
Luiz Leão luizleao@gmail.com http://www.luizleao.com Questão 1 Um analista de sistemas deseja enviar para seu cliente um arquivo de 300 Mb referente a uma atualização do software. Para transferir esse
Leia maisPARANÁ GOVERNO DO ESTADO
A COMUNICAÇÃO NA INTERNET PROTOCOLO TCP/IP Para tentar facilitar o entendimento de como se dá a comunicação na Internet, vamos começar contando uma história para fazer uma analogia. Era uma vez, um estrangeiro
Leia maisControle de Congestionamento em TCP Parte 2. Prof. Dr. S. Motoyama
Controle de Congestionamento em TCP Parte 2 Prof. Dr. S. Motoyama 1 Controle de Congestionamento em TCP Princípios de controle de congestionamento Saber que congestionamento está ocorrendo Adaptar para
Leia maisRedes de Computadores
Redes de Computadores Prof. Marcelo Gonçalves Rubinstein Programa de Pós-Graduação em Engenharia Eletrônica Faculdade de Engenharia Universidade do Estado do Rio de Janeiro Ementa Introdução a Redes de
Leia maisTecnologia PCI express. Introdução. Tecnologia PCI Express
Tecnologia PCI express Introdução O desenvolvimento de computadores cada vez mais rápidos e eficientes é uma necessidade constante. No que se refere ao segmento de computadores pessoais, essa necessidade
Leia maisWireshark Lab: TCP. Versão 1.1 2005 KUROSE, J.F & ROSS, K. W. Todos os direitos reservados 2011 BATISTA, O. M. N. Tradução e adaptação para Wireshark.
Wireshark Lab: TCP Versão 1.1 2005 KUROSE, J.F & ROSS, K. W. Todos os direitos reservados 2011 BATISTA, O. M. N. Tradução e adaptação para Wireshark. Neste laboratório, investigaremos o comportamento do
Leia maisHá dois tipos de configurações bidirecionais usados na comunicação em uma rede Ethernet:
Comunicação em uma rede Ethernet A comunicação em uma rede local comutada ocorre de três formas: unicast, broadcast e multicast: -Unicast: Comunicação na qual um quadro é enviado de um host e endereçado
Leia maisMultiplexador. Permitem que vários equipamentos compartilhem um único canal de comunicação
Multiplexadores Permitem que vários equipamentos compartilhem um único canal de comunicação Transmissor 1 Receptor 1 Transmissor 2 Multiplexador Multiplexador Receptor 2 Transmissor 3 Receptor 3 Economia
Leia maisMODELO CLIENTE SERVIDOR
SISTEMAS DISTRIBUÍDOS Modelo Cliente Servidor Modelo que estrutura um S.O. como um grupo de processos cooperantes, chamados servidores, que oferecem serviços a processos usuários, denominados clientes;
Leia maisExercícios de Revisão Redes de Computadores Edgard Jamhour. Segundo Bimestre
Exercícios de Revisão Redes de Computadores Edgard Jamhour Segundo Bimestre Exercicio 1: Considere a seguinte configuração de rede estruturada em VLANs 220.0.0.2/24 C VLAN 2 B VLAN 1 A VLAN 1 VLAN 1,2,3
Leia maisSegurança em Sistemas de Informação. Agenda. Conceitos Iniciais
Segurança em Sistemas de Informação Agenda 1. Conceitos Iniciais; 2. Terminologia; 3. Como funcionam; 4. : 1. Cache; 2. Proxy reverso; 5. Exemplos de Ferramentas; 6. Hands on; 7. Referências; 2 Conceitos
Leia mais1 INTRODUÇÃO Internet Engineering Task Force (IETF) Mobile IP
1 INTRODUÇÃO Devido ao crescimento da Internet, tanto do ponto de vista do número de usuários como o de serviços oferecidos, e o rápido progresso da tecnologia de comunicação sem fio (wireless), tem se
Leia maisRedes de Computadores II
Redes de Computadores II UDP Prof: Ricardo Luís R. Peres Tem como objetivo prover uma comunicação entre dois processos de uma mesma sessão que estejam rodando em computadores dentro da mesma rede ou não.
Leia maisCapítulo 3. Avaliação de Desempenho. 3.1 Definição de Desempenho
20 Capítulo 3 Avaliação de Desempenho Este capítulo aborda como medir, informar e documentar aspectos relativos ao desempenho de um computador. Além disso, descreve os principais fatores que influenciam
Leia mais1º Seminário de Software Livre Tchelinux Software Livre: leve adiante esta idéia. Soluções de Web Caching e Web Acceleration
1º Seminário de Software Livre Tchelinux Software Livre: leve adiante esta idéia Soluções de Web Caching e Web Acceleration Domingos Parra Novo domingosnovo@terra.com.br Tópicos Introdução O que são web
Leia maisCAPÍTULO 2. Este capítulo tratará :
1ª PARTE CAPÍTULO 2 Este capítulo tratará : 1. O que é necessário para se criar páginas para a Web. 2. A diferença entre páginas Web, Home Page e apresentação Web 3. Navegadores 4. O que é site, Host,
Leia maisProjeto de Redes Top-Down
Projeto de Redes Top-Down Referência: Slides extraídos (material de apoio) do livro Top-Down Network Design (2nd Edition), Priscilla Oppenheimer, Cisco Press, 2010. http://www.topdownbook.com/ Alterações
Leia maisIP significa Internet Protocol. A Internet é uma rede, e assim como ocorre em qualquer tipo de rede, os seus nós (computadores, impressoras, etc.
Endereços IP Endereços IP IP significa Internet Protocol. A Internet é uma rede, e assim como ocorre em qualquer tipo de rede, os seus nós (computadores, impressoras, etc.) precisam ter endereços. Graças
Leia maisDIMENSIONANDO PROJETOS DE WEB-ENABLING. Uma aplicação da Análise de Pontos de Função. Dimensionando projetos de Web- Enabling
DIMENSIONANDO PROJETOS DE WEB-ENABLING Uma aplicação da Análise de Pontos de Função Dimensionando projetos de Web- Enabling Índice INTRODUÇÃO...3 FRONTEIRA DA APLICAÇÃO E TIPO DE CONTAGEM...3 ESCOPO DA
Leia maisRedes de Computadores. Camada de Transporte
Redes de Computadores Camada de Transporte Objetivo! Apresentar as características da camada de transporte da arquitetura TCP/IP! Apresentar os serviços fornecidos pela camada de transporte! Estudar os
Leia maisXDOC. Solução otimizada para armazenamento e recuperação de documentos
XDOC Solução otimizada para armazenamento e recuperação de documentos ObJetivo Principal O Que você ACHA De ter Disponível Online todos OS Documentos emitidos por SUA empresa em UMA intranet OU Mesmo NA
Leia maisSMTP, POP, IMAP, DHCP e SNMP. Professor Leonardo Larback
SMTP, POP, IMAP, DHCP e SNMP Professor Leonardo Larback Protocolo SMTP O SMTP (Simple Mail Transfer Protocol) é utilizado no sistema de correio eletrônico da Internet. Utiliza o protocolo TCP na camada
Leia maisMÓDULO 8 Modelo de Referência TCP/IP
MÓDULO 8 Modelo de Referência TCP/IP A internet é conhecida como uma rede pública de comunicação de dados com o controle totalmente descentralizado, utiliza para isso um conjunto de protocolos TCP e IP,
Leia maisComparativo de desempenho do Pervasive PSQL v11
Comparativo de desempenho do Pervasive PSQL v11 Um artigo Pervasive PSQL Setembro de 2010 Conteúdo Resumo executivo... 3 O impacto das novas arquiteturas de hardware nos aplicativos... 3 O projeto do Pervasive
Leia mais1 http://www.google.com
1 Introdução A computação em grade se caracteriza pelo uso de recursos computacionais distribuídos em várias redes. Os diversos nós contribuem com capacidade de processamento, armazenamento de dados ou
Leia maisCapítulo 7 CAMADA DE TRANSPORTE
Capítulo 7 CAMADA DE TRANSPORTE INTRODUÇÃO (KUROSE) A Camada de Rede é uma peça central da arquitetura de rede em camadas A sua função é a de fornecer serviços de comunicação diretamente aos processos
Leia maisADDRESS RESOLUTION PROTOCOL. Thiago de Almeida Correia
ADDRESS RESOLUTION PROTOCOL Thiago de Almeida Correia São Paulo 2011 1. Visão Geral Em uma rede de computadores local, os hosts se enxergam através de dois endereços, sendo um deles o endereço Internet
Leia maisSistemas Distribuídos
Sistemas Distribuídos Modelo Cliente-Servidor: comunicação orientada por mensagem e comunicação orientada por fluxo Prof. MSc. Hugo Souza Continuando o módulo 03 da primeira unidade, iremos abordar sobre
Leia mais1. Explicando Roteamento um exemplo prático. Através da análise de uns exemplos simples será possível compreender como o roteamento funciona.
Aula 14 Redes de Computadores 24/10/07 Universidade do Contestado UnC/Mafra Sistemas de Informação Prof. Carlos Guerber ROTEAMENTO EM UMA REDE DE COMPUTADORES A máscara de sub-rede é utilizada para determinar
Leia maisUm Driver NDIS Para Interceptação de Datagramas IP
Um Driver NDIS Para Interceptação de Datagramas IP Paulo Fernando da Silva psilva@senior.com.br Sérgio Stringari stringari@furb.br Resumo. Este artigo apresenta o desenvolvimento de um driver NDIS 1 para
Leia maisSISTEMAS DISTRIBUÍDOS
SISTEMAS DISTRIBUÍDOS Cluster, Grid e computação em nuvem Slide 8 Nielsen C. Damasceno Introdução Inicialmente, os ambientes distribuídos eram formados através de um cluster. Com o avanço das tecnologias
Leia maisRedes de Computadores. Protocolos de comunicação: TCP, UDP
Redes de Computadores Protocolos de comunicação: TCP, UDP Introdução ao TCP/IP Transmission Control Protocol/ Internet Protocol (TCP/IP) é um conjunto de protocolos de comunicação utilizados para a troca
Leia maisUNIVERSIDADE FEDERAL DE SANTA CATARINA DEPARTAMENTO DE INFORMÁTICA E ESTÁTISTICA GRADUAÇÃO EM CIÊNCIAS DA COMPUTAÇÃO DISCIPLINA: COMUNICAÇÃO DE DADOS
UNIVERSIDADE FEDERAL DE SANTA CATARINA DEPARTAMENTO DE INFORMÁTICA E ESTÁTISTICA GRADUAÇÃO EM CIÊNCIAS DA COMPUTAÇÃO DISCIPLINA: COMUNICAÇÃO DE DADOS PROFESSOR: CARLOS BECKER WESTPHALL Terceiro Trabalho
Leia maisPodemos encontrar uma figura interessante no PMBOK (Capítulo 7) sobre a necessidade de organizarmos o fluxo de caixa em um projeto.
Discussão sobre Nivelamento Baseado em Fluxo de Caixa. Item aberto na lista E-Plan Podemos encontrar uma figura interessante no PMBOK (Capítulo 7) sobre a necessidade de organizarmos o fluxo de caixa em
Leia maisProf. Luiz Fernando Bittencourt MC714. Sistemas Distribuídos 2 semestre, 2013
MC714 Sistemas Distribuídos 2 semestre, 2013 Virtualização - motivação Consolidação de servidores. Consolidação de aplicações. Sandboxing. Múltiplos ambientes de execução. Hardware virtual. Executar múltiplos
Leia maisInterconexão de redes locais. Repetidores. Pontes (Bridges) Hubs. Pontes (Bridges) Pontes (Bridges) Existência de diferentes padrões de rede
Interconexão de redes locais Existência de diferentes padrões de rede necessidade de conectá-los Interconexão pode ocorrer em diferentes âmbitos LAN-LAN LAN: gerente de um determinado setor de uma empresa
Leia maisProf. Marcelo Machado Cunha Parte 3 www.marcelomachado.com
Prof. Marcelo Machado Cunha Parte 3 www.marcelomachado.com Protocolo é a linguagem usada pelos dispositivos de uma rede de modo que eles consigam se comunicar Objetivo Transmitir dados em uma rede A transmissão
Leia mais1.1 Porque um nível de aplicação proxy?
1.0 Introdução Os proxies são principalmente usados para permitir acesso à Web através de um firewall (fig. 1). Um proxy é um servidor HTTP especial que tipicamente roda em uma máquina firewall. O proxy
Leia maisIW10. Rev.: 02. Especificações Técnicas
IW10 Rev.: 02 Especificações Técnicas Sumário 1. INTRODUÇÃO... 1 2. COMPOSIÇÃO DO IW10... 2 2.1 Placa Principal... 2 2.2 Módulos de Sensores... 5 3. APLICAÇÕES... 6 3.1 Monitoramento Local... 7 3.2 Monitoramento
Leia maisProjeto de Sistemas Distribuídos. Prof. Andrêza Leite andreza.lba@gmail.com
Projeto de Sistemas Distribuídos Prof. Andrêza Leite andreza.lba@gmail.com Agenda Introdução Exemplos de Sistemas Distribuídos Compartilhamento de Recursos e a Web Principais Desafios para a Implementação
Leia maisSISTEMAS OPERACIONAIS CAPÍTULO 3 CONCORRÊNCIA
SISTEMAS OPERACIONAIS CAPÍTULO 3 CONCORRÊNCIA 1. INTRODUÇÃO O conceito de concorrência é o princípio básico para o projeto e a implementação dos sistemas operacionais multiprogramáveis. O sistemas multiprogramáveis
Leia maisMemórias Prof. Galvez Gonçalves
Arquitetura e Organização de Computadores 1 s Prof. Galvez Gonçalves Objetivo: Compreender os tipos de memória e como elas são acionadas nos sistemas computacionais modernos. INTRODUÇÃO Nas aulas anteriores
Leia maisRedes de Computadores II INF-3A
Redes de Computadores II INF-3A 1 ROTEAMENTO 2 Papel do roteador em uma rede de computadores O Roteador é o responsável por encontrar um caminho entre a rede onde está o computador que enviou os dados
Leia maisAo longo do presente capítulo será apresentada uma descrição introdutória da tecnologia FPGA e dos módulos básicos que a constitui.
3 Tecnologia FPGA Ao longo do presente capítulo será apresentada uma descrição introdutória da tecnologia FPGA e dos módulos básicos que a constitui. 3.1. FPGA: Histórico, linguagens e blocos Muitos dos
Leia maisAvaliação de Desempenho em Sistemas de Computação e Comunicação
Avaliação de Desempenho em Sistemas de Computação e Comunicação Universidade Federal do Espírito Santo - UFES Departamento de Informática - DI Laboratório de Pesquisas em Redes Multimidia - LPRM UFES Objetivos
Leia maisArquitetura de Rede de Computadores
TCP/IP Roteamento Arquitetura de Rede de Prof. Pedro Neto Aracaju Sergipe - 2011 Ementa da Disciplina 4. Roteamento i. Máscara de Rede ii. Sub-Redes iii. Números Binários e Máscara de Sub-Rede iv. O Roteador
Leia maisGUIA RÁPIDO. DARUMA Viva de um novo jeito
GUIA RÁPIDO DARUMA Viva de um novo jeito Dicas e Soluções para IPA210 Leia atentamente as dicas a seguir para configurar seu IPA210. Siga todos os tópicos para que seja feita a configuração básica para
Leia maisREDES DE COMPUTADORES Prof. Ricardo Rodrigues Barcelar http://www.ricardobarcelar.com.br
- Aula Complementar - EQUIPAMENTOS DE REDE 1. Repetidor (Regenerador do sinal transmitido) É mais usado nas topologias estrela e barramento. Permite aumentar a extensão do cabo e atua na camada física
Leia maisBACHARELADO EM SISTEMAS DE INFORMAÇÃO EaD UAB/UFSCar Sistemas de Informação - prof. Dr. Hélio Crestana Guardia
O Sistema Operacional que você usa é multitasking? Por multitasking, entende-se a capacidade do SO de ter mais de um processos em execução ao mesmo tempo. É claro que, num dado instante, o número de processos
Leia maisDesempenho de Web Servers
Desempenho de Web Servers Web Servers no Modo Kernel X Web Servers no Modo Usuário Vandécia Rejane Fernandes Universidade Federal do Maranhão (UFMA) Av. dos Portugueses s/n, Campus Universitário do Bacanga
Leia maisSistemas Distribuídos. Professora: Ana Paula Couto DCC 064
Sistemas Distribuídos Professora: Ana Paula Couto DCC 064 Sistemas Distribuídos Basedos na Web Capítulo 12 Agenda Arquitetura Processos Comunicação Nomeação Sincronização Consistência e Replicação Introdução
Leia maisFirewall. Alunos: Hélio Cândido Andersson Sales
Firewall Alunos: Hélio Cândido Andersson Sales O que é Firewall? Firewall pode ser definido como uma barreira de proteção, que controla o tráfego de dados entre seu computador e a Internet (ou entre a
Leia maisNotas da Aula 15 - Fundamentos de Sistemas Operacionais
Notas da Aula 15 - Fundamentos de Sistemas Operacionais 1. Software de Entrada e Saída: Visão Geral Uma das tarefas do Sistema Operacional é simplificar o acesso aos dispositivos de hardware pelos processos
Leia mais6 Trabalhos Relacionados
6 Trabalhos Relacionados 55 6 Trabalhos Relacionados Para avaliar o desempenho da arquitetura DiffServ em prover qualidade de serviços em redes IP, uma série de experimentos tem sido realizados por vários
Leia maisRedes de Computadores. Camada de Transporte de Dados: protocolos TCP e UDP Prof. MSc Hugo Vieira L. Souza
Redes de Computadores Camada de Transporte de Dados: protocolos TCP e UDP Prof. MSc Hugo Vieira L. Souza Este documento está sujeito a copyright. Todos os direitos estão reservados para o todo ou quaisquer
Leia maisFirewalls. Firewalls
Firewalls Firewalls Paredes Corta-Fogo Regula o Fluxo de Tráfego entre as redes Pacote1 INTERNET Pacote2 INTERNET Pacote3 Firewalls Firewalls Barreira de Comunicação entre duas redes Host, roteador, PC
Leia maisRedes de Computadores. Prof. André Y. Kusumoto andre_unip@kusumoto.com.br
Redes de Computadores Prof. André Y. Kusumoto andre_unip@kusumoto.com.br Open Systems Interconnection Modelo OSI No início da utilização das redes de computadores, as tecnologias utilizadas para a comunicação
Leia maisSoftware de rede e Modelo OSI André Proto UNESP - São José do Rio Preto andre.proto@sjrp.unesp.br O que será abordado Hierarquias de protocolos (camadas) Questões de projeto relacionadas às camadas Serviços
Leia maisPROJETO DE REDES www.projetoderedes.com.br
PROJETO DE REDES www.projetoderedes.com.br CENTRO UNIVERSITÁRIO DE VOLTA REDONDA UniFOA Curso Tecnológico de Redes de Computadores Disciplina: Redes Convergentes II Professor: José Maurício S. Pinheiro
Leia maisGerencia de Rede (Desempenho) Professor: Guerra (Aloivo B. Guerra Jr.)
Gerencia de Rede (Desempenho) Professor: Guerra (Aloivo B. Guerra Jr.) Tópicos Gerencia de Rede Motivação da Gerência Desafios Principais Organismos Padronizadores Modelo Amplamente Adotado As Gerências
Leia maisInternet Visão Geral. O que é a Internet? Ong Ação Cidadã
Internet Visão Geral Ong Ação Cidadã O que é a Internet? INTERNET é o conjunto de computadores conectados em escala mundial, utilizando o protocolo TCP/IP para comunicar entre si. Nasceu em 1969 com a
Leia maisO modelo ISO/OSI (Tanenbaum,, 1.4.1)
Cenário das redes no final da década de 70 e início da década de 80: Grande aumento na quantidade e no tamanho das redes Redes criadas através de implementações diferentes de hardware e de software Incompatibilidade
Leia maisPROJETO DE REDES www.projetoderedes.com.br
PROJETO DE REDES www.projetoderedes.com.br Curso de Tecnologia em Redes de Computadores Disciplina: Redes I Fundamentos - 1º Período Professor: José Maurício S. Pinheiro AULA 6: Switching Uma rede corporativa
Leia maisTeleprocessamento e Redes
Teleprocessamento e Redes Aula 19: 29 de junho de 2010 1 camada de transporte camada de rede 2 Questão 1 (Kurose/Ross) camada de transporte camada de rede Um processo em um host C tem um socket UDP com
Leia mais