Até recentemente não tínhamos alternativa para descrever nosso universo interligado.



Documentos relacionados

TRANSMISSÃO DE DADOS Prof. Ricardo Rodrigues Barcelar

O Princípio da Complementaridade e o papel do observador na Mecânica Quântica

Empreenda! 9ª Edição Roteiro de Apoio ao Plano de Negócios. Preparamos este roteiro para ajudá-lo (a) a desenvolver o seu Plano de Negócios.

O guia completo para uma presença. online IMBATÍVEL!

Aula 4 Estatística Conceitos básicos

APÊNDICE. Planejando a mudança. O kit correto

COMO FUNCIONA NOSSA CONSULTORIA DE MARKETING DIGITAL ESPECIALIZADA EM VENDAS ONLINE

O sucesso de hoje não garante o sucesso de amanhã

1. Explicando Roteamento um exemplo prático. Através da análise de uns exemplos simples será possível compreender como o roteamento funciona.

2 Fundamentação Conceitual

Figura 5.1.Modelo não linear de um neurônio j da camada k+1. Fonte: HAYKIN, 2001

AFETA A SAÚDE DAS PESSOAS

INSTITUTO PRESBITERIANO MACKENZIE COLÉGIO PRESBITERIANO MACKENZIE SP Informática Educacional

Montagem e Manutenção. Luís Guilherme A. Pontes

4Distribuição de. freqüência

COMECE A TRABALHAR COM A INTERNET

BEM-VINDA!!

FILOSOFIA SEM FILÓSOFOS: ANÁLISE DE CONCEITOS COMO MÉTODO E CONTEÚDO PARA O ENSINO MÉDIO 1. Introdução. Daniel+Durante+Pereira+Alves+

Trabalho Computacional

TEXTO 7: DELINEAMENTOS PRÉ-EXPERIMENTAIS 1

MÓDULO 5 O SENSO COMUM

A Maquina de Vendas Online É Fraude, Reclame AQUI

Exercícios Teóricos Resolvidos

Indicamos inicialmente os números de cada item do questionário e, em seguida, apresentamos os dados com os comentários dos alunos.

Conversando com a Família Práticas Narrativas

7 Ações para afastar a crise Utilizando o marketing para melhorar suas vendas.

A Epistemologia de Humberto Maturana

O PAPEL EMPREENDEDOR NO SISTEMA DE GESTÃO DA QUALIDADE * PALAVRAS-CHAVE: Sistema de Gestão da Qualidade. Representante da Diretoria. ISO 9001.

Meu nome é José Guilherme Monteiro Paixão. Nasci em Campos dos Goytacazes, Norte Fluminense, Estado do Rio de Janeiro, em 24 de agosto de 1957.

Aprimoramento através da integração

ORGANIZAÇÃO DE COMPUTADORES MÓDULO 1

Gabriela Zilioti, graduanda de Licenciatura e Bacharelado em Geografia na Universidade Estadual de Campinas.

Índice. Introdução 2. Quais funcionalidades uma boa plataforma de EAD deve ter? 4. Quais são as vantagens de ter uma plataforma EAD?

ADMINISTRAÇÃO GERAL MOTIVAÇÃO

Cinco restrições de desenvolvimento/teste que afetam a velocidade, o custo e a qualidade dos seus aplicativos

Dinheiro Opções Elvis Pfützenreuter

A Matemática do ENEM em Bizus

Programação em papel quadriculado

As Organizações e a Teoria Organizacional

REDES DE COMPUTADORES E TELECOMUNICAÇÕES MÓDULO 1

COMO USAR AS MÍDIAS SOCIAIS PARA VENDER MAIS NA INTERNET. tyngu.com.br

Campus Capivari Análise e Desenvolvimento de Sistemas (ADS) Prof. André Luís Belini prof.andre.luis.belini@gmail.com /

1. Introdução. Avaliação de Usabilidade Página 1

Educação Patrimonial Centro de Memória

3) As afirmativas a seguir referem-se ao processo de especiação (formação de novas espécies). Com relação a esse processo é INCORRETO afirmar que

Markes Roberto Vaccaro

Laços Fortes e Fracos

3 Estratégia para o enriquecimento de informações

Arquitetura de Rede de Computadores

Elaboração de Projetos

Capítulo 2. Processos de Software Pearson Prentice Hall. Todos os direitos reservados. slide 1

Lições para o crescimento econômico adotadas em outros países

Metadados. 1. Introdução. 2. O que são Metadados? 3. O Valor dos Metadados

Súmula Teoria Energética. Paulo Gontijo

ipea políticas sociais acompanhamento e análise 7 ago GASTOS SOCIAIS: FOCALIZAR VERSUS UNIVERSALIZAR José Márcio Camargo*

O que a Postura Consultiva tem a ver com Você

Empreenda! 8ª Edição Roteiro de Apoio ao Plano de Negócios. Preparamos este roteiro para ajudá-lo(a) a desenvolver o seu Plano de Negócios.

DESENVOLVENDO COMPETÊNCIAS MATEMÁTICAS Marineusa Gazzetta *

soluções inovadoras para desafios de negócios Manual explicativo do quadro do modelo de negócios passo a passo com exemplos

Equipamentos de rede. Repetidores. Repetidores. Prof. Leandro Pykosz

Análise e Projeto de Software

Medindo a Produtividade do Desenvolvimento de Aplicativos

Princípios do teste de software

PLANEJAMENTO FINANCEIRO PESSOAL O GUIA PARA COMEÇAR A TER SUCESSO NAS FINANÇAS

Profissionaldo Futuro. Marcos Martins

Data 23/01/2008. Guia do Professor. Introdução

Cartilha do ALUNO EMPREENDEDOR POLITÉCNICA

ESTUDO DE VIABILIDADE. Santander, Victor - Unioeste Aula de Luiz Eduardo Guarino de Vasconcelos

As 10 Melhores Dicas de Como Fazer um Planejamento Financeiro Pessoal Poderoso

22/05/2006. Discurso do Presidente da República

3.1 Definições Uma classe é a descrição de um tipo de objeto.

Aumente o valor do ciclo de vida de cada cliente

Guia Prático para Encontrar o Seu.

Roteamento e Comutação

COMO USAR SMS ADDITIONAL TEXT EM UMA CAMPANHA ELEITORAL?

Objetivos das Famílias e os Fundos de Investimento

SIMULADO DO TESTE DE RESOLUÇÃO DE PROBLEMAS

Olá, Somos Ideatera - Studio Tecnológico

Processos de gerenciamento de projetos em um projeto

A GLOBALIZAÇÃO UM MUNDO EM MUDANÇA

5 DICAS DE GESTÃO EM TEMPOS DE CRISE. Um guia prático com 5 dicas primordiais de como ser um bom gestor durante um período de crise.

COMO INICIAR O RELACIONAMENTO COM OS LEADS? 8 passos para TER UMA SEQUÊNCIA DE S BEM SUCEDIDA.

BACHARELADO EM SISTEMAS DE INFORMAÇÃO EaD UAB/UFSCar Sistemas de Informação - prof. Dr. Hélio Crestana Guardia

POR QUE SONHAR SE NÃO PARA REALIZAR?

Engenharia de Software e Gerência de Projetos Prof. Esp. André Luís Belini Bacharel em Sistemas de Informações MBA em Gestão Estratégica de Negócios

-Problemas de pesquisa: comprovação de uma hipótese. Ex: Hipótese do CFC

Sistemas Operacionais. Prof. André Y. Kusumoto

Motivação. Robert B. Dilts

Como erguer um piano sem fazer força

7 Conclusões e caminhos futuros

LOGÍSTICA Professor: Dr. Edwin B. Mitacc Meza

Prof. Rodrigo de Aquino Gomes

1 Um guia para este livro

Ao redigir este pequeno guia pretendi ser conciso, indo directamente ao essencial.

Resumo Descritivo dos Conteúdos das Disciplinas de Ementa Aberta para

Equipe OC- Olimpíadas Científicas


Unidade IV GERENCIAMENTO DE SISTEMAS. Prof. Roberto Marcello

STC5 Redes de informação e comunicação

Transcrição:

Teoria dos grafos é um ramo da matemática cujo pioneiro foi Euler. Paul Erdıs e Alfréd Rényi propuseram uma resposta matemática para descrever todos os grafos complexos num único framework. Eles disseram que, para estarmos interconectados, basta haver uma ligação por nó. Redes de fato não apenas são conectadas mas têm muito mais do que um link. Teoria das redes aleatórias diz que conforme o número médio de ligações aumenta além do patamar crítico de uma ligação, o número de nós deixados de fora diminui exponencialmente (p. 19). Assim, as redes à nossa volta são mais do que simples teias, são redes densas das quais nada escapa e dentro das quais cada nó é navegável. Antes de Erdıs e Rényi a teoria dos grafos focavam exclusivamente em grafos regulares, que não contêm ambiguidade em sua estrutura. Essa regularidade está ausente em grafos randômicos. Links são colocados aleatoriamente; logo todos os nós têm a mesma chance de obter algum, mas, de fato, alguns nós obtêm mais links do que outros. Uma previsão da teoria de Erdıs e Rényi nos diz que, a despeito da colocação completamente aleatória de links, se a rede é grande, quase todos os nós terão aproximadamente o mesmo número de links. O universo randômico de Erdıs e Rényi é dominado por médias. A sua teoria das redes aleatórias dominou o pensamento científico sobre redes desde sua introdução em 1959. Criou paradigmas que estão nas mentes dos que trabalham com redes. Ele iguala complexidade com aleatoriedade. Até recentemente não tínhamos alternativa para descrever nosso universo interligado. Seis graus de separação foi redescoberto em 1967 por Stanley Milgram, de Harvard, décadas depois de Frigyes Karinthy, um escritor húngaro, que escreveu em 1929 uma pequena história, Láncszemek ou Chains, falando sobre uma demonstração de que pessoas na Terra estavam muito mais próximas que nunca. Ele intuiu que as pessoas estavam ligadas por no máximo cinco ligações. Milgram determinou que o número de pessoas requerido para fazer uma carta alcançar seu alvo era de 5.5, muito perto da sugestão de Karinthy. Milgram nunca usou a expressão seis graus de separação ; foi John Guare quem originou o termo em sua peça de teatro em 1991, que deu origem a um filme com o mesmo título. Sabemos hoje que redes sociais não são os únicos mundos pequenos. A despeito de bilhões de nós, pode a Internet ser um mundo pequeno? O tamanho estimado da web publicamente indexável estava em torno de 800 milhões de nós no final de 1998, e o seu diâmetro, próximo de 19, ou seja haveria 19 graus de separação entre documentos usandose a expressão de Guare. Quando a conectividade média é cerca de um link por nó, a separação entre nós pode ser grande. Mas conforme adicionamos mais links, a distância entre nós subitamente colapsa. Considere uma rede na qual os nós tenham em média k links. Isso significa que poderemos alcançar k outros nós com um passo. Há k 2 nós dois links adiante, e k d nós exatamente d links adiante. Se k é grande, o número de nós que se pode 1

alcançar pode tornar-se muito grande, mesmo para pequenos valores de d. Com poucos passos se alcançam todos os nós: isso explica o motivo pelo qual a separação média é tão pequena na maioria das redes. O logaritmo diminui as grandes redes, criando mundos pequenos em torno de nós. Não importa onde estejamos, usualmente poderemos encontrar alguém na Internet quando quisermos. O mundo está encolhendo (shrinking) porque ligações sociais são mantidas vivas e ativas. Pode ser que estejamos mais próximos atualmente do que Milgram estimou e do que Karinthy estimou. Mundos pequenos é uma propriedade genérica das redes em geral. Harrison White, um pioneiro da perspectiva de redes nas ciências sociais, expôs Mark Granovetter às redes sociais já em seus estudos de graduação. Granovetter finalmente publicou, em maio de 1973, trabalho tratando da força dos laços fracos. Seu argumento supõe uma imagem da sociedade muito diferente do universo randômico de Erdıs. No mundo social de Mark Granovetter, nossos amigos prósimos são frequentemente próximos entre si. A rede por trás desta sociedade clusterizada consiste de círculos pequenos de amigos completamente conectados por laços fortes. Laços fracos conectam membros desses círculos de amizade. Laços fracos jogam um papel importante em muitas atividades sociais, desde a difusão de rumores até a obtenção de emprego. Para obter uma informação, devemos ativar nossos laços fracos. Clusters na sociedade são algo que entendemos intuitivamente. Entretanto a propriedade de redes sociais revela algo genérico sobre a maioria das redes. Watts e Strogatz, estudando o diagrama da rede neural de um dos mais simples organismos multicelulares, encontraram que esta estreita rede não é muito diferente da sociedade. Graças ao interesse em cluster gerado por seus estudos, a comunidade científica examinou muitas redes subsequentemente. O achado surpreendente de Watts e Strogatz é que poucos links extras são suficientes para drasticamente decrescer a separação média entre os nós. E esses poucos links não mudarão de modo significativo o coeficiente de clusterização. Grandes redes não necessitam estar cheias de links aleatórios para mostrar características de pequenos mundos. Poucos links farão o trabalho. Conectores são nós com um grande e anômalo número de links. Eles estão presentes em diversos sistemas complexos. Eles são um componente extremamente importante de nossa rede social. Ciberespaço encarna a definitiva liberdade de expressão? Se a web fosse uma rede aleatória isso poderia ser verdade, mas não é. Quanto mais links de entrada apontam para sua página web, mais visível ela é. Cerca de 90% dos documentos têm 10 ou menos links apontando para ele, enquanto poucos, cerca de três, são referenciados por cerca de milhões de outras páginas. Os hubs são o mais forte argumento contra a visão utópica de um ciberespaço igualitário. Em redes, o tamanho nem sempre importa. Conforme as redes são clusterizadas, os nós que são 2

conectados a outros nós em seus próprios clusters podem ter um papel central numa dada subcultura ou gênero. Porém, sem links que os conecte para fora, eles podem estar muito longe de nós que estão em outros clusters. A verdadeira posição central em redes é reservada para aqueles nós que são simultaneamente parte de um cluster mais amplo caso por exemplo de pessoas que regularmente entram em contato com pessoas de diversos campos e estratos, pessoas que não podem ser confinadas na caixa. Hubs aparecem na maioria das grandes redes complexas. Eles são ubíquos, um alicerce (building block) genérico para nosso mundo complexo e interconectado. Eles dominam a estrutura de todas as redes, fazendo-as assemelhar-se a mundos pequenos. Possuindo links para um grande número de nós, os hubs criam atalhos entre dois nós em um sistema. Enquanto o grau de separação entre duas pessoas randomicamente selecionadas no mundo é seis, a distância entre qualquer um e um conector é frequentemente apenas de um ou dois. A maioria das quantidades na natureza segue uma distribuição numa curva com um pico, desenhando um gráfico tipo sino. A distribuição do tipo lei de potência é diferente dessas curvas. Ela não tem um pico. Um histograma seguindo a lei de potência é uma curva continuamente decrescente. Sua característica é que muitos pequenos eventos coexistem com alguns muito grandes. Isso indica que nas redes reais não há um tipo de nó característico. Não há uma dimensão (scale) intrínseca nessas redes. Por essa razão meu grupo de pesquisa descreveu redes com grau de distribuição do tipo lei de potência (power-law) como sem escala (scale-free), termo que se infiltrou nas maiorias das disciplinas que tratam com redes complexas. A hierarquia dos onipresentes hubs e as leis de potência que a acompanham foram observadas pelas teorias das redes quando nós as descobrimos em 1999. Essa descoberta levou a predizer que cada rede livre de escala tem vários hubs grandes que irão definir a topologia da rede. Desde a web até as redes dentro das células, as redes de maior importância conceitual são livres de escala. Isso deu legitimidade aos hubs. Os hubs determinam a estabilidade estrutural, o comportamento dinâmico, a robustez e tolerância ao erro e a ataques em redes reais. As leis de potência (power law) formulam em termos matemáticos a noção de que poucos grandes eventos conduzem a maioria das ações. Físicos aprenderam que mais frequentemente elas assinalam a transição da desordem para a ordem. Redes complexas finalmente começaram a falar uma linguagem que cientistas treinados em auto-organização e complexidade entendem. Elas falam de ordem e comportamentos emergentes. Elas estão no coração do algumas das descobertas conceituais mais assombrosas da segunda metade do século XX, que emergem em campos como caos, fractais e transição de fase. Revelando ligações com outros fenômenos naturais, colocou as redes no primeiro plano de nosso entendimento dos sistemas complexos em geral. À medida que físicos investigaram como em vários sistemas a ordem emerge da desordem, mais se descobriram leis de potência operando durante a transição de fase. As mesmas leis emergem conforme líquidos se transformam em gás uma vez que são aquecidos ou quando um pedaço de chumbo torna-se um supercondutor, uma vez que seja suficientemente gelado. A transição desordem-ordem começou a mostrar 3

um grau surpreendente de consistência matemática. A teoria da transição de fase disse-nos que leis de potências não é apenas outro modo de caracterizar comportamento de sistema. Elas são assinaturas da auto-organização em sistemas complexos (p. 77). Dando lugar à ordem, sistemas complexos despem-se de suas características particulares e apresentam um comportamento universal com características similares em uma grande série de sistemas. Atrás dos hubs há uma expressão matemática, a lei da potência. O modelo de Erdıs e Rényi apoia-se em dois pressupostos: o número de nós é fixo e não se altera durante a vida da rede e todos os nós se equivalem. Entretanto a descoberta de hubs e as leis de potência que os descrevem nos forçaram a abandonar ambos os pressupostos. O modelo de rede cujo crescimento está baseado na seleção randômica de nós com cada nó tendo igual chance de obter novas ligações levou à identificação de ganhadores e perdedores, com clara vantagem para os nós mais antigos, pois tiveram mais tempo de coletar links. Mas este modelo sozinho não explica a emergência de leis de potência. Uma simples reflexão sobre como nós fazemos nossas escolhas nos indica que escolhemos os nós que são mais familiares. Quanto mais links esses nós atraem, mais fácil é encontrá-los na Web e portanto mais familiares eles se tornam. Nós preferimos hubs. Nas redes reais ligações nunca são randômicas. Popularidade atrai. Páginas web com maior número de links são possivelmente as mais conectadas. A evolução da rede é governada por leis de preferência. Combinando crescimento e ligação preferencial, nós podemos explicar os hubs. Uma vez que esse modelo é o primeiro a explicar as leis de potência sem escala (scale-free power laws) como é visto nas redes reais, rapidamente ele se chamou modelo scale-free. Em redes complexas essa estrutura livre de escala não é a exceção mas a regra. A compreensão da estrutura da rede não pode estar divorciada da compreensão da sua evolução. As redes não estão na rota de um estado aleatório para um estado de ordem (p. 91). A topologia livre de escala é a evidência de princípios organizadores agindo em cada estágio do processo de formação da rede. Não importa quão grande e complexa ela se torne, conforme ligação preferencial e crescimento estejam presentes, ela manterá sua topologia livre de escala dominada por hub. No modelo livre de escala assumimos que a atratividade de um nó é determinada apenas por seu número de links. Num ambiente competitivo, aptidão (fitness, habilidade, competência) também joga um papel (p. 96). Fitness é uma medida quantitativa da habilidade de um nós de estar na frente da competição. Na presença da aptidão, os nós que nasceram primeiro não são necessariamente os ganhadores. Aptidão é o condutor, criando ou quebrando o hub. Na maioria das redes a competição não tem um impacto notável na sua topologia. Em algumas, porém, o ganhador pega todos os links. Os primeiros incluem redes em que a topologia livre de escalas sobrevive. 4

Elas apresentam um comportamento do tipo o mais apto se torna mais rico, contudo a liderança do ganhador não é significativa: o maior hub é seguido de perto por um menor. Temos uma hierarquia de nós cujo grau de distribuição segue a lei de potência. Os segundos, do tipo o ganhador pega tudo, desenvolve uma topologia tipo estrela, na qual os nós são conectados ao hub central. Nesse caso, há uma imensa separação entre o hub solitário e todos os demais no sistema. A rede o ganhador pega tudo não é livre de escalas. Não há lugar para potenciais desafiadores. Conforme pensamos em redes como aleatórias, modelamos as redes como gráficos estáticos. O modelo livre de escala reflete nosso despertar para a realidade: redes são sistemas dinâmicos que mudam constantemente sob a adição de novos nós e links. O modelo fitness permite-nos descrever redes como sistemas competitivos nos quais os nós competem ferozmente por ligações. Agora a condensação de Bose- Einstein 1 explica como alguns ganhadores pegam tudo (p. 106). Em redes que apresentam comportamento do tipo aptidão enriquece, a competição leva a topologias livre de escala. A maioria das redes que estudamos a Web, a Internet, as células, Hollywood e outras redes pertencem a esta categoria. O ganhador compartilha os holofotes com uma hierarquia contínua de hubs. A Internet, diferentemente de outros sistemas humanos, mostra um alto grau de robustez contra falhas do roteador, embora em dado momento centenas de roteadores da Internet funcionem mal. Uma fração significativa de nós pode ser aleatoriamente removida de qualquer rede sem escalas sem que a rede se separe. Web, celular, redes sociais são conhecidas por serem livres de escala. Sua bem conhecida resiliência a erros é uma propriedade inerente à sua topologia. A característica distintiva de redes sem escalas é a existência de hubs. A remoção acidental de um único hub não será fatal desde que a hierarquia contínua de vários grandes hubs manterá a integridade da rede. Contudo remova alguns dos hubs, e a rede sem escalas cairá em pedaços em pouco tempo. A remoção da maioria dos nós mais conectados rapidamente desintegra essas redes, quebrando-as em pequenas ilhas que não se comunicam. Do mesmo modo, ecossistemas podem facilmente sobreviver à extinção de espécies. Contudo se algumas espécies altamente conectadas são removidas, o ecossistema pode colapsar dramaticamente. De modo inverso, a proteção de uma única espécie, o hub, altera dramaticamente tanto a economia como a ecologia de uma linha costeira, por exemplo. Embora redes livres de escalas sejam vulneráveis a ataques, vários dos maiores hubs devem ser simultaneamente removidos para esmagá-las. Pode parecer que a topologia da Internet é uma defesa contra quebras aleatórias e assaltos maliciosos. Mas apostar na estabilidade topológica contra ataques é 1 Quando todas as partículas caem num estado de baixa energia, deixando os níveis restantes de energia despovoados. 5

uma falsa segurança. Durante décadas, se quiséssemos estimar a probabilidade de que uma inovação se difundisse necessitávamos saber sua taxa de difusão e o patamar crítico que ela enfrentava. Recentemente aprendemos que algumas viroses e inovações ignoram isto. Como no caso da AIDS, como na difusão da inovação e viroses de computador, hubs estão entre os primeiros a serem infectados. Uma vez infectados, eles rapidamente infectam milhares de outros. Se nossa rede sexual formasse uma rede homogênea e aleatória, a AIDS [graças às políticas públicas de saúde] deveria ter acabado muito tempo atrás. A topologia sem escalas é que permite ao vírus se difundir e persistir. Desse modo, políticas que se dirigem aos nós mais conectados restauraram o patamar crítico (threshold) da epidemia. Isto quer dizer que, ainda que nós não tenhamos sucesso em encontrar todos os hubs, ao tentar fazê-lo podemos diminuir a taxa com que uma doença se difunde (p. 140). Enquanto divulgação e difusão têm propriedades universais, sistemas individuais têm características únicas que são frequentemente tão importantes quanto as leis gerais. Para sermos capazes de fazer previsões detalhadas da difusão de uma doença, os modelos devem incluir muitos detalhes específicos à pandemia. As mudanças recentes nos paradigmas de difusão e estudos de epidemia tornaram-se possíveis graças à riqueza de dados oferecidos pela Internet. A Internet nos ajudou a descobrir redes sem escalas, em primeiro lugar. Viroses navegando na Internet permitiram insights e dados necessários para o estudo, descobrindo a natureza livre de limiar que algumas epidemias. O despertar da Internet Em 1959, a RAND Corporation encomendou a Paul Baran o desenvolvimento de um sistema de comunicação que pudesse sobreviver a um ataque nuclear. Ele queria projetar um sistema em que os usuários não perdessem contato fora do âmbito da área atacada. Inspecionando os sistemas de comunicação daquele tempo, ele viu três tipos de rede. Ele descartou a topologia em estrela, concluindo que a rede centralizada é a mais vulnerável. Ele viu o sistema corrente como uma estrutura hierárquica de um conjunto de estrelas conectadas na forma de uma grande estrela, oferecendo assim a descrição de uma rede sem escalas. Ele achou essa topologia muito centralizada para ser viável sob ataque. Para ele, a arquitetura ideal seria uma rede distribuída em forma de malha, como sistemas de vias de alta velocidade, redundantes o suficiente para oferecer caminhos alternativos para a conexão com o restante dos nós. Suas ideias e inovações foram ignoradas pelos militares. Como consequência, a topologia atual da Internet tem pouco a ver com sua visão. A razão para a objeção não está na topologia proposta por Baran, mas a sua proposta de quebrar as mensagens em pequenos pacotes de tamanho uniforme capaz de viajar de forma independente uns dos outros. Isso não seria conseguido com sistemas analógicos. Assim, ele defendeu uma mudança para o sistema digital. As ideias de Baran foram redescobertas anos depois pela Advanced Research Projects Agency ARPA, 6

que de modo independente construiu a mesma visão. Estruturalmente, a Internet é mais próxima de um ecossistema do que de um relógio suíço. ARPA foi a resposta de presidente Eisenhower ao lançamento do satélite Sputinik pelos soviéticos. ARPA perdeu musculatura após a NASA assumir o controle do programa espacial. Buscando uma missão, ARPA se reinventou para coordenar pesquisas de longa duração relevantes para os militares. A Internet entrou em cena em torno de 1965/66. Em 1960, a ARPA já financiava pesquisa de computadores. Em 1966, investiu numa solução para acabar com gastos relacionados à existência de monstros de milhões de dólares em vários laboratórios de pesquisa mas que não falavam entre si. Conectar computadores também ocorreu ao diretor de ciência da computação no Britain s National Physical Laboratory, na Inglaterra, cujo grupo de pesquisa apresentou conceitos de comutação de pacotes num simpósio em 1967. Logo ficou claro para todos que comutação de pacotes sobre linhas mais rápidas era a tecnologia requerida para criar uma rede realmente eficiente. Finalmente a visão de Baran de uma década atrás começou a se materializar. Aqui nos referimos à Internet como uma rede de roteadores que se comunicam entre si através de protocolos imaginados por Paul Baran e tornados possíveis graças aos fundos da ARPA. Hoje a Internet tornou-se distribuída, descentralizada e guardada localmente. Nenhuma única companhia ou pessoa controla mais do que uma insignificante fração da Internet como um todo. A maioria do uso atual da Internet era inimaginável para aqueles que projetaram sua infraestrutura básica, que ainda está em vigor. O mesmo é verdade para a World Wilde Web. A infraestrutura nunca foi preparada para isso. Encontramo-nos enclausurados numa tecnologia que se adapta com grande dificuldade para uma diversidade e demanda crescentes impostas por um uso crescentemente criativo da Internet. Até meados dos anos 90 toda pesquisa concentrou-se em projetar novos protocolos e componentes. Atualmente muitos dos diversos componentes, desenvolvidos separadamente, contribuem para o funcionamento de um sistema que é muito mais do que a soma de suas partes. Consequentemente os pesquisadores em Internet estão se transformando de projetistas em exploradores. De modo similar a biólogos ou ecologistas, eles se deparam com um sistema incrivelmente complexo que, para todos os propósitos práticos, existe independentemente deles. O que nem cientistas da computação nem biólogos sabem é como a estrutura de grande escala emerge uma vez que colocamos as peças juntas (p. 150). Pesquisadores do International Computer Science Institute Center for Internet Research, em Berkley, mostraram num paper de 1997 que a Internet, essa coleção de roteadores ligados por linhas físicas, é uma rede sem escalas. Portanto todas as ferramentas usadas para modelar a estrutura da Internet antes de 1999 baseadas em ideias de redes aleatórias estavam simplesmente erradas. A Internet continua a se expandir nó a nó. Mas, de olho na largura de banda que é a medida da quantidade de bits que uma conexão carrega a cada segundo, o nó mais próximo não é frequentemente a melhor escolha. Indo um pouco mais longe, é possível acessar roteadores mais velozes. Roteadores oferecendo maior banda, provavelmente terão maior número de links. Crescimento e ligações preferenciais (preferential attachment) deveriam ser suficientes para explicar a topologia livre de escalas. 7

Mas na Internet as coisas são um pouco mais complicadas. Roteadores são adicionados onde haja demanda por eles, e demanda depende do número de pessoas desejando usar a Internet. Logo há uma forte correlação entre densidade populacional e densidade de nós de Internet. Quando tentamos modelar a Internet temos simultaneamente de conhecer a interação entre crescimento, ligação preferencial, dependência da distância e estrutura fractal subjacente. Cada uma dessas forças, sozinha, no limite pode destruir a topologia livre de escala. Mas o interessante é que esses mecanismos coexistem num balanceamento delicado, mantendo a Internet sem escalas. Hoje, virtualmente, cada país na Terra está conectado à Internet. A crescente interação entre arquitetura de rede e protocolos apresenta o seguinte quadro: poucos bem-treinados crackers poderiam destruir a rede em 30 minutos a partir de algum lugar do mundo (p. 154). Derrubar alguns poucos nós maiores pode não ser suficiente para quebrar a rede, mas uma cascata de falhas em outros roteadores, resultante da redireção do tráfego para nós menores, poderia concluir esse trabalho. Temos tido sensores por muito tempo, de câmeras de vigilância a detectores de presença. Há mais de 3 bilhões de celulares conectados à Internet e perto de 16 milhões de computadores conectados e embutidos em torradeiras. O que está mudando é que, pela primeira vez, esses vários sensores estão alimentando informação num único sistema integrado. Web fragmentada A despeito dos bilhões de documentos na web, 19 graus de separação sugere que ela seja facilmente navegável. Grande ainda que pequena. Mas o mundo pequeno por trás dela é um engano. Começando de uma página podemos alcançar apenas cerca de 24% dos documentos. O resto é invisível para nós, inalcançável. Isso é consequência do fato de que navegando com uma dada URL viajamos em apenas uma direção. Não há garantias de que haja caminho inverso entre dois nós não conectados diretamente. Redes direcionadas não representam uma nova classe de redes. Seja a rede livre de escala ou aleatória, ligações podem ser direcionadas ou não direcionadas. A Web, assim como a cadeia alimentar, é direcionada. Uma das consequências mais importantes desse fato é que a Web não forma uma única rede homogênea. Ela é feita de continentes, cada um dos quais força-nos a obedecer diferentes regras de tráfegos quanto tentamos navegá-los. O primeiro continente, usualmente chamado o central core contém cerca de ¼ de todas as páginas Web. Ele hospeda os maiores sites, como Yahoo, CNN.com. Ele é facilmente navegável, uma vez que há caminhos entre qualquer de dois documentos a ele pertencentes. O segundo (IN) e terceiro (OUT) continentes são tão grandes quanto o central, mas mais difíceis de serem navegados. Do segundo pode-se alcançar o central, mas não é possível o caminho inverso. Os nós pertencentes ao terceiro continente, por sua vez, podem ser facilmente alcançados a partir do continente central, mas uma vez atingido não permite o retorno ao centro. O quarto continente é feito de golfos e de ilhas desconectadas. Estas últimas são 8

grupos isolados de páginas interligadas, inacessíveis a partir do central core e que não possuem links para este. As páginas que você pode alcançar dependem de seu ponto de partida. Se sua página está numa ilha, os engenhos de busca não a descobrirão jamais, a menos que você submeta sua URL a eles. Será que a evolução e crescimento da Web eventualmente absorverão os quatro continentes num único? Não, na medida em que os links continuem sendo direcionados. Continentes são peculiares à Web. Eles aparecem em redes direcionadas. A rede de citações em trabalhos científicos têm por exemplo links direcionados. Essa é uma rede direcionada peculiar em que os componentes IN e OUT refletem uma ordem histórica de artigos. Estudos examinando sites políticos e focalizando discursos democráticos na Web concluíram que apenas 15% deles provêm links para pontos de vista diferentes. Isso dá sustento ao receio de que limitar o acesso a pontos de vista diferentes encoraja a segregação e fragmentação social da Web (p. 170). Comunidades são componentes essenciais da história social humana. Um efeito de nossa vida digital é que nossas crenças e afiliações são publicamente disponíveis. Podemos localizar comunidades numa Web gigantesca? Não há fronteiras definidas entre várias comunidades. O mesmo website pode pertencer simultaneamente a diferentes grupos. Longe de ser um mar homogêneo de nós e ligações, a Web é fragmentada em quatro continentes, cada um deles hospeda muitas vilas e cidades que aparecem como comunidades sobrepostas (p. 172). Em minha visão, para entender o ciberespaço, precisamos distinguir entre código e arquitetura. Código ou software é o tijolo e argamassa do ciberespaço. A arquitetura é o que nós construímos usando o código como alicerce (building blocks). Como em prédios, a arquitetura da web é o produto de duas camadas igualmente importantes: código e ações humanas coletivas que tiram vantagem do código (p. 174). O primeiro pode ser regulado por cortes, governos e companhias. O segundo, porém, não pode ser desenhado por nenhum usuário ou instituição, porque a web não tem um design central, ela é autoorganizada. Como resultado sua arquitetura é muito mais rica do que a soma de suas partes. A maioria das características realmente importantes e propriedades emergentes da web deriva de sua topologia autoorganizada em larga escala. Lessig está certo: a arquitetura da web controla tudo, do acesso a consumidores até a probabilidade de ser visitado por aqueles que surfam nos links. Mas a ciência da web crescentemente prova que esta arquitetura representa um nível mais alto de organização do que o código. Nossa habilidade de achar minha webpage é determinada por um único fator: sua posição na web. Portanto a topologia de larga escala da web sua verdadeira arquitetura impõe mais limitações severas em nosso comportamento e visibilidade na web do que governos e indústria poderiam obter através da manipulação do código (p. 175). 9

Internet Archives permitem traçar quando e onde webpages e links foram adicionados e removidos, como alguns nós posteriores tornaram-se populares rapidamente e como primeiros hubs perderam seu brilho. Comparando os mapas da web em diferentes intervalos de tempo, pode-se seguir a emergência e cristalização de comunidades virtuais. Sua principal coleção provém do Alexa, o mecanismo de busca fundado em 1996. Como se viu, esses mecanismos cobrem apenas uma pequena fração da web. Alexa pegou os hubs. Aprendemos que o universo online é muito maior do que alguém houvesse antecipado. A verdade é que, sem os robôs, ele seria um buraco negro. Robôs livram a web do colapso ante sua crescente complexidade. Mantêm ordem no caos de nós e links (p. 178). Economia em rede Redes não oferecem uma droga milagrosa, uma estratégia que torna invencível qualquer ambiente de negócios. O seu papel verdadeiramente importante é ajudar as organizações existentes a se adaptarem rapidamente às mudanças das condições de mercado. O verdadeiro conceito de rede implica uma abordagem multidimensional. Hoje sabemos que, embora as redes reais não sejam aleatórias como Erdos e Rényi imaginaram, acaso e aleatoriedade jogam um importante papel em sua constituição. Redes reais não são estáticas, como todos os grafos de modelos teóricos eram até recentemente. Em vez disso, crescimento joga um papel chave no desenho de sua topologia. Elas não são tão centralizadas com redes em estrela são. Mais ainda, há uma hierarquia de hubs que mantém essas redes juntas, um nó fortemente conectado seguido de perto por muitos nós menos conectados, seguidos por dúzias de nós ainda menores. Nenhum nó central se situa no meio da teia de aranha, controlando e monitorando cada link ou nó. Não há um único nó cuja remoção quebre a teia. A rede sem escalas é uma rede sem aranha. Tampouco há um design meticuloso por trás dessas redes. Redes reais são auto-organizadas. Elas oferecem um exemplo de como ações independentes de milhões de nós e links levam a comportamentos emergentes. A robustez das leis que governam a emergência de redes complexas é a explanação para a ubiquidade da topologia livre de escalas, descrevendo sistemas como redes por trás da linguagem, links entre proteínas na célula, metabolismo das células, a Internet, Hollywood, a WWW, etc. Enquanto seis graus de separação e mundos pequenos têm estado conosco desde os anos 1960, só no final dos anos 1990 é que começamos a descobrir os intrincados princípios organizacionais que desenham sistemas complexos como as células e a Internet. A imensa World Wide Web ofereceu a primeira ocasião para examinar a intrincada anatomia de grandes sistemas complexos e estabeleceu a presença das leis de potência. Modularidade é uma característica definidora da maioria dos sistemas complexos. A Web é fragmentada em pequenas comunidades de webpages interligadas cujos criadores compartilham interesses. Nem o modelo 10

sem escalas nem o modelo aleatório mostra sinais de modularidade. Mas redes reais são claramente sem escalas e parecem ser modulares ao mesmo tempo. Modularidade hierárquica jogou nova luz sobre o papel dos hubs: eles mantêm a comunicação entre módulos. Pequenos hubs têm links para nós pertencentes a poucos módulos menores. Grandes hubs agem como o CEO da companhia principal, possuindo jurisdição sobre a maioria dos departamentos e módulos, mantendo juntas comunidades de diferentes tamanhos e culturas. Modularidade hierárquica tem significativas vantagens: permite que partes do sistema se desenvolvam separadamente. Nos sistemas naturais, modularidade permite a evolução experimentar separadamente funções particulares. Modularidade hierárquica é uma propriedade genérica da maioria das redes reais, acompanhando a arquitetura sem escala. É a modularidade hierárquica que faz a multitarefa possível: enquanto interconexões densas dentro de cada módulo ajuda a realização eficiente de tarefas específicas, os hubs coordenam a comunicação entre muitas funções paralelas. Redes se tornaram as máquinas de raio-x de nossa conectividade, diagnosticando a célula ou a Web com a mesma facilidade. Graças aos rápidos avanços da teoria de redes, parece não estar longe nosso próximo grande passo: construir uma teoria geral da complexidade. O mistério da vida começa com uma intrincada teia de interações. O enigma da sociedade começa com a complicada estrutura da rede social. Redes são o pré-requisito para descrever qualquer sistema complexo (p. 238). 11