UTILIZE A PESQUISA!

IPv6

IPv6 é a versão mais atual do IP (Internet Protocol). Originalmente oficializada em 6 de junho de 2012, é fruto do esforço do IETF para criar a "nova geração do IP" (IPng: Internet Protocol next generation).

O principal motivo para a implantação do IPv6 na Internet é a necessidade de mais endereços, porque a disponibilidade de endereços livres IPv4 terminou.
Para entender as razões desse esgotamento, é importante considerar que a Internet não foi projetada para uso comercial. No início da década de 1980, ela poderia ser considerada uma rede predominantemente acadêmica, com poucas centenas de computadores interligados. Apesar disso, pode-se dizer que o espaço de endereçamento do IP versão 4, de 32 bits, não é pequeno: 4 294 967 296 de endereços.
Ainda assim, já no início de sua utilização comercial, em 1993, acreditava-se que o espaço de endereçamento da Internet poderia se esgotar num prazo de 2 ou 3 anos. Isso não ocorreu por conta da quantidade de endereços, mas sim por conta da política de alocação inicial, que não foi favorável a uma utilização racional desses recursos. Dividiu-se esse espaço em três classes principais (embora existam a rigor atualmente cinco classes), a saber:
  • Classe A: com 128 segmentos, que poderiam ser atribuídos individualmente às entidades que deles necessitassem, com aproximadamente 16 milhões de endereços cada. Essa classe era classificada como /8, pois os primeiros 8 bits representavam a rede, ou segmento, enquanto os demais poderiam ser usados livremente. Ela utilizava o espaço compreendido entre os endereços 00000000.*.*.* (0.*.*.*) e 01111111.*.*.* (127.*.*.*).
  • Classe B: com aproximadamente 16 mil segmentos de 64 mil endereços cada. Essa classe era classificada como /16. Ela utilizava o espaço compreendido entre os endereços 10000000.0000000.*.* (128.0.*.*) e 10111111.11111111.*.* (191.255.*.*).
  • Classe C: com aproximadamente 2 milhões de segmentos de 256 endereços cada. Essa classe era classificada como /24. Ela utilizava o espaço compreendido entre os endereços 11000000.0000000.00000000.* (192.0.0.*) e 11011111.11111111.11111111.* (213.255.255.*).
Os 32 blocos /8 restantes foram reservados para Multicast e para a IANA (Internet Assigned Numbers Authority).
O espaço reservado para a classe A atenderia a apenas 128 entidades, no entanto, ocupava metade dos endereços disponíveis. Não obstante, empresas e entidades como HP, GE, DEC, MIT, DISA, Apple, AT&T, IBM, USPS, dentre outras, receberam alocações desse tipo.

IPv6 e IPv4

O elevadíssimo número de endereços IPv6 permite que apenas este protocolo seja utilizado na internet. Acontece que essa mudança não pode acontecer de uma hora para outra. Isso porque roteadores, servidores, sistemas operacionais, entre outros precisam estar plenamente compatíveis com o IPv6, mas a internet ainda está baseada no IPv4. Isso significa que ambos os padrões vão coexistir por algum tempo.
Seria estupidez criar dois "mundos" distintos, um para o IPv4, outro para o IPv6. Portanto, é necessário não só que ambos coexistam, mas também se que comuniquem. Há alguns recursos criados especialmente para isso que podem ser implementados em equipamentos de rede:
- Dual-Stack (pilha dupla): faz com que um único dispositivo - um roteador, por exemplo - tenha suporte aos dois protocolos;
- Tunneling (tunelamento): cria condições para o tráfego de pacotes IPv6 em redes baseadas em IPv4 e vice-versa. Há várias técnicas disponíveis para isso, como Tunnel Broker e 6to4, por exemplo;
- Translation (tradução): faz com que dispositivos que suportam apenas IPv6 se comuniquem com o IPv4 e vice-versa. Também há várias técnicas para tradução, como Application Layer Gateway (ALG) e Transport Relay Translator (TRT).
Felizmente, praticamente todos os sistemas operacionais da atualidade são compatíveis com ambos os padrões. No caso do Windows, por exemplo, é possível contar com suporte pleno ao IPv6 desde a versão XP (com Service Pack 1); versões posteriores, como Windows 7 e Winodws 8, contam com suporte habilitado por padrão. Também há compatibilidade plena com o Mac OS X, Android e versões atuais de distribuições Linux, entre outros.

Fontes: http://pt.wikipedia.org/wiki/IPv6 ; http://www.infowester.com/ipv6.php

Como funciona o GPS

O Sistema de Posicionamento Global, popularmente conhecido como GPS (Global Positioning System), é um sistema que utiliza satélites para localizar onde o receptor do sinal do satélite está naquele momento. O GPS funciona a partir de uma rede de 24 satélites que ficam distribuídos em seis planos, próximos a órbita do planeta Terra. Estes satélites enviam sinais para o receptor (o aparelho de GPS), e então, a partir disso, o aparelho de GPS interpreta esses sinais dizendo onde exatamente você está naquele momento.
Atualmente existem dois sistemas que permitem a navegação por satélite: O GPS americano e o GLONASS russo. Também, existem dois outros sistemas que estão em fases de implementação: o Galileo, da União Européia, e o Compass, da China.

História

A história da criação do sistema se iniciou em 1957. Ano em que a União Soviética lançou o primeiro satélite artificial da história. Esse foi o passo inicial para que a humanidade iniciasse os estudos sobre o uso dos satélites na obtenção da localização de pontos sobre a superfície terrestre.
O sistema de GPS foi criado a partir de outro projeto do Departamento de Segurança americano chamado de NAVSTAR. O sistema NAVSTAR disponibilizaria várias informações geográficas, como localização e clima, por exemplo, de qualquer parte da superfície terrestre. O projeto NAVSTAR foi iniciado em 1960, e após vários anos de correções e ajustes o projeto NAVSTAR tornou-se totalmente funcional e pronto para operar em 1995.
Após certo tempo, o projeto NAVSTAR tornou-se o sistema de GPS. E o sucesso desse sistema foi tanto, que o presidente Bill Clinton, em 2000, viu a necessidade de tornar as informações recolhidas pelos satélites, que antes era exclusiva para o uso militar, disponíveis para o uso civil e gratuito.

Como funciona

Os satélites, assim como os receptores GPS, possuem um relógio interno que marca as horas com uma precisão incrivelmente grande em nano segundos. Quando o satélite emite o sinal para o receptor, o horário em que ele saiu do satélite também é enviado.
 Os envios desses sinais ocorrem constantemente. Este sinal enviado para o receptor é um sinal de rádio, que viaja uma velocidade de 300 mil quilômetros por segundo (tal velocidade é conhecida como velocidade da luz!!) no vácuo. Resta ao receptor calcular quantos nano segundos este sinal demorou a chegar até ele, assim ele consegue “descobrir” onde você está. E como o sinal é enviado constantemente, o receptor sempre sabe onde está o satélite, mantendo, assim, sua posição exata sempre atualizada.

A triangulação

Agora você já sabe como é calculada a distância entre o satélite e o seu receptor, ficando mais fácil de entender como ele usa isso para determinar sua localização com uma margem erro de apenas 20m.
Os GPS usam um sistema chamado de triangulação pra determinar a localização do receptor na Terra. A triangulação funciona da seguinte forma: três satélites enviam o sinal para o receptor, que calcula quanto tempo cada sinal demorou a chegar nele. A teoria deste conceito é bem complexa, veja a imagem abaixo e entenda como funciona o conceito.
Além da sua localização terrestre, o receptor GPS também consegue saber a altura do receptor em relação ao nível do mar, porém para isso é necessário um quarto satélite.

Mapas e outros dados

 Vamos supor que você esteja perdido no deserto próximo a uma cidade. Porém, você sabe que está a cinco quilômetros da cidade, mais não sabe em qual direção ela está. O receptor de GPS, com o auxilio da triangulação, já sabe onde você está. O receptor compara sua localização com um mapa, que vai lhe mostrar exatamente por onde você tem que ir para chegar ao seu destino.
Os mapas e os dados que aparecem na tela do aparelho de GPS são desenvolvidos pelas empresas do aparelho e servem apenas para lhe ajudar a identificar onde você está. Estes mapas são apenas uma camada, e não tem nada a ver com o sistema de GPS administrado pelos Estados Unidos.

Curiosidades

  • No Brasil, o primeiro receptor GPS foi utilizado em 1992. Inicialmente ele era usado para rastrear caminhões com cargas valiosas;
  • Que Apenas em 2000 o sinal dos satélites de GPS foi liberado ao uso civil. Antes, os EUA impunham uma “disponibilidade seletiva” que impossibilitava o uso civil do sinal com uma precisão menor que 90 metros;
  • No interior dos satélites, há relógios atômicos de uma precisão enorme. Eles atrasam 1 segundo a cada 100 mil anos;
  • Apesar do sinal dos satélites funcionarem em todo o globo terrestre, há dois países que não permitem a utilização do seu sinal em seus territórios: Coreia do Norte e a Síria;
  • Até em 2009, no território do Egito também era proibido o uso do sinal GPS.

Teste a Velocidade de Sua Internet

Abaixo está o resultado do teste da velocidade de sua internet, você pode também utilizar algum dos links disponibilizados mais abaixo para fazer mais testes de velocidade de sua internet.
Sites para testar a sua internet:
http://speedtest.copel.net
http://www.minhaconexao.com.br
http://www.brasilbandalarga.com.br/speedtest
http://www.rjnet.com.br/3velocimetro.php

Chaveamento em Redes de Computadores


À medida que cresce o uso das redes de computadores, o modelo de computação muda de um grupo de trabalho físico para uma orientação a conexões remotas. No ambiente orientado à conexões remotas, há necessidade de redes que satisfaçam as demandas do usuário final por largura de banda, acesso e segurança, ao mesmo tempo proporcionando capacidade de gerenciamento ao nível corporativo. Neste contexto, novas capacidades de chaveamento em pontes (bridges), roteadores (routers) e switches acrescentam maior poder às redes e facilitam a interconexão com WAN’s corporativas.

Chaveamento nas redes

As redes de comunicação normalmente são estruturadas a partir do uso de tecnologias baseadas em backbones de alta velocidade. Os backbones, por sua vez, contemplam tecnologias diversificadas que utilizam a segmentação para obter melhor performance e maior largura de banda (Figura 1). Entretanto, à medida que novos nós são acrescentados à rede, há uma tendência na diminuição da largura de banda individual.




Figura 1 - Backbone utilizando roteadores e switches para o chaveamento


Não há maiores problemas quando o tráfego de rede é pequeno ou inexistente, mas os retardos aumentam à medida que os nós se tornam mais ativos ou quando a rede cresce, já que cada nó passa a competir por uma porção da largura de banda disponível. Naturalmente, crescentes volumes de tráfego significam mudanças na rede e pelo menos dois enfoques são tentados: o primeiro é aumentar a velocidade da rede, o que implica em outros problemas, como custos e complexidade; o segundo enfoque consiste em dividir a rede em segmentos separados por dispositivos de chaveamento (switching).
O chaveamento é o enfoque mais correto, uma vez que cada segmento é compartilhado, mas as comunicações podem ocorrer simultaneamente em diferentes segmentos, aliviando o congestionamento da rede. Entretanto, o crescimento da rede ainda poderá causar problemas de tráfego e, neste caso, a solução lógica será reduzir cada segmento a um nó. O nó cuja função é o chaveamento (ou comutação) entre as estações que desejam se comunicar é denominado "comutador".
O chaveamento é interessante em redes de computadores porque reverte a equação da largura de banda, permitindo aproveitar toda a capacidade de transmissão disponível em cada segmento. Exceto por uma sobrecarga, esse aproveitamento é mantido e, como resultado, o tráfego dos segmentos nas redes legadas pode ser aumentado sem a necessidade de alterações no hardware ou mesmo no cabeamento.

Como funciona o chaveamento

O chaveamento é necessário sempre que mudarem as características dos dados que trafegam pela rede (por exemplo, de Ethernet para X.25) ou mudar de velocidade (Fast Ethernet para Gigabit Ethernet, por exemplo). Duas categorias básicas de chaveamento são: chaveamento de pacotes e chaveamento de circuitos. O chaveamento de pacotes utiliza uma célula de dados de comprimento fixo, enquanto no chaveamento de circuito o elemento transportador é chaveado, geralmente pela duração de toda a mensagem.
As pontes utilizam informações de endereço MAC (Media Access Control) da camada de enlace do modelo OSI (Open Systems Interconnection) para determinar o destino de cada pacote que chega (Figura 2). É bom lembrar sempre que, de acordo com o modelo OSI, na camada de rede, as unidades de informação são chamadas "pacotes" (packets) e na camada de enlace de dados são chamadas de "quadros" (frames). Como exemplos pode-se citar os quadros Ethernet, Token Ring e Frame Relay e pacotes IP e IPX. Normalmente existe uma relação 1:1 entre eles, ou seja, um pacote IP normalmente é transportado por um quadro Ethernet, por exemplo.
Quando uma bridge encontra um endereço MAC desconhecido, envia o pacote para todas as suas portas, o que é conhecido como flooding (inundação), e pode ocasionar vários problemas de tráfego e mesmo de segurança na rede.

Figura 2 - Modelo OSI

As pontes tomam conhecimento dos relacionamentos entre endereço/porta dinamicamente; se um novo endereço é válido, ele é acrescentado à uma tabela de relacionamentos. Enquanto um endereço não é assimilado pela ponte, os pacotes podem ser enviados para todos os endereços ativos.
A camada MAC também reserva endereços como designadores de broadcast, pacotes que são enviados para todos os usuários que estão na rede e que interrompem o envio de todas as outras mensagens. Usado com muita frequência, o resultado é uma "tempestade" de broadcast que pode perturbar o funcionamento de toda a rede (Figura 3).

 

Figura 3 - Dados na porta "F" são direcionados para broadcast

Já os roteadores tomam um enfoque diferente, utilizando a camada de rede do modelo OSI, estabelecendo um esquema diferente de endereçamento para cada tipo de protocolo da rede. Para ser compatível com múltiplos padrões, os roteadores têm uma lógica de chaveamento mais complexa do que a das pontes, com consequentes retardos e custos adicionais associados.

Determinando o dispositivo de chaveamento

A principal dificuldade em tratar pacotes e quadros está no fato do tamanho ser variável. Para permitir que cada uma de suas portas opere em velocidade máxima, um switch deve lidar com o volume potencial total de tráfego de todos os nós conectados a ele, bem como a sobrecarga de chaveamento, os bits extras de código atribuídos a cada unidade de tráfego de dados considerada. Essas unidades de tráfego podem ser frames Ethernet de comprimento variável até pacotes de comprimento constante, como ocorre com as células ATM.
A ideia de trabalhar com unidades de informação de tamanhos fixos é atraente, pois os equipamentos usados para compartilhar fluxos de informação, chamados de multiplexadores, possuem uma eletrônica capaz de manipular unidades de informação de tamanho fixo com facilidade e rapidez. Assim, para os pacotes de comprimento variável, algumas aplicações apresentam maior complexidade e atraso, uma vez que é necessário determinar o começo e o fim de cada um. No caso de chaveamento de pacotes de comprimento fixo, este pode ser implementado completamente em hardware, tornando mais simples a solução.
O dispositivo de chaveamento pode ser determinado pela função, pelas unidades de tráfego chaveadas ou pela configuração do hardware. Como rótulos funcionais temos ponte, roteador e mesmo o switch clássico. O rótulo do tipo de tráfego (Frame-Relay, ATM, Fibre Channel etc.) indica o uso pretendido. O que determina a escolha de um ou outro são as vantagens e desvantagens relativas, bem como a adaptabilidade às necessidades futuras da rede.

Enfoque para o chaveamento de pacotes

Pode-se estabelecer três tipos de hardware de chaveamento de pacotes: por memória compartilhada, barramento compartilhado e matrizes de multi-estágios. Porém, essas categorias não definem todos os dispositivos e as definições dos fabricantes não aderem a um padrão em particular. Muitas informações adicionais sobre os dispositivos devem ser assimiladas e custos por porta, mesmo dentro de uma mesma categoria, podem apresentar uma grande variação.
Arquiteturas de memória compartilhada e barramento compartilhado apresentam elementos em comum. As duas fazem uso de buffer de I/O em memória que é conectada à lógica de chaveamento por um barramento. Dispositivos com memória compartilhada geralmente dependem de uma porção da memória comum gerenciada por lógica para o chaveamento das portas, enquanto o modelo de barramento compartilhado utiliza um barramento cuja largura de banda é significativamente maior do que todas as demandas das portas acopladas.
Um dispositivo de chaveamento multi-estágio é um conjunto de nós chaveadores, cada um com duas entradas, duas saídas e um sinal de controle. Qualquer entrada pode ser direcionada para qualquer saída. Para executar uma transmissão, o dispositivo chaveador deve copiar a informação nos nós de chaveamento apropriados até enviar os pacotes para as portas de saída correspondentes, o que aumenta o tráfego na malha chaveadora.

Redes em alta velocidade

O chaveamento não é uma proposta muito simples, embora seja mais barata que substituir interfaces e refazer o cabeamento para aumentar a taxa de transmissão da rede. Nas aplicações em redes remotas, os custos limitadores não estão no hardware, mas sim na transmissão dos dados. Uma das possibilidades de uso da tecnologia está no uso de software para criar segmentos de rede de usuários independentemente da localização física destes ou do tipo de conexão, ou seja, utilizar as redes virtuais.

Em uma rede física, o administrador da rede pode mapear grupos de trabalho, estabelecer conexões e coletar dados para gerenciamento. Em uma rede virtual, isso não é tão simples. De fato, alguns novos problemas podem ser introduzidos, como manter convenções de endereços de roteamento quando um usuário pertencer a duas ou mais redes diferentes e questões de segurança dos dados.

Diferença entre Worms, Vírus e Cavalo-de-Troia

As principais vulnerabilidade para estações de trabalho de usuário final são worms, vírus e ataques de cavalo-de-Troia.
Um worm executa código e instala cópias na memória do computador infectado, o que pode, por sua vez, infectar outros hosts.
Vírus é um software malicioso anexado a outro programa com a finalidade de executar uma determinada função indesejável em uma estação de trabalho.
Um cavalo-de-Troia é diferente de um worm ou vírus apenas porque todo o aplicativo foi escrito para ser semelhante a alguma coisa, quando, na verdade, é uma ferramenta de ataque.

Worms
A anatomia de um ataque de worm é a seguinte:
  • A vulnerabilidade de habilitação – um worm se instala, explorando vulnerabilidades conhecidas em sistemas, como usuários finais ingênuos que abrem anexos de executáveis não verificados em emails.
  • Mecanismo de propagação – depois de obter acesso a um host, um worm se copia para esse host e, em seguida, escolhe novos destinos.
  • Payload – depois que um host é infectado por um worm, o atacante tem acesso ao host, normalmente como um usuário privilegiado. Os atacantes poderiam utilizar uma exploração local para escalonar seu nível de privilégio até administrador.
Normalmente, worms são programas autossuficientes que atacam um sistema e tentam explorar uma vulnerabilidade específica no destino. Assim que houver a exploração bem-sucedida da vulnerabilidade, o worm copia seu programa do host de ataque para o sistema recém-explorado para começar tudo novamente. Em janeiro de 2007, um worm infectou a conhecida comunidade MySpace. Usuários confiáveis habilitaram a propagação do worm, que começou a se replicar nos sites dos usuários com a desfiguração "w0rm.EricAndrew".
A atenuação de ataques de worm exige diligência por parte da equipe administradora do sistema e de rede. A coordenação entre as equipes de administração do sistema, de engenharia da rede e das operações de segurança é essencial na resposta efetiva a um incidente de worm. Estas são as etapas recomendadas para a atenuação de ataques de worm:
  • Contenção – contenha a difusão do worm na rede e dentro dela. Isole as partes não infectadas da rede.
  • Inoculação – comece aplicando patches a todos os sistemas e, se possível, verificando se há sistemas vulneráveis.
  • Quarentena – monitore todas as máquina infectadas dentro da rede. Desconecte, remova ou bloqueie máquinas infectadas na rede.
  • Tratamento – Limpe e aplique um patch a todos os sistemas infectados. Alguns worms podem exigir reinstalações completas para limpar o sistema.
Vírus e cavalos-de-Troia
Vírus é um software malicioso anexado a outro programa para executar uma determinada função indesejável em uma estação de trabalho. Um exemplo é um programa anexado ao command.com (o interpretador principal de sistemas Windows) e exclui determinados arquivos, além de infectar todas as outras versões de command.com que conseguir localizar.
Um cavalo-de-Troia é diferente apenas porque todo o aplicativo foi escrito para ser semelhante a alguma coisa, quando, na verdade, é uma ferramenta de ataque. Um exemplo de um cavalo-de-Troia é um aplicativo que executa um simples jogo em uma estação de trabalho. Enquanto o usuário está ocupado com o jogo, o cavalo-de-Troia envia uma cópia para todos os endereços na agenda de endereços do usuário. Os outros usuários recebem o jogo e o executam, o que difunde o cavalo-de-Troia para os endereços em todas as agendas de endereços.
Um vírus normalmente exige um mecanismo de entrega – um vetor – como um arquivo zip ou algum outro arquivo executável anexado a um email, para transportar o código do vírus de um sistema para outro. O principal elemento que distingue um worm de um vírus de computador é essa interação humana necessária à facilitação da difusão de um vírus.
Esses tipos de aplicativos podem ser contidos por meio do uso efetivo de software antivírus no nível do usuário e, possivelmente, no nível da rede. Um software antivírus pode detectar a maioria dos vírus e muitos aplicativos de cavalo-de-Troia, além de impedir sua difusão na rede. Manter-se atualizado em relação aos desenvolvimento mais recentes quanto a esses tipos de ataques também pode levar a uma postura mais efetiva relacionada a esses ataques. Na medida em que novos vírus ou aplicativos de cavalo-de-Troia são liberados, as empresas precisam se manter atualizadas quanto às versões mais atuais do software antivírus.
Sub7, ou subseven, é um cavalo-de-Troia comum que instala um programa backdoor em sistemas de usuários. Ele é conhecido tanto por ataques não estruturados quanto estruturados. Por ser uma ameaça não estruturada, atacantes inexperientes podem utilizar o programa de forma que os cursores do mouse desapareçam. Como uma ameaça estruturada, os crackers podem utilizá-lo para instalar keystroke loggers (programas que registram todas as teclas pressionadas pelo usuário) para capturar informações confidenciais.

A História das Redes de Computadores

A HISTÓRIA
 
O primeiro experimento conhecido de conexão de computadores em rede foi feito em 1965, nos estados unidos, por obra de dois cientistas: Lawrence Roberts e Thomas Merril. A experiência foi realizada por meio de uma linha telefônica discada de baixa velocidade, fazendo a conexão entre dois centros de pesquisa em Massachusetts e na Califórnia. Estava plantada ali a semente para o que hoje é a Internet – mãe de todas as redes.

O nascimento das redes de computadores, não por acaso, esta associada a corrida espacial. Boa parte dos elementos e aplicações essenciais para a comunicação entre computadores, como o protocolo TCP/IP, a tecnologia de comutação de pacotes de dados e o correio eletrônico, estão relacionados ao desenvolvimento da Arpanet, a rede que deu origem a internet. Ela foi criada por um programa desenvolvido pela Advanced Research Projects Agency (ARPA) mais tarde rebatizada como DARPA.

A agencia nasceu de uma iniciativa do departamento de defesa dos estados unidos, na época preocupado em não perder terreno na corrida tecnológica deflagrada pelos russos com o lançamento do satélite Sputinik, em 1957. Roberts, acadêmico do MIT (Instituto de Tecnologia de Massachusetts), era um dos integrantes da DARPA e um dos pais da Arpanet, que começou em 1969 conectando quatro universidades: UCLA – Universidade da Califórnia em Los Angeles, Stanford, Santa Bárbara e Utah. A separação dos militares da Arpanet só ocorreu em 1983, com a criação da Milnet.

Alguns dos marcos importantes para a evolução das redes locais de computadores ocorreram nos anos 70. Ate a década anterior os computadores eram maquinas gigantescas que processavam informações por meio da leitura de cartões ou fitas magnéticas. Não havia interação entre o usuário e a maquina. No final dos anos 60 ocorreram os primeiros avanços que resultaram nos sistemas multiusuários de tempo compartilhado. Por meio de terminais interativos, diferentes usuários revezavam-se na utilização do computador central. A IBM reinava praticamente sozinha nessa época.

A partir de 1970, com o desenvolvimento dos minicomputadores de 32 bits, os grandes fabricantes, como IBM, HP e Digital, já começavam a planejar soluções com o objetivo de distribuir o poder de processamento dos mainframes e assim facilitar o acesso às informações. O lançamento do VAX pela Digital, em 1977, estava calcado numa estratégia de criar uma arquitetura de rede de computadores. Com isso, a empresa esperava levar vantagem sobre a rival Big Blue.

Quando um Vax era iniciado, ele já começava a procurar por outras maquinas para se comunicar, um procedimento ousado numa época em que poucas pessoas tinham idéia do que era uma rede. A estratégia deu certo e o VAX alcançou grande popularidade, principalmente em aplicações cientificas e de engenharia. Muitos anos depois, a Digital acabaria sendo comprada pela Compaq, que por sua vez, foi incorporada a HP. Mas as inovações surgidas com o VAX e seu sistema operacional, o VMS, teriam grandes influencias nos computadores que viriam depois.

O sistema operacional Unix, desenvolvido em 1969 nos laboratórios Bell, trouxe inovações que logo o tornou popular nas universidades e nos centros de pesquisa a partir de 1974. Era um sistema portável e modular, capaz de rodar em vários computadores e evoluir junto com o hardware. Os sistemas operacionais da época eram escritos em assembly, linguagem especifica para a plataforma de hardware. O Unix foi escrito quase totalmente em C, uma linguagem de alto nível. Isso deu a ele uma inédita flexibilidade. No começo da década, ferramentas importantes foram criadas para o Unix, como o e-mail, o Telnet, que permitia o uso de terminais remotos, e o FTP, que se transformou no padrão de transferência de arquivos entre computadores em rede. Foi essa plataforma que nasceu a maior parte das tecnologias que hoje formam a Internet.


ETHERNET

Um dos principais saltos tecnológicos que permitiram a popularização das redes foi o desenvolvimento da tecnologia ethernet. Para se ter uma ideia do avanço que essa invenção representou, basta lembrar que, até aquela época, os computadores não compartilhavam um cabo comum de conexão. Cada estação era ligada a outra numa distancia não superior a 2 metros. O pai da Ethernet é Robert Metcalfe, um dos gênios produzidos pelo MIT e por Harvard e fundador da 3Com.

Metcalfe era um dos pesquisadores do laboratório Parc, que a Xerox mantém até hoje em Palo Alto, na Califórnia. Em 1972, ele recebeu a missão de criar um sistema que permitisse a conexão das estações Xerox Alto entre si e com os servidores. A idéia era que todos os pesquisadores do Parc pudessem compartilhar as recém-desenvolvidas impressoras a laser.

Uma das lendas a respeito da criação da Ethernet é que Metcalfe e sua equipe tomaram por base um sistema desenvolvido por um casal de estudantes da universidade de Aloha, no Havaí. Utilizando um cabo coaxial, eles interligaram computadores em duas ilhas para poder conversar. O fato é que, antes de chamar-se Ethernet, a partir de 1973, o sistema de Metcalfe tinha o nome de Alto Aloha Network. Ele mudou a denominação, primeiramente para deixar claro que a Ethernet poderia funcionar em qualquer computador e não apenas nas estações Xerox. E também para reforçar a diferença em relação ao método de acesso CSMA (Carrier Sense Multiple Access) do sistema Aloha. A palavra ether foi uma referencia à propagação de ondas pelo espaço.

O sistema de Metcalfe acrescentou duas letras, CD (de Collision Detection) à sigla CSMA. Um detalhe importante, porque o recurso de detecção de colisão impede que dois dispositivos acessem o mesmo nó de forma simultânea. Assim, o sistema Ethernet verifica se a rede está livre para enviar a mensagem. Se não estiver a mensagem fica numa fila de espera para ser transmitida. A ethernet começou com uma banda de 2Mbps que permitia conectar 100 estações em até 1 quilometro de cabo.

No inicio, usava-se um cabo coaxial chamado yellow cable, de diâmetro avantajado. A topologia era um desenho de barramento (algo parecido com um varal) no qual o computador ia sendo pendurado. O conector desse sistema foi apelidado de vampiro, porque “mordia” o cabo em pontos determinados. Dali saia um cabo serial que se ligava à placa de rede. O yellow cable podia ser instalado no teto ou no chão, conectado ao cabo menor.
 

O MERCADO DA INFORMAÇÃO
 
A Ethernet não foi a única tecnologia de acesso para redes locais criada nessa época, mas certamente se tornou o padrão mais difundido, por sua simplicidade e eficiência, chegando a mais de 100 milhões de nós no mundo todo. As tecnologias Token Ring, da IBM, e a Arcnet, da Datapoint, chegaram a ter seus dias de gloria (esta ultima ainda é largamente empregada no Japão para processos de automação industrial), mas perderam terreno para a poderosa concorrente. O primeiro impulso para difusão do padrão Ethernet ocorreu quando a Digital, a Intel e a Xerox, em 1980 formaram um consorcio (DIX) para desenvolver e disseminar o padrão que rapidamente evoluiu de 2Mbps para 10Mbps.

O sistema Ethernet foi padronizado pelas especificações do IEEE (Instituto dos Engenheiros de Eletricidade e Eletrônica), órgão que, entre outras funções, elabora normas técnicas de engenharia eletrônica. O protocolo Ethernet corresponde à especificação 802.3 do IEEE, publicada pela primeira vez em 1985.

A conexão Ethernet utilizava, inicialmente, dois tipos de cabos coaxiais, um mais grosso (10 Base5) e outro mais fino (10 Base2). A partir de 1990, com o aumento da velocidade para 100Mbps, passou-se a usar o cabo de par trançado (10Base-T e 100Base-T), que tem a vantagem de ser mais flexível e de baixo custo. Com o advento da fibra ótica, o padrão Ethernet já esta em sua terceira geração. A Gigabit Ethernet, com velocidade de até 1Gbps.

Na década de 80, com a chegada dos computadores pessoais, as redes locais começaram a ganhar impulso. O mercado corporativo demandava soluções para compartilhar os elementos mais caros da infra-estrutura de TI (impressoras e discos rígidos). A Novell, uma empresa fundada por mórmons em Salt Lake City, no estado americano de Utah, desenvolveu em 1983, o sistema operacional NetWare para servidores, que usava o protocolo de comunicação IPX, mais simples que o TCP/IP. O protocolo rapidamente ganhou força e chegou a dominar 70% do mercado mundial até meados de 1993. A década de 80 foi marcada pela dificuldade de comunicação entres redes locais que e formavam e que eram vistas pelo mercado como ilhas de computadores com soluções proprietárias, como SNA, da IBM, DECnet, da Digital, NetWare, da Novell, e NetBIOS da Microsoft.

Esse problema fez com que um casal de namorados da universidade de Stanford, Sandra Lerner e Leonard Bosack, decidisse encontrar uma solução para que as redes locais de cada departamento da universidade pudessem conversar. Diz à lenda que a preocupação do casal, que mais tarde fundaria a Cisco, era trocar e-mails. E por isso inventaram o roteador, o equipamento que permitiu a conexão de duas redes normalmente incompatíveis.

A verdade é que eles não inventaram, mas aperfeiçoaram e muito o projeto inical de um engenheiro chamado Bill Yeager. O produto foi lançado comercialmente em 1987. A Cisco hoje vale Bilhões e o resto é Historia. O quebra-cabeça das redes começa a se fechar a partir do momento que a Arpanet, em 1983, passa a ser de fato a Internet, adotando definitivamente a família de protocolos TCP/IP. No ano seguinte, surge outra grande inovaçã o DNS (Domain Name System), mecanismo para resolver o problema de nome e endereços de servidores na rede. Com a criação da World Wide Web, em 1991, e o desenvolvimento do browser pelo fundador da Netscape, Marc Andreesen, a Internet deslanchou para se tornar a grande rede mundial de computadores.

A difusão do protocolo TCP/IP no mundo corporativo que passou a ser a linguagem universal dos computadores se deu a partir das plataformas Unix da Sun e da HP. Nos anos 90, as empresas já estavam empenhadas em usar a informática para melhorar o processo produtivo. O mercado começou a migrar de plataformas proprietárias para sistemas abertos. A questão não era tecnologia, mas economia. O sistema Unix tinha vários fornecedores, uma plataforma de desenvolvimento mais simples e mais versátil que os tradicionais mainframes. A pluralidade de plataformas passou a ser a regra nas empresas. Isso só foi possível porque os obstáculos à interligação de sistemas de diferentes fabricantes já haviam sido superados.

A EVOLUÇÃO

 
Em 1988, Dave Cutler, líder da equipe da Digital que havia criado o VMS, o arrojado sistema operacional do VAX, foi contratado pela Microsoft. A empresa já havia fracassado em uma tentativa anterior de competir com a Novell. Seu primeiro sistema operacional de rede, o LAN Manager, desenvolvido em conjunto com a IBM, não era páreo para o NetWare. Culter levou para lá boa parte da sua antiga equipe de programadores e também a filosofia que havia norteado a criação do VAX, de que a comunicação em rede deve ser um atributo básico do sistema operacional. Ele liderou o desenvolvimento do Windows NT, lançado em 1993. Com ele, a Microsoft finalmente conseguiu conquistar algum espaço nos servidores. O NT também foi base para o desenvolvimento do Windows 2000 e do Windows XP. De certa forma o Windows XP é neto do velho VMS.

Se, há 40 anos, a idéia de uma rede de computadores era a de vários aparelhos conectados, hoje a rede transformou-se numa dos principais meios de interação entre pessoas, de disseminação da informação e da realização de negócios. O radio levou 38 anos até formar um publico de 50 milhões de pessoas. A TV levou 13 anos. A Internet precisou apenas quatro anos para alcançar essa marca. É um salto e tanto para toda a humanidade.