UTILIZE A PESQUISA!

Certificação CCNA


Embora este seja apenas o primeiro passo na certificação da carreira Cisco, o CCNA (Cisco Certified Network Associate) é um exame difícil, se comparado a outras certificações como Microsoft. A recente inclusão de perguntas práticas tornou-o ainda mais desafiador. Sua primeira tentativa em se tornar certificado pela Cisco exige muito estudo e muita confiança naquilo que você já conhece sobre redes. Quando estiver pronto para testar as suas habilidades, pôr em prática o que conhece sobre os tópicos avaliados e se preparar para o dia do exame.
Os candidatos têm a opção de ganhar a certificação através de duas provas (ICND1 640-822 e ICND2 640-816), ou uma única prova (CCNA 640-802); a opção com duas provas tem a vantagem de permitir ao candidato focar em assuntos específicos.
Atualmente a certificação é válida por 3 anos, sendo necessário renová-la após este período, seguindo um processo semelhante ao da obtenção da primeira certificação.
  • prestar novamente a prova do CCNA ou ICND2, ou
  • prestar e ser aprovado em um dos exames de certificação de nível Professional (exemplo CCNP) ou Specialist (exceto as provas com especialização em vendas), ou ser aprovado no exame da certificação Expert CCIE.

Estes exames são conduzidos por centros autorizados, e atualmente custam US$125.00 para cada prova ICND1 e ICND2, ou US$ 250.00 para a prova única do CCNA completo.

O Conteúdo da prova CCNA
  • As funções de rede desempenhadas por cada camada do modelo de referência OSI e como elas são realizadas em dispositivos de rede
  • A funcionalidade do Cisco IOS® e dos protocolos de rede TCP/IP
  • A segmentação das redes usando router, switch e bridge
  • O uso e a configuração dos switches Catalyst ®, do STP (Spanning-Tree Protocol) e das VLANs e seus protocolos como VTP (VLAN Trunk Protocol)
  • Os conceitos que envolvem o RIP, OSPF, o IGRP, e o EIGRP.
  • A configuração, a monitorização e a verificação das listas de acess e IP padrão e estendidas
  • Os conceitos e as configurações ISDN, ADSL e Frame Relay

Aqui vai um bom link de estudo para quem pretende passar na certificação CCNA: http://www.bentow.com.br/ccna-meu-estud

ADSL: o que é e como funciona

ADSL é a sigla para Assymmetric Digital Subscriber Line ou "Linha Digital Assimétrica para Assinante". Trata-se de uma tecnologia que permite a transferência digital de dados em alta velocidade por meio de linhas telefônicas comuns. A cada dia, a tecnologia ADSL ganha novos usuários, tanto é que este é o tipo de conexão à internet em banda larga mais usado no Brasil e um dos mais conhecidos no mundo.

Modem ADSL


Funcionamento da tecnologia ADSL

A tecnologia ADSL basicamente divide a linha telefônica em três canais virtuais, sendo um para voz, um para download (de velocidade alta) e um para upload (com velocidade média se comparado ao canal de download). Teoricamente, as velocidades de download podem ir de 256 Kbps até 6.1 Mbps. No caso do upload essas taxas variam de 16 Kbps até 640 Kbps, mas tudo depente da infra-estrutura do fornecedor do serviço, o que indica que essas taxas podem ter valores diferentes dos mencionados. É por causa dessas características que o ADSL ganhou o termo "assymmetric" (assimétrica) no nome, pois indica que a tecnologia possui maior velocidade para download e menor velocidade para upload.
Repare que entre os três canais há um disponível para voz. Isso permite que o usuário fale ao telefone e ao mesmo tempo navegue na internet, ou seja, não é necessário desconectar para falar ao telefone. Para separar voz de dados na linha telefônica, é instalado na linha do usuário um pequeno aparelho chamado Splitter. Nele é conectado um cabo que sai do aparelho telefônico e outro que sai do modem.
Na central telefônica também há uma espécie de Splitter. Assim, quando você realiza uma chamada telefônica (voz), o sinal é encaminhado para a rede de comutação de circuitos da companhia telefônica (PSTN - Public Switched Telephone Network) e procede pelo seu caminho habitual. Quando você utiliza a internet, o sinal é encaminhado ao DSLAN, que é explicado logo abaixo.
Quando uma linha telefônica é usada somente para voz, as chamadas utilizam freqüências baixas, geralmente entre 300 Hz e 4000 Hz. Na linha telefônica é possível usar taxas mais altas, mas elas acabam sendo desperdiçadas. Explicando de maneira simples, o que o ADSL faz é aproveitar para a transmissão de dados as freqüências que não são usadas. Como é possível usar mais de uma freqüência ao mesmo tempo na linha telefônica, é então possível usar o telefone para voz e dados ao mesmo tempo. A ilustração abaixo exemplifica este esquema:


A tecnologia ADSL funciona instalando-se um modem específico para esse tipo de conexão na residência ou empresa do usuário e fazendo-o se conectar a um equipamento na central telefônica. Neste caso, a linha telefônica serve como "estrada" para a comunicação entre esses dois pontos. Essa comunicação ocorre em freqüências acima de 5000 Hz, não interferindo na comunicação de voz (que funciona entre 300 Hz e 4000 Hz). Como a linha telefônica é usada unicamente como um meio de comunicação entre o modem do usuário e a central telefônica, não é necessário pagar pulsos telefônicos, pois a conexão ocorre por intermédio do modem e não discando para um número específico, como é feito com o acesso à internet via conexão discada. Isso deixa claro que todo o funcionamento do ADSL não se refere à linha telefônica, pois esta é apenas um "caminho", mas sim ao modem. Quando seu modem estabelece uma conexão com o modem da central telefônica, o sinal vai para um roteador, em seguida para o provedor e finalmente para a internet. É importante frisar que é possível que este sinal saia diretamente do roteador para a internet. No Brasil, o uso de provedor é obrigatório por regras da Anatel (Agência Nacional de Telecomunicações). No entanto, essa questão não será discutida aqui.

O sinal citado acima, depois de enviado à central telefônica, é separado e os dados vão para um equipamento DSLAN (Digital Subscriber Line Access Multiplexer), que limita a velocidade do usuário e uni varias linhas ADSL (é este equipamento que faz com você navegue à 256 Kbps mesmo quando sua conexão suporta 2 Mbps) enviando o sinal para uma linha ATM (Asynchronous Transfer Mode) de alta velocidade que está conectada à internet.

Em outras palavras, a central telefônica suporta uma certa quantidade de usuários ao mesmo tempo. Cabe ao DSLAN gerenciar todas essas conexões, "agrupá-las" e enviar esse grupo de conexões à linha ATM, como se fosse uma única conexão.

Praticamente todas as empresas que fornecem ADSL só o fazem se o local do usuário não estiver a mais de 5 Km da central telefônica. Quanto mais longe estiver, menos velocidade o usuário pode ter e a conexão pode sofrer instabilidades ocasionais. Isso se deve ao ruído (interferência) que ocorre entre um ponto e outro. Quanto maior essa distância, maior é a taxa de ruído. Para que haja uma conexão aceitável é utilizado o limite de 5 Km. Acima disso pode ser possível, mas inviável o uso de ADSL.


Protocolo PPPoE

Diante das informações acima, você deve se perguntar porque em muitos casos é necessário usar um programa para se conectar à internet, se o ADSL permite uma conexão permanente usando unicamente o modem.

O ADSL por si só é um meio físico de conexão, que trabalha com os sinais elétricos que serão enviados e recebidos. Funcionando dessa forma, é necessário um protocolo para encapsular os dados de seu computador até a central telefônica. O protocolo mais utilizado para essa finalidade é o PPPoE (Point-to-Point over Ethernet RFC 2516).

O protocolo PPPoE trabalha com a tecnologia Ethernet, que é usada para ligar sua placa de rede ao modem, permitindo a autenticação para a conexão e aquisição de um endereço IP à máquina do usuário. É por isso que cada vez mais as empresas que oferecem ADSL usam programas ou o navegador de internet do usuário para que este se autentique. Autenticando, é mais fácil identificar o usuário conectado e controlar suas ações.

Você pode estar se perguntando: por que os primeiros serviços de ADSL do país davam IP fixo ao usuário, sem necessidade de usar o PPPoE, ou seja, porque o PPPoE não foi usado antes? Naquela época, o protocolo PPPoE era novo (foi homologado em 1999) e, conseqüentemente, pouco conhecido. Com isso, o usuário usava ADSL através de uma conexão direta do modem à central telefônica, sem necessidade de autenticar. Mas quando as empresas começaram a descobrir as vantagens do PPPoE passaram a implantá-lo. Isso permite à companhia ter mais controle sobre as ações do usuário

Protocolo PPPoA

PPP (point-to-point protocol) é um protocolo desenvolvido para permitir acesso autenticado e transmissão de pacotes de diversos protocolos, originalmente em conexões de ponto a ponto (como uma conexão serial).
PPPoA (point-to-point protocol over AAL5 - ou over ATM) é uma adaptação do PPP para funcionar em redes ATM.

MACA e MACAW

Um protocolo antigo criado para LANs sem fios é o MACA (Multiple Access with Collision Avoidance — acesso múltiplo com abstenção de colisão) (Karn, 1990). A idéia básica consiste em fazer com que o transmissor estimule o receptor a liberar um quadro curto como saída, para que as estações vizinhas possam detectar essa transmissão e evitar transmitir enquanto o quadro de dados (grande) estiver sendo recebido.
Vamos analisar agora como A envia um quadro para B. A inicia a transmissão enviando um quadro RTS (Request to Send) para B, como mostra a Figura (a). Esse quadro curto (30 bytes) contém o comprimento do quadro de dados que eventualmente será enviado em seguida. Depois disso, B responde com um quadro CTS (Clear to Send), como mostra a Figura (b). O quadro CTS
contém o tamanho dos dados (copiado do quadro RTS). Após o recebimento do quadro CTS, A inicia a transmissão. Agora vamos ver como reagem as estações que não conseguem ouvir esses quadros. Qualquer estação que esteja ouvindo o quadro RTS está próxima a A e deve permanecer inativa por tempo suficien te para que o CTS seja transmitido de volta para A, sem conflito. Qualquer estação que esteja ouvindo o CTS está próxima a B e deve permanecer inativa durante a transmissão de dados que está a caminho, cujo tamanho pode ser verifi cado pelo exame do quadro CTS.
Na figura abaixo, o protocolo MACA. (a) A está enviando um quadro RTS para B. (b) B está respondendo com um quadro CTS para A:

Na Figura acima, C está dentro do alcance de A, mas não no alcance de B. Portanto, essa estação
pode detectar a RTS de A, mas não a CTS de B. Desde que não interfira com a CTS, a estação é
livre para transmitir enquanto o quadro de dados está sendo enviado. Em contraste, D está dentro do alcance de B, mas não de A. Ela não detecta a RTS, mas sim a CTS. Ao detectar a CTS, ela recebe a indicação de que está perto de uma estação que está prestes a receber um quadro e,
portanto, adia a transmissão até o mome nto em que a transmissão desse quadro deve ter sido
concluída. A estação E detecta as duas mensagens de controle e, como D, deve permanecer inativa até que a tr ansmissão do quadro de dados seja concluída.
Apesar dessas precauções, ainda pode haver colisões. Por exemplo, B e C poderiam enviar quadros RTS para A ao mesmo tempo. Haverá uma colisão entre esses quadros e eles se perderão. No caso de uma colisão, um transmissor que não obtiver êxito (ou seja, o que não detectar uma CTS no intervalo de tempo esperado) aguardará durante um interval o aleatório e tentará novamente mais tarde. O algoritmo utilizado é o recuo binário exponencial, que estudaremos quando começarmos a analisar o padrão Ethernet.
Com base em estudos de simulação do MACA, Bharghavan et al. (1994) otimizaram o MACA para melhorar seu desempenho e deram ao novo protocolo o nome MACAW (MACA for Wireless). Logo no início, eles observaram que sem as confirmações da camada de enlace de dados, os quadros perdidos não eram retransmitidos até que a camada de tr ansporte percebesse sua ausência, bem mais tarde. Eles resolveram esse problema introduzindo um quadro ACK após cada quadro de dados bem-sucedido. Os pesquisadores também observaram que o CSMA tinha alguma utilidade — principalmente para impedir uma estação de transmitir uma RTS ao mesmo tempo que outra estação vizinha também estiver transmitindo para o mesmo destino. Portanto, a detecção de portadora passou a ser utilizada. Além disso, eles decidiram utilizar o algoritmo de recuo individualmente para cada fluxo de dados (par origem-destino), e não para cada estação. Essa mudança melhorou a precisão do protocolo. Por fim, foi incluído um mecanismo para que as estações trocassem informações sobre congestionamento, e também uma forma de fazer o algoritmo de recuo reagir de modo menos violento a problemas temporários, o que melhorou o desempenho do sistema.


Conteúdo extraído e adaptado da página 215 do livro Redes de computadores
Quarta edição do autor Andrew S. Tanenbaum.

Bridge de Rota de Origem (SRB)

FUNDAMENTAÇÃO

Oalgoritmo de brindge de rota de origem (SRB) foi desenvolvido pela IBM e proposto ao comitê IEE 802.5 como um meio de estabelecer bridges entre todas as LANs. Desde sua proposição inicial, a IBM ofereceu um novo padrão de bridge ao comitê IEE 802: asolução de bridge transparente de rota de origem (SRT). A bridge SRT elimina completamente as SRBs puras, propondo que os dois tipos de bridges de LAN sejam as bridges transparentese as bridges SRT. Embora a bridge SRT tenha obtido suporte, as SRTBs ainda são bastante implementadas.

ALGORITMO SRB

As bridges SRB são assim chamadas por considerarem que a rota completa, da origem até o destino. está incluído em todos os frames enviados pela origem e que trafegam entra as LANs. As bridges SRBs armazenam e encaminham os frames de acordo como que é indicado pela rota especificada no campo apropriado do frame.

Conteúdo extraído da página 260 do livro INTERNET WORKING TECHNOLOGIES HANDBOOK - TRADUÇÃO DA SEGUNDA EDIÇÃO.

AppleTalk

FUNDAMENTAÇÃO

O AppleTalk, um pacote de protocolos desenvolvidos pela Apple Computer no começo dos anos 80, foi desenvolvido juntamente com o computador Macintosh. O propósito do AppleTalk era permitir que vários usuários compartilhassem recursos, como arquivos e impressoras. Os dispositivos que fornecem esses recursos são chamados de servidores, enquanto os dispositivos que utilizam esses recursos (como um usuário de computador Macintosh) são chamados clientes. Por esse motivo, o AppleTalk é uma das primeira implementações de um sistema distribuído cliente-servidor.
O AppleTalk foi projetado com ua interface de rede transparente. Isso significa que a interação entre os computadores e os servidores de rede requer uma pequena interação da parte do usuário. Além disso, as efetivas operações dos protocolos AppleTalk são invisíveis para os usuários finais, que vêem somente o resultado dessas oprações. Existem duas operações de AppleTalk: AppleTalk Fase 1 e AppleTalk Fase 2.
O AppleTalk Fase 1, que é a primeira especificação do AppleTalk, foi desenvolvida no começo dos anos 80, restritamente para o uso em grupos de trabalhos locais. Assim, a Fase 1 apresenta duas limitações principais: seus segmentos de rede que não podem conter mais do que 127 hosts e 127 servidores e podem suportar somente redes não-estendidas.
O AppleTalk Fase 2, a segunda implementação Apple Talk otimizada, foi projetada para utilização em internetworks maiores. A Fase 2 soluciona as principais limitações do AppleTalk Fase 1 e contém vários aperfeiçoamentos em relação à Fase 1. Em particular, a Fase 2 permite qualquer combinação de 253 hosts ou servidores em um mesmo segmento de rede
AppleTalk e suporta redes não-estendidas e estentidas.


Redes não-estendidas

A rede Apple não-estendida é um segmento da rede física, ao qual é atribuído apenas o número de uma única rede, variando de 1 e 1.024. A rede 100 e a rede 562, por exemplo, são dois números de rede válidos em uma rede não-estendida. Cada número de nó em uma rede não-estendida precisa ser único e um mesmo segmento de rede não pode ter mais de uma Zona AppleTalk Fase nele configurada. (A zona é um grupo lógico de nós ou redes) A AppleTalk Fase 1 suporta apenas as redes não-estendidas, mas, como uma regra, as configurações de redes não-estendidas não são mais utilizadas em novas redes, sendo substituídas pelas redes estendidas.

Redes estendidas

A rede AppleTalk estendida é um segmento de rede física, ao qual podem ser atribuído vários números de rede. Essa configuração é conhecida como faixa de cabo. As faixas de cabo AppleTalk podem indicar o número de uma única rede ou vários números de redes consecutivos. A Rede 3-3 (unária) e a Rede 3-6 das faixas de cabo, por exemplo, são válidos em uma rede estendida precisa ser única e seu endereço também precisa ser único, para propósitos de identificação. As redes estendidas podem ter várias zonas AppleTalk configuradas em um mesmo segmento de rede e os nós das redes estendidas podem pertencer a qualquer zona única associada à rede estendida. As configurações de redes estendidas têm, como uma regra, substituir as configurações de redes não-estendidas.

Conteúdo extraído das página 273, 274, 275, 276 e 277 do livro INTERNET WORKING TECHONOLOGIES HANDBOOK - TRADUÇÃO DA SEGUNDA EDIÇÃO.

RSVP

ReSource reserVation Protocol ( Protocolo de Reserva de Recursos) é um protocolo especialmente desenvolvido para serviços integrados de Internet, pois permite que as próprias aplicações requeiram da rede reservas de recursos necessários para seus diversos serviços. As novas funções que foram implementadas neste protocolo tem dado a este uma flexibilidade e escalabilidade única comparado a protocolos convencionais de reserva de recursos. Este protocolo é utilizado por um host, em benefício do fluxo de dados de uma aplicação, para requerer uma Internet deverá ser modificada para poder suportar uma Qualidade de Serviço (Quality of Service) específica da rede. O protocolo RSVP é também utilizado por routers (roteadores) para entregar requisições de controle da QoS para todos os nós ao longo do(s) caminho(s) por onde os dados irão fluir, além de manter o estado da conexão para o serviço que foi requisitado. As requisições RSVP geralmente irão resultar, embora não necessáriamente, em reservas de recursos em cada nó ao longo da conexão.

------------------------------
Princípios de Qos
Vamos da um breve resumo de Qos para quem ainda não conhece:
Os protocolos de QoS têm a tarefa de fornecer córregos de dados diferentes com as prioridades e de garantir qualidades tais como a largura de faixa e atrasam épocas. Há atualmente duas arquiteturas principais: Serviços integrados (IntServ) e serviços diferenciados (DiffServ). Ambas as políticas do tráfego do uso das arquiteturas e podem ser combinadas para permitir QoS no LAN como na WAN.
------------------------------


ARQUITETURA


RSVP é um protocolo desenvolvido para permitir que as aplicações requisitem diferentes QoS para seus fluxos de dados. Para isso, dois pré-requisitos devem ser observados:
Elementos de redes, tais como roteadores, devem adequar-se aos mecanismos de controle de qualidade de serviço para garantir a entrega dos pacotes de dados;
A aplicação deve estar capacitada a fornecer os parâmetros ideais de QoS.
O RSVP não é um protocolo de roteamento, trabalhando em conjunto com este. É usado por uma aplicação para requisitar uma qualidade de serviço específica da rede. O protocolo atua tanto em máquinas do usuário quanto em roteadores, responsabilizando-se, nesse caso, a estabelecer e manter as condições para o serviço requisitado. O diagrama esquemático pode ser visto na figura
RSVP em Máquinas do Usuário e Roteadores.

O RSVP negocia a reserva de recursos em um único sentido de cada vez, ou seja, de forma simplex.. Com isso, ele trata distintamente receptores e transmissores, operando juntamente com a camada de transporte.
O RSVP não realiza transporte de dados, sendo apenas um protocolo de controle e atuando no mesmo nível de outros protocolos como o ICMP (Internet Control Message Protocol), o IGMP (Internet Group Management Protocol) ou protocolos de roteamento, conforme mostrado no desenho esquemático da figura 2. O gerenciamento ocorre no início da comunicação, sendo reiniciado de tempos em tempos. Caberá ao receptor a responsabilidade em requisitar uma QoS específica. O protocolo RSVP foi feito de forma a garantir que as arquiteturas mais antigas sejam compatíveis com o novo sistema, através do encapsulamento de seus pacotes de controle.


Camada de Atuação do Protocolo RSVP

DEFINIÇÃO DE CONCEITOS BÁSICOS

*Sessão
O protocolo RSVP define como sessão todo enlace de comunicação pelo qual se relacionam as camadas de transporte de todos os participantes da comunicação, podendo ser ponto-a-ponto ou multicast. Cada sessão é tratada independentemente. O conceito de sessão é propositalmente genérico, pois uma sessão pode ser estabelecida baseando-se em valores de QoS diferentes daqueles requisitados pelo receptor inicialmente. Tal fato deve-se à liberdade que o gerenciador possui em unir recursos ao longo do caminho de dados da aplicação, sempre tendo o melhor aproveitamento dos recursos como objetivo. Ao efetuar essa política, os valores de QoS requisitados poderão sofrer alterações, desde que essas não acarretem perda de qualidade para uma comunicação já estabelecida.

*Soft-state
O protocolo RSVP é baseado na noção de soft-state. Este termo foi inicialmente proposto por [5], definindo o ``estado'' que um determinado elemento, pertencente ao percurso de dados de um determinado par fonte-destino, se encontra quando uma reserva está estabelecida. O início do soft-state ocorre quando uma mensagem de reserva é recebida e realizada no elemento; este estado é periodicamente realimentado pelos receptores. Ao invés de entregar à rede a responsabilidade em detectar e responder a falhas, o RSVP delega aos receptores o trabalho de reenviar periodicamente suas requisições de serviços. Caso uma falha ocorra, somente uma nova requisição do serviço restabelecerá o soft-state nos roteadores.

ARP (Address Resolution Protocol)

Address Resolution Protocol ou ARP é um protocolo usado para encontrar um endereço da camada de enlace (Ethernet, por exemplo) a partir do endereço da camada de rede (como um endereço ip).
Embora na Internet cada máquina tenha um (ou mais) endereços IP, na verdade, eles não podem ser usados para transmitir pacotes, pois o hardware da camada de enlace de dados não reconhece endereços da Internet. Hoje em dia, muitos hosts de empresas e universidades estão associados a uma LAN por uma placa de interface que só reconhece endereços de LANs. Por exemplo, cada placa Ethernet fabricada é equipada com um endereço Ethernet de 48 bits. Os fabricantes de placas Ethernet solicitam um bloco de endereços de uma autoridade central para assegurar que duas placas não tenham o mesmo endereço (evitando conflitos, caso as duas estejam na mesma LAN).
As placas enviam e recebem quadros com base em endereços Ethernet de 48 bits. Elas nada
sabem sobre endereços IP de 32 bits.
Agora, surge a seguinte pergunta: De que forma os endereços IP são mapeados nos endereços da camada de enlace de dados, como é o caso dos endereços Ethernet? Para explicar como esse processo funciona, usaremos uma ilustração de uma pequena universidade com diversas redes clase C (agora chamada /24).

Três redes /24 interconectadas: duas redes Ethernet e um anel FDDI

Aqui, temos duas redes Ethernet, uma no departamento de ciência da computação com o endereço IP 192.31.65.0, e outra no departamento de engenharia elétrica co m o endereço IP 192.31.63.0. As duas estão conectadas por um anel de backbone do campus (por exemplo, FDDI) cujo endereço IP é 192.31.60.0. Cada máquina de uma rede Ethernet tem um endereço Ethernet exclusivo, identificado pelos rótulos E1 a E6, e cada máquina do anel FDDI tem um endereço FDDI, identificado pelos rótulos de F1 a F3.
Começaremos examinando como um usuário no host 1 envia um pacote para um usuário no host 2.
Vamos supor que o tr ansmissor conheça o nome do receptor pretendido, talvez algo como
mary@eagle.cs.uni.edu. A primeira etapa é encontrar o endereço IP do host 2, conhecido como
eagle.cs.uni.edu. Essa pesquisa é realizada pelo DNS (Domain Name System), que estudaremos no Capítulo 7. No momento, supomos apenas que o DNS retorna o endereço IP correspondente ao host 2 (192.31.65.5).
Em seguida, o software da camada superior do host 1 constrói um pacote com 192.31.65.5 no
campo Destination address e o fornece ao software IP para transmissão. O software IP pode
examinar o endereço e constatar que o destino está em sua própria rede, mas ele precisa encontrar de alguma forma o endereço Ethernet da máquina de destino. Uma solução é ter um arquivo de configuração em algum lugar no sistema que faça o mapeamento de endereços IP em endereços Ethernet. Embora essa solução sem dúvida seja possível, no caso de organizações com milhares de máquinas, manter todos esses arquivos atualizados é uma tarefa demorada e propensa a erros.

Arquitetura CFX

Neste artigo iremos estudar a arquitetura CXF.
A arquitetura CXF é construída sobre os seguintes componentes:
*Bus;
*Interface;
*Mensageiros e interceptores;
*Modelo de Serviço;
*Ligações de dados;
*Vinculações do protocolo;
*Transportes.
A figura abaixo mostra a arquitetura geral:


Bus
Bus é a espinha dorsal da arquitetura CXF. O Bus CXF é composto de uma mola baseada arquivo de configuração, ou seja, cxf.xml que é carregado na inicialização do servlet através SpringBusFactory. Ele define um quadro comum para todos os endpoints. Ele liga todos os componentes da infra-estrutura de execução e fornece um contexto de aplicação comum. Ele carrega os arquivos de configuração relevante no diretório META-INF/cxf colocados no classpath e, portanto, constrói o contexto de aplicação.

CFX
CXF fornece o conceito de modelagem de interface, que permite criar serviços de web usando APIs frontend diferente, também permite que você crie clientes de serviços Web dinâmicOs. A interface primária CXF é suportado por JAX-WS.

JAX-WS
JAX-WS é uma especificação que define a semântica para desenvolver, publicar e consumir serviços da web. JAX-WS simplifica o desenvolvimento de serviços web. Ele é baseado em Java APIs, que facilitam o desenvolvimento e implantação de serviços web. A especificação oferece suporte ao WS-Basic Profile 1.1, que aborda a interoperabilidade de serviços web.

Interface Simples
Além da interface JAX-WS, CXF também suporta o que é conhecido como simple fronted ("interface simples"). A interface simples, fornece componentes simples ou classes Java que usa reflexão para a construção e publicação de web services. É simples, porque não utilizar qualquer anotação para criar serviços web. Em JAX-WS, temos que anotar uma classe Java para denotar-lo como um serviço web e usar ferramentas para converter entre um objeto Java e WSDL. A interface simples usa fábrica de componentes para criar um serviço eo cliente.

Mensageiros e Interceptores
Um dos elementos importantes da arquitectura CXF são os componentes Interceptores. Interceptores são componentes que interceptam as mensagens trocadas entre clientes ou serviço da Web e componentes de servidor. Em CXF, isso é implementado através do conceito de cadeias interceptoras. O conceito de encadeamento Interceptor é a funcionalidade do núcleo de runtime CXF.

Modelo de Serviço
O modelo de serviço, num verdadeiro sentido, os modelos de serviços. É um quadro de componentes que representa um serviço em um WSDL como modelo. Ele fornece a funcionalidade para criar vários elementos WSDL, como operações, fixações, pontos de extremidade do esquema, e assim por diante.

Ligação de Dados
A ligação de dados é a chave para qualquer serviço de desenvolvimento web. Mapeamento de dados através de ligação entre os objetos Java e os elementos XML. Como sabemos, com um serviço Web, mensagens são trocadas como artefatos XML. Então tem que haver alguma maneira de converter esses XML em objetos Java e vice-versa para o pedido de processo como o de serviço e cliente. CXF suporta dois tipos de ligação de coponentes de dados: JAXB e Aegis.

Ligação de Protocolos
Ligações vinculam as mensagens do serviço web com o protocolo formato específico. As mensagens, na terminologia de serviços web, nada mais são que uma operação com parâmetros de entrada e saída. A mensagem definida na componente de serviços web é chamado de uma mensagem lógica. A mensagem de lógica usada por um componente de serviço é mapeado ou vinculado a um formato de dados físicos utilizados pelos terminais no mundo físico. Estabelece regras sobre a forma como as mensagens lógica será mapeado para uma carga de reais enviados através do fio ou da rede.

Transportes
Transportes definem o protocolo de roteamento de alto nível para transmitir as mensagens sobre o fio. Protocolos de transporte são associados com os desfechos. Um ponto pode se comunicar com outro através de um protocolo de transporte específico. Informações relativas ao transporte são nada além de detalhes de rede. Parâmetros de serviço são uma representação física de uma interface de serviço. Os terminais são compostos de ligação e de detalhes de rede.

Conhecendo os Sockets

Os sockets (soquetes em português) são a maneira de se comunicar com outros programas usando os descritores de arquivo padrão do Unix. No ambiente Unix, ao se comunicar com um dispositivo ou um arquivo, você recebe uma resposta se tudo deu certo ou não. Esta resposta é o que se chama de descritor de arquivo.

O Unix foi o primeiro Sistema Operacional a usar em grande escala este tipo de tecnologia. E no Unix, para tudo se usa um descritor de arquivo (file descriptor, o famoso fd que precede muitas funções da linguagem C). No Unix, a utilização de redes já tem uma longa estrada atrás. Isto facilita muito as coisas para os programadores, pois não é necessário estar em um ambiente gráfico para se programar os soquetes. Você instala numa máquina um Linux Red Hat (ou a versão brasileira da Conectiva), e começa a programar com relativa facilidade. Estou falando dos que programam em C, que é praticamente a linguagem nativa do Unix.

Voltando aos sockets, eles existem em diversos tipos. No entanto, na internet, eles são de dois tipos: Stream Sockets e Datagram Sockets (Soquetes de Fluxo e os Soquetes de Datagramas). São referenciados como SOCK_STREAM e SOCK_DGRAM respectivamente. Qual a diferença entre estes?
Os Soquetes de Fluxo (SOCK_STREAM) enviam os dados e os controlam para que cheguem exatamente como foram enviados. Por exemplo, se enviar os dados A, B, C e D, eles chegarão ao seu destino exatamente como foram enviados e nesta mesma ordem: A, B, C e D. O Protocolo de Transporte de Controle (Transport Control Protocol, em inglês) utiliza estes soquetes.
Se estes mesmos 4 pacotes de dados forem enviados pelos Datagram Sockets, talvez apenas 3 cheguem ao seu destino. Quanto à ordem de sua chegada, pode ser A, D e C ou outra ordem qualquer. Eles são enviados, mas sem controle. O User datagram Protocol (Protocolo de Datagrama de Usuário) utiliza estes sockets.

Dimensionando Racks

Os racks são estruturas muito utilizadas para o acondicionamento de equipamentos de redes de computadores, como hubs, roteadores, patch panels, etc. São portanto, ideais para a fixação de equipamentos e acessórios que necessitam ser acondicionados e organizados adequadamente. Além disso, a configuração física de um rack facilita a fixação de cabos e acessórios que geralmente são difíceis de serem organizados e que também devem atender às necessidades do projeto quanto às medidas e partições, bem como às formas de fixação.

Os racks geralmente são gabinetes com largura padrão de 19 polegadas (482,6mm). Normalmente não são fornecidos com uma estrutura de acomodação e montagem próprias. Este fato é devido à não padronização das instalações do ponto de vista do acondicionamento visto que cada empresa tem sua estrutura física e suas próprias necessidades. Sendo assim, normalmente são utilizadas soluções de fornecedores de racks para os diversos tipos de equipamentos de rede (roteadores, modems, multiplexadores, controladoras, equipamentos de telefonia, etc).

Podemos considerar dois tipos básicos de rack:
¹Rack Aberto: consisteem uma estrutura retangular fixada no piso, indicada para ambientes protegidos, livres de pó e com acesso restrito;
²Rack fechado: possui porta com visor de vidro ou acrílico, que em função disto apresenta uma maior segurança e integridade para os equipamentos tendo inclusive a possibilidade de controle de circulação de ar interno, podendo ser fixado na parede ou no piso.

Para o correto dimensionamento de um rack, o primeiro passo é relacionar os equipamentos que serão instalados com seus respectivos Us de altura, lembrando que a unidade padrão é o U (1U = 44,45mm). Economizar espaço no rack nesse momento pode significar o comprometimento do projeto que se está executando, gerando dificuldades e desconforto para o funcionamento da instalação futuramente.
Devem ser avaliadas as necessidades de visualização, operação e manutenção de cada equipamento, lembrando que alguns equipamentos requerem espaços dentro e fora do rack. Deve-se determinar também o número de patch panels a serem instalados, sendo conveniente também dimensionar um organizador de cabos para cada patch panel previsto.
Outro detalhe importante que não pode ser esquecido é, além de dimensionar os espaços para possíveis expansões e novos painéis de alimentação e serviço, providenciar a identificação dos pontos de rede.
A ventilação no interior do rack é muito importante. Recomenda-se, sempre que possível, o mínimo de 1U livre entre cada equipamento para garantir uma boa ventilação e troca de calor dos equipamentos ativos instalados no rack. Anotados esses detalhes, totalizar as dimensões de todos os itens em U’s para obter-se a altura mínima necessária para o rack. O recomendável é planejar a utilização de, no máximo, 70% da área útil do rack, permitindo assim uma margem de segurança para o projeto.
Já a profundidade do rack é definida em mm. Deve-se verificar qual dos equipamentos é o mais profundo e avaliar as necessidades de operação e manutenção. Recomenda-se deixar espaço para o cabeamento do equipamento e alimentação elétrica, bem como previsão para futuras expansões. Devem-se somar todos os valores, sendo que o ideal é procurar a dimensão padronizada igual ou imediatamente superior ao resultado obtido.
Para o cálculo da largura do rack não tem muito mistério. A maioria dos equipamentos são padronizados na largura útil de 19". Outras larguras são fabricadas sob encomenda.

Identificando problemas em uma Rede Doméstica

Neste artigo consideramos que a rede do usuário já esteja pronta, configurada e funcionando quando começou a ter problemas (este artigo não explica a parte de instalação/configuração inicial da rede local).

Problemas de Hardware

Meus micros não enxergam um ao outro na rede: isso pode ser um problema de hardware?
Para descobrir se o problema é de hardware siga os procedimentos abaixo:

* Rede Doméstica simples apenas entre 2 micros usando cabo cross-over:
Com ambos os micros ligados, verifique se o cabo está bem conectado em ambos os micros e se os leds das placas de rede dos dois micros estão acesos.

Se ambas as placas de rede estiverem com os leds apagados mesmo com os conectores bem encaixados em cada placa provavelmente o problema seja do cabo. Neste caso para tirar a dúvida basta trocar o cabo por um outro novo (se você não sabe como fazer um cabo, basta ir a uma loja de informática pois a maioria das lojas tem cabos de rede local ou monta-o no local, sendo que o preço de ambos é baseado na metragem do cabo).

Se após a troca do cabo por um novo, uma das placas de rede ainda estiver com o led apagado, encaixe melhor o conector. Se o led não acender pode ser que a placa esteja com problemas ou possa ter queimado.

* Rede doméstica entre 3 ou mais micros ligados em rede através de um Hub :
Siga os mesmos procedimentos acima - com a diferença de que agora você deve ver se o led da placa de rede do micro está aceso e se a porta no qual o cabo está ligado no Hub está aceso. Usando um Hub fica mais fácil de concluir se o problema é na placa de rede do micro (pois se todas as outras portas em uso do Hub estiverem acesas e apenas a do micro com problema apagada, o problema pode ser da placa de rede).

Também é mais fácil de verificar problemas no cabo: basta trocá-lo pelo cabo de outro micro que esteja entrando na rede: se funcionar, isso significa que o cabo original estava com problema e precisa ser substituído.

Se nenhum micro entra na rede, isso pode significar um problema do hub. Mini-Hubs de 5 a 8 portas podem apresentar problemas de vez em quando por ficar muito tempo ligado (usualmente os da marca Encore): desligue o hub e os micros e volte a ligar tudo depois de certo tempo para ver se eles funcionam. Se após desligar o Hub e ligá-lo por várias vezes o problema persistir, o Hub pode ter realmente estragado.


Problemas de Software

Se você instalou algum programa relacionado a rede ou Internet, este programa pode ter modificado a configuração de rede do micro ficando incompatível com a configuração do outro micro. Se você não instalou nada relacionado a isto, talvez seu micro tenha sido infectado por algum vírus que modificou as configurações - ou alguém que utiliza os micros pode ter feito estas modificações por engano.

Para verificar se alguma das possibilidades acima ocorreu, verifique se ambos os micros estão com configurações compatíveis e corrija o problema, siga os passos seguintes (realize o procedimento em todos os micros com problemas ):

1. Entre nas propriedades de rede. Você pode fazer isto de duas maneiras: clicando com o botão direito no ícone Ambiente de rede no desktop do Windows e depois clicar em propriedades ou através do painel de controle clicando no ícone rede ( menu iniciar-> Painel de controle-> rede ). A janela de Rede irá se abrir como mostrado abaixo:






2. Primeiramente verifique se o logon primário da rede está configurado para "Cliente para redes Microsoft": se não estiver coloque-o como primeira opção. Também verifique se o compartilhamento de arquivos e impressoras está ativo. Feito isto siga para a próxima etapa: clique duas vezes no ícone Cliente para redes Microsoft na janela de configuração. A seguinte janela se abrirá:





3. Confira se ambos os micros estão configurados da forma acima. Volte para a janela de configuração, clique duas vezes no componente TCP/IP da sua placa de rede e a seguinte janela de configuração surgirá:





4. Verifique se ambos os micros estão usando IP fixo como na imagem acima e se estão usando a mesma classe de endereços IP: um micro não pode estar configurado com um endereço IP 192.168.0.1 e o outro com um endereço 10.0.0.6 pois ambos não se enxergarão pois a classe IP de cada um é diferente.

Também verifique se a máscara de sub-rede está igual e de acordo com a classe: classe A 255.0.0.0 para IP que começa com 10.x.x.x, classe B 255.255.0.0 para IP que começa com 128.1.x.x, classe C 255.255.255.0 para IP que começa com 192.1.1.x.

Se um micro estiver configurado com IP fixo como na imagem acima e outro com IP automático como na imagem abaixo, a rede também não funcionará pois geralmente o Windows designa o IP 169.1.x.x para IP automático ficando com 2 padrões diferentes. Portanto, ou ambas as máquinas devem estar com IP automático ou com IP fixo da mesma faixa (192.168.0.1 em uma máquina, 192.168.0.2 na outra por exemplo).




5. Cumprida esta etapa, volte para janela principal e depois clique na aba Identificação e a seguinte janela aparecerá:





Verifique se ambos os micros estão usando o mesmo nome no grupo de trabalho. Se estiver diferente altere para que ambos usem o mesmo nome no grupo de trabalho e clique em OK. Ao voltar à janela principal clique em OK para sair da janela Rede.

Se você percebeu que alguma das configurações citadas acima estava diferente de um micro pro outro e as modificou para ficarem iguais vai aparecer uma janela dizendo que é necessário reiniciar o micro para efetuar as alterações, reinicie o micro e tudo deverá funcionar perfeitamente.

O(s) cabo(s) e placas de rede estão funcionando as configurações estão iguais em todos os micros e mesmo assim não consigo acessar a rede nem enxergar os micros no ambiente de rede. O que pode estar acontecendo?

Este é um problema comum e relativamente simples: ao iniciar o Windows, quando aparece a tela de logon (que deve estar configurada para Cliente para redes Microsoft), alguns usuários simplesmente a ignoram e pressionam a tecla ESC. Isto não deve ser feito pois o Windows não entrará na rede: você poderá até conseguir pingar a outra máquina pelo prompt do DOS mas não conseguirá acessá-la e vice-versa.

Será necessário digitar a senha mesmo que esta seja em branco pois basta pressionar a tecla enter no logon ou clicar em OK. Fazendo isto tudo correrá bem.

Fiz todos os procedimentos acima e mesmo assim os micros não aparecem no ambiente de rede. O que devo fazer ?
A pressa é inimiga da perfeição: na maioria das vezes o Windows demora para mostrar os computadores no Ambiente de Rede e isto é normal: dois minutos após o micro ser ligado os micros começam a aparecer no ambiente de rede e você já pode acessar os outros micros mesmo que estes não estejam aparecendo no Ambiente de Rede (para isto basta clicar no menu Iniciar > Localizar > Computadores e digitar o nome do computador que você quer acessar: ele aparecerá na lista de resultados e com um clique duplo em cima do mesmo você terá acesso a ele).



Computadores aparecendo no Ambiente de rede


Não adianta: a rede não funciona mesmo seguindo todos os passos!
Neste caso mesmo com as duas placas de rede com leds aceso é possível que uma delas esteja com algum problema e para tirar a dúvida troque a placa de rede e coloque alguma que você tenha certeza que está funcionando.

Problemas com a Impressora em rede:
Quando ligo o micro que está usando a impressora pela rede, aparece uma mensagem avisando que não foi possível conectar a LPT1 no micro servidor mesmo que o computador esteja ligado, sendo que às vezes não aparece a mensagem e funciona tudo bem. Qual será o problema?

Mesmo se o computador aonde a impressora está conectada estiver ligado, é necessário que a impressora esteja ligada também: se ela não estiver ligada esta mensagem aparecerá, por este motivo sempre verifique se ambos estão ligados.


Adaptado de:
http://www.babooforum.com.br/forum/Identificando-problemas-em-uma-Rede-Domestica-t629740.html

Frame Relay


O Frame Relay é um padrão da Consultative Committee for International Telegraph and Telephone (CCITT) e do American National Standards Institute (ANSI) que define um processo para enviar dados por uma rede de dados pública (PDN). É uma tecnologia de dados eficiente e de alto desempenho usada em redes no mundo todo. O Frame Relay é um modo de enviar informações por uma WAN dividindo os dados em pacotes. Cada pacote viaja através de uma série de switches em uma rede Frame Relay para alcançar seu destino. Ele opera nas camadas física e de enlace do modelo de referência OSI, mas depende de protocolos de camada superior como o TCP para a correção de erros. O Frame Relay foi originalmente concebido como um protocolo para uso em interfaces ISDN. Hoje, o Frame Relay é um protocolo da camada de enlace de dados comutado, padrão da indústria, que trata vários circuitos virtuais usando o encapsulamento High-Level Data Link Control (HDLC) entre dispositivos conectados. O Frame Relay usa circuitos virtuais para fazer conexões através de um serviço orientado à conexão.

A rede que fornece a interface do Frame Relay pode ser uma rede pública de serviços telefônicos ou uma rede de equipamentos privados, que serve a uma única empresa. Uma rede Frame Relay pode incluir computadores, servidores, etc., do lado do usuário, além de dispositivos de rede Frame Relay, como switches, roteadores, CSU/DSUs ou multiplexadores. Como você aprendeu, dispositivos de usuários são normalmente chamados de equipamento de terminal de dados (DTE), ao passo que o equipamento de rede que faz interface com o DTE é geralmente chamado de equipamento de terminal de circuito de dados (DCE).


Extraído do Curso Cisco Ccna

Sliding Window (Janela Deslizante)

Protocolos de Janela Deslizante são um recurso do pacote de protocolos baseados em transmissão de dados. Eles são usados na camada de enlace de dados (modelo OSI), bem como no TCP (camada de transporte do modelo OSI). Eles são usados para manter um registo do quadro de sequências enviadas, e seus respectivos reconhecimentos recebidos, tanto pelos usuários. Em transmissão de controle de fluxo, janela deslizante é uma janela de duração variável, na qual permite que um remetente possa transmitir um determinado número de unidades de dados antes que uma confirmação seja recebida ou antes que um evento especificado ocorra. O objetivo da janela deslizante é aumentar a taxa de transferência.

A solução consiste no envio e ACK de pacotes em conjunto, o emissor começa por enviar um número de pacotes w que designaremos de "tamanho da janela". O tamanho da janela é o número de pacotes que podem ser enviados sem qualquer ACK do receptor.
O tamanho de janela é conhecido tanto pelo emissor como pelo receptor, até porque este último tem de reservar inicialmente um "buffer" com capacidade para w pacotes, com "stop & wait" apenas necessitava de reservar espaço para um pacote.
Para garantir o funcionamento do mecanismo, tanto os pacotes como os ACK são númerados de 0 a w. Esta númeração evita que o receptor tenha de enviar ACK individuais para todos os pacotes.
Compreende-se facilmente o funcionamento sabendo que a regra base é de que o número de pacotes que podem ser enviados sem ACK do receptor é w. Por exemplo:
Se o receptor envia ACK-8 quer dizer que já retirou do "buffer" todos os pacotes até PAC-8, nesta situação o emissor fica a saber que pode manter sem ACK os w pacotes depois do PAC-8.

Clique aqui para ver uma animação em JavaScript

Computação nas Nuvens


A grande tendência do momento é este termo “computação nas nuvens” ou “cloud computing” (em inglês). Este termo surgiu pelo fato de a computação estar mudando de rumo, hoje você não vê mais como antigamente aquela vontade imensa de comprar um super computador, hoje o que você mais precisa, e o que mais precisará futuramente, será de mobilidade, portabilidade. Com isto os “super computadores” terão os seus destinos a quem realmente os precisa, mas os usuários comuns não os precisarão mais, tudo será baseado na internet, como hoje já está sendo feito, o grande centro das atenções nos dias atuais é a internet, em alguns anos, talvez meses, você utilizará seu computador na internet, terá o espaço que precisar para guardar seus arquivos como documentos, fotos, vídeos e músicas na internet. Além disto, os softwares que você utiliza também estão na internet, como a Adobe lançou o Photoshop na versão web.


Preço dos computadores cairá

Computadores terão o preço reduzido, cada vez mais o preço das máquinas cairá devido ao fato de que um computador para acessar a internet não necessita de muitos recursos, basta ter um processador simples, um pouco de memória que você estará satisfeito com o resultado, com isto, você terá mais mobilidade, pois os celulares da nova geração ( 3G) tem acesso à internet, e você poderá acessar os seus arquivos e documentos de qualquer lugar através da conexão a internet oferecida por seu celular.


Os sistemas operacionais

Com esta nova tendência quem ganhará força será o sistema operacional LINUX, pois com a pouca necessidade de recursos, a maior sendo um browser, fará com que grandes empresas como Microsoft comecem a ter preocupações quanto a seu futuro. Há grande necessidade de se estar conectado fará com que softwares como sistemas operacionais e outros tendam a migrar para a internet, tornando o “desktop” de sua máquina online, e assim os sistemas que estarão rodando nas máquinas sejam apenas para suportar seu browser.


Quem já está na frente?

Como ja era de se esperar o Google já esta na frente.
O Google já pesquisa informações sobre este novo assunto, e o que tudo indica será o promissor deste termo. Com grande capacidade de investimentos em visão ao usuário, o Google deverá ser o pioneiro a lançar serviços e utilitários na internet. Com sua grande experiência em se tratando de usuário (Orkut) o Google já disponibiliza de alguns serviços interessantes como: depósito de vídeos (YouTube), gerenciador de documentos (Google Docs.), agenda de compromissos (Google Calendar), serviço campeão de e-mails (Gmail), serviço de mapas (Google Maps), Blogs (Blogger), entre outros serviços.

Custo da internet

Com este grande avanço o que se espera é que o custo da internet baixe devido ao fato de massas necessitarem de acesso. É claro que aqui no Brasil ainda teremos que pagar por acesso a internet, por uns bons anos, possivelmente para sempre, mas isto não é problema, o problema será se o Brasil terá capacidade para suportar quase toda a população conectada simultaneamente.

No Brasil

No Brasil, a tecnologia de computação nas nuvens ainda é muito recente, e muitas vezes fora da realidade das organizações de médio e pequeno porte, pois a infra-estrutura de telecomunicações no país é ultrapassada. Os primeiros testes foram implementados em 2007, sendo que somente em 2008 começou a ser oferecido comercialmente.
A empresa Katri foi a primeira a desenvolver a tecnologia no Brasil (2002), batizando-a IUGU. Aplicada inicialmente no site de busca de pessoas físicas e jurídicas (Fonelista), durante o período que o mesmo esteve no ar, de 2002 a 2008, seus usuários puderam comprovar a grande diferença na velocidade em pesquisas proporcionadas pelo processamento paralelo.
Em 2008, o sistema de gerenciamento de conteúdo "WebCenter" da empresa Industria Virtual passou a integrar funções que o destacaram como uma das principais ferramentas para a computação em nuvem disponíveis até o momento.
A oferta desta tecnologia em língua portuguesa, sem custo, ainda é bastante modesta. A empresa Arth Informática disponibiliza atualmente um sistema baseado no eyeOS gratuitamente e oferece uma série de recursos aos usuários como: gerenciamento de arquivos, criação e edição de documentos e planilhas, criação de apresentações, tocadores de músicas, e vários outros, apelidado de "Arth OS".
A tecnologia tem evoluido muito e sistemas funcionais desenvolvidos no início da década, já passam de sua 3ª geração, incorporando funcionalidades e utilizando de tecnologias como Índices Invertidos (Inverted Index).

Dicas para se ter uma rede Wireless Segura

Uma rede sem fio é um conjunto de sistemas conectados por tecnologia de rádio através do ar. Com um transmissor irradiando os dados transmitidos através da rede em todas as direções, como impedir que qualquer um possa se conectar a ela e roubar seus dados? Um ponto de acesso instalado próximo à janela da sala provavelmente permitirá que um vizinho a dois quarteirões da sua casa consiga captar o sinal da sua rede, uma preocupação agravada pela popularidade que as redes sem fio vêm ganhando. Para garantir a segurança, existem vários sistemas que podem ser implementados, apesar de nem sempre eles virem ativados por default nos pontos de acesso.

O que realmente precisamos saber para que a rede sem fio implementada esteja com o nível correto de segurança? Em primeiro lugar é preciso conhecer os padrões disponíveis, o que eles podem oferecer e então, de acordo com sua aplicação, política de segurança e objetivo, implementar o nível correto e desejado. Ser o último disponível não garante, dependendo de sua configuração, que a segurança será eficiente. É preciso entender, avaliar bem as alternativas e então decidir-se de acordo com sua experiência e as características disponíveis nos produtos que vai utilizar, objetivando também o melhor custo.

A segurança wireless é um trabalho em andamento, com padrões em evolução. Com tempo e acesso suficientes, um hacker persistente provavelmente conseguirá invadir seu sistema wireless. Ainda assim, você pode tomar algumas atitudes para dificultar ao máximo possível o trabalho do intruso. , nas variantes de conotação maléfica da palavra. Temos, assim, práticas típicas concernentes a redes sem fio, sejam estas comerciais ou não, conhecidas como wardriving e warchalking.

Wardriving

O termo wardriving foi escolhido por Peter Shipley (http://www.dis.org/shipley/) para batizar a atividade de dirigir um automóvel à procura de redes sem fio abertas, passíveis de invasão. Para efetuar a prática do wardriving, são necessários um automóvel, um computador, uma placa Ethernet configurada no modo "promíscuo" ( o dispositivo efetua a interceptação e leitura dos pacotes de comunicação de maneira completa ), e um tipo de antena, que pode ser posicionada dentro ou fora do veículo (uma lata de famosa marca de batatas fritas norte-americana costuma ser utilizada para a construção de antenas ) . Tal atividade não é danosa em si, pois alguns se contentam em encontrar a rede wireless desprotegida, enquanto outros efetuam login e uso destas redes, o que já ultrapassa o escopo da atividade. Tivemos notícia, no ano passado, da verificação de desproteção de uma rede wireless pertencente a um banco internacional na zona Sul de São Paulo mediante wardriving, entre outros casos semelhantes. Os aficionados em wardriving consideram a atividade totalmente legítima.

Warchalking

Inspirado em prática surgida na Grande Depressão norte-americana, quando andarilhos desempregados (conhecidos como "hobos" ) criaram uma linguagem de marcas de giz ou carvão em cercas, calçadas e paredes, indicando assim uns aos outros o que esperar de determinados lugares, casas ou instituições onde poderiam conseguir comida e abrigo temporário, o warchalking é a prática de escrever símbolos indicando a existência de redes wireless e informando sobre suas configurações. As marcas usualmente feitas em giz em calçadas indicam a posição de redes sem fio, facilitando a localização para uso de conexões alheias pelos simpatizantes da idéia. O padrão IEEE 802.11 fornece o serviço de segurança dos dados através de dois métodos: autenticação e criptografia. Este padrão 802.11 define duas formas de autenticação: open system e shared key. Independente da forma escolhida, qualquer autenticação deve ser realizada entre pares de estações, jamais havendo comunicação multicast. Em sistemas BSS as estações devem se autenticar e realizar a troca de informações através do Access Point (AP). As formas de autenticação previstas definem:

Autenticação Open System - é o sistema de autenticação padrão. Neste sistema, qualquer estação será aceita na rede, bastando requisitar uma autorização. É o sistema de autenticação nulo.

Autenticação Shared key – neste sistema de autenticação, ambas as estações (requisitante e autenticadora) devem compartilhar uma chave secreta. A forma de obtenção desta chave não é especificada no padrão, ficando a cargo dos fabricantes a criação deste mecanismo. A troca de informações durante o funcionamento normal da rede é realizada através da utilização do protocolo WEP.
Autenticação do cliente feita com "shared keys"

A autenticação do tipo Open System foi desenvolvida focando redes que não precisam de segurança para autenticidade de dispositivos. Nenhuma informação sigilosa deve trafegar nestas redes já que não existe qualquer proteção. Também se aconselha que estas redes permaneçam separadas da rede interna por um firewall (a semelhança de uma zona desmilitarizada – DMZ).

A autenticação Shared Key utiliza mecanismos de criptografia para realizar a autenticação dos dispositivos. Um segredo é utilizado como semente para o algoritmo de criptografia do WEP na cifragem dos quadros. A forma de obter esta autenticação é a seguinte:
1. Estação que deseja autenticar-se na rede envia uma requisição de autenticação para o AP.
2. O AP responde a esta requisição com um texto desafio contendo 128 bytes de informações pseudorandômicas.
3. A estação requisitante deve então provar que conhece o segredo compartilhado, utilizando-o para cifrar os 128 bytes enviados pelo AP e devolvendo estes dados ao AP.
4. O AP conhece o segredo, então compara o texto originalmente enviado com a resposta da estação. Se a cifragem da estação foi realizada com o segredo correto, então esta estação pode acessar a rede.Dentro do utilitário de configuração você poderá habilitar os recursos de segurança. Na maioria dos casos todos os recursos abaixo vêm desativados por default a fim de que a rede funcione imediatamente, mesmo antes de qualquer coisa ser configurada. Para os fabricantes, quanto mais simples for a instalação da rede, melhor, pois haverá um número menor de usuários insatisfeitos por não conseguir fazer a coisa funcionar. Mas, você não é qualquer um. Vamos então às configurações:

SSID

A primeira linha de defesa é o SSID (Service Set ID), um código alfanumérico que identifica os computadores e pontos de acesso que fazem parte da rede. Cada fabricante utiliza um valor default para esta opção, mas você deve alterá-la para um valor alfanumérico qualquer que seja difícil de adivinhar.Geralmente estará disponível no utilitário de configuração do ponto de acesso a opção "broadcast SSID". Ao ativar esta opção o ponto de acesso envia periodicamente o código SSID da rede, permitindo que todos os clientes próximos possam conectar-se na rede sem saber previamente o código. Ativar esta opção significa abrir mão desta camada de segurança, em troca de tornar a rede mais "plug-and-play". Você não precisará mais configurar manualmente o código SSID em todos os micros.Esta é uma opção desejável em redes de acesso público, como muitas redes implantadas em escolas, aeroportos, etc., mas caso a sua preocupação maior seja a segurança, o melhor é desativar a opção. Desta forma, apenas quem souber o valor ESSID poderá acessar a rede.

WEP

O Wired Equivalency Privacy (WEP) é o método criptográfico usado nas redes wireless 802.11. O WEP opera na camada de enlace de dados (data-link layer) e fornece criptografia entre o cliente e o Access Point. O WEP é baseado no método criptográfico RC4 da RSA, que usa um vetor de inicialização (IV) de 24 bits e uma chave secreta compartilhada (secret shared key) de 40 ou 104 bits. O IV é concatenado com a secret shared key para formar uma chave de 64 ou 128 bits que é usada para criptografar os dados. Além disso, o WEP utiliza CRC-32 para calcular o checksum da mensagem, que é incluso no pacote, para garantir a integridade dos dados. O receptor então recalcula o checksum para garantir que a mensagem não foi alterada.Apenas o SSID, oferece uma proteção muito fraca. Mesmo que a opção broadcast SSID esteja desativada, já existem sniffers que podem descobrir rapidamente o SSID da rede monitorando o tráfego de dados. Eis que surge o WEP, abreviação de Wired-Equivalent Privacy, que como o nome sugere traz como promessa um nível de segurança equivalente à das redes cabeadas. Na prática o WEP também tem suas falhas, mas não deixa de ser uma camada de proteção essencial, muito mais difícil de penetrar que o SSID sozinho.

O WEP se encarrega de encriptar os dados transmitidos através da rede. Existem dois padrões WEP, de 64 e de 128 bits. O padrão de 64 bits é suportado por qualquer ponto de acesso ou interface que siga o padrão WI-FI, o que engloba todos os produtos comercializados atualmente. O padrão de 128 bits por sua vez não é suportado por todos os produtos. Para habilitá-lo será preciso que todos os componentes usados na sua rede suportem o padrão, caso contrário os nós que suportarem apenas o padrão de 64 bits ficarão fora da rede.Na verdade, o WEP é composto de duas chaves distintas, de 40 e 24 bits no padrão de 64 bits e de 104 e 24 bits no padrão de 128. Por isso, a complexidade encriptação usada nos dois padrões não é a mesma que seria em padrões de 64 e 128 de verdade. Além do detalhe do número de bits nas chaves de encriptação, o WEP possui outras vulnerabilidades. Alguns programas já largamente disponíveis são capazes de quebrar as chaves de encriptação caso seja possível monitorar o tráfego da rede durante algumas horas e a tendência é que estas ferramentas se tornem ainda mais sofisticadas com o tempo. Como disse, o WEP não é perfeito, mas já garante um nível básico de proteção. Esta é uma chave que foi amplamente utilizada, e ainda é, mas que possui falhas conhecidas e facilmente exploradas por softwares como AirSnort ou WEPCrack. Em resumo o problema consiste na forma com que se trata a chave e como ela é "empacotada" ao ser agregada ao pacote de dados.

O WEP vem desativado na grande maioria dos pontos de acesso, mas pode ser facilmente ativado através do utilitário de configuração. O mais complicado é que você precisará definir manualmente uma chave de encriptação (um valor alfanumérico ou hexadecimal, dependendo do utilitário) que deverá ser a mesma em todos os pontos de acesso e estações da rede. Nas estações a chave, assim como o endereço ESSID e outras configurações de rede podem ser definidos através de outro utilitário, fornecido pelo fabricante da placa.Mais Informações:http://www.isaac.cs.berkeley.edu/isaac/wep-faq.html

WPA, um WEP melhorado

Também chamado de WEP2, ou TKIP (Temporal Key Integrity Protocol), essa primeira versão do WPA (Wi-Fi Protected Access) surgiu de um esforço conjunto de membros da Wi-Fi Aliança e de membros do IEEE, empenhados em aumentar o nível de segurança das redes sem fio ainda no ano de 2003, combatendo algumas das vulnerabilidades do WEP.A partir desse esforço, pretende-se colocar no mercado brevemente produtos que utilizam WPA, que apesar de não ser um padrão IEEE 802.11 ainda, é baseado neste padrão e tem algumas características que fazem dele uma ótima opção para quem precisa de segurança rapidamente: Pode-se utilizar WPA numa rede híbrida que tenha WEP instalado. Migrar para WPA requer somente atualização de software. WPA é desenhado para ser compatível com o próximo padrão IEEE 802.11i.

Vantagens do WPA sobre o WEP

Com a substituição do WEP pelo WPA, temos como vantagem melhorar a criptografia dos dados ao utilizar um protocolo de chave temporária (TKIP) que possibilita a criação de chaves por pacotes, além de possuir função detectora de erros chamada Michael, um vetor de inicialização de 48 bits, ao invés de 24 como no WEP e um mecanismo de distribuição de chaves.Além disso, uma outra vantagem é a melhoria no processo de autenticação de usuários. Essa autenticação se utiliza do 802.11x e do EAP (Extensible Authentication Protocol), que através de um servidor de autenticação central faz a autenticação de cada usuário antes deste ter acesso a rede.

RADIUS

Este é um padrão de encriptação proprietário que utiliza chaves de encriptação de 128 bits reais, o que o torna muito mais seguro que o WEP. Infelizmente este padrão é suportado apenas por alguns produtos. Se estiver interessado nesta camada extra de proteção, você precisará pesquisar quais modelos suportam o padrão e selecionar suas placas e pontos de acesso dentro desse círculo restrito. Os componentes geralmente serão um pouco mais caro, já que você estará pagando também pela camada extra de encriptação.Mais Informações:http://www.lockabit.coppe.ufrj.br/index.php

Permissões de acesso

Além da encriptação você pode considerar implantar também um sistema de segurança baseado em permissões de acesso. O Windows 95/98/ME permite colocar senhas nos compartilhamentos, enquanto o Windows NT, 2000 Server, já permitem uma segurança mais refinada, baseada em permissões de acesso por endereço IP, por usuário, por grupo, etc. Usando estes recursos, mesmo que alguém consiga penetrar na sua rede, ainda terá que quebrar a segurança do sistema operacional para conseguir chegar aos seus arquivos. Isso vale não apenas para redes sem fio, mas também para redes cabeadas, onde qualquer um que tenha acesso a um dos cabos ou a um PC conectado à rede é um invasor em potencial.Alguns pontos de acesso oferecem a possibilidade de estabelecer uma lista com as placas que têm permissão para utilizar a rede e rejeitar qualquer tentativa de conexão de placas não autorizadas. O controle é feito através dos endereços MAC das placas, que precisam ser incluídos um a um na lista de permissões, através do utilitário do ponto de acesso. Muitos oferecem ainda a possibilidade de estabelecer senhas de acesso.Somando o uso de todos os recursos acima, a rede sem fio pode tornar-se até mais segura do que uma rede cabeada, embora implantar tantas camadas de proteção torne a implantação da rede muito mais trabalhosa.

ACL (Access Control List)

Esta é uma prática herdada das redes cabeadas e dos administradores de redes que gostam de manter controle sobre que equipamentos acessam sua rede. O controle consiste em uma lista de endereços MAC (físico) dos adaptadores de rede que se deseja permitir a entrada na rede wireless. Seu uso é bem simples e apesar de técnicas de MAC Spoofing serem hoje bastante conhecidas é algo que agrega boa segurança e pode ser usado em conjunto com qualquer outro padrão, como WEP, WPA etc. A lista pode ficar no ponto de acesso ou em um PC ou equipamento de rede cabeada, e a cada novo cliente que tenta se conectar seu endereço MAC é validado e comparado aos valores da lista. Caso ele exista nesta lista, o acesso é liberado.Para que o invasor possa se conectar e se fazer passar por um cliente válido ele precisa descobrir o MAC utilizado. Como disse, descobrir isso pode ser relativamente fácil para um hacker experiente que utilize um analisador de protocolo (Ethereal, por exemplo) e um software de mudança de MAC (MACShift por exemplo). De novo, para aplicações onde é possível agregar mais esta camada, vale a pena pensar e investir em sua implementação, já que o custo é praticamente zero. O endereço MAC, em geral, está impresso em uma etiqueta fixada a uma placa de rede ou na parte de baixo de um notebook. Para descobrir o endereço MAC do seu computador no Windows XP, abra uma caixa de comando (Iniciar/Todos os Programas/Acessórios/Prompt de Comando), digite getmac e pressione a tecla Enter. Faça isso para cada computador na rede e entre com a informação na lista do seu roteador.

Mantendo a sua rede sem fio segura

Na verdade essa lista de sugestões se aplica para todos os casos, sejam redes sem ou com fios.

1. Habilite o WEP. Como já vimos o WEP é frágil, mas ao mesmo tempo é uma barreira a mais no sistema de segurança.

2. Altere o SSID default dos produtos de rede. SSID é um identificador de grupos de redes. Para se juntar a uma rede, o novo dispositivo terá que conhecer previamente o número do SSID, que é configurado no ponto de acesso, para se juntar ao resto dos dispositivos. Mantendo esse valor default fica mais fácil para o invasor entrar na rede.

3. Não coloque o SSID como nome da empresa, de divisões ou departamentos.

4. Não coloque o SSI como nome de ruas ou logradouros.

5. Se o ponto de acesso suporta broadcast SSID, desabilite essa opção.

6. Troque a senha default dos pontos de acessos e dos roteadores. Essas senhas são de conhecimento de todos os hackers.

7. Tente colocar o ponto de acesso no centro da empresa. Diminui a área de abrangência do sinal para fora da empresa.

8. Como administrador você deve repetir esse teste periodicamente na sua empresa a procura de pontos de acessos novos que você não tenha sido informado.

9. Aponte o equipamento notebook com o Netstumbler para fora da empresa para procurar se tem alguém lendo os sinais que transitam na sua rede.

10. Muitos pontos de acessos permitem que você controle o acesso a ele baseado no endereço MAC dos dispositivos clientes. Crie uma tabela de endereços MAC que possam acessar aquele ponto de acesso. E mantenha essa tabela atualizada.

11. Utilize um nível extra de autenticação, como o RADIUS, por exemplo, antes de permitir uma associação de um dispositivo novo ao seu ponto de acesso. Muitas implementações já trazer esse nível de autenticação dentro do protocolo IEEE 802.11b.

12. Pense em criar uma subrede específica para os dispositivos móveis, e disponibilizar um servidor DHCP só para essa sub-rede.

13. Não compre pontos de acesso ou dispositivos móveis que só utilizem WEP com chave de tamanho 40 bits.

14. Somente compre pontos de acessos com memória flash. Há um grande número de pesquisas na área de segurança nesse momento e você vai querer fazer um upgrade de software no futuro.

DNS para IP Dinâmico

Caso você tenha ip dinâmico e quer ter seu próprio servidor com DNS, existem dois serviços que são ótimos para isso, são o DynDNS (http://dyndns.com/) e o NO-IP (http://no-ip.com/).
Além de fazer o cadastro e escolher um "endereço" você baixa e instala o cliente para seu sistema, para atualizar seu IP sempre que você reconectar, dessa forma seu DNS ficará atualizado sempre com o seu ip dinâmico atual.
Então você poderá acessar sua máquina "de fora", ou seja fora de sua rede local, pelo endereço que você cadastrou. Exemplo: minhaurl.dyndns.com e minhurl.no-ip.com.

Alguns modems e roteadores tem suporte ao dyndns, o que significa que você nem precisa usar um cliente pois o próprio modem atualiza o seu IP. Exemplo:Speedstream 5200Planet ADE-4000 e 4100, etc.

Métodos de Comunicação

As comunicações entre redes podem acontecer em vários métodos. Os mais comuns são o simplex, half-duplex e full-duplex. Veremos cada um desses métodos e alguns exemplos de utilização.

*SIMPLEX: A transmissão é unidirecional, ou seja, um dispositivo pode ser somente o receptor(Rx) e o outro somente o transmissor(Tx). Como exemplo de utilização temos o controle remoto e um aeromodelo, onde no controle a o transmissor(Tx) e no aeromodelo o receptor(Rx).

*HALF-DUPLEX: A transmissão é bidirecional, ou seja, um dispositivo pode ser o receptor(Rx) e o outro o transmissor(Tx), podendo variar, mas nunca um dispositivo pode ser transmissor e receptor ao mesmo tempo. Como exemplo de utilização temos o Walk-Talk, onde os dispositivos uma hora são receptor outra trasmissor.

*FULL-DUPLEX: A transmissão é bidirecional, nesse caso um dispositivo pode ser o receptor e transmissor ao mesmo tempo. Como exemplo de utilização temos o telefone, onde o dispositivo é receptor e transmissor ao mesmo tempo

História das Redes de Computadores

Como quase tudo na informática, as redes passaram por um longo processo de evolução antes de chegarem aos padrões utilizados atualmente. As primeiras redes de computadores foram criadas ainda durante a década de 60, como uma forma de transferir informações de um computador a outro. Na época, o meio mais usado para armazenamento externo de dados e transporte ainda eram os cartões perfurados, que armazenavam poucas dezenas de caracteres cada (o formato usado pela IBM, por exemplo, permitia armazenar 80 caracteres por cartão).
Eles são uma das formas mais lentas, trabalhosas e demoradas de transportar grandes quantidades de informação que se pode imaginar. São, literalmente, cartões de cartolina com furos, que representam os bits um e zero armazenados:


De 1969 a 1972 foi criada a Arpanet, o embrião da Internet que conhecemos hoje. A rede entrou no ar em dezembro de 1969, inicialmente com apenas 4 nós, que respondiam pelos nomes SRI, UCLA, UCSB e UTAH e eram sediados, respectivamente, no Stanford Research Institute, na Universidade da California, na Universidade de Santa Barbara e na Universidade de Utah, nos EUA. Eles eram interligados através de links de 50 kbps, criados usando linhas telefônicas dedicadas, adaptadas para o uso como link de dados.
Pode parecer pouco, mas 50 kbps em conexões de longa distância era uma velocidade impressionante para a época, principalmente se considerarmos que os modems domésticos da década de 1970 transmitiam a apenas 110 bps (bits por segundo), o que corresponde a apenas 825 caracteres de texto por minuto.
Esta rede inicial foi criada com propósitos de teste, com o desafio de interligar 4 computadores de arquiteturas diferentes, mas a rede cresceu rapidamente e em 1973 já interligava 30 instituições, incluindo universidades, instituições militares e empresas. Para garantir a operação da rede, cada nó era interligado a pelo menos dois outros (com exceção dos casos em que isso realmente não era possível), de forma que a rede pudesse continuar funcionando mesmo com a interrupção de várias das conexões.
As mensagens eram roteadas entre os nós e eventuais interrupções nos links eram detectadas rapidamente, de forma que a rede era bastante confiável. Enquanto existisse pelo menos um caminho possível, os pacotes eram roteados até finalmente chegarem ao destino, de forma muito similar ao que temos hoje na Internet.
Esta ilustração, cortesia do computerhistory.org, mostra o diagrama da Arpanet em 1973:


Em 1974 surgiu o TCP/IP, que acabou se tornando o protocolo definitivo para uso na ARPANET e mais tarde na Internet. Uma rede interligando diversas universidades permitiu o livre tráfego de informações, levando ao desenvolvimento de recursos que usamos até hoje, como o e-mail, o telnet e o FTP, que permitiam aos usuários conectados trocar informações, acessar outros computadores remotamente e compartilhar arquivos. Na época, mainframes com um bom poder de processamento eram raros e incrivelmente caros, de forma que eles acabavam sendo compartilhados entre diversos pesquisadores e técnicos, que podiam estar situados em qualquer ponto da rede.

Um dos supercomputadores mais poderosos da época, acessado quase que unicamente via rede, era o Cray-1 (fabricado em 1976). Ele operava a 80 MHz, executando duas instruções por ciclo, e contava com 8 MB de memória, uma configuração que só seria alcançada pelos PCs domésticos quase duas décadas depois. Esta foto do museu da NASA mostra o Cray-1 durante uma manutenção de rotina:


Com o crescimento da rede, manter e distribuir listas de todos os hosts conectados foi se tornando cada vez mais dispendioso, até que em 1980 passaram a ser usados nomes de domínio, dando origem ao "Domain Name System", ou simplesmente DNS, que é essencialmente o mesmo sistema para atribuir nomes de domínio usado até hoje.
A segunda parte da história começa em 1973 dentro do PARC (o laboratório de desenvolvimento da Xerox, em Palo Alto, EUA), quando foi feito o primeiro teste de transmissão de dados usando o padrão Ethernet. Por sinal, foi no PARC onde várias outras tecnologias importantes, incluindo a interface gráfica e o mouse, foram originalmente desenvolvidas. O teste deu origem ao primeiro padrão Ethernet, que transmitia dados a 2.94 megabits através de cabos coaxiais e permitia a conexão de até 256 estações de trabalho. Este célebre desenho, feito por Bob Metcalf, o principal desenvolvedor do padrão, ilustra o conceito:


O termo "ether" era usado para descrever o meio de transmissão dos sinais em um sistema. No Ethernet original, o "ether" era um cabo coaxial, mas em outros padrões pode ser usado um cabo de fibra óptica, ou mesmo o ar, no caso das redes wireless. O termo foi escolhido para enfatizar que o padrão Ethernet não era dependente do meio e podia ser adaptado para trabalhar em conjunto com outras mídias.
Note que tudo isso aconteceu muito antes do lançamento do primeiro micro PC, o que só aconteceu em 1981. Os desenvolvedores do PARC criaram diversos protótipos de estações de trabalho durante a década de 70, incluindo versões com interfaces gráficas elaboradas (para a época) que acabaram não entrando em produção devido ao custo. O padrão Ethernet surgiu, então, da necessidade natural de ligar estas estações de trabalho em rede.

Xerox Alto (1973), a primeira estação de trabalho e também a primeira a ser ligada em rede.

A taxa de transmissão de 2.94 megabits do Ethernet original era derivada do clock de 2.94 MHz usado no Xerox Alto, mas ela foi logo ampliada para 10 megabits, dando origem aos primeiros padrões Ethernet de uso geral. Eles foram então sucessivamente aprimorados, dando origem aos padrões utilizados hoje em dia.
A ARPANET e o padrão Ethernet deram origem, respectivamente, à Internet e às redes locais, duas inovações que revolucionaram a computação. Hoje em dia, poderíamos muito bem viver sem processadores dual-core e sem monitores de LCD, mas viver sem a Internet e sem as redes locais seria muito mais complicado.
Inicialmente, a ARPANET e o padrão Ethernet eram tecnologias sem relação direta. Uma servia para interligar servidores em universidades e outras instituições e a outra servia para criar redes locais, compartilhando arquivos e impressoras entre os computadores, facilitando a troca de arquivos e informações em ambientes de trabalho e permitindo o melhor aproveitamento dos recursos disponíveis. Afinal, porque ter uma impressora jato de tinta para cada micro, se você pode ter uma única impressora laser, mais rápida e com uma melhor qualidade de impressão para toda a rede?
Na década de 1990, com a abertura do acesso à Internet, tudo ganhou uma nova dimensão e as redes se popularizaram de forma assustadora, já que não demorou muito para todos perceberem que ter uma rede local era a forma mais barata de conectar todos os micros da rede à Internet.
Há apenas uma década, o acesso via linha discada ainda era a modalidade mais comum e não era incomum ver empresas onde cada micro tinha um modem e uma linha telefônica, o que multiplicava os custos. Nessas situações, locar uma linha de frame relay (uma conexão dedicada de 64 kbits, que é na verdade uma fração de uma linha T1) e compartilhar a conexão entre todos os micros acabava saindo mais barato, além de permitir que todos eles ficassem permanentemente conectados. Com a popularização das conexões de banda larga, a escolha ficou ainda mais evidente.
Hoje em dia, quase todo mundo que possui mais de um PC em casa acaba montando uma pequena rede para compartilhar a conexão entre eles, seja usando um modem ADSL configurado como roteador, seja usando um ponto de acesso wireless, seja usando um cabo cross-over para compartilhar diretamente a conexão entre dois micros. É muito difícil encontrar uma placa-mãe que já não venha com uma placa de rede onboard, ou um notebook que não traga uma placa wireless pré-instalada. O acesso à web se tornou tão ubíquo que é cada vez mais difícil encontrar utilidade para um PC desconectado da rede.
Além disso, as redes continuam cumprindo seu papel como uma forma de compartilhar recursos entre diversos micros, permitindo que você acesse arquivos, use impressoras, CD-ROMs e outros dispositivos e rode aplicativos remotamente.
Você pode usar um notebook como segundo monitor, usando-o como uma extensão da tela do seu desktop (mesmo que os dois rodem sistemas operacionais diferentes), pode usar um micro antigo como servidor de arquivos para a rede ou dar-lhe uma sobrevida como desktop, usando-o como terminal de um micro mais rápido; pode usar um proxy transparente para melhorar a velocidade do acesso à web, só para citar alguns exemplos.
Extraído de: