UTILIZE A PESQUISA!

ADSL: o que é e como funciona

ADSL é a sigla para Assymmetric Digital Subscriber Line ou "Linha Digital Assimétrica para Assinante". Trata-se de uma tecnologia que permite a transferência digital de dados em alta velocidade por meio de linhas telefônicas comuns. A cada dia, a tecnologia ADSL ganha novos usuários, tanto é que este é o tipo de conexão à internet em banda larga mais usado no Brasil e um dos mais conhecidos no mundo.

Modem ADSL


Funcionamento da tecnologia ADSL

A tecnologia ADSL basicamente divide a linha telefônica em três canais virtuais, sendo um para voz, um para download (de velocidade alta) e um para upload (com velocidade média se comparado ao canal de download). Teoricamente, as velocidades de download podem ir de 256 Kbps até 6.1 Mbps. No caso do upload essas taxas variam de 16 Kbps até 640 Kbps, mas tudo depente da infra-estrutura do fornecedor do serviço, o que indica que essas taxas podem ter valores diferentes dos mencionados. É por causa dessas características que o ADSL ganhou o termo "assymmetric" (assimétrica) no nome, pois indica que a tecnologia possui maior velocidade para download e menor velocidade para upload.
Repare que entre os três canais há um disponível para voz. Isso permite que o usuário fale ao telefone e ao mesmo tempo navegue na internet, ou seja, não é necessário desconectar para falar ao telefone. Para separar voz de dados na linha telefônica, é instalado na linha do usuário um pequeno aparelho chamado Splitter. Nele é conectado um cabo que sai do aparelho telefônico e outro que sai do modem.
Na central telefônica também há uma espécie de Splitter. Assim, quando você realiza uma chamada telefônica (voz), o sinal é encaminhado para a rede de comutação de circuitos da companhia telefônica (PSTN - Public Switched Telephone Network) e procede pelo seu caminho habitual. Quando você utiliza a internet, o sinal é encaminhado ao DSLAN, que é explicado logo abaixo.
Quando uma linha telefônica é usada somente para voz, as chamadas utilizam freqüências baixas, geralmente entre 300 Hz e 4000 Hz. Na linha telefônica é possível usar taxas mais altas, mas elas acabam sendo desperdiçadas. Explicando de maneira simples, o que o ADSL faz é aproveitar para a transmissão de dados as freqüências que não são usadas. Como é possível usar mais de uma freqüência ao mesmo tempo na linha telefônica, é então possível usar o telefone para voz e dados ao mesmo tempo. A ilustração abaixo exemplifica este esquema:


A tecnologia ADSL funciona instalando-se um modem específico para esse tipo de conexão na residência ou empresa do usuário e fazendo-o se conectar a um equipamento na central telefônica. Neste caso, a linha telefônica serve como "estrada" para a comunicação entre esses dois pontos. Essa comunicação ocorre em freqüências acima de 5000 Hz, não interferindo na comunicação de voz (que funciona entre 300 Hz e 4000 Hz). Como a linha telefônica é usada unicamente como um meio de comunicação entre o modem do usuário e a central telefônica, não é necessário pagar pulsos telefônicos, pois a conexão ocorre por intermédio do modem e não discando para um número específico, como é feito com o acesso à internet via conexão discada. Isso deixa claro que todo o funcionamento do ADSL não se refere à linha telefônica, pois esta é apenas um "caminho", mas sim ao modem. Quando seu modem estabelece uma conexão com o modem da central telefônica, o sinal vai para um roteador, em seguida para o provedor e finalmente para a internet. É importante frisar que é possível que este sinal saia diretamente do roteador para a internet. No Brasil, o uso de provedor é obrigatório por regras da Anatel (Agência Nacional de Telecomunicações). No entanto, essa questão não será discutida aqui.

O sinal citado acima, depois de enviado à central telefônica, é separado e os dados vão para um equipamento DSLAN (Digital Subscriber Line Access Multiplexer), que limita a velocidade do usuário e uni varias linhas ADSL (é este equipamento que faz com você navegue à 256 Kbps mesmo quando sua conexão suporta 2 Mbps) enviando o sinal para uma linha ATM (Asynchronous Transfer Mode) de alta velocidade que está conectada à internet.

Em outras palavras, a central telefônica suporta uma certa quantidade de usuários ao mesmo tempo. Cabe ao DSLAN gerenciar todas essas conexões, "agrupá-las" e enviar esse grupo de conexões à linha ATM, como se fosse uma única conexão.

Praticamente todas as empresas que fornecem ADSL só o fazem se o local do usuário não estiver a mais de 5 Km da central telefônica. Quanto mais longe estiver, menos velocidade o usuário pode ter e a conexão pode sofrer instabilidades ocasionais. Isso se deve ao ruído (interferência) que ocorre entre um ponto e outro. Quanto maior essa distância, maior é a taxa de ruído. Para que haja uma conexão aceitável é utilizado o limite de 5 Km. Acima disso pode ser possível, mas inviável o uso de ADSL.


Protocolo PPPoE

Diante das informações acima, você deve se perguntar porque em muitos casos é necessário usar um programa para se conectar à internet, se o ADSL permite uma conexão permanente usando unicamente o modem.

O ADSL por si só é um meio físico de conexão, que trabalha com os sinais elétricos que serão enviados e recebidos. Funcionando dessa forma, é necessário um protocolo para encapsular os dados de seu computador até a central telefônica. O protocolo mais utilizado para essa finalidade é o PPPoE (Point-to-Point over Ethernet RFC 2516).

O protocolo PPPoE trabalha com a tecnologia Ethernet, que é usada para ligar sua placa de rede ao modem, permitindo a autenticação para a conexão e aquisição de um endereço IP à máquina do usuário. É por isso que cada vez mais as empresas que oferecem ADSL usam programas ou o navegador de internet do usuário para que este se autentique. Autenticando, é mais fácil identificar o usuário conectado e controlar suas ações.

Você pode estar se perguntando: por que os primeiros serviços de ADSL do país davam IP fixo ao usuário, sem necessidade de usar o PPPoE, ou seja, porque o PPPoE não foi usado antes? Naquela época, o protocolo PPPoE era novo (foi homologado em 1999) e, conseqüentemente, pouco conhecido. Com isso, o usuário usava ADSL através de uma conexão direta do modem à central telefônica, sem necessidade de autenticar. Mas quando as empresas começaram a descobrir as vantagens do PPPoE passaram a implantá-lo. Isso permite à companhia ter mais controle sobre as ações do usuário

Protocolo PPPoA

PPP (point-to-point protocol) é um protocolo desenvolvido para permitir acesso autenticado e transmissão de pacotes de diversos protocolos, originalmente em conexões de ponto a ponto (como uma conexão serial).
PPPoA (point-to-point protocol over AAL5 - ou over ATM) é uma adaptação do PPP para funcionar em redes ATM.

MACA e MACAW

Um protocolo antigo criado para LANs sem fios é o MACA (Multiple Access with Collision Avoidance — acesso múltiplo com abstenção de colisão) (Karn, 1990). A idéia básica consiste em fazer com que o transmissor estimule o receptor a liberar um quadro curto como saída, para que as estações vizinhas possam detectar essa transmissão e evitar transmitir enquanto o quadro de dados (grande) estiver sendo recebido.
Vamos analisar agora como A envia um quadro para B. A inicia a transmissão enviando um quadro RTS (Request to Send) para B, como mostra a Figura (a). Esse quadro curto (30 bytes) contém o comprimento do quadro de dados que eventualmente será enviado em seguida. Depois disso, B responde com um quadro CTS (Clear to Send), como mostra a Figura (b). O quadro CTS
contém o tamanho dos dados (copiado do quadro RTS). Após o recebimento do quadro CTS, A inicia a transmissão. Agora vamos ver como reagem as estações que não conseguem ouvir esses quadros. Qualquer estação que esteja ouvindo o quadro RTS está próxima a A e deve permanecer inativa por tempo suficien te para que o CTS seja transmitido de volta para A, sem conflito. Qualquer estação que esteja ouvindo o CTS está próxima a B e deve permanecer inativa durante a transmissão de dados que está a caminho, cujo tamanho pode ser verifi cado pelo exame do quadro CTS.
Na figura abaixo, o protocolo MACA. (a) A está enviando um quadro RTS para B. (b) B está respondendo com um quadro CTS para A:

Na Figura acima, C está dentro do alcance de A, mas não no alcance de B. Portanto, essa estação
pode detectar a RTS de A, mas não a CTS de B. Desde que não interfira com a CTS, a estação é
livre para transmitir enquanto o quadro de dados está sendo enviado. Em contraste, D está dentro do alcance de B, mas não de A. Ela não detecta a RTS, mas sim a CTS. Ao detectar a CTS, ela recebe a indicação de que está perto de uma estação que está prestes a receber um quadro e,
portanto, adia a transmissão até o mome nto em que a transmissão desse quadro deve ter sido
concluída. A estação E detecta as duas mensagens de controle e, como D, deve permanecer inativa até que a tr ansmissão do quadro de dados seja concluída.
Apesar dessas precauções, ainda pode haver colisões. Por exemplo, B e C poderiam enviar quadros RTS para A ao mesmo tempo. Haverá uma colisão entre esses quadros e eles se perderão. No caso de uma colisão, um transmissor que não obtiver êxito (ou seja, o que não detectar uma CTS no intervalo de tempo esperado) aguardará durante um interval o aleatório e tentará novamente mais tarde. O algoritmo utilizado é o recuo binário exponencial, que estudaremos quando começarmos a analisar o padrão Ethernet.
Com base em estudos de simulação do MACA, Bharghavan et al. (1994) otimizaram o MACA para melhorar seu desempenho e deram ao novo protocolo o nome MACAW (MACA for Wireless). Logo no início, eles observaram que sem as confirmações da camada de enlace de dados, os quadros perdidos não eram retransmitidos até que a camada de tr ansporte percebesse sua ausência, bem mais tarde. Eles resolveram esse problema introduzindo um quadro ACK após cada quadro de dados bem-sucedido. Os pesquisadores também observaram que o CSMA tinha alguma utilidade — principalmente para impedir uma estação de transmitir uma RTS ao mesmo tempo que outra estação vizinha também estiver transmitindo para o mesmo destino. Portanto, a detecção de portadora passou a ser utilizada. Além disso, eles decidiram utilizar o algoritmo de recuo individualmente para cada fluxo de dados (par origem-destino), e não para cada estação. Essa mudança melhorou a precisão do protocolo. Por fim, foi incluído um mecanismo para que as estações trocassem informações sobre congestionamento, e também uma forma de fazer o algoritmo de recuo reagir de modo menos violento a problemas temporários, o que melhorou o desempenho do sistema.


Conteúdo extraído e adaptado da página 215 do livro Redes de computadores
Quarta edição do autor Andrew S. Tanenbaum.

Bridge de Rota de Origem (SRB)

FUNDAMENTAÇÃO

Oalgoritmo de brindge de rota de origem (SRB) foi desenvolvido pela IBM e proposto ao comitê IEE 802.5 como um meio de estabelecer bridges entre todas as LANs. Desde sua proposição inicial, a IBM ofereceu um novo padrão de bridge ao comitê IEE 802: asolução de bridge transparente de rota de origem (SRT). A bridge SRT elimina completamente as SRBs puras, propondo que os dois tipos de bridges de LAN sejam as bridges transparentese as bridges SRT. Embora a bridge SRT tenha obtido suporte, as SRTBs ainda são bastante implementadas.

ALGORITMO SRB

As bridges SRB são assim chamadas por considerarem que a rota completa, da origem até o destino. está incluído em todos os frames enviados pela origem e que trafegam entra as LANs. As bridges SRBs armazenam e encaminham os frames de acordo como que é indicado pela rota especificada no campo apropriado do frame.

Conteúdo extraído da página 260 do livro INTERNET WORKING TECHNOLOGIES HANDBOOK - TRADUÇÃO DA SEGUNDA EDIÇÃO.

AppleTalk

FUNDAMENTAÇÃO

O AppleTalk, um pacote de protocolos desenvolvidos pela Apple Computer no começo dos anos 80, foi desenvolvido juntamente com o computador Macintosh. O propósito do AppleTalk era permitir que vários usuários compartilhassem recursos, como arquivos e impressoras. Os dispositivos que fornecem esses recursos são chamados de servidores, enquanto os dispositivos que utilizam esses recursos (como um usuário de computador Macintosh) são chamados clientes. Por esse motivo, o AppleTalk é uma das primeira implementações de um sistema distribuído cliente-servidor.
O AppleTalk foi projetado com ua interface de rede transparente. Isso significa que a interação entre os computadores e os servidores de rede requer uma pequena interação da parte do usuário. Além disso, as efetivas operações dos protocolos AppleTalk são invisíveis para os usuários finais, que vêem somente o resultado dessas oprações. Existem duas operações de AppleTalk: AppleTalk Fase 1 e AppleTalk Fase 2.
O AppleTalk Fase 1, que é a primeira especificação do AppleTalk, foi desenvolvida no começo dos anos 80, restritamente para o uso em grupos de trabalhos locais. Assim, a Fase 1 apresenta duas limitações principais: seus segmentos de rede que não podem conter mais do que 127 hosts e 127 servidores e podem suportar somente redes não-estendidas.
O AppleTalk Fase 2, a segunda implementação Apple Talk otimizada, foi projetada para utilização em internetworks maiores. A Fase 2 soluciona as principais limitações do AppleTalk Fase 1 e contém vários aperfeiçoamentos em relação à Fase 1. Em particular, a Fase 2 permite qualquer combinação de 253 hosts ou servidores em um mesmo segmento de rede
AppleTalk e suporta redes não-estendidas e estentidas.


Redes não-estendidas

A rede Apple não-estendida é um segmento da rede física, ao qual é atribuído apenas o número de uma única rede, variando de 1 e 1.024. A rede 100 e a rede 562, por exemplo, são dois números de rede válidos em uma rede não-estendida. Cada número de nó em uma rede não-estendida precisa ser único e um mesmo segmento de rede não pode ter mais de uma Zona AppleTalk Fase nele configurada. (A zona é um grupo lógico de nós ou redes) A AppleTalk Fase 1 suporta apenas as redes não-estendidas, mas, como uma regra, as configurações de redes não-estendidas não são mais utilizadas em novas redes, sendo substituídas pelas redes estendidas.

Redes estendidas

A rede AppleTalk estendida é um segmento de rede física, ao qual podem ser atribuído vários números de rede. Essa configuração é conhecida como faixa de cabo. As faixas de cabo AppleTalk podem indicar o número de uma única rede ou vários números de redes consecutivos. A Rede 3-3 (unária) e a Rede 3-6 das faixas de cabo, por exemplo, são válidos em uma rede estendida precisa ser única e seu endereço também precisa ser único, para propósitos de identificação. As redes estendidas podem ter várias zonas AppleTalk configuradas em um mesmo segmento de rede e os nós das redes estendidas podem pertencer a qualquer zona única associada à rede estendida. As configurações de redes estendidas têm, como uma regra, substituir as configurações de redes não-estendidas.

Conteúdo extraído das página 273, 274, 275, 276 e 277 do livro INTERNET WORKING TECHONOLOGIES HANDBOOK - TRADUÇÃO DA SEGUNDA EDIÇÃO.

RSVP

ReSource reserVation Protocol ( Protocolo de Reserva de Recursos) é um protocolo especialmente desenvolvido para serviços integrados de Internet, pois permite que as próprias aplicações requeiram da rede reservas de recursos necessários para seus diversos serviços. As novas funções que foram implementadas neste protocolo tem dado a este uma flexibilidade e escalabilidade única comparado a protocolos convencionais de reserva de recursos. Este protocolo é utilizado por um host, em benefício do fluxo de dados de uma aplicação, para requerer uma Internet deverá ser modificada para poder suportar uma Qualidade de Serviço (Quality of Service) específica da rede. O protocolo RSVP é também utilizado por routers (roteadores) para entregar requisições de controle da QoS para todos os nós ao longo do(s) caminho(s) por onde os dados irão fluir, além de manter o estado da conexão para o serviço que foi requisitado. As requisições RSVP geralmente irão resultar, embora não necessáriamente, em reservas de recursos em cada nó ao longo da conexão.

------------------------------
Princípios de Qos
Vamos da um breve resumo de Qos para quem ainda não conhece:
Os protocolos de QoS têm a tarefa de fornecer córregos de dados diferentes com as prioridades e de garantir qualidades tais como a largura de faixa e atrasam épocas. Há atualmente duas arquiteturas principais: Serviços integrados (IntServ) e serviços diferenciados (DiffServ). Ambas as políticas do tráfego do uso das arquiteturas e podem ser combinadas para permitir QoS no LAN como na WAN.
------------------------------


ARQUITETURA


RSVP é um protocolo desenvolvido para permitir que as aplicações requisitem diferentes QoS para seus fluxos de dados. Para isso, dois pré-requisitos devem ser observados:
Elementos de redes, tais como roteadores, devem adequar-se aos mecanismos de controle de qualidade de serviço para garantir a entrega dos pacotes de dados;
A aplicação deve estar capacitada a fornecer os parâmetros ideais de QoS.
O RSVP não é um protocolo de roteamento, trabalhando em conjunto com este. É usado por uma aplicação para requisitar uma qualidade de serviço específica da rede. O protocolo atua tanto em máquinas do usuário quanto em roteadores, responsabilizando-se, nesse caso, a estabelecer e manter as condições para o serviço requisitado. O diagrama esquemático pode ser visto na figura
RSVP em Máquinas do Usuário e Roteadores.

O RSVP negocia a reserva de recursos em um único sentido de cada vez, ou seja, de forma simplex.. Com isso, ele trata distintamente receptores e transmissores, operando juntamente com a camada de transporte.
O RSVP não realiza transporte de dados, sendo apenas um protocolo de controle e atuando no mesmo nível de outros protocolos como o ICMP (Internet Control Message Protocol), o IGMP (Internet Group Management Protocol) ou protocolos de roteamento, conforme mostrado no desenho esquemático da figura 2. O gerenciamento ocorre no início da comunicação, sendo reiniciado de tempos em tempos. Caberá ao receptor a responsabilidade em requisitar uma QoS específica. O protocolo RSVP foi feito de forma a garantir que as arquiteturas mais antigas sejam compatíveis com o novo sistema, através do encapsulamento de seus pacotes de controle.


Camada de Atuação do Protocolo RSVP

DEFINIÇÃO DE CONCEITOS BÁSICOS

*Sessão
O protocolo RSVP define como sessão todo enlace de comunicação pelo qual se relacionam as camadas de transporte de todos os participantes da comunicação, podendo ser ponto-a-ponto ou multicast. Cada sessão é tratada independentemente. O conceito de sessão é propositalmente genérico, pois uma sessão pode ser estabelecida baseando-se em valores de QoS diferentes daqueles requisitados pelo receptor inicialmente. Tal fato deve-se à liberdade que o gerenciador possui em unir recursos ao longo do caminho de dados da aplicação, sempre tendo o melhor aproveitamento dos recursos como objetivo. Ao efetuar essa política, os valores de QoS requisitados poderão sofrer alterações, desde que essas não acarretem perda de qualidade para uma comunicação já estabelecida.

*Soft-state
O protocolo RSVP é baseado na noção de soft-state. Este termo foi inicialmente proposto por [5], definindo o ``estado'' que um determinado elemento, pertencente ao percurso de dados de um determinado par fonte-destino, se encontra quando uma reserva está estabelecida. O início do soft-state ocorre quando uma mensagem de reserva é recebida e realizada no elemento; este estado é periodicamente realimentado pelos receptores. Ao invés de entregar à rede a responsabilidade em detectar e responder a falhas, o RSVP delega aos receptores o trabalho de reenviar periodicamente suas requisições de serviços. Caso uma falha ocorra, somente uma nova requisição do serviço restabelecerá o soft-state nos roteadores.

ARP (Address Resolution Protocol)

Address Resolution Protocol ou ARP é um protocolo usado para encontrar um endereço da camada de enlace (Ethernet, por exemplo) a partir do endereço da camada de rede (como um endereço ip).
Embora na Internet cada máquina tenha um (ou mais) endereços IP, na verdade, eles não podem ser usados para transmitir pacotes, pois o hardware da camada de enlace de dados não reconhece endereços da Internet. Hoje em dia, muitos hosts de empresas e universidades estão associados a uma LAN por uma placa de interface que só reconhece endereços de LANs. Por exemplo, cada placa Ethernet fabricada é equipada com um endereço Ethernet de 48 bits. Os fabricantes de placas Ethernet solicitam um bloco de endereços de uma autoridade central para assegurar que duas placas não tenham o mesmo endereço (evitando conflitos, caso as duas estejam na mesma LAN).
As placas enviam e recebem quadros com base em endereços Ethernet de 48 bits. Elas nada
sabem sobre endereços IP de 32 bits.
Agora, surge a seguinte pergunta: De que forma os endereços IP são mapeados nos endereços da camada de enlace de dados, como é o caso dos endereços Ethernet? Para explicar como esse processo funciona, usaremos uma ilustração de uma pequena universidade com diversas redes clase C (agora chamada /24).

Três redes /24 interconectadas: duas redes Ethernet e um anel FDDI

Aqui, temos duas redes Ethernet, uma no departamento de ciência da computação com o endereço IP 192.31.65.0, e outra no departamento de engenharia elétrica co m o endereço IP 192.31.63.0. As duas estão conectadas por um anel de backbone do campus (por exemplo, FDDI) cujo endereço IP é 192.31.60.0. Cada máquina de uma rede Ethernet tem um endereço Ethernet exclusivo, identificado pelos rótulos E1 a E6, e cada máquina do anel FDDI tem um endereço FDDI, identificado pelos rótulos de F1 a F3.
Começaremos examinando como um usuário no host 1 envia um pacote para um usuário no host 2.
Vamos supor que o tr ansmissor conheça o nome do receptor pretendido, talvez algo como
mary@eagle.cs.uni.edu. A primeira etapa é encontrar o endereço IP do host 2, conhecido como
eagle.cs.uni.edu. Essa pesquisa é realizada pelo DNS (Domain Name System), que estudaremos no Capítulo 7. No momento, supomos apenas que o DNS retorna o endereço IP correspondente ao host 2 (192.31.65.5).
Em seguida, o software da camada superior do host 1 constrói um pacote com 192.31.65.5 no
campo Destination address e o fornece ao software IP para transmissão. O software IP pode
examinar o endereço e constatar que o destino está em sua própria rede, mas ele precisa encontrar de alguma forma o endereço Ethernet da máquina de destino. Uma solução é ter um arquivo de configuração em algum lugar no sistema que faça o mapeamento de endereços IP em endereços Ethernet. Embora essa solução sem dúvida seja possível, no caso de organizações com milhares de máquinas, manter todos esses arquivos atualizados é uma tarefa demorada e propensa a erros.