UTILIZE A PESQUISA!

Mostrando postagens com marcador Protocolos. Mostrar todas as postagens
Mostrando postagens com marcador Protocolos. Mostrar todas as postagens

SPX/IPX

Os protocolos de transporte IPX/SPX (“Internetwork Packet Exchange ”) são uma variante dos protocolos XNS (“Xerox Network Systems”). O protocolo IPX é idêntico ao protocolo Internetwork Datagram Packet da Xerox (IDP) e oferece um serviço de datagrama. O protocolo SPX é idêntico ao Sequenced Packet Protocol (SPP), também da Xerox, e oferece um serviço de fluxo de dados confiável.

A principal diferença entre o IPX e o XNS está no uso de diferentes formatos de encapsulamento Ethernet. A segunda diferença está no uso pelo IPX do “Service Advertisement Protocol”(SAP), protocolo proprietário da Novell.

Um frame IPX pode transportar até 546 bytes de dados, e cada frame SPX pode transportar até 534 bytes de dados.

O endereço IPX completo é composto de 12 bytes:
*ID da rede de destino (4 bytes).
*ID do nó (6 bytes);
*ID do soquete (2 bytes).

O ID da rede é definido em zero se o destino estiver na mesma LAN que o emissor. O ID do nó é o mesmo número de seis bytes usado pelos protocolos IEEE MAC para endereçar as placas adaptadoras de rede. O endereço FFFFFFFFFFFF16 indica um broadcast.

As aplicações comunicam-se usando a interface do soquete IPX ou SPX. A implementação também oferece um serviço de determinação do nome , chamado bindery. Os servidores se registram no bindery e os clientes localizam os nomes dos servidores e seus endereços lá.

O protocolo SPX garante uma transmissão confiável a qualquer nó da rede através da troca de mensagem e da utilização de um cálculo de checksum. Caso ocorra um número razoável de transmissões falhadas, o SPX assume que a conexão foi interrompida e avisa ao operador.

Protocolo IPv6

Introdução

Este artigo tem como objetivo explicar o que é IPv6 e sua importância para o futuro da internet. O IPv6 é uma evolução do protocolo IP.

O que é IPv6

IPv6 é a sigla para Internet Protocol version 6. Também conhecido como Ipng (Internet Protocol Next Generation), trata-se da evolução do IPv4, a versão em uso atualmente. O IPv6 é fruto da necessidade de mudanças na internet. O IPv4 permite que até 4.294.967.296 de endereços IP estejam em uso. O grande problema é que o número de sites e o número de usuários da internet cresce constantemente, no mundo todo. Como é impossível usar um mesmo IP simultaneamente na internet, é necessário que cada usuário, cada site ou cada serviço tenha um endereço IP exclusivo. Com o crescimento da necessidade de uso do IP, a internet chegará a um ponto onde não vai sobrar mais IPs. Todos estarão em uso.

O IPv6 é uma solução para este problema e também é provido de novos recursos, tais como o suporte a novas tecnologias de rede (ATM, Gigabit Ethernet, entre outros). Mas como o IPv6 consegue solucionar o problema da limitação de IPs atual? O IPv4 (relembrando, o IP que usamos hoje) é uma combinação de 32 bits. O IPv6 é uma implementação de 128 bits, o que eleva extraordinariamente o número de endereços IP disponíveis.

Os endereços do IPv6

Como já é de se supor, as mudanças no sistema de endereçamento é uma das inovações mais importantes do IPv6. Como já dito, este passa a ser de 128 bits (contra os 32 bits do IPv4). Teoricamente, o número de endereços pode chegar a 340.282.366.920.938.463.463.374.607.431.768.211.456, um valor absurdamente alto.

Graças a isso, determinados equipamentos poderão ter mais de um IP. Assim, será possível fazer com que certos serviços sejam executados simultaneamente numa mesma máquina e para cada um haverá uma conexão exclusiva.

Para o uso de mais de um IP em um mesmo dispositivo, foram criados os seguintes esquemas:

Unicast: neste esquema, um determinado dispositivo pode ter mais de um endereço. Para tanto, tais endereços são divididos em grupos;

Multicast: neste esquema, uma único dispositivo consegue identificar várias interfaces na rede, permitindo o envio individual de pacotes;

Anycast: este tipo é uma variação do multicast, onde o endereço IP pode estar atribuído a mais de uma interface, ao invés de uma individual.

O endereço IP da versão 6 é composto por grupos de 16 bits em formato hexadecimal e separados por 2 pontos (:). Assim, o IP do InfoWester pode ser, por exemplo, fe80:0000:0000:0000:2601:97ff:fefe:9ced. Mas é importante salientar que é possível usar endereços compactados, ou seja, na prática, menores.

O cabeçalho do IPv6

O endereço IP possui um cabeçalho com várias informações essenciais para a troca de informações entre sistemas e computadores. No IPv6, o cabeçalho sofre alterações. A principais é seu tamanho, que passa a ser de 320 bits, o dobro do IPv4. Além disso, alguns campos do cabeçalho foram retirados, enquanto outros tornaram-se opcionais.

De maneira geral, o cabeçalho ficou mais simples e essa mudança não serve somente para adaptar-se aos novos padrões do IPv6, mas também para permitir que os roteadores não tenham que processar determinadas informações do cabeçalho. Como conseqüência, a transmissão se torna mais eficiente.

Finalizando

O IPv6 é uma padrão que promete resolver vários problemas da internet, inclusive alguns relacionados a segurança que não foram citados neste artigo. Ainda em teste, esse novo tipo de IP deve começar a ser usado em alta escala dentro de alguns anos. Enquanto isso não ocorre, testes e aperfeiçoamentos são realizados.

Obviamente, adaptações nos sistemas operacionais atuais serão necessários, portanto, o IPv6 não substituirá o IPv4 de uma hora para outra. Cogitá-se até mesmo que o IPv4 não seja descartado após uma implementação significante do IPv6.

Para alguns, o IPv6 trará complexidades até então não existentes aos administradores de rede, mas deve-se observar que este protocolo terá algumas auto-configurações e outros meios que facilitarão a montagem de uma rede.

Por fim, se você se perguntou porque IPv6 ao invés de IPv5, saiba que este último esteve em testes, mas não foi considerado apropriado para a internet. Para mais informações e/ou explicações mais técnicas, visite: www.ipv6.org.

Protocolo HDLC

O HDLC (High-level data link control) é uma especificação do nível 2 do modelo OSI com grande utilização e que inclui diversas variantes, utiliza a transmissão síncrona de tramas, orientada por bit.

Existem três tipos de nós:

Primários: controlam a ligação e emitem comandos sob a forma de tramas
Secundários: estão sob o controlo do nó primário, emitindo as respostas aos comandos solicitados. Quando existe mais do que um nó secundário, o nó primário mantém uma ligação lógica independente para cada um.
Combinados: controla a ligação, mas também emite respostas.
Se numa linha multiponto ou ponto a ponto existe um nó primário e um ou mais secundários, a ligação é não balanceada. Se numa ligação ponto a ponto existem dois nós combinados a ligação é balanceada.

Numa ligação balanceada qualquer dos nós combinados pode iniciar uma transmissão, este modo de transmissão é designado por ABM (“Asynchronous balanced mode”).

Numa ligação não balanceada o modo normal de funcionamento é NRM (“Normal Response Mode”), os nós secundários só podem transmitir quando solicitados pelo nó primário.

Existe ainda um terceiro modo, raramente usado, que permite que numa ligação não balanceada os nós secundários tomem a iniciativa de transmitir, trata-se do ARM (“Asynchronous response mode”).

Protocolo ATM

O protocolo ATM foi concebido através de uma estrutura em camadas, porém sem a pretensão de atender ao modelo OSI. A figura abaixo apresenta sua estrutura e compara com o modelo OSI.

No modelo ATM todas as camadas possuem funcionalidades de controle e de usuário (serviços), conforme apresentado na figura. A descrição de cada camada e apresentada a seguir:

*Física: provê os meios para transmitir as células ATM. A sub-camada TC (Transmission Convergence) mapeia as células ATM no formato dos frames da rede de transmissão (SDH, SONET, PDH, etc.). A sub-camada PM (Physical Medium) temporiza os bits do frame de acordo com o relógio de transmissão.

*ATM: é responsável pela construção, processamento e transmissão das células, e pelo processamento das conexões virtuais. Esta camada também processa os diferentes tipos e classes de serviços e controla o tráfego da rede. Nos equipamentos de rede esta camada trata todo o tráfego de entrada e saída, minimizando o processamento e aumentando a eficiência do protocolo sem necessitar de outras camadas superiores.

*AAL: é responsável pelo fornecimento de serviços para a camada de aplicação superior. A sub-camada CS (Convergence Sublayer) converte e prepara a informação de usuário para o ATM, de acordo com o tipo de serviço, além de controlar as conexões virtuais. A sub-camada SAR (Segmentation and Reassembly) fragmenta a informação para ser encapsulada na célula ATM. A camada AAL implementa ainda os respectivos mecanismos de controle, sinalização e qualidade de serviço.


A tecnologia ATM utiliza a multiplexação e comutação de pacotes para prover um serviço de transferência de dados orientado a conexão, em modo assíncrono, para atender as necessidades de diversos tipos de aplicações de dados, voz, áudio e vídeo.

Diferentemente dos protocolos X.25 e Frame Relay, entre outros, o ATM utiliza um pacote de tamanho fixo denominado célula (cell). Uma célula possui 53 bytes, sendo 48 para a informação útil e 5 para o cabeçalho.

Cada célula ATM enviada para a rede contém uma informação de endereçamento que estabelece uma conexão virtual entre origem e destino. Este procedimento permite ao protocolo implementar as características de multiplexação estatística e de compartilhamento de portas.

Na tecnologia ATM as conexões de rede são de 2 tipos: UNI (User-Network Interface), que é a conexão entre equipamentos de acesso ou de usuário e equipamentos de rede, e NNI (Network Node Interface), que é a conexão entre equipamentos de rede.

No primeiro caso, informações de tipo de serviço são relevantes para a forma como estes serão tratados pela rede, e referem-se a conexões entre usuários finais. No segundo caso, o controle de tráfego é função única e exclusiva das conexões virtuais configuradas entre os equipamentos de rede.

MACA e MACAW

Um protocolo antigo criado para LANs sem fios é o MACA (Multiple Access with Collision Avoidance — acesso múltiplo com abstenção de colisão) (Karn, 1990). A idéia básica consiste em fazer com que o transmissor estimule o receptor a liberar um quadro curto como saída, para que as estações vizinhas possam detectar essa transmissão e evitar transmitir enquanto o quadro de dados (grande) estiver sendo recebido.
Vamos analisar agora como A envia um quadro para B. A inicia a transmissão enviando um quadro RTS (Request to Send) para B, como mostra a Figura (a). Esse quadro curto (30 bytes) contém o comprimento do quadro de dados que eventualmente será enviado em seguida. Depois disso, B responde com um quadro CTS (Clear to Send), como mostra a Figura (b). O quadro CTS
contém o tamanho dos dados (copiado do quadro RTS). Após o recebimento do quadro CTS, A inicia a transmissão. Agora vamos ver como reagem as estações que não conseguem ouvir esses quadros. Qualquer estação que esteja ouvindo o quadro RTS está próxima a A e deve permanecer inativa por tempo suficien te para que o CTS seja transmitido de volta para A, sem conflito. Qualquer estação que esteja ouvindo o CTS está próxima a B e deve permanecer inativa durante a transmissão de dados que está a caminho, cujo tamanho pode ser verifi cado pelo exame do quadro CTS.
Na figura abaixo, o protocolo MACA. (a) A está enviando um quadro RTS para B. (b) B está respondendo com um quadro CTS para A:

Na Figura acima, C está dentro do alcance de A, mas não no alcance de B. Portanto, essa estação
pode detectar a RTS de A, mas não a CTS de B. Desde que não interfira com a CTS, a estação é
livre para transmitir enquanto o quadro de dados está sendo enviado. Em contraste, D está dentro do alcance de B, mas não de A. Ela não detecta a RTS, mas sim a CTS. Ao detectar a CTS, ela recebe a indicação de que está perto de uma estação que está prestes a receber um quadro e,
portanto, adia a transmissão até o mome nto em que a transmissão desse quadro deve ter sido
concluída. A estação E detecta as duas mensagens de controle e, como D, deve permanecer inativa até que a tr ansmissão do quadro de dados seja concluída.
Apesar dessas precauções, ainda pode haver colisões. Por exemplo, B e C poderiam enviar quadros RTS para A ao mesmo tempo. Haverá uma colisão entre esses quadros e eles se perderão. No caso de uma colisão, um transmissor que não obtiver êxito (ou seja, o que não detectar uma CTS no intervalo de tempo esperado) aguardará durante um interval o aleatório e tentará novamente mais tarde. O algoritmo utilizado é o recuo binário exponencial, que estudaremos quando começarmos a analisar o padrão Ethernet.
Com base em estudos de simulação do MACA, Bharghavan et al. (1994) otimizaram o MACA para melhorar seu desempenho e deram ao novo protocolo o nome MACAW (MACA for Wireless). Logo no início, eles observaram que sem as confirmações da camada de enlace de dados, os quadros perdidos não eram retransmitidos até que a camada de tr ansporte percebesse sua ausência, bem mais tarde. Eles resolveram esse problema introduzindo um quadro ACK após cada quadro de dados bem-sucedido. Os pesquisadores também observaram que o CSMA tinha alguma utilidade — principalmente para impedir uma estação de transmitir uma RTS ao mesmo tempo que outra estação vizinha também estiver transmitindo para o mesmo destino. Portanto, a detecção de portadora passou a ser utilizada. Além disso, eles decidiram utilizar o algoritmo de recuo individualmente para cada fluxo de dados (par origem-destino), e não para cada estação. Essa mudança melhorou a precisão do protocolo. Por fim, foi incluído um mecanismo para que as estações trocassem informações sobre congestionamento, e também uma forma de fazer o algoritmo de recuo reagir de modo menos violento a problemas temporários, o que melhorou o desempenho do sistema.


Conteúdo extraído e adaptado da página 215 do livro Redes de computadores
Quarta edição do autor Andrew S. Tanenbaum.

AppleTalk

FUNDAMENTAÇÃO

O AppleTalk, um pacote de protocolos desenvolvidos pela Apple Computer no começo dos anos 80, foi desenvolvido juntamente com o computador Macintosh. O propósito do AppleTalk era permitir que vários usuários compartilhassem recursos, como arquivos e impressoras. Os dispositivos que fornecem esses recursos são chamados de servidores, enquanto os dispositivos que utilizam esses recursos (como um usuário de computador Macintosh) são chamados clientes. Por esse motivo, o AppleTalk é uma das primeira implementações de um sistema distribuído cliente-servidor.
O AppleTalk foi projetado com ua interface de rede transparente. Isso significa que a interação entre os computadores e os servidores de rede requer uma pequena interação da parte do usuário. Além disso, as efetivas operações dos protocolos AppleTalk são invisíveis para os usuários finais, que vêem somente o resultado dessas oprações. Existem duas operações de AppleTalk: AppleTalk Fase 1 e AppleTalk Fase 2.
O AppleTalk Fase 1, que é a primeira especificação do AppleTalk, foi desenvolvida no começo dos anos 80, restritamente para o uso em grupos de trabalhos locais. Assim, a Fase 1 apresenta duas limitações principais: seus segmentos de rede que não podem conter mais do que 127 hosts e 127 servidores e podem suportar somente redes não-estendidas.
O AppleTalk Fase 2, a segunda implementação Apple Talk otimizada, foi projetada para utilização em internetworks maiores. A Fase 2 soluciona as principais limitações do AppleTalk Fase 1 e contém vários aperfeiçoamentos em relação à Fase 1. Em particular, a Fase 2 permite qualquer combinação de 253 hosts ou servidores em um mesmo segmento de rede
AppleTalk e suporta redes não-estendidas e estentidas.


Redes não-estendidas

A rede Apple não-estendida é um segmento da rede física, ao qual é atribuído apenas o número de uma única rede, variando de 1 e 1.024. A rede 100 e a rede 562, por exemplo, são dois números de rede válidos em uma rede não-estendida. Cada número de nó em uma rede não-estendida precisa ser único e um mesmo segmento de rede não pode ter mais de uma Zona AppleTalk Fase nele configurada. (A zona é um grupo lógico de nós ou redes) A AppleTalk Fase 1 suporta apenas as redes não-estendidas, mas, como uma regra, as configurações de redes não-estendidas não são mais utilizadas em novas redes, sendo substituídas pelas redes estendidas.

Redes estendidas

A rede AppleTalk estendida é um segmento de rede física, ao qual podem ser atribuído vários números de rede. Essa configuração é conhecida como faixa de cabo. As faixas de cabo AppleTalk podem indicar o número de uma única rede ou vários números de redes consecutivos. A Rede 3-3 (unária) e a Rede 3-6 das faixas de cabo, por exemplo, são válidos em uma rede estendida precisa ser única e seu endereço também precisa ser único, para propósitos de identificação. As redes estendidas podem ter várias zonas AppleTalk configuradas em um mesmo segmento de rede e os nós das redes estendidas podem pertencer a qualquer zona única associada à rede estendida. As configurações de redes estendidas têm, como uma regra, substituir as configurações de redes não-estendidas.

Conteúdo extraído das página 273, 274, 275, 276 e 277 do livro INTERNET WORKING TECHONOLOGIES HANDBOOK - TRADUÇÃO DA SEGUNDA EDIÇÃO.

RSVP

ReSource reserVation Protocol ( Protocolo de Reserva de Recursos) é um protocolo especialmente desenvolvido para serviços integrados de Internet, pois permite que as próprias aplicações requeiram da rede reservas de recursos necessários para seus diversos serviços. As novas funções que foram implementadas neste protocolo tem dado a este uma flexibilidade e escalabilidade única comparado a protocolos convencionais de reserva de recursos. Este protocolo é utilizado por um host, em benefício do fluxo de dados de uma aplicação, para requerer uma Internet deverá ser modificada para poder suportar uma Qualidade de Serviço (Quality of Service) específica da rede. O protocolo RSVP é também utilizado por routers (roteadores) para entregar requisições de controle da QoS para todos os nós ao longo do(s) caminho(s) por onde os dados irão fluir, além de manter o estado da conexão para o serviço que foi requisitado. As requisições RSVP geralmente irão resultar, embora não necessáriamente, em reservas de recursos em cada nó ao longo da conexão.

------------------------------
Princípios de Qos
Vamos da um breve resumo de Qos para quem ainda não conhece:
Os protocolos de QoS têm a tarefa de fornecer córregos de dados diferentes com as prioridades e de garantir qualidades tais como a largura de faixa e atrasam épocas. Há atualmente duas arquiteturas principais: Serviços integrados (IntServ) e serviços diferenciados (DiffServ). Ambas as políticas do tráfego do uso das arquiteturas e podem ser combinadas para permitir QoS no LAN como na WAN.
------------------------------


ARQUITETURA


RSVP é um protocolo desenvolvido para permitir que as aplicações requisitem diferentes QoS para seus fluxos de dados. Para isso, dois pré-requisitos devem ser observados:
Elementos de redes, tais como roteadores, devem adequar-se aos mecanismos de controle de qualidade de serviço para garantir a entrega dos pacotes de dados;
A aplicação deve estar capacitada a fornecer os parâmetros ideais de QoS.
O RSVP não é um protocolo de roteamento, trabalhando em conjunto com este. É usado por uma aplicação para requisitar uma qualidade de serviço específica da rede. O protocolo atua tanto em máquinas do usuário quanto em roteadores, responsabilizando-se, nesse caso, a estabelecer e manter as condições para o serviço requisitado. O diagrama esquemático pode ser visto na figura
RSVP em Máquinas do Usuário e Roteadores.

O RSVP negocia a reserva de recursos em um único sentido de cada vez, ou seja, de forma simplex.. Com isso, ele trata distintamente receptores e transmissores, operando juntamente com a camada de transporte.
O RSVP não realiza transporte de dados, sendo apenas um protocolo de controle e atuando no mesmo nível de outros protocolos como o ICMP (Internet Control Message Protocol), o IGMP (Internet Group Management Protocol) ou protocolos de roteamento, conforme mostrado no desenho esquemático da figura 2. O gerenciamento ocorre no início da comunicação, sendo reiniciado de tempos em tempos. Caberá ao receptor a responsabilidade em requisitar uma QoS específica. O protocolo RSVP foi feito de forma a garantir que as arquiteturas mais antigas sejam compatíveis com o novo sistema, através do encapsulamento de seus pacotes de controle.


Camada de Atuação do Protocolo RSVP

DEFINIÇÃO DE CONCEITOS BÁSICOS

*Sessão
O protocolo RSVP define como sessão todo enlace de comunicação pelo qual se relacionam as camadas de transporte de todos os participantes da comunicação, podendo ser ponto-a-ponto ou multicast. Cada sessão é tratada independentemente. O conceito de sessão é propositalmente genérico, pois uma sessão pode ser estabelecida baseando-se em valores de QoS diferentes daqueles requisitados pelo receptor inicialmente. Tal fato deve-se à liberdade que o gerenciador possui em unir recursos ao longo do caminho de dados da aplicação, sempre tendo o melhor aproveitamento dos recursos como objetivo. Ao efetuar essa política, os valores de QoS requisitados poderão sofrer alterações, desde que essas não acarretem perda de qualidade para uma comunicação já estabelecida.

*Soft-state
O protocolo RSVP é baseado na noção de soft-state. Este termo foi inicialmente proposto por [5], definindo o ``estado'' que um determinado elemento, pertencente ao percurso de dados de um determinado par fonte-destino, se encontra quando uma reserva está estabelecida. O início do soft-state ocorre quando uma mensagem de reserva é recebida e realizada no elemento; este estado é periodicamente realimentado pelos receptores. Ao invés de entregar à rede a responsabilidade em detectar e responder a falhas, o RSVP delega aos receptores o trabalho de reenviar periodicamente suas requisições de serviços. Caso uma falha ocorra, somente uma nova requisição do serviço restabelecerá o soft-state nos roteadores.

ARP (Address Resolution Protocol)

Address Resolution Protocol ou ARP é um protocolo usado para encontrar um endereço da camada de enlace (Ethernet, por exemplo) a partir do endereço da camada de rede (como um endereço ip).
Embora na Internet cada máquina tenha um (ou mais) endereços IP, na verdade, eles não podem ser usados para transmitir pacotes, pois o hardware da camada de enlace de dados não reconhece endereços da Internet. Hoje em dia, muitos hosts de empresas e universidades estão associados a uma LAN por uma placa de interface que só reconhece endereços de LANs. Por exemplo, cada placa Ethernet fabricada é equipada com um endereço Ethernet de 48 bits. Os fabricantes de placas Ethernet solicitam um bloco de endereços de uma autoridade central para assegurar que duas placas não tenham o mesmo endereço (evitando conflitos, caso as duas estejam na mesma LAN).
As placas enviam e recebem quadros com base em endereços Ethernet de 48 bits. Elas nada
sabem sobre endereços IP de 32 bits.
Agora, surge a seguinte pergunta: De que forma os endereços IP são mapeados nos endereços da camada de enlace de dados, como é o caso dos endereços Ethernet? Para explicar como esse processo funciona, usaremos uma ilustração de uma pequena universidade com diversas redes clase C (agora chamada /24).

Três redes /24 interconectadas: duas redes Ethernet e um anel FDDI

Aqui, temos duas redes Ethernet, uma no departamento de ciência da computação com o endereço IP 192.31.65.0, e outra no departamento de engenharia elétrica co m o endereço IP 192.31.63.0. As duas estão conectadas por um anel de backbone do campus (por exemplo, FDDI) cujo endereço IP é 192.31.60.0. Cada máquina de uma rede Ethernet tem um endereço Ethernet exclusivo, identificado pelos rótulos E1 a E6, e cada máquina do anel FDDI tem um endereço FDDI, identificado pelos rótulos de F1 a F3.
Começaremos examinando como um usuário no host 1 envia um pacote para um usuário no host 2.
Vamos supor que o tr ansmissor conheça o nome do receptor pretendido, talvez algo como
mary@eagle.cs.uni.edu. A primeira etapa é encontrar o endereço IP do host 2, conhecido como
eagle.cs.uni.edu. Essa pesquisa é realizada pelo DNS (Domain Name System), que estudaremos no Capítulo 7. No momento, supomos apenas que o DNS retorna o endereço IP correspondente ao host 2 (192.31.65.5).
Em seguida, o software da camada superior do host 1 constrói um pacote com 192.31.65.5 no
campo Destination address e o fornece ao software IP para transmissão. O software IP pode
examinar o endereço e constatar que o destino está em sua própria rede, mas ele precisa encontrar de alguma forma o endereço Ethernet da máquina de destino. Uma solução é ter um arquivo de configuração em algum lugar no sistema que faça o mapeamento de endereços IP em endereços Ethernet. Embora essa solução sem dúvida seja possível, no caso de organizações com milhares de máquinas, manter todos esses arquivos atualizados é uma tarefa demorada e propensa a erros.

Frame Relay


O Frame Relay é um padrão da Consultative Committee for International Telegraph and Telephone (CCITT) e do American National Standards Institute (ANSI) que define um processo para enviar dados por uma rede de dados pública (PDN). É uma tecnologia de dados eficiente e de alto desempenho usada em redes no mundo todo. O Frame Relay é um modo de enviar informações por uma WAN dividindo os dados em pacotes. Cada pacote viaja através de uma série de switches em uma rede Frame Relay para alcançar seu destino. Ele opera nas camadas física e de enlace do modelo de referência OSI, mas depende de protocolos de camada superior como o TCP para a correção de erros. O Frame Relay foi originalmente concebido como um protocolo para uso em interfaces ISDN. Hoje, o Frame Relay é um protocolo da camada de enlace de dados comutado, padrão da indústria, que trata vários circuitos virtuais usando o encapsulamento High-Level Data Link Control (HDLC) entre dispositivos conectados. O Frame Relay usa circuitos virtuais para fazer conexões através de um serviço orientado à conexão.

A rede que fornece a interface do Frame Relay pode ser uma rede pública de serviços telefônicos ou uma rede de equipamentos privados, que serve a uma única empresa. Uma rede Frame Relay pode incluir computadores, servidores, etc., do lado do usuário, além de dispositivos de rede Frame Relay, como switches, roteadores, CSU/DSUs ou multiplexadores. Como você aprendeu, dispositivos de usuários são normalmente chamados de equipamento de terminal de dados (DTE), ao passo que o equipamento de rede que faz interface com o DTE é geralmente chamado de equipamento de terminal de circuito de dados (DCE).


Extraído do Curso Cisco Ccna

Sliding Window (Janela Deslizante)

Protocolos de Janela Deslizante são um recurso do pacote de protocolos baseados em transmissão de dados. Eles são usados na camada de enlace de dados (modelo OSI), bem como no TCP (camada de transporte do modelo OSI). Eles são usados para manter um registo do quadro de sequências enviadas, e seus respectivos reconhecimentos recebidos, tanto pelos usuários. Em transmissão de controle de fluxo, janela deslizante é uma janela de duração variável, na qual permite que um remetente possa transmitir um determinado número de unidades de dados antes que uma confirmação seja recebida ou antes que um evento especificado ocorra. O objetivo da janela deslizante é aumentar a taxa de transferência.

A solução consiste no envio e ACK de pacotes em conjunto, o emissor começa por enviar um número de pacotes w que designaremos de "tamanho da janela". O tamanho da janela é o número de pacotes que podem ser enviados sem qualquer ACK do receptor.
O tamanho de janela é conhecido tanto pelo emissor como pelo receptor, até porque este último tem de reservar inicialmente um "buffer" com capacidade para w pacotes, com "stop & wait" apenas necessitava de reservar espaço para um pacote.
Para garantir o funcionamento do mecanismo, tanto os pacotes como os ACK são númerados de 0 a w. Esta númeração evita que o receptor tenha de enviar ACK individuais para todos os pacotes.
Compreende-se facilmente o funcionamento sabendo que a regra base é de que o número de pacotes que podem ser enviados sem ACK do receptor é w. Por exemplo:
Se o receptor envia ACK-8 quer dizer que já retirou do "buffer" todos os pacotes até PAC-8, nesta situação o emissor fica a saber que pode manter sem ACK os w pacotes depois do PAC-8.

Clique aqui para ver uma animação em JavaScript

SSH


O SSH (Secure Shell) é, simultaneamente, um programa de computador e um protocolo de rede que permite a conexão com outro computador na rede, de forma a executar comandos de uma unidade remota. Possui as mesmas funcionalidades do TELNET, com a vantagem da conexão entre o cliente e o servidor ser criptografada.
Uma de suas mais utilizadas aplicações é o chamado Tunnelling, que oferece a capacidade de redirecionar pacotes de dados. Por exemplo, se alguém se encontra dentro de uma instituição cuja conexão à Internet é protegida por um firewall que bloqueia determinadas portas de conexão, não será possível, por exemplo, acessar e-mails via POP3, o qual utiliza a porta 110, nem enviá-los via SMTP, pela porta 25. As duas portas essenciais são a 80 para HTTP e a 443 para HTTPS. Não há necessidade do administrador da rede deixar várias portas abertas, uma vez que conexões indesejadas e que comprometam a segurança da instituição possam ser estabelecidas pelas mesmas.

Para quebrar essa imposição rígida, o SSH oferece o recurso do Túnel. O processo se caracteriza por duas máquinas ligadas ao mesmo servidor SSH, que faz apenas o redirecionamento das requisições do computador que está sob firewall. O usuário envia para o servidor um pedido de acesso ao servidor pop.xxxxxxxx.com pela porta 443 (HTTPS), por exemplo. Então, o servidor acessa o computador remoto e requisita a ele o acesso ao protocolo, retornando um conjunto de pacotes referentes à aquisição. O servidor codifica a informação e a retorna ao usuário via porta 443. Sendo assim, o usuário tem acesso a toda a informação que necessita. Tal prática não é ilegal caso o fluxo de conteúdo esteja de acordo com as normas da instituição.
O SSH faz parte da suíte de protocolos TCP/IP que torna segura a administração remota de um servidor Unix.

No Linux, O sshd é o módulo servidor (que deve ser ativado no ntsysv, ou no utilitário e configuração da distro usada), enquanto o ssh é o módulo cliente, incluído em praticamente todas as distribuições Linux, mesmo as relativamente antigas. Para usar, basta usar o comando "ssh -l login nome_ou_IP_da_maquina", como em "ssh -l morimoto 192.168.0.2" ou "ssh -l morimoto beta-2" para abrir o terminal do usuário morimoto no host beta-2. O SSH inclui muitas opções de segurança, a documentação esta disponível no site: http://www.openssh.com/
A segurança é justamente a principal vantagem sobre o Telnet, onde os dados, incluindo senhas trafegam na forma de texto pela rede ou pela Internet, uma carta aberta para quem desejar ler. O SSH por sua vez pode ser praticamente indecifrável se bem configurado.Existem também clientes SSH para Windows, como por exemplo a versão da SSH Security, que tem vários recursos mas é gratuita apenas para universidades e usuários domésticos. O link é: http://www.ssh.com/

O SSH da SSH Security e o OpenSSH são totalmente intercompatíveis, permitindo que você acesse um servidor Linux através de uma máquina Windows, como no caso do Telnet.Além de oferecer acesso via linha de comando, o SSH permite rodar aplicativos gráficos remotamente, caso as duas máquinas rodem Linux. Dando um "konqueror" por exemplo, o aplicativo não será inicializado no servidor, mas sim na sua máquina. Note que este recurso só funciona nos clientes Linux, o cliente Windows está limitado ao modo texto.Você pode usar o SSH até mesmo via Internet. Uma conexão via modem vai ser suficiente para trabalhar no modo texto, mas a coisa complica se você quiser rodar aplicativos gráficos. Com uma conexão via cabo ou ADSL eles já ficam usáveis, mas o ideal é uma rede local, onde os aplicativos rodam com o mesmo (ou praticamente o mesmo) desempenho com que rodam no servidor.

NTP

Definição

O NTP (Network Time Protocol) é um protocolo para sinconização dos relógios dos commputadores baseado no UDP (TCP/IP), ou seja, ele define um jeito para um grupo de computadores conversar entre si e acertar seus relógiosl baseados em alguma fonte confiável de tempo.
Possui erro médio de milésimos de Segundos.

Características

*Uma caracteróstica básica e ao mesmo temportante do tempo é que ele sempre avança. O tempo não para e não volta para trás. Vários programas de computador fazem uso dessas caracteríticas e podem ter seu funcionamento (como sharewares).
*Relógios de PCs são imprecisos, em média oscilando de 1,5 minutos para mais ou para menos por ano. Mudanças de tensão na rede elétrica são um dos motivos que fazem o horário dos Pcs mudarem.

-Por que é importante a hora certa:
*Obter a partir de diversas amostrar, informações de tempo de um determinado servidor, como o desclocamento, disperção e variação;
*Discernir, dentre um conjunto de servidores, quais fornecem o tempo correto e quais estão mentindo;
*Escolher, dentre os servidores que fornecem o tempo correto, qual é a melhor refrência.
*Disciplinar o relógio local, descobrindo os seus principais parâmetros de funcionamento, como precição, estabilidade e escorregamento e ajustando-o de forma contínua e gradual, mesmo na ausência temporária de tempo confiáveis, para que tanha melhor exatidão possível;
*Garantir a monotcidade do tempo;
*Identificar, a partir de métodos criptográficos, servidores de tempo conhecidos e confiáveis, evitando possíveis ataques;
*Formar em conjunto outros servidores NTP, uma topologia simples, confiável, robusta e escalável para a sincronização de tempo.

Funcionamento do NTP

*Os servidores NTP formam uma topologia herárquica, divdida em camadas ou estratos de 0 a 16. O estrato 0 na verdade não faz parte da rede de servidores NTP, mas representa a refrência primária de tempo, que é geralmente um receptor do Sistema de Posicionamento Global (GPS) ou um relógio atômico. O estrato 16 significa que um determinado servidor está inoperante;
*O estrato 0, ou relógiod e referência, fornece i rempo correto para o estrato 1, que por sua vez fornece o tempo para o estrato 2 e assim por diante. O NTP é então simultaneamente, servidor (fornece o tempo) e cliente (consulta o tempo), formando uma topologia em árvvore.

Arquitetura



Associações Possíveis

*As relações entre os diferentes dispositivos NTP são normalmente chamadas de Associações. Elas podem ser:
-Permanentes: são criadas por uma configuração ou comando e mantidas sempre;
-Priorizáveis: são específicas da versão 4 do NTP e criadas por uma configuração ou comando, podem ser desfeitas no caso de haver um servidor melhor, ou depois de um certo tempo;
-Efêmeras ou transitórias: são criadas por solicitação de outro dispositivo NTP e podem ser desfeitas em caso de erro ou depois de um certo tempo.

*Cliente - Servidor: É uma associação permanente e a forma mais comum de configuração. Um dispositivo faz o papel de cliente, solicitando informações sobre o tempo a um servidor. O cliente tem conhecimento das associações com os servidores e do estado da troca de pacotes. Outro dispositivo faz o papel de servidor, respondendo à solicitação do cliente com informações sobre o tempo. O servidor não armazena informações sobre o diálogo com o cliente ou sobre sua associação com o mesmo;
*Modo simétrico: Dois ou mais dispositivos NTP podem ser configurados como pares (peers), de forma que possam tanto buscar o tempo, quanto fornecê-lo, garantindo redundância mútua. Essa configuração faz sentido para dispositivos no mesmo estrato, configurados também como clientes de um ou mais servidores. Caso um dos pares perca a referência de seus servidores, os demais pares podem funcionar como referência de tempo. O modo simétrico pode ser:
______-Ativo: O dispositivo A configura o dispositivo B como seu par (criando dessa forma uma associação permanente). Por sua vez, o dispositivo B também configura o dispositivo A como seu par (também cria uma associação permanente);
______-Passivo: O dispositivo A configura o dispositivo B como seu par (modo simétrico ativo). Mas o dispositivo B não tem o dispositivo A na sua lista de servidores ou pares. Ainda assim, ao receber um pacote de A, o dispositivo B cria uma associação transitória, de forma a poder fornecer ou receber o tempo de A.
*Broadcast ou Multicast: O NTP pode fazer uso de pacotes do tipo broadcast ou multicast para enviar ou receber informações de tempo. Esse tipo de configuração pode ser vantajosa no caso de redes locais com poucos servidores alimentando uma grande quantidade de clientes.

Conceito de DHCP

O DHCP, Dynamic Host Configuration Protocol, é um protocolo de serviço TCP/IP que oferece configuração dinâmica de terminais, com concessão de endereços IP de host e outros parâmetros de configuração para clientes de rede. Este protocolo é o sucessor do BOOTP que, embora mais simples, tornou-se limitado para as exigências atuais. O DHCP surgiu como padrão em Outubro de 1993. O RFC 2131 contém as especificações mais atuais (Março de 1997). O último standard para a especificação do DHCP sobre IPv6 (DHCPv6) foi publicado a Julho de 2003 como RFC 3315.
O DHCP foi criado para facilitar a configuração e administração do protocolo TCP/IP em uma rede com um grande número de computadores (imagine ter que configurar uma rede com centenas e até mesmo milhares de estações de trabalho, configurar o TCP/IP em cada estação se tornaria uma tarefa extremamente trabalhosa), com a instalação de um servidor DHCP é possível fazer com que computadores e dispositivos de uma rede obtenham automaticamente configurações TCP/IP.

Resumidamente, o DHCP opera da seguinte forma:

* Um cliente envia um pacote UDP em broadcast (destinado a todas as máquinas) com um pedido DHCP
* Os servidores DHCP que capturarem este pacote irão responder (se o cliente se enquadrar numa série de critérios — ver abaixo) com um pacote com configurações onde constará, pelo menos, um endereço IP, uma máscara de rede e outros dados opcionais, como o gateway, servidores de DNS, etc.

O DHCP usa um modelo cliente-servidor, no qual o servidor DHCP mantém o gerenciamento centralizado dos endereços IP usados na rede.

Principais parâmetros que devem ser configurados para que o protocolo TCP/IP funcione em um computador:

*Número IP;
*Máscara de sub-rede;
*Gateway Padrão;
*Número IP de um ou mais servidores DNS.

TCP/IP












O conjunto de protocolos TCP/IP foi desenvolvido como parte da pesquisa feita pela Defense Advanced Research Projects Agency (DARPA). Ele foi originalmente desenvolvido para fornecer comunicação através da DARPA. Posteriormente, o TCP/IP foi incluído com o Berkeley Software Distribution da UNIX. Agora, o TCP/IP é de fato o padrão das comunicações de internetworks e serve como protocolo de transporte para a Internet, permitindo a comunicação de milhões de computadores no mundo todo.
Este currículo se concentra no TCP/IP por vários motivos:
O TCP/IP é um protocolo disponível no mundo todo que você irá provavelmente usar no trabalho.
O TCP/IP é uma referência útil na compreensão de outros protocolos porque inclui elementos que são representativos de outros protocolos.
O TCP/IP é importante porque o roteador o usa como uma ferramenta de configuração.
A função da pilha, ou conjunto, TCP/IP é transferir informações de um dispositivo em rede para outro. Ao fazer isso, ela mapeia cuidadosamente o modelo de referência OSI nas camadas inferiores e suporta todos os protocolos padrão físicos e de enlace de dados. -
As camadas mais afetadas pelo conjunto TCP/IP são a camada 7 (aplicação), a camada 4 (transporte) e a camada 3 (rede). Outros tipos de protocolos, com várias finalidades/funções, todas relativas à transferência de informações, estão incluídos nessas camadas.
O TCP/IP permite a comunicação entre qualquer conjunto de redes interconectadas e é bem adequado tanto para a comunicação LAN como para a comunicação WAN. O TCP/IP inclui não apenas as especificações das camadas 3 e 4 (como o IP e o TCP), como também inclui as especificações de aplicativos comuns como o correio eletrônico, o logon remoto, a emulação de terminal e a transferência de arquivos.



























Extraído do Curso Cisco Ccna

Definição de NAT

Com o surgimento das redes privadas com internet partilhada, surgiu o problema de como os computadores pertencentes à esta rede privada poderiam receber as respostas aos seus pedidos feitos para fora da rede.
Por se tratar de uma rede privada, os números de IP interno da rede (como 10.0.0.0/8, 172.16.0.0/16 e 192.168.1.0/24) nunca poderiam ser passados para a Internet pois não tem roteador nelas e o computador que recebesse um pedido com um desses números não saberia para onde enviar a resposta. Sendo assim, os pedidos teriam de ser gerados com um IP global do router. Mas quando a resposta chegasse ao router, seria preciso saber a qual dos computadores presentes na LAN pertencia aquela resposta.
A solução encontrada foi fazer um mapeamento baseado no IP interno e na porta local do computador. Com esses dois dados o NAT gera um número de 16 bits usando a tabela hash, este número é então escrito no campo da porta de origem.
O pacote enviado para fora leva o IP global do router e na porta de origem o número gerado pelo NAT. Desta forma o computador que receber o pedido sabe para onde tem de enviar a resposta. Quando o router recebe a resposta faz a operação inversa, procurando na sua tabela uma entrada que corresponda aos bits do campo da porta. Ao encontrar a entrada, é feita o direcionamento para o computador correto dentro da rede privada.
Um computador atrás de um router gateway NAT tem um endereço IP dentro de uma gama especial, própria para redes internas. Como tal, ao aceder ao exterior, o gateway seria capaz de encaminhar os seus pacotes para o destino, embora a resposta nunca chegasse, uma vez que os routers entre a comunicação não saberiam reencaminhar a resposta (imagine-se que um desses routers estava incluído em outra rede privada que usava o mesmo espaço de endereçamento). Duas situações poderiam ocorrer: ou o pacote seria indefinidamente reencaminhado, ou seria encaminhado para uma rede errada e descartado.

Resumindo
NAT é um protocolo que, como o próprio nome diz (network address translation), faz a tradução dos endereços Ip e portas TCP da rede local para a Internet. Ou seja, o pacote enviado ou a ser recebido de sua estação de trabalho na sua rede local, vai até o servidor onde é trocado pelo ip do mesmo substitui o ip da rede local validando assim o envio do pacote na internet, no retorno do pacote a mesma coisa, o pacote chega e o ip do servidor é trocado pelo Ip da estação que fez a requisição do pacote.
NAT tem a função de trocar um ip falso (IP da rede local) para um IP verdadeiro (IP da internet).