UTILIZE A PESQUISA!

Roteamento Estático e Roteamento Dinâmico

A configuração de roteamento de uma rede específica nem sempre necessita de protocolos de roteamento. Existem situações onde as informações de roteamento não sofrem alterações, por exemplo, quando só existe uma rota possível, o administrador do sistema normalmente monta uma tabela de roteamento estática manualmente. Algumas redes não têm acesso a qualquer outra rede e, portanto não necessitam de tabela de roteamento. Dessa forma, as configurações de roteamento mais comuns são:

Roteamento estático: uma rede com um número limitado de roteadores para outras redes pode ser configurada com roteamento estático. Uma tabela de roteamento estático é construída manualmente pelo administrador do sistema, e pode ou não ser divulgada para outros dispositivos de roteamento na rede. Tabelas estáticas não se ajustam automaticamente a alterações na rede, portanto devem ser utilizadas somente onde as rotas não sofrem alterações. Algumas vantagens do roteamento estático são a segurança obtida pela não divulgação de rotas que devem permanecer escondidas; e a redução do overhead introduzido pela troca de mensagens de roteamento na rede.

Roteamento dinâmico: redes com mais de uma rota possível para o mesmo ponto devem utilizar roteamento dinâmico. Uma tabela de roteamento dinâmico é construída a partir de informações trocadas entre protocolos de roteamento. Os protocolos são desenvolvidos para distribuir informações que ajustam rotas dinamicamente para refletir alterações nas condições da rede. Protocolos de roteamento podem resolver situações complexas de roteamento mais rápida e eficientemente que o administrador do sistema. Protocolos de roteamento são desenvolvidos para trocar para uma rota alternativa quando a rota primária se torna inoperável e para decidir qual é a rota preferida para um destino. Em redes onde existem várias alternativas de rotas para um destino devem ser utilizados protocolos de roteamento.


O que é um Nó

Estamos utilizando esse termo a um bom tempo e ainda não fiz um artigo explicando qual é o seu significado. Para quem ainda não sabe, abaixo tem uma breve explicação.

Um em redes de computadores é um conjunto de dois ou mais dispositivos que usam um conjunto de regras (protocolo) em comum para compartilhar recursos (hardware, dados e troca de mensagens) entre si, através de uma rede.

Broadcast

Broadcast costuma ser traduzido como "radio difusão", apesar de atualmente este termo ter ganho novos significados. Um sinal de broadcast é irradiado para uma grande área geográfica, um bom exemplo são os sinais de TV. Numa rede de computadores, um sinal de broadcast é um aviso enviado simultâneamente para todos os micros da rede. Existem vários exemplos de sinais de broadcast, como por exemplo os avisos de colisões de pacotes enviados pelas placas ou (numa rede onde é usado um servidor DHCP e as estações são configuradas para obter o endereços IP automaticamente) os sinais enviados pelas estações quando se conectam à rede para entrar em contato com o servidor DHCP. Todas as estações recebem este sinal, mas apenas o servidor DHCP responde.

Empilhamento

O recurso de conectar hubs usando a porta Up Link, ou usando cabos cross-over, é
utilizável apenas em redes pequenas, pois qualquer sinal transmitido por um micro da
rede será retransmitido para todos os outros. Quanto mais Computadores tivermos na
rede, maior será o tráfego e mais lenta a rede será e apesar de existirem limites para
conexão entre hubs e repetidores, não há qualquer limite para o número de portas que
um hub pode ter. Assim, para resolver esses problemas os fabricantes desenvolveram
o hub empilhável.
Esse hub possui uma porta especial em sua parte traseira, que permite a conexão
entre dois ou mais hubs. Essa conexão especial faz com que os hubs sejam
considerados pela rede um só hub e não hubs separados, eliminando estes problemas.
O empilhamento só funciona com hubs da mesma marca.
A interligação através de porta especifica com o cabo de empilhamento (stack) tem
velocidade de transmissão maior que a velocidade das portas.

Cascateamento

Existe a possibilidade de conectar dois ou mais hubs entre si. Quase todos os hubs
possuem uma porta chamada “Up Link” que se destina justamente a esta conexão.
Basta ligar as portas Up Link de ambos os hubs, usando um cabo de rede normal para
que os hubs passem a se enxergar.
Sendo que existem alguns hubs mais baratos não possuem a porta “Up Link”, mais
com um cabo cross-over pode-se conectar dois hubs. A única diferença neste caso é
que ao invés de usar as portas Up Link, usará duas portas comuns.
Note que caso você esteja interligando hubs passivos, a distância total entre dois
micros da rede, incluindo o trecho entre os hubs, não poderá ser maior que 100
metros, o que é bem pouco no caso de uma rede grande. Neste caso, seria mais
recomendável usar hubs ativos, que amplificam o sinal.

ICMP

O protocolo de mensagem de controle de Internet (ICMP) é um protocolo de internet da camada de rede, que fornece pacotes de mensagens para retornar à origem erros e outras informações relativas ao processamento de pacotes IP. O ICMP està documentado na RFC 792.

Mensagens de ICMP

OS ICMP's geram vários tipos de mensagens úteis, inclusive impossibilidade de alcançar o destino, solicitação e resposta de eco, redirecionamento, tempo esgotado, e aviso e solicitação ao roteador. Se uma mensagem ICMP não puder ser entregue, uma segunda não será gerada, para evitar o fluxo sem fim de mensagens ICMP.

Quando um roteador envia uma mensagem ICMP referenta à impossibilidade de alcançar o destino, isso significa que o roteador não é capaz de enviar o pacote ao seu destino final. O roteador então descarta o pacote original. Existem duas razões para que um destino não possa ser alcançado. Na maioria das vezes, o host de origem especificou um endereço inexistente. Com menos frequência, o roteador não tem uma rota para o destino.

As mensagem de impossibilidade de alcançar o destino incluem quatro tipos básicos: rede fora de alcance, host fora de alcance, protocolo fora de alcance e porta fora de alcance. As mensagens de rede de alcance costuman significar que uma falha ocorreu no roteamento ou no endereçamento do pacote. As mensagens de host fora de alcance normalmente indicam uma falha de entrega, como uma máscara de sub-rede errada. As mensagens de protocolo fora de alcance geralmente significam que o destino não suporta o protocolo da camada superior, especificado no pacote. As mensagens de porta fora de alcance implicam que a porta ou socket TCP não está disponível.

Uma mensagem ICMP de solicitação de eco, gerada pelo comando ping, é enviada por qualquer host para testar a possibilidade de alcançar um nó em uma internetwork. A mensaagem ICMP de resposta de eco indica que o nó poderá ser alcançado com sucesso.

Uma mensagem de redirecionamento é enviada pelo roteador ao host de origem para estimular um roteamento mais eficiente. O roteador ainda encaminha o pacote original ao destino. O redirecionamento ICMP permite que as tabelas de roteamento do host, continuem pequenas, por ser necessário conhecer o endereço de apenas um roteador, inclusive quando esse roteador não oferece o melhor caminho. Após receber uma mensagem ICMP de redirecionamento, alguns dispositivos até poderão continuar utilizando uma rota menos eficiente.

Uma mensagem ICMP de tempo esgotado é enviado pelo roteador, se campo Tempo de vida impede que os pacotes circulem pela internet-work continuamente, caso a internetwork contenha um roteamento em loop. O roteador então descarta o pacote original.

Conteúdo extraído das página 334 e 335 do livro INTERNET WORKING TECHONOLOGIES HANDBOOK - TRADUÇÃO DA SEGUNDA EDIÇÃO.

Backbone

O backbone designa o esquema de ligações centrais de um sistema mais amplo, tipicamente de elevado desempenho.

Por exemplo, os operadores de telecomunicações mantêm sistemas internos de elevadíssimo desempenho para comutar os diferentes tipos e fluxos de dados (voz, imagem, texto, etc). Na Internet, numa rede de escala planetária, podem-se encontrar, hierarquicamente divididos, vários backbones: os de ligação intercontinental, que derivam nos backbones internacionais, que por sua vez derivam nos backbones nacionais. Neste nível encontram-se, tipicamente, várias empresas que exploram o acesso à telecomunicação — são, portanto, consideradas a periferia do backbone nacional.

Em termos de composição, o backbone deve ser concebido com protocolos e interfaces apropriados ao débito que se pretende manter. Na periferia, desdobra-se o conceito de ponto de acesso, um por cada utilizador do sistema. É cada um dos pontos de acesso (vulgarmente referidos como POP's) que irão impor a velocidade total do backbone. Por exemplo, se um operador deseja fornecer 10 linhas de 1 Mbit com garantia de qualidade de serviço, o backbone terá que ser, obrigatoriamente, superior a 10 Mbit (fora uma margem especial de tolerância).
Backbone da Rede Nacional de Pesquisa (RNP) no Brasil - Figura exibindo o backbone não comercial utilizado pelas Universidades e Centros de Pesquisa brasileiros.

Protocolo POP3


O protocolo de agência de correio versão 3 (POP3) é um protocolo padrão para recuperação de email. O protocolo POP3 controla a conexão entre um cliente de email POP3 e um servidor onde o email fica armazenado. O serviço POP3 usa o protocolo POP3 para recuperar emails de um servidor de email para um cliente de email POP3.

O protocolo POP3 tem três estados de processos para tratar a conexão entre o servidor de email e o cliente de email POP3: o estado de autenticação, o estado de transação e o estado de atualização.

Durante o estado de autenticação, o cliente de email POP3 que estiver conectado ao servidor deve ser autenticado antes que os usuários possam recuperar seus emails. Se o nome de usuário e senha que são fornecidos pelo cliente de email corresponder àqueles no servidor, o usuário será autenticado e continuará com o estado de transação. Caso contrário, o usuário receberá uma mensagem de erro e não terá permissão para conectar para recuperar os emails.

Para evitar qualquer dano ao armazenamento de email depois que o cliente é autenticado, o serviço POP3 bloqueia a caixa de correio do usuário. Os novos emails entregues na caixa de correio depois que o usuário foi autenticado (e que a caixa de correio foi bloqueada) não estarão disponíveis para download até que a conexão tenha sido encerrada. Além disso, somente um cliente pode conectar-se a uma caixa de correio de cada vez; as solicitações de conexão adicionais são rejeitadas.

Durante o estado de transação, o cliente envia comandos POP3 e o servidor recebe e responde a eles de acordo com o protocolo POP3. Qualquer solicitação do cliente recebida pelo servidor que não esteja de conformidade com o protocolo POP3, é ignorada e uma mensagem de erro é enviada de volta.

O estado de atualização encerra a conexão entre o cliente e o servidor. É o último comando transmitido pelo cliente.

Após o encerramento da conexão, o armazenamento de email é atualizado para refletir as alterações feitas enquanto o usuário estava conectado ao servidor de email. Por exemplo, depois que o usuário recupera seus emails com êxito, os emails recuperados são marcados para exclusão e são excluídos do armazenamento de email, a menos que o cliente de email do usuário esteja configurado para fazer o contrário.

SPX/IPX

Os protocolos de transporte IPX/SPX (“Internetwork Packet Exchange ”) são uma variante dos protocolos XNS (“Xerox Network Systems”). O protocolo IPX é idêntico ao protocolo Internetwork Datagram Packet da Xerox (IDP) e oferece um serviço de datagrama. O protocolo SPX é idêntico ao Sequenced Packet Protocol (SPP), também da Xerox, e oferece um serviço de fluxo de dados confiável.

A principal diferença entre o IPX e o XNS está no uso de diferentes formatos de encapsulamento Ethernet. A segunda diferença está no uso pelo IPX do “Service Advertisement Protocol”(SAP), protocolo proprietário da Novell.

Um frame IPX pode transportar até 546 bytes de dados, e cada frame SPX pode transportar até 534 bytes de dados.

O endereço IPX completo é composto de 12 bytes:
*ID da rede de destino (4 bytes).
*ID do nó (6 bytes);
*ID do soquete (2 bytes).

O ID da rede é definido em zero se o destino estiver na mesma LAN que o emissor. O ID do nó é o mesmo número de seis bytes usado pelos protocolos IEEE MAC para endereçar as placas adaptadoras de rede. O endereço FFFFFFFFFFFF16 indica um broadcast.

As aplicações comunicam-se usando a interface do soquete IPX ou SPX. A implementação também oferece um serviço de determinação do nome , chamado bindery. Os servidores se registram no bindery e os clientes localizam os nomes dos servidores e seus endereços lá.

O protocolo SPX garante uma transmissão confiável a qualquer nó da rede através da troca de mensagem e da utilização de um cálculo de checksum. Caso ocorra um número razoável de transmissões falhadas, o SPX assume que a conexão foi interrompida e avisa ao operador.

Baby Web Server (Servidor ASP)

Baby Web Server é um programa de extrema utilidade para os usuários Windows que desejem dispor de um servidor onde possam testar suas páginas realizadas em ASP de maneira local ou até mesmo montar um servidor web caseiro.
Se necessitarmos programar páginas ativas do servidor em ASP (Active Server Pages), necessitaremos instalar um programa em nosso computador que permita processar os programas realizados em ASP e compor a página que se enviará ao usuário.

Neste caso temos o Baby ASP Web Server, um servidor web muito simples, que suporta páginas programadas com ASP. Segue o link para a página do desenvolvedor na qual o programa pode ser baixado: http://www.pablosoftwaresolutions.com/html/baby_web_server.html

O natural para executar páginas web em ASP é utilizar o servidor IIS (Internet Information Server) de Microsoft, a empresa encarregada da tecnologia ASP. Mas o problema é que IIS não pode ser instalado em XP Home e outros sistemas opartivos mais antigos. Para esses sistemas existia um servidor, também muito simples, de Microsoft, que se chamaba Personal Web Server, mas este produto deixou de ser mantido por Microsoft e é de difícil acesso.

Por ser um programa muito simples, há muito pouco o que comentar de Baby ASP Web Server. Pode ser baixado e utilizado de forma gratuita. Uma vez descomprimido o zip de download, é um simples programa executável, que teremos que colocar para funcionar como qualquer outro programa, para ativar o servidor. No momento que o servidor esteja ativo, poderemos acessar às páginas de nosso computador pelo endereço: http://localhost/

As poucas coisas que podem ser configuradas neste servidor são:
•Porta de escuta ou acesso (porta de acesso, 80 é a porta padrão);
•Diretório raiz onde estão as páginas do servidor (é onde o servidor irá buscar os arquivos que serão utilizados);
•Página padrão, que é o nome do documento padrão (o arquivo padrão se não esta especificado nenhum arquivo index dentro do diretório).


Conclusão

Baby ASP Web Server é uma grande ajuda. Uma opção muito interessante e simples para fazer do nosso computador como um servidor web compatível com ASP. Excelente porque em XP Home não se pode, à princípio, instalar o IIS, o servidor web de Microsoft para trabalhar com páginas ASP.

Protocolo IPv6

Introdução

Este artigo tem como objetivo explicar o que é IPv6 e sua importância para o futuro da internet. O IPv6 é uma evolução do protocolo IP.

O que é IPv6

IPv6 é a sigla para Internet Protocol version 6. Também conhecido como Ipng (Internet Protocol Next Generation), trata-se da evolução do IPv4, a versão em uso atualmente. O IPv6 é fruto da necessidade de mudanças na internet. O IPv4 permite que até 4.294.967.296 de endereços IP estejam em uso. O grande problema é que o número de sites e o número de usuários da internet cresce constantemente, no mundo todo. Como é impossível usar um mesmo IP simultaneamente na internet, é necessário que cada usuário, cada site ou cada serviço tenha um endereço IP exclusivo. Com o crescimento da necessidade de uso do IP, a internet chegará a um ponto onde não vai sobrar mais IPs. Todos estarão em uso.

O IPv6 é uma solução para este problema e também é provido de novos recursos, tais como o suporte a novas tecnologias de rede (ATM, Gigabit Ethernet, entre outros). Mas como o IPv6 consegue solucionar o problema da limitação de IPs atual? O IPv4 (relembrando, o IP que usamos hoje) é uma combinação de 32 bits. O IPv6 é uma implementação de 128 bits, o que eleva extraordinariamente o número de endereços IP disponíveis.

Os endereços do IPv6

Como já é de se supor, as mudanças no sistema de endereçamento é uma das inovações mais importantes do IPv6. Como já dito, este passa a ser de 128 bits (contra os 32 bits do IPv4). Teoricamente, o número de endereços pode chegar a 340.282.366.920.938.463.463.374.607.431.768.211.456, um valor absurdamente alto.

Graças a isso, determinados equipamentos poderão ter mais de um IP. Assim, será possível fazer com que certos serviços sejam executados simultaneamente numa mesma máquina e para cada um haverá uma conexão exclusiva.

Para o uso de mais de um IP em um mesmo dispositivo, foram criados os seguintes esquemas:

Unicast: neste esquema, um determinado dispositivo pode ter mais de um endereço. Para tanto, tais endereços são divididos em grupos;

Multicast: neste esquema, uma único dispositivo consegue identificar várias interfaces na rede, permitindo o envio individual de pacotes;

Anycast: este tipo é uma variação do multicast, onde o endereço IP pode estar atribuído a mais de uma interface, ao invés de uma individual.

O endereço IP da versão 6 é composto por grupos de 16 bits em formato hexadecimal e separados por 2 pontos (:). Assim, o IP do InfoWester pode ser, por exemplo, fe80:0000:0000:0000:2601:97ff:fefe:9ced. Mas é importante salientar que é possível usar endereços compactados, ou seja, na prática, menores.

O cabeçalho do IPv6

O endereço IP possui um cabeçalho com várias informações essenciais para a troca de informações entre sistemas e computadores. No IPv6, o cabeçalho sofre alterações. A principais é seu tamanho, que passa a ser de 320 bits, o dobro do IPv4. Além disso, alguns campos do cabeçalho foram retirados, enquanto outros tornaram-se opcionais.

De maneira geral, o cabeçalho ficou mais simples e essa mudança não serve somente para adaptar-se aos novos padrões do IPv6, mas também para permitir que os roteadores não tenham que processar determinadas informações do cabeçalho. Como conseqüência, a transmissão se torna mais eficiente.

Finalizando

O IPv6 é uma padrão que promete resolver vários problemas da internet, inclusive alguns relacionados a segurança que não foram citados neste artigo. Ainda em teste, esse novo tipo de IP deve começar a ser usado em alta escala dentro de alguns anos. Enquanto isso não ocorre, testes e aperfeiçoamentos são realizados.

Obviamente, adaptações nos sistemas operacionais atuais serão necessários, portanto, o IPv6 não substituirá o IPv4 de uma hora para outra. Cogitá-se até mesmo que o IPv4 não seja descartado após uma implementação significante do IPv6.

Para alguns, o IPv6 trará complexidades até então não existentes aos administradores de rede, mas deve-se observar que este protocolo terá algumas auto-configurações e outros meios que facilitarão a montagem de uma rede.

Por fim, se você se perguntou porque IPv6 ao invés de IPv5, saiba que este último esteve em testes, mas não foi considerado apropriado para a internet. Para mais informações e/ou explicações mais técnicas, visite: www.ipv6.org.

Vídeo Aula do Modelo OSI

Navegando pelo Youtube encontrei esse vídeo explicativo muito bom sobre o modelo OSI.

Precisamos da sua colaboração

Precisamos da sua colaboração para manter o Ponto de Redes online.
Para saber como colaborar CLIQUE AQUI!
Muito obrigado!

Apache

O servidor Apache (ou Servidor HTTP Apache, em inglês: Apache HTTP Server, ou simplesmente: Apache) é o mais bem sucedido servidor web livre. Foi criado em 1995 por Rob McCool, então funcionário do NCSA (National Center for Supercomputing Applications).
O Apache possui suporte a diversos recursos, alguns nativos, outros dependendo de componentes extras, como Perl e PHP.

É a principal tecnologia da Apache Software Foundation, responsável por mais de uma dezena de projetos envolvendo tecnologias de transmissão via web, processamento de dados e execução de aplicativos distribuídos.

Tutorial para versão Apache for Windows 2.2.14:
Clique no link para baixar o Apache: http://ftp.unicamp.br/pub/apache/httpd/binaries/win32/apache_2.2.14-win32-x86-no_ssl.msi.
Depois de ter baixado o Apache de dois cliques duplo no arquivo. O instalador será iniciado, clique sempre em NEXT, aceite as licenças de uso. Na parte da configuração faça assim: Network Domain=>coloque: localdomain Na parte Server Name=>coloque: localhost Na parte Administrator=>coloque o end. do seu email Depois selecione a primeira opção que é: (X)Run as a service for All Users -- Recommended e clica em NEXT na outra tela clique na instalação completa Typical e depois clica em todoas as telas em NEXT, vai instalado até aparecer a tela informando para apertar na tecla Finnish clique nela e pronto o Apache já está instalado. Irá aparecer um icone perto do reloginho do sistema indicando que o Apache está ativo. Clique nele com o botão direito do mouse, selecione Open Apache Monitor, abrirá o monitor do apache indicando que ele está ativo, se não estiver clique em START. Se por algum motivo der algum erro, reinicie o seu PC, pois são conflitos de arquivos temporários que dão erro nele. Inicie o PC novamente e pronto tudo OK!
Agora abra o seu navegador qualquer que você tiver no computador e digite na barra de endereço o seguinte: http://localhost/ Certamente aparecerá uma página, isto indica que ele está rodando no sistema.

Instalando e configurando o PHP para funcionar no Apache:
Agora faça o download do PHP neste endereço http://windows.php.net/downloads/releases/php-5.3.1-nts-Win32-VC9-x86.zip. Instale ele e pronto agora você pode rodar as suas páginas PHP no servidor do Apache. Agora vá no Diretório aonde o apache está instalado (por padrão é este: C:\Arquivos de programas\Apache Software Foundation\Apache2.2). Veja que ali tem uma pasta de nome: htdocs é nesta pasta que você deverá fazer os seus testes de PHP e outros, pois é ela que representa simbolicamente o http://localhost/ Ali é seu servidor tipo da internet. significa: hots documents. Experimente colocar lá uma pagina html de nome index e depois digite no seu navegador: http://localhost/ ai você verá a página. Lembre-se para visualizar páginas PHP no Apache instale o PHP no link informado acima.

DECnet

A DECnet é um grupo de produtos de comunicação de dados, incluindo um conjunto de protocolos, desenvolvido e suportado pela Digital Equipment Corporation (Digital). A primeira versão da DECnet, lançada em 1975, permitiu a comunicação entre 2 minicomputadores PDP-11 conectados diratamente. Em anos mais recentes, a Digital incluiu suporte para protocolos não-proprietários, mas a DECnet continua sendo o produto de rede mais importante oferecido pela Digital.
Várias versões foram lançadas. A primeira versão permitiu a comunicação entre dois minicomputadores conectados diretamente.
Os lançamentos subsequentes ampliaram a funcionalidade da DECnet, acrescentando suporte para protocolos adicionais, proprietários e padrão, ao mesmo tempo que permanecia compatível com as versões imediatamente precedentes. Isso significa que os protocolos apresentam compatibilidade retroativa.


Conteúdo extraído da página 297 do livro INTERNET WORKING TECHONOLOGIES HANDBOOK - TRADUÇÃO DA SEGUNDA EDIÇÃO.

WireShark

A ferramenta de gerência de rede WireShark não é nada mais que uma ferramenta para o administrador da rede monitorar e controlar os dados transmitidos entre qualquer protocolo de transmissão.

Com está ferramenta é possível que o administrador possa ter o controle geral sobre todo o tráfego da rede. Também comentamos as plataformas que tem o suporte para o bom funcionamento da ferramenta, falamos um pouco do desenvolvedor e suas características e como proceder na instalação desta ferramenta de gerência de rede.

Sua licença está registrada pela GNU - General Public License (GPL), usa-se linhas de comandos apenas para instalar e para abrir a ferramenta, todo o uso é por interface gráfica e utiliza PCAP para capturar pacotes, de forma que ele só pode capturar pacotes em redes apoiadas por PCAP.

O WireShark, conhecido como tubarão dos fios, serve para monitorar os pacotes de informações que trafegam através de sua rede, um analisador de protocolos para redes de computadores e, no momento, é considerado um dos mais utilizados para Linux no momento, desenvolvido pela Ethereal.

Está é uma ferramenta totalmente livre (Free), ou seja, você pode baixá-la e não precisa se preocupar com limitações ou prazo de validade, apenas instalar e sair usando.

Software registrado pela GNU General Public License (GPL), o Wireshark, antigo Ethereal, as funcionalidades desta ferramenta são parecidas com o TCPDUMP, mas com uma interface GUI, possui mais informações e com possibilidade de aplicar filtros.

O administrador da rede, ou o responsável pela rede pode ter o controle de tudo o que entra e sai da rede, em diferentes protocolos.

Uma boa opção para quem tem uma grande rede para administrar, porque cuidar de uma rede pequena não é tão complicado, mas quando falamos sobre uma grande empresa, a visão já é diferente.

WireShark utiliza PCAP para capturar pacotes, de forma que ele só pode capturar pacotes em redes apoiadas por PCAP.

As plataformas que o WireShark suporta são:
*UNIX;
*Linux;
*Solaris;
*FreeBSD;
*NetBSD;
*OpenBSD;
*MAC OS X;
*Windows.



Tutorial: Utilização do WireShark.

Protocolo HDLC

O HDLC (High-level data link control) é uma especificação do nível 2 do modelo OSI com grande utilização e que inclui diversas variantes, utiliza a transmissão síncrona de tramas, orientada por bit.

Existem três tipos de nós:

Primários: controlam a ligação e emitem comandos sob a forma de tramas
Secundários: estão sob o controlo do nó primário, emitindo as respostas aos comandos solicitados. Quando existe mais do que um nó secundário, o nó primário mantém uma ligação lógica independente para cada um.
Combinados: controla a ligação, mas também emite respostas.
Se numa linha multiponto ou ponto a ponto existe um nó primário e um ou mais secundários, a ligação é não balanceada. Se numa ligação ponto a ponto existem dois nós combinados a ligação é balanceada.

Numa ligação balanceada qualquer dos nós combinados pode iniciar uma transmissão, este modo de transmissão é designado por ABM (“Asynchronous balanced mode”).

Numa ligação não balanceada o modo normal de funcionamento é NRM (“Normal Response Mode”), os nós secundários só podem transmitir quando solicitados pelo nó primário.

Existe ainda um terceiro modo, raramente usado, que permite que numa ligação não balanceada os nós secundários tomem a iniciativa de transmitir, trata-se do ARM (“Asynchronous response mode”).

Protocolo ATM

O protocolo ATM foi concebido através de uma estrutura em camadas, porém sem a pretensão de atender ao modelo OSI. A figura abaixo apresenta sua estrutura e compara com o modelo OSI.

No modelo ATM todas as camadas possuem funcionalidades de controle e de usuário (serviços), conforme apresentado na figura. A descrição de cada camada e apresentada a seguir:

*Física: provê os meios para transmitir as células ATM. A sub-camada TC (Transmission Convergence) mapeia as células ATM no formato dos frames da rede de transmissão (SDH, SONET, PDH, etc.). A sub-camada PM (Physical Medium) temporiza os bits do frame de acordo com o relógio de transmissão.

*ATM: é responsável pela construção, processamento e transmissão das células, e pelo processamento das conexões virtuais. Esta camada também processa os diferentes tipos e classes de serviços e controla o tráfego da rede. Nos equipamentos de rede esta camada trata todo o tráfego de entrada e saída, minimizando o processamento e aumentando a eficiência do protocolo sem necessitar de outras camadas superiores.

*AAL: é responsável pelo fornecimento de serviços para a camada de aplicação superior. A sub-camada CS (Convergence Sublayer) converte e prepara a informação de usuário para o ATM, de acordo com o tipo de serviço, além de controlar as conexões virtuais. A sub-camada SAR (Segmentation and Reassembly) fragmenta a informação para ser encapsulada na célula ATM. A camada AAL implementa ainda os respectivos mecanismos de controle, sinalização e qualidade de serviço.


A tecnologia ATM utiliza a multiplexação e comutação de pacotes para prover um serviço de transferência de dados orientado a conexão, em modo assíncrono, para atender as necessidades de diversos tipos de aplicações de dados, voz, áudio e vídeo.

Diferentemente dos protocolos X.25 e Frame Relay, entre outros, o ATM utiliza um pacote de tamanho fixo denominado célula (cell). Uma célula possui 53 bytes, sendo 48 para a informação útil e 5 para o cabeçalho.

Cada célula ATM enviada para a rede contém uma informação de endereçamento que estabelece uma conexão virtual entre origem e destino. Este procedimento permite ao protocolo implementar as características de multiplexação estatística e de compartilhamento de portas.

Na tecnologia ATM as conexões de rede são de 2 tipos: UNI (User-Network Interface), que é a conexão entre equipamentos de acesso ou de usuário e equipamentos de rede, e NNI (Network Node Interface), que é a conexão entre equipamentos de rede.

No primeiro caso, informações de tipo de serviço são relevantes para a forma como estes serão tratados pela rede, e referem-se a conexões entre usuários finais. No segundo caso, o controle de tráfego é função única e exclusiva das conexões virtuais configuradas entre os equipamentos de rede.

Preparação do cabo coaxial

Embora o cabo coaxial possa ser soldado ao seu respectivo conector BNC, esse método não é o mais apropriado.
Os conectores BNC a serem utilizados com o cabo coaxial funcionam na base da pressão("crimp"), economizando um tempo enorme na confecção de cada cabo. Para preparar um cabo coaxial, você necessitará de duas ferramentas:

Descascador de cabo coaxial:



Alicate para crimp:

Certificação CCNA


Embora este seja apenas o primeiro passo na certificação da carreira Cisco, o CCNA (Cisco Certified Network Associate) é um exame difícil, se comparado a outras certificações como Microsoft. A recente inclusão de perguntas práticas tornou-o ainda mais desafiador. Sua primeira tentativa em se tornar certificado pela Cisco exige muito estudo e muita confiança naquilo que você já conhece sobre redes. Quando estiver pronto para testar as suas habilidades, pôr em prática o que conhece sobre os tópicos avaliados e se preparar para o dia do exame.
Os candidatos têm a opção de ganhar a certificação através de duas provas (ICND1 640-822 e ICND2 640-816), ou uma única prova (CCNA 640-802); a opção com duas provas tem a vantagem de permitir ao candidato focar em assuntos específicos.
Atualmente a certificação é válida por 3 anos, sendo necessário renová-la após este período, seguindo um processo semelhante ao da obtenção da primeira certificação.
  • prestar novamente a prova do CCNA ou ICND2, ou
  • prestar e ser aprovado em um dos exames de certificação de nível Professional (exemplo CCNP) ou Specialist (exceto as provas com especialização em vendas), ou ser aprovado no exame da certificação Expert CCIE.

Estes exames são conduzidos por centros autorizados, e atualmente custam US$125.00 para cada prova ICND1 e ICND2, ou US$ 250.00 para a prova única do CCNA completo.

O Conteúdo da prova CCNA
  • As funções de rede desempenhadas por cada camada do modelo de referência OSI e como elas são realizadas em dispositivos de rede
  • A funcionalidade do Cisco IOS® e dos protocolos de rede TCP/IP
  • A segmentação das redes usando router, switch e bridge
  • O uso e a configuração dos switches Catalyst ®, do STP (Spanning-Tree Protocol) e das VLANs e seus protocolos como VTP (VLAN Trunk Protocol)
  • Os conceitos que envolvem o RIP, OSPF, o IGRP, e o EIGRP.
  • A configuração, a monitorização e a verificação das listas de acess e IP padrão e estendidas
  • Os conceitos e as configurações ISDN, ADSL e Frame Relay

Aqui vai um bom link de estudo para quem pretende passar na certificação CCNA: http://www.bentow.com.br/ccna-meu-estud

ADSL: o que é e como funciona

ADSL é a sigla para Assymmetric Digital Subscriber Line ou "Linha Digital Assimétrica para Assinante". Trata-se de uma tecnologia que permite a transferência digital de dados em alta velocidade por meio de linhas telefônicas comuns. A cada dia, a tecnologia ADSL ganha novos usuários, tanto é que este é o tipo de conexão à internet em banda larga mais usado no Brasil e um dos mais conhecidos no mundo.

Modem ADSL


Funcionamento da tecnologia ADSL

A tecnologia ADSL basicamente divide a linha telefônica em três canais virtuais, sendo um para voz, um para download (de velocidade alta) e um para upload (com velocidade média se comparado ao canal de download). Teoricamente, as velocidades de download podem ir de 256 Kbps até 6.1 Mbps. No caso do upload essas taxas variam de 16 Kbps até 640 Kbps, mas tudo depente da infra-estrutura do fornecedor do serviço, o que indica que essas taxas podem ter valores diferentes dos mencionados. É por causa dessas características que o ADSL ganhou o termo "assymmetric" (assimétrica) no nome, pois indica que a tecnologia possui maior velocidade para download e menor velocidade para upload.
Repare que entre os três canais há um disponível para voz. Isso permite que o usuário fale ao telefone e ao mesmo tempo navegue na internet, ou seja, não é necessário desconectar para falar ao telefone. Para separar voz de dados na linha telefônica, é instalado na linha do usuário um pequeno aparelho chamado Splitter. Nele é conectado um cabo que sai do aparelho telefônico e outro que sai do modem.
Na central telefônica também há uma espécie de Splitter. Assim, quando você realiza uma chamada telefônica (voz), o sinal é encaminhado para a rede de comutação de circuitos da companhia telefônica (PSTN - Public Switched Telephone Network) e procede pelo seu caminho habitual. Quando você utiliza a internet, o sinal é encaminhado ao DSLAN, que é explicado logo abaixo.
Quando uma linha telefônica é usada somente para voz, as chamadas utilizam freqüências baixas, geralmente entre 300 Hz e 4000 Hz. Na linha telefônica é possível usar taxas mais altas, mas elas acabam sendo desperdiçadas. Explicando de maneira simples, o que o ADSL faz é aproveitar para a transmissão de dados as freqüências que não são usadas. Como é possível usar mais de uma freqüência ao mesmo tempo na linha telefônica, é então possível usar o telefone para voz e dados ao mesmo tempo. A ilustração abaixo exemplifica este esquema:


A tecnologia ADSL funciona instalando-se um modem específico para esse tipo de conexão na residência ou empresa do usuário e fazendo-o se conectar a um equipamento na central telefônica. Neste caso, a linha telefônica serve como "estrada" para a comunicação entre esses dois pontos. Essa comunicação ocorre em freqüências acima de 5000 Hz, não interferindo na comunicação de voz (que funciona entre 300 Hz e 4000 Hz). Como a linha telefônica é usada unicamente como um meio de comunicação entre o modem do usuário e a central telefônica, não é necessário pagar pulsos telefônicos, pois a conexão ocorre por intermédio do modem e não discando para um número específico, como é feito com o acesso à internet via conexão discada. Isso deixa claro que todo o funcionamento do ADSL não se refere à linha telefônica, pois esta é apenas um "caminho", mas sim ao modem. Quando seu modem estabelece uma conexão com o modem da central telefônica, o sinal vai para um roteador, em seguida para o provedor e finalmente para a internet. É importante frisar que é possível que este sinal saia diretamente do roteador para a internet. No Brasil, o uso de provedor é obrigatório por regras da Anatel (Agência Nacional de Telecomunicações). No entanto, essa questão não será discutida aqui.

O sinal citado acima, depois de enviado à central telefônica, é separado e os dados vão para um equipamento DSLAN (Digital Subscriber Line Access Multiplexer), que limita a velocidade do usuário e uni varias linhas ADSL (é este equipamento que faz com você navegue à 256 Kbps mesmo quando sua conexão suporta 2 Mbps) enviando o sinal para uma linha ATM (Asynchronous Transfer Mode) de alta velocidade que está conectada à internet.

Em outras palavras, a central telefônica suporta uma certa quantidade de usuários ao mesmo tempo. Cabe ao DSLAN gerenciar todas essas conexões, "agrupá-las" e enviar esse grupo de conexões à linha ATM, como se fosse uma única conexão.

Praticamente todas as empresas que fornecem ADSL só o fazem se o local do usuário não estiver a mais de 5 Km da central telefônica. Quanto mais longe estiver, menos velocidade o usuário pode ter e a conexão pode sofrer instabilidades ocasionais. Isso se deve ao ruído (interferência) que ocorre entre um ponto e outro. Quanto maior essa distância, maior é a taxa de ruído. Para que haja uma conexão aceitável é utilizado o limite de 5 Km. Acima disso pode ser possível, mas inviável o uso de ADSL.


Protocolo PPPoE

Diante das informações acima, você deve se perguntar porque em muitos casos é necessário usar um programa para se conectar à internet, se o ADSL permite uma conexão permanente usando unicamente o modem.

O ADSL por si só é um meio físico de conexão, que trabalha com os sinais elétricos que serão enviados e recebidos. Funcionando dessa forma, é necessário um protocolo para encapsular os dados de seu computador até a central telefônica. O protocolo mais utilizado para essa finalidade é o PPPoE (Point-to-Point over Ethernet RFC 2516).

O protocolo PPPoE trabalha com a tecnologia Ethernet, que é usada para ligar sua placa de rede ao modem, permitindo a autenticação para a conexão e aquisição de um endereço IP à máquina do usuário. É por isso que cada vez mais as empresas que oferecem ADSL usam programas ou o navegador de internet do usuário para que este se autentique. Autenticando, é mais fácil identificar o usuário conectado e controlar suas ações.

Você pode estar se perguntando: por que os primeiros serviços de ADSL do país davam IP fixo ao usuário, sem necessidade de usar o PPPoE, ou seja, porque o PPPoE não foi usado antes? Naquela época, o protocolo PPPoE era novo (foi homologado em 1999) e, conseqüentemente, pouco conhecido. Com isso, o usuário usava ADSL através de uma conexão direta do modem à central telefônica, sem necessidade de autenticar. Mas quando as empresas começaram a descobrir as vantagens do PPPoE passaram a implantá-lo. Isso permite à companhia ter mais controle sobre as ações do usuário

Protocolo PPPoA

PPP (point-to-point protocol) é um protocolo desenvolvido para permitir acesso autenticado e transmissão de pacotes de diversos protocolos, originalmente em conexões de ponto a ponto (como uma conexão serial).
PPPoA (point-to-point protocol over AAL5 - ou over ATM) é uma adaptação do PPP para funcionar em redes ATM.

MACA e MACAW

Um protocolo antigo criado para LANs sem fios é o MACA (Multiple Access with Collision Avoidance — acesso múltiplo com abstenção de colisão) (Karn, 1990). A idéia básica consiste em fazer com que o transmissor estimule o receptor a liberar um quadro curto como saída, para que as estações vizinhas possam detectar essa transmissão e evitar transmitir enquanto o quadro de dados (grande) estiver sendo recebido.
Vamos analisar agora como A envia um quadro para B. A inicia a transmissão enviando um quadro RTS (Request to Send) para B, como mostra a Figura (a). Esse quadro curto (30 bytes) contém o comprimento do quadro de dados que eventualmente será enviado em seguida. Depois disso, B responde com um quadro CTS (Clear to Send), como mostra a Figura (b). O quadro CTS
contém o tamanho dos dados (copiado do quadro RTS). Após o recebimento do quadro CTS, A inicia a transmissão. Agora vamos ver como reagem as estações que não conseguem ouvir esses quadros. Qualquer estação que esteja ouvindo o quadro RTS está próxima a A e deve permanecer inativa por tempo suficien te para que o CTS seja transmitido de volta para A, sem conflito. Qualquer estação que esteja ouvindo o CTS está próxima a B e deve permanecer inativa durante a transmissão de dados que está a caminho, cujo tamanho pode ser verifi cado pelo exame do quadro CTS.
Na figura abaixo, o protocolo MACA. (a) A está enviando um quadro RTS para B. (b) B está respondendo com um quadro CTS para A:

Na Figura acima, C está dentro do alcance de A, mas não no alcance de B. Portanto, essa estação
pode detectar a RTS de A, mas não a CTS de B. Desde que não interfira com a CTS, a estação é
livre para transmitir enquanto o quadro de dados está sendo enviado. Em contraste, D está dentro do alcance de B, mas não de A. Ela não detecta a RTS, mas sim a CTS. Ao detectar a CTS, ela recebe a indicação de que está perto de uma estação que está prestes a receber um quadro e,
portanto, adia a transmissão até o mome nto em que a transmissão desse quadro deve ter sido
concluída. A estação E detecta as duas mensagens de controle e, como D, deve permanecer inativa até que a tr ansmissão do quadro de dados seja concluída.
Apesar dessas precauções, ainda pode haver colisões. Por exemplo, B e C poderiam enviar quadros RTS para A ao mesmo tempo. Haverá uma colisão entre esses quadros e eles se perderão. No caso de uma colisão, um transmissor que não obtiver êxito (ou seja, o que não detectar uma CTS no intervalo de tempo esperado) aguardará durante um interval o aleatório e tentará novamente mais tarde. O algoritmo utilizado é o recuo binário exponencial, que estudaremos quando começarmos a analisar o padrão Ethernet.
Com base em estudos de simulação do MACA, Bharghavan et al. (1994) otimizaram o MACA para melhorar seu desempenho e deram ao novo protocolo o nome MACAW (MACA for Wireless). Logo no início, eles observaram que sem as confirmações da camada de enlace de dados, os quadros perdidos não eram retransmitidos até que a camada de tr ansporte percebesse sua ausência, bem mais tarde. Eles resolveram esse problema introduzindo um quadro ACK após cada quadro de dados bem-sucedido. Os pesquisadores também observaram que o CSMA tinha alguma utilidade — principalmente para impedir uma estação de transmitir uma RTS ao mesmo tempo que outra estação vizinha também estiver transmitindo para o mesmo destino. Portanto, a detecção de portadora passou a ser utilizada. Além disso, eles decidiram utilizar o algoritmo de recuo individualmente para cada fluxo de dados (par origem-destino), e não para cada estação. Essa mudança melhorou a precisão do protocolo. Por fim, foi incluído um mecanismo para que as estações trocassem informações sobre congestionamento, e também uma forma de fazer o algoritmo de recuo reagir de modo menos violento a problemas temporários, o que melhorou o desempenho do sistema.


Conteúdo extraído e adaptado da página 215 do livro Redes de computadores
Quarta edição do autor Andrew S. Tanenbaum.

Bridge de Rota de Origem (SRB)

FUNDAMENTAÇÃO

Oalgoritmo de brindge de rota de origem (SRB) foi desenvolvido pela IBM e proposto ao comitê IEE 802.5 como um meio de estabelecer bridges entre todas as LANs. Desde sua proposição inicial, a IBM ofereceu um novo padrão de bridge ao comitê IEE 802: asolução de bridge transparente de rota de origem (SRT). A bridge SRT elimina completamente as SRBs puras, propondo que os dois tipos de bridges de LAN sejam as bridges transparentese as bridges SRT. Embora a bridge SRT tenha obtido suporte, as SRTBs ainda são bastante implementadas.

ALGORITMO SRB

As bridges SRB são assim chamadas por considerarem que a rota completa, da origem até o destino. está incluído em todos os frames enviados pela origem e que trafegam entra as LANs. As bridges SRBs armazenam e encaminham os frames de acordo como que é indicado pela rota especificada no campo apropriado do frame.

Conteúdo extraído da página 260 do livro INTERNET WORKING TECHNOLOGIES HANDBOOK - TRADUÇÃO DA SEGUNDA EDIÇÃO.

AppleTalk

FUNDAMENTAÇÃO

O AppleTalk, um pacote de protocolos desenvolvidos pela Apple Computer no começo dos anos 80, foi desenvolvido juntamente com o computador Macintosh. O propósito do AppleTalk era permitir que vários usuários compartilhassem recursos, como arquivos e impressoras. Os dispositivos que fornecem esses recursos são chamados de servidores, enquanto os dispositivos que utilizam esses recursos (como um usuário de computador Macintosh) são chamados clientes. Por esse motivo, o AppleTalk é uma das primeira implementações de um sistema distribuído cliente-servidor.
O AppleTalk foi projetado com ua interface de rede transparente. Isso significa que a interação entre os computadores e os servidores de rede requer uma pequena interação da parte do usuário. Além disso, as efetivas operações dos protocolos AppleTalk são invisíveis para os usuários finais, que vêem somente o resultado dessas oprações. Existem duas operações de AppleTalk: AppleTalk Fase 1 e AppleTalk Fase 2.
O AppleTalk Fase 1, que é a primeira especificação do AppleTalk, foi desenvolvida no começo dos anos 80, restritamente para o uso em grupos de trabalhos locais. Assim, a Fase 1 apresenta duas limitações principais: seus segmentos de rede que não podem conter mais do que 127 hosts e 127 servidores e podem suportar somente redes não-estendidas.
O AppleTalk Fase 2, a segunda implementação Apple Talk otimizada, foi projetada para utilização em internetworks maiores. A Fase 2 soluciona as principais limitações do AppleTalk Fase 1 e contém vários aperfeiçoamentos em relação à Fase 1. Em particular, a Fase 2 permite qualquer combinação de 253 hosts ou servidores em um mesmo segmento de rede
AppleTalk e suporta redes não-estendidas e estentidas.


Redes não-estendidas

A rede Apple não-estendida é um segmento da rede física, ao qual é atribuído apenas o número de uma única rede, variando de 1 e 1.024. A rede 100 e a rede 562, por exemplo, são dois números de rede válidos em uma rede não-estendida. Cada número de nó em uma rede não-estendida precisa ser único e um mesmo segmento de rede não pode ter mais de uma Zona AppleTalk Fase nele configurada. (A zona é um grupo lógico de nós ou redes) A AppleTalk Fase 1 suporta apenas as redes não-estendidas, mas, como uma regra, as configurações de redes não-estendidas não são mais utilizadas em novas redes, sendo substituídas pelas redes estendidas.

Redes estendidas

A rede AppleTalk estendida é um segmento de rede física, ao qual podem ser atribuído vários números de rede. Essa configuração é conhecida como faixa de cabo. As faixas de cabo AppleTalk podem indicar o número de uma única rede ou vários números de redes consecutivos. A Rede 3-3 (unária) e a Rede 3-6 das faixas de cabo, por exemplo, são válidos em uma rede estendida precisa ser única e seu endereço também precisa ser único, para propósitos de identificação. As redes estendidas podem ter várias zonas AppleTalk configuradas em um mesmo segmento de rede e os nós das redes estendidas podem pertencer a qualquer zona única associada à rede estendida. As configurações de redes estendidas têm, como uma regra, substituir as configurações de redes não-estendidas.

Conteúdo extraído das página 273, 274, 275, 276 e 277 do livro INTERNET WORKING TECHONOLOGIES HANDBOOK - TRADUÇÃO DA SEGUNDA EDIÇÃO.

RSVP

ReSource reserVation Protocol ( Protocolo de Reserva de Recursos) é um protocolo especialmente desenvolvido para serviços integrados de Internet, pois permite que as próprias aplicações requeiram da rede reservas de recursos necessários para seus diversos serviços. As novas funções que foram implementadas neste protocolo tem dado a este uma flexibilidade e escalabilidade única comparado a protocolos convencionais de reserva de recursos. Este protocolo é utilizado por um host, em benefício do fluxo de dados de uma aplicação, para requerer uma Internet deverá ser modificada para poder suportar uma Qualidade de Serviço (Quality of Service) específica da rede. O protocolo RSVP é também utilizado por routers (roteadores) para entregar requisições de controle da QoS para todos os nós ao longo do(s) caminho(s) por onde os dados irão fluir, além de manter o estado da conexão para o serviço que foi requisitado. As requisições RSVP geralmente irão resultar, embora não necessáriamente, em reservas de recursos em cada nó ao longo da conexão.

------------------------------
Princípios de Qos
Vamos da um breve resumo de Qos para quem ainda não conhece:
Os protocolos de QoS têm a tarefa de fornecer córregos de dados diferentes com as prioridades e de garantir qualidades tais como a largura de faixa e atrasam épocas. Há atualmente duas arquiteturas principais: Serviços integrados (IntServ) e serviços diferenciados (DiffServ). Ambas as políticas do tráfego do uso das arquiteturas e podem ser combinadas para permitir QoS no LAN como na WAN.
------------------------------


ARQUITETURA


RSVP é um protocolo desenvolvido para permitir que as aplicações requisitem diferentes QoS para seus fluxos de dados. Para isso, dois pré-requisitos devem ser observados:
Elementos de redes, tais como roteadores, devem adequar-se aos mecanismos de controle de qualidade de serviço para garantir a entrega dos pacotes de dados;
A aplicação deve estar capacitada a fornecer os parâmetros ideais de QoS.
O RSVP não é um protocolo de roteamento, trabalhando em conjunto com este. É usado por uma aplicação para requisitar uma qualidade de serviço específica da rede. O protocolo atua tanto em máquinas do usuário quanto em roteadores, responsabilizando-se, nesse caso, a estabelecer e manter as condições para o serviço requisitado. O diagrama esquemático pode ser visto na figura
RSVP em Máquinas do Usuário e Roteadores.

O RSVP negocia a reserva de recursos em um único sentido de cada vez, ou seja, de forma simplex.. Com isso, ele trata distintamente receptores e transmissores, operando juntamente com a camada de transporte.
O RSVP não realiza transporte de dados, sendo apenas um protocolo de controle e atuando no mesmo nível de outros protocolos como o ICMP (Internet Control Message Protocol), o IGMP (Internet Group Management Protocol) ou protocolos de roteamento, conforme mostrado no desenho esquemático da figura 2. O gerenciamento ocorre no início da comunicação, sendo reiniciado de tempos em tempos. Caberá ao receptor a responsabilidade em requisitar uma QoS específica. O protocolo RSVP foi feito de forma a garantir que as arquiteturas mais antigas sejam compatíveis com o novo sistema, através do encapsulamento de seus pacotes de controle.


Camada de Atuação do Protocolo RSVP

DEFINIÇÃO DE CONCEITOS BÁSICOS

*Sessão
O protocolo RSVP define como sessão todo enlace de comunicação pelo qual se relacionam as camadas de transporte de todos os participantes da comunicação, podendo ser ponto-a-ponto ou multicast. Cada sessão é tratada independentemente. O conceito de sessão é propositalmente genérico, pois uma sessão pode ser estabelecida baseando-se em valores de QoS diferentes daqueles requisitados pelo receptor inicialmente. Tal fato deve-se à liberdade que o gerenciador possui em unir recursos ao longo do caminho de dados da aplicação, sempre tendo o melhor aproveitamento dos recursos como objetivo. Ao efetuar essa política, os valores de QoS requisitados poderão sofrer alterações, desde que essas não acarretem perda de qualidade para uma comunicação já estabelecida.

*Soft-state
O protocolo RSVP é baseado na noção de soft-state. Este termo foi inicialmente proposto por [5], definindo o ``estado'' que um determinado elemento, pertencente ao percurso de dados de um determinado par fonte-destino, se encontra quando uma reserva está estabelecida. O início do soft-state ocorre quando uma mensagem de reserva é recebida e realizada no elemento; este estado é periodicamente realimentado pelos receptores. Ao invés de entregar à rede a responsabilidade em detectar e responder a falhas, o RSVP delega aos receptores o trabalho de reenviar periodicamente suas requisições de serviços. Caso uma falha ocorra, somente uma nova requisição do serviço restabelecerá o soft-state nos roteadores.

ARP (Address Resolution Protocol)

Address Resolution Protocol ou ARP é um protocolo usado para encontrar um endereço da camada de enlace (Ethernet, por exemplo) a partir do endereço da camada de rede (como um endereço ip).
Embora na Internet cada máquina tenha um (ou mais) endereços IP, na verdade, eles não podem ser usados para transmitir pacotes, pois o hardware da camada de enlace de dados não reconhece endereços da Internet. Hoje em dia, muitos hosts de empresas e universidades estão associados a uma LAN por uma placa de interface que só reconhece endereços de LANs. Por exemplo, cada placa Ethernet fabricada é equipada com um endereço Ethernet de 48 bits. Os fabricantes de placas Ethernet solicitam um bloco de endereços de uma autoridade central para assegurar que duas placas não tenham o mesmo endereço (evitando conflitos, caso as duas estejam na mesma LAN).
As placas enviam e recebem quadros com base em endereços Ethernet de 48 bits. Elas nada
sabem sobre endereços IP de 32 bits.
Agora, surge a seguinte pergunta: De que forma os endereços IP são mapeados nos endereços da camada de enlace de dados, como é o caso dos endereços Ethernet? Para explicar como esse processo funciona, usaremos uma ilustração de uma pequena universidade com diversas redes clase C (agora chamada /24).

Três redes /24 interconectadas: duas redes Ethernet e um anel FDDI

Aqui, temos duas redes Ethernet, uma no departamento de ciência da computação com o endereço IP 192.31.65.0, e outra no departamento de engenharia elétrica co m o endereço IP 192.31.63.0. As duas estão conectadas por um anel de backbone do campus (por exemplo, FDDI) cujo endereço IP é 192.31.60.0. Cada máquina de uma rede Ethernet tem um endereço Ethernet exclusivo, identificado pelos rótulos E1 a E6, e cada máquina do anel FDDI tem um endereço FDDI, identificado pelos rótulos de F1 a F3.
Começaremos examinando como um usuário no host 1 envia um pacote para um usuário no host 2.
Vamos supor que o tr ansmissor conheça o nome do receptor pretendido, talvez algo como
mary@eagle.cs.uni.edu. A primeira etapa é encontrar o endereço IP do host 2, conhecido como
eagle.cs.uni.edu. Essa pesquisa é realizada pelo DNS (Domain Name System), que estudaremos no Capítulo 7. No momento, supomos apenas que o DNS retorna o endereço IP correspondente ao host 2 (192.31.65.5).
Em seguida, o software da camada superior do host 1 constrói um pacote com 192.31.65.5 no
campo Destination address e o fornece ao software IP para transmissão. O software IP pode
examinar o endereço e constatar que o destino está em sua própria rede, mas ele precisa encontrar de alguma forma o endereço Ethernet da máquina de destino. Uma solução é ter um arquivo de configuração em algum lugar no sistema que faça o mapeamento de endereços IP em endereços Ethernet. Embora essa solução sem dúvida seja possível, no caso de organizações com milhares de máquinas, manter todos esses arquivos atualizados é uma tarefa demorada e propensa a erros.

Arquitetura CFX

Neste artigo iremos estudar a arquitetura CXF.
A arquitetura CXF é construída sobre os seguintes componentes:
*Bus;
*Interface;
*Mensageiros e interceptores;
*Modelo de Serviço;
*Ligações de dados;
*Vinculações do protocolo;
*Transportes.
A figura abaixo mostra a arquitetura geral:


Bus
Bus é a espinha dorsal da arquitetura CXF. O Bus CXF é composto de uma mola baseada arquivo de configuração, ou seja, cxf.xml que é carregado na inicialização do servlet através SpringBusFactory. Ele define um quadro comum para todos os endpoints. Ele liga todos os componentes da infra-estrutura de execução e fornece um contexto de aplicação comum. Ele carrega os arquivos de configuração relevante no diretório META-INF/cxf colocados no classpath e, portanto, constrói o contexto de aplicação.

CFX
CXF fornece o conceito de modelagem de interface, que permite criar serviços de web usando APIs frontend diferente, também permite que você crie clientes de serviços Web dinâmicOs. A interface primária CXF é suportado por JAX-WS.

JAX-WS
JAX-WS é uma especificação que define a semântica para desenvolver, publicar e consumir serviços da web. JAX-WS simplifica o desenvolvimento de serviços web. Ele é baseado em Java APIs, que facilitam o desenvolvimento e implantação de serviços web. A especificação oferece suporte ao WS-Basic Profile 1.1, que aborda a interoperabilidade de serviços web.

Interface Simples
Além da interface JAX-WS, CXF também suporta o que é conhecido como simple fronted ("interface simples"). A interface simples, fornece componentes simples ou classes Java que usa reflexão para a construção e publicação de web services. É simples, porque não utilizar qualquer anotação para criar serviços web. Em JAX-WS, temos que anotar uma classe Java para denotar-lo como um serviço web e usar ferramentas para converter entre um objeto Java e WSDL. A interface simples usa fábrica de componentes para criar um serviço eo cliente.

Mensageiros e Interceptores
Um dos elementos importantes da arquitectura CXF são os componentes Interceptores. Interceptores são componentes que interceptam as mensagens trocadas entre clientes ou serviço da Web e componentes de servidor. Em CXF, isso é implementado através do conceito de cadeias interceptoras. O conceito de encadeamento Interceptor é a funcionalidade do núcleo de runtime CXF.

Modelo de Serviço
O modelo de serviço, num verdadeiro sentido, os modelos de serviços. É um quadro de componentes que representa um serviço em um WSDL como modelo. Ele fornece a funcionalidade para criar vários elementos WSDL, como operações, fixações, pontos de extremidade do esquema, e assim por diante.

Ligação de Dados
A ligação de dados é a chave para qualquer serviço de desenvolvimento web. Mapeamento de dados através de ligação entre os objetos Java e os elementos XML. Como sabemos, com um serviço Web, mensagens são trocadas como artefatos XML. Então tem que haver alguma maneira de converter esses XML em objetos Java e vice-versa para o pedido de processo como o de serviço e cliente. CXF suporta dois tipos de ligação de coponentes de dados: JAXB e Aegis.

Ligação de Protocolos
Ligações vinculam as mensagens do serviço web com o protocolo formato específico. As mensagens, na terminologia de serviços web, nada mais são que uma operação com parâmetros de entrada e saída. A mensagem definida na componente de serviços web é chamado de uma mensagem lógica. A mensagem de lógica usada por um componente de serviço é mapeado ou vinculado a um formato de dados físicos utilizados pelos terminais no mundo físico. Estabelece regras sobre a forma como as mensagens lógica será mapeado para uma carga de reais enviados através do fio ou da rede.

Transportes
Transportes definem o protocolo de roteamento de alto nível para transmitir as mensagens sobre o fio. Protocolos de transporte são associados com os desfechos. Um ponto pode se comunicar com outro através de um protocolo de transporte específico. Informações relativas ao transporte são nada além de detalhes de rede. Parâmetros de serviço são uma representação física de uma interface de serviço. Os terminais são compostos de ligação e de detalhes de rede.

Conhecendo os Sockets

Os sockets (soquetes em português) são a maneira de se comunicar com outros programas usando os descritores de arquivo padrão do Unix. No ambiente Unix, ao se comunicar com um dispositivo ou um arquivo, você recebe uma resposta se tudo deu certo ou não. Esta resposta é o que se chama de descritor de arquivo.

O Unix foi o primeiro Sistema Operacional a usar em grande escala este tipo de tecnologia. E no Unix, para tudo se usa um descritor de arquivo (file descriptor, o famoso fd que precede muitas funções da linguagem C). No Unix, a utilização de redes já tem uma longa estrada atrás. Isto facilita muito as coisas para os programadores, pois não é necessário estar em um ambiente gráfico para se programar os soquetes. Você instala numa máquina um Linux Red Hat (ou a versão brasileira da Conectiva), e começa a programar com relativa facilidade. Estou falando dos que programam em C, que é praticamente a linguagem nativa do Unix.

Voltando aos sockets, eles existem em diversos tipos. No entanto, na internet, eles são de dois tipos: Stream Sockets e Datagram Sockets (Soquetes de Fluxo e os Soquetes de Datagramas). São referenciados como SOCK_STREAM e SOCK_DGRAM respectivamente. Qual a diferença entre estes?
Os Soquetes de Fluxo (SOCK_STREAM) enviam os dados e os controlam para que cheguem exatamente como foram enviados. Por exemplo, se enviar os dados A, B, C e D, eles chegarão ao seu destino exatamente como foram enviados e nesta mesma ordem: A, B, C e D. O Protocolo de Transporte de Controle (Transport Control Protocol, em inglês) utiliza estes soquetes.
Se estes mesmos 4 pacotes de dados forem enviados pelos Datagram Sockets, talvez apenas 3 cheguem ao seu destino. Quanto à ordem de sua chegada, pode ser A, D e C ou outra ordem qualquer. Eles são enviados, mas sem controle. O User datagram Protocol (Protocolo de Datagrama de Usuário) utiliza estes sockets.

Dimensionando Racks

Os racks são estruturas muito utilizadas para o acondicionamento de equipamentos de redes de computadores, como hubs, roteadores, patch panels, etc. São portanto, ideais para a fixação de equipamentos e acessórios que necessitam ser acondicionados e organizados adequadamente. Além disso, a configuração física de um rack facilita a fixação de cabos e acessórios que geralmente são difíceis de serem organizados e que também devem atender às necessidades do projeto quanto às medidas e partições, bem como às formas de fixação.

Os racks geralmente são gabinetes com largura padrão de 19 polegadas (482,6mm). Normalmente não são fornecidos com uma estrutura de acomodação e montagem próprias. Este fato é devido à não padronização das instalações do ponto de vista do acondicionamento visto que cada empresa tem sua estrutura física e suas próprias necessidades. Sendo assim, normalmente são utilizadas soluções de fornecedores de racks para os diversos tipos de equipamentos de rede (roteadores, modems, multiplexadores, controladoras, equipamentos de telefonia, etc).

Podemos considerar dois tipos básicos de rack:
¹Rack Aberto: consisteem uma estrutura retangular fixada no piso, indicada para ambientes protegidos, livres de pó e com acesso restrito;
²Rack fechado: possui porta com visor de vidro ou acrílico, que em função disto apresenta uma maior segurança e integridade para os equipamentos tendo inclusive a possibilidade de controle de circulação de ar interno, podendo ser fixado na parede ou no piso.

Para o correto dimensionamento de um rack, o primeiro passo é relacionar os equipamentos que serão instalados com seus respectivos Us de altura, lembrando que a unidade padrão é o U (1U = 44,45mm). Economizar espaço no rack nesse momento pode significar o comprometimento do projeto que se está executando, gerando dificuldades e desconforto para o funcionamento da instalação futuramente.
Devem ser avaliadas as necessidades de visualização, operação e manutenção de cada equipamento, lembrando que alguns equipamentos requerem espaços dentro e fora do rack. Deve-se determinar também o número de patch panels a serem instalados, sendo conveniente também dimensionar um organizador de cabos para cada patch panel previsto.
Outro detalhe importante que não pode ser esquecido é, além de dimensionar os espaços para possíveis expansões e novos painéis de alimentação e serviço, providenciar a identificação dos pontos de rede.
A ventilação no interior do rack é muito importante. Recomenda-se, sempre que possível, o mínimo de 1U livre entre cada equipamento para garantir uma boa ventilação e troca de calor dos equipamentos ativos instalados no rack. Anotados esses detalhes, totalizar as dimensões de todos os itens em U’s para obter-se a altura mínima necessária para o rack. O recomendável é planejar a utilização de, no máximo, 70% da área útil do rack, permitindo assim uma margem de segurança para o projeto.
Já a profundidade do rack é definida em mm. Deve-se verificar qual dos equipamentos é o mais profundo e avaliar as necessidades de operação e manutenção. Recomenda-se deixar espaço para o cabeamento do equipamento e alimentação elétrica, bem como previsão para futuras expansões. Devem-se somar todos os valores, sendo que o ideal é procurar a dimensão padronizada igual ou imediatamente superior ao resultado obtido.
Para o cálculo da largura do rack não tem muito mistério. A maioria dos equipamentos são padronizados na largura útil de 19". Outras larguras são fabricadas sob encomenda.

Identificando problemas em uma Rede Doméstica

Neste artigo consideramos que a rede do usuário já esteja pronta, configurada e funcionando quando começou a ter problemas (este artigo não explica a parte de instalação/configuração inicial da rede local).

Problemas de Hardware

Meus micros não enxergam um ao outro na rede: isso pode ser um problema de hardware?
Para descobrir se o problema é de hardware siga os procedimentos abaixo:

* Rede Doméstica simples apenas entre 2 micros usando cabo cross-over:
Com ambos os micros ligados, verifique se o cabo está bem conectado em ambos os micros e se os leds das placas de rede dos dois micros estão acesos.

Se ambas as placas de rede estiverem com os leds apagados mesmo com os conectores bem encaixados em cada placa provavelmente o problema seja do cabo. Neste caso para tirar a dúvida basta trocar o cabo por um outro novo (se você não sabe como fazer um cabo, basta ir a uma loja de informática pois a maioria das lojas tem cabos de rede local ou monta-o no local, sendo que o preço de ambos é baseado na metragem do cabo).

Se após a troca do cabo por um novo, uma das placas de rede ainda estiver com o led apagado, encaixe melhor o conector. Se o led não acender pode ser que a placa esteja com problemas ou possa ter queimado.

* Rede doméstica entre 3 ou mais micros ligados em rede através de um Hub :
Siga os mesmos procedimentos acima - com a diferença de que agora você deve ver se o led da placa de rede do micro está aceso e se a porta no qual o cabo está ligado no Hub está aceso. Usando um Hub fica mais fácil de concluir se o problema é na placa de rede do micro (pois se todas as outras portas em uso do Hub estiverem acesas e apenas a do micro com problema apagada, o problema pode ser da placa de rede).

Também é mais fácil de verificar problemas no cabo: basta trocá-lo pelo cabo de outro micro que esteja entrando na rede: se funcionar, isso significa que o cabo original estava com problema e precisa ser substituído.

Se nenhum micro entra na rede, isso pode significar um problema do hub. Mini-Hubs de 5 a 8 portas podem apresentar problemas de vez em quando por ficar muito tempo ligado (usualmente os da marca Encore): desligue o hub e os micros e volte a ligar tudo depois de certo tempo para ver se eles funcionam. Se após desligar o Hub e ligá-lo por várias vezes o problema persistir, o Hub pode ter realmente estragado.


Problemas de Software

Se você instalou algum programa relacionado a rede ou Internet, este programa pode ter modificado a configuração de rede do micro ficando incompatível com a configuração do outro micro. Se você não instalou nada relacionado a isto, talvez seu micro tenha sido infectado por algum vírus que modificou as configurações - ou alguém que utiliza os micros pode ter feito estas modificações por engano.

Para verificar se alguma das possibilidades acima ocorreu, verifique se ambos os micros estão com configurações compatíveis e corrija o problema, siga os passos seguintes (realize o procedimento em todos os micros com problemas ):

1. Entre nas propriedades de rede. Você pode fazer isto de duas maneiras: clicando com o botão direito no ícone Ambiente de rede no desktop do Windows e depois clicar em propriedades ou através do painel de controle clicando no ícone rede ( menu iniciar-> Painel de controle-> rede ). A janela de Rede irá se abrir como mostrado abaixo:






2. Primeiramente verifique se o logon primário da rede está configurado para "Cliente para redes Microsoft": se não estiver coloque-o como primeira opção. Também verifique se o compartilhamento de arquivos e impressoras está ativo. Feito isto siga para a próxima etapa: clique duas vezes no ícone Cliente para redes Microsoft na janela de configuração. A seguinte janela se abrirá:





3. Confira se ambos os micros estão configurados da forma acima. Volte para a janela de configuração, clique duas vezes no componente TCP/IP da sua placa de rede e a seguinte janela de configuração surgirá:





4. Verifique se ambos os micros estão usando IP fixo como na imagem acima e se estão usando a mesma classe de endereços IP: um micro não pode estar configurado com um endereço IP 192.168.0.1 e o outro com um endereço 10.0.0.6 pois ambos não se enxergarão pois a classe IP de cada um é diferente.

Também verifique se a máscara de sub-rede está igual e de acordo com a classe: classe A 255.0.0.0 para IP que começa com 10.x.x.x, classe B 255.255.0.0 para IP que começa com 128.1.x.x, classe C 255.255.255.0 para IP que começa com 192.1.1.x.

Se um micro estiver configurado com IP fixo como na imagem acima e outro com IP automático como na imagem abaixo, a rede também não funcionará pois geralmente o Windows designa o IP 169.1.x.x para IP automático ficando com 2 padrões diferentes. Portanto, ou ambas as máquinas devem estar com IP automático ou com IP fixo da mesma faixa (192.168.0.1 em uma máquina, 192.168.0.2 na outra por exemplo).




5. Cumprida esta etapa, volte para janela principal e depois clique na aba Identificação e a seguinte janela aparecerá:





Verifique se ambos os micros estão usando o mesmo nome no grupo de trabalho. Se estiver diferente altere para que ambos usem o mesmo nome no grupo de trabalho e clique em OK. Ao voltar à janela principal clique em OK para sair da janela Rede.

Se você percebeu que alguma das configurações citadas acima estava diferente de um micro pro outro e as modificou para ficarem iguais vai aparecer uma janela dizendo que é necessário reiniciar o micro para efetuar as alterações, reinicie o micro e tudo deverá funcionar perfeitamente.

O(s) cabo(s) e placas de rede estão funcionando as configurações estão iguais em todos os micros e mesmo assim não consigo acessar a rede nem enxergar os micros no ambiente de rede. O que pode estar acontecendo?

Este é um problema comum e relativamente simples: ao iniciar o Windows, quando aparece a tela de logon (que deve estar configurada para Cliente para redes Microsoft), alguns usuários simplesmente a ignoram e pressionam a tecla ESC. Isto não deve ser feito pois o Windows não entrará na rede: você poderá até conseguir pingar a outra máquina pelo prompt do DOS mas não conseguirá acessá-la e vice-versa.

Será necessário digitar a senha mesmo que esta seja em branco pois basta pressionar a tecla enter no logon ou clicar em OK. Fazendo isto tudo correrá bem.

Fiz todos os procedimentos acima e mesmo assim os micros não aparecem no ambiente de rede. O que devo fazer ?
A pressa é inimiga da perfeição: na maioria das vezes o Windows demora para mostrar os computadores no Ambiente de Rede e isto é normal: dois minutos após o micro ser ligado os micros começam a aparecer no ambiente de rede e você já pode acessar os outros micros mesmo que estes não estejam aparecendo no Ambiente de Rede (para isto basta clicar no menu Iniciar > Localizar > Computadores e digitar o nome do computador que você quer acessar: ele aparecerá na lista de resultados e com um clique duplo em cima do mesmo você terá acesso a ele).



Computadores aparecendo no Ambiente de rede


Não adianta: a rede não funciona mesmo seguindo todos os passos!
Neste caso mesmo com as duas placas de rede com leds aceso é possível que uma delas esteja com algum problema e para tirar a dúvida troque a placa de rede e coloque alguma que você tenha certeza que está funcionando.

Problemas com a Impressora em rede:
Quando ligo o micro que está usando a impressora pela rede, aparece uma mensagem avisando que não foi possível conectar a LPT1 no micro servidor mesmo que o computador esteja ligado, sendo que às vezes não aparece a mensagem e funciona tudo bem. Qual será o problema?

Mesmo se o computador aonde a impressora está conectada estiver ligado, é necessário que a impressora esteja ligada também: se ela não estiver ligada esta mensagem aparecerá, por este motivo sempre verifique se ambos estão ligados.


Adaptado de:
http://www.babooforum.com.br/forum/Identificando-problemas-em-uma-Rede-Domestica-t629740.html