UTILIZE A PESQUISA!

Open-AudIT

O Open-AudIT é um Sistema Open Source de Gerenciamento de Rede, Auditoria e Inventário. Com essa ferramenta é possível verificar quais equipamentos e softwares estão presentes em uma determinada rede.

Requisitos necessários em diferentes distribuições Linux

Requisitos necessários são:
  • Sistema Operacional Linux (Kernel 2.4.x.x ou 2.6.x.x) ou Windows
  • Serviço WEB (Apache, nginx, etc) com suporte a php 4 de preferência php 5.
  • Open-Audit (uma cópia do desenvolvimento).

Abaixo demonstrarei uma instalação do serviço WEB (servidor web) em diferentes modos, para que os que usam distribuições distintas de Linux possam aproveitar o software open-source open-audit.

Instalação via apt-get (Debian´s like)

Primeiramente vamos partir do ponto que você já tem um sistema operacional Linux totalmente instalado e funcional, e que usa preferencialmente um gerenciador de pacotes do estilo "apt-get".

Por via das dúvidas, vamos solicitar uma breve atualização dos repositórios do seu gerenciador de pacotes e do sistema operacional em si.

Acesse o terminal de sua preferência e digite os comandos:

$ sudo apt-get update (atualiza sua lista de repositórios)
$ sudo apt-get upgrade (atualiza os pacotes que achar necessário)

Servidor web:

$ sudo apt-get install apache2 python openssl phpmyadmin php5
$ sudo apt-get install php5-gd
$ sudo apt-get install php-pear php5-gd php5-xsl curl libcurl3 libcurl3-dev php5-curl


Instalação via Red Hat, Fedora, e RPMs like

Vamos partir do ponto que você já tem um sistema operacional Linux totalmente instalado e funcional, e que usa gerenciador de pacotes estilo RPM, geralmente presente em distribuições como Red Hat, Fedora, openSUSE, CentOS, entre outras.

Dica: Faça uma instalação full do sistema operacional, todos os componentes. Friso isso pois é muito chato você desejar instalar um novo servidor e ter problemas com bibliotecas C#, C++, make, mod_php5, entre outros. Instale tudo!

RPMs necessários:
  • APACHE2
  • PHP5
  • PHP5-GD
  • MYSQL-SERVER

Todos os pacotes RPM encontram-se nos CDs de instalação, mas caso precise achar na internet eu recomendo o site: http://rpm.pbone.net/

Mas se mesmo assim encontre dúvidas, explicarei o processo de instalação.

Desinstale caso exista uma versão do Apache e MySQL:

# rpm -e httpd mysql

Faça o download e instale os pacotes RPM do MySQL do servidor, não optar por mudar a senha no banco de dados MySQL:

# rpm -ivh MySQL-client-5.0.20-0.glibc23.i386.rpm MySQL-server-5.0.20-0.glibc23.i386.rpm MySQL-shared-5.0.20-0.glibc23.i386.rpm
# mysql_install_db
# /sbin/ldconfig


Faça o download, descompacte e instale o Apache2 do source da apache.org:

# mv httpd-2.0.55.tar.gz /usr/local/; cd /usr/local/
# tar -xzvf httpd-2.0.55.tar.gz
# cd httpd-2.0.55
# ./configure --enable-so
# make
# make install


Inicie o Apache:

# /usr/local/apache2/bin/apachectl start

Teste para verificar se está funcionando. Pelo seu browser preferido acesse:

http://ip_do_servidor/

Pare o Apache:

# /usr/local/apache2/bin/apachectl stop

Baixe, descompacte e instale o php do sourcephp.net:

# mv php-4.4.1.tar.gz /usr/local/; cd /usr/local/
# tar -xzvf php-4.4.1.tar.gz; cd php-4.4.1/
# ./configure --with-apxs2=/usr/local/apache2/bin/apxs --with-mysql
# make
# make install


Adicione em seu httpd.conf:

LoadModule php4_module modules/libphp4.so
AddType application/x-httpd-php .php .phtml
AddType application/x-httpd-php-source .phps
DirectoryIndex index.html index.php

Reinicie seu Apache:

# /usr/local/apache2/bin/apachectl restart 

Instalação do Open-Audit

Agora o mais importante, a instalação.

Primeiramente faça o download do pacote no SourceForge.net.

Caso o link apresente erros, acesse a página do software em:
Agora, descompacte o pacote ".zip" em seu diretório onde ficam os documentos, sites e tudo mais que você publica em seu web-server.

Abra seu terminal e digite:

# gunzip nomedoarquivo

Aos que tiverem dúvidas sobre o diretório de onde ficam os documentos do Apache, favor consultar seu arquivo de configuração.

Procure pelo parâmetro:

DocumentRoot "/var/www/html"

Em muitas distribuições, pode ficar como:

DocumentRoot "/var/www"

Por isto verifique onde ficam localizadas seus sites e publicações.

Após isto, dê permissão a pasta e todas suas sub-pastas usando o comando:

# chmod 777 /var/www/html/open-audit/ -Rf

Apenas para instalar vamos dar permissão total, após isto você deve alterar as permissões que melhor administre.

Vamos para o último passo da instalação.

Acesse pelo seu browser favorito o openaudit:

http://ip_do_servidor/open-audit

Conforme a tela abaixo:
Escolha o idioma "pt_br", prossiga com a instalação e aparecerá a tela conforme a imagem abaixo:
Agora escolha a 1a. opção, que é a que informa que você possui acesso completo ao banco de dados, para criar o banco e as tabelas, conforme a imagem abaixo:
Agora informe os parâmetros de seu banco de dados MySQL, conforme a imagem abaixo:
PARABÉNS!
Você conseguiu instalar com sucesso o software! Agora vamos para as configurações e extras.

Extras e outras configurações

Agora vamos refinar a configuração do Open-Audit antes de alimentar com novas máquinas auditadas.

Acesse o arquivo do open-audit na pasta scripts, localizado em /var/www/html/open-audit/scripts/audit.config.

Você pode configurar da maneira que desejar, existem muitos detalhes interessantes, mas abaixo vão os parâmetros essenciais:

'
' Standard audit section
'

audit_location = "r"
verbose = "n"
audit_host="http://192.168.50.60"
online = "yesxml"
strComputer = ""
ie_visible = "n"
ie_auto_submit = "y"
ie_submit_verbose = "n"
ie_form_page = audit_host + "http://192.168.50.60/openaudit/admin_pc_add_1.php"
non_ie_page = audit_host + "http://192.168.50.60/openaudit/admin_pc_add_2.php"
input_file = "pc_list_file.txt"

'
' Email authentication
'
'


email_to = "paulo@paulojr.info"
email_from = "paulo@paulojr.info"
'email_sender = "Open-AudIT"
email_server = 192.168.50.60    ' IP address or FQDN
email_port = "25"           ' The SMTP port
email_auth = "1"           ' 0 = Anonymous, 1 = Clear-text Authentication, 2 = NTLM
email_user_id = "paulo@teste.com"    ' A valid Email account in user@domain format
email_user_pwd = "12345"        ' The SMTP email password
email_use_ssl = "false"        ' True/False
email_timeout = "90"           ' In seconds

audit_local_domain = "y"
'
' Set domain_type = 'nt' for NT4 or SAMBA otherwise leave blank or set to ldap

'domain_type = "nt"

local_domain = "LDAP://example.local"

'
' Example Set Domain name for NT ONLY for LDAP use the above format
' NOTE This is Case Sensetive. See the example below.
'

'local_domain = "WinNT://IEXPLORE"
'local_domain = "WinNT://"
'

hfnet = "n"
Count = 0
number_of_audits = 10
script_name = "audit.vbs"
monitor_detect = "y"
printer_detect = "y"
software_audit = "y"
uuid_type = "uuid"
'
' Nmap section
'

nmap_tmp_cleanup = true           ' Set this false if you want to leave the tmp files for analysis in your tmp folder
nmap_subnet = "192.168.50."           ' The subnet you wish to scan
nmap_subnet_formatted = "192.168.050."       ' The subnet padded with 0's
nmap_ie_form_page = audit_host + "http://192.168.50.60/openaudit/admin_nmap_input.php" nmap_ie_visible = "n" nmap_ie_auto_close = "y" nmap_ip_start = 1 nmap_ip_end = 254 nmap_syn_scan = "y"       ' Tcp Syn scan
nmap_udp_scan = "y"       ' UDP scan
nmap_srv_ver_scan = "y"      ' Service version detection.
nmap_srv_ver_int = 9        ' Service version detection intensity level. Values 0-9, 0=fast

Tudo foi instalado, e agora? Como vou alimentá-lo? Como vou auditar e criar o inventário dos computadores?

Auditar máquinas Windows

Em um computador com sistema operacional Windows, acesse pelo browser o endereço:

http://ip_do_servidor/open-audit

Acesse o menu a sua esquerda e clique em ADMINISTRAÇÃO -> AUDITE ESTA MÁQUINA, conforme a imagem abaixo:
Você será redirecionado para efetuar um download de um script em .vbs.

Execute este script e tenha paciência, pois em algumas máquinas pode demorar.

Quando o script acabar, acesse novamente o open-audit e verifique se a máquina já foi auditada, conforme a imagem abaixo:
Ele informa quase tudo da estação, desde monitor, placa de rede, processador, HD, basta navegar pelos seus menus do sistema open-audit.

Mas como auditar um Linux?

Bom, também existe esta opção, porém ela não é a das mais simples, pelo simples motivo que cada distribuição possui sua gama de pacotes, gerenciadores de pacotes e tudo mais.

Mas para auditar, faça o seguinte procedimento:

Edite o arquivo /var/www/openaudit/scripts/audit-linux.sh.

Altera a linha:

OA_SUBMIT_URL=http://salma/openaudit/admin_pc_add_2.php

para o endereço correto do servidor, como por exemplo:


OA_SUBMIT_URL=http://ip_do_servidor/openaudit/admin_pc_add_2.php

Salve o arquivo e dê permissão de execução através do comando:

# chmod a+x /var/www/openaudit/scripts/audit-linux.sh

Execute este script.

Podem retornar diversos erros e avisos, cada um deve ser analisado, pois no script testa se tal pacote é usado e tudo mais, vale a pena investigar cada aviso.

Dica de auditar automaticamente

Bom, existem diversas técnicas e maneiras de efetuar este procedimento de auditar ou inventariar automaticamente com este open-source, mas vou apresentar a que eu, Paulo Roberto Junior, uso.

Primeiro, pegue aquele script .vbs que você usou para auditar aquela máquina com sistema operacional Windows e salve na rede do seu domínio com as devidas permissões. Pode salvar no SAMBA também, eu por exemplo o uso.

Nos scripts de logon dos usuários do Windows, edite a .bat que você usa ou a crie, caso não use, com o seguintes comandos:

@REM AUDITAR VIA OPENAUDIT
cscript \\192.168.80.2\cepem\suporte\auditar.vbs

Reparem que alterei aquele nome gigante do script em .vbs para somente auditar.vbs, pois fica mais fácil administrar.

Quando o usuário se logar no domínio, ele vai executar o script e enviar para o servidor.

Atenção, o script devido a sua carga de requisições e dados a capturar pode demorar de acordo com a estação de trabalho e a rede local.

 Fontes: LatinowareViva o Linux

Netkit

Apresentação do Netkit 

O software netkit é um emulador de redes que permite a criação de experimentos de redes de computadores virtuais, incluindo os dispositivos de hardwares necessários para seu suporte como roteadores, servidores, switches , e da criação dos enlaces. Além do hardware, estes equipamentos virtuais são inicializados com softwares reais que em execução oferecem experiência real ao estudante para a realização de diversos estudos, mesmo que tenha apenas um computador em seu domicílio. O netkit utiliza softwares de código aberto, principalmente licenciados pela GPL, usando em suas máquinas uma variação do kernel linux chamada UML ( User Mode Linux ). Para montar uma rede o netkit usa um conjunto de arquivos de configurações e pastas, que foram um laboratório virtual. Um laboratório também pode ser inicializado através de scripts ou através da linguagem NetML que é uma linguagem baseada em XML para descrição de redes. Uma máquina virtual iniciada pelo netkit é um computador completo rodando uma distribuição mono usuário da distribuição Debian GNU/Linux. Para transformar essa máquina num dispositivo específico basta executar o software adequado.

Recursos do Netkit

Entre os recursos que podemos experimentar no netkit, podemos verificar:

Fonte: Paulo Henrique Moreira Gurgel

Porque Estudar Redes


O uso das redes vem, a cada dia, se tornando um recurso indispensável em todos os locais onde existe um conjunto de computadores. Com o crescimento da Internet abrangendo  todos  os  ramos  de  atividade,  aumentou  ainda  mais  a  necessidade da ligação dos computadores em redes, entretanto, é importante conhecermos as vantagens e as desvantagens do uso das redes, e também os cuidados que devemos tomar para evitarmos os problemas. A seguir, apresentaremos a situação de uma escola, que não possui uma rede instalada e, por isso, o trabalho e a produtividade foram totalmente comprometidos.
 

Imaginem uma escola que possua uma sala para tarefas administrativas, uma
biblioteca, uma sala para os professores e uma sala de estudos, todas providas de computadores não interligados entre si, ou seja, stand-alone. Na sala da administração, a secretária possui dois computadores disponíveis conhecidos por Sec1 e Sec2. O computador Sec1 é utilizado para registro de notas e emissão de boletins na  impressora  matricial,  conhecida  por  Sprn1. O  computador  Sec2  é  utilizado para registro dos pagamentos efetuados e emissão dos carnês na impressora laser, conhecida por Sprn2.
 

Nessa  escola,  por  questões  de  ordem  interna,  o  boletim  dos  alunos  só  pode ser emitido se os pagamentos estiverem em dia, então é necessário transferir por disquetes  esses  arquivos  do  computador  Sec2  para  Sec1,  praticamente  todos  os dias. Como os computadores não estão interligados em rede, e as conexões com a Internet estão disponíveis por meio de link discado na sala dos professores ou na sala de estudos, os funcionários precisam deslocar-se até estas salas para enviar ou receber e-mail ou para efetuar pesquisar na Internet.
 

Na  biblioteca  existe  um  computador  Bib1  que  fica  à  disposição  dos  alunos para consulta de livros e registro de empréstimos e devoluções. O sistema só libera empréstimos para alunos com os pagamentos em dia, então periodicamente a secretária não pode esquecer de copiar arquivos do computador Sec2 para Bib1. A biblioteca não tem impressora, e, quando a bibliotecária quer emitir os cartões de empréstimo ou atualizar a listagem de livros que são comprados ou recebidos por doação, o arquivo precisa ser levado em disquetes para ser impresso na impressora Sprn1 na sala da administração. Na sala de estudos existe um computador conhecido por Est1 que permite aos alunos efetuarem pesquisas na Internet e imprimirem os resultados na impressora jato de tinta colorida Eprn1. A bibliotecária constantemente precisa deixar a biblioteca para ir até a sala de estudos efetuar pesquisas na Internet.

Na  sala  dos  professores  existem  dois  computadores  multimídia  conhecidos por  Prof1  e  eprof2.  Eles  são  usados  respectivamente  para:  preparação  de  aulas  e lançamento de notas e acesso à Internet e ao correio eletrônico. As notas lançadas pelos professores precisam ser copiadas para Sec1 possibilitar a geração de boletins, pois eles só poderão ser emitidos caso o pagamento esteja em dia. Na sala dos professores, estão disponíveis os computadores Prof1 e Prof2, um chaveador ligado a duas impressoras jato de tinta colorida Pprn1 e Pprn2, para impressão de correio eletrônico e programas de aula.
 

Esse exemplo, não é algo muito diferente do que acontece em pequenos escritórios de trabalho, pois muitos ainda não se conscientizaram da importância do estudo  e  utilização  das  redes  de  computadores.

Fonte: Novatec

Radius

Introdução

A administração e gestão de uma infraestrutura de rede nos dias atuais é algo complexo que envolve diversos mecanismos de funcionamento, protocolos e tipos de servidores, que visam aumentar a segurança interna e externa de uma rede de computadores.
De forma a se aumentar a segurança em um sistema de rede privado ou empresarial, foram implementados ao longo dos tempos várias soluções para o efeito, umas proprietárias e outras de código aberto (GPL), estas últimas permitindo uma maior flexibilidade no que se refere a configuração da pilha de protocolos TCP/IP, assim como toda a adaptação necessária aos próprios mecanismo de autenticação, sejam eles provenientes de redes LAN ou WAN.  
O RADIUS não sendo um protocolo propriétario de um fabricante específico é amplamente implementado hoje em dia em sistemas de redes de computadores, como exemplo tempos os roteadores, “gateways”, pontos de acesso em redes sem fio e servidores das mais váriadas marcas, Microsoft, Linux, Unix, CISCO, etc...
Este artigo aborda os aspectos preponderantes e objectivos de uma implementação em servidores Windows Server 2003/2008, configurações gerais a se ter e os principais conceitos detalhados para o bom funcionamento de um sistema baseado neste tipo de autenticação que é centralizado e seguro, assim como a adequação de recursos à gestão do modelo de autenticação RADIUS utilizando diferentes meios de acesso à rede.

1. RADIUS
Remote Authentication Dial-In User Service (RADIUS) é um sistema centralizado de autenticação para clientes. É frequentemente implementado para garantir um nível adicional de segurança em uma rede de computadores. Para se garantir uma autenticação de um cliente remoto em um Controlador de Domínio (AD), no próprio servidor de acesso remoto (RRAS) ou por último em um servidor RADIUS, é possível desta foma aumentar consideravelmente uma protecção contra intrusos ou usuários maliciosos dentro de uma rede por forma de one-way authentication, onde o usuário precisa pelo menos de saber um “username” e uma “passwrod”  para se poder autenticar no sistema. Não basta fazer parte do sistema, o usuário preciso de saber as credenciais e estar de acordo com as políticas internas da empresa para poder fazer parte dela.

1.1.1 MECANISMO
O mecanismo RADIUS serve para dar acesso remoto a usuários originais de ligações de Dial-Up, ligações por Virtual Private Network (VPN), Wireless Clients (Usuários de redes sem fio) ou por serviços de terminais.
Figura 1.1 – Gráfico com os vários tipos de cliente de acesso remoto
Extraído de e-Microsoft (Elements of a Network Access Infrastruture, 2009)


1.1.2 OBJETIVOS
RADIUS é conhecido como um servidor de AAA, os três A  significam autenticação, autorização ou controlo de acesso e contabilidade, também referenciado como auditoria. Ele tem a função principal de permitir  acesso a clientes remotos e separar os acessos internos dos externos.
Desta forma é possível centralizar toda a informação referente a autenticações, controlar quem tem determinadas permissões de acesso e quem está restringido, ficando por exemplo impedido de acessar à rede em um determinado horário ou dias da semana e criar estatística de acesso e de auditoria para futuros planejamentos da empresa, como expansões assim como tipos de comportamento por parte dos usuários. 
Figura 1.2 – Gráfico mostrando a importância do conceito AAA para o acesso remoto a um servidor RRAS que é controlado por um Controlador de domínio (AD).
Extraído de e-Microsoft (Concepts to Autenticated and Authorized, 2009)


1.1.3  PROTOCOLO E PORTAS TCP/IP
O protocolo RADIUS é conhecido como um padrão IETF (Internet Engineering Task Force), em geral um IETF é um padrão de Internet com especificações estáveis e bem compreendidas, tecnicamente competentes, com múltiplas implementações independentes e interoperáveis com substancial experiência operacional, que conta com o apoio do público no geral, e é reconhecidamente útil em algumas ou todas as partes da Internet.
Quanto às portas TCP/IP a Internet Assigned Numbers Authority (IANA) reserva as portas UDP 1812 para o serviço de autenticação do cliente no servidor de RADIUS e a porta UDP 1813 para o serviço de contabilidade. No entanto diversos servidores optam pela porta UDP 1645 para o serviço de autenticação e a porta UDP 1646 para o serviço de contabilidade por padrão.
Aqui um aspecto importante na implementação de portas TCP/IP é que um servidor cliente RADIUS tem que utilizar as mesma portas de um servidor RADIUS que recebe os pedidos, que no fabricante Microsoft é conhecido como Internet Authentication Service (IAS).
 2. AAA
Autenticação o primeiro A do triplo AAA, é uma forma da qual uma pessoa, usuário da rede ou não utiliza para provar a sua identidade em um sistema RADIUS.
Frequentemente este tipo de autenticação envolve somente o usuário ter conhecimento de um nome de usuário e uma senha para ter acesso sem restrição ao sistema. Outros processos de autenticação mais complexos, envolvendo outros factores de autenticação e de protecção de credenciais são implementados em ordem de promover uma protecção mais elevada à rede e protecção em relação ao “logon” de um usuário.
A intenção é sempre de provar que o usuário é realmente quem diz ser e justificar por meio de autenticação esse mesmo facto ao sistema que solicita esses dados, como por exemplo o mecanismo de RADIUS server.
2. 1. 1 DEFINIÇÃO DE FUNCIONAMENTO
Quando um mecanismo de RADIUS é implementado é importante entender os termos normalmente usados durante a sua implementação, o termo RADIUS Client por vezes gera confusão, pois pode-se pensar que é o cliente a tentar aceder à rede ou seja o usuário final estando incorrecto, este termo é usado para representar na infraestrutura de rede o servidor de acesso remoto (RRAS) e não o cliente final.
Para se definir o cliente ou usuário final dá-se o nome de remote access client (cliente de acesso remoto), sendo assim o servidor de acesso remoto passa a ser o cliente do servidor RADIUS que tem por nome IAS server nas implementações em servidores Microsoft.
 O usuário comunica diretamente com o RADIUS client e este comunica diretamente com o RADIUS server, conhecido como IAS server em implementações Microsoft, deste modo aumenta-se o nível de segurança, até porque as comunicações entre RADIUS server e RADIUS client podem ser encriptadas com hash MD5 aumentando ainda mais a integridade dos dados trafegados na rede.


Figura 1.3 – Gráfico mostrando os diferentes Players de uma ligação RADIUS
Extraído de e-Microsoft (Centralize Network Access Authentication, 2009)
 
CONCLUSÃO OU CONSIDERAÇÕES FINAIS
RADIUS é um mecanismo confiável que já deu provas de ser extremamente seguro e estável, o que na prespectiva de segurança de redes de computadores têm uma grande aceitação, precisamente por ser um padrão IETF onde se pode implementar em diferentes vendedores e sistemas, no mercado de TI.
O sistema também ganha grandes adeptos nas redes cooperativas sem fio, chamadas de Wireless Local Area Networn (WLAN), pois como estas redes de meios não guiados foram originalmente desenvolvidas para trafegar dados e não para garantir a segurança dos mesmos, revê aqui uma oportunidade bastante confiável para assegurar a autenticação em uma rede desta natureza.
Outro dos benefícios de se utilizar o protocolo RADIUS em vez de proprietários como o Terminal Access Controller Acess-Control System (TACACS+) utilizado pela CISCO é que é possível instalar diversos equipamentos de rede como servidores e roteadores sem a necessidade de um outro protocolo de rede, promovendo a comunicação entre ambas as partes envolvidas, desde o cliente até ao servidor RADIUS final, com isto, sem ser necessário a utilização de mais nenhum software adicional ou outro mecanismo de comunicação, pelo motivo de que originalmente os sistemas operacionais WINDOWS têm suporte a este protocolo, assim como os sistemas LINUX.
Contudo faz importância salientar que uma das diferenças mais significativas entre ambos, é que o protocolo RADIUS  não consegue separar os processos de Autenticação e Autorização dentro de uma arquitectura AAA, sendo mais adequado para permaner ativo nos equipamentos de rede, durante todo o tempo de conexão do usuário.
Já o TACACS+ separa os processos de Autenticação e Autorização e foi otimizado para controle de comandos de configuração e monitorização utilizando a porta confiável TCP 49 em vez das UDP já descritas no artigo.


Fonte: Projeto de Redes

Roteador carrega bateria enquanto permite acesso à internet

Um dispositivo transformaria o sinal emitido pelo roteador em energia elétrica, permitindo a recarga de aparelhos pelo Wi-Fi.

Pesquisadores da Universidade de Washington estão desenvolvendo um método de carregar baterias via Wi-Fi. O projeto utilizaria smartphones e outros dispositivos adaptados para transformar os sinais enviados pelo roteador em energia elétrica. Assim, eles seriam carregados enquanto trafegam normalmente na web.
Utilizar Wi-Fi para recarregar aparelhos não é novidade. Esta é a primeira vez, porém, que um roteador é utilizado de forma simultânea, oferecendo internet e energia elétrica. Além disso, o alcance de 8,5 metros é uma marca importante no que concerne ao desenvolvimento da tecnologia.
Para conseguir tal feito, os pesquisadores acoplaram sensores especiais nos aparelhos, que transformam os sinais de internet em energia. No roteador, no entanto, não é necessário nenhum tipo de intervenção.
A tecnologia ainda está em fase de testes e não há previsão de quando chegará ao mercado.

Fonte: Estadão

TFTP

O TFTP, ou Trivial File Transfer Protocol, é um protocolo de alto nível simples para a transferência de servidores de dados usar para inicializar estações de trabalho sem disco, X-terminais e roteadores usando Protocolo de Dados do Usuário (UDP).Embora possa parecer semelhante, TFTP funciona de forma diferente do que FTP (File Transfer Protocol) e HTTP (HyperText Transfer Protocol). Embora TFTP também é baseado em tecnologia de FTP, TFTP é um protocolo completamente diferente. Entre as diferenças é que protocolo de transporte de TFTP usa UDP que não é seguro enquanto FTP usa Transmission Control Protocol (TCP) para proteger as informações.TFTP foi projetado principalmente para ler ou escrever arquivos usando um servidor remoto. No entanto, o TFTP é um protocolo multi-purpose que pode ser aproveitada para uma variedade de tarefas diferentes.
Os profissionais de TI e Sys Admins normalmente usam configuração TFTP para:

    
Transferência de arquivos
    
Remote-booting sem discos rígidos
    
Códigos Atualizando
    
Fazer o backup de configurações de rede
    
Fazer o backup de arquivos de configuração do roteador
    
Guardar imagens ISO


    
Iniciando PCs sem um discoDepois de uma estação de trabalho foi iniciado a partir de uma ROM da placa de rede, a instalação TFTP irá baixar um programa e, em seguida, executá-lo a partir de um servidor central.


Modos de protocolo de transferência de TFTPHá três modos de transferência atualmente suportados pelo protocolo TFTP:

    netascii
    octet
    mail

 
Modos adicionais também podem ser definidos por pares de hospedeiros cooperantes.Usando o protocolo TFTP, uma transferência será iniciado com um pedido para ler ou escrever um arquivo ao mesmo tempo, solicitando uma conexão.

IPv6

IPv6 é a versão mais atual do IP (Internet Protocol). Originalmente oficializada em 6 de junho de 2012, é fruto do esforço do IETF para criar a "nova geração do IP" (IPng: Internet Protocol next generation).

O principal motivo para a implantação do IPv6 na Internet é a necessidade de mais endereços, porque a disponibilidade de endereços livres IPv4 terminou.
Para entender as razões desse esgotamento, é importante considerar que a Internet não foi projetada para uso comercial. No início da década de 1980, ela poderia ser considerada uma rede predominantemente acadêmica, com poucas centenas de computadores interligados. Apesar disso, pode-se dizer que o espaço de endereçamento do IP versão 4, de 32 bits, não é pequeno: 4 294 967 296 de endereços.
Ainda assim, já no início de sua utilização comercial, em 1993, acreditava-se que o espaço de endereçamento da Internet poderia se esgotar num prazo de 2 ou 3 anos. Isso não ocorreu por conta da quantidade de endereços, mas sim por conta da política de alocação inicial, que não foi favorável a uma utilização racional desses recursos. Dividiu-se esse espaço em três classes principais (embora existam a rigor atualmente cinco classes), a saber:
  • Classe A: com 128 segmentos, que poderiam ser atribuídos individualmente às entidades que deles necessitassem, com aproximadamente 16 milhões de endereços cada. Essa classe era classificada como /8, pois os primeiros 8 bits representavam a rede, ou segmento, enquanto os demais poderiam ser usados livremente. Ela utilizava o espaço compreendido entre os endereços 00000000.*.*.* (0.*.*.*) e 01111111.*.*.* (127.*.*.*).
  • Classe B: com aproximadamente 16 mil segmentos de 64 mil endereços cada. Essa classe era classificada como /16. Ela utilizava o espaço compreendido entre os endereços 10000000.0000000.*.* (128.0.*.*) e 10111111.11111111.*.* (191.255.*.*).
  • Classe C: com aproximadamente 2 milhões de segmentos de 256 endereços cada. Essa classe era classificada como /24. Ela utilizava o espaço compreendido entre os endereços 11000000.0000000.00000000.* (192.0.0.*) e 11011111.11111111.11111111.* (213.255.255.*).
Os 32 blocos /8 restantes foram reservados para Multicast e para a IANA (Internet Assigned Numbers Authority).
O espaço reservado para a classe A atenderia a apenas 128 entidades, no entanto, ocupava metade dos endereços disponíveis. Não obstante, empresas e entidades como HP, GE, DEC, MIT, DISA, Apple, AT&T, IBM, USPS, dentre outras, receberam alocações desse tipo.

IPv6 e IPv4

O elevadíssimo número de endereços IPv6 permite que apenas este protocolo seja utilizado na internet. Acontece que essa mudança não pode acontecer de uma hora para outra. Isso porque roteadores, servidores, sistemas operacionais, entre outros precisam estar plenamente compatíveis com o IPv6, mas a internet ainda está baseada no IPv4. Isso significa que ambos os padrões vão coexistir por algum tempo.
Seria estupidez criar dois "mundos" distintos, um para o IPv4, outro para o IPv6. Portanto, é necessário não só que ambos coexistam, mas também se que comuniquem. Há alguns recursos criados especialmente para isso que podem ser implementados em equipamentos de rede:
- Dual-Stack (pilha dupla): faz com que um único dispositivo - um roteador, por exemplo - tenha suporte aos dois protocolos;
- Tunneling (tunelamento): cria condições para o tráfego de pacotes IPv6 em redes baseadas em IPv4 e vice-versa. Há várias técnicas disponíveis para isso, como Tunnel Broker e 6to4, por exemplo;
- Translation (tradução): faz com que dispositivos que suportam apenas IPv6 se comuniquem com o IPv4 e vice-versa. Também há várias técnicas para tradução, como Application Layer Gateway (ALG) e Transport Relay Translator (TRT).
Felizmente, praticamente todos os sistemas operacionais da atualidade são compatíveis com ambos os padrões. No caso do Windows, por exemplo, é possível contar com suporte pleno ao IPv6 desde a versão XP (com Service Pack 1); versões posteriores, como Windows 7 e Winodws 8, contam com suporte habilitado por padrão. Também há compatibilidade plena com o Mac OS X, Android e versões atuais de distribuições Linux, entre outros.

Fontes: http://pt.wikipedia.org/wiki/IPv6 ; http://www.infowester.com/ipv6.php

Como funciona o GPS

O Sistema de Posicionamento Global, popularmente conhecido como GPS (Global Positioning System), é um sistema que utiliza satélites para localizar onde o receptor do sinal do satélite está naquele momento. O GPS funciona a partir de uma rede de 24 satélites que ficam distribuídos em seis planos, próximos a órbita do planeta Terra. Estes satélites enviam sinais para o receptor (o aparelho de GPS), e então, a partir disso, o aparelho de GPS interpreta esses sinais dizendo onde exatamente você está naquele momento.
Atualmente existem dois sistemas que permitem a navegação por satélite: O GPS americano e o GLONASS russo. Também, existem dois outros sistemas que estão em fases de implementação: o Galileo, da União Européia, e o Compass, da China.

História

A história da criação do sistema se iniciou em 1957. Ano em que a União Soviética lançou o primeiro satélite artificial da história. Esse foi o passo inicial para que a humanidade iniciasse os estudos sobre o uso dos satélites na obtenção da localização de pontos sobre a superfície terrestre.
O sistema de GPS foi criado a partir de outro projeto do Departamento de Segurança americano chamado de NAVSTAR. O sistema NAVSTAR disponibilizaria várias informações geográficas, como localização e clima, por exemplo, de qualquer parte da superfície terrestre. O projeto NAVSTAR foi iniciado em 1960, e após vários anos de correções e ajustes o projeto NAVSTAR tornou-se totalmente funcional e pronto para operar em 1995.
Após certo tempo, o projeto NAVSTAR tornou-se o sistema de GPS. E o sucesso desse sistema foi tanto, que o presidente Bill Clinton, em 2000, viu a necessidade de tornar as informações recolhidas pelos satélites, que antes era exclusiva para o uso militar, disponíveis para o uso civil e gratuito.

Como funciona

Os satélites, assim como os receptores GPS, possuem um relógio interno que marca as horas com uma precisão incrivelmente grande em nano segundos. Quando o satélite emite o sinal para o receptor, o horário em que ele saiu do satélite também é enviado.
 Os envios desses sinais ocorrem constantemente. Este sinal enviado para o receptor é um sinal de rádio, que viaja uma velocidade de 300 mil quilômetros por segundo (tal velocidade é conhecida como velocidade da luz!!) no vácuo. Resta ao receptor calcular quantos nano segundos este sinal demorou a chegar até ele, assim ele consegue “descobrir” onde você está. E como o sinal é enviado constantemente, o receptor sempre sabe onde está o satélite, mantendo, assim, sua posição exata sempre atualizada.

A triangulação

Agora você já sabe como é calculada a distância entre o satélite e o seu receptor, ficando mais fácil de entender como ele usa isso para determinar sua localização com uma margem erro de apenas 20m.
Os GPS usam um sistema chamado de triangulação pra determinar a localização do receptor na Terra. A triangulação funciona da seguinte forma: três satélites enviam o sinal para o receptor, que calcula quanto tempo cada sinal demorou a chegar nele. A teoria deste conceito é bem complexa, veja a imagem abaixo e entenda como funciona o conceito.
Além da sua localização terrestre, o receptor GPS também consegue saber a altura do receptor em relação ao nível do mar, porém para isso é necessário um quarto satélite.

Mapas e outros dados

 Vamos supor que você esteja perdido no deserto próximo a uma cidade. Porém, você sabe que está a cinco quilômetros da cidade, mais não sabe em qual direção ela está. O receptor de GPS, com o auxilio da triangulação, já sabe onde você está. O receptor compara sua localização com um mapa, que vai lhe mostrar exatamente por onde você tem que ir para chegar ao seu destino.
Os mapas e os dados que aparecem na tela do aparelho de GPS são desenvolvidos pelas empresas do aparelho e servem apenas para lhe ajudar a identificar onde você está. Estes mapas são apenas uma camada, e não tem nada a ver com o sistema de GPS administrado pelos Estados Unidos.

Curiosidades

  • No Brasil, o primeiro receptor GPS foi utilizado em 1992. Inicialmente ele era usado para rastrear caminhões com cargas valiosas;
  • Que Apenas em 2000 o sinal dos satélites de GPS foi liberado ao uso civil. Antes, os EUA impunham uma “disponibilidade seletiva” que impossibilitava o uso civil do sinal com uma precisão menor que 90 metros;
  • No interior dos satélites, há relógios atômicos de uma precisão enorme. Eles atrasam 1 segundo a cada 100 mil anos;
  • Apesar do sinal dos satélites funcionarem em todo o globo terrestre, há dois países que não permitem a utilização do seu sinal em seus territórios: Coreia do Norte e a Síria;
  • Até em 2009, no território do Egito também era proibido o uso do sinal GPS.

Teste a Velocidade de Sua Internet

Abaixo está o resultado do teste da velocidade de sua internet, você pode também utilizar algum dos links disponibilizados mais abaixo para fazer mais testes de velocidade de sua internet.
Sites para testar a sua internet:
http://speedtest.copel.net
http://www.minhaconexao.com.br
http://www.brasilbandalarga.com.br/speedtest
http://www.rjnet.com.br/3velocimetro.php

Chaveamento em Redes de Computadores


À medida que cresce o uso das redes de computadores, o modelo de computação muda de um grupo de trabalho físico para uma orientação a conexões remotas. No ambiente orientado à conexões remotas, há necessidade de redes que satisfaçam as demandas do usuário final por largura de banda, acesso e segurança, ao mesmo tempo proporcionando capacidade de gerenciamento ao nível corporativo. Neste contexto, novas capacidades de chaveamento em pontes (bridges), roteadores (routers) e switches acrescentam maior poder às redes e facilitam a interconexão com WAN’s corporativas.

Chaveamento nas redes

As redes de comunicação normalmente são estruturadas a partir do uso de tecnologias baseadas em backbones de alta velocidade. Os backbones, por sua vez, contemplam tecnologias diversificadas que utilizam a segmentação para obter melhor performance e maior largura de banda (Figura 1). Entretanto, à medida que novos nós são acrescentados à rede, há uma tendência na diminuição da largura de banda individual.




Figura 1 - Backbone utilizando roteadores e switches para o chaveamento


Não há maiores problemas quando o tráfego de rede é pequeno ou inexistente, mas os retardos aumentam à medida que os nós se tornam mais ativos ou quando a rede cresce, já que cada nó passa a competir por uma porção da largura de banda disponível. Naturalmente, crescentes volumes de tráfego significam mudanças na rede e pelo menos dois enfoques são tentados: o primeiro é aumentar a velocidade da rede, o que implica em outros problemas, como custos e complexidade; o segundo enfoque consiste em dividir a rede em segmentos separados por dispositivos de chaveamento (switching).
O chaveamento é o enfoque mais correto, uma vez que cada segmento é compartilhado, mas as comunicações podem ocorrer simultaneamente em diferentes segmentos, aliviando o congestionamento da rede. Entretanto, o crescimento da rede ainda poderá causar problemas de tráfego e, neste caso, a solução lógica será reduzir cada segmento a um nó. O nó cuja função é o chaveamento (ou comutação) entre as estações que desejam se comunicar é denominado "comutador".
O chaveamento é interessante em redes de computadores porque reverte a equação da largura de banda, permitindo aproveitar toda a capacidade de transmissão disponível em cada segmento. Exceto por uma sobrecarga, esse aproveitamento é mantido e, como resultado, o tráfego dos segmentos nas redes legadas pode ser aumentado sem a necessidade de alterações no hardware ou mesmo no cabeamento.

Como funciona o chaveamento

O chaveamento é necessário sempre que mudarem as características dos dados que trafegam pela rede (por exemplo, de Ethernet para X.25) ou mudar de velocidade (Fast Ethernet para Gigabit Ethernet, por exemplo). Duas categorias básicas de chaveamento são: chaveamento de pacotes e chaveamento de circuitos. O chaveamento de pacotes utiliza uma célula de dados de comprimento fixo, enquanto no chaveamento de circuito o elemento transportador é chaveado, geralmente pela duração de toda a mensagem.
As pontes utilizam informações de endereço MAC (Media Access Control) da camada de enlace do modelo OSI (Open Systems Interconnection) para determinar o destino de cada pacote que chega (Figura 2). É bom lembrar sempre que, de acordo com o modelo OSI, na camada de rede, as unidades de informação são chamadas "pacotes" (packets) e na camada de enlace de dados são chamadas de "quadros" (frames). Como exemplos pode-se citar os quadros Ethernet, Token Ring e Frame Relay e pacotes IP e IPX. Normalmente existe uma relação 1:1 entre eles, ou seja, um pacote IP normalmente é transportado por um quadro Ethernet, por exemplo.
Quando uma bridge encontra um endereço MAC desconhecido, envia o pacote para todas as suas portas, o que é conhecido como flooding (inundação), e pode ocasionar vários problemas de tráfego e mesmo de segurança na rede.

Figura 2 - Modelo OSI

As pontes tomam conhecimento dos relacionamentos entre endereço/porta dinamicamente; se um novo endereço é válido, ele é acrescentado à uma tabela de relacionamentos. Enquanto um endereço não é assimilado pela ponte, os pacotes podem ser enviados para todos os endereços ativos.
A camada MAC também reserva endereços como designadores de broadcast, pacotes que são enviados para todos os usuários que estão na rede e que interrompem o envio de todas as outras mensagens. Usado com muita frequência, o resultado é uma "tempestade" de broadcast que pode perturbar o funcionamento de toda a rede (Figura 3).

 

Figura 3 - Dados na porta "F" são direcionados para broadcast

Já os roteadores tomam um enfoque diferente, utilizando a camada de rede do modelo OSI, estabelecendo um esquema diferente de endereçamento para cada tipo de protocolo da rede. Para ser compatível com múltiplos padrões, os roteadores têm uma lógica de chaveamento mais complexa do que a das pontes, com consequentes retardos e custos adicionais associados.

Determinando o dispositivo de chaveamento

A principal dificuldade em tratar pacotes e quadros está no fato do tamanho ser variável. Para permitir que cada uma de suas portas opere em velocidade máxima, um switch deve lidar com o volume potencial total de tráfego de todos os nós conectados a ele, bem como a sobrecarga de chaveamento, os bits extras de código atribuídos a cada unidade de tráfego de dados considerada. Essas unidades de tráfego podem ser frames Ethernet de comprimento variável até pacotes de comprimento constante, como ocorre com as células ATM.
A ideia de trabalhar com unidades de informação de tamanhos fixos é atraente, pois os equipamentos usados para compartilhar fluxos de informação, chamados de multiplexadores, possuem uma eletrônica capaz de manipular unidades de informação de tamanho fixo com facilidade e rapidez. Assim, para os pacotes de comprimento variável, algumas aplicações apresentam maior complexidade e atraso, uma vez que é necessário determinar o começo e o fim de cada um. No caso de chaveamento de pacotes de comprimento fixo, este pode ser implementado completamente em hardware, tornando mais simples a solução.
O dispositivo de chaveamento pode ser determinado pela função, pelas unidades de tráfego chaveadas ou pela configuração do hardware. Como rótulos funcionais temos ponte, roteador e mesmo o switch clássico. O rótulo do tipo de tráfego (Frame-Relay, ATM, Fibre Channel etc.) indica o uso pretendido. O que determina a escolha de um ou outro são as vantagens e desvantagens relativas, bem como a adaptabilidade às necessidades futuras da rede.

Enfoque para o chaveamento de pacotes

Pode-se estabelecer três tipos de hardware de chaveamento de pacotes: por memória compartilhada, barramento compartilhado e matrizes de multi-estágios. Porém, essas categorias não definem todos os dispositivos e as definições dos fabricantes não aderem a um padrão em particular. Muitas informações adicionais sobre os dispositivos devem ser assimiladas e custos por porta, mesmo dentro de uma mesma categoria, podem apresentar uma grande variação.
Arquiteturas de memória compartilhada e barramento compartilhado apresentam elementos em comum. As duas fazem uso de buffer de I/O em memória que é conectada à lógica de chaveamento por um barramento. Dispositivos com memória compartilhada geralmente dependem de uma porção da memória comum gerenciada por lógica para o chaveamento das portas, enquanto o modelo de barramento compartilhado utiliza um barramento cuja largura de banda é significativamente maior do que todas as demandas das portas acopladas.
Um dispositivo de chaveamento multi-estágio é um conjunto de nós chaveadores, cada um com duas entradas, duas saídas e um sinal de controle. Qualquer entrada pode ser direcionada para qualquer saída. Para executar uma transmissão, o dispositivo chaveador deve copiar a informação nos nós de chaveamento apropriados até enviar os pacotes para as portas de saída correspondentes, o que aumenta o tráfego na malha chaveadora.

Redes em alta velocidade

O chaveamento não é uma proposta muito simples, embora seja mais barata que substituir interfaces e refazer o cabeamento para aumentar a taxa de transmissão da rede. Nas aplicações em redes remotas, os custos limitadores não estão no hardware, mas sim na transmissão dos dados. Uma das possibilidades de uso da tecnologia está no uso de software para criar segmentos de rede de usuários independentemente da localização física destes ou do tipo de conexão, ou seja, utilizar as redes virtuais.

Em uma rede física, o administrador da rede pode mapear grupos de trabalho, estabelecer conexões e coletar dados para gerenciamento. Em uma rede virtual, isso não é tão simples. De fato, alguns novos problemas podem ser introduzidos, como manter convenções de endereços de roteamento quando um usuário pertencer a duas ou mais redes diferentes e questões de segurança dos dados.

Diferença entre Worms, Vírus e Cavalo-de-Troia

As principais vulnerabilidade para estações de trabalho de usuário final são worms, vírus e ataques de cavalo-de-Troia.
Um worm executa código e instala cópias na memória do computador infectado, o que pode, por sua vez, infectar outros hosts.
Vírus é um software malicioso anexado a outro programa com a finalidade de executar uma determinada função indesejável em uma estação de trabalho.
Um cavalo-de-Troia é diferente de um worm ou vírus apenas porque todo o aplicativo foi escrito para ser semelhante a alguma coisa, quando, na verdade, é uma ferramenta de ataque.

Worms
A anatomia de um ataque de worm é a seguinte:
  • A vulnerabilidade de habilitação – um worm se instala, explorando vulnerabilidades conhecidas em sistemas, como usuários finais ingênuos que abrem anexos de executáveis não verificados em emails.
  • Mecanismo de propagação – depois de obter acesso a um host, um worm se copia para esse host e, em seguida, escolhe novos destinos.
  • Payload – depois que um host é infectado por um worm, o atacante tem acesso ao host, normalmente como um usuário privilegiado. Os atacantes poderiam utilizar uma exploração local para escalonar seu nível de privilégio até administrador.
Normalmente, worms são programas autossuficientes que atacam um sistema e tentam explorar uma vulnerabilidade específica no destino. Assim que houver a exploração bem-sucedida da vulnerabilidade, o worm copia seu programa do host de ataque para o sistema recém-explorado para começar tudo novamente. Em janeiro de 2007, um worm infectou a conhecida comunidade MySpace. Usuários confiáveis habilitaram a propagação do worm, que começou a se replicar nos sites dos usuários com a desfiguração "w0rm.EricAndrew".
A atenuação de ataques de worm exige diligência por parte da equipe administradora do sistema e de rede. A coordenação entre as equipes de administração do sistema, de engenharia da rede e das operações de segurança é essencial na resposta efetiva a um incidente de worm. Estas são as etapas recomendadas para a atenuação de ataques de worm:
  • Contenção – contenha a difusão do worm na rede e dentro dela. Isole as partes não infectadas da rede.
  • Inoculação – comece aplicando patches a todos os sistemas e, se possível, verificando se há sistemas vulneráveis.
  • Quarentena – monitore todas as máquina infectadas dentro da rede. Desconecte, remova ou bloqueie máquinas infectadas na rede.
  • Tratamento – Limpe e aplique um patch a todos os sistemas infectados. Alguns worms podem exigir reinstalações completas para limpar o sistema.
Vírus e cavalos-de-Troia
Vírus é um software malicioso anexado a outro programa para executar uma determinada função indesejável em uma estação de trabalho. Um exemplo é um programa anexado ao command.com (o interpretador principal de sistemas Windows) e exclui determinados arquivos, além de infectar todas as outras versões de command.com que conseguir localizar.
Um cavalo-de-Troia é diferente apenas porque todo o aplicativo foi escrito para ser semelhante a alguma coisa, quando, na verdade, é uma ferramenta de ataque. Um exemplo de um cavalo-de-Troia é um aplicativo que executa um simples jogo em uma estação de trabalho. Enquanto o usuário está ocupado com o jogo, o cavalo-de-Troia envia uma cópia para todos os endereços na agenda de endereços do usuário. Os outros usuários recebem o jogo e o executam, o que difunde o cavalo-de-Troia para os endereços em todas as agendas de endereços.
Um vírus normalmente exige um mecanismo de entrega – um vetor – como um arquivo zip ou algum outro arquivo executável anexado a um email, para transportar o código do vírus de um sistema para outro. O principal elemento que distingue um worm de um vírus de computador é essa interação humana necessária à facilitação da difusão de um vírus.
Esses tipos de aplicativos podem ser contidos por meio do uso efetivo de software antivírus no nível do usuário e, possivelmente, no nível da rede. Um software antivírus pode detectar a maioria dos vírus e muitos aplicativos de cavalo-de-Troia, além de impedir sua difusão na rede. Manter-se atualizado em relação aos desenvolvimento mais recentes quanto a esses tipos de ataques também pode levar a uma postura mais efetiva relacionada a esses ataques. Na medida em que novos vírus ou aplicativos de cavalo-de-Troia são liberados, as empresas precisam se manter atualizadas quanto às versões mais atuais do software antivírus.
Sub7, ou subseven, é um cavalo-de-Troia comum que instala um programa backdoor em sistemas de usuários. Ele é conhecido tanto por ataques não estruturados quanto estruturados. Por ser uma ameaça não estruturada, atacantes inexperientes podem utilizar o programa de forma que os cursores do mouse desapareçam. Como uma ameaça estruturada, os crackers podem utilizá-lo para instalar keystroke loggers (programas que registram todas as teclas pressionadas pelo usuário) para capturar informações confidenciais.

A História das Redes de Computadores

A HISTÓRIA
 
O primeiro experimento conhecido de conexão de computadores em rede foi feito em 1965, nos estados unidos, por obra de dois cientistas: Lawrence Roberts e Thomas Merril. A experiência foi realizada por meio de uma linha telefônica discada de baixa velocidade, fazendo a conexão entre dois centros de pesquisa em Massachusetts e na Califórnia. Estava plantada ali a semente para o que hoje é a Internet – mãe de todas as redes.

O nascimento das redes de computadores, não por acaso, esta associada a corrida espacial. Boa parte dos elementos e aplicações essenciais para a comunicação entre computadores, como o protocolo TCP/IP, a tecnologia de comutação de pacotes de dados e o correio eletrônico, estão relacionados ao desenvolvimento da Arpanet, a rede que deu origem a internet. Ela foi criada por um programa desenvolvido pela Advanced Research Projects Agency (ARPA) mais tarde rebatizada como DARPA.

A agencia nasceu de uma iniciativa do departamento de defesa dos estados unidos, na época preocupado em não perder terreno na corrida tecnológica deflagrada pelos russos com o lançamento do satélite Sputinik, em 1957. Roberts, acadêmico do MIT (Instituto de Tecnologia de Massachusetts), era um dos integrantes da DARPA e um dos pais da Arpanet, que começou em 1969 conectando quatro universidades: UCLA – Universidade da Califórnia em Los Angeles, Stanford, Santa Bárbara e Utah. A separação dos militares da Arpanet só ocorreu em 1983, com a criação da Milnet.

Alguns dos marcos importantes para a evolução das redes locais de computadores ocorreram nos anos 70. Ate a década anterior os computadores eram maquinas gigantescas que processavam informações por meio da leitura de cartões ou fitas magnéticas. Não havia interação entre o usuário e a maquina. No final dos anos 60 ocorreram os primeiros avanços que resultaram nos sistemas multiusuários de tempo compartilhado. Por meio de terminais interativos, diferentes usuários revezavam-se na utilização do computador central. A IBM reinava praticamente sozinha nessa época.

A partir de 1970, com o desenvolvimento dos minicomputadores de 32 bits, os grandes fabricantes, como IBM, HP e Digital, já começavam a planejar soluções com o objetivo de distribuir o poder de processamento dos mainframes e assim facilitar o acesso às informações. O lançamento do VAX pela Digital, em 1977, estava calcado numa estratégia de criar uma arquitetura de rede de computadores. Com isso, a empresa esperava levar vantagem sobre a rival Big Blue.

Quando um Vax era iniciado, ele já começava a procurar por outras maquinas para se comunicar, um procedimento ousado numa época em que poucas pessoas tinham idéia do que era uma rede. A estratégia deu certo e o VAX alcançou grande popularidade, principalmente em aplicações cientificas e de engenharia. Muitos anos depois, a Digital acabaria sendo comprada pela Compaq, que por sua vez, foi incorporada a HP. Mas as inovações surgidas com o VAX e seu sistema operacional, o VMS, teriam grandes influencias nos computadores que viriam depois.

O sistema operacional Unix, desenvolvido em 1969 nos laboratórios Bell, trouxe inovações que logo o tornou popular nas universidades e nos centros de pesquisa a partir de 1974. Era um sistema portável e modular, capaz de rodar em vários computadores e evoluir junto com o hardware. Os sistemas operacionais da época eram escritos em assembly, linguagem especifica para a plataforma de hardware. O Unix foi escrito quase totalmente em C, uma linguagem de alto nível. Isso deu a ele uma inédita flexibilidade. No começo da década, ferramentas importantes foram criadas para o Unix, como o e-mail, o Telnet, que permitia o uso de terminais remotos, e o FTP, que se transformou no padrão de transferência de arquivos entre computadores em rede. Foi essa plataforma que nasceu a maior parte das tecnologias que hoje formam a Internet.


ETHERNET

Um dos principais saltos tecnológicos que permitiram a popularização das redes foi o desenvolvimento da tecnologia ethernet. Para se ter uma ideia do avanço que essa invenção representou, basta lembrar que, até aquela época, os computadores não compartilhavam um cabo comum de conexão. Cada estação era ligada a outra numa distancia não superior a 2 metros. O pai da Ethernet é Robert Metcalfe, um dos gênios produzidos pelo MIT e por Harvard e fundador da 3Com.

Metcalfe era um dos pesquisadores do laboratório Parc, que a Xerox mantém até hoje em Palo Alto, na Califórnia. Em 1972, ele recebeu a missão de criar um sistema que permitisse a conexão das estações Xerox Alto entre si e com os servidores. A idéia era que todos os pesquisadores do Parc pudessem compartilhar as recém-desenvolvidas impressoras a laser.

Uma das lendas a respeito da criação da Ethernet é que Metcalfe e sua equipe tomaram por base um sistema desenvolvido por um casal de estudantes da universidade de Aloha, no Havaí. Utilizando um cabo coaxial, eles interligaram computadores em duas ilhas para poder conversar. O fato é que, antes de chamar-se Ethernet, a partir de 1973, o sistema de Metcalfe tinha o nome de Alto Aloha Network. Ele mudou a denominação, primeiramente para deixar claro que a Ethernet poderia funcionar em qualquer computador e não apenas nas estações Xerox. E também para reforçar a diferença em relação ao método de acesso CSMA (Carrier Sense Multiple Access) do sistema Aloha. A palavra ether foi uma referencia à propagação de ondas pelo espaço.

O sistema de Metcalfe acrescentou duas letras, CD (de Collision Detection) à sigla CSMA. Um detalhe importante, porque o recurso de detecção de colisão impede que dois dispositivos acessem o mesmo nó de forma simultânea. Assim, o sistema Ethernet verifica se a rede está livre para enviar a mensagem. Se não estiver a mensagem fica numa fila de espera para ser transmitida. A ethernet começou com uma banda de 2Mbps que permitia conectar 100 estações em até 1 quilometro de cabo.

No inicio, usava-se um cabo coaxial chamado yellow cable, de diâmetro avantajado. A topologia era um desenho de barramento (algo parecido com um varal) no qual o computador ia sendo pendurado. O conector desse sistema foi apelidado de vampiro, porque “mordia” o cabo em pontos determinados. Dali saia um cabo serial que se ligava à placa de rede. O yellow cable podia ser instalado no teto ou no chão, conectado ao cabo menor.
 

O MERCADO DA INFORMAÇÃO
 
A Ethernet não foi a única tecnologia de acesso para redes locais criada nessa época, mas certamente se tornou o padrão mais difundido, por sua simplicidade e eficiência, chegando a mais de 100 milhões de nós no mundo todo. As tecnologias Token Ring, da IBM, e a Arcnet, da Datapoint, chegaram a ter seus dias de gloria (esta ultima ainda é largamente empregada no Japão para processos de automação industrial), mas perderam terreno para a poderosa concorrente. O primeiro impulso para difusão do padrão Ethernet ocorreu quando a Digital, a Intel e a Xerox, em 1980 formaram um consorcio (DIX) para desenvolver e disseminar o padrão que rapidamente evoluiu de 2Mbps para 10Mbps.

O sistema Ethernet foi padronizado pelas especificações do IEEE (Instituto dos Engenheiros de Eletricidade e Eletrônica), órgão que, entre outras funções, elabora normas técnicas de engenharia eletrônica. O protocolo Ethernet corresponde à especificação 802.3 do IEEE, publicada pela primeira vez em 1985.

A conexão Ethernet utilizava, inicialmente, dois tipos de cabos coaxiais, um mais grosso (10 Base5) e outro mais fino (10 Base2). A partir de 1990, com o aumento da velocidade para 100Mbps, passou-se a usar o cabo de par trançado (10Base-T e 100Base-T), que tem a vantagem de ser mais flexível e de baixo custo. Com o advento da fibra ótica, o padrão Ethernet já esta em sua terceira geração. A Gigabit Ethernet, com velocidade de até 1Gbps.

Na década de 80, com a chegada dos computadores pessoais, as redes locais começaram a ganhar impulso. O mercado corporativo demandava soluções para compartilhar os elementos mais caros da infra-estrutura de TI (impressoras e discos rígidos). A Novell, uma empresa fundada por mórmons em Salt Lake City, no estado americano de Utah, desenvolveu em 1983, o sistema operacional NetWare para servidores, que usava o protocolo de comunicação IPX, mais simples que o TCP/IP. O protocolo rapidamente ganhou força e chegou a dominar 70% do mercado mundial até meados de 1993. A década de 80 foi marcada pela dificuldade de comunicação entres redes locais que e formavam e que eram vistas pelo mercado como ilhas de computadores com soluções proprietárias, como SNA, da IBM, DECnet, da Digital, NetWare, da Novell, e NetBIOS da Microsoft.

Esse problema fez com que um casal de namorados da universidade de Stanford, Sandra Lerner e Leonard Bosack, decidisse encontrar uma solução para que as redes locais de cada departamento da universidade pudessem conversar. Diz à lenda que a preocupação do casal, que mais tarde fundaria a Cisco, era trocar e-mails. E por isso inventaram o roteador, o equipamento que permitiu a conexão de duas redes normalmente incompatíveis.

A verdade é que eles não inventaram, mas aperfeiçoaram e muito o projeto inical de um engenheiro chamado Bill Yeager. O produto foi lançado comercialmente em 1987. A Cisco hoje vale Bilhões e o resto é Historia. O quebra-cabeça das redes começa a se fechar a partir do momento que a Arpanet, em 1983, passa a ser de fato a Internet, adotando definitivamente a família de protocolos TCP/IP. No ano seguinte, surge outra grande inovaçã o DNS (Domain Name System), mecanismo para resolver o problema de nome e endereços de servidores na rede. Com a criação da World Wide Web, em 1991, e o desenvolvimento do browser pelo fundador da Netscape, Marc Andreesen, a Internet deslanchou para se tornar a grande rede mundial de computadores.

A difusão do protocolo TCP/IP no mundo corporativo que passou a ser a linguagem universal dos computadores se deu a partir das plataformas Unix da Sun e da HP. Nos anos 90, as empresas já estavam empenhadas em usar a informática para melhorar o processo produtivo. O mercado começou a migrar de plataformas proprietárias para sistemas abertos. A questão não era tecnologia, mas economia. O sistema Unix tinha vários fornecedores, uma plataforma de desenvolvimento mais simples e mais versátil que os tradicionais mainframes. A pluralidade de plataformas passou a ser a regra nas empresas. Isso só foi possível porque os obstáculos à interligação de sistemas de diferentes fabricantes já haviam sido superados.

A EVOLUÇÃO

 
Em 1988, Dave Cutler, líder da equipe da Digital que havia criado o VMS, o arrojado sistema operacional do VAX, foi contratado pela Microsoft. A empresa já havia fracassado em uma tentativa anterior de competir com a Novell. Seu primeiro sistema operacional de rede, o LAN Manager, desenvolvido em conjunto com a IBM, não era páreo para o NetWare. Culter levou para lá boa parte da sua antiga equipe de programadores e também a filosofia que havia norteado a criação do VAX, de que a comunicação em rede deve ser um atributo básico do sistema operacional. Ele liderou o desenvolvimento do Windows NT, lançado em 1993. Com ele, a Microsoft finalmente conseguiu conquistar algum espaço nos servidores. O NT também foi base para o desenvolvimento do Windows 2000 e do Windows XP. De certa forma o Windows XP é neto do velho VMS.

Se, há 40 anos, a idéia de uma rede de computadores era a de vários aparelhos conectados, hoje a rede transformou-se numa dos principais meios de interação entre pessoas, de disseminação da informação e da realização de negócios. O radio levou 38 anos até formar um publico de 50 milhões de pessoas. A TV levou 13 anos. A Internet precisou apenas quatro anos para alcançar essa marca. É um salto e tanto para toda a humanidade.