UTILIZE A PESQUISA!

Diferença entre Worms, Vírus e Cavalo-de-Troia

As principais vulnerabilidade para estações de trabalho de usuário final são worms, vírus e ataques de cavalo-de-Troia.
Um worm executa código e instala cópias na memória do computador infectado, o que pode, por sua vez, infectar outros hosts.
Vírus é um software malicioso anexado a outro programa com a finalidade de executar uma determinada função indesejável em uma estação de trabalho.
Um cavalo-de-Troia é diferente de um worm ou vírus apenas porque todo o aplicativo foi escrito para ser semelhante a alguma coisa, quando, na verdade, é uma ferramenta de ataque.

Worms
A anatomia de um ataque de worm é a seguinte:
  • A vulnerabilidade de habilitação – um worm se instala, explorando vulnerabilidades conhecidas em sistemas, como usuários finais ingênuos que abrem anexos de executáveis não verificados em emails.
  • Mecanismo de propagação – depois de obter acesso a um host, um worm se copia para esse host e, em seguida, escolhe novos destinos.
  • Payload – depois que um host é infectado por um worm, o atacante tem acesso ao host, normalmente como um usuário privilegiado. Os atacantes poderiam utilizar uma exploração local para escalonar seu nível de privilégio até administrador.
Normalmente, worms são programas autossuficientes que atacam um sistema e tentam explorar uma vulnerabilidade específica no destino. Assim que houver a exploração bem-sucedida da vulnerabilidade, o worm copia seu programa do host de ataque para o sistema recém-explorado para começar tudo novamente. Em janeiro de 2007, um worm infectou a conhecida comunidade MySpace. Usuários confiáveis habilitaram a propagação do worm, que começou a se replicar nos sites dos usuários com a desfiguração "w0rm.EricAndrew".
A atenuação de ataques de worm exige diligência por parte da equipe administradora do sistema e de rede. A coordenação entre as equipes de administração do sistema, de engenharia da rede e das operações de segurança é essencial na resposta efetiva a um incidente de worm. Estas são as etapas recomendadas para a atenuação de ataques de worm:
  • Contenção – contenha a difusão do worm na rede e dentro dela. Isole as partes não infectadas da rede.
  • Inoculação – comece aplicando patches a todos os sistemas e, se possível, verificando se há sistemas vulneráveis.
  • Quarentena – monitore todas as máquina infectadas dentro da rede. Desconecte, remova ou bloqueie máquinas infectadas na rede.
  • Tratamento – Limpe e aplique um patch a todos os sistemas infectados. Alguns worms podem exigir reinstalações completas para limpar o sistema.
Vírus e cavalos-de-Troia
Vírus é um software malicioso anexado a outro programa para executar uma determinada função indesejável em uma estação de trabalho. Um exemplo é um programa anexado ao command.com (o interpretador principal de sistemas Windows) e exclui determinados arquivos, além de infectar todas as outras versões de command.com que conseguir localizar.
Um cavalo-de-Troia é diferente apenas porque todo o aplicativo foi escrito para ser semelhante a alguma coisa, quando, na verdade, é uma ferramenta de ataque. Um exemplo de um cavalo-de-Troia é um aplicativo que executa um simples jogo em uma estação de trabalho. Enquanto o usuário está ocupado com o jogo, o cavalo-de-Troia envia uma cópia para todos os endereços na agenda de endereços do usuário. Os outros usuários recebem o jogo e o executam, o que difunde o cavalo-de-Troia para os endereços em todas as agendas de endereços.
Um vírus normalmente exige um mecanismo de entrega – um vetor – como um arquivo zip ou algum outro arquivo executável anexado a um email, para transportar o código do vírus de um sistema para outro. O principal elemento que distingue um worm de um vírus de computador é essa interação humana necessária à facilitação da difusão de um vírus.
Esses tipos de aplicativos podem ser contidos por meio do uso efetivo de software antivírus no nível do usuário e, possivelmente, no nível da rede. Um software antivírus pode detectar a maioria dos vírus e muitos aplicativos de cavalo-de-Troia, além de impedir sua difusão na rede. Manter-se atualizado em relação aos desenvolvimento mais recentes quanto a esses tipos de ataques também pode levar a uma postura mais efetiva relacionada a esses ataques. Na medida em que novos vírus ou aplicativos de cavalo-de-Troia são liberados, as empresas precisam se manter atualizadas quanto às versões mais atuais do software antivírus.
Sub7, ou subseven, é um cavalo-de-Troia comum que instala um programa backdoor em sistemas de usuários. Ele é conhecido tanto por ataques não estruturados quanto estruturados. Por ser uma ameaça não estruturada, atacantes inexperientes podem utilizar o programa de forma que os cursores do mouse desapareçam. Como uma ameaça estruturada, os crackers podem utilizá-lo para instalar keystroke loggers (programas que registram todas as teclas pressionadas pelo usuário) para capturar informações confidenciais.

A História das Redes de Computadores

A HISTÓRIA
 
O primeiro experimento conhecido de conexão de computadores em rede foi feito em 1965, nos estados unidos, por obra de dois cientistas: Lawrence Roberts e Thomas Merril. A experiência foi realizada por meio de uma linha telefônica discada de baixa velocidade, fazendo a conexão entre dois centros de pesquisa em Massachusetts e na Califórnia. Estava plantada ali a semente para o que hoje é a Internet – mãe de todas as redes.

O nascimento das redes de computadores, não por acaso, esta associada a corrida espacial. Boa parte dos elementos e aplicações essenciais para a comunicação entre computadores, como o protocolo TCP/IP, a tecnologia de comutação de pacotes de dados e o correio eletrônico, estão relacionados ao desenvolvimento da Arpanet, a rede que deu origem a internet. Ela foi criada por um programa desenvolvido pela Advanced Research Projects Agency (ARPA) mais tarde rebatizada como DARPA.

A agencia nasceu de uma iniciativa do departamento de defesa dos estados unidos, na época preocupado em não perder terreno na corrida tecnológica deflagrada pelos russos com o lançamento do satélite Sputinik, em 1957. Roberts, acadêmico do MIT (Instituto de Tecnologia de Massachusetts), era um dos integrantes da DARPA e um dos pais da Arpanet, que começou em 1969 conectando quatro universidades: UCLA – Universidade da Califórnia em Los Angeles, Stanford, Santa Bárbara e Utah. A separação dos militares da Arpanet só ocorreu em 1983, com a criação da Milnet.

Alguns dos marcos importantes para a evolução das redes locais de computadores ocorreram nos anos 70. Ate a década anterior os computadores eram maquinas gigantescas que processavam informações por meio da leitura de cartões ou fitas magnéticas. Não havia interação entre o usuário e a maquina. No final dos anos 60 ocorreram os primeiros avanços que resultaram nos sistemas multiusuários de tempo compartilhado. Por meio de terminais interativos, diferentes usuários revezavam-se na utilização do computador central. A IBM reinava praticamente sozinha nessa época.

A partir de 1970, com o desenvolvimento dos minicomputadores de 32 bits, os grandes fabricantes, como IBM, HP e Digital, já começavam a planejar soluções com o objetivo de distribuir o poder de processamento dos mainframes e assim facilitar o acesso às informações. O lançamento do VAX pela Digital, em 1977, estava calcado numa estratégia de criar uma arquitetura de rede de computadores. Com isso, a empresa esperava levar vantagem sobre a rival Big Blue.

Quando um Vax era iniciado, ele já começava a procurar por outras maquinas para se comunicar, um procedimento ousado numa época em que poucas pessoas tinham idéia do que era uma rede. A estratégia deu certo e o VAX alcançou grande popularidade, principalmente em aplicações cientificas e de engenharia. Muitos anos depois, a Digital acabaria sendo comprada pela Compaq, que por sua vez, foi incorporada a HP. Mas as inovações surgidas com o VAX e seu sistema operacional, o VMS, teriam grandes influencias nos computadores que viriam depois.

O sistema operacional Unix, desenvolvido em 1969 nos laboratórios Bell, trouxe inovações que logo o tornou popular nas universidades e nos centros de pesquisa a partir de 1974. Era um sistema portável e modular, capaz de rodar em vários computadores e evoluir junto com o hardware. Os sistemas operacionais da época eram escritos em assembly, linguagem especifica para a plataforma de hardware. O Unix foi escrito quase totalmente em C, uma linguagem de alto nível. Isso deu a ele uma inédita flexibilidade. No começo da década, ferramentas importantes foram criadas para o Unix, como o e-mail, o Telnet, que permitia o uso de terminais remotos, e o FTP, que se transformou no padrão de transferência de arquivos entre computadores em rede. Foi essa plataforma que nasceu a maior parte das tecnologias que hoje formam a Internet.


ETHERNET

Um dos principais saltos tecnológicos que permitiram a popularização das redes foi o desenvolvimento da tecnologia ethernet. Para se ter uma ideia do avanço que essa invenção representou, basta lembrar que, até aquela época, os computadores não compartilhavam um cabo comum de conexão. Cada estação era ligada a outra numa distancia não superior a 2 metros. O pai da Ethernet é Robert Metcalfe, um dos gênios produzidos pelo MIT e por Harvard e fundador da 3Com.

Metcalfe era um dos pesquisadores do laboratório Parc, que a Xerox mantém até hoje em Palo Alto, na Califórnia. Em 1972, ele recebeu a missão de criar um sistema que permitisse a conexão das estações Xerox Alto entre si e com os servidores. A idéia era que todos os pesquisadores do Parc pudessem compartilhar as recém-desenvolvidas impressoras a laser.

Uma das lendas a respeito da criação da Ethernet é que Metcalfe e sua equipe tomaram por base um sistema desenvolvido por um casal de estudantes da universidade de Aloha, no Havaí. Utilizando um cabo coaxial, eles interligaram computadores em duas ilhas para poder conversar. O fato é que, antes de chamar-se Ethernet, a partir de 1973, o sistema de Metcalfe tinha o nome de Alto Aloha Network. Ele mudou a denominação, primeiramente para deixar claro que a Ethernet poderia funcionar em qualquer computador e não apenas nas estações Xerox. E também para reforçar a diferença em relação ao método de acesso CSMA (Carrier Sense Multiple Access) do sistema Aloha. A palavra ether foi uma referencia à propagação de ondas pelo espaço.

O sistema de Metcalfe acrescentou duas letras, CD (de Collision Detection) à sigla CSMA. Um detalhe importante, porque o recurso de detecção de colisão impede que dois dispositivos acessem o mesmo nó de forma simultânea. Assim, o sistema Ethernet verifica se a rede está livre para enviar a mensagem. Se não estiver a mensagem fica numa fila de espera para ser transmitida. A ethernet começou com uma banda de 2Mbps que permitia conectar 100 estações em até 1 quilometro de cabo.

No inicio, usava-se um cabo coaxial chamado yellow cable, de diâmetro avantajado. A topologia era um desenho de barramento (algo parecido com um varal) no qual o computador ia sendo pendurado. O conector desse sistema foi apelidado de vampiro, porque “mordia” o cabo em pontos determinados. Dali saia um cabo serial que se ligava à placa de rede. O yellow cable podia ser instalado no teto ou no chão, conectado ao cabo menor.
 

O MERCADO DA INFORMAÇÃO
 
A Ethernet não foi a única tecnologia de acesso para redes locais criada nessa época, mas certamente se tornou o padrão mais difundido, por sua simplicidade e eficiência, chegando a mais de 100 milhões de nós no mundo todo. As tecnologias Token Ring, da IBM, e a Arcnet, da Datapoint, chegaram a ter seus dias de gloria (esta ultima ainda é largamente empregada no Japão para processos de automação industrial), mas perderam terreno para a poderosa concorrente. O primeiro impulso para difusão do padrão Ethernet ocorreu quando a Digital, a Intel e a Xerox, em 1980 formaram um consorcio (DIX) para desenvolver e disseminar o padrão que rapidamente evoluiu de 2Mbps para 10Mbps.

O sistema Ethernet foi padronizado pelas especificações do IEEE (Instituto dos Engenheiros de Eletricidade e Eletrônica), órgão que, entre outras funções, elabora normas técnicas de engenharia eletrônica. O protocolo Ethernet corresponde à especificação 802.3 do IEEE, publicada pela primeira vez em 1985.

A conexão Ethernet utilizava, inicialmente, dois tipos de cabos coaxiais, um mais grosso (10 Base5) e outro mais fino (10 Base2). A partir de 1990, com o aumento da velocidade para 100Mbps, passou-se a usar o cabo de par trançado (10Base-T e 100Base-T), que tem a vantagem de ser mais flexível e de baixo custo. Com o advento da fibra ótica, o padrão Ethernet já esta em sua terceira geração. A Gigabit Ethernet, com velocidade de até 1Gbps.

Na década de 80, com a chegada dos computadores pessoais, as redes locais começaram a ganhar impulso. O mercado corporativo demandava soluções para compartilhar os elementos mais caros da infra-estrutura de TI (impressoras e discos rígidos). A Novell, uma empresa fundada por mórmons em Salt Lake City, no estado americano de Utah, desenvolveu em 1983, o sistema operacional NetWare para servidores, que usava o protocolo de comunicação IPX, mais simples que o TCP/IP. O protocolo rapidamente ganhou força e chegou a dominar 70% do mercado mundial até meados de 1993. A década de 80 foi marcada pela dificuldade de comunicação entres redes locais que e formavam e que eram vistas pelo mercado como ilhas de computadores com soluções proprietárias, como SNA, da IBM, DECnet, da Digital, NetWare, da Novell, e NetBIOS da Microsoft.

Esse problema fez com que um casal de namorados da universidade de Stanford, Sandra Lerner e Leonard Bosack, decidisse encontrar uma solução para que as redes locais de cada departamento da universidade pudessem conversar. Diz à lenda que a preocupação do casal, que mais tarde fundaria a Cisco, era trocar e-mails. E por isso inventaram o roteador, o equipamento que permitiu a conexão de duas redes normalmente incompatíveis.

A verdade é que eles não inventaram, mas aperfeiçoaram e muito o projeto inical de um engenheiro chamado Bill Yeager. O produto foi lançado comercialmente em 1987. A Cisco hoje vale Bilhões e o resto é Historia. O quebra-cabeça das redes começa a se fechar a partir do momento que a Arpanet, em 1983, passa a ser de fato a Internet, adotando definitivamente a família de protocolos TCP/IP. No ano seguinte, surge outra grande inovaçã o DNS (Domain Name System), mecanismo para resolver o problema de nome e endereços de servidores na rede. Com a criação da World Wide Web, em 1991, e o desenvolvimento do browser pelo fundador da Netscape, Marc Andreesen, a Internet deslanchou para se tornar a grande rede mundial de computadores.

A difusão do protocolo TCP/IP no mundo corporativo que passou a ser a linguagem universal dos computadores se deu a partir das plataformas Unix da Sun e da HP. Nos anos 90, as empresas já estavam empenhadas em usar a informática para melhorar o processo produtivo. O mercado começou a migrar de plataformas proprietárias para sistemas abertos. A questão não era tecnologia, mas economia. O sistema Unix tinha vários fornecedores, uma plataforma de desenvolvimento mais simples e mais versátil que os tradicionais mainframes. A pluralidade de plataformas passou a ser a regra nas empresas. Isso só foi possível porque os obstáculos à interligação de sistemas de diferentes fabricantes já haviam sido superados.

A EVOLUÇÃO

 
Em 1988, Dave Cutler, líder da equipe da Digital que havia criado o VMS, o arrojado sistema operacional do VAX, foi contratado pela Microsoft. A empresa já havia fracassado em uma tentativa anterior de competir com a Novell. Seu primeiro sistema operacional de rede, o LAN Manager, desenvolvido em conjunto com a IBM, não era páreo para o NetWare. Culter levou para lá boa parte da sua antiga equipe de programadores e também a filosofia que havia norteado a criação do VAX, de que a comunicação em rede deve ser um atributo básico do sistema operacional. Ele liderou o desenvolvimento do Windows NT, lançado em 1993. Com ele, a Microsoft finalmente conseguiu conquistar algum espaço nos servidores. O NT também foi base para o desenvolvimento do Windows 2000 e do Windows XP. De certa forma o Windows XP é neto do velho VMS.

Se, há 40 anos, a idéia de uma rede de computadores era a de vários aparelhos conectados, hoje a rede transformou-se numa dos principais meios de interação entre pessoas, de disseminação da informação e da realização de negócios. O radio levou 38 anos até formar um publico de 50 milhões de pessoas. A TV levou 13 anos. A Internet precisou apenas quatro anos para alcançar essa marca. É um salto e tanto para toda a humanidade.

Protegendo o seu Sinal Wireless

Provavelmente o seu sinal wireless tem uma abrangência suficiente para conectar todos os dispositivos habilitados para a Web em sua casa, mas você sabe quem realmente está usando? Se você mora em uma casa no meio do nada, você é provavelmente o único a usar o roteador sem fio. Se você mora em uma área urbana, um prédio de apartamentos ou em qualquer casa com uma rua em frente, as pessoas poderiam estar roubando o seu sinal wireless.

Quem Rouba Sinal Wireless?
Alguns ladrões de wireless são simplesmente oportunistas. Seu vizinho possui um notebook e encontra sua rede sem fio desprotegida. Ele começa a enviar e-mail e visitar seus sites favoritos. Por que pagar por sua própria conexão quando ele tem o seu de graça? Se você vive perto de um café ou restaurante, as pessoas poderiam usar seu sinal wireless, pensando que é gratuito.

Usuários como este geralmente não representam uma ameaça aos seus dados, mas alguns deles poderiam deixá-lo com malware e vírus em sua rede. Se o seu provedor de Internet cobra pelo seu uso mensal de dados, você vai acabar pagando por tudo o exeder o seu limite de banda da internet.
O segundo tipo de ladrão sem fio é muito mais malicioso. Esta é a pessoa que procura ativamente as redes sem fio desprotegidas, em seguida, usa-los para carregar vírus, download de conteúdo ilegal ou roubar suas informações pessoais. Se os vizinhos são formigas em um piquenique, essas pessoas são as vespas, e você é alérgico. Uma vez que alguém tem acesso à sua rede sem fio, eles têm acesso a todos os computadores nele. Um hacker motivado pode descobrir rapidamente suas senhas e começar a roubar informações pessoais que podem ser usados para roubo de identidade.

Protegendo o seu Wireless e sua Rede
A primeira regra para se lembrar é que o sinal sem fio não termina na sua porta. Dependendo do tipo de roteador que você tem, o seu sinal sem fio pode estar disponível até 300 metros de distância de sua casa. Se você mora em um apartamento ou condomínio, suponha que todos no prédio tem acesso à sua rede. Manter usuários não autorizados fora necessidades a ser sua primeira prioridade.

Felizmente, o roteador sem fio foi construído com recursos de segurança para manter os usuários perigosas distância. Esses recursos só funcionam se você usá-los corretamente, então siga essas dicas sempre que instalar um novo roteador, e vê-los fora de uma instalação existente:

  • Altere as configurações padrão. Cada roteador tem senhas de fábrica-estabelecidos como parte das configurações de segurança padrão. Adivinhem? Hackers conhecem essas senhas padrão. O primeiro passo para a segurança da rede sem fio deve estar a mudar as senhas.
  • Altere o SSID do router. Um SSID ou Service Set Identifier, é o nome dado a uma rede. É como o nome de sua cidade natal, uma referência comum que todos os dispositivos de uma rede utilizam para saber onde eles estão. A maioria dos roteadores tem um nome de rede padrão definido na fábrica. Mudá-lo quando você alterar as senhas padrão; hackers veem nomes SSID predefinido como um sinal de falta de segurança de rede.
  • Desligue SSID Broadcasting. Algumas redes podem relatar a disponibilidade do seu wireless em poucos segundos. Isso é ótimo para as empresas e as bibliotecas que oferecem redes sem fio, porque ele alerta o computador para a presença da rede. Em casa, você não precisa dele. Você sabe que a rede está lá. Difundir o SSID é dizendo a todos nas proximidades que ele está lá, e você não quer que todo mundo sabendo disso.
  • Use filtragem de endereços MAC. Esta é uma opção de segurança que muitos usuários domésticos ignoram, porque essa implementação é demorada, mas é também uma das medidas de segurança mais fortes disponíveis. Cada dispositivo eletrônico tem um único endereço MAC, que funciona como uma impressão digital pessoal. Quando a filtragem é ativada, você fornecer os endereços MAC para os computadores, impressoras, sistemas de jogos de vídeo, etc., que podem se conectar à sua rede. Todos os outros dispositivos serão bloqueados. Pense nisso como uma lista VIP para uma festa privada.
  • Use endereços de IP estáticos. Por padrão, roteadores sem fio são definidas para usar endereços IP dinâmicos, ou DHCP. Isso torna mais fácil para os dispositivos para se conectar à sua rede quando você ativá-los, mas também permite que qualquer pessoa possa descobrir a sua gama DHCP para entrar em sua rede. É melhor atribuir um endereço IP estático para cada dispositivo que você deseja se conectar. Trabalhando em conjunto com a filtragem de endereços MAC, isso vai manter os usuários não autorizados fora de sua rede.
  • Ative criptografia. WAP e WEP são as duas formas mais comuns de criptografia usados em roteadores domésticos. Essas ferramentas embaralham os dados que viajam através da rede, permitindo que ele seja lido apenas por dispositivos que possuam a chave de criptografia. Lembre-se que cada vez que você usar a sua rede sem fio, os dados são enviados como um sinal de rádio. Um hacker com as ferramentas certas pode interceptar o sinal e roubar suas informações pessoais, sem nunca fazer logon em sua rede. Criptografia impede que seus dados possam ser lidos, mesmo se alguém está interceptando seus sinais.
  • Monitore sua rede. Os roteadores sem fio pode ser configurado para alertá-lo cada vez que um dispositivo tenta se conectar à sua rede. Ative este recurso e mantenha ele ativo, de modo que você vai saber se os usuários não autorizados estão tentando entrar.

Adaptado de: Life123

Shellshock: falha de segurança grave no Bash

Foi descoberta uma perigosa falha de segurança grave no Bash.
O Bash é o shell padrão em muitos sistemas operacionais baseados em Unix, o que inclui distribuições Linux e o OS X. Red Hat, CentOS, Ubuntu e Debian já ganharam correções de segurança. Para descobrir se uma máquina é afetada, basta rodar o seguinte comando no terminal:
env x='() { :;}; echo vulnerável' bash -c "echo teste"
Se a palavra “vulnerável” aparecer, isso significa que a máquina está… vulnerável. Caso contrário, o Bash retornará uma mensagem de erro.
 
Como pode-se perceber na imagem acima, o computador está vulnerável. 

 
Como pode-se perceber na imagem acima o computador não está vulnerável.

Quando explorada, a falha permite que um código malicioso seja executado assim que o shell é aberto, o que deixa a máquina exposta a uma série de ataques. E inúmeros softwares interagem com o shell de diferentes maneiras — ele é frequentemente usado pelo Apache para gerar páginas dinâmicas, por exemplo, e a brecha também pode ser explorada por meio do OpenSSH, como informa o Ars Technica.
Pesquisadores dizem que a falha deve continuar “por anos”. As principais distribuições Linux já corrigiram o problema, e a Apple deve soltar uma atualização de segurança para o OS X, mas há inúmeros outros dispositivos que usam sistemas operacionais baseados em Unix e o Bash — como eletrônicos portáteis, câmeras conectadas à internet e muitas, muitas outras coisas (talvez até o seu roteador). Não é como se somente os administradores de sistemas tivessem que se preocupar com isso.

Extraído de tecnoblog

O que é e como funciona a 4G?

O sistema de telefonia e internet móvel vêm evoluindo rapidamente, bom seria se sua aplicação também fosse tão rápida quanto a evolução, pois, em várias regiões do país a 3ª geração ainda é desconhecida. Com a nova tecnologia, assistir vídeos e programas de TV no seu smartphone enquanto você está caminhando pelas ruas não será um problema, sem falar na possibilidade de fazer streamings e chamadas de vídeo em tempo real com seus amigos, sem ter os problemas de conexão constantes da internet móvel tradicional que temos.

O que é?

4G é a sigla que define a quarta geração de telefonia móvel, sucessora da segunda e terceira geração, ela funciona com a tecnologia LTE (Long Term Evolution) - que é uma tecnologia de transmissão de dados baseada na tecnologia WCDMA e GSM, porém, já que atualmente a transmissão de dados é bem mais comum que a transmissão de voz, a tecnologia 4G da prioridade a dados de internet, mas, claro, não descarta a ideia de que ainda podemos fazer ligações por voz.
A tecnologia LTE não é a única que pode ser considerada como uma tecnologia 4G, também temos a WiMAX, que foi criado por um grupo de indústrias conhecido como WiMAX Forum cujo objetivo é promover a compatibilidade e inter-operabilidade (funciona em sistemas Linux) entre equipamentos baseados no padrão IEEE 802.16.

O que melhorou?

Por ter como prioridade o trafego de dados, a rede seria com toda certeza mais rápida e estável, inclusive, quando a LTE foi criada, nem ao menos existia possibilidade de tráfego de voz, o que obrigaria as operadoras a adaptarem a mesma para isso.
Em testes realizados por pesquisadores, a tecnologia LTE chegou a uma velocidade de transferência de dados a 20 MHz de 300 Mbps do downstream e 75 Mbps de upstream, claro, os testes foram realizados em laboratório, o que maximiza sua potência, a velocidade real de navegação fica entorno de 100 Mbps de download e 50 Mbps de upload e uma latência (PING) de no máximo 30 ms (milissegundos).
Além de ser mais barata, mais rápida e com uma cobertura bem mais estruturada, a tecnologia LTE a 700MHz pode sustentar de 300 a 400 acessos simultâneos a rede de trafego de dados, o que é praticamente o dobro da quantidade que a as tecnologias 3G suportam.

Aplicação das redes 4G no Brasil

Mais de 30 países já contam com o funcionamento da 4ª geração de telefonia móvel, e aos poucos outros países estarão aderindo à mesma. No Brasil, alguns problemas estão sendo enfrentados quanto as antenas de distribuição, a frequência recomendada e usada por modelos de aparelhos americanos, é a de 700MHz (700 mega-hertz), pois antenas com essa frequência se tornam mais baratas e tem um ótimo alcance, no entanto, essa frequência já está sendo usada por canais de TV aberta em nosso país, tornando impossível a ocupação de dois serviços totalmente diferentes.
Tal problema já parece estar sendo resolvido, e até 2018 as redes 4G que estiverem instaladas no país estarão operando em 700MHz, mas, em qual frequência que as antenas 4G que o Brasil já tem estão operando? No momento, a quarta geração de telefonia móvel opera em nosso país na faixa de 2,5GHz, o que torna o alcance das antenas muito menor do que poderiam ser em 700MHz, obrigando a fabricação e implantação de um número bem maior de antenas e consequentemente, gerando um gasto bem maior.
Em resumo podemos dizer que no Brasil quando você tem uma internet 4G possui  apenas uma internet 3G  um pouco melhor.

Protocolo Bootp

O Bootp (Bootstrap Protocol) é um protocolo obsoleto, cuja ideia central é poder fornecer  ao cliente TCP/IP  um endereço IP. Este processo era comumente usado por estações diskless (sem disco), na aquisição de endereço IP. Posteriormente este processo era comum para estações de trabalho com disco e geralmente com um sistema operacional, como o Windows 2000 Professional. Atualmente este processo é realizado pelo DHCP.

Seu processo acontece basicamente na seguinte forma:

1. A estação é ligada, e um broadcast Bootp é enviado para a rede.
2. O servidor Boot ouve a requisição e verifica o endereço MAC do cliente no arquivo Bootp.
3. Se a entrada adequada for encontrada ele responde para  a estação dizendo qual o endereço IP dela. Geralmente esse processo acontece com o uso do TFTP.