sexta-feira, 14 de março de 2014

Fibra Óptica ou Cabo de Cobre?


A fibra óptica é um filete de vidro ou plástico que guia a luz, mesmo quando curvado (há um limite para essa curvatura). Esse filete é chamado de núcleo da fibra e possui um diâmetro de 9 µm (nove milionésimos de metro) para a fibra do tipo monomodo e 62,5 µm ou 50 µm para as fibras do tipo multimodo.

Uma casca (cladding) em torno do núcleo ajuda a manter a luz confinada no núcleo, mesmo nas curvas. Uma proteção, um elemento estrutural e a capa, normalmente de PVC, completam a estrutura do cabo.

A pergunta sobre o que é melhor usar, fibra óptica ou cobre, sempre surge ao se discutir com o cliente um projeto de rede interna, principalmente quando o porte, ultrapassa, digamos, dois mil pontos de rede.

Normalmente, por traz da pergunta está a questão do custo.

Há uma tendência em se comparar apenas os preços dos cabos de fibra óptica e cobre, o que pode levar a uma avaliação equivocada da melhor solução, já que a diferença do preço por metro das duas alternativas não é muito grande.

De fato há vantagens para a transmissão em fibra óptica em relação ao cabo de cobre, que são:

Maior velocidade de Transmissão De Dados;
Permite enlace com maior distância;
É imune a interferências eletromagnéticas externas;
Não gera ruído eletromagnético para o ambiente;
Isola eletricamente os dois equipamentos interligados;
Menor consumo de energia nos equipamentos ativos.
A visão da melhor solução somente fica clara com uma análise global, que considere o cabeamento, a topologia, os equipamentos ativos e as particularidades da edificação, como sua finalidade, arquitetura, ocupação, etc.
É preciso avaliar a relação benefício/custo sempre com foco no negócio do proprietário. As vantagens de cada tipo de cabo (benefício), os respectivos custos e os requisitos do proprietário, estabelecem os cenários a serem considerados.

Um enlace de fibra óptica pode custar R$ 1.000,00 a mais que um enlace de cobre, quando se considera também o custo dos equipamentos ativos, interfaces, conectores e serviços.

Além dos aspectos citados, as várias classificações tanto do cabo óptico (OM1, OM2, OM3 e OM4) quanto do cabo em par trançado de cobre (categoria 5e, categoria 6, categoria 6A) devem ser adequadamente consideradas no projeto a fim de realmente chegar perto da solução de melhor relação benefício/custo.

Quando se considera o uso de fibra óptica, sob a ótica do cabeamento estruturado, o profissional está focado na parte de transmissão de dados e voz, normalmente sob a forma digital. Entretanto outros subsistemas, como CFTV, CATV e áudio adicionam variáveis que não contempladas.

A metodologia OSD, “One Shot Design”, por buscar a solução integrada contemplando todos os subsistemas, invariavelmente leva a uma solução melhor.

Artigo postado originalmente em fabiomontoro.blogspot.com.br
[Crédito da Imagem: Fibra Óptica - ShutterStock]

A realidade da TI nas Micro e Pequenas Empresas




Dos mais de 6 milhões de empresas no Brasil, 99% é formado por Micro e Pequenas empresas (MPe), no qual representa em torno de 20% do PIB. Estas empresas realmente utilizam Tecnologia da Informação? A TI nestas empresas são estruturadas (quando existe)? A TI está alinhada com o negócio da empresa? A TI trabalha de forma proativa? Existe planejamento e investimento em melhorias? Os gestores conhecem seus riscos? Enfim, centenas de perguntas podem ser feitas para analisar o nível de maturidade nas empresas em relação à TI.

Muito se tem apresentado em relação a governança de TI (COBIT), boas práticas de gestão e serviços (ITIL, ISO 20000), segurança da informação (ISO 27000), gerenciamento de projetos (Guia PMBOK), desenvolvimento de Software (SCRUM), gerenciamento de riscos (ISO 31000), entre outras, que quando aplicadas e utilizadas nas organizações geram benefícios, melhorias, direcionamentos estratégicos, maturidade nos processos, planejamentos, transparência, entre outras vantagens.

A questão é que a maioria das MPe, e até algumas de médio porte, utilizam a TI somente como um ponto de suporte para as operações, ou seja, a TI é tratada como uma área secundária e não estratégica para a empresa. Normalmente estas empresas não possuem firewall de perímetro, antivírus corporativo, sistema de backup, controle de navegação, política de segurança da informação, documentação do ambiente, relatório de riscos, planejamento de investimento, servidores corporativos, entre outra situações que são primordiais nos dias atuais. Digo primordiais pelo simples fato de que 99% dos processos e operações de uma organização são executados através do meio digital ou gerados e suportados através de alguma tecnologia.

Mesmo em ambientes simples com poucos usuários e computadores, faz-se necessário ter uma estrutura de TI, já que os riscos de infeção de vírus, ataques, vazamento de informação, paralisação dos sistemas, indisponibilidades, perda de informações, etc, irão impactar 100% o negócio da empresa, gerando prejuízos (financeiros, imagem, reputação), cancelamento de contratos, usuários parados, clientes descontentes e outros.

É comum observar os gestores e diretores alegarem que não possuem recursos para investir em TI, no entanto, qualquer incidente (restaurar uma informação ou banco de dados, paralisação da rede através de pragas virtuais, indisponibilidade para gerar e transmitir a NF-e, etc) irá impactar o negócio e causar prejuízos para a organização, e quando isso ocorre uma das primeiras ações do(s) gestor(es) é adquirir algum produto ou serviço que para corrigir o problema e minimizar a recorrência destes riscos.

A situação apresentada no parágrafo anterior retrata o cenário que chamados de TI Reativa ou “Apaga Incêndio“, no qual a equipe trabalha para resolver incidentes e manter o ambiente mais operacional e disponível possível. O ponto chave é que sempre que ocorrer um incidente que impacte a operação e negócio da empresa, mais caro ficará para recuperar e normalizar a operação se comparado a um investimento proativo, que reduziria ou eliminaria as chances do incidente surgir.

Para os profissionais de TI, ou gestores que se enquadrarem nesta realidade que retratei no artigo, quee não sabem como melhorar o ambiente de TI, seguem alguns conselhos:

Soluções open source: É possível instalar e configurar um firewall de perímetro sem custo de software e licenciamento, sendo somente necessário um hardware. Um exemplo é o PFSense, que é um firewall muito interessante e com recursos de controle de navegação, configuração de regras de filtragem, VPN, entre outros que, se configurados corretamente, irão aumentar a segurança da informação e controle dos dados trafegados entre a empresa e o ambiente externo.
Antivírus: Não recomendo em ambiente corporativo o uso de soluções grátis quando o assunto é antivírus, visto que a eficiência, detecção, combate a pragas virtuais, recursos e funcionalidades do produto não se compara em relação aos antivírus corporativos. Com um investimento de menos de R$ 15 reais por estação ao mês já é possível instalar um antivírus de mercado que irá combater os vírus, malwares, trojans e downloads com eficiência, gerando maior segurança ao ambiente e diminuindo as chances de paralisações e impacto por pragas virtuais.
Parceiros: Buscar parceiros especializados em soluções de TI, seja banco de dados, firewall, antivírus, segurança da informação, backup, gestão de riscos, ERP, processos, entre outros. Esta é uma questão importante para as organizações, visto que estes parceiros possuem experiência de mercado e benchmarking para apoiar nos projetos e demandas realizando um trabalho que seja aderente e compatível com o valor de investimento disponibilizado pelas organizações.
Software de Service Desk: É recomendado que empresas possuam um software para registar, classificar, acompanhar e fechar os incidentes, solicitações e mudanças que ocorrem diariamente. Se a TI não possui um software deste, provavelmente não existe um padrão e critérios para atendimento dos chamados, prioridade, evidências, registro das operações, comunicação com o usuário, entre outros fatores essenciais para um bom gerenciamento de serviços de TI. Mais uma vez, existem softwares open source que podem realizar este papel, tal como o SpiceWorks.
Planejamento: Criar um planejamento das atividades que devem ser realizadas na semana ou no mês, tais como, atualizações do Sistema Operacional nas estações e servidores, configuração da impressora na rede, instalação de um novo aplicativo, analise e correção do backup, checagem da garantia dos servidores e estações, orçamento de novas aquisições, entre outras, irá facilitar a gestão e direcionamento para realizar as atividades e evitar o esquecimento ou prioridade em atividades mais novas.
Investimentos: Quando o assunto é TI é inevitável não tratar de investimentos, já que computadores ficam ultrapassados, sistemas ficam obsoletos (tal como no caso do Windows XP e Office 2003 que não receberão mais suporte e atualizações a partir de Abril de 2014), novas demandas surgem das áreas de negócio, manutenção do ambiente de TI, renovação de garantia e contratos, enfim, o investimento em TI faz parte de qualquer empresa. Diante deste fato é importante montar um planejamento estratégico com os investimentos necessários (renovação garantia, contratos, suporte, software, etc…), investimento de melhoria (aquisição antivírus, aquisição servidores, serviços de TI, novas licenças do ERP, novo link de Internet, entre outros) e, em cima de cada ponto destacado no plano de investimento, apontar os riscos inerentes, impacto para o negócio, melhorias que proporcionarão, benefícios dos novos recursos - traduzidos para linguagem de negócio para apresentação a alta direção, visto que somente assim, a alta direção irá entender o porquê de tal investimento e quais benefícios serão gerados para a organização.
Para finalizar o artigo, o intuito foi apresentar algumas formas que o profissional de TI ou gestores podem estar utilizando para melhorar o ambiente de TI e consequentemente a operação, disponibilidade, segurança nas organizações. Uma última dica é realizar reuniões regulares com gestores, pessoas chaves, diretores para ouvir deles como anda a TI, o que eles esperam, qual ponto está gerando descontentamento, o que pode ser melhorado, quais as expectativas deles em relação a TI, verificar se existe algum projeto ou plano estratégico no qual irá precisar de recursos de TI. Desta forma além de mostrar proatividade é possível estar integrado com o que ocorre na empresa conseguindo alinhar um pouco mais a TI ao Negócio.

[Crédito da Imagem: Pequenas e Médias Empresas - ShutterStock]

A Rede Interna e os Provedores de Internet


Como duas redes internas se conectam por meio da Internet?

Sua casa, seu escritório ou uma grande corporação como a Petrobrás ou o Facebook são semelhantes nesse aspecto: todos possuem uma rede interna.

A Internet é um grande conglomerado de provedores de serviço (ISP = Internet Service Provider) interligados, aos quais estão conectadas as redes internas e os dispositivos móveis. Cada provedor possui uma rede própria chamada de Sistema Autônomo (AS = Autonomous System).

A conexão de uma rede interna a um provedor se dá por meio de um acesso de dados, físico ou via rádio, por meio de um equipamento chamado de “roteador de saída” ou “gateway”.
Pela figura vemos que a Rede Interna “A” contratou o Provedor “2” e a Rede Interna “B” contratou o Provedor “3”.

O gateway da rede interna se liga a um dos roteadores do provedor (em vermelho na figura). A partir desse ponto, os dados dessa rede interna podem alcançar qualquer outra rede interna passando por um ou mais ISPs.


O sistema de endereçamento que permite o encaminhamento correto dos dados para o local desejado é parte do protocolo TCP/IP, utilizado pela Internet, onde cada interface física de qualquer equipamento deve ter um endereço IP que a identifique perante a rede.
O endereço IP é formado por quatro números decimais, separados por pontos, que podem ir de zero a 255 (exemplo: 192.168.12.86), representando um único número binário de 32 bits.
Há dois tipos de endereço IP:
  •         Endereço interno (privado)
Somente pode ser utilizado na rede interna. O protocolo IP define três faixas de endereços especialmente reservados para endereçamentos internos, ou seja, o técnico ao ver o endereço IP sabe se é interno ou externo. Desta forma esses endereços podem se repetir em várias redes internas.
  •         Endereço externo (público)
Para ser utilizado na rede externa. Cada endereço IP é único na Internet. Ele identifica exatamente o destinatário.
Quando se contrata um provedor para que a rede interna tenha acesso ao mundo, esse provedor fornece um endereço IP externo que será o endereço externo do gateway (roteador). Cada provedor tem uma cota de endereços para distribuir a seus clientes.
Há duas formas de o provedor atribuir esse endereço IP:
  •         Fixo
O endereço é sempre o mesmo. Uma vez atribuído não muda mais. A vantagem é que essa rede interna pode gerar algum serviço para a Internet, já que possui um endereço fixo e pode ser encontrada sempre no mesmo “lugar”.
  •         Variável (dinâmico)
O provedor muda o endereço segundo alguma regra dele. Desta forma não há como gerar conteúdo. Um exemplo é quando a localidade deve ser encontrada para fornecer a imagem de uma câmera de vídeo monitoramento. Não há como encontrar a câmera, já que o endereço muda sempre, mas há um serviço de caixa postal, disponível na Internet, que serve de intermediário: o usuário entra em contato com a caixa postal (que possui endereço fixo) que, por sua vez, sabe o endereço da câmera porque fica o tempo todo “perguntando” a ela.  Um exemplo de caixa postal é o DynDNS. Alguns sistemas avançados, como o SIGView da Rhox, também executam essa função.  Esse artifício supera o problema, mas não garante o perfeito desempenho.
O endereço completo de comunicação entre dois pontos usando o protocolo TCP/IP (como é o caso da Internet) é formado por duas partes: IP (32 bits) e TCP (16 bits). Fazendo uma comparação rústica, é como se o endereço IP fosse o endereço de um hotel e oendereço TCP o número da porta do quarto.
Quando um aplicativo da rede interna quer se comunicar com o mundo externo, seu endereço interno deve ser traduzido para endereço externo (público). Esta função é executada pelo roteador. Assim, uma rede interna com um único endereço IP pode ter 64.000 conexões externas, usando o endereço completo com o IP externo.
Segundo a Nation Master atualmente há 12.773 provedores no mundo. Os Estados Unidos lideram, com mais de 50%. Segundo esse mesmo site, há 50 provedores no Brasil.
Outro dado interessante, mas aparentemente desatualizado, fornecido pela Nation Master é a velocidade média de acesso por habitante: o líder é a Dinamarca, com 34,9 Mbps para cada grupo de mil habitantes. Os Estados Unidos está em 23º lugar, com 3,3 Mbps (10 vezes menor que a Dinamarca) e o Brasil, com 149 kbps para cada grupo de mil habitantes, nos coloca na 70º posição do rank.
Artigo publicado originalmente em fabiomontoro.blogspot.com.br
[Crédito da Imagem: Internet - ShutterStock]

Em 38% das casas do país, ao menos 1 pessoa acessa a web pelo celular


Em mais de um terço dos domicílios do país (38,1%), ao menos uma pessoa acessa a internet através do telefone celular, aponta pesquisa divulgada nesta quinta-feira (13) pelo Instituto de Pesquisa Econômica Aplicada (Ipea).

O estudo mostra ainda que 40,8% das residências possuem acesso à internet e que 68% dos usuários afirmam utilizar o serviço diariamente. A pesquisa "Sistema de Indicadores de Percepção Social: serviços de telecomunicação” ouviu moradores de 3.810 domicílios sobre temas como telefonia fixa, celular, acesso à internet, TV por assinatura e TV aberta. Segundo o Ipea, a margem de erro geral em nível nacional é de 1,34%.

No que diz respeito ao tipo de acesso à web, 32,8% afirmaram que se conectam via infraestrutura de TV a cabo, 23% via telefonia fixa e 18,3% via modem de telefonia móvel. Outros 10,6% se conectam através de banda larga via satélite, 10,2% por banda larga via rádio, 1,5% via linha discada e 3,6% por outros meios.
Os principais motivos apontados para a não contratação de serviços de acesso à internet pelos entrevistados foram: não possuir computador (59,6%), não ter condições de pagar o acesso (14,1%), não ter necessidade/interesse (8,7%) e não saber utilizar (4,3%).

O levantamento mostra que o computador está presente em 48,1% domicílios. Entre os que não possuem o aparelho, 34% dos entrevistados responderam que pagariam entre R$ 300 e R$ 800 pelo equipamento. Outros 29,3%, porém, declararam que não estão dispostos a comprar um computador.
Em relação ao preço do serviço de acesso à internet, mais da metade dos domicílios (55,2%) pagam entre R$ 31 e R$ 70.

A pesquisa também indagou sobre a velocidade de acesso contratada. Nesse item, 31,6% dos entrevistados declararam não saber qual era o pacote que haviam contratado. Nas regiões Norte e Nordeste, mais da metade dos entrevistados não sabem a velocidade que recebem da operadora.

45% das casas não têm telefone fixo

Segundo o Ipea, o serviço de telefonia fixa está presente em 54,4% dos domicílios brasileiros. Ou seja, 45,6% das casas não possuem telefonia fixa. "Dos que não possuem telefone fixo no domicilio, quase dois terços afirmaram que o celular substitui o telefone fixo. Daí prescindirem dele", diz o relatório.
Com relação à telefonia móvel, 15,5% responderam que no seu domicílio nenhum morador possuía telefone celular. Em 29,2% das casas, todos os moradores possuem o serviço, enquanto em 16,3% menos da metade dos residentes tem telefone móvel.

A modalidade pré-paga é utilizada em 82,5% dos domicílios e a pós-paga, em 5,9%. Do total de entrevistados, 78,6% afirmaram que utilizam somente o serviço pré-pago e 2% informaram usar o serviço pós-pago, enquanto 3,9% afirmaram adotar ambas as modalidades.
Apenas 19,7% pagam pacotes combinados
Segundo a pesquisa, em 9,1% dos domicílios brasileiros não há utilização de nenhum dos serviços de telecomunicações. "Provavelmente, nesse grupo estão domicílios situados na zona rural e/ou de mais baixa renda", afirma o estudo. Segundo o levantamento, 90,5% dos domicílios possuem TV aberta, enquanto 26,6% possuem TV por assinatura.

O estudo mostra que a ampla maioria, 70,6%, contrata os serviços de telecomunicações separadamente e que apenas 19,7% pagam por pacotes combinados. "Isso pode ser consequência, principalmente, do fato de o domicílio contratar os serviços de prestadores diferentes ou da ausência de oferta de pacotes em todas as áreas. Outra possível causa é a oferta de pacotes combinados não atenderem às possibilidades econômicas das famílias", diz o Ipea.

Nos tipos de pacotes citados pelos entrevistados, a pesquisa mostra o predomínio dos serviços de telefonia fixa, de banda larga e TV por assinatura. A telefonia fixa está presente em 80%, enquanto a banda larga está em 91,2%. Aqueles em que ambos estão presentes representam 76,4% dos pacotes. O tipo mais contratado, 30,1%, é o que contém somente os serviços de telefonia fixa e banda larga. Ainda segundo o Ipea, o valor pago por pacote se concentra entre R$ 71 e R$ 150.

65% avaliam qualidade do serviço celular como 'positiva'

A pesquisa avaliou ainda a percepção da qualidade dos serviços de telecomunicações. Segundo o estudo, 65,5% dos entrevistados consideraram positivo o atual serviço de telefonia celular.
"A percepção da qualidade dos serviços de telefonia móvel aparentemente não está alinhada com os relatos de reclamações nos institutos de defesa do consumidor", destaca o Ipea. Na telefonia fixa, 72,9% consideraram a qualidade do serviço satisfatória. O serviço de internet banda larga teve percepção positiva de 69,31% e a TV por assinatura, de 87,1%.

quinta-feira, 13 de março de 2014

Cartilha de Segurança para Internet


Navegar é preciso, arriscar-se não!
A Cartilha de Segurança para Internet contém recomendações e dicas sobre como você pode aumentar a sua segurança na Internet. Abaixo você encontra links para cada um dos capítulos do Livro da Cartilha. Este livro também está disponível nos formatos PDF e ePub.
Para facilitar a discussão de alguns tópicos da Cartilha e a difusão de conteúdos específicos são disponibilizados periodicamente Fascículos. Cada um destes fascículos é acompanhado de um conjunto de slides que poderão ser utilizados para ministrar palestras ou complementar conteúdos de aulas.
Ajude a divulgar a Cartilha!

Saiba mais em http://cartilha.cert.br/

NSA se disfarçava de Facebook para espalhar malware


Então a NSA está nos espionando. Já sabemos disso há algum tempo. O que você provavelmente não sabia era exatamente como eles faziam isso e, de acordo com uma reportagem de Ryan Gallagher e Glenn Greenwald, a agência usava uma rede automatizada mundial de malwares.

Você sabia, por exemplo, que a NSA se fazia passar pelo Facebook às vezes? Como Gallagher e Greenald relataram, “em alguns casos a NSA se disfarçava como um servidor falso do Facebook, e usava o site da rede social para infectar o computador do alvo e extrair arquivos de um disco rígido.” Isso é bem preocupante quando você lembra que os botões “Curtir” do Facebook estão espalhados por toda a internet, dando à NSA muitas oportunidades de colocar um malware no seu disco rígido.

Esse esforço e outros descritos na reportagem foram feitos pela unidade de elite da NSA, a Tailored Acess Operations (TAO). Já falamos sobre ela antes. No ano passado, o Der Spiegel publicou um artigo sobre o TAO, que aqui no Gizmodo chamamos de “esquadrão ninja de elite”. A nova reportagem adiciona alguns novos detalhes, incluindo as ferramentas específicas usadas pela NSA para espionar a nós, nossos amigos… e terroristas em potencial também:

Um plug-in implantado chamado CAPTIVATEAUDIENCE, por exemplo, é usado para assumir o controle do microfone e gravar conversações sendo feitas perto de um computador. Outro, chamado GUMFISH, pode controlar a webcam e tirar fotografias. O FOGGYBOTTOM grava registros da navegação na internet e coleta detalhes de login e senhas usados para acessar websites e contas de email. O GROK é usado para guardar teclas pressionadas. E SALVAGERRABIT extraí dados de discos flash removíveis conectados a um computador infectado.

Nós já sabíamos que a NSA conseguia ouvir nosso microfone e acessar nossa câmera e detalhes de login. A novidade está nas teclas pressionadas, mas não é algo surpreendente. O realmente preocupante é o quão detalhado e bem pensado é esse projeto de infecção por malware. [The Intercept]



Fonte: http://gizmodo.uol.com.br/nsa-se-disfarcava-de-facebook-para-espalhar-malware/

quarta-feira, 12 de março de 2014

Esta é a sala onde nasceu a internet


Mesmo que a internet seja algo tão onipresente hoje em dia, não é fácil encontrar o 3420 Boelter Hall, local onde tudo começou. Trata-se de uma pequena sala no porão de um grande edifício no campus da Universidade da Califórnia em Los Angeles (EUA).

Nesse local pouco auspicioso, surgiu a rede que permite a você ler esta história onde e quando quiser. Embora a internet em si tenha muitos autores, este é amplamente considerado como o seu local de nascimento. A sala, com pintura verde-limão e chão de linóleo riscado, é o lugar onde foi instalado o primeiro nó da ARPANET; onde foi estabelecido o protocolo de comunicação; e onde foi enviada a primeira mensagem através da rede, para outro nó na Universidade Stanford.


“Quantas revoluções você imagina quando vê – a poucos metros! – onde ela começou? Esta máquina é onde a internet ganhou vida, e onde falou suas primeiras palavras”, diz Leonard Kleinrock, cientista da computação que dá nome ao Centro Kleinrock para Estudos da Internet. Atualmente, o centro mantém vários projetos de pesquisa, e conserva este ambiente em toda a sua glória dos anos 60 – é Mad Men para nerds.

Kleinrock, enquanto fazia pós-graduação no MIT, desenvolveu uma teoria matemática de comutação de pacotes. Nela, os dados são divididos em “pacotes” que podem ser trocados através de uma rede, permitindo que vários usuários possam acessá-los em diferentes plataformas. Esta é a tecnologia na qual a internet é baseada.

Isso era de grande interesse para o Departamento de Defesa, mais especificamente para sua Agência de Projetos de Pesquisa Avançada (ARPA, que mais tarde virou DARPA). Eles sabiam que poderiam usar a comutação de pacotes para divulgar trabalhos, pesquisas e software para o público de forma mais eficiente.
A ARPA enviou à equipe uma solicitação de proposta, buscando uma equipe para construir, instalar e gerir um programa piloto que usaria este novo tipo de rede. Uma equipe de engenheiros de computação da Bolt Beranek & Newman (BBN) ganhou o contrato, e construiu uma máquina enorme chamada de IMP (Processador de Mensagens de Interface) – basicamente, o primeiro roteador.

Eles colocaram o primeiro nó da rede na UCLA, onde Kleinrock se tornou professor, e a faculdade ficou responsável por testar o sistema e realizar experimentos. Sua equipe projetou uma rede que poderia enviar mensagens usando a infraestrutura de dados existente – as linhas do sistema telefônico.

Em 29 de outubro de 1969, uma equipe reunida no 3420 Boelter Hall tentou enviar a primeira mensagem ao Instituto de Pesquisa de Stanford: “LOGIN”. Eles conseguiram digitar as primeiras duas letras, aí o sistema caiu. Assim, a primeira mensagem enviada pelo que viria a ser a internet foi “LO”.

Uma hora depois, eles tentaram de novo, e deu certo. Até dezembro de 1969, quatro nós foram permanentemente instalados na UCLA, no Instituto de Pesquisa de Stanford, Universidade de Utah e Universidade da Califórnia em Santa Barbara. Em 1975, já havia 57 IMPs. Em 1981, eram 213. O resto é história.


Mas, mesmo que a internet tenha se tornado parte do nosso cotidiano, a relevância histórica destas máquinas foi quase destruída. Apenas dois IMPs sobreviveram até os dias de hoje. Na UCLA, o “roteador” foi substituído por uma nova tecnologia em 1982, e levado para uma sala dos professores na faculdade. Ele ficava perto de um bebedouro, até ser resgatado por Kleinrock. Ele também conseguiu salvar um computador SDS Sigma 7, com o tamanho de uma geladeira, que foi usado para guardar aquela primeira mensagem “LO” enviada por rede. Em 2011, o centro Kleinrock foi inaugurado nesta sala – que como observa Bradley Fidler, costumava ser maior. Ele atua como diretor do centro, e prestou atenção meticulosa aos detalhes para manter a sala no estilo dos anos 60. Parece que recuperar o local original foi o maior desafio: a sala foi transformada em um laboratório de informática para os alunos atuais. Por isso, eles tiveram que convencer a faculdade a subdividi-la – já que não sobram salas de aula por lá.

Quase todos os móveis são da época, resgatados de armazéns da UCLA ou encontrados em outros lugares, e as luzes são originais porque… bem, porque nunca foram modernizadas. O tom verde da parede foi recriado a partir de fotografias e das memórias vívidas da equipe. O único anacronismo, se podemos chamá-lo assim, é um roteador wireless – escondido por um alto-falante de madeira na parede.

Por muito tempo, mesmo aqueles que trabalharam no projeto não entendiam o significado histórico do que haviam feito. “Nós não sabíamos o que estávamos fazendo”, diz Kleinrock. “Nós nem sequer tiramos uma foto.” O jornal da faculdade publicou uma notinha, mas o feito passou despercebido.


A rede cresceu, mas só ganhou impulso após a invenção do e-mail em 1972. “Nosso trabalho inicial era fazer computadores conversarem com pessoas, ou com outros computadores. Nós não prevíamos que pessoas usariam isso para falar com outras pessoas”, diz ele. Em 1973, o e-mail já correspondia a 75% do tráfego de ARPANET.

Essa foi a outra coisa bacana sobre a cultura inicial da internet: a ARPA não era possessiva, mesmo tendo encomendado o projeto para o que deveria ser uma ferramenta relacionada à defesa nacional. “Não havia barreiras; se você quisesse usá-la, era só usar”, diz Kleinrock. “Nós confiávamos em todos, e conhecíamos todo mundo até o final dos anos 80. A internet cresceu graças a comunidades abertas e a um ambiente compartilhado.”


Eu visitei o espaço com Andrew Blum, autor do livro Tubos – o Mundo Físico da Internet. Este é o primeiro livro que eu li para entender a fisicalidade da rede, começando por esta sala, indo pelos cabos submarinos que atravessam o Atlântico, até os centros de dados massivos espalhados pelo mundo.

Era o dia em que a Comcast anunciou sua fusão com a Time-Warner: duas empresas enormes de banda larga se unirão em uma só nos EUA. Foi uma notícia mal-recebida por ser um potencial golpe à neutralidade de rede, um princípio que defende que provedores de acesso não prejudiquem qualquer tipo de tráfego – como YouTube ou BitTorrent.


Estávamos a poucos metros do IMP, e falamos sobre a chance de ter que viver com essa entidade gigantesca – basicamente um monopólio no mercado de banda larga. Mas Fidler oferece um futuro melhor. “Há uma tendência crescente para falar sobre a internet como ‘a nuvem’, o que é totalmente errado, porque a internet não é algo no céu que faz o que quer”, diz ele. “A internet muda quando as pessoas tomam decisões coletivas para mudá-la!”

Ele acredita que a sala e seus 40 anos de história podem nos ajudar a entender que a internet foi, e ainda é, movida por humanos. “Talvez haja muita gente no debate sobre a neutralidade da rede que se resignou ao inevitável, o que quer que isso seja. Mas essa é a abordagem errada para todos”, diz ele. “Quando você está em uma sala como o antigo nó da ARPANET na UCLA, você se lembra que as pessoas deram forma à internet, e ainda fazem isso, e todos nós podemos fazer parte dessas decisões.”


Fonte: http://gizmodo.uol.com.br/sala-internet-nasceu/
Fotos: cortesia do Kleinrock Center for Internet Studies




Falha no WhatsApp permite que qualquer app acesse suas mensagens.



Uma falha de segurança séria foi identificada no WhatsApp, que permitiria que qualquer outro aplicativo tivesse acesso às mensagens que o usuário troca com seus contatos. A falha foi encontrada e revelada pelo especialista em segurança Bas Bosschert.

Após uma descrição detalhada do processo em seu blog, a conclusão é que o aplicativo falha na hora de criptografar o backup das mensagens, expondo os usuários sem precisar de muito esforço.

Segundo o especialista, a falha acontece quando o usuário realiza o back-up das mensagens para não perdê-las em caso de desintalação e reinstalação, por exemplo. O app estaria usando a mesma criptografia todas as vezes, em vez de criar uma nova chave para cada usuário. Pior: a encriptação do WhatsApp já é quebrada com grande facilidade.

Isso significa que o armazenamento dos dados no aparelho é feito de forma insegura e outros aplicativos maliciosos podem roubá-lo sem problemas, para abrir as mensagens do usuário ou procurar dados pessoais. E as versões mais antigas do app nem mesmo encriptavam as mensagens.

Ao salvar estas informações no cartão SD, basta que o usuário dê permissão para o aplicativo malicioso ler o armazenamento externo para que ele receba acesso a estas informações. "Como a maioria das pessoas permitem tudo em seus aparelhos Android, isso não é um problema", afirmou ele.

Para acrescentar ironia à situação, Bas Bosschert ainda relembra do temor dos usuários do WhatsApp após a venda ao Facebook, temendo que a rede social fosse ter acesso a todas as suas mensagens. "O Facebook não precisava ter comprado o WhatsApp para ler suas mensagens", afirmou.

Fonte: http://olhardigital.uol.com.br/noticia/falha-no-whatsapp-permite-que-qualquer-app-acesse-suas-mensagens/40766

Internet: 25 anos.

O Criador

Há 25 anos, numa pequena sala do CERN, Organização Europeia para Pesquisas Nucleares, um cientista chamado Tim Berners-Lee lançava as bases para uma das maiores revoluções da história da humanidade: a criação da World Wide Web, ou a WWW, como ficou conhecida quando se espalhou pelo mundo.

Sir Timothy Berners-Lee é um físico inglês, nascido em Londres em 8 de junho de 1955. Enquanto trabalhava para o CERN, uma das preocupações de Berners-Lee era em como preservar e difundir a informação que era gerada pelos experimentos: ele entendia que se essa informação pudesse ser facilmente acessada por mais cientistas, a velocidade das pesquisas poderia ser aumentada. Apoiando-se em ideias que já vinham sendo maturadas desde a década de 50 (o termo hipertexto, por exemplo, foi usado pela primeira vez por Ted Nelson pouco depois do fim da Segunda Guerra Mundial), Berners-Lee criou o conceito de uma matriz de informação. Ao invés de acessarmos as informações usando a lógica de uma árvore, ele imaginou que poderíamos acessar essas mesmas informações usando círculos e setas. Ou seja, as setas funcionam como os links que nos levam por diferentes lugares, para diferentes círculos de informação. Estava criado o conceito básico, que acabou evoluindo e se transformando na Web como conhecemos hoje.

O DOCUMENTO ORIGINAL

Talvez o mais surpreendente do primeiro documento proposto por Berners-Lee (que você pode conferir aqui) é que alguns dos conceitos - e até mesmo dos termos que se tornaram tão comuns hoje em dia - já estão lá: browsers, como programas de computador, hiperlinks (ou links) como maneiras de pular de um conjunto de infomações para outro, além, é claro, do termo WEB, que definiria boa parte da vida do final do século XX e desse começo de século XXI.

Quase dois anos depois, em 6 de agosto de 1991, Berners-Lee colocou no ar o primeiro site de internet, o info.cern.ch. Claro que este primeiro site era bastante rudimentar, exibia apenas texto e usava como servidor uma máquina NeXT. Infelizmente, não sobrou registro dessa página original. Uma versão de 1992 pode ser conferida no site do World Wide Web Consortium.

Uma curiosidade é que os computadores NeXT eram fruto de uma empresa de mesmo nome criada por Steve Jobs no período em que ele esteve afastado da Apple. O propósito da NeXT era justamente criar computadores que atendessem a comunidade acadêmica. Mais tarde, boa parte do sistema operacional que comandava os computadores NeXT foi convertida no Mac OS, sistema operacional que viria a equipar os computadores da Apple.

25 ANOS DEPOIS

Passado um quarto de século, a Web é um dos grandes motores da economia moderna (basta lembrar que empresas como Google, Facebook ou Yahoo! simplesmente não existiriam). Mais que isso, a Web talvez seja a maior marca da evolução tecnológica que pode fazer a humanidade realmente mudar o patamar da história numa velocidade inédita. A Web já alcança bilhões mundo afora e transforma a vida de indivíduos, empresas e nações por onde passa, num processo que está apenas em sua infância. Para celebrar os 25 anos de Web, foi criado um site especial, que você pode conferir aqui. Nas redes sociais, a hashtag #web25 está sendo usada para celebrar a data.

Fonte: http://olhardigital.uol.com.br/noticia/40769/40769