segunda-feira, 6 de outubro de 2014

16 milhões acessam internet enquanto assistem à TV


Acessar a internet ao mesmo tempo em que se assiste à televisão já é uma realidade para 16 milhões de brasileiros. É o que aponta o estudo Social TV, realizado pelo Ibope Media.
A troca de mensagens em comunicadores instantâneos é a principal atividade desses espectadores de programas televisivos. No entanto, 38% deles publicam comentários sobre as atrações assistidas nas redes sociais. Segundo a Proxxima, esse número representa um salto de 136% em relação a 2012, quando a empresa divulgou a primeira pesquisa sobre o assunto.
O público feminino e os jovens em geral são os dois grupos mais propensos a aliar as duas atividades.
Dados do relatório apontam que, em São Paulo e Rio de Janeiro, 65% das pessoas que publicam a respeito de algum programa durante sua transmissão são mulheres e 66% delas estão na faixa dos 10 a 29 anos de idade.
O estudo também conclui que grande parte (80%) do público que comenta nas redes enquanto assiste à TV já trocou de canal ou ligou a televisão para conferir um programa que foi sugerido ou comentado em uma mensagem que recebeu pela internet.
Fatos considerados engraçados são os mais comentados - 64% dos paulistas e cariocas afirmam que atrações desse tipo são as que mais geram repercussão; eventos polêmicos (44%) e trágicos (25%) vêm na sequência. 

fonte: http://baguete.com.br/noticias/03/10/2014/16-milhoes-acessam-internet-enquanto-assistem-a-tv

quinta-feira, 27 de março de 2014

Governo ainda não desistiu da obrigatoriedade de data centers no Brasil


Depois de tantos adiamentos, a votação do Marco Civil pela Câmara dos Deputados nesta terça-feira (25) só foi possível porque, entre outras negociações, o governo concordou em abrir mão da regra que obrigaria o armazenamento de informações em data centers instalados no país. Mas a ideia não foi descartada: segundo Paulo Bernardo, ministro das Comunicações, o governo deverá abordar o assunto novamente no próximo semestre.

O próprio ministro explicou que o governo aceitou excluir a regra do Marco Civil para evitar que este ponto travasse a votação por ainda mais tempo e por saber que o assunto poderá ser discutido junto a um projeto de lei que trata da proteção de dados pessoais que deverá chegar ao Congresso nos próximos meses.

Além das questões relacionadas a espionagens, um dos argumentos dados pelo governo para defender a proposta é a “soberania para a Justiça”: Paulo Bernardo usou como exemplo um caso onde o Google se negou a repassar dados ao Supremo Tribunal Federal sob a alegação de que estas informações estariam armazenadas em servidores nos Estados Unidos, de forma que a sua liberação só poderia ser concedida às autoridades deste país.

Outro argumento é o apelo econômico. Para o ministro, infraestruturas locais de armazenamento de dados podem fazer o Brasil ter participação expressiva em um mercado promissor, não necessariamente pelas instalações em si, mas porque, cada vez mais, os dados passam a ser vistos como “riquezas”.

Paulo Bernardo explicou ainda que a ideia deverá ser reapresentada no segundo semestre e, com sorte, poderá ser aprovada ainda em 2014. A principal diferença em relação à proposta feita para o Marco Civil é que o projeto poderá ser mais flexível: como a obrigatoriedade pode continuar não sendo bem recebida, o governo já cogita criar mecanismos que ao menos incentivem a instalação de data centers no Brasil.

A preocupação, por ora, é com a próxima etapa: a aprovação do Marco Civil pelo Senado. Como o assunto foi bastante debatido na Câmara dos Deputados e acompanhado de perto por diversos senadores, Paulo Bernardo acredita que não haverá muito o que debater e, assim, a votação deverá ser rápida. Por via das dúvidas, o ministro já confirmou que irá pedir agilidade ao Senado.



sexta-feira, 21 de março de 2014

Site permite que usuários façam videoconferência sem instalar programa



O Appear.in (https://appear.in) é um site que permite realizar videoconferências grátis, de forma online, sem a necessidade de baixar ou instalar programas. Para utilizar a alternativa, basta ter com computador conectado à internet e uma webcam com microfone.

Ao entrar no site, o usuário escolhe o endereço onde será feita a videoconferência – a URL será sempre um nome ao final de https://appear.in (por exemplo, https://appear.in/uoltecnologia ou https://appear.in/uolnoticias). Como o sistema não exige senhas, o ideal é criar um nome pouco óbvio para evitar intrusos na conversa.

Ao clicar no botão "Create", basta enviar o endereço para seus amigos. Eles só precisam copiar a URL no navegador para começar a conversar. O programa permite no máximo oito participantes por conferência e oferece a possibilidade de enviar mensagens de texto.

Nos testes realizados pelo UOL Tecnologia,em algumas ocasiões o áudio ficou "picado". Entretanto, no geral, mesmo com oito pessoas participando da conferência, a qualidade de vídeo e de som permitiram ótima comunicação à distância. O Appear.in é compatível com os navegadores Chrome, Firefox e Opera.

quinta-feira, 20 de março de 2014

Aspectos importantes do Datacenter



O DATACENTER é o lugar onde os dados das organizações são armazenados e processados. Boa parte dos investimentos que são alocados para a infra-estrutura ficam no DATACENTER em forma de produtos ou serviços.
Com os clientes internos da organização solicitando cada vez mais capacidade de processamento e de armazenamento, os DATACENTERS atingiram a capacidade máxima. Os gerentes de TI estão avaliando novas tecnologias de virtualização para utilizar melhor os recursos. As organizações estão repensando a arquitetura e o planejamento do DATACENTER como
resultado do aumento das normas e da fiscalização rigorosa sobre a recuperação em caso
de desastres, incluindo a consolidação ou mesmo a realocação — projetos
com grande impacto nos níveis de serviço fornecidos e nos custos
das operações de TI. A consolidação e a realocação envolve todos os ativos de TI e aplicativos que recebam suporte, portanto um planejamento abrangente é crítico para que o negócio continue a funcionar sem interrupção.
O papel principal dos componentes do DATACENTER neste cenário é possibilitar que o DATACENTER propicie o nível de serviço adequado para cada aplicação. Por sua vez o nível de serviço é medido por dois principais fatores : Disponibilidade e Performance já abordados neste blog.
Por sua vez cada aplicação deve sustentar o respectivo processo ou os respectivos processos de negócio que suporta(m).
O usuário do processo é quem vai realmente sentir o nível de serviço prestado por toda a estrutura tecnológica projetada. As partes de um DATACENTER são mostrados na figura abaixo.


Existem oito funcionalidades-chave que devem ser consideradas na construção do DATACENTER. Os componentes que permitem a obtenção destas funcionalidades devem ser projetados para funcionarem em conjunto, ou seja integrados, e atender as demandas da organização.
Funcionalidades-chave:
Processamento - Meio de Processamento. Servidores e Processadores se encontram aqui.
Conectividade - Conexão entre os componentes e com o mundo exterior. Switches, Roteadores e Acelarodes WAN estã aqui. O DATACENTER deve dispor de uma infra-estrutura de conectividade WAN Internet com enlaces de alta velocidade (broadband) redundantes entre si. Quanto à conectividade LAN, o DATACENTER deve ter uma rede física e lógica estruturadas com cabeamento padronizado, desenho padrão de rede (core, distribuição e acesso) separando redes por VLANS para as redes de dados, backup e gerenciamento, de redes físicas distintas. Virtualização - Servidores físicos rodando diversas aplicações. Sistemas Operacionais de Virtualização e suas funcionalidades estão aqui.
Armazenamento - Armazenamento de dados utilizando unidades do tipo storage estão aqui. Redes e Dispostivos de conexão ao storage são considerados aqui.
Backup & Recovery - Políticas, softwares e dispositivos de backup e restore são considerados aqui.
Gerenciamento - Toda a malha de gerenciamento, envolvendo desde o Hardware e indo até os aspectos de automação de patches são tratados aqui. Deve haver planejamento e controle da produção garantindo a execução dos processos de TI como as paradas programadas, execução de jobs e rotinas periódicas. Os serviços devem poder ser executados por administração remota.O gerenciamento deve possibilitar uma operação assistida 24x7 com suporte aos sistemas operacionais, banco de dados, servidores e storage..
Segurança - Aspectos de segurança lógica e prodtuos vinculados a segurança como firewalls e antí-virus são tratados aqui. A arquitetura deve ser projetada para ter segurança nas múltiplas camadas com switches e firewalls entre as camadas. A tecnologia de Virtual LAN (VLAN) permite separação lógica para segurança do ambiente. A infra-estrutura deve incluir firewalls . As regras de firewall são fixadas para não permitir tráfego que não seja absolutamente necessário para a operação do DATACENTER.
HA (high avalaibility) & DR(disaster recovery) - tratam de tecnologias para alta disponibilidade e recuperação a desastres.
Estas funcionalidades-chave serão tratadas ao longo do tempo neste blog.
O aspecto principal da integração entre estes componentes é a interoperabilidade . A interoperabilidade em TI trata de possibilitar a troca de informações e/ou dados através de computadores desenvolvendo padrões de comunicação, transporte, armazenamento e representação de informações, através do envolvimento de um conjunto de organizações. Outros dois aspectos a serem considerados no projeto é o provimento de energia e refrigeração e as instalações físicas.
O provimento de energia e refrigeração deve estar de acordo com as premissas adotas quando da formulação do projeto. A carga de TI e a carga dos equipamentos que suportam a refrigeração e o seu crescimento futuro devem ser consideradas no correto dimensionamento dos componentes chave do DATACENTER. lembrar aqui que a eficiência do DATACENTER em geral gira em torno de 40%, ou seja, para cada 1KW injetado, só 400W serverm a carga de TI.
A temperatura e a umidade devem ser monitoradas e controladas por meio de sistemas de climatização precisos e redundantes. Os DATACENTERS utilizam em muitos casos pisos elevados para possibilitar que o fluxo de ar seja direcionado para baixo dos equipamentos a fim de mantê-los refrigerados. Também deve ser considerado os sistemas de detecção de incendio e supressão de incêndio.
O DATACENTER deve também possuir um DOC (Datacenter Operation Center), um sistema integrado de gestão, suporte e monitoramento de redes, 24x7,capacitado a lidar com serviços de missão crítica, com pessoal especializado.
O NOC deve garantir o monitoramento e a disponibilidade do DATACENTER, permitindo redução de custos e gerência total de todos os recursos de TI.
Em geral o NOC incorpora uma solução de Firewall Gerenciado, que permite o controle da navegação do usuário, negando acesso a aplicações e sites desnecessários além de incorporar um sistema de logging que permite aos gestores monitorar as atividades de cada funcionário.
O NOC fornece também relatórios personalizados de acordo com as necessidades de cada cliente, contendo informações sobre capacidade, uso e falhas, entre outros. 


O acesso de pessoal no DATACENTER deve ser controlado via leitoras magnéticas de cartões de segurança. O acesso a todas as áreas do edifício deve ser autorizado antes que a entrada seja permitida. Existem ainda áreas internas de acesso restrito, como áreas de equipamento crítico, onde somente indivíduos com autorização especial podem acessar. Câmeras de vídeo podem ser utilizadas para monitorar e registrarm todo o tráfego de entrada e saída de pessoas. As portas das áreas de sistemas críticos devem possuir sistemas de alarmes embutidos monitorados pela segurança.
Deve-se considerar também a gama de serviços envolvidos no projeto (consultoria) , na implementação (serviços operacionais ) e no suporte (serviços de suporte)
A idéia de enxergar a montagem do DATACENTER como uma montagem de LEGO induz a necessidade de construi-lo em pequenas partes integradas ou blocos . Tem-se aqui três opções :
CHASSIS: Construí-los baseados em CHASSIS que utilizam servidores BLADES conforme ilustra a figura abaixo. 


RACKS: Construí-los da forma convencional em blocos de racks de servidores, modularidade média sem o compromisso de utilizar chassis de blades para o form-factor de todos os servidores


O padrão TIA-942 de 2005 define um padrão para aspectos básicoas do DATACENTER como :

- Layout e Espaço Físico
- Infra-estrutura de cabeamento 
- Condiçoes ambientais
- Classificação por níveis de disponibilidade (baseado na definição do Uptime Institute)

terça-feira, 18 de março de 2014

Por que utilizar fibra óptica? Quais são as suas aplicações?



O uso crescente da fibra óptica vem mudando dramaticamente o mundo das telecomunicações. Ao longo de todo o planeta, a fibra óptica vem substituindo os cabos convencionais de cobre, como os cabos "pares trançados" e os cabos coaxiais.

As fibras ópticas possuem várias aplicações. Dentre elas destacamos, geração de imagens, iluminação, sensores e telecomunicações. 

Atualmente, fibras ópticas para telecomunicações podem ser encontradas em toda parte. Muitas operadoras de telefonia de longa distância, assim como, operadoras locais e empresas de TV à cabo, possuem sistemas instalados com base em fibras ópticas. A maior quantidade de fibra instalada para a comunicação global pode ser encontrada em sistemas submarinos e cabos submersos no oceano conectando os cinco continentes.

Muitas empresas de geração de energia elétrica estão instalando fibras para substituir os antigos sistemas de microondas de baixa capacidade.

Concessionárias de rodovias também utilizam fibras ópticas, criando assim as chamadas "rodovias inteligentes", as quais oferecem serviços como cobrança automática de pedágio e informações em tempo real sobre o tráfego.

As fibras ópticas também podem ser encontradas em redes internas de computadores de alta velocidade (LANs).

O uso de fibras ópticas por operadoras de longa distância, assim como operadoras locais e provedores de redes de acesso vêm se tornando cada vez mais comum devido às vantagens significativas das fibras ópticas.

As fibras ópticas também são muito utilizadas por empresas que querem agilizar a comunicação no campus corporativo. Atualmente, redes corporativas de alta velocidade conectam com segurança e robustez os sistemas corporativos, reduzindo o tempo de comunicação entre departamentos e aumentando o fluxo de informação entre a mesa do funcionário e a central de armazenamento de dados.

As fibras ópticas são utilizadas como meio de transmissão de ondas eletromagnéticas, em forma de luz. Uma característica importante é o fato de não ser suscetível à interferência eletromagnética, por não transmitir pulsos elétricos, o que as tornam ideais em muitas aplicações. Na construção de redes, as fibras ópticas apresentam grandes vantagens: grande capacidade de transmissão de dados; insensibilidade às perturbações eletromagnéticas; atenuações muito reduzidas, permitindo ligações de dezenas de quilômetros sem amplificadores; dão origem a cabos com diâmetros menores, mais leves e flexíveis, o que permite uma diminuição dos custos de colocação e montagem. 

De forma geral, as fibras ópticas se dividem em dois tipos distintos: Multimodo (multimode) ou Monomodo (single-mode). Elas são muito diferentes entre si. Enquanto as fibras Multimodo são adequadas para instalações de até 3 Km, as fibras Monomodo são ideais para instalações de grandes distâncias e baixa larga, por isso são as mais utilizadas pelas companhias prestadoras de serviços de telecomunicação.

Quando devemos utilizar cabos de fibras ópticas? 

Quando você for obrigado a usar, ou quando seu uso fizer sentido. Você será obrigado a usar cabos de fibra óptica se adquirir um equipamento que tenha conexões realizadas com fibras ópticas, se a companhia prestadora de serviços de telecomunicação instalar fibras na sua região e você desejar estender esta conexão ou, mais importante, se o seu projeto incluir fibras ópticas em sua instalação. Por outro lado, faz sentido usar fibras ópticas quando:

1- A instalação envolve grandes distâncias (centenas ou milhares de metros ou quilômetros) 

2 - O ambiente de instalação apresentar muita interferência eletromagnética (fibras ópticas são imunes a qualquer tipo de interferência ou ruído) 

3- Nos ambientes agressivos (fibras ópticas são imunes à oxidação e corrosão, que costumam ser um problema para os cabos de cobre) 

4- For preciso reduzir o peso e o tamanho dos cabos (as fibras ópticas são extremamente leves e compactas)

5- For preciso trafegar uma elevada taxa de dados, ou sinais analógicos com grande largura de faixa. Certos tipos de fibras ópticas podem oferecer até 27 GHz de largura de banda.

Conte com a Arqdata Engenharia de Redes para o seu projeto.


O futuro é multicanal


Você está conectado com os seus clientes? E com os amigos deles? Hoje as pessoas estão cada vez mais conectadas. Há tempos ter internet no smartphone deixou de ser um luxo e se tornou necessidade. As pessoas querem estar acessíveis 24h por dia para se relacionar com parentes e amigos. Até mesmo o trabalho se modificou com o aumento da conectividade: já vi pessoas presas em congestionamentos que aproveitaram este tempo “livre” para adiantar reuniões e mandar documentos para colegas.

E este é um caminho sem volta: até 2019 teremos 9,3 bilhões de conexões móveis no mundo, sendo que 5,6 bilhões representam apenas os smartphones. Este número aponta para um crescimento de três vezes em relação à base atua destes dispositivos. Considerando estes dados da pesquisa 4G Americas, como você acha que o consumidor do futuro vai tentar resolver problemas ou tentar entrar em contato com as empresas? Estar preparado para oferecer soluções viachat, e-mail, aplicativo, telefone, mensagem de voz, etc, representa estar pronto para o futuro. O contact center precisa ser capaz de atender à demandas vindas de diferentes canais.

Além disso, o cliente atual exerce seu papel de protagonista na relação de compra e venda, indicando os produtos e serviços que considera interessante para suas conexões on-line. A maioria das páginas de grandes atacados trabalha com sistema de indicação para amigos, resenhas e notas através de estrelas e similares. Não é novidade afirmar que as pessoas confiam mais neste tipo de material do que em propagandas. Por isso é extremamente relevante observar quais são as opiniões acerca do seu produto e quantas pessoas elas influenciam.

Hoje as empresas precisam estar conectadas aos seus clientes e também aos amigos deles. É preciso conseguir fornecer um serviço de qualidade que valha a pena ser compartilhado nas redes sociais, por exemplo. Por isso reafirmo: o futuro do atendimento ao cliente é multicanal. Quem não trabalhar com este tipo de solução, não estará preparado para atender os 9,3 bilhões de consumidores mobile que teremos até 2019. E que empresa quer perder uma parcela tão grande de mercado?

 [Crédito da Imagem: Multicanal - ShutterStock]


segunda-feira, 17 de março de 2014

Sistema para bloquear celulares piratas e não homologados pela Anatel começa a funcionar semana que vem



O Sistema Integrado de Gestão de Aparelhos, desenvolvido para bloquear celulares não homologados pela Anatel, entrará em funcionamento na segunda-feira (17), de acordo com o G1. Mas ainda não há com o que se preocupar: nesta primeira fase, o Siga fará apenas um registro dos aparelhos em funcionamento no país. Os bloqueios devem começar somente em setembro e, pelo menos no início, aparelhos que já estão em uso continuarão operando.


Com custo estimado de R$ 10 milhões, o Siga foi bancado pelas quatro grandes operadoras de celular do país e será operado pela ABR Telecom, a mesma entidade que administra a portabilidade numérica no Brasil e gerencia um sistema de registro de celulares roubados. Nos próximos seis meses, quando um aparelho se conectar às redes da Claro, Oi, TIM ou Vivo, o código IMEI será enviado ao banco de dados do Siga.

O bloqueio de dispositivos não homologados, que começa em setembro, inicialmente afetará somente novos aparelhos. Como os atuais aparelhos piratas tendem a sumir do mercado e um dia terão que ser substituídos de qualquer forma, a Anatel ainda não decidiu se vai bloquear os que já estão em funcionamento. Mesmo se essa medida for tomada no futuro, a Anatel garante que “ninguém vai ter o aparelho desabilitado de um dia para o outro”.

Como o sistema sabe que o celular é homologado ou não? As informações ainda são vagas. A Anatel não divulga muitos detalhes propositadamente para não facilitar as fraudes, se limitando a dizer que possui uma relação de IMEI de todos os aparelhos certificados no Brasil; se o IMEI não estiver na lista, o aparelho não poderá fazer chamadas ou acessar a internet.

A ideia parece simples, mas nós sabemos que é possível clonar o IMEI de um aparelho original e homologado pela Anatel, então apenas essa medida não eliminaria os xing lings, que podem causar problemas nas redes das operadoras, prejudicando outros clientes. Como esses celulares não são certificados, não sabemos se eles emitem níveis de radiação danosos à saúde.

O bloqueio por IMEI também gera outro problema: como ficam os celulares importados, que foram certificados em outros países, mas não pela Anatel? Este é o caso de aparelhos da HTC, que saiu do Brasil, ou mesmo modelos de fabricantes conhecidas que não serão vendidos por aqui, como o Sony Xperia Z1 Compact. Outro exemplo são os iPhones 5c e 5s americanos, que são diferentes dos modelos brasileiros. Isso prejudicaria pessoas que importam smartphones por meios legais ou mesmo turistas que trazem seus próprios aparelhos.

De acordo com uma nota divulgada pelo SindiTelebrasil, sindicato das operadoras de telefonia móvel, “se o aparelho não é homologado, não ocorre a habilitação imediata e o usuário é encaminhado para atendimento diferenciado pela prestadora”. Ou seja, o usuário tem a oportunidade de esclarecer que seu celular não é pirata. No entanto, hoje a Anatel disse que recomenda aos consumidores verificarem se o modelo já foi homologado no Brasil antes de comprar celulares fora do país, indicando que modelos originais também poderão ser afetados.

Entramos em contato com a Anatel para esclarecer essas questões. Por telefone, a agência nos informou que “tem conhecimento de terminais problemáticos” e que o período de testes será usado para detectar os possíveis problemas que poderão ocorrer com os bloqueios; só após o diagnóstico as operadoras tomarão as ações necessárias. A Anatel reforçou que os clientes serão informados antes de terem seus aparelhos bloqueados.

Mais sobre: Anatel

sexta-feira, 14 de março de 2014

Fibra Óptica ou Cabo de Cobre?


A fibra óptica é um filete de vidro ou plástico que guia a luz, mesmo quando curvado (há um limite para essa curvatura). Esse filete é chamado de núcleo da fibra e possui um diâmetro de 9 µm (nove milionésimos de metro) para a fibra do tipo monomodo e 62,5 µm ou 50 µm para as fibras do tipo multimodo.

Uma casca (cladding) em torno do núcleo ajuda a manter a luz confinada no núcleo, mesmo nas curvas. Uma proteção, um elemento estrutural e a capa, normalmente de PVC, completam a estrutura do cabo.

A pergunta sobre o que é melhor usar, fibra óptica ou cobre, sempre surge ao se discutir com o cliente um projeto de rede interna, principalmente quando o porte, ultrapassa, digamos, dois mil pontos de rede.

Normalmente, por traz da pergunta está a questão do custo.

Há uma tendência em se comparar apenas os preços dos cabos de fibra óptica e cobre, o que pode levar a uma avaliação equivocada da melhor solução, já que a diferença do preço por metro das duas alternativas não é muito grande.

De fato há vantagens para a transmissão em fibra óptica em relação ao cabo de cobre, que são:

Maior velocidade de Transmissão De Dados;
Permite enlace com maior distância;
É imune a interferências eletromagnéticas externas;
Não gera ruído eletromagnético para o ambiente;
Isola eletricamente os dois equipamentos interligados;
Menor consumo de energia nos equipamentos ativos.
A visão da melhor solução somente fica clara com uma análise global, que considere o cabeamento, a topologia, os equipamentos ativos e as particularidades da edificação, como sua finalidade, arquitetura, ocupação, etc.
É preciso avaliar a relação benefício/custo sempre com foco no negócio do proprietário. As vantagens de cada tipo de cabo (benefício), os respectivos custos e os requisitos do proprietário, estabelecem os cenários a serem considerados.

Um enlace de fibra óptica pode custar R$ 1.000,00 a mais que um enlace de cobre, quando se considera também o custo dos equipamentos ativos, interfaces, conectores e serviços.

Além dos aspectos citados, as várias classificações tanto do cabo óptico (OM1, OM2, OM3 e OM4) quanto do cabo em par trançado de cobre (categoria 5e, categoria 6, categoria 6A) devem ser adequadamente consideradas no projeto a fim de realmente chegar perto da solução de melhor relação benefício/custo.

Quando se considera o uso de fibra óptica, sob a ótica do cabeamento estruturado, o profissional está focado na parte de transmissão de dados e voz, normalmente sob a forma digital. Entretanto outros subsistemas, como CFTV, CATV e áudio adicionam variáveis que não contempladas.

A metodologia OSD, “One Shot Design”, por buscar a solução integrada contemplando todos os subsistemas, invariavelmente leva a uma solução melhor.

Artigo postado originalmente em fabiomontoro.blogspot.com.br
[Crédito da Imagem: Fibra Óptica - ShutterStock]

A realidade da TI nas Micro e Pequenas Empresas




Dos mais de 6 milhões de empresas no Brasil, 99% é formado por Micro e Pequenas empresas (MPe), no qual representa em torno de 20% do PIB. Estas empresas realmente utilizam Tecnologia da Informação? A TI nestas empresas são estruturadas (quando existe)? A TI está alinhada com o negócio da empresa? A TI trabalha de forma proativa? Existe planejamento e investimento em melhorias? Os gestores conhecem seus riscos? Enfim, centenas de perguntas podem ser feitas para analisar o nível de maturidade nas empresas em relação à TI.

Muito se tem apresentado em relação a governança de TI (COBIT), boas práticas de gestão e serviços (ITIL, ISO 20000), segurança da informação (ISO 27000), gerenciamento de projetos (Guia PMBOK), desenvolvimento de Software (SCRUM), gerenciamento de riscos (ISO 31000), entre outras, que quando aplicadas e utilizadas nas organizações geram benefícios, melhorias, direcionamentos estratégicos, maturidade nos processos, planejamentos, transparência, entre outras vantagens.

A questão é que a maioria das MPe, e até algumas de médio porte, utilizam a TI somente como um ponto de suporte para as operações, ou seja, a TI é tratada como uma área secundária e não estratégica para a empresa. Normalmente estas empresas não possuem firewall de perímetro, antivírus corporativo, sistema de backup, controle de navegação, política de segurança da informação, documentação do ambiente, relatório de riscos, planejamento de investimento, servidores corporativos, entre outra situações que são primordiais nos dias atuais. Digo primordiais pelo simples fato de que 99% dos processos e operações de uma organização são executados através do meio digital ou gerados e suportados através de alguma tecnologia.

Mesmo em ambientes simples com poucos usuários e computadores, faz-se necessário ter uma estrutura de TI, já que os riscos de infeção de vírus, ataques, vazamento de informação, paralisação dos sistemas, indisponibilidades, perda de informações, etc, irão impactar 100% o negócio da empresa, gerando prejuízos (financeiros, imagem, reputação), cancelamento de contratos, usuários parados, clientes descontentes e outros.

É comum observar os gestores e diretores alegarem que não possuem recursos para investir em TI, no entanto, qualquer incidente (restaurar uma informação ou banco de dados, paralisação da rede através de pragas virtuais, indisponibilidade para gerar e transmitir a NF-e, etc) irá impactar o negócio e causar prejuízos para a organização, e quando isso ocorre uma das primeiras ações do(s) gestor(es) é adquirir algum produto ou serviço que para corrigir o problema e minimizar a recorrência destes riscos.

A situação apresentada no parágrafo anterior retrata o cenário que chamados de TI Reativa ou “Apaga Incêndio“, no qual a equipe trabalha para resolver incidentes e manter o ambiente mais operacional e disponível possível. O ponto chave é que sempre que ocorrer um incidente que impacte a operação e negócio da empresa, mais caro ficará para recuperar e normalizar a operação se comparado a um investimento proativo, que reduziria ou eliminaria as chances do incidente surgir.

Para os profissionais de TI, ou gestores que se enquadrarem nesta realidade que retratei no artigo, quee não sabem como melhorar o ambiente de TI, seguem alguns conselhos:

Soluções open source: É possível instalar e configurar um firewall de perímetro sem custo de software e licenciamento, sendo somente necessário um hardware. Um exemplo é o PFSense, que é um firewall muito interessante e com recursos de controle de navegação, configuração de regras de filtragem, VPN, entre outros que, se configurados corretamente, irão aumentar a segurança da informação e controle dos dados trafegados entre a empresa e o ambiente externo.
Antivírus: Não recomendo em ambiente corporativo o uso de soluções grátis quando o assunto é antivírus, visto que a eficiência, detecção, combate a pragas virtuais, recursos e funcionalidades do produto não se compara em relação aos antivírus corporativos. Com um investimento de menos de R$ 15 reais por estação ao mês já é possível instalar um antivírus de mercado que irá combater os vírus, malwares, trojans e downloads com eficiência, gerando maior segurança ao ambiente e diminuindo as chances de paralisações e impacto por pragas virtuais.
Parceiros: Buscar parceiros especializados em soluções de TI, seja banco de dados, firewall, antivírus, segurança da informação, backup, gestão de riscos, ERP, processos, entre outros. Esta é uma questão importante para as organizações, visto que estes parceiros possuem experiência de mercado e benchmarking para apoiar nos projetos e demandas realizando um trabalho que seja aderente e compatível com o valor de investimento disponibilizado pelas organizações.
Software de Service Desk: É recomendado que empresas possuam um software para registar, classificar, acompanhar e fechar os incidentes, solicitações e mudanças que ocorrem diariamente. Se a TI não possui um software deste, provavelmente não existe um padrão e critérios para atendimento dos chamados, prioridade, evidências, registro das operações, comunicação com o usuário, entre outros fatores essenciais para um bom gerenciamento de serviços de TI. Mais uma vez, existem softwares open source que podem realizar este papel, tal como o SpiceWorks.
Planejamento: Criar um planejamento das atividades que devem ser realizadas na semana ou no mês, tais como, atualizações do Sistema Operacional nas estações e servidores, configuração da impressora na rede, instalação de um novo aplicativo, analise e correção do backup, checagem da garantia dos servidores e estações, orçamento de novas aquisições, entre outras, irá facilitar a gestão e direcionamento para realizar as atividades e evitar o esquecimento ou prioridade em atividades mais novas.
Investimentos: Quando o assunto é TI é inevitável não tratar de investimentos, já que computadores ficam ultrapassados, sistemas ficam obsoletos (tal como no caso do Windows XP e Office 2003 que não receberão mais suporte e atualizações a partir de Abril de 2014), novas demandas surgem das áreas de negócio, manutenção do ambiente de TI, renovação de garantia e contratos, enfim, o investimento em TI faz parte de qualquer empresa. Diante deste fato é importante montar um planejamento estratégico com os investimentos necessários (renovação garantia, contratos, suporte, software, etc…), investimento de melhoria (aquisição antivírus, aquisição servidores, serviços de TI, novas licenças do ERP, novo link de Internet, entre outros) e, em cima de cada ponto destacado no plano de investimento, apontar os riscos inerentes, impacto para o negócio, melhorias que proporcionarão, benefícios dos novos recursos - traduzidos para linguagem de negócio para apresentação a alta direção, visto que somente assim, a alta direção irá entender o porquê de tal investimento e quais benefícios serão gerados para a organização.
Para finalizar o artigo, o intuito foi apresentar algumas formas que o profissional de TI ou gestores podem estar utilizando para melhorar o ambiente de TI e consequentemente a operação, disponibilidade, segurança nas organizações. Uma última dica é realizar reuniões regulares com gestores, pessoas chaves, diretores para ouvir deles como anda a TI, o que eles esperam, qual ponto está gerando descontentamento, o que pode ser melhorado, quais as expectativas deles em relação a TI, verificar se existe algum projeto ou plano estratégico no qual irá precisar de recursos de TI. Desta forma além de mostrar proatividade é possível estar integrado com o que ocorre na empresa conseguindo alinhar um pouco mais a TI ao Negócio.

[Crédito da Imagem: Pequenas e Médias Empresas - ShutterStock]

A Rede Interna e os Provedores de Internet


Como duas redes internas se conectam por meio da Internet?

Sua casa, seu escritório ou uma grande corporação como a Petrobrás ou o Facebook são semelhantes nesse aspecto: todos possuem uma rede interna.

A Internet é um grande conglomerado de provedores de serviço (ISP = Internet Service Provider) interligados, aos quais estão conectadas as redes internas e os dispositivos móveis. Cada provedor possui uma rede própria chamada de Sistema Autônomo (AS = Autonomous System).

A conexão de uma rede interna a um provedor se dá por meio de um acesso de dados, físico ou via rádio, por meio de um equipamento chamado de “roteador de saída” ou “gateway”.
Pela figura vemos que a Rede Interna “A” contratou o Provedor “2” e a Rede Interna “B” contratou o Provedor “3”.

O gateway da rede interna se liga a um dos roteadores do provedor (em vermelho na figura). A partir desse ponto, os dados dessa rede interna podem alcançar qualquer outra rede interna passando por um ou mais ISPs.


O sistema de endereçamento que permite o encaminhamento correto dos dados para o local desejado é parte do protocolo TCP/IP, utilizado pela Internet, onde cada interface física de qualquer equipamento deve ter um endereço IP que a identifique perante a rede.
O endereço IP é formado por quatro números decimais, separados por pontos, que podem ir de zero a 255 (exemplo: 192.168.12.86), representando um único número binário de 32 bits.
Há dois tipos de endereço IP:
  •         Endereço interno (privado)
Somente pode ser utilizado na rede interna. O protocolo IP define três faixas de endereços especialmente reservados para endereçamentos internos, ou seja, o técnico ao ver o endereço IP sabe se é interno ou externo. Desta forma esses endereços podem se repetir em várias redes internas.
  •         Endereço externo (público)
Para ser utilizado na rede externa. Cada endereço IP é único na Internet. Ele identifica exatamente o destinatário.
Quando se contrata um provedor para que a rede interna tenha acesso ao mundo, esse provedor fornece um endereço IP externo que será o endereço externo do gateway (roteador). Cada provedor tem uma cota de endereços para distribuir a seus clientes.
Há duas formas de o provedor atribuir esse endereço IP:
  •         Fixo
O endereço é sempre o mesmo. Uma vez atribuído não muda mais. A vantagem é que essa rede interna pode gerar algum serviço para a Internet, já que possui um endereço fixo e pode ser encontrada sempre no mesmo “lugar”.
  •         Variável (dinâmico)
O provedor muda o endereço segundo alguma regra dele. Desta forma não há como gerar conteúdo. Um exemplo é quando a localidade deve ser encontrada para fornecer a imagem de uma câmera de vídeo monitoramento. Não há como encontrar a câmera, já que o endereço muda sempre, mas há um serviço de caixa postal, disponível na Internet, que serve de intermediário: o usuário entra em contato com a caixa postal (que possui endereço fixo) que, por sua vez, sabe o endereço da câmera porque fica o tempo todo “perguntando” a ela.  Um exemplo de caixa postal é o DynDNS. Alguns sistemas avançados, como o SIGView da Rhox, também executam essa função.  Esse artifício supera o problema, mas não garante o perfeito desempenho.
O endereço completo de comunicação entre dois pontos usando o protocolo TCP/IP (como é o caso da Internet) é formado por duas partes: IP (32 bits) e TCP (16 bits). Fazendo uma comparação rústica, é como se o endereço IP fosse o endereço de um hotel e oendereço TCP o número da porta do quarto.
Quando um aplicativo da rede interna quer se comunicar com o mundo externo, seu endereço interno deve ser traduzido para endereço externo (público). Esta função é executada pelo roteador. Assim, uma rede interna com um único endereço IP pode ter 64.000 conexões externas, usando o endereço completo com o IP externo.
Segundo a Nation Master atualmente há 12.773 provedores no mundo. Os Estados Unidos lideram, com mais de 50%. Segundo esse mesmo site, há 50 provedores no Brasil.
Outro dado interessante, mas aparentemente desatualizado, fornecido pela Nation Master é a velocidade média de acesso por habitante: o líder é a Dinamarca, com 34,9 Mbps para cada grupo de mil habitantes. Os Estados Unidos está em 23º lugar, com 3,3 Mbps (10 vezes menor que a Dinamarca) e o Brasil, com 149 kbps para cada grupo de mil habitantes, nos coloca na 70º posição do rank.
Artigo publicado originalmente em fabiomontoro.blogspot.com.br
[Crédito da Imagem: Internet - ShutterStock]

Em 38% das casas do país, ao menos 1 pessoa acessa a web pelo celular


Em mais de um terço dos domicílios do país (38,1%), ao menos uma pessoa acessa a internet através do telefone celular, aponta pesquisa divulgada nesta quinta-feira (13) pelo Instituto de Pesquisa Econômica Aplicada (Ipea).

O estudo mostra ainda que 40,8% das residências possuem acesso à internet e que 68% dos usuários afirmam utilizar o serviço diariamente. A pesquisa "Sistema de Indicadores de Percepção Social: serviços de telecomunicação” ouviu moradores de 3.810 domicílios sobre temas como telefonia fixa, celular, acesso à internet, TV por assinatura e TV aberta. Segundo o Ipea, a margem de erro geral em nível nacional é de 1,34%.

No que diz respeito ao tipo de acesso à web, 32,8% afirmaram que se conectam via infraestrutura de TV a cabo, 23% via telefonia fixa e 18,3% via modem de telefonia móvel. Outros 10,6% se conectam através de banda larga via satélite, 10,2% por banda larga via rádio, 1,5% via linha discada e 3,6% por outros meios.
Os principais motivos apontados para a não contratação de serviços de acesso à internet pelos entrevistados foram: não possuir computador (59,6%), não ter condições de pagar o acesso (14,1%), não ter necessidade/interesse (8,7%) e não saber utilizar (4,3%).

O levantamento mostra que o computador está presente em 48,1% domicílios. Entre os que não possuem o aparelho, 34% dos entrevistados responderam que pagariam entre R$ 300 e R$ 800 pelo equipamento. Outros 29,3%, porém, declararam que não estão dispostos a comprar um computador.
Em relação ao preço do serviço de acesso à internet, mais da metade dos domicílios (55,2%) pagam entre R$ 31 e R$ 70.

A pesquisa também indagou sobre a velocidade de acesso contratada. Nesse item, 31,6% dos entrevistados declararam não saber qual era o pacote que haviam contratado. Nas regiões Norte e Nordeste, mais da metade dos entrevistados não sabem a velocidade que recebem da operadora.

45% das casas não têm telefone fixo

Segundo o Ipea, o serviço de telefonia fixa está presente em 54,4% dos domicílios brasileiros. Ou seja, 45,6% das casas não possuem telefonia fixa. "Dos que não possuem telefone fixo no domicilio, quase dois terços afirmaram que o celular substitui o telefone fixo. Daí prescindirem dele", diz o relatório.
Com relação à telefonia móvel, 15,5% responderam que no seu domicílio nenhum morador possuía telefone celular. Em 29,2% das casas, todos os moradores possuem o serviço, enquanto em 16,3% menos da metade dos residentes tem telefone móvel.

A modalidade pré-paga é utilizada em 82,5% dos domicílios e a pós-paga, em 5,9%. Do total de entrevistados, 78,6% afirmaram que utilizam somente o serviço pré-pago e 2% informaram usar o serviço pós-pago, enquanto 3,9% afirmaram adotar ambas as modalidades.
Apenas 19,7% pagam pacotes combinados
Segundo a pesquisa, em 9,1% dos domicílios brasileiros não há utilização de nenhum dos serviços de telecomunicações. "Provavelmente, nesse grupo estão domicílios situados na zona rural e/ou de mais baixa renda", afirma o estudo. Segundo o levantamento, 90,5% dos domicílios possuem TV aberta, enquanto 26,6% possuem TV por assinatura.

O estudo mostra que a ampla maioria, 70,6%, contrata os serviços de telecomunicações separadamente e que apenas 19,7% pagam por pacotes combinados. "Isso pode ser consequência, principalmente, do fato de o domicílio contratar os serviços de prestadores diferentes ou da ausência de oferta de pacotes em todas as áreas. Outra possível causa é a oferta de pacotes combinados não atenderem às possibilidades econômicas das famílias", diz o Ipea.

Nos tipos de pacotes citados pelos entrevistados, a pesquisa mostra o predomínio dos serviços de telefonia fixa, de banda larga e TV por assinatura. A telefonia fixa está presente em 80%, enquanto a banda larga está em 91,2%. Aqueles em que ambos estão presentes representam 76,4% dos pacotes. O tipo mais contratado, 30,1%, é o que contém somente os serviços de telefonia fixa e banda larga. Ainda segundo o Ipea, o valor pago por pacote se concentra entre R$ 71 e R$ 150.

65% avaliam qualidade do serviço celular como 'positiva'

A pesquisa avaliou ainda a percepção da qualidade dos serviços de telecomunicações. Segundo o estudo, 65,5% dos entrevistados consideraram positivo o atual serviço de telefonia celular.
"A percepção da qualidade dos serviços de telefonia móvel aparentemente não está alinhada com os relatos de reclamações nos institutos de defesa do consumidor", destaca o Ipea. Na telefonia fixa, 72,9% consideraram a qualidade do serviço satisfatória. O serviço de internet banda larga teve percepção positiva de 69,31% e a TV por assinatura, de 87,1%.

quinta-feira, 13 de março de 2014

Cartilha de Segurança para Internet


Navegar é preciso, arriscar-se não!
A Cartilha de Segurança para Internet contém recomendações e dicas sobre como você pode aumentar a sua segurança na Internet. Abaixo você encontra links para cada um dos capítulos do Livro da Cartilha. Este livro também está disponível nos formatos PDF e ePub.
Para facilitar a discussão de alguns tópicos da Cartilha e a difusão de conteúdos específicos são disponibilizados periodicamente Fascículos. Cada um destes fascículos é acompanhado de um conjunto de slides que poderão ser utilizados para ministrar palestras ou complementar conteúdos de aulas.
Ajude a divulgar a Cartilha!

Saiba mais em http://cartilha.cert.br/

NSA se disfarçava de Facebook para espalhar malware


Então a NSA está nos espionando. Já sabemos disso há algum tempo. O que você provavelmente não sabia era exatamente como eles faziam isso e, de acordo com uma reportagem de Ryan Gallagher e Glenn Greenwald, a agência usava uma rede automatizada mundial de malwares.

Você sabia, por exemplo, que a NSA se fazia passar pelo Facebook às vezes? Como Gallagher e Greenald relataram, “em alguns casos a NSA se disfarçava como um servidor falso do Facebook, e usava o site da rede social para infectar o computador do alvo e extrair arquivos de um disco rígido.” Isso é bem preocupante quando você lembra que os botões “Curtir” do Facebook estão espalhados por toda a internet, dando à NSA muitas oportunidades de colocar um malware no seu disco rígido.

Esse esforço e outros descritos na reportagem foram feitos pela unidade de elite da NSA, a Tailored Acess Operations (TAO). Já falamos sobre ela antes. No ano passado, o Der Spiegel publicou um artigo sobre o TAO, que aqui no Gizmodo chamamos de “esquadrão ninja de elite”. A nova reportagem adiciona alguns novos detalhes, incluindo as ferramentas específicas usadas pela NSA para espionar a nós, nossos amigos… e terroristas em potencial também:

Um plug-in implantado chamado CAPTIVATEAUDIENCE, por exemplo, é usado para assumir o controle do microfone e gravar conversações sendo feitas perto de um computador. Outro, chamado GUMFISH, pode controlar a webcam e tirar fotografias. O FOGGYBOTTOM grava registros da navegação na internet e coleta detalhes de login e senhas usados para acessar websites e contas de email. O GROK é usado para guardar teclas pressionadas. E SALVAGERRABIT extraí dados de discos flash removíveis conectados a um computador infectado.

Nós já sabíamos que a NSA conseguia ouvir nosso microfone e acessar nossa câmera e detalhes de login. A novidade está nas teclas pressionadas, mas não é algo surpreendente. O realmente preocupante é o quão detalhado e bem pensado é esse projeto de infecção por malware. [The Intercept]



Fonte: http://gizmodo.uol.com.br/nsa-se-disfarcava-de-facebook-para-espalhar-malware/

quarta-feira, 12 de março de 2014

Esta é a sala onde nasceu a internet


Mesmo que a internet seja algo tão onipresente hoje em dia, não é fácil encontrar o 3420 Boelter Hall, local onde tudo começou. Trata-se de uma pequena sala no porão de um grande edifício no campus da Universidade da Califórnia em Los Angeles (EUA).

Nesse local pouco auspicioso, surgiu a rede que permite a você ler esta história onde e quando quiser. Embora a internet em si tenha muitos autores, este é amplamente considerado como o seu local de nascimento. A sala, com pintura verde-limão e chão de linóleo riscado, é o lugar onde foi instalado o primeiro nó da ARPANET; onde foi estabelecido o protocolo de comunicação; e onde foi enviada a primeira mensagem através da rede, para outro nó na Universidade Stanford.


“Quantas revoluções você imagina quando vê – a poucos metros! – onde ela começou? Esta máquina é onde a internet ganhou vida, e onde falou suas primeiras palavras”, diz Leonard Kleinrock, cientista da computação que dá nome ao Centro Kleinrock para Estudos da Internet. Atualmente, o centro mantém vários projetos de pesquisa, e conserva este ambiente em toda a sua glória dos anos 60 – é Mad Men para nerds.

Kleinrock, enquanto fazia pós-graduação no MIT, desenvolveu uma teoria matemática de comutação de pacotes. Nela, os dados são divididos em “pacotes” que podem ser trocados através de uma rede, permitindo que vários usuários possam acessá-los em diferentes plataformas. Esta é a tecnologia na qual a internet é baseada.

Isso era de grande interesse para o Departamento de Defesa, mais especificamente para sua Agência de Projetos de Pesquisa Avançada (ARPA, que mais tarde virou DARPA). Eles sabiam que poderiam usar a comutação de pacotes para divulgar trabalhos, pesquisas e software para o público de forma mais eficiente.
A ARPA enviou à equipe uma solicitação de proposta, buscando uma equipe para construir, instalar e gerir um programa piloto que usaria este novo tipo de rede. Uma equipe de engenheiros de computação da Bolt Beranek & Newman (BBN) ganhou o contrato, e construiu uma máquina enorme chamada de IMP (Processador de Mensagens de Interface) – basicamente, o primeiro roteador.

Eles colocaram o primeiro nó da rede na UCLA, onde Kleinrock se tornou professor, e a faculdade ficou responsável por testar o sistema e realizar experimentos. Sua equipe projetou uma rede que poderia enviar mensagens usando a infraestrutura de dados existente – as linhas do sistema telefônico.

Em 29 de outubro de 1969, uma equipe reunida no 3420 Boelter Hall tentou enviar a primeira mensagem ao Instituto de Pesquisa de Stanford: “LOGIN”. Eles conseguiram digitar as primeiras duas letras, aí o sistema caiu. Assim, a primeira mensagem enviada pelo que viria a ser a internet foi “LO”.

Uma hora depois, eles tentaram de novo, e deu certo. Até dezembro de 1969, quatro nós foram permanentemente instalados na UCLA, no Instituto de Pesquisa de Stanford, Universidade de Utah e Universidade da Califórnia em Santa Barbara. Em 1975, já havia 57 IMPs. Em 1981, eram 213. O resto é história.


Mas, mesmo que a internet tenha se tornado parte do nosso cotidiano, a relevância histórica destas máquinas foi quase destruída. Apenas dois IMPs sobreviveram até os dias de hoje. Na UCLA, o “roteador” foi substituído por uma nova tecnologia em 1982, e levado para uma sala dos professores na faculdade. Ele ficava perto de um bebedouro, até ser resgatado por Kleinrock. Ele também conseguiu salvar um computador SDS Sigma 7, com o tamanho de uma geladeira, que foi usado para guardar aquela primeira mensagem “LO” enviada por rede. Em 2011, o centro Kleinrock foi inaugurado nesta sala – que como observa Bradley Fidler, costumava ser maior. Ele atua como diretor do centro, e prestou atenção meticulosa aos detalhes para manter a sala no estilo dos anos 60. Parece que recuperar o local original foi o maior desafio: a sala foi transformada em um laboratório de informática para os alunos atuais. Por isso, eles tiveram que convencer a faculdade a subdividi-la – já que não sobram salas de aula por lá.

Quase todos os móveis são da época, resgatados de armazéns da UCLA ou encontrados em outros lugares, e as luzes são originais porque… bem, porque nunca foram modernizadas. O tom verde da parede foi recriado a partir de fotografias e das memórias vívidas da equipe. O único anacronismo, se podemos chamá-lo assim, é um roteador wireless – escondido por um alto-falante de madeira na parede.

Por muito tempo, mesmo aqueles que trabalharam no projeto não entendiam o significado histórico do que haviam feito. “Nós não sabíamos o que estávamos fazendo”, diz Kleinrock. “Nós nem sequer tiramos uma foto.” O jornal da faculdade publicou uma notinha, mas o feito passou despercebido.


A rede cresceu, mas só ganhou impulso após a invenção do e-mail em 1972. “Nosso trabalho inicial era fazer computadores conversarem com pessoas, ou com outros computadores. Nós não prevíamos que pessoas usariam isso para falar com outras pessoas”, diz ele. Em 1973, o e-mail já correspondia a 75% do tráfego de ARPANET.

Essa foi a outra coisa bacana sobre a cultura inicial da internet: a ARPA não era possessiva, mesmo tendo encomendado o projeto para o que deveria ser uma ferramenta relacionada à defesa nacional. “Não havia barreiras; se você quisesse usá-la, era só usar”, diz Kleinrock. “Nós confiávamos em todos, e conhecíamos todo mundo até o final dos anos 80. A internet cresceu graças a comunidades abertas e a um ambiente compartilhado.”


Eu visitei o espaço com Andrew Blum, autor do livro Tubos – o Mundo Físico da Internet. Este é o primeiro livro que eu li para entender a fisicalidade da rede, começando por esta sala, indo pelos cabos submarinos que atravessam o Atlântico, até os centros de dados massivos espalhados pelo mundo.

Era o dia em que a Comcast anunciou sua fusão com a Time-Warner: duas empresas enormes de banda larga se unirão em uma só nos EUA. Foi uma notícia mal-recebida por ser um potencial golpe à neutralidade de rede, um princípio que defende que provedores de acesso não prejudiquem qualquer tipo de tráfego – como YouTube ou BitTorrent.


Estávamos a poucos metros do IMP, e falamos sobre a chance de ter que viver com essa entidade gigantesca – basicamente um monopólio no mercado de banda larga. Mas Fidler oferece um futuro melhor. “Há uma tendência crescente para falar sobre a internet como ‘a nuvem’, o que é totalmente errado, porque a internet não é algo no céu que faz o que quer”, diz ele. “A internet muda quando as pessoas tomam decisões coletivas para mudá-la!”

Ele acredita que a sala e seus 40 anos de história podem nos ajudar a entender que a internet foi, e ainda é, movida por humanos. “Talvez haja muita gente no debate sobre a neutralidade da rede que se resignou ao inevitável, o que quer que isso seja. Mas essa é a abordagem errada para todos”, diz ele. “Quando você está em uma sala como o antigo nó da ARPANET na UCLA, você se lembra que as pessoas deram forma à internet, e ainda fazem isso, e todos nós podemos fazer parte dessas decisões.”


Fonte: http://gizmodo.uol.com.br/sala-internet-nasceu/
Fotos: cortesia do Kleinrock Center for Internet Studies




Falha no WhatsApp permite que qualquer app acesse suas mensagens.



Uma falha de segurança séria foi identificada no WhatsApp, que permitiria que qualquer outro aplicativo tivesse acesso às mensagens que o usuário troca com seus contatos. A falha foi encontrada e revelada pelo especialista em segurança Bas Bosschert.

Após uma descrição detalhada do processo em seu blog, a conclusão é que o aplicativo falha na hora de criptografar o backup das mensagens, expondo os usuários sem precisar de muito esforço.

Segundo o especialista, a falha acontece quando o usuário realiza o back-up das mensagens para não perdê-las em caso de desintalação e reinstalação, por exemplo. O app estaria usando a mesma criptografia todas as vezes, em vez de criar uma nova chave para cada usuário. Pior: a encriptação do WhatsApp já é quebrada com grande facilidade.

Isso significa que o armazenamento dos dados no aparelho é feito de forma insegura e outros aplicativos maliciosos podem roubá-lo sem problemas, para abrir as mensagens do usuário ou procurar dados pessoais. E as versões mais antigas do app nem mesmo encriptavam as mensagens.

Ao salvar estas informações no cartão SD, basta que o usuário dê permissão para o aplicativo malicioso ler o armazenamento externo para que ele receba acesso a estas informações. "Como a maioria das pessoas permitem tudo em seus aparelhos Android, isso não é um problema", afirmou ele.

Para acrescentar ironia à situação, Bas Bosschert ainda relembra do temor dos usuários do WhatsApp após a venda ao Facebook, temendo que a rede social fosse ter acesso a todas as suas mensagens. "O Facebook não precisava ter comprado o WhatsApp para ler suas mensagens", afirmou.

Fonte: http://olhardigital.uol.com.br/noticia/falha-no-whatsapp-permite-que-qualquer-app-acesse-suas-mensagens/40766