Sabe onde o Facebook guarda as nossas selfies?

Eu sempre me perguntei onde o pessoal dessas redes sociais armazena aquilo que a gente posta: vídeos, fotos, conversas… O pessoal do Twitter, do Facebook, do Whatsapp. Fiquei imaginando o tamanho do banco de dados deles, como isso deve ser gigantesco,  guardando todas essas centenas de milhares de informações.

Bem, dos outros não sei, mas do Facebook eu descobri. Ele tem três data centers espalhados pelos Estados Unidos e um na Europa, que acaba de ser inaugurado.

Mas, antes de mostrar esses CPDs (Centro de Processamento de Dados, que é data center em português), vamos definir o que é isso: um data center é o local onde são concentrados os equipamentos de processamento e armazenamento de dados de uma empresa ou organização. Lá estão os milhares de servidores e bancos de armazenamento de dados, processando grande quantidade de informação.

Esses prédios estão longe de ser edifícios normais: alguns data centers usam mais de cem vezes a energia de um prédio de escritórios. Eles precisam ser ultra seguros e ultra estáveis contra hackers, contra desastres naturais e contra todo tipo de problema ambiental. Afinal, eles guardam os dados do mundo inteiro!

O Facebook tem mais de 130 bilhões de usuários, então imagine a quantidade de informação que esse povo produz – e a quantidade de energia que é necessária para manter esses data centers funcionando. Pois bem, o Facebook se gaba de ter conseguido economizar USD$ 1.2 bilhões nos últimos três anos, otimizando seus data centers, hardwares e softwares.

Enfim, vamos ver os locais onde nossos vídeos e selfies estão guardados.

Este é o principal data center do Facebook, em Prineville, Oregon (EUA). Tem mais de mil quilômetros de cabos, que se fossem esticados um na frente do outro, seriam equivalentes à distância entre São Paulo e Porto Alegre.

Esse data center é uma obra de engenharia pensada para otimizar a forma como algo assim deve ser. O projeto foi o primeiro a sair da iniciativa Open Compute Project, criada pelo próprio Facebook para repensar esse tipo de prédio — e que é disponibilizada gratuitamente para todos. Dessa forma, mais empresas podem seguir os passos do OCP e criar data centers mais práticos.

Por conta disso, ele é 38% mais eficiente que os equivalentes em economia de energia, e gastando 24% a menos em custos operacionais.

Outro enorme data center foi inaugurado em Altoona, Iowa (EUA) e tem o dobro do tamanho da Disneylândia.

Este primeiro prédio que se vê na foto já está em operação e, assim que a prefeitura local liberar, será construído um segundo ao lado dele, do mesmo tamanho e estrutura. Que ficará pronto em um ano, com 460 operários trabalhando diariamente.

O terceiro data center foi construído em Forest City, Carolina do Norte (EUA) ao custo de USD$ 200 milhões. Graças aos projetos baseados na eficiência gerados pela iniciativa OCP, foi possível economizar – em custos de infraestrutura – o equivalente à geração de energia para 40.000 casas durante um ano.

Para demonstrar uma das formas como acontece essa economia de energia, Facebook explicou que eles reusam o calor emitido pelos servidores para aquecer os escritórios durante os meses de inverno – que, naquela região, é bastante intenso.

Já nos meses de calor, um sistema de resfriamento evaporativo é usado para evaporar a água para resfriar o ar que entra –  ao contrário de sistemas de refrigeração tradicionais. Ele minimiza o consumo de água usando o ar exterior. Esse data center não usa aparelhos de ar-condicionado para resfriar seus servidores, baseando-se 100% no ar resfriado que vem de fora.

Agora, o mais impressionante data center que achei é também o primeiro fora dos Estados Unidos. Uma grande sacada!

O Facebook é o segundo site mais acessado da internet, perdendo apenas para o onipresente Google. Como eu escrevi acima, precisa de milhares de servidores, que esquentam. Como resfriar tantos servidores assim? Construindo um gigantesco data center eficiente num refrigerador natural, ou seja, próximo ao círculo ártico!

Está instalado em Lulea, na Suécia. Quer dizer, basta abrir a janela e o vento gelado resfria as máquinas.

Também foi construído de acordo com um projeto gerado pelo OCP. As instalações e paredes foram feitas em outros locais e chegaram ao local do data center só para serem instaladas. Já os servidores chegaram em caixas compactas, desmontados, mas com simples passos de montagem. Assim nasceu o Rapid Deployment Data Center (RDDC), nome desse processo para criar e montar um data center de maneira bem rápida, como se fosse LEGO!

Os servidores em Lulea. A luz azul ajuda a resfriar as máquinas!

A foto mostra um rack com servidores, nas instalações de Lulea. No alto, os comutadores de rede, depois estão os servidores, que enchem a maior parte do rack e, na parte inferior, está o local de armazenamento. Olha quantos servidores!

A área escolhida, com pouco mais de dois hectares, tem temperatura abaixo de zero na maior parte do ano. Além disso,  o país tem uma das melhores distribuições de energia do mundo. Isso é bem importante para quem precisa garantir que suas fotos não se percam por aí, afinal eles recebem 400 bilhões de fotos e seis bilhões de curtidas por dia!

Mas, caso essa distribuição de energia falhe, o prédio ainda conta com 14 geradores de reserva.

Mas, para que ninguém pense que esses data centers sejam apenas um monte de servidores empilhados, há áreas sociais bem legais, como o escritório dos funcionários em Lulea, repetindo o mesmo modelo que existe em todos os prédios do Facebook.

Ah, e para aqueles mais catastróficos, que podem estar se perguntando: “E se um maluco fundamentalista que prega a volta a uma vida sem computadores explodir tudo?”, a resposta é: não se preocupe, o Facebook ainda aluga muita infraestrutura em outros locais.

Isso significa, meu caro amigo, que aquela sua selfie ridícula postada por sua ex-namorada como vingança ainda estará lá…

 

 

 

 

Fontes:

Facebook

manualdousuario.net

datacenterknowledge.com

tecnoblog.net

Anúncios

Para fugir do ar-condicionado, Microsoft ‘mergulha’ data center

O data center Leona Philpot antes de ser colocado nas águas do oceano Pacífico, na Califórnia.

Inspirados por Júlio Verne, os pesquisadores da Microsoft acreditam que o futuro dos data centers possa estar no fundo do mar.

A Microsoft testou o protótipo de uma central autônoma de processamento de dados capaz de operar centenas de metros abaixo da superfície do oceano, eliminando um dos mais dispendiosos problemas que o setor de tecnologia enfrenta: o custo do ar-condicionado.

Os data centers atuais, que processam absolutamente todos os dados do setor de tecnologia, dos serviços de vídeo on-line às redes sociais, abrigam milhares de servidores que geram muito calor. E quando o calor é demais, os servidores caem.

Colocar todo esse equipamento sob a água gélida do oceano poderia resolver esse problema. Também poderia atender às demandas de energia do mundo da computação, que crescem exponencialmente, porque a Microsoft está considerando combinar o sistema a uma turbina ou a um módulo que aproveita a energia das marés para gerar a eletricidade necessária ao funcionamento do data center.

Esse esforço, batizado de Project Natick, pode levar à colocação de gigantescos tubos de aço conectados por cabos de fibra óptica no leito do oceano. Outra possibilidade seria posicionar cápsulas metálicas cilíndricas em suspensão abaixo da superfície do mar, para capturar as correntes oceânicas com turbinas que geram eletricidade.

EMPECILHOS

Uma ideia radical como essa poderia encontrar obstáculos, entre os quais preocupações ambientais e questões técnicas imprevistas. Mas os pesquisadores da Microsoft afirmam que a produção em massa das cápsulas poderia encurtar o prazo necessário para colocar novos data centers em operação, dos dois anos necessários hoje para instalar uma central de processamento de dados em terra para apenas 90 dias, o que ofereceria imensa vantagem de custo.

Os recipientes contendo servidores submarinos também poderiam ajudar a fazer com que os serviços de web operem mais rápido. Boa parte da população do planeta vive em centros urbanos perto do oceano, mas bem distante dos data centers, em geral construídos em áreas distantes e com muito espaço disponível.

A capacidade de posicionar poder de computação perto dos usuários reduziria a latência, ou seja, a espera que as pessoas encaram para receber dados ou acessar serviços, o que é uma questão importante para os usuários da web.

Com o lançamento de tecnologias diversificadas do entretenimento digital e a rápida chegada da “internet das coisas”, a demanda por computação centralizada vem crescendo exponencialmente. A Microsoft administra mais de cem data centers em todo o mundo, e continua a construir novas centrais em ritmo acelerado. A empresa já investiu mais de US$ 15 bilhões em um sistema mundial de data centers que agora responde pelo fornecimento de mais de 200 serviços on-line.

MEMÓRIA

“Quando você pega o seu smartphone, pensa que está usando um computador pequeno e miraculoso, mas na verdade está usando mais de cem computadores diferentes localizados nessa coisa conhecida como a nuvem”, disse Peter Lee, vice-presidente da Microsoft Research. “E quando você multiplica isso por bilhões de pessoas, o resultado é um volume espantoso de trabalho de computação.”

A companhia recentemente concluiu um teste de 105 dias de duração com uma cápsula de aço de 2,40 metros de diâmetro posicionada 10 metros abaixo da superfície do oceano Pacífico na costa do centro da Califórnia, diante de San Luis Obispo. Controlado de escritórios na sede da Microsoft em Redmond, o teste se provou mais bem-sucedido do que os pesquisadores antecipavam.

Os pesquisadores estavam preocupados com defeitos no hardware e com a possibilidade de vazamentos. O sistema subaquático estava equipado com cem sensores diferentes para medir pressão, umidade, movimento e outras condições para compreender melhor como é operar em um ambiente ao qual é impossível enviar um técnico para consertar defeitos no meio da madrugada.

O sistema se manteve funcional. Isso levou os engenheiros a prolongar o prazo da experiência e até a operar nele projetos de processamento de dados comerciais do Azure, o sistema de computação em nuvem da Microsoft.

O primeiro protótipo, que ganhou o carinhoso apelido “Leona Philpot” –uma personagem na série de videogames Halo, da Microsoft– foi recuperado e trazido para a sede da empresa, com o revestimento metálico parcialmente coberto de crustáceos.

Fonte:
JOHN MARKOFF, The New York Times