Thursday, 25 de April de 2024 ISSN 1519-7670 - Ano 24 - nº 1284

Data center, a verdadeira ‘Terra de Gigantes’

Na semana passada, após a aprovação na Câmara dos Deputados do projeto do Marco Civil da Internet [terça-feira, 25/3], o ministro das Comunicações, Paulo Bernardo, avisou que voltaria à carga na questão da obrigatoriedade do armazenamento de dados em data centers brasileiros. Segundo ele, o tema constará da proposta de Lei de Proteção de Dados Individuais, que o governo vai enviar ao Congresso no próximo semestre.

E como funciona um data center local? Pensando nisso, O GLOBO visitou recentemente um dos maiores centros de armazenamento de dados do Rio: o data center da Alog, em Del Castilho – segundo a empresa, o único com certificação Tier III no município (esse tipo de certificação mede o grau de infraestrutura de armazenamento e energia empregado numa construção desse tipo). A sensação é a de entrar num episódio de “Terra de gigantes” misturado aos ambientes de alta segurança da unidade de contraterrorismo de “24 horas”.

– Nossa capacidade total é de 1.200 racks (espaço para encaixar servidores). Se ocupadas todas as três divisões do data center, conseguiríamos empilhar racks numa altura equivalente à de 66 Cristos Redentores – compara Victor Arnaud, diretor da Alog. – A capacidade de armazenamento, se traduzida em músicas no formato MP3, seria suficiente para realizar 11 milhões de festivais Rock in Rio mundo afora.

Clima de “Missão Impossível”

Inaugurado no fim de 2013, o data center de Del Castilho tem 15 mil metros quadrados de área (metade de todos os quatro centros que a Alog tem no Rio e em São Paulo) e representou R$ 45 milhões do investimento de R$ 180 milhões que a empresa fez no Brasil (90% do capital pertencem à multinacional do setor Equinix e ao fundo Riverwood). Tudo é compartimentalizado no local, com portas de alta segurança regidas por um teclado numérico combinado com um leitor biométrico, como em filmes do tipo “Missão Impossível”. Para entrar e sair do coração das áreas de armazenamento, é preciso passar por um portal de controle semelhante às cabines de scan de aeroportos dos EUA e apertar um botão vermelho para a porta interna se abrir.

A temperatura máxima no ambiente dos servidores é de 21 graus, mas dentro dos espaços modulares onde ficam as prateleiras de equipamentos ela cai para 18 graus, com o ar refrigerado saindo do chão e circulando até o teto, de onde retorna ao gigantesco sistema de refrigeração, num ciclo contínuo. O sistema, segundo os engenheiros locais, seria capaz de alimentar 800 casas de dois quartos.

Em qualquer lugar onde se abra uma porta, em poucos segundos ela começa a apitar, indicando uma potencial brecha de segurança. O comando de vigilância tem 125 câmeras que permitem três meses de gravação, e no laboratório de configuração dos equipamentos que chegam e recebem tratamento de RFID, ou identificação por radiofrequência.

– Desse modo, os clientes podem verificar o status de seus aparelhos através de seus espaços on-line em nosso site, recebendo inclusive alertas em caso de problemas. E podem nos contatar as 24 horas do dia – conta Eduardo Carvalho, presidente da empresa. – Um dia atendi uma ligação no celular no meio da madrugada, de um novo cliente que não acreditava que a medida fosse de verdade e resolveu testá-la.

Os data centers estão na ordem do dia não somente devido ao debate político, mas também por causa do risco de apagão elétrico no país. No caso da estrutura de Del Castilho, a energia é garantida pela conexão com duas subestações da Light (Triagem e Cascadura), além de dois geradores do tamanho de caçambas de caminhões alimentados por 60 mil litros de óleo diesel e com autonomia para 62 horas sem reabastecimento.

– A energia disponível alimentaria 13 campos de futebol. E, se esticássemos o volume de cabos usados na construção, obteríamos uma distância equivalente a 33 vezes a orla de Copacabana – diz Arnaud.

– O risco de apagão, na verdade, faz os clientes de data centers crescerem, preocupados com seus ativos – constata Carvalho, que já viveu o fenômeno quando do apagão de 2002.

Big Data exigirá mais estruturas

Segundo Carvalho, hoje nos EUA 50% das empresas já estão em data centers, contra apenas 10% no Brasil. A estrutura que visitamos utiliza tecnologia de todas as quatro principais operadoras brasileiras (Vivo, Oi, TIM e Claro), em salas quase gêmeas para que a operação seja redundante e contínua. A segurança física é tão importante quanto a virtual, que inclui firewalls, antivírus e camadas de ciberproteção de grande porte: há muros, guaritas, e uma estratégia de contenção de incêndio que impede um fogaréu iniciado externamente de chegar aos servidores por pelo menos duas horas. Dentro, extintores específicos têm um gás especial para apagar as chamas, sem a espuma dos aparelhos convencionais para não danificar os computadores dos clientes.

Com o advento do Big Data em nosso dias – a explosão de informações que não para de crescer diariamente –, haverá necessidade de cada vez mais data centers no mundo. Especialmente à medida que aumentam os dados produzidos pela comunicação entre máquinas (o chamado fenômeno M2M, machine-to-machine em inglês). Eles devem ficar 15 vezes maiores até 2020, diz a EMC, líder no setor de soluções de armazenamento. E, até o final da década, o universo de dados digitais alcançaria 40 zettabytes (ZB). Se pudessem ser gravados em discos Blu-Ray empilhados, esses 40ZB pesariam o mesmo que 424 porta-aviões americanos juntos da classe Nimitz. Ou seja, 25,4 milhões de toneladas de informação.

******

André Machado, do Globo