Quando você começa a trabalhar com grandes ambientes começa a perceber que certos limites e métricas impostas quanto a quantidade de processadores, memória, tráfego de rede e espaço em disco estão na cabeça do povo. Lendo, assistindo e utilizando serviços como Twitter, Facebook e Orkut, você começa a pensar nas milhares de pessoas, textos e dados trafegados pela Internet e pelos servidores.

Como armazenar tudo isso ? Será possível existir tanto disco/HD para armazenar toda essa informação ?

Vamos apontar as nossas ideias para um ambiente mais próximo do nosso mundo, sites como Americanas.com, submarino.com.br e mercadolivre.com.br, será que eles precisam e utilizam tanto tráfego de rede e espaço em disco ? Isso sem falar em processamento.

Esta semana eu tive a prova que sim, depois de ter especificado uma infraestrutura a qual precisa nada mais nada menos de 100TB em espaço em disco dedicado. Isso para suportar 4 servidores aplicacionais que serão responsáveis por anteder cerca de 3.000 requisições HTTP por segundo, onde a grande maioria dos objetos consultados será de imagens e texto.

A estimativa foi feita na quantidade de usuários X o tamanho das imagens e textos em média armazenados X a quantidade de tempo = 100TB. Observem que esse espaço foi dimensionado para um período de 3 meses, período esse da campanha do cliente.

E o backup ? O backup irá consumir esse valor vezes 5, nos meus cálculos devido a política implementada.

Total da brincadeira 600TB = 100TB + (100TB x 5)

Com um dimensionamento desses, fica fácil entender o porquê da necessidade crescente por espaço em disco por várias empresas em todo mundo.

No caso da infraestrutura citada acima, faltam cerca de 424 TB para atingirmos a marca de 1PB (1.024TB). Já lhes adianto que o volume bruto de espaço em disco do datacenter que irá suportar a infraestrutura em questão deve estar na casa dos 100PB e crescendo 20% a cada mês.

O problema disso está no espaço físico para armazenamento de tanto storage, onde empresas como EMC, Netapp e Hitachi vem apresentando soluções de migração de dados para discos que suportem uma maior densidade de dados, mas isso custo caro, há perda de performance e afeta ambientes produtivos.

Uma solução para a grande demanda mundial por espaço em disco por empresas como a da arquitetura que eu especifiquei acima é a utilização de serviços providos por “Cloud Computing – Storage as a Service.”

O problema está na performance quanto a consulta desses dados onde mais de 90% dos casos é feita via Internet, com links de 100MB. Não é uma coisa viável para uma grande maioria de empresas que precisa de uma rápida resposta quanto a consulta de um determinado dado, por isso que eu acredito que nem todos os serviços de uma empresa devem ser migrados para soluções Cloud, antes deve haver uma análise completa dos prós e contras destas soluções.

Compartilhar:

Este post tem um comentário

Deixe uma resposta

Fechar Menu