Ao longo dos anos, o universo dos dados e da sua gestão evoluiu de forma contínua para atender a requisitos cada vez mais complexos.
De bancos de dados relacionais a data warehouses, data lakes e agora lakehouses – com dados estruturados e não estruturados, em diferentes formatos, hospedados on-premises ou em nuvens públicas e acessíveis por diversos protocolos – o cenário atual é que muitas empresas lidam com dezenas de maneiras de armazenar, gerenciar e disponibilizar dados para atender às suas aplicações, unidades de negócio e usuários.
A chegada de regulamentações mais rigorosas e o maior foco em resiliência, segurança e governança tornaram o trabalho de analisar e operacionalizar esses dados, em conformidade com normas e políticas internas, uma tarefa ainda mais desafiadora.
Essa complexidade aumenta com a ascensão da IA nas empresas, que exige acesso a todos esses dados para cumprir seu potencial e, ao mesmo tempo, gera novos dados que precisam ser compreendidos, armazenados e protegidos.
O custo dos silos
Como o armazenamento se encaixa nesse cenário? Em muitas grandes empresas, os conjuntos de armazenamento on-premises ainda são dedicados a pilhas verticais de aplicações, isolados e gerenciados de forma independente, um a um.
Em geral, há boas razões para essa configuração, sejam elas técnicas ou organizacionais. O efeito prático, porém, é a criação de silos e fragmentação, o que torna o gerenciamento mais custoso e ineficiente, além de frequentemente levar à subutilização da infraestrutura. Esse isolamento também dificulta o acesso e a movimentação dos dados.
Com isso, a pegada de dados das empresas aumenta, mas se torna cada vez mais inacessível, difícil de gerenciar e mais vulnerável a riscos de conformidade e ameaças cibernéticas. Como os dados ficam vinculados a aplicações específicas, é necessário acessá-los pela própria aplicação nativa ou criar cópias e movê-las.
Desenvolvedores, cientistas de dados e usuários precisam trabalhar com esses dados em tempo real, criando ou retrabalhando aplicações, relatórios e análises. Sem acesso centralizado, acabam copiando os dados para locais convenientes, o que leva a múltiplas versões fora do alcance de outras aplicações e das práticas de governança. Isso gera perda de visibilidade e controle, além de deixar cópias expostas e desprotegidas. Se uma aplicação diferente da original precisar acessar esse conjunto de dados, é iniciado um processo trabalhoso, que adiciona sobrecarga ao gerenciamento e pode levar a migrações complexas.
Em resumo, vincular conjuntos de armazenamento a aplicações específicas gera, de um lado, silos cativos de dados e, de outro, a proliferação descontrolada de cópias. O resultado são custos maiores, tanto em gerenciamento quanto em capacidade de armazenamento, uma superfície de ataque mais ampla para ameaças cibernéticas e um ambiente de dados menos acessível para análises e IA para obter insights.
Quem abriu o caminho?
O contraste evidente é como tudo isso funciona na nuvem, especialmente entre os hiperescaladores. Neles, o armazenamento é abstraído: a capacidade é agrupada por nível de desempenho e gerenciada por uma camada unificada de plano de controle. Isso facilita o consumo pelos clientes e garante ao hiperescalador uma utilização extremamente eficiente dos recursos.
O desafio para as empresas é trazer esse modelo abstrato e unificado de operação para dentro de casa. É preciso migrar do gerenciamento de sistemas de armazenamento isolados para o gerenciamento de dados como um todo, tratando o armazenamento como um recurso único, consistente e inteligente em todo o ambiente. Isso permite que a empresa compreenda e controle seus conjuntos de dados independentemente do hardware que os sustenta.
Um novo capítulo na gestão de dados
A próxima evolução do data center corporativo será rumo a uma nuvem de dados virtualizada. Isso será viabilizado pela combinação da tecnologia de armazenamento adequada e de um software inteligente, capaz de orquestrar todos os recursos disponíveis e viabilizar o chamado “modelo operacional em nuvem”.
Essa nuvem de dados precisa de um plano de controle unificado, com gestão e governança inteligentes e autônomas de ponta a ponta, seja on-premises, em nuvem pública ou em ambientes híbridos.
Baseada em políticas e orientada por APIs, ela possibilita autoatendimento, consistência operacional, integração com todo o ecossistema de aplicações e uma governança simplificada, independentemente da escala. Isso elimina silos e contrasta com o modelo ainda comum de gerenciamento array por array e operações manuais.
Do lado do hardware, capacidade e desempenho devem ser escalonáveis de forma dinâmica e transparente, sem downtime, sem degradação de performance e sem migrações desnecessárias de dados. Essa infraestrutura também precisa permitir que a empresa disponibilize diferentes classes de serviço, alinhadas às políticas de desempenho, resiliência, segurança e compliance, facilmente consumidas por aplicações, unidades de negócio e usuários internos, tudo orquestrado pelo plano de controle distribuído.
Assim, os dados podem ser compartilhados, copiados e distribuídos de maneira automatizada, eficiente e guiada por políticas, atendendo às necessidades de aplicações modernas e casos de uso de IA.
Como responder ao desafio
Até o momento, apenas uma abordagem arquitetônica tem se mostrado capaz de enfrentar esse desafio: a criação de uma nuvem de dados corporativa.
Essa arquitetura reúne os principais elementos de funcionalidade de um ambiente de armazenamento moderno para formar um plano de dados unificado, que entrega uma experiência consistente para blocos, arquivos e objetos em toda a infraestrutura, além de oferecer recursos essenciais, como snapshots, replicação, alta disponibilidade entre sites e proteção contra ransomware.
Esses recursos são integrados a um ambiente operacional comum, garantindo consistência de gestão, inteligência para monitoramento e otimização de desempenho em toda a frota.
Outro componente essencial é um plano de controle unificado que conecta diferentes pools de armazenamento, gerenciando classes de dados com base em políticas. Isso possibilita que os dados sejam provisionados de acordo com o perfil de cada carga de trabalho e movimentados de forma dinâmica entre classes compatíveis. O resultado é um gerenciamento orientado por políticas e automação, eliminando dependência de operações manuais e do gerenciamento isolado de arrays.
Por fim, a adoção de modelos de consumo flexíveis e atualizações contínuas garante que a infraestrutura permaneça sempre moderna, reduzindo interrupções e prolongando a vida útil dos investimentos
Próxima parada
Uma nuvem de dados corporativa é uma abordagem que busca resolver o desafio do armazenamento fragmentado e em silos, unificando o gerenciamento de dados entre blocos, arquivos e objetos. Ao usar automação baseada em políticas, inteligência para tomada de decisão e escalabilidade contínua, ela transforma o papel do armazenamento dentro do data center em uma plataforma orientada por software, preparada para lidar com os requisitos de cargas de trabalho modernas, incluindo IA.
O objetivo é permitir que as empresas deixem de se concentrar em gerenciar infraestrutura e passem a gerenciar seus dados de forma estratégica, com mais agilidade, governança e eficiência operacional.
*Por Paulo de Godoy, country manager da Pure Storage.





