La settimana scorsa ho partecipato, insieme a Fabio e ad una manciata di altri blogger all’HDS bloggers day presso gli la sede europea di HDS in UK.

L’evento è stato organizzato al meglio ed è stata una grande opportunità per conoscere di più di HDS (Hitachi Data System) e scambiare i diversi punti di vista con i top executive dell’azienda. Spesso è difficile capire la visione reale e la strategia di queste multinazionali ma, un evento informale come questo, ha permesso di far incontrare diverse persone e ne sono scaturite discussioni di indubbio valore per tutti!
La cosa che mi ha interessato di più in quei due giorni è l’evoluzione di un prodotto che HDS comprò qualche anno fa Hitachi Content Platform. Questo prodotto è la base di un paio di soluzioni che credo molto interessanti: Hitachi Clinical Repository (un paio di link: qui e qui) che ha l’obiettivo di migliorare la gestione dei dati clinici e l’altra (oggetto di questo articolo) nell’ambito del cloud computing privato!
HCP è uno storage ad oggetti, un particolare tipo di storage dove i dati non sono gestiti come blocchi o files ma come oggetti: (dati + metadati). L’object storage è lo standard emergente per costruire quello che viene normalmente definito cloud storage e si possono trovare esempi di questo tipo anche molto famosi. Forse, il più famoso è il servizio Amazon S3 ma molte startup e grandi vendor (come Scality or EMC) stanno lavorando alacremente per portare le loro alternative per il public/private cloud.
L’obiettivo di questo articolo è quindi quello di parlare di HCP+HDI (Hitachi Data Ingestor) una soluzione di HDS per costruire un vero cloud storage privato in modo semplice. La proposta di HDS ha tutte le caratteristiche a cui si può pensare quando si cerca di costruire il proprio cloud::
  • smart object storage alla base;
  • accesso multiprotocollo;
  • architettura multitenant e sicura;
  • ricco di funzionalità e scalabile con capacità di replicata avanzate (object based);
  • percorso di migrazione legacy-to-cloud morbido;

ma il punto più importante per me non sta nei primi 4 (tutti i vendor dicono di averli) ma nell’ultimo. La killing application è lì: la capacità di migrare un ambiente NAS tradizionale ad un cloud storage con un minimo impatto sugli utenti finali!

due parole sull’HCP

Hitachi Content Platform è un object storage ben disegnato per gli ambienti enterprise.
Dal punto di vista hardware esistono due opzioni:
  • una basata su appliance senza storage esterno (ogni nodo del cluster ospita una certa quantità di spazio disco e l’intero cluster può scalre fino ad un massimo di 85TB)
  • e l’altra di stampo high-end e più allineata con la visione HDS dello storage: “uno storage a blocchi con un po di intelligenza sopra (un appliance)”, non la mia preferità in realtà, ma le specifiche tecniche riportano che può scalare fino a 40PB in un singolo cluster!
Da un punto di vista prettamente software sono presenti molte caratteristiche interessanti per l’enterprise che vanno dalla funzionalità WORM (write once ready many), deduplica (per ora a livello file), integrazioni con applicazioni come SharePointint, etc.
I protocolli di accesso allo storage sono tutti quelli desiderabili per questo tipo di soluzioni: CIFS, NFS v3, HTTP v1.1, WebDAV, SMTP, NDMP v4 e, soprattutto, REST.
Tutto condito con una interfaccia utente abbastanza accattivante (non così banale per HDS).
Ok, fino ad ora non è che abbia scritto nulla di particolarmente interessante: HCP è un buon prodotto ma molti vendor hanno soluzioni similari, quindi???

HDI: l’add-on che fa la differenza

Gli Hitachi Data Ingestors sono degli appliances (che coprono un range che va da una semplice VM fino ad un sistema completamente ridondato -in cluster- con storage esterno) che vengono visti come NAS dall’utente finale ma che, in realtà lavorano come una cache (la dimensione può variare tanto quanto necessario per questioni di performance e affidabilità) verso l’HCP!
HDI ha alcune funzionalità decisamente interessanti:
  • scalabilità (fino a 400M files)
  • protocolli CIFS e NFS
  • integrazione con AD, LDAP (con “dynamic users mapping” fra Unix e Windows)
  • WORM
  • embedded replication
  • funzionalità di tiering automatico
HDI può essere piazzato in ogni remote office o branch office (ROBO) per fornire un normale servizio di File server (può anche usare la vecchia infrastruttura storage esistente per la sua cache): ogni file copiato al suo interno verrà replicato verso un repository centrale HCP.
L’architettura di HDI permette di definire delle soglie sullo spazio occuapto localmente per mantenere una copia locale dei file più acceduti: tutto il resto può essere richiamato (in modo trasparente dall’HDI) quando necessario.
E’ una soluzione eccellente! con HDI puoi consolidare tutti i dati non strutturati dell’azienda in un unico, singolo, sicuro grande repository potendo eliminare, allo stesso tempo, tutti i problemi relativi ai backup remoti e al DR! E c’è di più, questa soluzione, permette di migrare tutti i dati verso un private cloud aziendale globale e sicuro (con funzionalità tipo, solo per citarne alcune, archiving, versioning dei documenti, deduplication).
Riassumendo, una soluzione object storage end-to-end che non è un finto file server o un misto di prodotti/vendor incollati insieme. Nel recente passato avevo scritto un articolo proprio per condividere il mio punto di vista su questo argomento: la prossima generazione di unified storage, penso che HDS abbia fatto un passo avanti proprio in questa direzione!

Disclaimer: HDS mi ha invitato a questo evento ed ha pagato per il viaggio e l’alloggio ma non ho nessun obbligo di scrivere qualsivoglia materiale su questo evento.