La settimana scorsa ho partecipato, insieme a Fabio e ad una manciata di altri blogger all’HDS bloggers day presso gli la sede europea di HDS in UK.
L’evento è stato organizzato al meglio ed è stata una grande opportunità per conoscere di più di HDS (Hitachi Data System) e scambiare i diversi punti di vista con i top executive dell’azienda. Spesso è difficile capire la visione reale e la strategia di queste multinazionali ma, un evento informale come questo, ha permesso di far incontrare diverse persone e ne sono scaturite discussioni di indubbio valore per tutti!
La cosa che mi ha interessato di più in quei due giorni è l’evoluzione di un prodotto che HDS comprò qualche anno fa Hitachi Content Platform. Questo prodotto è la base di un paio di soluzioni che credo molto interessanti: Hitachi Clinical Repository (un paio di link: qui e qui) che ha l’obiettivo di migliorare la gestione dei dati clinici e l’altra (oggetto di questo articolo) nell’ambito del cloud computing privato!
HCP è uno storage ad oggetti, un particolare tipo di storage dove i dati non sono gestiti come blocchi o files ma come oggetti: (dati + metadati). L’object storage è lo standard emergente per costruire quello che viene normalmente definito cloud storage e si possono trovare esempi di questo tipo anche molto famosi. Forse, il più famoso è il servizio Amazon S3 ma molte startup e grandi vendor (come Scality or EMC) stanno lavorando alacremente per portare le loro alternative per il public/private cloud.
L’obiettivo di questo articolo è quindi quello di parlare di HCP+HDI (Hitachi Data Ingestor) una soluzione di HDS per costruire un vero cloud storage privato in modo semplice. La proposta di HDS ha tutte le caratteristiche a cui si può pensare quando si cerca di costruire il proprio cloud::
smart object storage alla base;
accesso multiprotocollo;
architettura multitenant e sicura;
ricco di funzionalità e scalabile con capacità di replicata avanzate (object based);
percorso di migrazione legacy-to-cloud morbido;
ma il punto più importante per me non sta nei primi 4 (tutti i vendor dicono di averli) ma nell’ultimo. La killing application è lì: la capacità di migrare un ambiente NAS tradizionale ad un cloud storage con un minimo impatto sugli utenti finali!
due parole sull’HCP
Hitachi Content Platform è un object storage ben disegnato per gli ambienti enterprise.
Dal punto di vista hardware esistono due opzioni:
una basata su appliance senza storage esterno (ogni nodo del cluster ospita una certa quantità di spazio disco e l’intero cluster può scalre fino ad un massimo di 85TB)
e l’altra di stampo high-end e più allineata con la visione HDS dello storage: “uno storage a blocchi con un po di intelligenza sopra (un appliance)”, non la mia preferità in realtà, ma le specifiche tecniche riportano che può scalare fino a 40PB in un singolo cluster!
Da un punto di vista prettamente software sono presenti molte caratteristiche interessanti per l’enterprise che vanno dalla funzionalità WORM (write once ready many), deduplica (per ora a livello file), integrazioni con applicazioni come SharePointint, etc.
I protocolli di accesso allo storage sono tutti quelli desiderabili per questo tipo di soluzioni: CIFS, NFS v3, HTTP v1.1, WebDAV, SMTP, NDMP v4 e, soprattutto, REST.
Tutto condito con una interfaccia utente abbastanza accattivante (non così banale per HDS).
Ok, fino ad ora non è che abbia scritto nulla di particolarmente interessante: HCP è un buon prodotto ma molti vendor hanno soluzioni similari, quindi???
HDI: l’add-on che fa la differenza
Gli Hitachi Data Ingestors sono degli appliances (che coprono un range che va da una semplice VM fino ad un sistema completamente ridondato -in cluster- con storage esterno) che vengono visti come NAS dall’utente finale ma che, in realtà lavorano come una cache (la dimensione può variare tanto quanto necessario per questioni di performance e affidabilità) verso l’HCP!
HDI ha alcune funzionalità decisamente interessanti:
scalabilità (fino a 400M files)
protocolli CIFS e NFS
integrazione con AD, LDAP (con “dynamic users mapping” fra Unix e Windows)
WORM
embedded replication
funzionalità di tiering automatico
HDI può essere piazzato in ogni remote office o branch office (ROBO) per fornire un normale servizio di File server (può anche usare la vecchia infrastruttura storage esistente per la sua cache): ogni file copiato al suo interno verrà replicato verso un repository centrale HCP.
L’architettura di HDI permette di definire delle soglie sullo spazio occuapto localmente per mantenere una copia locale dei file più acceduti: tutto il resto può essere richiamato (in modo trasparente dall’HDI) quando necessario.
E’ una soluzione eccellente! con HDI puoi consolidare tutti i dati non strutturati dell’azienda in un unico, singolo, sicuro grande repository potendo eliminare, allo stesso tempo, tutti i problemi relativi ai backup remoti e al DR! E c’è di più, questa soluzione, permette di migrare tutti i dati verso un private cloud aziendale globale e sicuro (con funzionalità tipo, solo per citarne alcune, archiving, versioning dei documenti, deduplication).
Riassumendo, una soluzione object storage end-to-end che non è un finto file server o un misto di prodotti/vendor incollati insieme. Nel recente passato avevo scritto un articolo proprio per condividere il mio punto di vista su questo argomento: la prossima generazione di unified storage, penso che HDS abbia fatto un passo avanti proprio in questa direzione!
Disclaimer: HDS mi ha invitato a questo evento ed ha pagato per il viaggio e l’alloggio ma non ho nessun obbligo di scrivere qualsivoglia materiale su questo evento.
I'm a passionate IT professional with 25+ years of industry experience in technical product strategy and management roles, advising Mid-Market and Large Enterprises across numerous industries and software companies ranging from small ISVs to large providers.
I'm constantly monitoring how markets evolve, and seeking new ideas and innovative solutions. This has been my passion for several years now, and I love to engage in interesting conversations, share findings, opinions and gather new perspectives from other people in the IT community.
The views expressed on these pages are mine alone and not (necessarily) those of any current, future or former client or employer. As I reserve the right to review my position based on future evidence, they may not even reflect my own views by the time you read them. Protip: If in doubt, ask.
In this episode Enrico speaks with Hitachi Vantara CMO Jonathan Martin about the evolution of data storage and its effects on numerous industries and technologies. Voices in Data Storage – Epsiode 28: A Conversation with Jonathan Martin of Hitachi Vantara
Enrico speaks to Michael Ferranti of Portworx about data storage and containers. Voices in Data Storage – Episode 27: A Conversation with Michael Ferranti of Portworx
Enrico Signoretti chats with Poojan Kumar of Clumio on the concepts and ideas behind building data protection. Voices in Data Storage – Episode 26: A Conversation with Poojan Kumar of Clumio
Enrico interviews Joe Amato and Stan Stevens from Hitachi from the floor of the Hitachi Next 2019 show floor. Voices in Data Storage – Bonus Episode – Live From Hitachi Next 2019
Enrico speaks with Matthew Wallace about cloud, cloud storage and how enterprises move their data across different environments. Voices in Data Storage – Episode 25: A Conversation with Matthew Wallace of Faction