NetApp ha messo a segno un altro ottimo trimestre. E’ chiaro che per loro è un ottimo momento: vengono indicati come leader della fascia midrange del mercato storage e tutti i competitor stanno cercando il modo di eguagliarne sia le proposte tecnologiche che l’affetto dei clienti. In questo articolo non voglio dimostrare che i prodotti NetApp siano migliori o peggiori di altri, la notizia ha solo dato il ‘la’ a qualche considerazione sul successo di aziende produttrici di storage.
Lo storage è una bestia nera per ogni azienda (e contemporaneamente una buona opportunità per ogni vendor): il suo bisogno non fa che crescere, quasi esponenzialmente. Ogni vendor riesce quindi a fare buoni numeri, ma in un mercato in così forte ebollizione i buoni numeri non sono abbastanza… si deve fare assolutamente di più, per primeggiare tra gli altri.
Cosa caratterizza i vendor che riescono a fare meglio?
Mi occupo di infrastrutture IT ed ho occasione di parlare con clienti ogni giorno da ormai una ventina di anni e, in tutto questo tempo, ho visto cambiare le richieste dei clienti. Inoltre, negli ultimi tempi, ho notato un maggiore interessamento al TCO (Total Cost of Ownership) nei progetti di rinnovo delle infrastrutture, magari dovuto alla recessione economica non ancora alle spalle. Bene o male molti vendor stanno assecondando questo approccio, ma non tutti allo stesso modo.
lo storage si è evoluto
Lasciando da parte la ‘preistoria’, l’evoluzione dello storage, vissuta attraverso il mutare delle esigenze dei clienti, può essere così sintetizzata:
- protezione: uno dei primi argomenti tecnici che si affrontavano negli anni ’90 era il RAID. Quante riunioni a spiegare il funzionamento, le implementazioni ed i vantaggi del RAID. Erano giorni semplici: un server, un cavo, uno storage.
- connettività: arrivò il momento di connettere più host ad ogni array, prima via SCSI, in seguito utilizzando FC. Le prime SAN apparvero sul mercato.
- performance: i clienti cominciarono a chiedere prestazioni ed i vendor a pubblicare orgogliosamente numeri, a volte irrealistici e magari relativi al solo cache throughput.
- scalabilità: dopo la sbronza delle cifre delle performance i clienti hanno cominciato a chiedere più spazio, dati realistici sulle prestazioni ed architetture scalabili.
- features: snapshot, cloni e repliche, giusto per nominare le prime che mi vengono in mente.
- strumenti di gestione: la crescita e le caratteristiche hanno significato storage via via più complessi, e la complessità deve poter essere gestita.
- facilità d’uso: provisioning via CLI e mappatura delle LUN fatta con spreadsheet richiedono tempo e risorse umane molto competenti, GUI ed in generale interfacce più ‘umane’ diventano importanti.
- efficienza: il corretto utilizzo delle risorse è un punto chiave per il contenimento dei budget, soprattutto negli ultimi anni, “fare più con meno” è il motto che si sente più spesso.
- integrazione: se lo storage non si integra con il software che lo utilizza, (DB, applicativi, virtualizzazione…) tutto il lavoro del reparto IT si complica.
- automazione: ora i clienti vogliono automatizzare vari compiti, tra cui tuning, tiering ed provisioning.
Scorrendo la lista avrete sicuramente visto che dopo il quarto punto i clienti non chiedono più hardware, ma caratteristiche software!!!
Certo, l’hardware resta comunque importante, ma i vari produttori sono oramai tutti concordi che il generico hardware x86 ha potenza da vendere e buona affidabilità: protezione, connettività, performance e scalabilità non sono più punti focali nel dibattito che si sviluppa attorno ad un progetto di storage, sono dati per scontati!
software, software ed ancora software.
Ciò che fa la differenza tra gestire lo storage e gestire i dati.
Nell’ultimo anno ho parlato ai clienti solo delle loro applicazioni e dei loro processi, quasi mai di file o blocchi: i clienti vogliono risolvere i problemi, e l’oggetto del problema non deve diventare lo storage, ma i dati da gestire nello storage.
Se mostri al cliente come poter fare, con pochi click, una copia completa del suo ambiente SAP di svariati TB (giusto un esempio), consumando solo una piccola frazione del suo storage, senza doversi affidare ad un esperto… avrai vinto! Vedrai brillare i suoi occhi e comincerà a pontificare di risparmi di tempo e danaro (sicuramente darà anche un bella strigliata ai suoi sistemisti e sviluppatori SAP/DB)
Come dicevo prima, non è più questione di performance, scalabilità, connettività né affidabilità. Nel 2011 tutte queste caratteristiche hardware sono scontate in qualsiasi piattaforma di ogni vendor, la differenza è fatta dall’intelligenza del software e dalle possibilità di integrazione con gli altri strati software presenti. Una conferma di tutto ciò arriva dal mercato; i vendor che vedono crescere le proprie quote di mercato sono quelli che offrono le features software di più alto livello!
Questo articolo è la traduzione di “Software is the secret sauce in storage sales”, recentemente pubblicato su The Register.
Personalmente ritengo che uno storage sia frutto della fusione delle due tecnologie. Va anche osservato che tanto maggiore e’ il peso del software nella struttura storage, tanto piu’ ampi sono i limiti (inevitabilmete introdotti dalle caratteristiche del software) che si porta dietro, specialmente in ambienti architetturali non omogenei. Quindi, anche se la semplicita’ di uso e gestione e’ sicuramente un valore aggiunto, non va scordato che il prezzo da pagare e’ la ridotta capacita’ di tuning e la minore capacita’ di integrarsi nell’ambiente finale (visto e provato su netapp…)
Graziano,
scusa ma non sono riuscito a capire cosa intendi, in particolare ho dei dubbi su “limiti (inevitabilmete introdotti dalle caratteristiche del software) che si porta dietro, specialmente in ambienti architetturali non omogenei.”.
grazie,
ciao,
Enrico
Ciao Enrico,
… lo so: sono un po criptico… cerchero’ d’essere un attimo piu’ espicito
Intendo questo: la capacita’ di integrazione di un nas, dipende dalla capacita’ del software che ha a bordo di integrarsi coll’ambiente circostante. Come esempio, pensa ai sistemi di autenticazione ed SSO, per un NAS fondamentali quando pensi di metterci magari le home directories, vero? Ce ne sono svariati, non solo AD. E poi prendi netapp (sicuramente un leader, vero?).
Se non hai Active Directory, e’ un’opera omnia… sperando di riuscirci… (si, va beh c’e qualche documento con scritto ldap e kerberos, o quello che e’, ma hai mai provato ad integrarlo magari con ldap di MacOSX per la parte cifs? O prova ad usare kerberos con cifs senza active directory)
Oppure prendi i file system, in particolare i protocolli di rete… si, ci sono NFS e CIFS, ma anche AFP (ad esempio…), oppure altri vari piu’ o meno diffusi che non voglio elencare.
(scrivo su protocolli Apple perche’ sono la mia ultima esperienza, ma ti posso assicurare che non e’ la sola)
Se sul software che hai a disposizione non c’e’ quel ‘quid’ che ti serve, spesso puoi rinunciare.
Ma e’ naturale, perche’ e’ un ‘ambiente operativo’.. occorre scrivere driver e moduli software e manutenerlo per tutti gli ambienti cui ti vuoi collegare, ma oggi chi si prende piu’ questa briga, a meno che non sia un software collaborativo?
Quindi il discorso e’: devi comprare quello giusto..
Ma quello giusto e’ quello che si adatta al tuo ambiente, particolare e predefinito dalle caratteristiche del Nas, ne’ piu’ ne’ meno…
Uno storage raw, che sia iScsi, Fibra, Sas o che ne so, sotto questo aspetto e’ piu’ flessibile, a mio parere: e’ sempre una soluzione, magari con un po di lavoro in piu’…
Tutto qua.
Ciao,
–gra
Graziano,
ho capito il tuo punto di vista e non lo condivido.
In ogni caso non è un problema, oggi tutti i produttori (compreso NetApp) non producono più il NAS ma quello che viene definito Unified Storage (cioè multiprotocollo). Se per le tue esigenze trovi più semplice usare lo storage in “modalità SAN o DAS” non c’è problema (ma di solito è perché non ti serve un NAS e non per problemi di “integrazione”).
Quando parlavo di software, nell’articolo, non mi riferivo a NAS o SAN ma al software in generale e, soprattutto alle funzionalità software che ogni array dovrebbe avere: snapshot, wide striping, thin provisioning, integrazione con S.O, hypervisor e applicativi, ecc.
Tutte cose che nello storage enterprise, a mio modo di vedere, sono fondamentali.
E
Enrico, capisco il tuo punto di vista, ma se mi consenti mantengo il mio, nel senso che premesso che si parlava ovviamente di Unified Storage, e’ anche vero che nel momento in cui utilizzi una macchina di questo tipo per utilizzi SAN o DAS, gran parte dei vantaggi vengono perduti… torniamo di fatto al vecchio, caro raw, solo fatto in modo diverso, meno performante e tunabile… il fatto che abbiano un’interfaccia in fibra, non significa che abbiano le prestazioni (a parita’ di fascia) di uno storage in fibra (come sai il protocollo e’ emulato dal Sistema Operativo, con tutte le conseguenze del caso…). Poi, tu mi insegni che uno snapshot di un filesystem non puo’ prescindere dall’integrazione col S.O. che vi si poggia sopra , e quindi che senso ha utilizzare una macchina come questa, in modalita’ DAS e poi non poter fare uno snapshot perche’ inconsistente? Oppure cloni (prova a clonare un database a partire dal DAS e vediamo che succede…ma lo sai meglio di me.. sono ovvieta’)…Vanno bene quando usi uno dei protocolli che supportano, ma al di fuori di quelli, hai bisogno dell’integrazione coll’ambiente per cui sono stati costruiti…
Non fraintendermi, con questo non voglio dire che non siano macchine valide. Queste sono macchine molto belle, ed in alcuni casi molto innovative, specialmente quando non sono molto ‘standard’. Ma non mi sentirei di affermare che sono un’evoluzione dello storage raw… sono una cosa diversa… se vuoi comoda, ma molto diversa…Utili nei nostri Ced per applicazioni particolari (che non significa che siano ‘secondarie’ o non importanti, ma ben mirate). Tolte quelle, a mio avviso, si torna alle care SAN…Premetto che il software e’ imprescindibile da qualsiasi Storage: anche il RAID piu’ stupido di questo mondo (accelerato quanto ti pare) e’ una funzione software.. Se poi andiamo su cose strane tipo RAID-Z e similari, c’e’ da divertirsi…. Chiamiamolo, come andava di moda un tempo, firmware, che come sai puo’ essere anche molto, molto complesso…Questi US sono macchine con sopra un sistema operativo… Netapp ha data ontap, le macchine SUN hanno Solaris, altri usano Linux e qualcuno, con coraggio, Windows… e quindi, ove le piazzi, hai gli stessi problemi di integrazione di quel particolare Sistema Operativo su cui sono fondate, e gli stessi limiti di integrazione…E’ una cosa da tenere in considerazione, tutto qua, per evitare flop e figuracce coi clienti… Ciao, –gra
Personalmente ritengo che uno storage sia frutto della fusione delle due tecnologie. Va anche osservato che tanto maggiore e’ il peso del software nella struttura storage, tanto piu’ ampi sono i limiti (inevitabilmete introdotti dalle caratteristiche del software) che si porta dietro, specialmente in ambienti architetturali non omogenei. Quindi, anche se la semplicita’ di uso e gestione e’ sicuramente un valore aggiunto, non va scordato che il prezzo da pagare e’ la ridotta capacita’ di tuning e la minore capacita’ di integrarsi nell’ambiente finale (visto e provato su netapp…)
Personalmente ritengo che uno storage sia frutto della fusione delle due tecnologie. Va anche osservato che tanto maggiore e’ il peso del software nella struttura storage, tanto piu’ ampi sono i limiti (inevitabilmete introdotti dalle caratteristiche del software) che si porta dietro, specialmente in ambienti architetturali non omogenei. Quindi, anche se la semplicita’ di uso e gestione e’ sicuramente un valore aggiunto, non va scordato che il prezzo da pagare e’ la ridotta capacita’ di tuning e la minore capacita’ di integrarsi nell’ambiente finale (visto e provato su netapp…)
Graziano,
scusa ma non sono riuscito a capire cosa intendi, in particolare ho dei dubbi su “limiti (inevitabilmete introdotti dalle caratteristiche del software) che si porta dietro, specialmente in ambienti architetturali non omogenei.”.
grazie,
ciao,
Enrico
Ciao Enrico,
… lo so: sono un po criptico… cerchero’ d’essere un attimo piu’ espicito
Intendo questo: la capacita’ di integrazione di un nas, dipende dalla capacita’ del software che ha a bordo di integrarsi coll’ambiente circostante. Come esempio, pensa ai sistemi di autenticazione ed SSO, per un NAS fondamentali quando pensi di metterci magari le home directories, vero? Ce ne sono svariati, non solo AD. E poi prendi netapp (sicuramente un leader, vero?).
Se non hai Active Directory, e’ un’opera omnia… sperando di riuscirci… (si, va beh c’e qualche documento con scritto ldap e kerberos, o quello che e’, ma hai mai provato ad integrarlo magari con ldap di MacOSX per la parte cifs? O prova ad usare kerberos con cifs senza active directory)
Oppure prendi i file system, in particolare i protocolli di rete… si, ci sono NFS e CIFS, ma anche AFP (ad esempio…), oppure altri vari piu’ o meno diffusi che non voglio elencare.
(scrivo su protocolli Apple perche’ sono la mia ultima esperienza, ma ti posso assicurare che non e’ la sola)
Se sul software che hai a disposizione non c’e’ quel ‘quid’ che ti serve, spesso puoi rinunciare.
Ma e’ naturale, perche’ e’ un ‘ambiente operativo’.. occorre scrivere driver e moduli software e manutenerlo per tutti gli ambienti cui ti vuoi collegare, ma oggi chi si prende piu’ questa briga, a meno che non sia un software collaborativo?
Quindi il discorso e’: devi comprare quello giusto..
Ma quello giusto e’ quello che si adatta al tuo ambiente, particolare e predefinito dalle caratteristiche del Nas, ne’ piu’ ne’ meno…
Uno storage raw, che sia iScsi, Fibra, Sas o che ne so, sotto questo aspetto e’ piu’ flessibile, a mio parere: e’ sempre una soluzione, magari con un po di lavoro in piu’…
Tutto qua.
Ciao,
–gra
Graziano,
ho capito il tuo punto di vista e non lo condivido.
In ogni caso non è un problema, oggi tutti i produttori (compreso NetApp) non producono più il NAS ma quello che viene definito Unified Storage (cioè multiprotocollo). Se per le tue esigenze trovi più semplice usare lo storage in “modalità SAN o DAS” non c’è problema (ma di solito è perché non ti serve un NAS e non per problemi di “integrazione”).
Quando parlavo di software, nell’articolo, non mi riferivo a NAS o SAN ma al software in generale e, soprattutto alle funzionalità software che ogni array dovrebbe avere: snapshot, wide striping, thin provisioning, integrazione con S.O, hypervisor e applicativi, ecc.
Tutte cose che nello storage enterprise, a mio modo di vedere, sono fondamentali.
E
Enrico, capisco il tuo punto di vista, ma se mi consenti mantengo il mio, nel senso che premesso che si parlava ovviamente di Unified Storage, e’ anche vero che nel momento in cui utilizzi una macchina di questo tipo per utilizzi SAN o DAS, gran parte dei vantaggi vengono perduti… torniamo di fatto al vecchio, caro raw, solo fatto in modo diverso, meno performante e tunabile… il fatto che abbiano un’interfaccia in fibra, non significa che abbiano le prestazioni (a parita’ di fascia) di uno storage in fibra (come sai il protocollo e’ emulato dal Sistema Operativo, con tutte le conseguenze del caso…). Poi, tu mi insegni che uno snapshot di un filesystem non puo’ prescindere dall’integrazione col S.O. che vi si poggia sopra , e quindi che senso ha utilizzare una macchina come questa, in modalita’ DAS e poi non poter fare uno snapshot perche’ inconsistente? Oppure cloni (prova a clonare un database a partire dal DAS e vediamo che succede…ma lo sai meglio di me.. sono ovvieta’)…Vanno bene quando usi uno dei protocolli che supportano, ma al di fuori di quelli, hai bisogno dell’integrazione coll’ambiente per cui sono stati costruiti…
Non fraintendermi, con questo non voglio dire che non siano macchine valide. Queste sono macchine molto belle, ed in alcuni casi molto innovative, specialmente quando non sono molto ‘standard’. Ma non mi sentirei di affermare che sono un’evoluzione dello storage raw… sono una cosa diversa… se vuoi comoda, ma molto diversa…Utili nei nostri Ced per applicazioni particolari (che non significa che siano ‘secondarie’ o non importanti, ma ben mirate). Tolte quelle, a mio avviso, si torna alle care SAN…Premetto che il software e’ imprescindibile da qualsiasi Storage: anche il RAID piu’ stupido di questo mondo (accelerato quanto ti pare) e’ una funzione software.. Se poi andiamo su cose strane tipo RAID-Z e similari, c’e’ da divertirsi…. Chiamiamolo, come andava di moda un tempo, firmware, che come sai puo’ essere anche molto, molto complesso…Questi US sono macchine con sopra un sistema operativo… Netapp ha data ontap, le macchine SUN hanno Solaris, altri usano Linux e qualcuno, con coraggio, Windows… e quindi, ove le piazzi, hai gli stessi problemi di integrazione di quel particolare Sistema Operativo su cui sono fondate, e gli stessi limiti di integrazione…E’ una cosa da tenere in considerazione, tutto qua, per evitare flop e figuracce coi clienti… Ciao, –gra