Penso che lo sappiano tutti ormai, IBM ha ceduto il business dei server x86 a Lenovo. La settimana scorsa ho scritto un articolo proprio su questo argomento e volevo completarlo con un’idea che, in qualche modo, ho sempre sostenuto ma che Robin Harris ha messo in evidenza in un suo post.

Il caso di IBM

IBM viene considerato uno dei fornitori storage primari ma le sue revenue stanno calando anche in questo settore. Inoltre, questo il mio punto di vista da sempre, IBM non vende storage a clienti non IBM. Non che non ci provi, ma sono in pochi i clienti non IBM che comprano storage IBM.

ibm-logoMollando la parte x86 a Lenovo, a parte il discorso Storewize per il quale è stato fatto un accordo specifico fra i due, cade il concetto di “soluzione da un singolo fornitore” e quindi vendere lo storage IBM sarà ancora più difficile (e come detto in un tweet: “questa mattina non vorrei essere un venditore IBM che deve chiudere una trattativa x86…”.
Insomma, nel medio lungo periodo, IBM lascerà sempre più perdere anche lo storage che riguarda il mondo Open concentrandosi, finché ci sarà qualche gallina da spennare cliente, sugli iSeries (AS/400, destinati comunque ad un declino) e gli zSerie (mainframe, che invece non muoiono mai).

In fondo è chiaro come la strategia di IBM sia sempre più legata al software e al cloud e non faccio fatica a dargli ragione. IBM, fra l’altro, potrebbe investire sul “software-defined” storage/networking proprio quest’anno, proprio per rafforzare la sua strategia.

Gli altri

Ho iniziato con IBM ma il ragionamento vale un po per tutti. Lo storage sta diventando sempre più commodity e la maggior parte dei vendor tradizionali dovrà fare i conti con un modo di ragionare distruttivo per il loro mercato.

Il mercato dello storage primario sarà sempre più diviso in due parti:
Legacy storage: tutto ciò che va dal mainframe a sistemi Unix. Questi sono ambienti molto tradizionali e continueranno a spendere nello stesso modo, ma sempre meno. Sono tutti mercati in contrazione. E’ ovvio che si può collegare un cluster di hypervisor ad un sistema del genere ma non ha più senso sia economicamente che da un punto di vista di funzionalità o prestazioni.
Esistono casi molto specifici dove questo tipo di storage può avere ancora senso ma si ridurranno sempre di più. Un esempio è Oracle ZS3 che, grazie all’integrazione con il DB permette grandi risparmi e può essere considerato un buon compromesso… ma come dicevo, per mantenere il vantaggio devi comunque avere un pezzo dell’infrastruttura ancora sul fisico (in questo caso il DB).

iStock_000015202734MediumStorage virtualizzato e infrastrutture iper-convergenti: le varie VSA e i sistemi iper-convergenti sono decisamente più convenienti e portano un valore aggiunto notevole sia in termini di performance che di funzionalità (per non parlare di tutto il resto).
Esempi pratici ce ne sono tutti i giorni (ho pubblicato un report per HP proprio su questo argomento che non è molto) e continuano ad aggiungersi quasi quotidianamente.
Hardware sempre più economico e ogni funzionalità implementata in software: totale separazione fra la scatola e l’intelligenza.

Se solo si pensa che una scheda PCIe con a bordo 1TB di flash costa 3/4000 euro ed è capace di 30/50000 IOps, ci si rende conto facilmente della differenza che esiste fra uno storage tradizionale e le potenzialità di una VSA.

In realtà, alcuni fra i vendor primari, si stanno già muovendo in questo senso: HP con lo StoreVirtual VSA e EMC con ScaleIO sono solo due esempi. Sul lato EMC, fra l’altro, bisogna ricordarsi che Vmware (con la sua VSAN) fa sempre parte della stessa famiglia.
Sul lato delle startup le soluzioni stanno diventando così tante che è difficile contarle!

E lo storage secondario?

Qui la scelta è facile cloud storage o 100% commodity: il numero di soluzioni è in forte aumento e i prezzi del cloud storage calano con cadenza settimanale.

Rimanendo sulle infrastrutture private, i cluster Ceph sono sempre più diffusi come anche le soluzioni basate su ZFS e, mi ripeto per la milionesima volta, l’object storage enterprise è dietro l’angolo (tutte soluzioni 100% software!).

In ogni caso, non solo file, Hadoop e tutte le nuove tecnologie DB/BigData sfruttano storage a bordo server organizzati in cluster di tipo scale-out e shared-nothing. Se poi si guarda l’evoluzione che ha avuto Windows Server sul lato storage c’è ne proprio per tutti i gusti e tutte le tasche!

Insomma, più aumentano i dati più lo storage commodity diventa allettante. Come nel caso dello storage primario esistono eccezioni comunque (ho messo questa frase più per venire incontro al rivenditore di storage tradizionale che altro…).

Perché è importante

Il continuo aumento di dati ha spinto a cercare soluzioni nuove e innovative che portino risparmi tangibili sia in termini di TCA che di TCO.
L’hardware commodity e il software sofisticato vanno in quella direzione.

La virtualizzazione, come ampiamente dimostrato negli ultimi 10 anni, può portare benefici anche nella virtualizzazione di storage (e network). Anche in questo caso hardware commodity e software fanno la differenza.

HW commodity + SW + Virtualizzazione == (molti) risparmi. Formula facile da capire e, ora che ci sono gli strumenti disponibili, facile da applicare.

Le cose stanno cambiando velocemente e i storage vendor tradizionali dovranno adeguarsi (o soffrire).