Intervista a Maurizio Ragusa di IBM

Mag 30, 2016
 

di Federica Mazzocchi, Senior Analyst di Sirmi

 

di Gianguido Pagnini, Dir. Consulenza e Ricerca di Sirmi

 

 

Abbiamo incontrato Maurizio Ragusa, Cloud Director di IBM per confrontarci con lui sul tema dell’evoluzione del Data Center.

Buongiorno Ing. Ragusa, ci può dire quali sono stati fino ad oggi i fattori di successo di un Data Center?

È opinione condivisa che i fattori di successo di un Data Center siano la sicurezza fisica, l’efficienza energetica, l’affidabilità, la scalabilità e la modularità. IBM ha realizzato tutti i suoi Data Center e, in particolare, quelli dedicati all’offerta Cloud (saranno 49 a fine anno) senza trascurare nessuno di questi elementi ed ha aggiunto un ulteriore fattore differenziante: la proprietà della rete a cui si collegano i Data Center cloud della rete globale di IBM, che si traduce per i clienti nel vantaggio di non dover pagare il traffico, in quanto compreso nel costo del servizio. Inoltre, grazie al recente accordo con VMware, le aziende clienti possono spostare liberamente, in base alle esigenze di business, i carichi di lavoro dai Data Center proprietari a quelli di IBM – italiani e non – e viceversa, gestendo il tutto remotamente attraverso un’unica console. Questo rappresenta un ulteriore importante vantaggio nella realizzazione e gestione di ambienti IT ibridi. In Italia il Data Center cloud di IBM, basato sull’infrastruttura SoftLayer, è stato realizzato a Cornaredo, in provincia di Milano, con attivi due PoD ed un terzo in fase di ultimazione. Tale Data Center vanta le più importanti certificazioni, compresa la certificazione ISO/IEC 27001 sui sistemi di gestione dell’Information Security, considerata cruciale dai clienti italiani, per la rigidità della normativa italiana sulla privacy.

L’innovazione del business a cui devono tendere le Aziende sta in qualche modo modificando i fattori di successo del Data Center?

Ovviamente sicurezza fisica, efficienza energetica, affidabilità, scalabilità e modularità continueranno ad essere dei requisiti fondamentali, ma non più sufficienti; occorre andare oltre e IBM lo ha fatto improntando lo sviluppo futuro dei Data Center, propri e dei propri clienti, su cinque aree di innovazione: Video Services, Software Defined Data Center e Cognitive Solutions, Quantum Computing e “Sangue Elettronico”.

In che termini i contenuti video impattano sull’evoluzione del Data Center?

La maggior parte dei dati gestiti all’interno dei Data Center sono rappresentati da dati non strutturati e un volume sempre più consistente degli stessi è rappresentato da immagini e video. I video sono ovunque e vengono generati e utilizzati sia dal mondo consumer che da quello business; anche in quelle aziende in cui la produzione di contenuti video non rappresenta il core business, bensì uno strumento di business come sono quelli realizzati a sostegno di attività di comunicazione e marketing, il numero di video prodotti, raccolti o pubblicati sul web sta raggiungendo volumi impensabili fino a qualche anno fa. Si ritiene che nel 2019 i Video Services costituiranno il 90% del traffico Internet. E’ evidente che i Data Center debbano strutturarsi per gestire questo fenomeno, cercando di gestire due limitazioni importanti, rappresentate dalla capacità storage e dalla banda delle reti di TLC. IBM sta affrontando il tema dei Video Services attrezzando i suoi Data Center con piattaforme per il Content Delivery Network ed il Video Streaming. Inoltre ha acquisito, alla fine del 2015, l’azienda Cleversafe, specializzata in soluzioni Software Defined “Object Storage” leader nel mercato, concepite per supportare applicazioni WEB su dati destrutturati dispersi geograficamente, con capacità di scalare in modo efficiente e sicuro fino agli Exabyte.

Che cos’è il Software Defined Data Center e perché sta diventando il nuovo paradigma dell’IT?

Il secondo elemento che va a comporre la strategia evolutiva del Data Center tracciata da IBM è il Software Defined Data Center, che mutua l’intera infrastruttura in un’ottica as a service, facendo sì che sia l’effettiva domanda di workload a definire dinamicamente le risorse IT e di rete che di volta in volta si devono attivare. Il tutto con una gestione automatizzata e semplificata dell’infrastruttura e garantendo flessibilità e ottimizzazione dell’intero ambiente ibrido e cloud. Il valore del Software Defined Data Center consta nella possibilità di rispondere alle esigenze IT e di comporre servizi IT in modo proattivo, riuscendo a riconoscere le esigenze prima ancora che vengano espresse e ad attivare immediatamente le componenti infrastrutturali idonee a soddisfarle; in altri termini permette di fare “up-selling e cross-selling dei servizi IT”. Il Software Defined Data Center è un paradigma dell’IT che permette l’applicazione del Cognitive Computing, messo a disposizione dei clienti con la tecnologia Watson.

Si dice che il Quantum Computing rappresenti la tecnologia del prossimo futuro. A che cosa ci si riferisce? E quali sono i suoi vantaggi?

Il Quantum Computing permette di eliminare i limiti di elaborazione dei sistemi computazionali oggi disponibili sul mercato. Anche in quei Data Center in cui sono attivi migliaia di server la capacità di calcolo complessiva può rivelarsi non sufficiente; è questo ad esempio il caso delle soluzioni di Cognitive Computing, che richiedono sistemi di calcolo sempre più potenti, con una capacità elaborativa che a tendere dove crescere in misura esponenziale. Il Quantum Computing rappresenta il futuro della computazione perché permette di risolvere problemi non trattabili con i supercomputer di oggi. IBM ha investito sul Quantum Computing ed ha già messo a disposizione dei ricercatori e della comunità scientifica il servizio cloud chiamato IBM Quantum Experience, che offre l’opportunità di testare un processore quantistico composto da cinque qubit superconduttori ospitato presso il Watson Research Center di IBM a New York. Grazie al Quantum Computing nasceranno nuovi servizi applicativi che romperanno i vecchi schemi di calcolo.

Proviamo ad immaginarci il Data Center fra cinquant’anni. Come sarà?

Stiamo immaginando il Data Center di un futuro ancora lontano, ma sul quale IBM sta già lavorando con il progetto noto come “Sangue Elettronico”. L’obiettivo è di ridurre le esigenze energetiche e refrigeranti dei computer e allo stesso tempo ridurre al minimo le dimensioni dei sistemi, riuscendo a mettere un super computer nello spazio occupato da una zolletta di zucchero. Per fare questo occorre mutare il paradigma dell’elettronica e ispirarsi al cervello umano, che è 10.000 volte più denso ed efficiente di ogni computer costruito fino ad oggi, grazie al fatto che utilizza la stessa rete di vasi sanguigni per trasportare, nello stesso momento, calore ed energia. IBM vuole replicare nei sistemi quanto avviene all’interno del cervello: il progetto “Sangue Elettronico”sfrutta infatti un liquido elettrolita in grado di trasportare energia e fluidi refrigeranti alle componenti hardware del computer. Utilizzando il sangue elettronico IBM pensa di poter ridurre, entro il 2060, le dimensioni di un super computer della potenza di 1 Petaflop (che oggi occupa circa mezzo campo di calcio) in quelle di un PC Desktop.

CONDIVIDI L'ARTICOLO SUI SOCIAL

Comments are closed.