In arrivo nuovi operatori, nuovi investimenti e nuove infrastrutture

Gli hyperscaler hanno iniziato a guardare con rinnovato interesse alla ‘region’ Italia e questo fenomeno è destinato a cambiare lo scenario data center nel nostro Paese.

Abbiamo incontrato Luca Beltramino, senior vice president global programs di Uptime Institute, che ci ha aiutato a fare il punto sul mercato delle grandi infrastrutture IT nel nostro Paese. Molti i temi affrontati a partire dall’impatto di Covid-19 sul modo di lavorare in queste facility, che ridisegna anche il concetto di business continuity, ma anche il rapporto con il cloud, l’importanza del fattore elettrico e della capacità finanziarie che devono dimostrare gli operatori per seguire con efficacia la crescita dei loro clienti.

Quali sono le prospettive del mercato data center in Italia?

La politica di espansione degli hyperscaler è cambiata in questi anni. In precedenza, per seguire un’area come tutta l’Europa si erano posizionati in tre location precise: Dublino, Amsterdam e Francoforte. Oggi invece si muovono andando a posizionarsi nei Paesi di una certa rilevanza, Italia compresa. Negli ultimi dodici mesi si è quindi notato un forte incremento dell’interesse da parte di diversi investitori istituzionali internazionali sul mercato data center italiano.

Questo interesse dapprima è stato stimolato dall’apertura della region Italia di AWS, a fine 2019, ma poi si è fortemente rafforzato grazie all’accordo tra Google e TIM che prevede di ospitare l’operatore globale nei data center esistenti del carrier, inizialmente sia di Milano che di Torino e poi in altre città, ma che inoltre rafforza il potenziale di aperture di nuovi data center nel nostro Paese.

La strategia dei grandi player prevede che ogni region, organizzata sul modello delle ‘availability zone’, sia adeguatamente presidiata e resa resiliente con la presenza di più data center interconnessi tra loro che garantiscono tutta la sicurezza in termini di backup, disaster recovery e business continuity, realizzando, per esempio come fatto da AWS, una ridondanza geografica, dove il carico è suddiviso su siti multipli che lavorano in modo sincronizzato tra loro. È il modello della resilienza geografica di cui è bene iniziare a tenerne conto.

Questo scenario generato dagli hyperscaler ha quindi generato l’interesse da parte di operatori che forniscono data center ‘neutrali’ sia di coloro già presenti sul territorio italiano sia da parte di nuovi soggetti che non avevano ancora investito nel nostro Paese. In particolare, si nota l’interesse di nuovi operatori specializzati proprio sulla domanda degli hyperscaler del mondo cloud.

Oggi, nonostante i diversi investimenti fatti in questo senso in Italia da più operatori, è opinione di molti che l’offerta di facility non sia ancora adeguata a supportare la forte domanda di questi grandi player. Il dimensionamento, anche in termini di potenza disponibile, dei data center attuali è più adeguato a supportare il mercato enterprise, quello della PA e anche quello PMI e non invece quello degli hyperscaler che come dicevo avendo necessità particolari oggi richiedono infrastrutture specializzate. Dopo AWS e Google per il futuro ci possiamo aspettare le mosse di altri hyperscaler sia statunitensi che cinesi, ma questi non costruiranno direttamente i loro data center, come è successo ad Amsterdam e a Dublino, ma si affideranno a terze parti.

I nuovi fornitori di data center neutrali che oggi intendono investire in Italia si muoveranno con acquisizioni o con la realizzazione di nuove infrastrutture partendo dal green field? E quanti di questi operatori, e in quanto tempo, arriveranno in Italia?

Stanno valutando anche acquisizioni, ma come detto non essendoci operatori che possono garantire un certo volume di spazio per le co-location e potenza adeguata, l’opzione dell’investimento in nuove location è la più probabile.

Nei prossimi due anni penso che arriveranno almeno due nuove operatori, ma forse anche tre, che inizialmente apriranno le loro attività su Milano. Senza contare però che l’accordo Google TIM non riguarda solo gli spazi dei data center, ma è soprattutto un accordo commerciale che prevede la vendita di servizi cloud nel nostro Paese che oggi su questo tema sta crescendo molto, e quindi potrà portare a una crescita molto rapida di questo business e quindi alla necessità di nuove facility. Se sarà così i tempi si ridurranno sensibilmente.

Luca Beltramino, senior vice president global programs di Uptime Institute

Come differisce un data center specializzato per gli hyperscaler rispetto a uno più tagliato per dare servizi ai clienti enterprise?

Un data center per hyperscaler è sicuramente molto più flessibile nel modello tecnologico e architetturale di crescita poiché deve rispondere a un design delle infrastrutture che non può essere deciso a priori dal costruttore e/o fornitore della facility. Questo viene stabilito dagli hyperscaler stessi, che naturalmente sono portatori ognuno di una sua logica e coerenza e quindi differisce da quelli degli altri.

Teniamo presente che grazie alle architetture che prevedono una resilienza geografica, gli hyperscaler non hanno più bisogno di data center Tier 4, che oltre a essere più costosi degli altri, possono limitare molto la loro crescita. Quindi oggi vediamo hyperscaler che rivolgono più volentieri le loro attenzioni a data center Tier 3 , ma anche in alcuni casi Tier 2.

Un data center per hyperscaler deve mettere a disposizione delle aree molto vaste la cui occupazione può crescere molto in fretta e devono disporre di una dotazione di energia molto elevata. Oggi ci sono alcuni operatori con una dotazione molto importante di MW, ma questo quando si parla di hyperscaler può non bastare. La cosa più importante, infatti, è che il fornitore del data center abbia capacità finanziarie adeguate per investire nello sviluppo dell’infrastruttura in tempi rapidi e allineati con quelli della crescita del cliente. Per essere chiari, questo significa dover mettere sul piatto anche decine se non centinaia di milioni di euro molto velocemente.

Negli Stati Uniti dove più hyperscaler contemporaneamente, come spesso succede, possono chiedere al fornitore di crescere in un determinato data center, l’operatore deve avere una capacità di investimento adeguata per mettere a disposizione dei clienti anche 5 o 10 MW in più nel giro di pochi mesi. Anche se questo scenario in Italia può sembrare ancora molto lontano, ma non è detto che le cose non siano destinate a cambiare velocemente, oggi nel nostro Paese non ci sono operatori che hanno questa capacità finanziaria.

Oltre alla flessibilità, c’è quindi bisogno anche di una scala diversa. Inoltre, gli operatori che oggi forniscono il mercato hyperscaler hanno relazioni tali con i clienti che sanno in anticipo dove ci sarà la richiesta di nuovi spazi, e quindi costruiscono i nuovi data center dove sono sicuri che ci sarà una nuova domanda da soddisfare. Per quanto riguarda lo scenario italiano c’è però un’altra considerazione da fare.

Quale?

Se lo sviluppo del cloud richiamerà sul nostro Paese la presenza degli hyperscaler e quindi di nuovi data center specializzati realizzati e gestiti da nuovi operatori, lo sviluppo dell’IoT e in prospettiva del 5G darà spazio invece agli edge data center. Infrastrutture magari più piccole, ma più distribuite sul territorio perché devono raccogliere i dati dei clienti lì dove vengono generati.

Ma la domanda dei servizi edge, secondo la mia opinione, è stata modificata con l’arrivo di Covid-19. Prima della pandemia l’edge poteva interessare gli scenari di Industria 4.0, Industrial IoT e 5G. Ma tutti questi temi hanno dei costi piuttosto consistenti, il 5G prevede per esempio di raddoppiare se non triplicare il numero di antenne, e anche gli investimenti in connettività degli altri due scenari non sono uno scherzo. Quindi oggi bisogna capire chi investirà in questo rinnovamento infrastrutturale, se i carrier, le aziende che forniscono servizi, i clienti… L’arrivo del Covid-19 ha congelato la situazione e ha sospeso ogni chiarimento e quindi nel 2020 nel nostro Paese non ci sono stati investimenti sul tema edge.

Cosa è cambiato in generale con il Covid-19 negli ambienti data center?

Grazie a una recente ricerca di Uptime Institute su 300 operatori in tutto il mondo, durante la pandemia abbiamo rilevato temporalmente tre tipi di impatti diversi. Come è facile immaginare, all’inizio c’è stato un impatto reattivo. Nessuno si aspettava una pandemia così violenta e anche chi gestisce e lavora nei data center è stato preso di sorpresa. Anche in presenza di soluzioni di disaster recovery e business continuity in molti casi ci sono stati dei down time, che qualche operatore ha anche cercato di nascondere, soprattutto per la mancanza improvvisa di personale, sia di servizio sia di manutenzione, che in quasi tutte le nazioni è stato bloccato dai lockdown.

È seguita poi la seconda fase, che è quella che stiamo ancora vivendo attualmente, nella quale le aziende stanno cercando di mitigare quanto è accaduto e di riprendere le attività in una ‘nuova normalità’, ma a questa seguirà poi una inevitabile fase di adattamento alla situazione.

Come in tante altre attività, ci aspettiamo che il Covid porti a un cambiamento sostanziale di come nei data center vengono gestite le più diverse attività. Le aziende quindi si sono rese conto della necessità di allargare la loro pianificazione a molti temi che fino alla fase pre-Covid venivano trascurati. Purtroppo per il prossimo futuro siamo tutti consapevoli che c’è il pericolo reale di andare incontro ad altre pandemie e quindi bisogna prevedere oggi cosa fare se succederà di nuovo. Quindi Uptime suggerisce ai responsabili di infrastrutture data center di mettere a punto dei piani che possiamo chiamare di ‘More and Better Pandemic Planning’.

Dal punto di vista operativo anche nei data center molto lavoro è stato spostato in remoto. Questa è una strada irreversibile, da cui non si può pensare di tornare indietro, anzi sarà invece necessario lavorare perché anche gli altri processi che ancora oggi vengono svolti in presenza possano andare in remoto. La manutenzione, naturalmente, continuerà a essere fatta localmente, ma anche in questo processo si possono gestire da remoto diverse procedure; sicuramente pensiamo invece che anche il lavoro degli operatori della control room del data center si possa svolgere da remoto. Ma oltre a questo c’è molto altro.

Può illustrarci cosa c’è d’altro?

Il passaggio al remoto cambia il modo di lavorare e quindi cambia anche gli skill necessari per svolgere i compiti di gestione e/o manutenzione in un data center. Non a caso in questo periodo è poi anche cresciuto l’interesse verso le soluzioni di Data center information system (Dcim), che fino all’anno scorso erano state prese in considerazione solo da poche realtà, grazie alle quali si innalza di molto il livello di automazione dei processi interni al data center. Inoltre, crediamo che potrà essere molto utile anche per le realtà enterprise e di piccole e medie dimensioni iniziare a implementare il concetto di resilienza geografica dei grandi hyperscaler dove il disaster recovery è distribuito e sincronizzato su diversi siti.

Il modello dei data center come cattedrali quasi del tutto autosufficienti, che spesso non dipendevano da backup esterni, deve essere quindi abbandonato a favore della distribuzione del carico IT. Questo per gestire con efficacia l’impatto di una pandemia che può essere globale, ma che inizialmente colpisce in modo diverso in geografie diverse. L’accesso fisico alle facility sarà sempre più controllato. Clienti e tecnici con la pandemia entrano solo per necessità estremamente specifiche, provate e autorizzate in anticipo, e questa modalità rimarrà attiva anche per il futuro.

In chi oggi progetta nuove facility, abbiamo notato uno spostamento di interesse verso i data center prefabbricati e modulari. Questo perché tali soluzioni permettono di realizzare infrastrutture anche lontane dal sito del data center primario, e la nuova facility può essere messa in piedi anche molto velocemente quando si verifica una pandemia nel territorio del data center principale.

Vediamo anche uno spostamento dei workload sempre più verso l’edge. Alcuni osservatori del mercato prevedono che entro il 2025 il 60% dei workload sarà gestito all’edge, e quindi non più in grandi data center regionali, ma sempre più vicini all’utente finale così da ridurre del più possibile i tempi di latenza. Questo per annullare ritardi nella fruizione di streaming video o nelle video call che oggi tutti utilizzano non senza problemi in termini di degrado dell’immagine o dell’audio. Più il processing dei dati è vicino al cliente e meglio sono le performance di tutto il sistema.

I data center stanno inoltre andando sempre di più verso la manutenzione predittiva, abilitata dall’intelligenza artificiale, che permette di capire quando si guasterà un certo componente. La manutenzione predittiva, magari effettuata da remoto, è molto più importante ed efficace che non quella programmata che potrebbe essere impossibile da effettuare nel caso di una pandemia. Con la manutenzione predittiva si può infatti procedere a una politica di sostituzioni anticipata.

E nel mondo che gira intorno ai data center invece che cos’è cambiato?

I governi di tutti i Paesi si sono accorti che i data center sono strategici e quindi notiamo che in molte nazioni, con strutture e regimi diversi, aumenta molto la volontà di esercitare un controllo per sapere chi gestisce che cosa e come lo gestisce. Aumenteranno leggi, normative e i permessi diventeranno più restrittivi e a questo proposito verranno attribuite funzioni di controllo a organismi della PA esistenti o che verranno creati ad hoc; ogni Paese troverà la sua formula.

Ma il cambiamento ha riguardato anche l’Uptime Institute: abbiamo remotizzato il più possibile le nostre attività. Oggi le ispezioni sul campo vengono effettuate solo quando c’è la necessità di compiere test su apparecchiature particolari, come la prova di accensione dei generatori di corrente.

Abbiamo poi creato delle nuove certificazioni che guardano non solo al data center fisico, ma a tutte le componenti come il networking e il cloud che interagiscono con il data center. Come, per esempio, la nuova certificazione Digital Resilience Assesment che valuta il rischio comprendendo oltre quello che c’è all’interno del data center anche quello che parte dal data center e va fuori, e quindi la connettività, l’ammontare e la riallocazione della banda, cosa succede se ‘casca’ uno dei fornitori cloud e molto altro ancora.

Lo scenario del multicloud è una realtà che si sta rafforzando giorno dopo giorno, negli Stati Uniti la media per un enterprise è avere tra 6 e 7 fornitori cloud differenziati, è quindi importante avere uno strumento che individua e misura il rischio complessivo di questi ambienti data center estesi.

Teniamo presente che in queste architetture così articolate, quando si verifica un down il potenziale del danno economico è molto più alto rispetto al data center ‘isolato’. La metropolitana di Londra, per esempio, è caduta per un problema sul loro ambiente cloud ibrido.

Torniamo un attimo su un tema già accennato più volte, come vanno i nuovi data center edge in Italia e negli altri Paesi?

In Italia l’edge non è ancora partito, anche se l’accordo Google TIM, sottolinea l’importanza di quest’ultima opzione, proprio per una presenza di data center in diversi altri territori e non solo quelli di Milano e Roma. L’edge è invece già partito in altre ‘region’, come per esempio l’Australia dove addirittura sono nate delle start up appositamente focalizzate sulla costruzione di data center edge. Questi operatori, grazie ai data center modulari di cui parlavo prima, oggi sono in grado di mandare in produzione decine di data center edge nello stesso momento.

L’Australia ha caratteristiche antropiche molto diverse dall’Europa e dall’Italia: tre città importanti con diversi milioni di abitanti dove la connettività è al massimo standard oggi possibile, in alcune zone di queste il 5G è già attivo, e poi una vastissima area scarsamente abitata dove oggi non c’è ancora il 3G. In quest’ultima emergono però diverse zone dove c’è una forte richiesta di dati – con driver come smart working e servizi entertainment, non solo Netflix ma anche gaming online – e quindi ecco lo sviluppo del mercato edge in città e zone anche con meno di 200.000 abitanti.

In Italia è comunque prevedibile una richiesta di dati in crescita in città di analoghe dimensioni che verrà supportata da data center comunque di una certa rilevanza, da 0,5 a 1 MW; ma poi ci sarà la necessità di coprire anche l’ultimo miglio. Analogamente con quanto successo per la fibra, bisognerà supportare l’ultimo miglio delle connessioni dati con data center più piccoli, Uptime Institute prevede che queste infrastrutture saranno tra i 50 e i 250 KW, che serviranno aree di 10/15 chilometri di raggio per raggiungere i consumatori con latenze inferiori ai 10 millisecondi.

Quindi anche se fino a oggi sul fronte edge non si è visto molto in Italia, il futuro andrà in questa direzione come sta succedendo oggi in Australia, ma anche nel Medio Oriente e sta iniziando in Gran Bretagna.

Cosa implica la crescita, in soli tre anni, del rapporto KW/rack passato dal 5,7 nel 2017 a 8,4 nel 2020 segnalata dalla vostra ultima Global Data Center survey 2020?

Questa crescita che non accenna a diminuire anche per il futuro è una conferma di quanto Uptime Institute dice da tempo. È dovuta alla necessità di elaborare sempre più dati e sempre più velocemente ed è spinta dall’affermarsi di tecnologie di ‘intensive computing’ come l’intelligenza artificiale, l’internet of things, ma anche le cripto valute, la blockchain…

La media generale è 8,4, ma per questi business particolari vediamo densità anche di 20KW per rack, livelli inimmaginabili fino a pochi anni fa. Molti data center oggi si stanno differenziando predisponendo al loro interno aree dedicate all’intensive computing che vengono aggiornate con soluzioni tecnologiche di elaborazione e di raffreddamento che consentono appunto di arrivare a rapporti KW/rack molto alti.

In questo scenario, i data center del Sud Europa e quindi anche quelli italiani, necessiteranno di un ricondizionamento molto profondo per gestire questo incremento di KW e non sarà semplice farlo in tempi rapidi. Non c’è solo però un problema di spazi esterni per l’ampliamento di vecchie facility, ma anche della possibilità di ottenere dalle utility elettriche, in determinati territori, la corrente necessaria per far lavorare i data center sui nuovi standard elevati. Oggi i down che abbiamo registrato nella nostra ricerca sono causati per lo più proprio da problemi sulla parte elettrica, sulla qualità della corrente, e tanti responsabili di data center hanno ammesso che molti di questi problemi erano pure prevedibili.

Molti data center quindi non riusciranno più a espandersi in zone dove l’approvvigionamento di energia elettrica è più faticoso.

Gli investimenti necessari per migliorare i data center esistenti sono quindi elevati e chiamano in causa fattori diversi dall’IT classico e con complessità, come quella energetica, anche difficili da risolvere o, addirittura, irrisolvibili. L’alternativa però c’è, ed è quella di andare in cloud.

I principali operatori cloud continuano a costruirsi in casa i loro server per soddisfare le loro esigenze di efficienza e consumi elettrici, ma non solo. Si costruiscono anche i rack, la distribuzione elettrica dentro a questi, e hanno lanciato lo standard Open Compute Project, che si caratterizza per essere molto green.

Nei data center degli hyperscaler la gestione dei carichi elettrici è studiata ad hoc sul modello disegnato dall’operatore e quindi la gestione dell’infrastruttura è molto più efficiente rispetto a un data center generico che è aperto a clienti che portano al suo interno le più diverse tipologie di sistemi con caratteristiche ed esigenze ogni volta diverse.

Sempre la vostra recente survey mette in luce come la maggior parte dei data center anche nel 2022 continuerà a essere ospitata in infrastrutture enterprise/corporate in house che installano sistemi on premise, segnalando che per diverse ragioni è molto difficile portare innovazione in questi ambienti. Qual è il consiglio che dà Uptime Institute a queste realtà per non rimanere indietro?

È un dato che a sorpreso anche me. Oggi i workload sono ancora all’80% nei data center aziendali, cioè non sono usciti di casa.

In Uptime pensiamo che ci sia un problema di trasparenza. Ossia le aziende clienti non sanno fino in fondo quello che succede ai dati e ai workload che sono stati affidati a fornitori di co-location o ai cloud provider. Non sanno dove è il dato, non sanno da cosa dipendono i down che ogni tanto si verificano in qualche facility di questi fornitori, che su questo punto non amano dare informazioni, nonostante ci siano molte cadute ogni giorno. Se gli operatori fossero più disposti a far capire qual è la loro vera resilienza, a che livello di affidabilità reale il cliente può arrivare, allora vedremmo un trasferimento più rapido di workload anche mission-critical in questi data center.

I data center interni delle aziende non sono portati a fare innovazione, perché è molto difficile convincere il CFO di ogni enterprise della necessità di investimenti per rinnovare una facility, anche quando l’investimento in nuove tecnologie porta a dei risparmi. Ed è per questo che l’hardware IT dei data center in house è generalmente piuttosto datato. Molte banche italiane oggi hanno ancora i data base che girano su AS/400.

L’efficienza dei sistemi IT dalle aziende non è mai stato considerato un fattore competitivo. Ma la spinta della competitività soprattutto per le aziende di servizi arriverà sempre più dai consumatori che richiederanno servizi sempre migliori, con latenze sempre più basse e saranno sempre più attenti al fattore green, ossia chiederanno ai fornitori di questi servizi di essere più efficienti nell’utilizzo delle risorse hardware e software.

A un certo punto le aziende clienti dei servizi di data center, per la pressione esercitata dai clienti, cercavano i fornitori che garantivano l’utilizzo al 100% di energie pulite. Ma se poi questa energia pulita va ad alimentare server che lavorano al 50% di efficienza, il gioco non funziona più perché si consuma il doppio della corrente… Quando si riuscirà a far passare il valore dell’IT nelle policy green, allora ci sarà un rapido cambio di atteggiamento.


Ruggero Vota

Con una solida formazione informatica e dopo un’esperienza triennale in software house, nel 1986 inizia l’attività giornalistica su riviste del settore ICT, mensili e settimanali. Dal 2012 è Caporedattore delle riviste ICT di Soi...

Office Automation è il periodico di comunicazione, edito da Soiel International in versione cartacea e on-line, dedicato ai temi dell’ICT e delle soluzioni per il digitale.


Soiel International, edita le riviste

Copertina
Officelayout
Progettare, arredare, gestire lo spazio ufficio

Ottobre-Dicembre
N. 179

Abbonati

copertina
Executive.IT
Da Gartner, strategie per il management d'impresa

Novembre-Dicembre
N. 11/12

Abbonati

copertina
innovazione.PA
La Pubblica Amministrazione digitale

Luglio-Settembre
N. 07/09

Abbonati