Edge, Fog e Cloud Computing. Nulla di nuovo sotto il sole!

Le nuove esigenze di performance sempre più vicine a dove vengono generati i dati stanno portando alla definizione di una ‘nuova’ architettura a tre livelli delle risorse di elaborazione.

Dopo un periodo in cui il cloud computing aveva introdotto un modello di architettura client/server ‘piatta’, in cui tutti gli utenti colloquiavano direttamente con il cloud, per fronteggiare l’aumento esponenziale dei volumi di dati prodotti dagli utenti umani e soprattutto dalle macchine e dagli ‘smart object’, che oltretutto richiedono tempi di risposta rapidi e certi, riemerge oggi un modello di architettura a tre livelli, che riproduce in chiave moderna le architetture tradizionali dei sistemi informativi aziendali (three tier architecture) definite in vario modo, in funzione dei punti di vista.

Se nell’architettura classica onpremise i tre livelli erano costituiti da: pc/thin client (level 1), sistemi dipartimentali (level 2) e data center (level 3), la nuova architettura dei sistemi informativi di domani si articola in:

-Edge-layer: comprende tutti i dispositivi ‘intelligenti’ (Edge Device) di un’architettura IoT. A questo livello, i dati vengono elaborati direttamente dal dispositivo che li ha generati (sensore intelligente e o computer a bordo macchina) o trasmessi tramite un server locale al Fog Layer. In questo caso l’ordine di grandezza sono i miliardi di device edge che possono essere attivi nel mondo.

-Fog-layer: comprende un insieme di server distribuiti in rete che ricevono i dati dal livello Edge, li pre-elaborano e li caricano nel cloud, quando ritenuto necessario. Qui invece si parla di milioni.

-Cloud-layer: gestione centrale dei dati di un’architettura Fog Computing. Migliaia.

Edge computing

Numerosi ambienti applicativi, in particolare il mobile computing e l’IoT, generano enormi quantità di dati. I mega data center tradizionali non riescono più a soddisfare le esigenze di queste tecnologie, con conseguente aumento delle latenze dei dati e sovraccarico delle reti di accesso. L’Edge computing, detto anche elaborazione perimetrale o periferica, è realizzato tramite dispositivi situati ai margini di una rete definiti edge device. Esistono varie definizioni:

Wikipedia: “L’ Edge Computing è un modello di calcolo distribuito nel quale l’elaborazione dei dati avviene il più vicino possibile a dove i dati vengono prodotti”.

IDC: “Una rete mesh di micro data center, in grado di elaborare e memorizzare dati critici localmente, e di trasmettere tutti i dati ricevuti e/o elaborati a un data center centrale o a un repository di cloud storage”.

Forrester: “Una famiglia di tecnologie che distribuiscono dati e servizi applicativi in modo da ottimizzarne gli effetti in un crescente insieme di risorse interconnesse che include elementi infrastrutturali e di software analitico”.

Tutte le definizioni condividono una caratteristica comune: i dati generati alla periferia della rete vengono elaborati il più vicino possibile alla fonte. Per ottenere questo risultato, i componenti di elaborazione, storage e networking sono portati vicino alle fonti che generano i dati. Un caso tipico sono le implementazioni IoT (Internet of Things) e IIoT (Industrial IoT), che devono risolvere problemi di latenza, richiesta di banda e affidabilità, difficilmente risolvibili attraverso il modello cloud convenzionale, mentre l’edge computing è in grado di ridurre la mole di dati da inviare nel cloud, elaborando nel punto di origine i dati critici, sensibili alla latenza, tramite smart device o edge server locali, mentre i dati meno time-sensitive possono essere trasmessi all’infrastruttura cloud o al data center dell’impresa, per consentire elaborazioni più complesse, come analisi big data, applicazioni gestionali e simulazioni.

La capacità di integrare funzionalità evolute come riconoscimento vocale, computer vision, realtà aumentata e intelligenza artificiale all’interno di sistemi industriali di edge computing, consente di monitorare facilmente le prestazioni di singoli dispositivi, macchine o impianti. Le tecnologie smart edge, come sensori, attuatori e controller, possono essere utilizzate per monitorare lo stato di salute dei macchinari e delle parti in movimento al loro interno e, quindi, realizzare la manutenzione predittiva.

L’introduzione di questo livello di elaborazione periferica comporta però anche un aumento della complessità e dei costi. Infatti, affinché l’edge computing industriale possa realizzare il suo potenziale, è necessario impiegare un hardware industriale robusto e durevole (rugged), notevolmente costoso, in grado di resistere ai rigori delle operazioni in fabbrica come sbalzi di temperatura e di alimentazione elettrica, fumi, sollecitazioni meccaniche.

Inoltre, man mano che alle risorse informatiche dei data center si aggiungono quelle nella periferia della rete, la gestione di asset e applicazioni diventa sempre più difficile. Gestire più ambienti periferici ognuno dei quali svolge funzioni diverse, ed è configurato in modo diverso, comporta un notevole incremento delle complessità di gestione. Inoltre, potrebbero nascere problemi di interoperabilità tra i dispositivi centrali e i sistemi perimetrali. Ciò è reso ancora più difficile dalla mancanza di standard di settore.

Una delle maggiori sfide che gli amministratori devono affrontare è garantire che tutti i dati sensibili siano protetti e che la privacy sia protetta. La natura distribuita dell’edge computing rende l’intera rete più vulnerabile agli attacchi, aumenta i rischi di intrusioni a causa delle difficoltà di gestione di ambienti remoti e distribuiti e può anche rendere più difficile gestire la conformità e le questioni normative. Pertanto, sia i dati acquisiti dalle applicazioni software sia i dispositivi hardware devono essere protetti da intercettazioni e hacker.

Fog computing

Diversamente dall’edge computing, il fog computing ha una topologia di rete più complessa, costituita da molteplici nodi fog (tipicamente piccoli data center detti cloudlet) e in grado di gestire, oltre alle operazioni di elaborazione, anche funzionalità di networking, storage e controllo. I nodi di calcolo del fog computing gestiscono i processi di elaborazione e fungono da intermediari tra il cloud e i vari dispositivi edge. La principale differenza tra le due architetture sta nel punto in cui viene collocata l’intelligenza e la capacità di elaborazione: mentre nel fog computing risiede a livello della rete locale o geografica, dove i dati provenienti dal campo vengono elaborati da un nodo fog o da un gateway IoT, nell’edge computing questa intelligenza e capacità computazionale viene integrata direttamente nei dispositivi, piattaforme di elaborazione o server locali, che si interfacciano con sensori e altri sistemi embedded di controllo.

Il termine ‘fog computing’ è un’espressiva metafora che richiama nebbia (fog) e nuvole (cloud) per indicare un accumulo di piccole particelle d’acqua a diverse altezze dal suolo.

L’obiettivo del ‘fogging’ è quello di accorciare i percorsi di comunicazione e ridurre il flusso di dati attraverso reti esterne. I nodi Fog creano un livello intermedio della rete in cui i dati vengono selezionati per essere elaborati a livello locale, mente altri vengono inoltrati al Cloud o a un data center centrale per ulteriori analisi o elaborazioni.

L’Industrial Internet Consortium/Consorzio OpenFog (www.iiconsortium.org), fondato nel 2014 con l’intento di unire industria e scienza per accelerare la digital transformation, e attualmente composto da oltre 160 Imprese high-tech e istituzioni accademiche, ha sviluppato un’architettura di riferimento per i sistemi fog per standardizzare le tecnologie fog computing

Il fog computing si distingue dal cloud computing soprattutto per il luogo in cui vengono fornite le risorse ed elaborati i dati. Il cloud computing avviene di norma in data center centralizzati, in cui risorse come la potenza di calcolo e la memoria sono raggruppati e resi disponibili da server centrali per essere utilizzati dai client in rete. Questo tipo di architettura dimostra i propri limiti in applicazioni come la ‘fabbrica intelligente’ che richiede uno scambio continuo e rapido di dati tra innumerevoli dispositivi. Il fog computing si basa su un’elaborazione a livello intermedio in prossimità della sorgente dati per ridurre il flusso dei dati verso il data center.

La fabbrica intelligente non è l’unico campo di applicazione per il fog computing. Anche altri contesti come le connected car (autoveicoli semi-autonomi o senza conducente) o le smart city, richiedono analisi dati in tempo reale, spesso supportate da intelligenza artificiale, non realizzabili nel cloud computing classico.


Giancarlo Magnaghi

Laureato in ingegneria elettronica è stato co-fondatore, Direttore Tecnico e Marketing di Data General Italia e in seguito dirigente nel gruppo Olivetti, ricoprendo varie posizioni di responsabilità. Attualmente è titolare della società di consulenza Studio Magnaghi (www.studiomagnaghi.it); direttore tecnico della soc. Cherry Consulting (www.cherrycon...

Office Automation è il periodico di comunicazione, edito da Soiel International in versione cartacea e on-line, dedicato ai temi dell’ICT e delle soluzioni per il digitale.


Soiel International, edita le riviste

Copertina
Officelayout
Progettare, arredare, gestire lo spazio ufficio

Ottobre-Dicembre
N. 179 - Sommario

Abbonati

copertina
Executive.it
Da Gartner, strategie per il management d'impresa

Novembre-Dicembre
N. 11/12 - Sommario

Abbonati

copertina
Innovazione.PA
La Pubblica Amministrazione digitale

Luglio-Settembre
N. 07/09 - Sommario

Abbonati