La rete che evolve, intelligenza artificiale e competenza umana

Nel corso di una tavola rotonda organizzata da Office Automation in collaborazione con Juniper Networks si è discusso del ruolo del networking tra gestione e innovazione.

La rete come sistema nervoso del business. Non sfugge a nessuno il valore abilitante delle infrastrutture di rete in un’era nella quale i processi avvengono quasi per la totalità a livello digitale. In questo scenario, la struttura IT e spesso altri componenti chiave dell’organizzazione vengono costantemente sollecitati per riuscire a supportare al meglio le operation e i servizi in modo tempestivo, dinamico, sicuro. È la forza del modello intent based: una rete definita in termini di funzionalità, piuttosto che in termini di componenti fisici o logici, adattabile agli obiettivi aziendali che, ora, trova un concreto supporto nelle soluzioni di intelligenza artificiale e di machine learning. Queste infatti offrono la prospettiva, in modo sempre più evidente, di automatizzare le attività di gestione come la configurazione, la manutenzione e la risoluzione dei problemi; di migliorare prestazioni e sicurezza; di fornire una maggiore visibilità sui fenomeni in corso, monitorando il traffico, o identificando i modelli di utilizzo della rete.

Tuttavia, se queste sono le opportunità, l’introduzione di questi nuovi modelli in un’organizzazione richiede il confronto, ancora aperto, con aspetti complessi, a partire dalla ridefinizione del rapporto tra risorse umane e tecnologie disponibili, per proseguire con tutti quegli elementi di vincolo con i quali imprese e amministrazioni sono chiamate a confrontarsi sul piano normativo, economico e strategico nella gestione dei dati. Il quadro che ne emerge è una richiesta di gradualità, e un confronto aperto tra vendor e utenti di fronte ad un cambiamento che per essere accolto al meglio richiede trasparenza sugli elementi di garanzia: come sicurezza, riservatezza, sovranità digitale e un grande investimento culturale sia a livello manageriale che operativo.

Sono questi gli aspetti chiave che emergono dal dibattito che Office Automation ha proposto ad alcuni protagonisti del nostro ecosistema produttivo: istituzioni, ricerca, università, imprese tecnologiche, che trovano sintesi negli interventi dei partecipanti alla tavola rotonda “Le nuove tecnologie a supporto delle reti: intelligenza artificiale e modelli intent based” organizzata a Roma in collaborazione con Juniper Networks.

Queste sono le domande che hanno fatto da spunto al dibattito:

1. Quali sono oggi le sfide principali che le aziende hanno di fronte quando si tratta di realizzare e gestire un’infrastruttura di rete wired/wireless nel proprio contesto, sia fronte tecnologico che di business? Quali sono in tal senso le strategie che ritenete più opportune per affrontarle con successo?

2. Qual è a vostro parere il contributo che l’intelligenza artificiale può fornire nel supporto dell’infrastruttura e quali sono i dati e le metriche fondamentali che possono contribuire a mantenerla operativa e/o a provvedere a una sua configurazione ottimale rispetto al servizio che si vuole abilitare?

3. Come si sono evolute le competenze che chi si occupa della gestione di un’infrastruttura di rete deve possedere, quali sono gli stakeholder coinvolti nei relativi processi e le esigenze che questi hanno (ed esprimono) maggiormente?

Giorgio Graditi

Direttore Generale ENEA

Le sfide che le aziende incontrano nell’ambito della progettazione e della gestione dell’infrastruttura di rete sono molteplici e strettamente legate ad aspetti specifici quali, ad esempio, le dimensioni dell’azienda e il contesto in cui questa opera. In un contesto come quello di un ente di ricerca l’obiettivo è quello di assicurare un ambiente aperto e collaborativo dove gli utenti possano accedere facilmente a risorse e a servizi, preservando allo stesso tempo la confidenzialità delle informazioni. Un esempio è quello delle infrastrutture di calcolo nelle quali, oltre che resilienza e prestazioni, è fondamentale garantire agli utenti una corretta gestione dei dati e una protezione adeguata delle risorse per preservare l’integrità della ricerca.

La centralità dei dati è un fattore determinante, investendo aspetti relativi all’acquisizione, elaborazione, e storage degli stessi; esistono inoltre responsabilità in tema di sicurezza e classificazione delle informazioni che richiedono il rispetto di specifiche procedure e normative, nonché azioni di informazione, formazione e sensibilizzazione del personale coinvolto a vario titolo e livello.

Occorre un approccio che metta a sistema diverse soluzioni e strumenti, tenendo in conto anche gli aspetti economici in termini di investimenti richiesti in capex e opex.

Un primo aspetto da considerare è che le reti aziendali stanno diventando sempre più complesse, con la crescente adozione di dispositivi IoT (Internet of Things), cloud computing e tecnologie di rete definite dal software (SDN). In ambito cybersecurity, l’adozione di tecnologie come firewall, antivirus, sistemi di rilevamento delle intrusioni (Intrusion Detection System – IDS) e sistemi di prevenzione delle intrusioni (Intrusion Prevention System – IPS) consente di rilevare, prevenire e mitigare minacce informatiche che diventano sempre più sofisticate e persistenti. Il monitoraggio della rete, quindi, può essere coadiuvato da sistemi basati sull’Intelligenza Artificiale (IA) che, a supporto del gruppo specializzato di tecnici (Human Centric SOC), riescono ad elaborare una enorme quantità di dati, individuando più rapidamente le minacce per intraprendere azioni correttive e mitigare i rischi.

Per modernizzare la Cyber Security con la Cyber Protection integrata, in ENEA si utilizza fortemente la virtualizzazione degli ambienti di produzione e non, e si attuano processi di backup per garantirne l’integrità e disponibilità H24 (migliaia di Virtual Machines e Petabytes di spazio disco allocato).

In ENEA è in atto un graduale processo di convergenza verso l’utilizzo di credenziali uniche (basato su Active Directory) per l’accesso ai vari applicativi gestionali, alla posta elettronica e alle risorse Intranet, con l’aggiunta di Multi Factor Authentication per evitare il furto di identità ed aumentarne la sicurezza.

D’altro canto, tale sistema consente di avere anche un controllo centralizzato dei log di accesso e prevenire accessi anonimi.

Un aspetto essenziale da tenere in alta considerazione per la sicurezza complessiva della rete e dei dati è il coinvolgimento attivo degli utenti in un programma di formazione continua, focalizzato sul consolidamento della consapevolezza riguardo alle minacce informatiche. L’ENEA mette a disposizione del proprio personale una sezione di e-learning tesa a diffondere una cultura della sicurezza nell’utilizzo dei dispositivi aziendali ma anche personali (BYOD).

L’intelligenza artificiale (IA) può fornire un contributo significativo nel supporto dell’infrastruttura di rete. Con l’uso dell’IA, è possibile automatizzare molte attività che altrimenti richiederebbero intervento umano, permettendo di ottimizzare l’operatività e la configurazione dell’infrastruttura. Grazie alla sua capacità di analizzare grandi quantità di dati in modo veloce ed efficiente, l’IA può identificare pattern e tendenze che possono guidare la gestione e la manutenzione dell’infrastruttura. Questo permette di prevedere eventuali problemi o guasti, consentendo interventi tempestivi per prevenire interruzioni o danni. Inoltre, l’IA può supportare la gestione delle risorse, ottimizzando l’utilizzo degli asset e riducendo sprechi e costi. Attraverso l’apprendimento automatico, l’IA può continuamente migliorare le proprie capacità, adattandosi alle nuove situazioni e fornendo soluzioni sempre più efficaci. In ENEA stiamo realizzando un sistema di quasi real-time machine learning in grado di processare gli eventi provenienti da una serie di sensori di rete e di attuare politiche di ri-addestramento per scongiurare i problemi di data drift (cambiamento della distribuzione dei dati di input) e concept drift (cambiamento della relazione tra dati di input e dati di output) in relazione al dominio della cybersecurity.

Alfonso Pisano

Capo III Reparto – Comando generale dell’Arma dei Carabinieri

La principale responsabilità nella gestione della infrastruttura di networking nell’Arma è quella di garantire l’operatività di un’organizzazione distribuita in modo capillare nel Paese. L’Arma si compone di circa 7000 reparti che devono essere collegati tra loro. A questo facciamo fronte con un approccio strutturato e piuttosto ‘tradizionale’, mirato all’efficienza, per ragioni di sicurezza delle informazioni e resilienza del sistema in caso di necessità. Su questo ambito si concentra la nostra massima attenzione. Viviamo tuttavia le stesse dinamiche che affrontano le amministrazioni dello Stato, compreso il confronto con la limitazione di risorse economiche e umane tipiche della sfera tecnologica nel nostro Paese. Non tutto è esternalizzabile; una realtà come l’Arma dei carabinieri ha bisogno di avere proprie capacità ma, in questo ambito, il processo di arruolamento e formazione specifica risulta complesso. In sintesi: il nostro sistema informativo deve affrontare le sfide tecnologiche evolutive in un quadro di attenzione costante alla tenuta, alla sicurezza, all’affidabilità. Pertanto, il tema delle dotazioni di spesa per l’acquisizione e poi la gestione delle soluzioni è sentito anche nella nostra organizzazione. Sul piano della sicurezza è senza dubbio importante il ruolo di guida fornito dalle indicazioni dell’ACN ed è altrettanto importante che esistano responsabilità precise e regole da seguire da parte dei responsabili della transizione digitale. Per l’Arma dei Carabinieri tale responsabilità è riferibile al Capo del Terzo Reparto del Comando Generale. I carabinieri sono estremamente attenti allo sviluppo dell’AI. Siamo in costante contatto con gli enti di ricerca e l’industria nazionale per capirne gli sviluppi. Sul piano della gestione dei sistemi rete le soluzioni non sembrano ancora mature o piuttosto, rilevanti, rispetto alle nostre esigenze di base, come può essere quella di assicurare l’accesso delle pattuglie su strada alle nostre banche dati.

Più visibile, invece, è il supporto che strumenti rientranti nell’alveo dell’Intelligenza artificiale e del machine learning potrebbero dare per attivare meccanismi di triage in grado di segnalare possibili minacce. Tuttavia, ritengo che resti ancora strategica l’analisi di personale esperto e la capacità di scambiare informazioni tra CERT.

Per quanto riguarda la gestione dei collegamenti di rete, far dipendere un collegamento di questo genere da sistemi non gestiti da un esperto umano, che agisce in base a una personale consapevolezza del contesto, incute ancora diverse perplessità. Ritengo invece che vedremo presto frutti più interessanti in altri ambiti come, per quanto ci riguarda, il supporto all’attività investigativa.

Vittorio Baiocco

Network and Security manager – Inail

La strategia digitale di un’Amministrazione dipende dal contesto nel quale si muove ma, certamente, il perimetro del nostro dominio negli anni è cambiato in modo rilevante. Rispetto al controllo dell’informazione all’interno di reti locali e geografiche, con il quale ci siamo confrontati per anni, oggi siamo ormai abituati al tema del confronto con l’informazione nel cloud. La sfida posta a chi gestisce infrastrutture IT oggi consiste nel compiere scelte tecnologiche che si adattino in maniera realmente efficace al proprio modello di fronte ad una gamma di possibilità che spaziano dall’ on premise, al cloud o al multicloud con un approccio che si orienta con sempre maggiore peso verso i servizi gestiti, anche a causa della scarsità di risorse interne.

Di fatto, però, l’automazione è un fattore fondamentale per la gestione delle reti. Stiamo vivendo uno scenario nel quale le reti assumono un valore ancora più ampio di quello cui siamo stati abituati allargando il proprio perimetro anche in relazione a modalità di fruizione sempre più articolate. Pensiamo soltanto alle modalità di connessione attraverso il 5G.

È evidente che le performance delle infrastrutture aziendali dovranno essere adeguate ed in grado di adeguarsi a esigenze dinamiche. Servono una rete che garantisca alte prestazioni a livello fisico ma anche configurazioni ottimali.

Di conseguenza, i nuovi apparati di automazione che consentono di migliorare le performance di rete e, soprattutto, aiutano il lavoro dei sistemisti, sono un elemento di crescente rilevanza. Ora, di fronte all’attenzione posta sulle soluzioni basate su Intelligenza artificiale e machine learning, vale la pena sottolineare che siamo di fronte ad una forte evoluzione dei modelli di calcolo che, rispetto ad attività ripetitive e standard, possono elevare le performance in modo significativo. Occorre rilevare che all’interno di un’infrastruttura di rete, dove gli elementi tecnologici, al netto di evoluzioni prestazionali, sono sempre gli stessi dalla fine del XX secolo, oggi assistiamo alla disponibilità di modelli di virtualizzazione degli apparati, che spostano l’attenzione verso l’aspetto software semplificando le attività di configurazione e tuning della rete, come ad esempio i modelli SDN.  Un ulteriore modello di networking che si sta sviluppando, che usa l’Intelligenza Artificiale, è quello basato sugli intenti dove tra le varie funzionalità, nella sua ultima versione, se è necessaria una correzione, la rete stessa può apportare modifiche che l’operatore può approvare secondo le policy scelte.

Detto questo, però, l’analisi e l’intervento umano, rispetto ad un fenomeno anomalo all’interno di un’infrastruttura hardware ad oggi è ancora difficilmente sostituibile.

Giorgio Agrifoglio

Dirigente Direzione Generale per la digitalizzazione, i sistemi informativi e statistici Ministero delle infrastrutture e dei trasporti

Sotto l’egida del Ministero delle infrastrutture e dei Trasporti nel corso del tempo si sono raggruppate tre ‘anime’ piuttosto diverse: lavori pubblici, motorizzazione e capitanerie di porto.

Si tratta di una complessità endemica che vede unite realtà organizzative che provengono da percorsi tecnologici distinti e che si stanno avviando, tramite il coordinamento della Direzione Generale per la digitalizzazione, i sistemi informativi e statistici ad una armonizzazione dei sistemi, soprattutto tramite l’integrazione con i principali servizi trasversali a tutta l’Amministrazione.

Il Ministero è pienamente coinvolto nella fase di trasformazione dei servizi resi ai cittadini, alle imprese e alle altre amministrazioni che prevede l’evoluzione del paradigma dell’eGov in Goverment as a Service.

L’avvento del Cloud, unitamente alla rapida evoluzione dei servizi informativi in genere, ha reso necessario un costante confronto con i diversi stakeholders. L’ecosistema avviato tramite Piattaforma Digitale Nazionale Dati (PDND) consentirà un maggior dialogo in termini di interoperabilità fra le amministrazioni consentendo di arricchire e meglio strutturare i servizi aderendo al contempo al principio once only sui dati.

In tale contesto il dato posseduto o scambiato fra le Amministrazioni assume un’importanza di sempre maggior rilievo comportando un livello di attenzione, controllo e governance su entità dalla complessità sempre crescente.

Considerato il costante aumento della mole di dati che transita sulla rete, ci siamo dotati di un sistema che attraverso meccanismi di intelligenza artificiale e machine learning consente di analizzare una quantità di dati veramente ingente ed in grado di sviluppare modelli di comportamento dei principali sistemi.

Attraverso tali sistemi è possibile correlare più modelli per ravvisare scostamenti significativi ed evidenziare segnali di potenziale pericolo prevedendo altresì delle azioni di mitigazione che intervengono in modo automatico o semiautomatico.

Benché tali automatismi siano di concreto aiuto per la gestione della sicurezza informatica in un ambito di crescente complessità, rimane di estrema rilevanza il fattore umano, che richiede competenze sempre più elevate per valutare ed intervenire di conseguenza.

Vincenzo Lezzi

CIO – Università di Roma LUMSA

Il nostro punto di osservazione è quello di un ateneo di medie dimensioni; siamo paragonabili ad una media impresa di cui condividiamo diverse dinamiche.

Esiste, in gran parte delle organizzazioni un gap di consapevolezza sulla rilevanza dei temi informatici attuali. Si tratta di una sottovalutazione tipica e diffusa, sulla portata delle funzioni che oggi svolge l’IT per le organizzazioni di qualsiasi tipo con sottostima conseguente delle complessità che devono essere affrontate e delle risorse necessarie per farlo. Per quanto l’IT sia diventato pervasivo rispetto a qualsiasi tipo di processo non si è ancora diffusa una cultura adeguata. Sul piano informatico sono state condotte delle vere e proprie rivoluzioni: l’adeguamento dei data center, quello della ridondanza, della stabilità dei collegamenti, della distribuzione delle applicazioni e poi, ancora, il cloud con tutte le diverse modulazioni ad esso collegate. La gestione adeguata dei temi di sicurezza, poi, oggi è divenuta un ‘lavoro nel lavoro’. Non c’è nulla che oggi venga fatto in ambito informatico senza mettere in campo tutti gli strumenti possibili per fare in modo che quanto fatto non diventi causa di esposizione ad attacchi.

L’intelligenza artificiale, in questo contesto, è un fenomeno che richiama grande attenzione ma proviene da lontano. Ci si confronta da anni con la possibilità di far assumere ai computer decisioni euristiche, così come possono fare le intelligenze umane. Perché per tanti anni non se ne è parlato? Perché mancava sufficiente capacità elaborativa e analogamente non c’era adeguata disponibilità di dati. Oggi queste due condizioni sembrano soddisfatte, e le soluzioni sperimentate producono dei risultati analoghi alle decisioni euristiche sulle quali, tuttavia, occorre ancora effettuare le opportune verifiche. Come utilizzare allora oggi queste soluzioni all’interno dei nostri sistemi di rete? Per esempio all’interno dei Soc, in ambito sicurezza, per analizzare le informazioni provenienti dai diversi strumenti di segnalazione, intervenire e automatizzare alcune risposte. Esiste, tuttavia, un problema di fondo: il mercato ha lasciato ai vendor lo sviluppo delle tecnologie informatiche sulla base di topic in gran parte autodeterminati. Faccio un esempio: abbiamo messo a fuoco il tema dell’awarness dei dipendenti rispetto ai comportamenti corretti nell’impiego delle risorse IT come le email.

Si tratta di un grande impegno ma, nel tempo, sarebbe stato possibile sviluppare protocolli più robusti e tutelanti di quelli esistenti. Il risultato, in termini generali è che le organizzazioni si trovano a investire e gestire soluzioni tecnologiche necessarie per rispondere a debolezze di fondo che dipendono dalla fallacia di protocolli come il TcpIp sui quali sarebbe stato più giusto operare in modo corale. Di fronte a questo sarebbe importante porsi con adeguata consapevolezza, non subire il cambiamento, quanto cercare di indirizzarlo verso finalità corrette.

Alessandro Luzzi

Dirigente della Direzione Generale per i Sistemi Informativi e la Statistica del Ministero dell’Istruzione e del Merito

Èdifficile dare un ordine di priorità alle singole sfide nella dinamica evolutiva dell’IT all’interno di un’organizzazione complessa. Esiste una grande, continua, necessità strutturale di stare al passo con i tempi garantendo la sicurezza del dato. Un Ministero come quello dell’Istruzione e del Merito gestisce un grande patrimonio di informazioni fra le quali anche quelle di cittadini minorenni.

Gli uffici centrali, regionali e provinciali contano circa 6.500 dipendenti. Abbiamo reti molto estese e complesse. Offriamo diversi servizi applicativi e infrastrutturali alle scuole che, tuttavia in virtù del principio di autonomia, possono scegliere per alcuni temi, soluzioni e modelli diversi. Il tema della sicurezza è quindi piuttosto delicato. A questo ovviamente si affianca la necessità di garantire soluzioni innovative, economiche, interoperabili. Come tutte le PA affrontiamo il tema della scarsità di risorse e competenze in ambito cybersecurity Proprio per gestire questa eterogeneità da circa due anni abbiamo scelto un approccio più strutturato basato su standard come quello ISO 27001 e, abbiamo implementato un impianto ISMS e il personale è in continuo aggiornamento. Abbiamo imparato che l’efficienza e l’efficacia di un’infrastruttura di rete parte da una progettazione funzionale e questo vale, ovviamente, anche per il tema della sicurezza. Per infrastrutture di livello occorrono tecnologie adeguate ma al tempo stesso occorre comprendere la natura dei processi che sfruttano il dato e devono essere ingegnerizzati nel modo più idoneo, concentrando le risorse sui fattori di maggiore rilievo. Il Ministero si muove con due obiettivi di fondo: semplificare e innovare. vogliamo farlo sia a livello di architetture che di processo.

In tal senso abbiamo varato Unica, un portale che metterà a disposizione delle famiglie un contenitore nel quale saranno raccolti tutti gli strumenti utili a famiglie e studenti per l’intero percorso scolastico. Il sistema si avvarrà anche di alcune funzioni di machine learning e prevedrà interessanti evoluzioni per offrire indicazioni e consigli sul percorso formativo dello studente, tenendo traccia delle maggiori abilita didattiche dimostrate durante il percorso, e molte altre funzionalità sul piano amministrativo.

Di fronte all’AI gli stakeholder manifestano una certa diffidenza, perché si pone un tema etico che consiste nella trasparenza dei processi evolutivi dell’IT. Se vogliamo poterci affidare a queste nuove soluzioni assistite dobbiamo essere sicuri sulla base del fatto che il modello di calcolo sia noto e consolidato, che le modalità di trattamento dei dati siano rispettose delle norme GDPR.

Concludo con un’osservazione sul tema della formazione. Ogni organizzazione ha bisogno di un adeguato livello di competenze interne, anche per poter interloquire con il vendor in modo adeguato. Dobbiamo arrivare a questo livello formando competenze che non risiedono solo nel management ma anche nei ruoli più operativi. Una risposta può provenire dando la giusta importanza agli ITS. Luoghi di formazione post diploma in una posizione intermedia tra il diploma e la formazione universitaria.

È un modello che sta dando grandi risultati perché è definito su scala regionale, coinvolge imprese e persone che condividono lo stesso tessuto. I formatori poi provengono proprio dal mondo dell’impresa. È qui che potremo trovare le nuove professionalità.

Raimondo Sepe

Direttore ICT – Università telematica internazionale Uninettuno

Èevidente che per un’università telematica il livello delle funzionalità e l’affidabilità della propria piattaforma sia determinante. Siamo partiti nel 2006 con l’innovativo modello psico-pedagogico del nostro rettore Maria Amata Garito. Inizialmente la nostra infrastruttura era fatta di server fisici in quella che, al tempo, era la più grande server farm in Italia. Poi con il tempo abbiamo sposato l’impostazione derivata dalla software design infrastructure e, da qui, è stato semplice il passaggio, come prima università italiana, al cloud. Questo ha consentito di innovare la modalità di erogazione di diverse attività ma, come ben sappiamo, l’innovatività è un’attitudine che non ha un termine.

Questi ultimi anni ci hanno portato ad accelerare e trovare risorse anche maggiori; una dimostrazione concreta della flessibilità dell’infrastruttura moderna l’abbiamo avuta durante la pandemia quando le limitazioni imposte non hanno affatto intaccato l’operatività dell’università. Offriamo servizi per una platea di oltre 20.000 persone tra studenti e docenti, distribuita nel mondo, anche in aree dove si vivono situazioni critiche. La nostra è una realtà internazionale, abbiamo corsi di laurea e master di cinque facoltà in diverse lingue: italiano, inglese, francese, arabo e greco.

L’accesso e la funzionalità della nostra piattaforma di e-learning sono chiaramente aspetti prioritari. A tutti dobbiamo offrire adeguati livelli di servizio. Il tutto con una struttura organica estremamente più contenuta di atenei tradizionali di pari numero di studenti. Si tratta di un confronto sfidante che richiede un lavoro costante di analisi e intervento sull’infrastruttura, a volte poco visibile ma di importanza cruciale.

Sul piano delle infrastrutture fisiche, volte a supportare il nostro rettorato e gli uffici fisici, abbiamo portato avanti una sperimentazione interessante. La nostra sede fisica è in un palazzo storico nel centro storico di Roma. Un palazzo che pone grandi limiti alle infrastrutture di rete interne per le dimensioni dei muri ma anche per la grande presenza di segnali di disturbo provenienti dall’esterno.

Per assicurare il livello delle prestazioni wireless siamo sempre dovuti intervenire manualmente per resettare o intervenire nelle configurazioni degli access point. Abbiamo quindi messo in atto una Proof of Concept con Juniper per riuscire a verificare in modo automatizzato i livelli di prestazione e con adattamento dei canali in tempo reale. Il miglioramento è tangibile e dimostra il vantaggio pratico di strumenti di machine learning sulle infrastrutture.

Antonio Pisano

SVP Cyber & Information Security – Leonardo

Una delle difficoltà che vive l’IT nella maggior parte delle organizzazioni è quella di riuscire a far comprendere al business che la sicurezza non è solo un costo ma è un fattore abilitante e che quindi “la sicurezza crea valore”. Sono concetti quasi banali in apparenza, eppure, far capire cosa implica raggiungere e mantenere adeguati livelli di sicurezza al proprio board resta di fatto complicato. Per quanto riguarda le sfide collegate alla gestione delle infrastrutture di rete, su un piano generale, mi sembra che uno dei problemi principali sia la scarsa attenzione sul tema della sovranità digitale. Non ci si interroga abbastanza sulla reale proprietà e tutela del dato (in transito, in elaborazione, in stoccaggio). Il cloud offre chiaramente opportunità interessanti, ma bisogna fare attenzione affinché la logica dello ”IT as a service” non trasformi tanti uffici ad elevate capacità tecnico/scientifiche in meri centri di acquisto. Il rovescio della medaglia è che si perde il controllo delle tecnologie impiegate in favore di aziende terze, probabilmente al di fuori dei confini nazionali. Basta riflettere un momento sui repentini cambiamenti e sugli scenari di crisi che si aprono a livello internazionale per comprendere quali siano i rischi connessi all’esternalizzazione di servizi “core” della propria Azienda.

Un’azienda come Leonardo chiaramente tiene in considerazioni anche questi fattori per le l’indirizzamento delle proprie decisioni strategiche in materia di sicurezza. Fortunatamente esiste una Istituzione come l’Agenzia di Cyber Sicurezza Nazionale (ACN) che offre linee guida e regole importanti per imprese e amministrazioni, dando un riferimento chiaro sulle soluzioni tecnologiche da applicare. Occorre quindi maggiore consapevolezza e, pertanto, nelle organizzazioni oggi è auspicabile un management che abbia anche adeguate competenze tecnologiche. Un altro elemento con il quale dobbiamo confrontarci è l’assoluta asimmetria che esiste nella capacità di scambiare informazioni tra le entità Nazionali (Aziende e Enti Pubblici) in confronto a quelle della criminalità digitale: mesi contro minuti, questa differenza temporale è una importante debolezza nella linea difensiva generale. Il nodo consiste in una serie di vincoli normativi complessi sui quali occorrerà fare una importante riflessione. Riguardo al tema delle risorse e delle competenze tutti avvertiamo la difficoltà di reperirle, formarle e trattenerle, in un mercato di fatto inflazionato. Non dimentichiamoci che di fatto, un’azienda è attaccabile anche sottraendole i migliori dipendenti.

Di fronte a tutto questo occorre che ci sia la giusta consapevolezza, guardando allo sviluppo tecnologico con la dovuta attenzione, visione strategica e competenza ad ogni livello manageriale.

Per quanto riguarda l’impiego della AI in ambito security andrebbero presi in considerazione diversi aspetti. Il primo è chiedersi come l’attaccante può sfruttare queste soluzioni per danneggiarmi; il secondo è come posso utilizzare le funzionalità del machine learning per difendermi ed infine come proteggere la proprietà intellettuale dell’azienda nell’era dell’intelligenza artificiale. Il primo aspetto è sotto gli occhi di tutti in quanto il costo della capacità computazionale e delle memorie di massa è calato drasticamente e questo offre agli attaccanti grandi possibilità; ma sul piano della difesa il machine learning offre la capacità di analizzare rapidamente una grande mole di informazioni aiutando nell’intervento tempestivo e preventivo i SOC ben organizzati.

Il punto di vista di Juniper Networks

Dario  Loparco

Head of Enterprise, Juniper Networks Italy

Juniper Networks è un’azienda globale impegnata a semplificare in maniera significativa le operazioni di rete per garantire agli utenti finali esperienze di altissima qualità. Le soluzioni Juniper offrono insight, automazione, sicurezza e intelligenza artificiale all’avanguardia per l’intero settore, capaci di guidare realmente i risultati di business.

La semplificazione dei problemi complessi legati alla gestione delle infrastrutture di rete è una questione quanto mai attuale di fronte a un mercato che, invece, si confronta con una gestione di reti sempre più complessa e con richieste crescenti di sicurezza, dinamicità, robustezza e resilienza delle reti.

Le infrastrutture di rete si sono evolute e sono diventate sempre più complesse a causa sia dei continui cambiamenti tecnologici sia delle esigenze sempre più mutevoli. Per  garantire un’esperienza utente di qualità, oggi la rete deve rispondere ad alcune richieste divenute ormai imprescindibili, come sicurezza by design, automazione, conformità normativa, agilità e resilienza. Inoltre, non bisogna tralasciare un altro importante fattore, ossia la riduzione dei costi. I gestori delle reti sono, infatti, sempre più spesso chiamati a fare i conti con crescenti costi operativi dovuti alle sempre maggiori richieste di nuovi servizi e nuove competenze in tempi brevi. Come uscire da questa impasse? Una risposta può venire da quella famiglia di soluzioni e servizi che rientrano nella sfera dell’intelligenza artificiale (AI). L’Al fornisce, infatti, un importante supporto alle nuove infrastrutture di rete wired/wireless e data center perché consente di semplificare enormemente l’intervento umano supportando l’analisi e la gestione degli interventi, il che è fondamentale per fornire all’utente una user experience di alta qualità. Aiuta, inoltre, a prendere decisioni migliori grazie alla capacità di processare un’enorme mole di dati disponibili, difficilmente processabili in altro modo.

In particolare, la risposta di Juniper Networks è nelle sue soluzioni Mist AI e Apstra, che garantiscono entrambe estrema affidabilità, versatilità, sicurezza e riduzione dei costi. Da un lato, Mist AI utilizza una combinazione di intelligenza artificiale, machine learning e tecniche di data science per ottimizzare l’esperienza utente e semplificare le operazioni nei domini di accesso wireless, wired e SD-WAN. I dati provengono da una varietà di fonti tra cui gli access point Juniper Mist, gli switch, i Router Session Smart e i firewall. Questi dispositivi collaborano con Mist AI per ottimizzare l’esperienza utente dal client al cloud fornendo correlazione automatica degli eventi, identificazione delle cause dei problemi, operation di rete automatizzate, assicurazione e riconoscimento automatico delle anomalie. Inoltre, Mist AI fornisce informazioni in tempo reale su uptime, prestazioni e potenziali problemi che potrebbero influenzarli. Individua in modo proattivo le cause dei possibili problemi spesso prima ancora che gli utenti si rendano conto del problema stesso e può essere addestrato ad applicare automaticamente azioni correttive per determinati problemi, risolvendoli all’istante, con conseguente riduzione dei costi per le richieste di assistenza.

Dall’altro lato, Juniper Apstra migliora l’esperienza degli operatori, facilitando il deployment e la gestione delle infrastrutture data center private. Con la recente introduzione di nuove funzionalità data center, quali la raccolta semplificata dei dati e la visualizzazione mediante grafici, un’integrazione più rigorosa dei dati di flusso da switch multivendor e provisioning automatizzato mediante Terraform, i clienti Juniper possono continuare a sfruttare Apstra per il networking intent based e l’assicurazione di una automatizzazione dei data center con un numero ancora maggiore di funzionalità di gestione che rendono i data center on premises più flessibili e agili per poter essere utilizzati quanto le infrastrutture cloud. Apstra offre, inoltre, automazione ed eccellenza operativa durante l’intero ciclo di vita dal Day 0 al Day 3, supportando quasi tutte le topologie di rete.


Avatar

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Vestibulum venenatis commodo lorem id blandit. Nunc efficitur posuere metus ac blandit. Aliquam in varius est. Phasellus ultrices gravida nisl, vel volutpat lectus. Phasellus finibus nec ligula in eleifend. Cras posuere felis ac ante rutrum, vel condimentum nibh porta. Integer arcu libero, tempus ut...

Office Automation è il periodico di comunicazione, edito da Soiel International in versione cartacea e on-line, dedicato ai temi dell’ICT e delle soluzioni per il digitale.


Soiel International, edita le riviste

Officelayout 197

Officelayout

Progettare arredare gestire lo spazio ufficio
Aprile-Giugno
N. 197

Abbonati
Innovazione.PA n. 55

innovazione.PA

La Pubblica Amministrazione digitale
Maggio-Giugno
N. 55

Abbonati
Executive.IT n.2 2024

Executive.IT

Da Gartner strategie per il management d'impresa
Marzo-Aprile
N. 2

Abbonati