Vincere le sfide dell’integrazione dati in tempo reale

In una tavola rotonda organizzata da Confluent in collaborazione con Office Automation si è discusso delle sfide tecnologiche legate alla gestione dei dati e alla necessità di disporre di una visione d’insieme per garantirne la qualità, rispettare le normative ed essere pronti all’adozione dell’AI.

Oggi le aziende hanno a disposizione enormi quantità di dati che permettono di potenziare i modelli di business. Tuttavia, raccogliere ed elaborare dati strutturati e non strutturati, provenienti da fonti diverse, comporta un aumento della complessità tecnica. La disponibilità sul mercato di moderne tecnologie di gestione dei dati può aiutare le aziende ad affrontare le sfide tecnologiche, ma serve una visione d’insieme per garantire la qualità dei dati, rispettare normative sempre più stringenti in materia di sicurezza e trasparenza, essere pronti all’adozione dell’intelligenza artificiale.

Questi temi sono stati al centro di una tavola rotonda organizzata dalla rivista Office Automation insieme a Confluent, società fondata nel 2014 che offre una piattaforma cloud-native e un ecosistema di soluzioni per la gestione dei dati. Durante l’incontro, condotto dal giornalista Paolo Morati, aziende di diversi settori hanno condiviso esigenze, difficoltà e strategie nella gestione dei dati.

Le domande che hanno fatto da spunto alla tavola rotonda:

1. Quali sfide dovete affrontare nell’integrazione dei dati tra i diversi sistemi aziendali?

2. Quali strategie state adottando rispetto a queste sfide, sia in ambiente cloud che on premise?

3. L’intelligenza artificiale aggiunge complessità nella gestione dei dati. Come state approcciando a questo tema?

4. Sviluppare un’infrastruttura efficiente e sincronizzata coinvolge diversi stakeholder. Quali competenze sono necessarie?

 
Lorenzo Acerbo, head of Architecture and Integration di Carrefour Italia

Lorenzo Acerbo, head of Architecture and Integration di Carrefour Italia

Negli ultimi anni in Carrefour Italia abbiamo affrontato una trasformazione importante, spostandoci sempre più verso il mondo cloud. I temi di integrazione sono ben presenti nel nostro contesto perché abbiamo ancora molte applicazioni legacy e trasferimento ed elaborazione del dato avvengono spesso in modalità batch. Abbiamo diversi punti vendita sul territorio, quindi dobbiamo ragionare sempre per singole unità, e molti processi che girano in notturna, con elaborazioni che hanno luogo in parallelo, dopo la chiusura dei supermercati. Lavorare in cloud ci permette di avere una visione centralizzata del dato, quindi abbiamo costruito una data platform alimentata da molteplici sorgenti e con modalità differenti di acquisizione. Le sfide principali sono due: la quadratura del dato, perché ci sono repliche e duplicazioni, e la freschezza dello stesso, seguendo l’evoluzione del ciclo di vita dei punti vendita. Grazie agli strumenti sviluppati per rispondere a queste esigenze oggi abbiamo un andamento vicino al real time per il venduto: riceviamo dalle casse dei punti vendita le informazioni e su queste costruiamo visioni nuove, che comprendono iniziative di business legate all’andamento real time delle vendite.

Avere gli strumenti per affrontare queste sfide è solo l’inizio del percorso. Integrare i dati, gestirli e utilizzarli in modo corretto va molto al di là della tecnologia: c’è soprattutto un aspetto di processo da considerare, e tutto parte da una visione che dovrebbe essere condivisa tra IT e business. Nel quotidiano dobbiamo affrontare le problematiche del singolo processo; a fronte di tutto quello che abbiamo sviluppato negli anni per integrare i dati e avere una data platform che sia consultabile da tutti e verificabile, l’aspetto della fiducia del dato è molto importante. Qui la tecnologia può fare da abilitatore, ma è fondamentale veicolare l’informazione giusta, spiegare al business quali sono le esigenze, quali strumenti servono per portare il risultato richiesto, che si tratti di un investimento, un cambio di processo e di visione, un modo diverso di utilizzare il dato. La sfida è convincere il business a investire in qualcosa che non ha un ritorno immediato, ma segue una visione a medio e lungo termine per utilizzare il dato e trarne vantaggi.

L’interesse verso l’intelligenza artificiale richiama ancora di più l’attenzione su una cultura del dato che finora non abbiamo avuto. Oltre alla sua qualità, imprescindibile, c’è anche un tema di semantica, ovvero di comprensione del significato dello stesso, che non è sempre immediata. Molti Proof of Concept (PoC) di intelligenza artificiale sono tecnologicamente estremamente interessanti e hanno grandi potenzialità, ma si torna sempre a questioni di consapevolezza e cultura. Per utilizzare questi strumenti e ottenere un risultato rilevante serve un percorso adeguato. Rispetto a qualche anno fa il vantaggio è che oggi è possibile, con molti meno dati, arrivare a una customizzazione di un modello già esistente su cui iniziare a fare delle valutazioni pertinenti per il proprio contesto. Per mettere a terra un progetto di AI su cui credere serve tutta una cultura aziendale e un grande investimento in studio e comprensione dei dati. Questo va di pari passo con l’introduzione di nuove figure professionali, come data scientist e data engineer, e la capacità di spiegare al business cosa vuol dire investire in una raccolta dati per consentire queste progettualità e orientarsi nelle varie proposte tecnologiche.

Il tema delle competenze tecniche è molto forte, servono tempo e dedizione per abbracciare tutte le tematiche tecnologiche portate, per esempio, dal cloud. Noi ci affacciamo molto verso l’esterno e la possibilità di avvalerci di persone giovani, competenti, determinate e fresche di competenze da un lato è un’opportunità, dall’altro crea uno scollamento rispetto alla realtà aziendale. Una cosa importante per un reskilling efficace è la predisposizione mentale delle persone: è responsabilità dell’azienda trovare il modo di formare le persone e dare loro la possibilità di esprimersi al meglio, ed è responsabilità delle persone mettersi in gioco e provare ad andare oltre i propri schemi mentali. Il ruolo dell’IT è supportare il business, e farlo al meglio significa anche rimettere in discussione processi e logiche che ad oggi risultano inadeguate perché la tecnologia e le esigenze sono cambiate.

 
Andrea Bonetti, Enterprise Information Technology architect di Hera

Andrea Bonetti, Enterprise Information Technology architect di Hera

Hera è un’azienda multiutility che gestisce una pluralità di servizi energetici e ambientali, con sede a Bologna. Dopo uno sforzo ventennale di integrazione sia della parte corporate che del core business su un unico sistema SAP, ci siamo accorti che l’efficienza raggiunta con questo processo stava diventando un elemento di rigidità. Stiamo quindi affrontando un processo di reingegnerizzazione del SAP “storico” passando a S/4HANA, ma soprattutto spaccando il grande monolite in diversi pillar legati agli specifici core business, con uno corporate che rimane piattaforma trasversale. È un grande progetto pluriennale, complesso e oneroso in termini di risorse economiche e umane, dove l’elemento dell’integrazione è sostanziale.

Noi lavoriamo, con strumenti diversi, su tre tipi di integrazione:
– integrazione di dati, per l’allineamento di basi dati anche di grandi volumi, che avvengono in modo programmato e tendenzialmente sempre più frequenti, andando in direzione del near real time
– integrazione di sistemi, attraverso API, che hanno la loro caratteristica nell’interazione di sistemi diversi su di un processo, quindi tendenzialmente con una risposta immediata a una domanda specifica
– integrazione in logica event driven (che tende al real time), quella che sempre più vogliamo promuovere, che si scatena quando succede qualcosa che giustifica l’esigenza di allineare dati e sistemi diversi

Un elemento fondamentale è l’integrazione della data platform. Il passaggio di valore è nel portare i dati dai sistemi transazionali, che assolvono a delle specifiche funzioni operative, a una data platform che li raccoglie e li prepara perché il business possa trarne apunto valore. Nel nostro modello di funzionamento c’è una separazione tra il data engineering, che facciamo noi come IT, che ci occupiamo di fornire il dato sicuro e qualificato, e quello che fa il business che, con i suoi data scientist può svolgere tutte le operazioni di analytics, dashboard, machine learning ecc… Il ritorno sui sistemi transazionali di eventuali informazioni modificate è invece monitorato con particolare attenzione: abbiamo reso fluida l’uscita dei dati per rendere il business autonomo e flessibile, ma siamo comunque sempre i “guardiani del cancello” quando qualcosa deve rientrare sui sistemi transazionali, che hanno giustamente una loro integrità inviolabile. La data platform sta assumendo per noi un valore particolare per la diffusione e l’incremento anche del mondo mobile, dove vogliamo rendere disponibili ai clienti tutti i servizi tradizionalmente fatti tramite call center. Questo sta rendendo la data platform non più solo uno strumento di analytics, ma di fatto anche lo strumento di base per applicazioni vere e proprie, e questo incide significativamente sulle modalità di integrazione e sulla necessità di avere il dato sempre “fresco” e fruibile.

La sfida principale nell’introduzione di nuovi strumenti negli scenari di produzione è la contestualizzazione. Tecnologie e strumenti esistono e presi stand alone funzionano, il problema è che nel tuo contesto, con i tuoi dati, i tuoi flussi, i tuoi tempi, le tue persone, possono diventare complessi, costosi, con impatti di change management importanti. Le tecnologie hanno delle potenzialità, ma non esistono soluzioni “one size fits all”. La nostra strategia è valutare situazione per situazione, entrare nel dettaglio, bilanciando le esigenze di rinnovo tecnologico, gli impegni economici richiesti e i benefici di business.

Stiamo ragionando sul tema dell’intelligenza artificiale generativa, mentre su quella “tradizionale”, (quindi quella che essenzialmente fa due cose: classificazione e regressione) abbiamo già fatto diversi progetti. Sulla scia delle richieste di PoC che spesso il business ci chiede, abbiamo messo punto a fuoco alcuni punti per valutare preventivamente i casi. Il primo è che l’AI non deve essere “la ciliegina sulla torta” dei processi attuali: è necessario sviluppare un ecosistema di processi con l’AI al centro, altrimenti il costo non giustifica il beneficio. Secondo: bisogna avere tanti dati, freschi e qualificati, e per averli sulla Data Platform, se non sono già disponibili, serve un progetto “preliminare”, che può essere anche impegnativo. Terzo: l’AI non è un progetto che si sviluppa una volta e poi procede da solo: è necessario creare strutture e persone che controllano e qualificano continuamente i dati e gli output che entrano ed escono dagli “algoritmi”.

Attualmente siamo impegnati in un importante processo di upskilling, da cui stiamo già ottenendo buone risposte. L’idea di fondo è che chi lavora nella tecnologia, non importa da quanto tempo, ha un’apertura mentale per cui il cambiamento è sempre uno stimolo “frizzante”, non qualcosa che fa paura. La nostra realtà è caratterizzata da una forte terziarizzazione, quindi il tema delle competenze per noi spesso si declina anche nel “governare chi sa”, ammesso di trovare all’esterno chi sa. Il punto critico del mercato comunque non è la mancanza di competenze sugli strumenti, ma dell’esperienza nel loro utilizzo, che non è riproducibile su scala e ha bisogno del tempo e del contesto concreto per maturare. Altro aspetto critico è l’upskilling trasversale fra IT e business; una scelta non comune ma che nella nostra azienda abbiamo visto funzionare bene è agevolare il passaggio delle persone IT con le caratteristiche adeguate al business, è un processo virtuoso che aumenta il dialogo e la reciproca comprensione delle diverse esigenze.

 
Riccardo Torchio, head of ERP di Unieuro

Riccardo Torchio, head of ERP di Unieuro

Nel percorso di trasformazione che stiamo affrontando l’adozione di SAP S/4HANA è stato uno dei pillar fondanti. Il primo go live è avvenuto tre anni fa e adesso stiamo approcciando la parte retail. Il pain point principale è stata l’integrazione con software legacy e tecnologie obsolete. Aspetto su cui ci stiamo concentrando è la parte di trasferimento dati in tempo reale su volumi importanti, con l’obiettivo di avere il dato pronto a livello centrale, a prescindere da dove è nato per metterlo a disposizione di automazioni, processi, reportistiche e forecast.

Una delle sfide attuali è la taggatura-semantica del dato: avendo una pletora di sistemi che dialogano tra loro con tecnologie differenti, c’è la difficoltà di seguire il percorso di un determinato dato e al tempo stesso di capire cosa “significa” quel dato in ogni step.

La continua evoluzione delle tecnologie richiede non solo un upskilling, ma anche uno skilling trasversale. per avere una struttura efficiente e resiliente il personale IT deve sapersi muovere in modo fluido tra i linguaggi, le piattaforme, le tecnologie. Se prima le competenze richieste erano quelle di un analista BI-SAP-o altro, oggi dobbiamo avvicinarci a quelle di un AI engineer o un data engineer che è abilitato da altri colleghi alla comprensione dei flussi su questi sistemi. Le skill necessarie evolvono velocemente, per stare al passo è fondamentale l’approccio al cambiamento e la creazione di team cross funzionali. Sono inoltre cruciali la comunicazione e la ricerca di un linguaggio comune tra l’IT e il business. Su quest’ultimo punto sicuramente l’AI generativa può dare un grosso contributo abbattendo la barriera all’ingresso che c’è sempre stata ovvero la conoscenza di un linguaggio di programmazione.

 
Luca Mazzon, ICT director Iren Corporate ed Energia

Luca Mazzon, ICT director Iren Corporate ed Energia

Iren è una multiutility attiva nei settori dell’energia elettrica, del gas, teleriscaldamento, gestione dei servizi idrici integrati, dei servizi ambientali e dei servizi tecnologici. Operante principalmente nei territori del nord-ovest d’Italia, si sta proponendo sul mercato dell’energia come player di carattere nazionale con oltre 2 milioni di clienti.

Il percorso che abbiamo scelto è stato quello di adottare un unico ERP centrale, su tecnologia SAP, su cui convergono i dati, mentre la fatturazione delle varie commodity (energia, gas, acqua, servizi ambientali) risiede su sistemi diversi. Il nostro desiderata era tenere separati questi mondi, che hanno caratterizzazioni molto diverse tra loro, mantenendo però un sistema centrale come unico punto per mettere a disposizione tutti i dati a chi li deve elaborare e analizzare. L’integrazione è stata un elemento chiave e l’abbiamo gestita attraverso TIBCO, adottato qualche anno fa, che ha fatto da “canale” di comunicazione per tutte le nostre soluzioni. Una delle sfide principali è stata garantire che il bus d’integrazione che collega i vari mondi restasse effettivamente un elemento di passaggio dei dati e non diventasse esso stesso parte delle logiche di integrazione, che devono continuare a risiedere sui sistemi alimentanti.

Un’altra sfida è stata il fatto di avere architetture ibride, in parte on premise e in parte in cloud. Ad oggi, molti dei nostri sistemi risiedono su un data center di proprietà mentre, per alcune nuove soluzioni, ci stiamo orientando al cloud. Ciò comporta la necessità di integrare un mondo che si trova all’esterno dell’azienda con una pletora di sistemi omogenei tra di loro dal punto di vista infrastrutturale. La gestione del data center interno combinata a sistemi PaaS e/o SaaS, che hanno i loro vincoli e restrizioni, rende ancora più importante la sicurezza e la protezione dei dati, temi a cui abbiamo dedicato dei tavoli ad hoc.

Nel settore della produzione di energia, in particolare, abbiamo adottato una data platform per raccogliere i dati provenienti in maniera diretta dalle centrali di produzione e, in maniera indiretta, dal mondo della distribuzione e dal teleriscaldamento. Abbiamo avviato un progetto di data governance per centralizzare questo tipo di informazioni in modo che, nonostante provengano da diverse fonti alimentanti, siano normalizzate, verificate e disponibili per chi le deve analizzare.

Stiamo esplorando il mondo dell’intelligenza artificiale e abbiamo scelto due tipi di approccio. Il primo, più strutturato, è stato inserendola nei pillar del nostro piano industriale, con l’obiettivo di definire come utilizzare l’AI in azienda. Ci stiamo pertanto confrontando con interlocutori esterni e società di consulenza per capire quale strategia adottare all’interno del nostro gruppo e abbiamo creato una divisione dedicata, composta da data scientist e figure specializzate. Dall’altro lato stiamo facendo piccole sperimentazioni “tattiche”, per esempio con l’utilizzo di Microsoft Copilot per la sintesi dei verbali delle nostre riunioni, e stiamo valutando altre iniziative.

Il tema delle competenze è fondamentale anche per reindirizzare le scelte tecnologiche future. Il passaggio al cloud, per esempio, pone la questione di come gestire e aggiornare il nostro importante patrimonio di competenze su tecnologie on premise, che richiedono un approccio completamente diverso.
Anche la cybersecurity pone una questione importante, sia dal punto di vista della necessità di figure specializzate che come competenza trasversale condivisa a tutti i livelli aziendali. Il dialogo tra IT e business rimane un aspetto fondamentale e negli ultimi anni è stato facilitato dal fatto che i nuovi ingressi, sia nell’IT che nel business, sono figure che hanno una preparazione di base su entrambi i mondi.

 
Diego Daniele, country leader di Confluent It

Il punto di vista di Confluent

Diego Daniele, country leader di Confluent Italia

Nell’integrazione dei dati i temi più critici sono il trasferimento, la governance e la qualità, la capacità di trarne valore, la sicurezza, nel rispetto di normative sempre più stringenti. Sono problematiche che vediamo giornalmente nelle aziende di tutti i settori con cui ci confrontiamo. La buona notizia è che questi problemi sono risolvibili, grazie alle tecnologie già presenti sul mercato. Spesso il problema dei clienti è il costo, e per questo noi diamo la possibilità di scegliere la stessa soluzione per l’adozione on premise, con implementazione su un data center proprio o in modalità IaaS, e con l’opzione fully managed in cloud, che risolve il problema delle competenze, almeno nella gestione della tecnologia.

Il tema principale è la sfida di processo: spesso l’IT deve rispondere a richieste urgenti da parte del business, che vede il dato come outcome, ma non conosce l’architettura interna. Quello che noi suggeriamo è evitare il big bang approach; per questo supportiamo i clienti a individuare gli scenari più urgenti o richiesti dal business e scegliere soluzioni che possono evolvere step by step, senza la necessità di fare un cambio completo dell’architettura. Per esempio, in collaborazione con SAP abbiamo sviluppato un connettore che permette l’integrazione dei dati da e verso SAP DataSphere e gestisce il flusso verso sistemi esterni ed applicazioni, anche in real time, semplificando l’uso e migliorando la governance dei dati aziendali.

Anche se può sembrare solo marketing, lo sviluppo dell’intelligenza artificiale è un processo inarrestabile e avrà impatti su molte aree di business aziendale a servizio degli utenti interni e dei clienti finali. Noi aiutiamo le aziende a dotarsi di tecnologie “autofinanziandole”, ovvero trovando quei quick win che permettono di portarsi in casa oggi delle soluzioni che permetteranno di aggiungere gradualmente altri casi d’uso, in maniera scalabile e sostenibile finanziariamente. E’ vero che ci sono molte problematiche relative all’AI, ma nel tempo la tecnologia diventerà ancora più complessa e pervasiva e aumenteranno le richieste di adozione da parte del business. Se l’architettura dati non sarà pronta, l’azienda farà fatica a mantenere la competitività sia con gli utenti interni che sullo stesso mercato di riferimento. Per questo suggeriamo di guardare oggi alle soluzioni, che sono già disponibili, che permettono ci “mettere in ordine” i dati.

Sul tema delle competenze, il nostro impegno è semplificare l’utilizzo della tecnologia offrendo
soluzioni a costi accessibili, con SLA elevati, facendo leva sulla collaborazione con partner di mercato come Microsoft, Google e AWS, mettendo a disposizione esperienze e best practice di aziende con cui abbiamo già affrontato percorsi di trasformazione. La situazione ideale, e l’obiettivo a cui tendere, è che il cliente diventi solo un fruitore delle nostre soluzioni, quindi che l’IT sia sempre più partner del business e non debba preoccuparsi di gestire la complessità tecnologica di un prodotto, ma lo utilizzi per iniziative di business. Dal nostro punto di vista è quindi fondamentale la comunicazione – e la contaminazione – tra IT e business per gestire progetti di innovazione, che comportano sempre delle complessità, e utilizzare nel migliore dei modi le tecnologie già disponibili in azienda.


Sara Brunelli

Giornalista professionista, dal 1997 si occupa dell’evoluzione delle tecnologie ICT destinate al mondo delle imprese e di quei trend e sviluppi infrastrutturali e applicativi che impattano sulla trasformazione di modelli e processi di business, e sull'esperienza di utenti e clien...

Office Automation è il periodico di comunicazione, edito da Soiel International in versione cartacea e on-line, dedicato ai temi dell’ICT e delle soluzioni per il digitale.


Soiel International, edita le riviste

Officelayout 197

Officelayout

Progettare arredare gestire lo spazio ufficio
Aprile-Giugno
N. 197

Abbonati
Innovazione.PA n. 55

innovazione.PA

La Pubblica Amministrazione digitale
Maggio-Giugno
N. 55

Abbonati
Executive.IT n.2 2024

Executive.IT

Da Gartner strategie per il management d'impresa
Marzo-Aprile
N. 2

Abbonati