Sicurezza: l’intelligenza artificiale sugli scudi nel 2025
Le predictions di Trend Micro al centro del #SecurityBarcamp svoltosi a Milano.

Anche quest’anno Trend Micro ha organizzato a Milano l’evento #SecurityBarcamp, un appuntamento di confronto sugli scenari della cybersecurity e del cybercrime nel corso del quale sono state presentate (e discusse con un panel di organizzazioni) le previsioni del vendor per il 2025. Prima però sono stati forniti alcuni dati tratti dal report “The easy way in/out: securing the artificial future .“
A livello globale il costo del cybercrime nel 2015 era circa di tre trilioni di dollari. Quest’anno le stime prevedono invece che supererà quota dieci trilioni, con un aumento anno dopo anno del 15%. Per essere più precisi, se ci concentriamo sul ‘cryptocrime’, cioè il crimine legato alle criptovalute, con tecniche come il money laundering, nel 2023 l’ammontare era di 46 miliardi di dollari passato a 51 miliardi nel 2024”, ha spiegato Marco Balduzzi, senior threat researcher di Trend Micro.
Fronte ransomware inoltre, solo lo scorso anno, in un semestre, i gruppi criminali hanno intascato circa 260 milioni di dollari. “È interessante notare che la cifra media richiesta come riscatto è passata da circa 200.000 a un milione e mezzo di dollari. Una cifra davvero elevata. I motivi risiedono nel fatto che se fino a qualche anno fa gli attacchi erano portati avanti in modo piuttosto indiscriminato, senza un vero obiettivo, oggi sono diventati molto più mirati. I criminali scelgono obiettivi specifici, come grosse organizzazioni, in particolare quelle che gestiscono dati sensibili che sono più propense a pagare per recuperare l’accesso a sistemi vitali.”
Tra modelli e deep fake
Passando alle predictions, Alessio Agnello, technical director di Trend Micro Italia, ha ad esempio spiegato che nel contesto della cybercriminalità, viene sempre più colpito l’utente, che è l’anello debole della catena. “L’AI aiuta i criminali a creare identità false, parallele, che sono gli strumenti principali utilizzati per portare avanti un attacco. Queste identità saranno la causa principale delle nuove truffe previste per il 2025, grazie alla capacità dell’AI di accelerare le azioni basate su LLM (Large Language Models) personalizzati per singoli utenti, in grado di simulare il loro stile e bypassare anche i sistemi di verifica delle identità ‘Know Your Customer’. In questo scenario, emergeranno anche kit di phishing creati su misura per eventi specifici, come accaduto durante le elezioni negli USA. Inoltre, i cybercriminali continueranno ad affidarsi al phishing per raccogliere dati da persone vulnerabili, con l’obiettivo di ottenere un profitto, che alla fine è il fine ultimo fronte consumer.”
Quindi Agnello ha spiegato che nel mondo enterprise, l’AI viene sfruttata per accelerare il business e ridurre i costi, ma spesso questo porta a mettere in secondo piano il tema della sicurezza. “Un esempio tipico sono i chatbot basati su modelli forniti da provider specifici. Se uno di questi agenti avesse una vulnerabilità interna, potrebbe essere sfruttata per accedere facilmente ai dati sensibili di un’azienda. Inoltre, accedono in modo ampio a tutti i dati aziendali. In tutto questo visto che l’intelligenza artificiale richiede una potenza di calcolo significativa, la progettazione accurata e minuziosa dei data center è fondamentale per garantire la sicurezza di questi ambienti”, ha proseguito Agnello.
Utile e da usare con criterio
Un primo commento rispetto a questi trend è stato fornito da Gianluca Galasso, direttore del servizio operazioni – Csirt Italia dell’Agenzia per la cybersicurezza nazionale. Per quanto riguarda l’intelligenza artificiale “abbiamo avviato programmi per integrarla nelle nostre operazioni. L’aspetto fondamentale è che noi non siamo il SOC (Security Operations Center) del Paese, e quindi l’AI per noi non è uno strumento per la rilevazione degli attacchi, ma piuttosto per organizzare e mettere a sistema grandi volumi di dati che arrivano dai rapporti di collaborazione in corso, dalle fonti aperte, e per correlare questi dati con aspetti giuridici e normativi, oltre a quelli tecnici.”
Ivan Monti, Ciso di Ansaldo ha invece sottolineato che “parlando di intelligenza artificiale, l’utente è spesso il target principale, poiché è tramite di esso che avvengono la maggior parte degli attacchi informatici. La maggior parte di questi attacchi deriva da azioni inconsapevoli. Per questo motivo, la formazione diventa una delle prime linee di difesa. Come industria manifatturiera, la nostra priorità è proteggere i nostri impianti produttivi. Ecco che l’AI può anche essere applicata in ambito Operational Technology (OT), per minimizzare i falsi positivi ed eventuali disservizi e prevenire il malfunzionamento o lo spegnimento di un sistema o di una sua parte. Tutto ciò avviene sotto attenta supervisione umana.”
Infine il commento di David Neumarker, Ciso di Aruba “Dobbiamo garantire che il digitale sia sicuro. In uno scenario in cui gli attacchi costano meno e l’AI facilita le operazioni dei cybercriminali, diventare un’avanguardia per difendersi è essenziale, agendo su persone, processi e tecnologie. Solo il 57% delle persone è in grado di distinguere un’immagine reale da una falsa, e la capacità di inganno dell’AI è decisamente più ampia. Per questo motivo, è fondamentale adeguare le attività di awareness. Esistono casi di attacchi riusciti nonostante gli utenti siano stati formati e e in grado di riconoscere le prime email di phishing. E noi abbiamo previsto un’academy interna che sviluppa programmi di formazione, offrendo strumenti aggiuntivi alla ‘cassetta degli attrezzi’ dei dipendenti, incentrati sull’utilizzo dell’AI e su come introdurre una sana diffidenza operativa. Parte di questo processo consiste nel porre domande mirate, scollegate dal contesto aziendale, per stimolare una riflessione più critica e consapevole.”