
Nonostante l’adozione dell’intelligenza artificiale stia accelerando in tutta la regione EMEA, le aziende ammettono di essere ancora poco preparate ad affrontare i rischi cyber collegati a queste tecnologie.
Una ricerca condotta da Aon su 75 organizzazioni rivela un divario preoccupante tra l’uso crescente di strumenti AI e la maturità dei framework di gestione del rischio. Solo il 18,5% delle aziende ha valutato i rischi legati all’AI, mentre il 51,8% si limita a misurare il rischio cyber generale senza considerare l’AI, e il 28,3% non ha effettuato alcuna quantificazione recente.
Brent Rieth, Global Cyber Leader di Aon, spiega: “Le organizzazioni in EMEA riconoscono l’importanza dell’AI e della cybersecurity, ma rimangono a uno stadio iniziale di preparazione. È necessario rafforzare la modellazione delle minacce specifiche, integrare i rischi emergenti nelle discussioni formali e potenziare le competenze dei team per migliorare rilevazione e risposta”.
L’urgenza è concreta: i dati CrowdStrike del 2025 indicano che oltre l’80% degli attacchi di social engineering sfrutta l’AI, con i casi di vishing cresciuti del 442% tra la prima e la seconda metà del 2024, e un tempo medio di compromissione sceso a 48 minuti. Il rapporto Global Cybersecurity Outlook 2026 del World Economic Forum segnala che le frodi abilitate dal cyber hanno superato il ransomware come principale preoccupazione per i Ceo, con il 73% degli intervistati direttamente colpito nel 2025. Preoccupano soprattutto le fughe di dati da sistemi generativi AI (34%), ora più rilevanti delle minacce di AI avversaria (29%).
Le linee guida industriali iniziano a definire i controlli necessari: il National Institute of Standards and Technology ha rilasciato una bozza del Cyber AI Profile, che integra priorità specifiche AI nel Cybersecurity Framework 2.0, con focus su sicurezza dei sistemi AI, difesa AI-enabled e contrasto agli attacchi AI-enabled. Il SANS Institute propone linee guida simili, suggerendo tra l’altro la creazione di un AI Bill of Materials per documentare le dipendenze della supply chain e l’applicazione di controlli di accesso rigorosi secondo il principio del minimo privilegio.
David Molony, Head of Cyber Solutions EMEA per Aon, sottolinea: “L’AI aumenta le capacità degli attori delle minacce. Le aziende devono agire rapidamente per integrare controlli e modellazioni specifiche per l’AI o rischiano di lasciare vulnerabili asset tecnologici critici”. Il messaggio di Aon è quello di accelerare l’adozione dell’AI senza adeguare la governance cyber espone le organizzazioni a rischi crescenti, con una finestra temporale sempre più stretta per colmare il gap.