
La corsa all’intelligenza artificiale sta ridefinendo non solo gli equilibri tecnologici ed economici, ma anche quelli assicurativi. I data center, infrastrutture fisiche su cui poggia l’intero ecosistema AI, stanno crescendo in dimensioni, complessità e valore, ponendo interrogativi inediti per il settore delle coperture.
Il quadro che emerge dall’ultimo studio sigma di Swiss Re è netto: siamo di fronte a una trasformazione strutturale del rischio.
Oggi costruire un singolo data center può richiedere investimenti che raggiungono i 20 miliardi di dollari, cifra destinata a raddoppiare con l’installazione delle tecnologie. Un salto dimensionale che si riflette direttamente sulla domanda assicurativa, destinata a crescere fino a 24,2 miliardi di dollari di premi globali entro il 2030, più del doppio rispetto ai livelli attuali. Dietro questa espansione si muovono i cosiddetti hyperscaler, i grandi operatori cloud, che nel 2026 potrebbero superare i 600 miliardi di dollari di investimenti, con circa il 75% destinato proprio alle infrastrutture fisiche dell’AI.
Ma è nella natura dei rischi che si gioca la partita più delicata. I data center di nuova generazione non sono più semplici edifici tecnologici: si configurano come campus altamente integrati, dove sistemi elettrici, di raffreddamento e di sicurezza operano in stretta interdipendenza. Questo significa che un singolo evento può avere effetti amplificati, con impatti simultanei su più componenti e, di conseguenza, su più linee assicurative.
La crescente concentrazione di valore espone queste strutture a rischi fisici sempre più rilevanti. Secondo le analisi, oltre un quarto della capacità dei data center statunitensi potrebbe trovarsi in aree soggette a frequenti grandinate, mentre più del 40% insiste in zone ad alto rischio tornado. Eventi che, per loro natura, non colpiscono un singolo edificio ma interi cluster, generando accumuli di perdita difficili da modellare con gli strumenti tradizionali.
A questi si aggiungono vulnerabilità più sottili ma altrettanto critiche. L’acqua, ad esempio, rappresenta una minaccia crescente: i moderni sistemi di raffreddamento a liquido, indispensabili per gestire il calore generato dai GPU, introducono nuove possibilità di danni da fuoriuscite. Non a caso, quasi un quarto dei costi totali di perdita nei data center è già legato a eventi di tipo liquido. E non si tratta solo di guasti tecnici: la disponibilità stessa di acqua, in contesti segnati da stress idrico, può mettere a rischio la continuità operativa.
Sul fronte energetico, la situazione è altrettanto complessa. L’alimentazione elettrica rappresenta la principale causa di interruzione del servizio, incidendo per il 45% degli outage . I nuovi server AI, con consumi che possono superare i 100 kilowatt per rack, stanno spingendo gli operatori verso soluzioni estreme, inclusa la costruzione di impianti di generazione on-site o l’integrazione di sistemi di accumulo a batteria. Scelte che, se da un lato garantiscono autonomia, dall’altro introducono rischi significativi, tra cui incendi, esplosioni e rilascio di gas tossici.
Proprio il tema del fuoco merita attenzione. Storicamente responsabile della quota maggiore dei costi di perdita, oggi si arricchisce di una nuova variabile: le batterie agli ioni di litio integrate nei server. Una fonte di innesco che, come evidenziato nello studio, “non esisteva in precedenza” nei data center e che potrebbe aumentare frequenza e severità degli incendi . Le linee guida di prevenzione stanno già evolvendo, con requisiti più stringenti su compartimentazione e sistemi sprinkler.
Non meno rilevante è il rischio cyber, destinato a crescere con l’aumento della connettività dei sistemi operativi. Anche infrastrutture considerate più sicure, come quelle degli hyperscaler, non sono immuni: l’integrazione di sistemi di controllo per energia, raffreddamento e sicurezza apre nuove superfici di attacco, con potenziali impatti sulla continuità dei servizi.
In questo contesto, emerge un’altra criticità per il settore assicurativo: la trasparenza sull’accumulo dei rischi. I grandi data center sono spesso assicurati attraverso programmi distinti – edificio, apparecchiature, energia – rendendo complessa una visione aggregata dell’esposizione. Il risultato è che un singolo evento può generare sinistri multipli su più polizze, amplificando l’impatto complessivo.
Jonathan Anchen, Head Market Intelligence dello Swiss Re Institute, e James Finucane, P&C Research Lead dello stesso istituto, sottolineano come il settore stia passando “da una tipologia di rischio relativamente semplice a infrastrutture ad alta densità energetica che richiedono strategie di protezione multilivello”. Una trasformazione che, nei fatti, precede spesso la capacità di regolamentazione e di analisi del rischio.
Il punto è proprio questo: la velocità dell’innovazione supera quella della conoscenza. Pochi data center di nuova generazione sono pienamente operativi, e l’esperienza sinistri è ancora limitata. Per gli assicuratori, ciò significa operare in un territorio dove capacità tecnica, modellazione avanzata e disciplina nella gestione degli accumuli diventano elementi decisivi.
Nel frattempo, la crescita non si arresta. L’intelligenza artificiale continua a espandersi e con essa le infrastrutture che la sostengono. Il settore assicurativo si trova così davanti a una sfida che non è solo quantitativa, ma qualitativa: comprendere, valutare e coprire rischi che evolvono alla stessa velocità della tecnologia che li genera. Una dinamica che, inevitabilmente, ridisegnerà le regole del mercato nei prossimi anni.