Intelligenze artificialiRicerca e Scienza

Sismologia: l'innovazione passa anche dall'intelligenza artificiale

Daniele Trappolini (PhD in Data Science) e Laura Laurenti (PhD in Data Science e ricercatrice postdoc allo Swiss Seismological Service dell’ETH di Zurigo) hanno spiegato come l’AI supporta i team di ricerca nello studio dei terremoti
A cura di Valeria Pantani
01 Apr 2026

In che modo si utilizza l’intelligenza artificiale nell’analisi dei terremoti?
DT: Ci sono diversi utilizzi. Nello specifico, durante il mio percorso accademico mi sono occupato del miglioramento delle performance di modelli (fisici, statistici, matematici, AI based) già a disposizione, come nel progetto dedicato al seismic denoising. Per capire di cosa parliamo è importante sapere che nelle tracce sismiche possono essere presenti anche segnali prodotti da eruzioni vulcaniche, onde del mare, traffico stradale e altre tipologie di rumori: tutti elementi che contribuiscono a produrre movimenti del suolo registrati dalle stazioni sismiche. Per analizzare meglio i terremoti dobbiamo estrarre questi rumori con l’AI. Il nostro team si è ispirato a un paper pubblicato da Mitsubishi Electric Research Laboratories sul denoising audio. Pensiamo al paradosso del cocktail party: sei in una stanza con più persone che parlano contemporaneamente e il tuo obiettivo è ascoltare una sola conversazione. Quindi, devi separare le diverse tracce, ovvero i rumori di cui parlavamo prima (le eruzioni, le onde, le esplosioni, ecc.), e per farlo hai bisogno di un dataset con tutte queste tracce da fornire all’AI affinché ricostruisca la singola conversazione che vorresti ascoltare, l’unica traccia che ti interessa. Il compito che il nostro team di ricerca ha affidato all’intelligenza artificiale è stato capire cos’era un terremoto e cosa no, eliminando gli altri rumori. Noi nel nostro specifico progetto abbiamo utilizzato lo Stanford Earthquake Dataset con 1,2 milioni di tracce sismiche registrate tra il 1984 e il 2018, insieme a un catalogo di rumori identificati da figure esperte.

LL: Un primo progetto di cui mi sono occupata è stato per la mia tesi magistrale in Data Science, dove ho combinato l’utilizzo dell’intelligenza artificiale con alcuni dati di laboratorio per prevedere un elemento specifico chiamato “stress”, ovvero la forza che agisce sulle rocce della crosta terrestre e che, quando è molto elevata e supera la resistenza delle rocce stesse, si accumula nella faglia causando un terremoto. Questo valore non è misurabile nella realtà perché le faglie si trovano eccessivamente in profondità; tuttavia, possiamo farlo in laboratorio. Attualmente, colleghi e colleghe dell’Università La Sapienza stanno sviluppando alcuni macchinari (BRAVA2 e BIGBIAX) utilizzabili nello studio dello scorrimento delle faglie con l’obiettivo di ricavare informazioni utili per analizzare il processo sismico in base a specifici parametri scelti. Un altro progetto che ho seguito durante il PhD ha riguardato la sequenza sismica Amatrice-Norcia-Visso del 2016. Solitamente dopo un forte terremoto si registrano altre piccole scosse ma capita raramente che queste si verifichino anche prima dell’evento. Il terremoto di Norcia ha rappresentato un caso raro, perché la scossa principale e più intensa è stata preceduta da molte altre scosse più piccole. Quello che abbiamo cercato di fare con questo progetto è stato distinguere i dati sulle onde sismiche (i sismogrammi) registrati prima e dopo la scossa principale, informazioni che l’occhio umano non riesce facilmente a cogliere: per farlo abbiamo utilizzato l’AI. Questo progetto è stato interessante perché ha analizzato come l’intelligenza artificiale può supportare l’essere umano nell’analisi dell’evoluzione di più scosse che, attraverso gli studi sismologici tradizionali, non è possibile cogliere.

Laura, durante il dottorato sei stata a Los Alamos, nel New Mexico (USA): di cosa ti sei occupata?
Ho lavorato allo studio di un ipotetico modello di AI capace di portare a termine diverse task. Per capire meglio, pensiamo a ChatGPT, ovvero un modello singolo capace di portare a termine più task: rispondere alle domande, riassumere testi, completare delle frasi e così via. Sono diversi compiti ma gestibili da una sola struttura. Nel campo dei terremoti, invece, lavoriamo ancora con modelli a sé stanti (uno si focalizza sulla previsione di un valore, uno su un altro e così via): quello che vorremmo realizzare è un modello capace di fare un po’ tutto o, almeno, risolvere più task proprio come fa ChatGPT. A Los Alamos siamo partiti da uno specifico modello audio realizzato da Facebook (se ci pensi, sismogrammi e audio sono simili perché sono entrambi segnali con più oscillazioni), abbiamo realizzato un prototipo e lo abbiamo istruito con le informazioni sismologiche con l’obiettivo di utilizzarlo per completare altre task. Ed effettivamente il risultato è stato migliore di quanto ci aspettassimo: abbiamo notato che un modello audio a cui viene insegnata la sismologia funziona meglio rispetto a uno che si occupa solo di sismologia. Terminato questo lavoro abbiamo pensato: «Bene, questo è il nostro punto di partenza»: un inizio positivo e ottimistico ma che, a volte, ancora non funziona bene. Ciò a cui attualmente sto lavorando all’ETH di Zurigo è lo sviluppo del progetto avviato a Los Alamos per rendere il prototipo migliore e configurarlo in modo tale che possa essere utilizzato per specifiche task di interesse.

Daniele, le informazioni che avete ricavato attraverso l’AI possono essere utili nei soccorsi post evento sismico o nella loro previsione?
In futuro, se la ricerca procederà bene, sì. Al momento, l’utilizzo delle informazioni che abbiamo ottenuto dall’AI per aiutare le unità di soccorso subito dopo un terremoto è ancora in fase progettuale. Esistono, però, alcuni prototipi in fase di test ma sono moltissimi gli step e le verifiche da attuare prima che un modello simile possa essere utilizzato. Comunque, la ricerca è attiva su questo fronte: c’è un progetto che ho seguito, collaborando con l’Istituto Nazionale di Geofisica e Vulcanologia (INGV), proprio su questo tema. In Italia esistono circa 600 stazioni sismiche e, quando si verifica un terremoto, queste stazioni ricevono due tipologie di onde: l’onda P, ovvero la prima onda che arriva alla stazione e ci fornisce le informazioni sull’inizio del terremoto, e l’onda S che è l’onda secondaria ed è importante per valutare la magnitudo di un terremoto. Il segnale, però, non arriva a tutte le stazioni italiane nello stesso momento: quelle più vicine alla zona del sisma lo ricevono prima e poi si diffonde in quelle più lontane che, però, lo recepiscono in ritardo e, soprattutto, in maniera attenuata. Una volta che la traccia arriva nella stazione più vicina all’area colpita, noi ricercatori e ricercatrici lavoriamo per prevedere attraverso l’impiego dell’AI alcuni valori importanti da fornire a tutte le altre stazioni che, invece, li riceverebbero in ritardo. Tra questi valori, per esempio, c’è il grado di scuotimento del terreno, informazione che servirà per valutare il grado di scuotimento degli edifici, grazie al quale sarà possibile individuare le aree più colpite, stimare i danni e scegliere dove intervenire con urgenza.

Registrazione Tribunale di Bergamo n° 04 del 09 Aprile 2018, sede legale via XXIV maggio 8, 24128 BG, P.IVA 03930140169. Impaginazione e stampa a cura di Sestante Editore Srl. Copyright: tutto il materiale sottoscritto dalla redazione e dai nostri collaboratori è disponibile sotto la licenza Creative Commons Attribuzione/Non commerciale/Condividi allo stesso modo 3.0/. Può essere riprodotto a patto di citare DIVERCITY magazine, di condividerlo con la stessa licenza e di non usarlo per fini commerciali.
magnifiercrosschevron-down