PREVEDIBILITÀ DEI TERREMOTI

 
CONTINUA A LEGGERE
PREVEDIBILITÀ DEI TERREMOTI
PREVEDIBILITÀ DEI TERREMOTI
          Giuseppe Quartieri, Presidente del Comitato Scientifico dei Circoli dell'Ambiente
                                           «Un’ipotesi che, in linea di      principio, non può essere
                                           sottoposta a prova di dimostrazione di evidenza può essere
                                           interessante ma non è scientificamente utile»
                                           America Association for Advancement of Science [AAAS 1989].
PRINCIPI GENERALI
In Italia, lo studio e la gestione del rischio sismico è di responsabilità primaria dell’Istituto Nazionale
di Geofisica e Vulcanologia. La ricerca nel campo viene eseguita anche da tanti altri laboratori,
Università ed Istituti sismologici [ad esempio il Centro di Ricerche Sismologiche, Istituto di Ricerca
EUREKA, Istituto Nazionale di Oceanografia (OGS) di Trieste e di Ricerche Sismologiche,
Dipartimenti di Geoscienza in varie Università, Istituto di Ricerche sul Rischio Sismico, ISSO,
National Research Institute of Metrology (INRIM) ecc.]. Invece i compiti della gestione operativa
delle attività di prevenzione (ad es. la distribuzione geografica dei sismografi ante terremoto, lavori
relaitivi ecc.) e quelli della prevedibilità sembrano assegnati alla Commissione Nazionale per la
Prevenzione e Previsione dei Grandi Rischi (CGR) e alla Protezione Civile che ha, in modo
specifico, il compito di gestire operativamente i problemi dopo terremoto. A livello internazionale, il
problema della prevenzione e della prevedibilità dei terremoti è stato affrontato ed organizzato,
prima di tutto, con il progetto: “Collaboratory for the Study of Earthquake Predictability (CSEP)”,
creato e condotto dal Southern California Earthquake Center e con la successiva partecipazione
di un grande numero di Enti ed Organizzazioni internazionali quale ad esempio la Commissione
Internazionale di Previsione dei Terremoti per la Protezione Civile (ICEF).

                          Fig. N° 0 CSEP e centri di scienza delle prove sismiche
                       (fonte W. Marzocchi, Schorlemmer and Gerstenberger 2007)
I criteri impiegati da CSEP per il progetto globale antisismico sono basati sull'impiego di:
1.        Un’infrastruttura di collaborazione internazionale aperta.
2.        Un piano di prova di dimostrazione rigorosa e di prospettiva dei risultati dei modelli di
          previsioni (forecast e prediction) sviluppati e delle relative ipotesi di lavoro (Fig. N° 2).
3.        Un programma globale che sia in grado di coprire la più ampia varietà di ambienti tettonici.
Così, prevenzione e prevedibilità di un terremoto appartengono al capitolo dell’analisi del rischio.
Dato un sistema Σ naturale (ad es. terremoto con relativa mappa sismica ecc.) e/o artificiale (ad
es. missile, satellite, centrale nucleare, nave ecc.) il rischio è la probabilità che al sistema accada
un evento catastrofico. La sicurezza del sistema Σ è la probabilità che non si verifichi un evento
catastrofico con perdita del sistema e/o di proprietà. Quindi il rischio (e la relativa analisi) è parte
integrante della sicurezza del sistema (Fig. N° 1). La sicurezza del sistema include il rischio che
corre il sistema stesso. La garanzia della sicurezza del sistema si applica a tutto il ciclo di vita del
rischio corso dal sistema. A base dell’analisi di sicurezza e quindi dell’analisi del rischio c’è una
serie di principi filosofici e sociali generali che vanno rispettati e che includono i fondamenti, gli
obiettivi di sicurezza e i principi di protezione. Di conseguenza, dall’analisi si definiscono le basi
PREVEDIBILITÀ DEI TERREMOTI
per i requisiti di sicurezza e il relativo complesso di norme applicabili. Tra i principi fondamentali
vanno inclusi (Fig. N° 0, N° 1 e Tab. N° 1):
                                                                        1. Rispetto delle leggi.
                                                                        2. Principio di precauzione.
                                                                        3. Principio di protezione.
                                                                        4. Principio di sorveglianza.
                                                                        5. Preparazione emergenza.

                                                                              Così il rischio e la analisi del
                                                                              rischio     comportano        la
                                                                              gestione operativa in campo
                                                                              di strumenti e accessori di
                                                                              analisi e i principi etici
                                                                              fondamentali        quali      il
                                                                              principio di precauzione, la
                                                                              preparazione                alla
                                                                              emergenza ecc.

DISCUSSIONE PRELIMNARE SULLA PREVEDIBLITÁ
La richiesta dei vari Governi Italiani ai suddetti Enti ed Organizzazioni è stata e rimane la
valutazione della conoscenza scientifica della prevedibilità dei terremoti e la fornitura di
orientamenti per la attuazione della previsione operativa dei terremoti stessi. Inoltre si richiede
l'aggiornamento costante di informazioni affidabili sulla presenza di futuri terremoti potenzialmente
dannosi, oltre alla diffusione delle stesse informazioni ufficialmente sanzionate per migliorare la
preparazione al terremoto delle comunità minacciate. Nel campo della prevedibilità dei terremoti
(luogo, tempo e magnitudo) vengono applicati due metodi di calcolo e analisi dei rischi diversi e
complementari: il metodo deterministico o neodeterministico (NDSHA – Neo-Deterministic Seismic
Hazard Assessment) ed il metodo probabilistico (PSHA – Probabilistic Seismic Hazard
Assessment). Di questi due metodi, quello deterministico è il più antico e studiato. Uno degli
strumenti fondamentali del metodo Neo Deterministico (NDSHA) è fornito dalle mappe sismiche
dell’intero territorio italiano (Fig. N° 3 e in genere mondiale). In ambedue i tipi di analisi dei rischi si
impiegano alcuni indicatori basilari di potenzialità di eventi sismici e possibili precursori dei
terremoti al fine di tentare di elaborare una previsione dei terremoti.

                          Tab. N° 1 FONDAMENTI DI SICUREZZA
     REQUISITI                                    Sicurezza e protezione
     Parte 1. Principi fondamentali, etici e      1. Valutazione sismica del territorio e dei siti
     sociali.                                     più a rischio sismico.
     Parte 2. Regole, Norme giuridiche            2. Collezione dati operative sul territorio ed
     governative per la Sicurezza sismica.        relative analisi statistica
     Parte 3. Leadership e gestione               3. Predisposizione copertura e distribuzione
     manageriale per la sicurezza (gestione       dei sensori sul territorio e relative misurazioni,
     sensori, gestione salvataggi ecc.).          monitoraggi,
     Parte 4. Valutazione della sicurezza del     4. Preparazione alle emergenze e relative
     territorio in relazione al potenziale        responsabilità ecc.
     terremoto.                                   5. Progetto e Costruzione di case ed edifici
     Parte 5. Ricostruzione post terremoto.       antisismici.
PREVEDIBILITÀ DEI TERREMOTI
Metodologia di analisi dei rischi
La metodologia di analisi dei rischi si presenta quindi sotto forma deterministica e probabilistica. La
metodologia classica della teoria delle probabilità e della applicazione della statistica viene
normalmente applicata sfruttando un numero elevato di modelli matematici (circa 250 di cui
almeno 50 impiegati normalmente in Italia). La storia della scienza statistica insegna che la
proposta cosiddetta combinatoria dei fisici (per il passaggio dal mondo deterministico al mondo
quantistico) è solo uno dei momenti dell’evoluzione della statistica che si presenta (Rif. Brambilla
“Statistica”) come una nuova dimensione della conoscenza. L’argomento principale della statistica
è il cosiddetto “caos in azione” che, in alcuni momenti e in zone sismiche, genera terremoti di varie
magnitudo. Quindi la metodologia dei rischi appartiene ad una branca della scienza
completamente bene assestata e accettata dalla Comunità Scientifica degli specialisti in
sismologia e tettonica. Tuttavia, gli scienziati addetti riescono a elaborare solo previsioni di
terremoti solo con errori elevati e a basso livello di confidenza. Si osservi la Fig. N° 2 che riporta
l’andamento standard della accuratezza dei calcoli di rischio (probabilità di sicurezza) in funzione
dei vari momenti di un progetto o sistema (ad es. si può applicare questa curva standard al
Progetto CSET).

Si osservi l’andamento standard riportato in Fig. N° 2 esprime il risultato della esperienza [da me]
acquisita in campo della analisi e delle previsioni di eventi catastrofici in generale, e, nel caso di
specie, dell’andamento della accuratezza dei calcoli di rischio (probabilità di sicurezza) in funzione
dei vari momenti di un progetto o sistema (ad es. il su accennato Progetto CSET). In altre parole si
pensa che, anche nel caso del progetto CSET, si possa riuscire a verificare un andamento
standard delle accuratezze di previsione come quello riportato in Fig. N° 2. Questa verifica
richiede che si ripetano nel tempo le prove di calcolo di probabilità di terremoto con vari modelli
matematici dotati di sonori e robusti codici. Così, al passare del tempo, l’analista deve disporre di
maggiore quantità di dati (ad es. dati da sciami sismici prima di un colpo principale il cosiddetto
main-shock). Nell’esempio del progetto CSET, la probabilità di previsione di terremoto sia, ad
esempio, del 90% a fine progetto può essere ottenuta con livello di confidenza elevatissimo (oltre il
90%) e con un errore (o un’accuratezza) del 20%. Per rendere disponibili dati informativi essenziali
si impiegano strumenti ed accessori di misura che consentono di ricavare i cosiddetti indicatori e
precursori sismici. Di questi i più noti ed impiegati sono:

1.     Incremento dell'emissione di radon nelle immediate vicinanze..
2.     La velocità delle onde sismiche.
3.     La conduttività elettrica.
PREVEDIBILITÀ DEI TERREMOTI
4.     Le variazioni delle concentrazioni di radon nelle fluttuazioni nelle acque sotterranee, le
       acque sotterranee, del suolo e dell'aria livelli.
5.     Le variazioni elettromagnetiche vicino e sopra alla superficie terreste.
6.     Anomalie termiche (variazioni di temperatura dell'acqua dei pozzi).
7.     Comportamento animale anomalo (segni di nervosismo degli animali).
8.     Modelli di sismicità e micro sensori sismici distribuiti in tutto il territorio.
9.     Cambiamento di velocità di deformazione.
10.    Precursori di nucleazione (nuovi sensori piezoelettrici di rilevazione di neutroni prodotti da
       rocce fratturate per la previsione di terremoti nel lungo termine).

Sino ad oggi la scienza non ha ritenuto che l’impiego di questi indicatori possa permettere di
                                              predire un terremoto con un margine accettabile di
                                              errore.
                                              La Commissione di esperti internazionali ha concluso
                                              che le attuali “previsioni” di terremoti a breve termine
                                              (short-term eartquake) mancano di credibilità scientifica
                                              poiché sono state basate sull’applicazione di risultati
                                              ottenuti con sensori del tipo radon o con altri precursori
                                              diagnostici [Jordan et al. 2009]. Parimenti, uno studio
                                              sugli sciami sismici che precedono il colpo principale
                                              (mainshock) ha permesso di concludere che non
                                              sempre la decisione di procedere alla evacuazione
                                              intesa come una azione di mitigazione (presa dai
                                              politici o decision makers) implica la necessità di
                                              evacuare la popolazione [van Stiphout et al. 2010]. Le
                                              intense controversie avvenute a seguito del terremoto
                                              di L’Aquila hanno di nuovo messo in evidenza la
                                              mancanza di consenso generale sulla predicibilità dei
                                              terremoti e non solo, ma hanno anche messo in dubbio
tutti gli enormi progressi raggiunti nel campo del “forecasting” (previsione) e sulle sue applicazioni.
Nei 2006, la Commissione Europea ha finanziato il progetto “Integrated Infrastructure Initiative
project” allo scopo di migliorare la situazione globale.

LA PREVEDIBILITÁ
Dall’analisi della letteratura aperta in materia, sembra che non ci siano prove che questi indicatori
funzionino veramente. Qualcuno rincarando la dose, ha sostenuto che le rare volte che si sono
usati questi precursori (e si allude al Terremoto di L’Aquila) hanno creato solo del panico.
Generalmente si scopre che questi fenomeni di non funzionamento dei precursori si verificano
dopo che il terremoto sia avvenuto e non prima. Secondo alcuni fisici, nel caso del terremoto di
L’Aquila il radon avrebbe indicato solo che si era in presenza di uno sciame. Non tutti i ricercatori,
gli scienziati-sismologi e i tecnici credono che gli sciami sismici finiscano normalmente diventando
dei terremoti veri e propri. Invece, gli studi e le analisi basate su dati e sequenze storiche di eventi
sismici (in altre parole in base ad analisi statistiche di cui si parlerà successivamente) si sono
rivelati migliori per le induzioni di prevedibilità di eventi catastrofici come il terremoto. Tuttavia,
appare opinione – non del tutto condivisibile - di diversi fisici ed ingegneri che tali analisi statistiche
non sempre consentono di predire quando ci sarà il terremoto ma si limitano a prevederlo solo in
maniera grossolano. L’argomento, illustrato in questa maniera qualitativa, verrà trattato in modo
più approfondito ma solo in parte nel seguito, e con altri articoli che seguiranno dopo di questo.
Di primo acchito ed intuitivamente le previsioni dovrebbero essere migliori o almeno più vicine alla
certezza solo nei tempi lunghi anche se normalmente si riesce a misurare l’entità o ampiezza
(magnitudo) massima aspettata. Secondo la tradizione, si riesce ad ottenere la riduzione del
rischio sismico solo sfruttando le conoscenze che si ottengono a seguito di analisi e di codici
costruiti in occasione di sonori terremoti di alta intensità. Ne deriva la necessità di allargare il
PREVEDIBILITÀ DEI TERREMOTI
campo di azione della mitigazione del rischio al di là delle stesse conoscenze acquisite anche in
base ai recenti casi di terremoti osservati. Di fatto, le ultime analisi delle sequenze sismiche hanno
dimostrato che le probabilità di vero terremoto aumentavano di settimana in settimana di diversi
ordini di grandezza rimanendo però sempre basse a livello assoluto.

Di fatto, la probabilità assoluta rimaneva sempre al di sotto di 1/100 (W. Marzocchi, G. Woo). Ne è
scaturita una sorta di teoria delle previsioni dei terremoti a breve termine che ha permesso di
mitigare il rischio corso dalle popolazioni implicate. Falsi allarmi, possibili revisioni, decisioni
rapide, azioni veloci di mitigazioni ed altre strategie potrebbero essere o avrebbero potuto essere
più efficaci se surrogate o supportate anche da aumento di vigilanza, preparazione, professionalità
e da decisioni politiche e amministrative rapide ed attente alle istanze e perorazioni scientifiche. In
una qualche maniera, in presenza di sciami sismici dovrebbero aumentare alcune forme di libertà
decisionali locali non necessariamente sottoposte alle decisioni finali delle autorità civili ma
sottoposte piuttosto, in modo prioritario, ad una sorta di principio di precauzione dettato dal buon
senso del popolo.

D’altro canto, esiste una netta distinzione fra l’analisi del rischio economico che viene elaborata
normalmente da economisti, ragionieri e finanzieri e l'analisi del rischio di evento catastrofico
eseguito da scienziati, siano essi fisici, chimici, geologi, ingegneri ecc. Va da sé che gli economisti,
professionisti del rischio economico, ricercano altri elementi e non certamente l'accadimento di un
evento catastrofico con implicazione di perdita di vite umane ma piuttosto ricercano (post
terremoto) solo le implicazioni di perdita di proprietà e/o denaro. Inoltre, questi analisti si
interessano dei danni procurati e delle agevolazioni alle popolazioni toccate dai terremoti: aspetti
normalmente puramente politici.
Quindi si assume che sia accettata e chiarita questa netta distinzione fra le due branche della
analisi del rischio che evidentemente propongono problemi e posizioni etiche molto diverse e
distinte fra di loro. Recentemente si sono tenuti diversi convegni, seminari e manifestazioni varie
sull’argomento dei terremoti. Ad esempio il 15 novembre 2012, dalle ore 14, 30 alle ore 17,30 al
teatro Brancaccino, Roma si è tennuto il Convegno interessante è stato quello su “La Prevenzione
come strategia contro il terremoto” organizzato dalla Dott.sa Angela Rosati e voluto dagli Onorevoli
Gianluca Benamati e Giovanni Lolli che hanno presentato la loro proposta di Legge “Piano
antisismico nazionale”. Il nuovo Presidente della Commissione Grandi Rischi, Luciano Maiani, ha
PREVEDIBILITÀ DEI TERREMOTI
presentato un’ottima relazione generale sull’ analisi del rischio sismico ed ha strabiliato i fisici, i
chimici e i matematici presenti quando ha affermato che egli crede nella validità della
«imprevedibilità dei terremoti». Frase sibillina, che tratta di un vecchissimo argomento di
discussione che continua a strabiliare la gente. Pur dibattuto nei Circoli Scientifici, nelle Università
e nelle relative Accademie, la imprevedibilità non è ancora stata risolta e non ancora ha trovato
apparentemente una sistemazione scientifica universalmente accettata.
Ogni contadino, ogni artigiano, ogni uomo con un minimo di razionalità asserisce che i terremoti
sono imprevedibili. Buon senso di popolo!!! Eppure la frase «imprevedibilità dei terremoti»
purtroppo lascia perplessi! Dalla scienza i popoli, credenti oppure no, si aspettano molto di più o
almeno frasi scientificamente esatte di senso compiuto ed accettato e non approssimate. I
terremoti, come molti sanno, non si possono prevedere in modo deterministico mentre, in modo
probabilistico, possono essere previsti solo in maniera approssimativa. Alcuni decenni fa,
l’approccio deterministico è stato abbandonato quasi del tutto per essere, da poco tempo, ripreso
con nuove matematiche, nuove metodiche e nuove tecnologie di supporto (micro-sensori sismici,
micro sensori termici ecc.). In altre parole la possibilità che si verifichi un terremoto catastrofico
(luogo, tempo e magnitudo) deve essere enunciata in termini di probabilità di accadimento
dell’evento (ad esempio 1 su 100000 eventi) con un ben definito livello di confidenza (o intervallo di
confidenza) ad esempio del 99%. In scienza bisogna adoperare questo tipo di espressione
matematica altrimenti si rimane troppo nel vago e l’analisi perde senso scientifico. Poiché la cultura
e la conoscenza del calcolo delle probabilità e della teoria del rischio purtroppo appaiono molto
basse in Italia e nel mondo, allora gli scienziati sono costretti a esporre questa materia in modo
approssimativo. In altre parole gli esperti parlano di probabilità estremamente bassa degli eventi
terremoti. In ogni caso si tratta di un ripiego nella comunicazione di un evento catastrofico.
In parentesi, appare qui il caso di ricordare che Enzo Boschi, il Presidente di INGV, aveva scritto
un articolo che la probabilità di un terremoto come quello che c’è stato nell’area di L’Aquila nel
corso dei prossimi 20 anni era altissima (aggettivo in ogni caso vago e poco rigoroso). A questo
riguardo, Paolo Saraceno fa alcune osservazioni lapalissiane con linguaggio semi-divulgativo:
«Andrebbe tenuto presente che la stessa previsione è stata fatta 40 anni fa per il cosiddetto ”big
one” in California e a tutt’oggi non si è ancora verificato. Molti ricercatori e scienziati del campo
ritengono che queste previsioni hanno errori dell’ordine di “un secolo”… ma predicono con
certezza che il terremoto ci sarà e grosso modo riescono anche a determinare la magnitudo». Per
inciso, la conoscenza della “magnitudo” avrebbe dovuto essere la base per la progettazione
preventiva e costruzione di case antisismiche. Purtroppo, questa opportunità è stata disattesa, per
decenni, non solo a L’Aquila ma in quasi tutta l’Italia. Inoltre, sembra che questo stato di difetto si
stato rilevato in moltissimi casi sia in Molise a San Giuliano di Puglia sia a l’Aquila. Solo da poco
più di due decenni i criteri e i livelli progettuali antisismici sono stati imposti in tutta l’Italia.
Nonostante ciò, alcuni insistono che qualche pecca rimane sulla testa e nella coscienza della
classe degli ingegneri edili progettisti e dei costruttori edili. Forse, però, anche le Autorità pubbliche
non hanno saputo imporre, prontamente, il rispetto di alcune regole sismiche in materia.
La teoria del rischio propone, per certi versi, una soluzione onorevole a certi stati e situazioni
incresciose con la richiesta di definizione del rischio accettabile da parte del popolo. Al tal fine,
però, bisogna dare al popolo le giuste informazioni per convincerlo che esiste un’accettabilità del
rischio che si può correre. Purtroppo questo campo di applicazione è pieno di disinformazioni e di
informazioni manipolate ad arte dai vari operatori dei mezzi di comunicazione di massa
(Presentatori TV ecc.).
La metodologia di approccio alla sicurezza si propone, si elabora e si adotta quando si affronta la
maggioranza delle situazioni pericolose e relativi eventi catastrofici. Si possono citare ad esempio
situazioni quali la accettabilità di volare in un aeroplano di linea, o la accettabilità di viaggiare sul
treno veloce e/o in qualsiasi altra forma di applicazione di alta tecnologia (vivere in un luogo
relativamente vicino ad una centrale nucleare ecc.).
In altre parole, l’analisi del rischio è metodologia scientifica ed ingegneristica ben nota,
standardizzata e acclarata che si impiega in tutti i campi (dal sottosistema dei trasporti, al
sottosistema energetico e nucleare, dal sottosistema ambientale e metereologico al sottosistema
militare ecc.).
Nella prassi e nelle procedure standard di analisi dei rischi, il concetto di rischio è direttamente
basato e connesso al concetto di probabilità dell'evento in esame, in questo caso, dell'evento
terremoto.

Così il popolo può accettare il rischio α di sopravvivenza in un luogo definito a rischio sismico di
primo livello solo se conosce la probabilità di accadimento β del terremoto stesso. Allora come si
fa ad accettare il rischio α, senza avere la minima conoscenza della probabilità di accadimento
dell’evento sismico Po (rischio di terremoto β) con un ben definito livello di confidenza Φ (oppure
intervallo di confidenza ΔΦ). La Fig. N° 5 mostra l’andamento standard della accuratezza di
calcolo della probabilità di terremoto (in un dato luogo, ma con magnitudo da definire) in funzione
del tempo (lungo, medio e breve termine). Si nota che i calcoli di breve termine hanno
accuratezza superiore ossia più basso errore.

Alcuni fisici (ad es Paolo Saraceno) sostengono che in alcuni casi si conoscono - in linea di
massima – le probabilità di accadimento del terremoto e portano come esempio il terremoto
dell’Emilia, come quello di L’Aquila che avevano probabilità altissime di verificarsi nel giro di una
trentina d’anni. Alla stessa stregua, indicano ad esempio il terremoto che ancora non c’è stato
ossia quello del Pollino che avrebbe dovuto avere probabilità molto bassa di verificarsi nei giorni
successivi alla riunione della Commissione Grandi Rischi. Concetti analoghi sono applicabili
all’analisi del rischio di terremoto eseguita con il metodo deterministico che viene normalmente
elaborato dai geologi, geofisici ecc. In letteratura aperta, i geofisici e geologi continuano a
polarizzare la probabilità sulla scala temporale e basta. In altre parole, i calcoli riportano che non
si riesce a prevedere il terremoto con scala temporale di un mese. La probabilità di terremoto
aumenta se si allunga il tempo, basta osservare le serie storiche. Per eseguire detti calcoli di
probabilità bisogna costruire dei modelli matematici sviluppati “ad hoc”. Moltissimi sforzi sono stati
eseguiti in questa direzione.
La chiave di volta rimane la conoscenza delle serie storiche, ossia dei dati del passato per potere
estrapolare le previsioni nel futuro. Ad es in letteratura, si afferma, con quasi totale certezza che,
basandosi sulle serie storiche nel corso dei prossimi 500-1000 anni il super-vulcano napoletano si
risveglierà causando un’eruzione catastrofica che provocherà un’estinzione di massa su scala
planetaria.
Succede ogni 15.000 anni circa… e l’ultima è stata appunto 15.000 anni fa. Lo stesso per il Toba
ecc. e per tutti i terremoti. Il maremoto che ha distrutto Fukushima c’era già stato in maniera del
tutto simile alla fine del 1800. A tal riguardo, l’agenzia atomica di Vienna (IAEA) aveva rilevato
l’inadeguatezza delle strutture della centrale davanti ad un onda simile a quella che si verificata a
Fukushima. Qualcuno sostiene di essere pronto a scommettere che tra 100 anni circa si
ripresenterà. Comunque la questione di Fukushima merita un approfondimento ulteriore.
Queste proposizioni esprimono le probabilità di accadimento di un terremoto in modo
comprensibile ma purtroppo non vengono precisate in maniera matematicamente rigorosa e
soprattutto non definiscono gli errori né il livello (o intervallo di) confidenza. Si presume in questa
sede che queste affermazioni possono essere considerate comprensibili per tutti e quindi possono
servire a definire l’accettabilità del rischio da parte del popolo.
In questa maniera, la metodologia di analisi dei rischi riesce a convincere il popolo ad accettare il
rischio di vivere in una zona sismica ma non garantisce assolutamente il rigore scientifico e
probabilistico.
In particolare va ripetuto e sottolineato che, al momento, esistono almeno 250 modelli matematici
che vengono impiegati nel mondo intero. In Italia se ne impiegano normalmente almeno 50 di
essi. Ogni modello include vari termini matematici ognuno dei quali rappresenta cause di innesco,
modi di propagazione, effetti degli sciami ecc. Applicando il modello ETAS, sono state sviluppate le
mappe sismiche italiane riportate in Fig. N°6.
Ogni modello comporta i suoi limiti e i suoi vantaggi. In ogni caso, i calcoli di previsione (e/o
forecast) possono essere elaborati solo con un certo livello di confidenza (che alcuni definiscono
impropriamente “affidabilità”). Questo è il compito dei fisici e dei geofisici assieme a matematici ed
ingegneri specializzati in materia. Purtroppo, gli aspetti conseguenti di tipo giuridici, legali,
psicologici e sociologi devono essere presi in giusta considerazione poiché condizionano
fortemente il lavoro di previsione dei suddetti professionisti.
I falsi allarmi, i procurati allarmi e le motivazioni contrarie, le implicazioni relative sono all’ordine del
giorno ma, soprattutto, complicano la vita degli addetti ai compiti di previsione ma anche di
gestione in generale dei fenomeni di terremoti, la loro prevenzione, le loro analisi dei rischi, le loro
implicazioni socio-economiche e giuridiche.

CONCLUSIONI
In base a questa prima revisione globale ed iniziale, si possono abbozzare alcune conclusioni e
conseguenze:

1.     Si spera di essere riuscito almeno a chiarire e, eventualmente, ad inculcare il concetto della
       necessità di proporre delle definizioni di probabilità di terremoto con la specificazione della
       accuratezza nelle previsioni stesse.
2.     Continua a sussistere ancora cattiva comunicazione fra mondo scientifico, mondo
       decisionale e popolo in merito ai terremoti. Nel caso di specie del terremoto di L’Aquila,
       nessuno scienziato – nonostante gli avvisi del tecnico Giuliani basati sulle analisi e misure
       di radon -- avrebbe mai potuto dire seriamente che il terremoto si sarebbe potuto verificare
       il giorno dopo, un mese dopo, un anno dopo, dieci anni dopo o cinquant’anni dopo. In
       parentesi, il tanto previsto terremoto di S. Francisco lo si aspetta da 50 anni!
3.     Ad oggi la scienza non ritiene di potere permettersi di predire con un margine accettabile di
       errore, ossia con alta accuratezza - come è mostrato nelle Fig. N° 2 e N° 5 - un terremoto
       o almeno si asserisce che la scienza non ritiene di potere fare previsioni di probabilità di
       terremoto con alto livello di confidenza (o intervallo di confidenza stretto).
Fig. N° 6. In questi diagrammi-foto sono riportati 16 di 18 modelli di previsione di terremoti (forecast models) fornite alle
Regioni d'Italia per eseguire prove di convalida dei modelli stessi. I colori codificati rappresentano i tassi di previsione di
eventi per i prossimi 5 anni (si note che le scale delle varie figure non sono uguali fra di loro). Le prove sono state iniziate
al primo agosto del 2009, e dureranno 6 anni. A cominciare dalla figura sinistra superiore, andando prima a destra e
quindi verso il basso, si hanno: HAZGRIDX, HZA_TD, HZA_TI, LTST, PHM_Grid, PHM_Zone, ALM, HALM, DBM,
MPS04, RI, ALM.IT, HiResSmoSeis-m1, HiResSmoSeis-m2, TripleS-CPTI, TripleS-Hybrid.
(Fonte Warner Marzocchi et alter).
4. A partire dagli eventi politici-giuridici dell’ultimo sconcertante periodo storico italiano, alle
       soglie dell’abisso economico, nessuno scienziato (fisico, matematico, geologo ecc.) o
       ingegnere si azzarderà più a fare previsioni di rischio in un Paese dove il concetto di
       probabilità non è capito e quindi conosciuto, né si comprende il valore innovativo della
       statistica e della sua nuova dimensione di conoscenza.

    5. Ogni ben pensante deve cercare di trovare un’azione correttiva a ogni forma di potenziale
       errore interpretativo e/o di malcostume.

    6 . Bisognerebbe imporre di frequentare un corso di lezioni di base (o un master in) di scienza
        e relativa epistemologia a tutti coloro che si interessano di questione tecniche e scientifiche,
        non ultimo e forse prima di tutti, ai giudici italiani specificamente addetti a tali compiti. Forse
        alcuni di loro già lo fanno. Gli argomenti del corso dovrebbero includere la Teoria delle
        Probabilità e Fondamenti di Statistica, oltre a lezioni di “Affidabilità e quindi Sicurezza dei
        Grandi Sistemi Complessi”, l'Analisi dei Rischi e quant'altro necessario al completamento
        del corso Master sui Fondamenti della Scienza.

RIFERIMENTI
I riferimenti bibliografici e scientifici verranno elencati nell’ultima parte di questa serie di articoli sui
terremoti.
Puoi anche leggere