PREVEDIBILITÀ DEI TERREMOTI
←
→
Trascrizione del contenuto della pagina
Se il tuo browser non visualizza correttamente la pagina, ti preghiamo di leggere il contenuto della pagina quaggiù
PREVEDIBILITÀ DEI TERREMOTI Giuseppe Quartieri, Presidente del Comitato Scientifico dei Circoli dell'Ambiente «Un’ipotesi che, in linea di principio, non può essere sottoposta a prova di dimostrazione di evidenza può essere interessante ma non è scientificamente utile» America Association for Advancement of Science [AAAS 1989]. PRINCIPI GENERALI In Italia, lo studio e la gestione del rischio sismico è di responsabilità primaria dell’Istituto Nazionale di Geofisica e Vulcanologia. La ricerca nel campo viene eseguita anche da tanti altri laboratori, Università ed Istituti sismologici [ad esempio il Centro di Ricerche Sismologiche, Istituto di Ricerca EUREKA, Istituto Nazionale di Oceanografia (OGS) di Trieste e di Ricerche Sismologiche, Dipartimenti di Geoscienza in varie Università, Istituto di Ricerche sul Rischio Sismico, ISSO, National Research Institute of Metrology (INRIM) ecc.]. Invece i compiti della gestione operativa delle attività di prevenzione (ad es. la distribuzione geografica dei sismografi ante terremoto, lavori relaitivi ecc.) e quelli della prevedibilità sembrano assegnati alla Commissione Nazionale per la Prevenzione e Previsione dei Grandi Rischi (CGR) e alla Protezione Civile che ha, in modo specifico, il compito di gestire operativamente i problemi dopo terremoto. A livello internazionale, il problema della prevenzione e della prevedibilità dei terremoti è stato affrontato ed organizzato, prima di tutto, con il progetto: “Collaboratory for the Study of Earthquake Predictability (CSEP)”, creato e condotto dal Southern California Earthquake Center e con la successiva partecipazione di un grande numero di Enti ed Organizzazioni internazionali quale ad esempio la Commissione Internazionale di Previsione dei Terremoti per la Protezione Civile (ICEF). Fig. N° 0 CSEP e centri di scienza delle prove sismiche (fonte W. Marzocchi, Schorlemmer and Gerstenberger 2007) I criteri impiegati da CSEP per il progetto globale antisismico sono basati sull'impiego di: 1. Un’infrastruttura di collaborazione internazionale aperta. 2. Un piano di prova di dimostrazione rigorosa e di prospettiva dei risultati dei modelli di previsioni (forecast e prediction) sviluppati e delle relative ipotesi di lavoro (Fig. N° 2). 3. Un programma globale che sia in grado di coprire la più ampia varietà di ambienti tettonici. Così, prevenzione e prevedibilità di un terremoto appartengono al capitolo dell’analisi del rischio. Dato un sistema Σ naturale (ad es. terremoto con relativa mappa sismica ecc.) e/o artificiale (ad es. missile, satellite, centrale nucleare, nave ecc.) il rischio è la probabilità che al sistema accada un evento catastrofico. La sicurezza del sistema Σ è la probabilità che non si verifichi un evento catastrofico con perdita del sistema e/o di proprietà. Quindi il rischio (e la relativa analisi) è parte integrante della sicurezza del sistema (Fig. N° 1). La sicurezza del sistema include il rischio che corre il sistema stesso. La garanzia della sicurezza del sistema si applica a tutto il ciclo di vita del rischio corso dal sistema. A base dell’analisi di sicurezza e quindi dell’analisi del rischio c’è una serie di principi filosofici e sociali generali che vanno rispettati e che includono i fondamenti, gli obiettivi di sicurezza e i principi di protezione. Di conseguenza, dall’analisi si definiscono le basi
per i requisiti di sicurezza e il relativo complesso di norme applicabili. Tra i principi fondamentali vanno inclusi (Fig. N° 0, N° 1 e Tab. N° 1): 1. Rispetto delle leggi. 2. Principio di precauzione. 3. Principio di protezione. 4. Principio di sorveglianza. 5. Preparazione emergenza. Così il rischio e la analisi del rischio comportano la gestione operativa in campo di strumenti e accessori di analisi e i principi etici fondamentali quali il principio di precauzione, la preparazione alla emergenza ecc. DISCUSSIONE PRELIMNARE SULLA PREVEDIBLITÁ La richiesta dei vari Governi Italiani ai suddetti Enti ed Organizzazioni è stata e rimane la valutazione della conoscenza scientifica della prevedibilità dei terremoti e la fornitura di orientamenti per la attuazione della previsione operativa dei terremoti stessi. Inoltre si richiede l'aggiornamento costante di informazioni affidabili sulla presenza di futuri terremoti potenzialmente dannosi, oltre alla diffusione delle stesse informazioni ufficialmente sanzionate per migliorare la preparazione al terremoto delle comunità minacciate. Nel campo della prevedibilità dei terremoti (luogo, tempo e magnitudo) vengono applicati due metodi di calcolo e analisi dei rischi diversi e complementari: il metodo deterministico o neodeterministico (NDSHA – Neo-Deterministic Seismic Hazard Assessment) ed il metodo probabilistico (PSHA – Probabilistic Seismic Hazard Assessment). Di questi due metodi, quello deterministico è il più antico e studiato. Uno degli strumenti fondamentali del metodo Neo Deterministico (NDSHA) è fornito dalle mappe sismiche dell’intero territorio italiano (Fig. N° 3 e in genere mondiale). In ambedue i tipi di analisi dei rischi si impiegano alcuni indicatori basilari di potenzialità di eventi sismici e possibili precursori dei terremoti al fine di tentare di elaborare una previsione dei terremoti. Tab. N° 1 FONDAMENTI DI SICUREZZA REQUISITI Sicurezza e protezione Parte 1. Principi fondamentali, etici e 1. Valutazione sismica del territorio e dei siti sociali. più a rischio sismico. Parte 2. Regole, Norme giuridiche 2. Collezione dati operative sul territorio ed governative per la Sicurezza sismica. relative analisi statistica Parte 3. Leadership e gestione 3. Predisposizione copertura e distribuzione manageriale per la sicurezza (gestione dei sensori sul territorio e relative misurazioni, sensori, gestione salvataggi ecc.). monitoraggi, Parte 4. Valutazione della sicurezza del 4. Preparazione alle emergenze e relative territorio in relazione al potenziale responsabilità ecc. terremoto. 5. Progetto e Costruzione di case ed edifici Parte 5. Ricostruzione post terremoto. antisismici.
Metodologia di analisi dei rischi La metodologia di analisi dei rischi si presenta quindi sotto forma deterministica e probabilistica. La metodologia classica della teoria delle probabilità e della applicazione della statistica viene normalmente applicata sfruttando un numero elevato di modelli matematici (circa 250 di cui almeno 50 impiegati normalmente in Italia). La storia della scienza statistica insegna che la proposta cosiddetta combinatoria dei fisici (per il passaggio dal mondo deterministico al mondo quantistico) è solo uno dei momenti dell’evoluzione della statistica che si presenta (Rif. Brambilla “Statistica”) come una nuova dimensione della conoscenza. L’argomento principale della statistica è il cosiddetto “caos in azione” che, in alcuni momenti e in zone sismiche, genera terremoti di varie magnitudo. Quindi la metodologia dei rischi appartiene ad una branca della scienza completamente bene assestata e accettata dalla Comunità Scientifica degli specialisti in sismologia e tettonica. Tuttavia, gli scienziati addetti riescono a elaborare solo previsioni di terremoti solo con errori elevati e a basso livello di confidenza. Si osservi la Fig. N° 2 che riporta l’andamento standard della accuratezza dei calcoli di rischio (probabilità di sicurezza) in funzione dei vari momenti di un progetto o sistema (ad es. si può applicare questa curva standard al Progetto CSET). Si osservi l’andamento standard riportato in Fig. N° 2 esprime il risultato della esperienza [da me] acquisita in campo della analisi e delle previsioni di eventi catastrofici in generale, e, nel caso di specie, dell’andamento della accuratezza dei calcoli di rischio (probabilità di sicurezza) in funzione dei vari momenti di un progetto o sistema (ad es. il su accennato Progetto CSET). In altre parole si pensa che, anche nel caso del progetto CSET, si possa riuscire a verificare un andamento standard delle accuratezze di previsione come quello riportato in Fig. N° 2. Questa verifica richiede che si ripetano nel tempo le prove di calcolo di probabilità di terremoto con vari modelli matematici dotati di sonori e robusti codici. Così, al passare del tempo, l’analista deve disporre di maggiore quantità di dati (ad es. dati da sciami sismici prima di un colpo principale il cosiddetto main-shock). Nell’esempio del progetto CSET, la probabilità di previsione di terremoto sia, ad esempio, del 90% a fine progetto può essere ottenuta con livello di confidenza elevatissimo (oltre il 90%) e con un errore (o un’accuratezza) del 20%. Per rendere disponibili dati informativi essenziali si impiegano strumenti ed accessori di misura che consentono di ricavare i cosiddetti indicatori e precursori sismici. Di questi i più noti ed impiegati sono: 1. Incremento dell'emissione di radon nelle immediate vicinanze.. 2. La velocità delle onde sismiche. 3. La conduttività elettrica.
4. Le variazioni delle concentrazioni di radon nelle fluttuazioni nelle acque sotterranee, le acque sotterranee, del suolo e dell'aria livelli. 5. Le variazioni elettromagnetiche vicino e sopra alla superficie terreste. 6. Anomalie termiche (variazioni di temperatura dell'acqua dei pozzi). 7. Comportamento animale anomalo (segni di nervosismo degli animali). 8. Modelli di sismicità e micro sensori sismici distribuiti in tutto il territorio. 9. Cambiamento di velocità di deformazione. 10. Precursori di nucleazione (nuovi sensori piezoelettrici di rilevazione di neutroni prodotti da rocce fratturate per la previsione di terremoti nel lungo termine). Sino ad oggi la scienza non ha ritenuto che l’impiego di questi indicatori possa permettere di predire un terremoto con un margine accettabile di errore. La Commissione di esperti internazionali ha concluso che le attuali “previsioni” di terremoti a breve termine (short-term eartquake) mancano di credibilità scientifica poiché sono state basate sull’applicazione di risultati ottenuti con sensori del tipo radon o con altri precursori diagnostici [Jordan et al. 2009]. Parimenti, uno studio sugli sciami sismici che precedono il colpo principale (mainshock) ha permesso di concludere che non sempre la decisione di procedere alla evacuazione intesa come una azione di mitigazione (presa dai politici o decision makers) implica la necessità di evacuare la popolazione [van Stiphout et al. 2010]. Le intense controversie avvenute a seguito del terremoto di L’Aquila hanno di nuovo messo in evidenza la mancanza di consenso generale sulla predicibilità dei terremoti e non solo, ma hanno anche messo in dubbio tutti gli enormi progressi raggiunti nel campo del “forecasting” (previsione) e sulle sue applicazioni. Nei 2006, la Commissione Europea ha finanziato il progetto “Integrated Infrastructure Initiative project” allo scopo di migliorare la situazione globale. LA PREVEDIBILITÁ Dall’analisi della letteratura aperta in materia, sembra che non ci siano prove che questi indicatori funzionino veramente. Qualcuno rincarando la dose, ha sostenuto che le rare volte che si sono usati questi precursori (e si allude al Terremoto di L’Aquila) hanno creato solo del panico. Generalmente si scopre che questi fenomeni di non funzionamento dei precursori si verificano dopo che il terremoto sia avvenuto e non prima. Secondo alcuni fisici, nel caso del terremoto di L’Aquila il radon avrebbe indicato solo che si era in presenza di uno sciame. Non tutti i ricercatori, gli scienziati-sismologi e i tecnici credono che gli sciami sismici finiscano normalmente diventando dei terremoti veri e propri. Invece, gli studi e le analisi basate su dati e sequenze storiche di eventi sismici (in altre parole in base ad analisi statistiche di cui si parlerà successivamente) si sono rivelati migliori per le induzioni di prevedibilità di eventi catastrofici come il terremoto. Tuttavia, appare opinione – non del tutto condivisibile - di diversi fisici ed ingegneri che tali analisi statistiche non sempre consentono di predire quando ci sarà il terremoto ma si limitano a prevederlo solo in maniera grossolano. L’argomento, illustrato in questa maniera qualitativa, verrà trattato in modo più approfondito ma solo in parte nel seguito, e con altri articoli che seguiranno dopo di questo. Di primo acchito ed intuitivamente le previsioni dovrebbero essere migliori o almeno più vicine alla certezza solo nei tempi lunghi anche se normalmente si riesce a misurare l’entità o ampiezza (magnitudo) massima aspettata. Secondo la tradizione, si riesce ad ottenere la riduzione del rischio sismico solo sfruttando le conoscenze che si ottengono a seguito di analisi e di codici costruiti in occasione di sonori terremoti di alta intensità. Ne deriva la necessità di allargare il
campo di azione della mitigazione del rischio al di là delle stesse conoscenze acquisite anche in base ai recenti casi di terremoti osservati. Di fatto, le ultime analisi delle sequenze sismiche hanno dimostrato che le probabilità di vero terremoto aumentavano di settimana in settimana di diversi ordini di grandezza rimanendo però sempre basse a livello assoluto. Di fatto, la probabilità assoluta rimaneva sempre al di sotto di 1/100 (W. Marzocchi, G. Woo). Ne è scaturita una sorta di teoria delle previsioni dei terremoti a breve termine che ha permesso di mitigare il rischio corso dalle popolazioni implicate. Falsi allarmi, possibili revisioni, decisioni rapide, azioni veloci di mitigazioni ed altre strategie potrebbero essere o avrebbero potuto essere più efficaci se surrogate o supportate anche da aumento di vigilanza, preparazione, professionalità e da decisioni politiche e amministrative rapide ed attente alle istanze e perorazioni scientifiche. In una qualche maniera, in presenza di sciami sismici dovrebbero aumentare alcune forme di libertà decisionali locali non necessariamente sottoposte alle decisioni finali delle autorità civili ma sottoposte piuttosto, in modo prioritario, ad una sorta di principio di precauzione dettato dal buon senso del popolo. D’altro canto, esiste una netta distinzione fra l’analisi del rischio economico che viene elaborata normalmente da economisti, ragionieri e finanzieri e l'analisi del rischio di evento catastrofico eseguito da scienziati, siano essi fisici, chimici, geologi, ingegneri ecc. Va da sé che gli economisti, professionisti del rischio economico, ricercano altri elementi e non certamente l'accadimento di un evento catastrofico con implicazione di perdita di vite umane ma piuttosto ricercano (post terremoto) solo le implicazioni di perdita di proprietà e/o denaro. Inoltre, questi analisti si interessano dei danni procurati e delle agevolazioni alle popolazioni toccate dai terremoti: aspetti normalmente puramente politici. Quindi si assume che sia accettata e chiarita questa netta distinzione fra le due branche della analisi del rischio che evidentemente propongono problemi e posizioni etiche molto diverse e distinte fra di loro. Recentemente si sono tenuti diversi convegni, seminari e manifestazioni varie sull’argomento dei terremoti. Ad esempio il 15 novembre 2012, dalle ore 14, 30 alle ore 17,30 al teatro Brancaccino, Roma si è tennuto il Convegno interessante è stato quello su “La Prevenzione come strategia contro il terremoto” organizzato dalla Dott.sa Angela Rosati e voluto dagli Onorevoli Gianluca Benamati e Giovanni Lolli che hanno presentato la loro proposta di Legge “Piano antisismico nazionale”. Il nuovo Presidente della Commissione Grandi Rischi, Luciano Maiani, ha
presentato un’ottima relazione generale sull’ analisi del rischio sismico ed ha strabiliato i fisici, i chimici e i matematici presenti quando ha affermato che egli crede nella validità della «imprevedibilità dei terremoti». Frase sibillina, che tratta di un vecchissimo argomento di discussione che continua a strabiliare la gente. Pur dibattuto nei Circoli Scientifici, nelle Università e nelle relative Accademie, la imprevedibilità non è ancora stata risolta e non ancora ha trovato apparentemente una sistemazione scientifica universalmente accettata. Ogni contadino, ogni artigiano, ogni uomo con un minimo di razionalità asserisce che i terremoti sono imprevedibili. Buon senso di popolo!!! Eppure la frase «imprevedibilità dei terremoti» purtroppo lascia perplessi! Dalla scienza i popoli, credenti oppure no, si aspettano molto di più o almeno frasi scientificamente esatte di senso compiuto ed accettato e non approssimate. I terremoti, come molti sanno, non si possono prevedere in modo deterministico mentre, in modo probabilistico, possono essere previsti solo in maniera approssimativa. Alcuni decenni fa, l’approccio deterministico è stato abbandonato quasi del tutto per essere, da poco tempo, ripreso con nuove matematiche, nuove metodiche e nuove tecnologie di supporto (micro-sensori sismici, micro sensori termici ecc.). In altre parole la possibilità che si verifichi un terremoto catastrofico (luogo, tempo e magnitudo) deve essere enunciata in termini di probabilità di accadimento dell’evento (ad esempio 1 su 100000 eventi) con un ben definito livello di confidenza (o intervallo di confidenza) ad esempio del 99%. In scienza bisogna adoperare questo tipo di espressione matematica altrimenti si rimane troppo nel vago e l’analisi perde senso scientifico. Poiché la cultura e la conoscenza del calcolo delle probabilità e della teoria del rischio purtroppo appaiono molto basse in Italia e nel mondo, allora gli scienziati sono costretti a esporre questa materia in modo approssimativo. In altre parole gli esperti parlano di probabilità estremamente bassa degli eventi terremoti. In ogni caso si tratta di un ripiego nella comunicazione di un evento catastrofico. In parentesi, appare qui il caso di ricordare che Enzo Boschi, il Presidente di INGV, aveva scritto un articolo che la probabilità di un terremoto come quello che c’è stato nell’area di L’Aquila nel corso dei prossimi 20 anni era altissima (aggettivo in ogni caso vago e poco rigoroso). A questo riguardo, Paolo Saraceno fa alcune osservazioni lapalissiane con linguaggio semi-divulgativo: «Andrebbe tenuto presente che la stessa previsione è stata fatta 40 anni fa per il cosiddetto ”big one” in California e a tutt’oggi non si è ancora verificato. Molti ricercatori e scienziati del campo ritengono che queste previsioni hanno errori dell’ordine di “un secolo”… ma predicono con certezza che il terremoto ci sarà e grosso modo riescono anche a determinare la magnitudo». Per inciso, la conoscenza della “magnitudo” avrebbe dovuto essere la base per la progettazione preventiva e costruzione di case antisismiche. Purtroppo, questa opportunità è stata disattesa, per decenni, non solo a L’Aquila ma in quasi tutta l’Italia. Inoltre, sembra che questo stato di difetto si stato rilevato in moltissimi casi sia in Molise a San Giuliano di Puglia sia a l’Aquila. Solo da poco più di due decenni i criteri e i livelli progettuali antisismici sono stati imposti in tutta l’Italia. Nonostante ciò, alcuni insistono che qualche pecca rimane sulla testa e nella coscienza della classe degli ingegneri edili progettisti e dei costruttori edili. Forse, però, anche le Autorità pubbliche non hanno saputo imporre, prontamente, il rispetto di alcune regole sismiche in materia. La teoria del rischio propone, per certi versi, una soluzione onorevole a certi stati e situazioni incresciose con la richiesta di definizione del rischio accettabile da parte del popolo. Al tal fine, però, bisogna dare al popolo le giuste informazioni per convincerlo che esiste un’accettabilità del rischio che si può correre. Purtroppo questo campo di applicazione è pieno di disinformazioni e di informazioni manipolate ad arte dai vari operatori dei mezzi di comunicazione di massa (Presentatori TV ecc.). La metodologia di approccio alla sicurezza si propone, si elabora e si adotta quando si affronta la maggioranza delle situazioni pericolose e relativi eventi catastrofici. Si possono citare ad esempio situazioni quali la accettabilità di volare in un aeroplano di linea, o la accettabilità di viaggiare sul treno veloce e/o in qualsiasi altra forma di applicazione di alta tecnologia (vivere in un luogo relativamente vicino ad una centrale nucleare ecc.). In altre parole, l’analisi del rischio è metodologia scientifica ed ingegneristica ben nota, standardizzata e acclarata che si impiega in tutti i campi (dal sottosistema dei trasporti, al sottosistema energetico e nucleare, dal sottosistema ambientale e metereologico al sottosistema militare ecc.).
Nella prassi e nelle procedure standard di analisi dei rischi, il concetto di rischio è direttamente basato e connesso al concetto di probabilità dell'evento in esame, in questo caso, dell'evento terremoto. Così il popolo può accettare il rischio α di sopravvivenza in un luogo definito a rischio sismico di primo livello solo se conosce la probabilità di accadimento β del terremoto stesso. Allora come si fa ad accettare il rischio α, senza avere la minima conoscenza della probabilità di accadimento dell’evento sismico Po (rischio di terremoto β) con un ben definito livello di confidenza Φ (oppure intervallo di confidenza ΔΦ). La Fig. N° 5 mostra l’andamento standard della accuratezza di calcolo della probabilità di terremoto (in un dato luogo, ma con magnitudo da definire) in funzione del tempo (lungo, medio e breve termine). Si nota che i calcoli di breve termine hanno accuratezza superiore ossia più basso errore. Alcuni fisici (ad es Paolo Saraceno) sostengono che in alcuni casi si conoscono - in linea di massima – le probabilità di accadimento del terremoto e portano come esempio il terremoto dell’Emilia, come quello di L’Aquila che avevano probabilità altissime di verificarsi nel giro di una trentina d’anni. Alla stessa stregua, indicano ad esempio il terremoto che ancora non c’è stato ossia quello del Pollino che avrebbe dovuto avere probabilità molto bassa di verificarsi nei giorni successivi alla riunione della Commissione Grandi Rischi. Concetti analoghi sono applicabili all’analisi del rischio di terremoto eseguita con il metodo deterministico che viene normalmente elaborato dai geologi, geofisici ecc. In letteratura aperta, i geofisici e geologi continuano a polarizzare la probabilità sulla scala temporale e basta. In altre parole, i calcoli riportano che non si riesce a prevedere il terremoto con scala temporale di un mese. La probabilità di terremoto aumenta se si allunga il tempo, basta osservare le serie storiche. Per eseguire detti calcoli di probabilità bisogna costruire dei modelli matematici sviluppati “ad hoc”. Moltissimi sforzi sono stati eseguiti in questa direzione. La chiave di volta rimane la conoscenza delle serie storiche, ossia dei dati del passato per potere estrapolare le previsioni nel futuro. Ad es in letteratura, si afferma, con quasi totale certezza che, basandosi sulle serie storiche nel corso dei prossimi 500-1000 anni il super-vulcano napoletano si
risveglierà causando un’eruzione catastrofica che provocherà un’estinzione di massa su scala planetaria. Succede ogni 15.000 anni circa… e l’ultima è stata appunto 15.000 anni fa. Lo stesso per il Toba ecc. e per tutti i terremoti. Il maremoto che ha distrutto Fukushima c’era già stato in maniera del tutto simile alla fine del 1800. A tal riguardo, l’agenzia atomica di Vienna (IAEA) aveva rilevato l’inadeguatezza delle strutture della centrale davanti ad un onda simile a quella che si verificata a Fukushima. Qualcuno sostiene di essere pronto a scommettere che tra 100 anni circa si ripresenterà. Comunque la questione di Fukushima merita un approfondimento ulteriore. Queste proposizioni esprimono le probabilità di accadimento di un terremoto in modo comprensibile ma purtroppo non vengono precisate in maniera matematicamente rigorosa e soprattutto non definiscono gli errori né il livello (o intervallo di) confidenza. Si presume in questa sede che queste affermazioni possono essere considerate comprensibili per tutti e quindi possono servire a definire l’accettabilità del rischio da parte del popolo. In questa maniera, la metodologia di analisi dei rischi riesce a convincere il popolo ad accettare il rischio di vivere in una zona sismica ma non garantisce assolutamente il rigore scientifico e probabilistico. In particolare va ripetuto e sottolineato che, al momento, esistono almeno 250 modelli matematici che vengono impiegati nel mondo intero. In Italia se ne impiegano normalmente almeno 50 di essi. Ogni modello include vari termini matematici ognuno dei quali rappresenta cause di innesco, modi di propagazione, effetti degli sciami ecc. Applicando il modello ETAS, sono state sviluppate le mappe sismiche italiane riportate in Fig. N°6. Ogni modello comporta i suoi limiti e i suoi vantaggi. In ogni caso, i calcoli di previsione (e/o forecast) possono essere elaborati solo con un certo livello di confidenza (che alcuni definiscono impropriamente “affidabilità”). Questo è il compito dei fisici e dei geofisici assieme a matematici ed ingegneri specializzati in materia. Purtroppo, gli aspetti conseguenti di tipo giuridici, legali, psicologici e sociologi devono essere presi in giusta considerazione poiché condizionano fortemente il lavoro di previsione dei suddetti professionisti. I falsi allarmi, i procurati allarmi e le motivazioni contrarie, le implicazioni relative sono all’ordine del giorno ma, soprattutto, complicano la vita degli addetti ai compiti di previsione ma anche di gestione in generale dei fenomeni di terremoti, la loro prevenzione, le loro analisi dei rischi, le loro implicazioni socio-economiche e giuridiche. CONCLUSIONI In base a questa prima revisione globale ed iniziale, si possono abbozzare alcune conclusioni e conseguenze: 1. Si spera di essere riuscito almeno a chiarire e, eventualmente, ad inculcare il concetto della necessità di proporre delle definizioni di probabilità di terremoto con la specificazione della accuratezza nelle previsioni stesse. 2. Continua a sussistere ancora cattiva comunicazione fra mondo scientifico, mondo decisionale e popolo in merito ai terremoti. Nel caso di specie del terremoto di L’Aquila, nessuno scienziato – nonostante gli avvisi del tecnico Giuliani basati sulle analisi e misure di radon -- avrebbe mai potuto dire seriamente che il terremoto si sarebbe potuto verificare il giorno dopo, un mese dopo, un anno dopo, dieci anni dopo o cinquant’anni dopo. In parentesi, il tanto previsto terremoto di S. Francisco lo si aspetta da 50 anni! 3. Ad oggi la scienza non ritiene di potere permettersi di predire con un margine accettabile di errore, ossia con alta accuratezza - come è mostrato nelle Fig. N° 2 e N° 5 - un terremoto o almeno si asserisce che la scienza non ritiene di potere fare previsioni di probabilità di terremoto con alto livello di confidenza (o intervallo di confidenza stretto).
Fig. N° 6. In questi diagrammi-foto sono riportati 16 di 18 modelli di previsione di terremoti (forecast models) fornite alle Regioni d'Italia per eseguire prove di convalida dei modelli stessi. I colori codificati rappresentano i tassi di previsione di eventi per i prossimi 5 anni (si note che le scale delle varie figure non sono uguali fra di loro). Le prove sono state iniziate al primo agosto del 2009, e dureranno 6 anni. A cominciare dalla figura sinistra superiore, andando prima a destra e quindi verso il basso, si hanno: HAZGRIDX, HZA_TD, HZA_TI, LTST, PHM_Grid, PHM_Zone, ALM, HALM, DBM, MPS04, RI, ALM.IT, HiResSmoSeis-m1, HiResSmoSeis-m2, TripleS-CPTI, TripleS-Hybrid. (Fonte Warner Marzocchi et alter).
4. A partire dagli eventi politici-giuridici dell’ultimo sconcertante periodo storico italiano, alle soglie dell’abisso economico, nessuno scienziato (fisico, matematico, geologo ecc.) o ingegnere si azzarderà più a fare previsioni di rischio in un Paese dove il concetto di probabilità non è capito e quindi conosciuto, né si comprende il valore innovativo della statistica e della sua nuova dimensione di conoscenza. 5. Ogni ben pensante deve cercare di trovare un’azione correttiva a ogni forma di potenziale errore interpretativo e/o di malcostume. 6 . Bisognerebbe imporre di frequentare un corso di lezioni di base (o un master in) di scienza e relativa epistemologia a tutti coloro che si interessano di questione tecniche e scientifiche, non ultimo e forse prima di tutti, ai giudici italiani specificamente addetti a tali compiti. Forse alcuni di loro già lo fanno. Gli argomenti del corso dovrebbero includere la Teoria delle Probabilità e Fondamenti di Statistica, oltre a lezioni di “Affidabilità e quindi Sicurezza dei Grandi Sistemi Complessi”, l'Analisi dei Rischi e quant'altro necessario al completamento del corso Master sui Fondamenti della Scienza. RIFERIMENTI I riferimenti bibliografici e scientifici verranno elencati nell’ultima parte di questa serie di articoli sui terremoti.
Puoi anche leggere