lunedì 31 maggio 2010

Regional Geology of mediterrean area

La Geologia Regionale
Studia le caratteristiche geologiche a grande scala e l'evoluzione nel tempo e nello spazio di regioni estese (ad esempio l'area mediterranea, con le varie catene montuose che l'attraversano). Per il suo carattere di sintesi la Geologia Regionale utilizza dati e modelli concettuali provenienti da svariate discipline delle Scienze della Terra quali la geologia stratigrafica e la geologia strutturale, la geologia marina, la petrografia, la vulcanologia, la geofisica.
Nell'Università di Pisa il corso di Geologia Regionale è tenuto nel Corso di Studio in Scienze Geologiche.

Schema strutturale-cinematico dell'area centro-mediterranea.
Modificato da: CNR-Progetto Finalizzato Geodinamica (1990). Structural Model of Italy 1:500.000 and Gravity Map. Quad. Ric. Scient., 3(114), S.E.L.C.A., Firenze.
Modello strutturale-cinematico


Terremoti nella regione centro-mediterranea con intensità epicentrale superiore o uguale all'VIII grado MCS dall'anno 1000 ad oggi.
Terremoti da: Slejko D. et al., 1999. Seismic hazard assessment for Adria. Ann.Geofis., 42(6), 1085-1107.
Sismicità dall'anno 1000 ad oggi


L'area centro-mediterranea è uno splendido laboratorio naturale che riunisce in uno spazio relativamente ristretto un vasto campionario di oggetti geologici che hanno registrato una lunga e complessa storia geologica:
  • frammenti di litosfera rigida (placca europea e placca africana), dello spessore di circa 100 chilometri, galleggianti su un'astenosfera viscosa e in progressivo reciproco avvicinamento. Nel processo di convergenza tra placche l'Africa si è "indentata" nell'Europa attraverso un cuneo rigido scarsamente deformato chiamato Adria o Promontorio Africano. Questo cuneo si estende dal Mar Ionio fino all'estremità occidentale della Valpadana, ed è bordato dalle Dinaridi, dalle Alpi Meridionali e dall'Appennino. L'Adria costituisce oggi una scheggia della grande placca africana. La zona di rottura è segnata dalla Scarpata di Malta, una sorta di parete sommersa attraverso la quale il fondo marino viene ribassato da una profondità di qualche centinaio di metri nel Canale di Sicilia ad una profondità di circa 4000 metri nella piana abissale ionica;
  • catene montuose (Alpi e Dinaridi) originate dalla collisione tra Europa ed Adria e dalla deformazione dei relativi margini continentali;
  • catene montuose (Appennino ed Arco Calabro) originate lungo il margine sud-occidentale del promontorio adriatico nel corso del suo sprofondamento nell'astenosfera (subduzione). I terremoti profondi del basso Tirreno marcano lo sprofondamento della piastra adriatica fino a profondità di circa 500 chilometri (linee nere con relativi valori di profondità espressi in chilometri);
  • catene montuose (Maghrebidi Siciliane) originate dalla deformazione del margine convergente della placca africana;
  • bacini post-collisionali, con litosfera continentale assottigliata (Bacino Pannonico) o litosfera oceanica di nuova generazione (Mediterraneo Occidentale, Tirreno) aperti in corrispondenza di zone di subduzione e "scarrucolamento all'indietro" di placche (sprofondamento della placca europea sotto i Carpazi nel caso del Bacino Pannonico, sprofondamento della placca africana-adriatica sotto il Blocco Sardo-Corso nel caso del Mediterraneo occidentale, sprofondamento della piastra adriatica sotto l'Appennino e sotto l'Arco Calabro nel caso del Tirreno);
  • frammenti di litosfera continentale (Blocco Sardo-Corso, in origine facente parte della placca europea) ruotati e trasportati lontano dall'originaria patria di appartenenza.

I tempi nei quali sono avvenuti i fenomeni geologici che hanno portato all'attuale configurazione dell'area centro-mediterranea sono misurabili in milioni di anni.
200 milioni di anni fa America, Africa ed Europa erano riunite in un unico continente (Pangea). Intorno a 180 milioni di anni fa ebbe luogo il distacco tra Africa ed America settentrionale. Questo evento, che portò all'apertura dell'Oceano Atlantico centrale, fu seguito intorno ad 80 milioni di anni fa dal distacco dell'Europa dal Nordamerica e dalla conseguente apertura dell'Atlantico settentrionale. Con il distacco dell'Europa dall'America settentrionale cominciò il moto di convergenza tra Europa ed Africa. I margini continentali di queste due placche entrarono in collisione circa 50 milioni di anni fa.
Il resto è storia "recente": intorno a 30 milioni di anni fa cominciò la rotazione del Blocco Sardo-Corso e l'apertura del Mediterraneo occidentale; intorno ad 8 milioni di anni fa cominciò ad aprirsi il bacino tirrenico alle spalle dell'Appennino e dell'Arco Calabro che nel corso della loro formazione avanzarono progressivamente verso l'attuale Valpadana e verso gli attuali mari Adriatico e Ionio.
Le velocità che descrivono il moto relativo tra la placca africana e la placca europea variano da qualche centimetro per anno a frazioni di centimetro per anno. Le velocità di "scarrucolamento all'indietro" dei margini di placca nelle zone di subduzione e le velocità di apertura dei bacini post-collisionali possono essere più elevate, ma di regola non superano i 5-6 centimetri per anno nell'area centro-mediterranea. Alla scala dei tempi geologici queste modeste velocità possono produrre sostanziali modificazioni paleogeografiche, con la creazione di oceani dove prima esistevano continenti o con la costruzione di gigantesche catene di montagne dove prima si estendevano spazi oceanici. Alla scala dei tempi umani le uniche manifestazioni tangibili di questi grandiosi processi geologici sono costituite dalle eruzioni vulcaniche e dai terremoti. Riferendoci agli ultimi 1000 anni, dei quali conserviamo una discreta memoria storica, circa 1300 terremoti distruttivi o comunque responsabili di gravi danni (intensità epicentrale>=VIII grado della scala Mercalli-Cancani-Sieberg) hanno colpito la regione centro-mediterranea. Di questi, più di 500 hanno colpito il territorio italiano.
La Geologia Regionale partecipa con importanti elementi conoscitivi di carattere strutturale e di carattere cinematico a ricerche finalizzate allo sfruttamento di risorse naturali (idrocarburi, fluidi geotermici, ecc.) e alla valutazione e mitigazione dei rischi naturali (ad esempio il rischio sismico).

Seismic risk

Il rischio sismico

L’Italia è uno dei Paesi a maggiore rischio sismico del Mediterraneo, per la frequenza dei terremoti che hanno storicamente interessato il suo territorio e per l’intensità che alcuni di essi hanno raggiunto, determinando un impatto sociale ed economico rilevante. La sismicità della Penisola italiana è legata alla sua particolare posizione geografica, perché è situata nella zona di convergenza tra la zolla africana e quella eurasiatica ed è sottoposta a forti spinte compressive, che causano l’accavallamento dei blocchi di roccia. Dall’andamento della linea nell’immagine si capisce perché, di fatto, solo la Sardegna non risenta particolarmente di eventi sismici.

In 2500 anni, l’Italia è stata interessata da più di 30.000 terremoti di media e forte intensità superiore al IV-V grado della scala Mercalli) e da circa 560 eventi sismici di intensità uguale o superiore all’VIII grado della scala Mercalli (in media uno ogni 4 anni e mezzo). Solo nel XX secolo, ben 7 terremoti hanno avuto una magnitudo uguale o superiore a 6.5 (con effetti classificabili tra il X e XI grado Mercalli). La sismicità più elevata si concentra nella parte centro-meridionale della penisola - lungo la dorsale appenninica (Val di Magra, Mugello, Val Tiberina, Val Nerina, Aquilano, Fucino, Valle del Liri, Beneventano, Irpinia) - in Calabria e Sicilia, ed in alcune aree settentrionali, tra le quali il Friuli, parte del Veneto e la Liguria occidentale.
I terremoti che hanno colpito la Penisola hanno causato danni economici consistenti, valutati per gli ultimi quaranta anni in circa 135 miliardi di euro, che sono stati impiegati per il ripristino e la ricostruzione post-evento. A ciò si devono aggiungere le conseguenze non traducibili in valore economico sul patrimonio storico, artistico, monumentale.

In Italia, il rapporto tra i danni prodotti dai terremoti e l’energia rilasciata nel corso degli eventi è molto più alto rispetto a quello che si verifica normalmente in altri Paesi ad elevata sismicità, quali la California o il Giappone. Ad esempio, il terremoto del 1997 in Umbria e nelle Marche ha prodotto un quadro di danneggiamento (senza tetto: 32.000; danno economico: circa 10 miliardi di Euro) confrontabile con quello della California del 1989 (14.5 miliardi di $ USA), malgrado fosse caratterizzato da un’energia circa 30 volte inferiore. Ciò è dovuto principalmente all’elevata densità abitativa e alla notevole fragilità del nostro patrimonio edilizio.

La sismicità (frequenza e forza con cui si manifestano i terremoti) è una caratteristica fisica del territorio, al pari del clima, dei rilievi montuosi e dei corsi d’acqua. Conoscendo la frequenza e l’energia (magnitudo) associate ai terremoti che caratterizzano un territorio ed attribuendo un valore di probabilità al verificarsi di un evento sismico di una certa magnitudo, in un certo intervallo di tempo, possiamo definire la sua pericolosità sismica. Un territorio avrà una pericolosità sismica tanto più elevata quanto più probabile sarà, a parità di intervallo di tempo considerato, il verificarsi di un terremoto di una certa magnitudo. Le conseguenze di un terremoto, tuttavia, non sono sempre gravi: molto dipende infatti, dalle caratteristiche di resistenza delle costruzioni alle azioni di una scossa sismica. Questa caratteristica, o meglio la predisposizione di una costruzione ad essere danneggiata da una scossa sismica, si definisce vulnerabilità. Quanto più un edificio è vulnerabile (per tipologia, progettazione inadeguata, scadente qualità dei materiali e modalità di costruzione, scarsa manutenzione), tanto maggiori saranno le conseguenze che ci si deve aspettare in seguito alle oscillazioni cui la struttura sarà sottoposta.
Infine, la maggiore o minore presenza di beni a rischio e, dunque, la conseguente possibilità di subire un danno (economico, in vite umane, ai beni culturali, ecc...), viene definita esposizione (di vite umane, beni economici, beni culturali).

Il rischio sismico è determinato da una combinazione della pericolosità, della vulnerabilità e dell’esposizione ed è la misura dei danni che, in base al tipo di sismicità, di resistenza delle costruzioni e di antropizzazione (natura, qualità e quantità dei beni esposti), ci si può attendere in un dato intervallo di tempo.

In Italia, possiamo attribuire alla pericolosità sismica un livello medio-alto, per la frequenza e l’intensità dei fenomeni che si susseguono. La Penisola italiana, però, rispetto ad altri Paesi, come la California o il Giappone, nei quali la pericolosità è anche maggiore, ha una vulnerabilità molto elevata, per la notevole fragilità del suo patrimonio edilizio, nonché del sistema infrastrutturale, industriale, produttivo e delle reti dei servizi. Il terzo fattore, l’esposizione, si attesta su valori altissimi, in considerazione dell’alta densità abitativa e della presenza di un patrimonio storico, artistico e monumentale unico al mondo. In questo senso è significativo l’evento del 1997 in Umbria e Marche, che ha fortemente danneggiato circa 600 chiese e, emblematicamente, la Basilica di S. Francesco d’Assisi.
L’Italia è dunque un Paese ad elevato rischio sismico, inteso come perdite attese a seguito di un terremoto, in termini di vittime, danni alle costruzioni e conseguenti costi diretti e indiretti.

History of Seismology

 
A Brief History of Seismology
From: Cambridge University Press


hen a city that may have taken centuries to build is shaken to the ground in just seconds, contemporary chroniclers tend to be distracted from their usual preoccupation with human power at least long enough to document that the event took place. Such accounts, although often fragmentary, date back to the earliest Greek and Roman historians. By the late 1600s, a few scholars sifting through these old sources began to compile lists of the documented earthquakes; the earliest seems to be Vincenzo Magnati's 1688 list of ninety-one major earthquakes that occurred in the period A.D. 34 to A.D. 1687. Over the next two centuries, a dozen or so others published their own lists, often explicitly restricted to a particular geographical area or a particular period in time (e.g., one chronicles 1,186 shocks in Italy for the period 1783-6). To the extent that these lists overlap, they are often contradictory in relevant details. An equally serious shortcoming is that their entries reflect contemporary population distributions, their geographical accessibility, and the psychology of mass hysteria more than they describe anything approaching an objectified geophysical data base.



Charles F. Richter devised an enthusiastically accepted procedure and numerical scale for assigning earthquake magnitudes.
With the invention of the telegraph in 1840, it became possible to communicate reports of earthquakes much more efficiently, and information (along with misinformation) mushroomed. Alexis Perry catalogued more than 21,000 earthquakes for the years 1843-71; Robert Mallet (more discriminating in his criteria) described 6,831 events for the period 1606 B.C. to A.D. 1850; Guiseppe Mercalli (1883) listed more than 5,000 earthquakes from 1450 B.C. to A.D. 1881 in Italy alone; Carl Fuchs (1886) developed a monumental list containing nearly 10,000 entries; and John Milne (1895) described 8,331 earthquakes recorded just in Japan. Jean Baptiste Bernard, however, seems to hold the one-man endurance record for this type of research; working for twenty-one years on the project, by 1906 he'd accumulated a list of earthquakes from throughout the world that included 171,434 entries!

The Mercalli scale

Few, if any, of these early lists were of permanent significance (see B. F. Howell, Jr., An introduction to seismological research, 1990). Through their inconsistencies, however, such lists did make it clear that a uniform scale for describing earthquake intensity was desperately needed. In 1883, Guiseppe Mercalli (himself one of the list makers) rose to the occasion and proposed the Mercalli scale, a system still based on somewhat subjective observational descriptions. Others adopted it but, before long, began to fiddle with its criteria. The scale was officially modified in 1912, then once again in 1931; in the latter form it is still sometimes used today. An abbreviated version of the Modified Mercalli Intensity Scale is presented in Table 1.


The main continuing appeal of the Mercalli scale is that it does not depend at all on the use of scientific instruments but on ordinary human observations. Anyone who can make and assess the required observations can assign a Mercalli intensity to an earthquake. At the higher intensities, one need not even experience the event firsthand to assign the number, for the relevant criteria can be established through an examination of the damage left behind.


The Mercalli scale does, however, have its shortcomings: (1) it applies only to populated areas (a fact that becomes obvious as soon as you read the criteria); (2) it does not allow for fractional intensities (in fact, Roman numerals are used, so no one is likely to be tempted on this issue); and (3) it does not give any indication of the strength of the source of the earthquake (a low Mercalli intensity does not distinguish between a mild earthquake nearby and a strong one a greater distance away).


Nevertheless, when Mercalli numbers began to be applied to earthquakes, patterns started to emerge from the hodgepodge of lists. Well before 1920, it became clear that the most seismically unstable regions of the earth are associated with surface features where the earth's crust is most severely corrugated--for example, mountains and rifts (whether above or below the sea). Further, there are two broad bands on the globe that together account for more than 90% of the significant earthquakes: one of these bands circles the Pacific Ocean; the other extends in a shallower arc from Indonesia through the Himalayas to the Mediterranean.

Scientific approaches

Scientists, meanwhile, looked for a more "scientific" way to measure earthquake strength--one linked to the recordings of an unbiased instrument. To design any instrument, however, you first need to have some quantitative understanding of the phenomenon you are trying to measure. This is obviously a Catch-22, for unless you already know something about the relevant characteristics of the phenomenon, you cannot build an instrument that will tell you about the very characteristics you need to know about. Given that earthquakes are sporadic and unpredictable by their very nature, progress in designing seismographs proceeded slowly.


The first device specifically designed to record earthquakes was apparently built in China in A.D. 132. This was a circle of eight sculptured bronze dragons, each holding a metal ball in its mouth, and, directly below, a corresponding circle of open-mouthed bronze toads. A strong earthquake would make a dragon drop a ball into the mouth of a toad, and the particular toad was expected to indicate the direction of the earthquake source (an incorrect assumption, it turns out). This device was a beautiful work of art but of dubious value as a scientific instrument, for any earthquake strong enough to be registered in this manner would already be quite apparent to everyone, and the instrument was incapable of supplying any additional information about such an event.


By the early 1700s, it had become common knowledge that strong earthquakes disturb the water surfaces of ponds and lakes, and this phenomenon was exploited in several early seismoscopes. Most of these devices used some variation on a vessel of liquid mercury that would spill, or at least slosh around, leaving a record of its motion. None of these devices was sensitive enough to be of much scientific value.


A more fruitful approach was to use a pendulum. It had long been noticed that bells in churchtowers often rang spontaneously during a strong earthquake and that pendulum clocks often stopped. Beginning in 1841, James D. Forbes experimented with various pendulum arrangements, and he eventually built a "seismoscope" consisting of a pencil attached to an inverted pendulum, which successfully recorded two earthquakes. Unfortunately, it failed to respond to most of the several dozen other earthquakes that were felt in the area where it was set up (see C. Davison, The founders of seismology, 1927). Meanwhile, geophysicists who were trying to measure the subtle effects of the Sun's and Moon's gravity on Earth were making considerable progress with instruments employing a heavier pendulum, and they were often finding (to their annoyance) that such instruments would go into spasms of uncontrolled jiggling during minor earthquakes. Closer examination revealed that the heavy pendulum itself wasn't jiggling at all; rather, the instruments were recording the vibrations of the ground relative to the pendulum, which, because of its inertia, remained pretty much at rest.


In Italy in 1875, Filippo Cecchi put these ideas together and built the first successful seismograph. The device used two heavy pendulums, suspended in such a way that one detected north-south motion and the other detected east-west motion (orientations still used today). At the same time, a third mass suspended on a spring permitted a measurement of the vertical component of the earthquake motion. Over the next few years, John Milne (working in Tokyo) made considerable improvements in the sensitivity of this instrument. Useful seismographic recordings of ground motion date from the Japanese earthquake of November 3, 1880. By the time of the 1906 San Francisco earthquake, scientists were able to compare seismograms of ground motion that had been recorded simultaneously at a number of observatories in different parts of the world.


There have been many improvements since, both in terms of sensitivity and in the method of recording data; computer printouts, for instance, have generally replaced the earlier strip-chart recordings. Many modern seismographs no longer measure the motion of the earth relative to a suspended inertial mass; instead they use electronic sensors to measure the strain deformation of the earth directly, usually between two points in a long underground tunnel. In this manner, it is possible to measure crustal movements as small as 0.001 millimeters over lengths of around 25 meters. Problems, nevertheless, remain. Even today, it is difficult to make reliable measurements of very long-period earthquake waves (30-s periods or greater). Moreover, a very strong earthquake will saturate the most sensitive instruments, in the same manner as if you tried to weigh a car on a bathroom scale. As a result, seismographic observatories need to keep a whole array of instruments in continuous operation, some for weak motions and others for strong motions.

The Richter Scale

The Mercalli Intensity Scale, in one of its three principal versions, was used almost universally for some fifty years. With the progress in instrumentation, however, prospects improved for linking earthquake size to actual seismographic recordings of ground motion. By 1930, it was possible to combine seismographic data from different observatories to pinpoint the geological sources of most earthquakes. What remained was to develop an objective measure of the absolute magnitude, or source strength, of an earthquake.


In 1935, Charles F. Richter developed an enthusiastically accepted procedure and numerical scale for assigning earthquake magnitudes on his Richter Scale. An earthquake's Richter magnitude is determined by reading the maximum ground motion recorded by a seismograph, adjusting this value to reflect a "standard" distance from the source (100 km), correcting for any peculiar characteristics of the particular instrument used, then using a mathematical formula to relate the result to a logarithmic numerical scale. rscale The figure shows the basic relationship in graphical form. The Richter Scale has no top or bottom but can generally be considered to run from 0 to 9. Each increase of 1 on this scale represents a factor of 10 times the ground-motion amplitude, and an increase of 2 represents a factor of 10 x 10, or 100. For example, at a distance of 100 kilometers from the source, a magnitude 8.3 earthquake generates 10 times the shaking amplitude of a magnitude 7.3 earthquake. Similarly, a magnitude 5.6 earthquake shakes the ground with only 1/100 the amplitude of a magnitude 7.6 event. Although these comparisons technically apply only at the standard 100-kilometer distance from the source, until quite recently they were usually treated as a measure of the energy released at the source itself.


Earthquakes, it turns out, can differ greatly in many respects: The physical source can be deep or shallow; the source can be a large slip in a concentrated region of a fault or a smaller slip over a more extended region; the source might release greater portions of its energy in shorter--or longer--period waves; and so on. For this reason, it soon became apparent that a single Richter Scale did not give an honest comparison of the energy released in all types of earthquakes. Although it remains common practice to use the Richter magnitude (designated ML) for moderate-sized local earthquakes, a better measure for larger earthquakes seems to be the moment magnitude (MW), which involves a series of different seismographic measurements and a somewhat more involved calculation. These two scales often disagree; the 1964 Alaskan earthquake, for instance, had magnitude ML = 8.6 but MW = 9.2. Moreover, different seismographic observatories often report slightly different ML or MW scores for the same earthquake. It now appears that complete consistency in assigning earthquake magnitudes is probably an unrealistic goal, for when the natural phenomenon itself is inherently fuzzy and irreproducible, no amount of mathematical fiddling can be expected to force all of the data into agreement.

Future prospects

While these developments in earthquake measurement were taking place, seismologists also made considerable progress in mapping the interior of the earth by analyzing how seismic waves travel between distant parts of the globe. This research helped establish the theory of plate tectonics, which was on a fairly firm footing by the early 1960s and explained why earthquakes are more common in some regions than others. About the same time, researchers began to propose more detailed theories of the mechanisms that produce earthquakes. In 1962, Japanese seismologists adopted earthquake prediction as a formal goal, and in the United States, in 1977 the Earthquake Hazards Reduction Act established prediction as a formal objective of U.S. government-sponsored seismological research. Although to date progress toward this goal of predicting the time, location, and size of earthquakes has been disappointing at best, seismology is still a very young science, and only time will tell where continuing seismological research will lead.