You are on page 1of 10

Modelo Caracteristico

- Se distribuye uniforme o normal, pero en el rango de la magnitud característica, entonces,


el modelo característico, asume que la falla rompe primordialmente en una magnitud (un
rango de magnitudes, ya que la manera de calcular varía mucho entre evento y evento,
porque depende de los instrumentos que hayan tenido, donde están c/r a la superficie de
falla, etc.).
- No incluye eventos pequeños.

Uno popular es el modelo de Yang y Copersmith (1985)

Parte en m0 y termina en m_max,

Grafico

En términos de la distribución de probbilidades:

Ecuaciones

Ya sea de los parámetros que se necesitan para este modelo característico, que serían (betta,
deltam1 y deltam2, entendiendo que m0 viene del paso previo para completitud del catalogo, o
para los parámetros del modelo Guttenberg-Richter, la pregunta es ¿De donde sacamos los
parámetros?

una parte se saca de hacer equilibrio de energía, de la historia sísmica, ya sea del slip de los
terremotos, es decir, evidentemente la ley de recurrencia sale del pasado.
Se le ajusta una ley de Gtenberg. Richter, donde los datos son frecuencias de eventos para una
cierta magnitud

Grafico

Eje x, es m, que parte de mo, entonces, se ajustara una curva usando los datos medidos, tipo
Gutenberg-Richter, se ocupara la frecuencia en la que ocurre el mas chico, que será equivalente al
parámetro “a” de la Gutenberg-Richter y beta, será la pendiente, dependiendo de si esta en sacala
logarítmica o no. Para hacer ese ajuste, se utilizara maximia verosimilitud (max likilyhood)

*Repaso estadística, normalmente los ajustes a datos, sean hechos como minimos cuadrados y los
minimos cuadrados son buenos( calcular diferencia al cuadrado, y se modifican los parámetros de
la curva, tal que se minimice la suma de todas esas distancias al cuadrado), el problema es que
funciona bien solo si se tienen datos parejos en su rango muestreal, es decir, si se tienen los
mismos eventos en magnitud chica que en grande o la misma frecuencia en magnitud chica que en
grande. Ejemplo: si se tienen el mismo N° de eventos por país y se tiene una zona con muy alta
sismicidad, de lo cual puede ser que se mas sísmica o se tenga una red instrumental mucho mayor,
en todos esos casos, una regresión por minimos cuadrados, va a ser sesgada, ya que va a
sobreponderar los datos que se encuentran en la zona con mayor cantidad de datos.

Ejemplo:

Grafico
El mejor modelo de minimos cuadrados, será como en las líneas punteadas, porque minimiza las
distancias entre puntos, en cambio un modelo ajustado con máxima verosimilitud, no se ajustara
tan perfectamente a la zona con mas datos, pero va a reflejar mucho mas la física del problema.

(Hoja3)

Sabemos que el momento sísmico total será igual a la energia acumulada

Ec 1

Y la tasa en que se disipa esa energia, será igual a la tasa en que se acumula, por lo menos a largo
plazo.

Ec 2

Entonces, haciendo balance de energia:

Ec3

Energia acumulada, será igual al numero de eventos que son mayores que los que se puedan
registrar, por la integral de la PDF, que puede ser la del modelo característico o el modelo de
Gutenberg-Richter, por la energia disipada por cada evento.

Como se sabe cuánta energía se acumula?, se puede hacer este calculo, para mucho tiempo atrás
en la falla, porque el slip rate, se conoce por datos geológicos o de GPS, el área es el área del
contacto sismogenico y la rigidez, no es conocida, pero si se conoce toda la energia liberada para
eventos anteriores, entonces, se puede ocupar eso para estimar la rigidez, una vez hecho esto, se
vuelve a calcular con el slip rate para el tiempo de interés. Esto se hace para calcular los
parámetros de la ley de recurrencia.

Hay un monton de cosas que son todavía inciertas, que se hacen, pero no se conocen
perfectamente bien, las cosas que se conocen son las magnitudes de los eventos, los slip rate, el
área, la rigidez, es desconocida(lo mas razonable es considerar que es variable, por eso se tienen
aspereza, en algunas partes es mas rígido esa interfaz que en otras, en algunas partes incluso hay
deslizamiento asísmico, es decir, no hay temblores, pero hay deslizamiento.

Esto asume que el deslizamiento es sísmico y el otro supuesto es que la tasa de deslizamiento es
constante, al menos en el periodo que se esta considerando para la base de datos.

Grafico
Si se hace equilibrio de energia en fallas que se tienen bien caracterizadas, entonces, el modelo
característico, debería ser capaz de modelar mejor esa recurrencia, el efecto es que al hacer
balance de energia, si se tiene mejor caracterizada la falla, se van a generar eventos de magnitud
máxima distinta, por ejemplo si no es capaz de generar terremotos como los de la derecha, mas
bien como los de la izquierda, entoces significa que su parámetro N(m0) va a ser función del
parámetro betta

Ec(4)

En la tarea, se debe hacer una de estas, lo que no se ha visto es como hacer el análisis de los datos
previos, como filtrarlos para que sea utilies, una cosa es desagregar, es decir, separar todos los
que son replicas y precursores de los eventos principales y realizar la completitud del catallogo,
que tiene que ver con hasta que magnitud, por abajo tenemos el catalogo completo, porque los
eventos grandes siempre están bien registrados, es decir un evento de 9,5 losregistran todos los
instrumentos sísmicos del mundo, pero si se tiene eventos de magnitud chica y no hay
instrumentos cerca o no lo registra o los confunde con otro tipo de señales, entonces, se tendrá un
rango de año en el que esta completo, por ejemplo, si se hace para eventos entre 8 y 9, se tendrá
un rango completo entre 1920-2018, pero para eventos entre3-4 sera para 2005-2018, porque los
grandes siempre se registran, en cambio los eventos mas chicos no y están bien registrados, desde
que tenia una raíz instrumental los suficientemente cerca.

Entonces los métodos para determinar ese rango, son estadísticos y básicamente descansan en la
ley de Gutenberg-Richter, si están bien registrados, entonces, a medida el grafico debería ser una
recta, si la curva se acuesta un poco, quiere decir que no se tienen todos los eventos registrados,
la tasa no puede disminuir para momentos mas chicos (supuesto). Recordar que esto es una tasa
anual, por lo que no importa entre que rangos este completo, lo que si importa es que si se toma
un rango mas grande que no esta completo entonces, se estará considerando una frecuencia
equivocada.

Grafico de completitud
DSHA:

Grafico de riesgo sísmico

Cuando se tiene un problema de peligro sísmico, se tiene distintas formas de verlo, pero, hay que
diferenciar entre cosas que influyen una de ellas es la amenaza(hazard) otro es la exposición,
porlo que si no hay estructuras o personas o no hay bienes materiaes que proteger, entonces no
hay riesgo, por ultimo, esta la vulnerabilidad, si la estructuras son mas o menos resistentes a una
cierta demanda sísmica. Entoces, la interfaz entre estas 3, es el riesgo.

Es importante decir, que se diseña para un parámetro de intensidad, no para un terremoto (Mw),
es decir, si se quiere decir que se diseña para un hormigón resista un cierto momento flector o que
una estructura resista un cierto drift, pero si se quiere diseñar para un terremoto 9, no se puede
hacer, por lo que se debe diseñar para un parámetro de intensidad

Lo mas sencillo para hacer un análisis determinístico, que de hecho es en lo que se basan la
mayoría de las normas chilenas.

Análisis determinístico

4 Pasos

1.- identificar fuentes y caracterizarlas (todas, Hay veces que la magnitud no es el parámetro
principal).

2.- Seleccionar la distancia R de cada fuente

3.- Seleccionar una intensidad, asociada a un parámetro

-Seleccionar una probabilidad de excedencia (en análisis deteministico, igual se debe


seleccionar alguna probabilidad de excedencia, osea puede ser el valor medio, mediana,
percentil 84(media mas 1 desviacion estándar)

-Predecir la intensidad, con esa distancia, con esa probabilidad de excedencia, con las
características del sitio y de la fuente caracterizada.
4.- Definir el evento que controla la demanda sísmica como el que genera mayor intensidad, y en
función de esto, se define la demanda, pero no solo en el paramtro seleccionado, si no, la total.

Lo que se hace es encontrar el escenario máximo.

Generalmente los eventos que se toman en cuenta, son en un radio de 300 km aprox, eventos
inter e intraplaca y los corticales.

Hoja3 (5)

Ejemplo

Se escoge PGA como el parámetro que controla la demanda sísmica y se escogerá el percentili 84
para su análisis.

Se ocuparan en todos los casos la magnitud máxima de la fuente que se tengan cerca.

1- PGA(M=7;R=r1;sigma=1)=0,3
2- PGA(M=6;R=r2;sigma=1)=0,32
3- PGA(M=9;R=r3;sigma=1)=0,15

Sigma=1 significa 1 desviacion estándar (N° de desviciones)

lnPGA=aMw+bR+delta

Grafico PDF

En la media, delta=0, delta=1 linea segmentada derecha.

¿Por qué se ocupa 1 deviación estándar y no el valor medio? Se tiene en el eje y probabilidad y en
el eje x, el valor de intensidad, en este caso, PGA, entonces, la probabilidad mas alta o la
esperanza, de esta variable aleatoria, estará en la mediana, pero el valor mas alto de intensidad,
estará mucho más hacia la derecha del gráfico, es decir, a muchas desviaciones estándar. En el
análisis determinístico, se debe tomar una decisión de que valor predecir, si se compara con el
analisis probabilístico, este considera una probabilidad de excedencia en un periodo de tiempo
dado, por lo que se tiene un pedazo de la cola bien definido, el valor de la cola, nose puede
comparar directamente con el valor medio del análisis determinístico, ya que siempres serán
valores de intensidad menores, es decir, se estarían comparando escenarios con probabilidad de
excedencia muy diferentes

Entonces, se realiza una decisión arbitraria, de agregar 1 sigma, para obtener el valor de PGA, para
los casos del ejemplo.

Se observa que el segundo, de magnitud mas chica, es el evento que controla, generado un
PGA=0,32, ya que no solo importa la magnitud, también la distancia y la desviación estándar.

Despues de esto, se debe definir la demanda total, es decir, el espectro de diseño, será:

Grafico Sa vs T

Donde el PGA (a T=0) es 0,32 y se ajusta un espectro a este valor, por ejemplo de Newmark-Hall,
basado en ASC7 2016, que tiene formulas, dependientes de PGA. El valor del plató, es aprox
2,5PGA (revisar valor) en este caso,2,5 x 0,32=0,8. (Si se consideran muchos espectros, los cuales
se normalizan por PGA (se divide por PGA), para que partan de 1, se obtiene un plató de 2,5.

Grafico múltiples espectros, plató 2,5


Probabilistic sesimic hazard analysis

- En este método, se consideran todos los escenarios.


- Se calcula la tasa media de excedencia anual, nu(1/año) en la que cada IM es excedida

Grafico curva de peligro

Este es un paso previo al espectro.

Se puede asumir cualquier ley de recurrencia, por ejemplo, Gutenberg-Richter. (se vera mas
adelante, que en gral, se asumirá mas de una ley de recurrencia, aunque se seleccione una, como
Gutenberg- Richter, existirán varias posibles soluciones para ajustar los datos, porque se ocupo un
algoritmo cualquiera para hacer desagregacion, pero hay otro algoritmo para esto, por lo que se
deben usar ambos, que van a dar datos distintos, y por lo tanto, parámetros de Gutenberg Richter
distintos, lo que afectara importantemente al resultado final. Y se suma a que al hacer balance de
energia, para obtener la magnitud máxima, existe duda)

Se asume distribución poisson de estos eventos.

P[IM>a| en T años]=1-e^(-nu*t)

El resultado final de la tasa media anual de excedencia del parámetro de intensidad, la


probabilidad de que ese parámetro de intensidad sea mayor a un valor cualquiera (a) en un
periodo T de años.

Por ejemplo, si se quiere que la probabilidad sea 10% y T=50 años.

0,1=1-e^(-50*nu) -- nu=0,0021 (tasa media anual de excedencia)

Si se cambia(a), a un numero mas grande o mas chico, se modifica la probabilidad.

Pro ejemplo, para una fuente dada, i


Se calculara la tasa media anual de que un parámetro de intensidad sea mayor a un valor (a), esto
será igual a la tasa de eventos mayores o iguales que la magnitud mínima(de la ley de atenuación),
multiplicado por la probabilidad de que A>a, dado que hay un evento con M>Mmin

nu(A>a)=lambdaMmin *P[A>a| M>Mmin]

Es decir, se multiplica por la probabilidad de que el parámetro de intensidad sea mayor a un cierto
valor (a), dado que ocurrió un evento de magnitud mayor que Mmin

Si se suman todas las fuentes

Sumatoria de fuentes  nu(A>a)=sumatoria(nui(A>a))

Es decir, se calcular como la tasa en la que el parámetro de intensidad supera un cierto valor para
todas las fuentes. Es decir, se suman tasas de excedencia, pero no probabilidades, si se suman
probabilidades, podrían dar que el parámetro de intensidade sea mayor que un cierto valor, se
mayor que 1, en cambio, si se suman tasas, esta puede ser >1, lo que significa, que se excede mas
de una vez por año, esta tasa se introduce en la ley de Gutenberg-richter y se obtendrá siempre un
valor menor que 1. Si nu es muy chico, la probabilidad de excedencia es aproximadamente nu.

Por lo tanto, si se suma el efecto de distintas fuente, lo que se suma es la tasa en que esto ocurre,
y la tasa en la que ocurre para su sitio, es la suma de las tasas que generan ese efecto en cada una
de las fuentes que afectan a sus sitio.

Si se tiene una falla que genere magnitudes chicas y esta lejos, la tasa en la que esa falla es capaz
de sobrepasar el parámetro de prueba (a), es chica, pero no 0, lo que quiere decir que en el
análisis probabilístico, se consideraran todos los escenarios, aunque sean poco probables, y con
recureencia chica, ya que de todas formas, puede ocurrir. En PSHA, se considerara esto en su justa
magnitud, es decir que esto puede ocurrir , pero un numero muy limitado de casos.

Lambda minimo, se obtiene de una ley de recurrencia, como Gutenberg-Richter por ejemplo, que
es la tasa de recurrencia de eventos de cierta magnitud. Lo que se necesita es calcular

P[A>a| M>Mmin]

Se tiene una ley de recurrencia

Grafico ley de recurrencia con discretizaciones


Se tomaran discretizaciones de 1 magnitud completa, que será igual si se toma de 0,1 de magnitud
u otra discretizacion mas chica, lo único que va a cambiar es la probabilida de ocurrencia es mas
chica. Entonces, en el grafico, se definirán A1, A2 y A3

P[5<m<6]=A1

P[6<m<7]=A2

P[6<m<7]=A3

Recordar que la probabilidad es la integral de la PDF o el área bajo la curva.

Se debe cumplir que A1+A2+A3=1

Esta no es un PDF completa, sino que esta truncada, es decir, es una PDF condicional, para esto, se
agranda la probabilidad hasta que de 1. De hecho, lo que se hará es obtener la PDF de los datos y
cuando se seleccionan las áreas, deben ser igual a 1, si no ocurre esto, se divide por el área total,
que dará un numero menor a 1, pero cercano, esto ocurre, porque se ignoran eventos chicos que
igual aportan energia. Sin embargo en el análisis, las probabilidades deben ser 1.

Entonces, la probabilidad de que un parámetro de intensidad A, sea mayor que un cierto valor de
prueba (a), dado que M>Mmin

P[A>a| M>Mmin]= P[A>a|5<m<6]*A1+ P[A>a|6<m<7]*A2+ P[A>a|7<m<8]*A3

Generalizando;

P[A>a| M>Mmin]=Sumatoria(P[Mi-deltaM-M<Mi+deltaM]*P[A>a|M=Mi,R=Ri]

Fm(m) GMPE

Esto también se puede escribir en formulación integral.

Esto, es una simplificacion, ya que en cada esceneraio, hay solo 1 distancia posible para cada
magnitud, esto esta bien en cierta medida, ya que una magnitud, esta asociada a un tamaño de
ruptura, el cual condicionara la distancia, sin embargo, se pueden tener iguales tamaños de
ruptura, en distintos lugares, lo que implica distancias distitas, lo que cambiaria la ecucacion,
agregando una sumatoria para Rj, es decir, para cada fuente, se consideran todas las pposibles
distancias.

Teorema de bayes, de probabilidad total, La probabilidad de que ocurra lo que se anda buscando
dado un cierto escenario multiplicado por la probabilidad de que ocurra ese escenario

You might also like