ANEXO 5.1.5-a.

BASES TÉCNICAS PARA EL CÁLCULO DE LA PRIMA DE RIESGO Y LA PÉRDIDA MÁXIMA PROBABLE PARA LOS SEGUROS DE TERREMOTO

 

La prima de riesgo y la pérdida máxima probable correspondiente a la cartera de pólizas en vigor de los seguros de terremoto, deberán calcularse mediante el procedimiento técnico e información que se indican a continuación.

PARTE I

DE LAS Bases técnicas para la determinación de la prima de riesgo y la Pérdida Máxima Probable de los seguros de terremoto.

Capítulo 1: Amenaza sísmica

1.Generalidades

La identificación de las amenazas que pueden afectar una región constituye uno de los primeros pasos en el análisis de riesgo. El conocimiento de las condiciones regionales de ocurrencia de eventos peligrosos, así como las características reportadas sobre eventos históricos, proveen una primera idea del potencial de los fenómenos que amenazan la región, y permiten conocer, de manera preliminar y aproximada, los periodos de retorno de los eventos más importantes.

El análisis de amenaza está basado en la frecuencia histórica de eventos y en la severidad de cada uno de ellos. La severidad se mide mediante parámetros de intensidad válidos para una ubicación geográfica específica. Una vez que se definen los parámetros de amenaza, es necesario generar un conjunto de eventos estocásticos que definen la frecuencia y severidad de miles de eventos, representando así la ocurrencia de la amenaza en la región.

Los avances actuales en el desarrollo y presentación de la información geográfica y georreferenciada permiten adelantos importantes en la visualización y entendimiento de las amenazas y de los eventos que las generan. El manejo de esta información por medio de capas en los Sistemas de Información Geográfica (SIG) permite la automatización de los procesos de cálculo de riesgo, así como una visualización ambiciosa y comunicación simple y ágil de resultados. Sin embargo, el cálculo de las capas de amenaza generalmente recae en programas especializados que no necesariamente son parte de los SIG.

El cálculo de la amenaza exige la generación de eventos estocásticos, cada uno con una frecuencia de ocurrencia definida, y que entre todos representen de manera adecuada las diferentes combinaciones de intensidad y ubicación geográfica de las posibles fuentes generadoras de amenaza. Se deben desarrollar modelos analíticos probabilistas para cada uno de los fenómenos naturales tales como sismo, huracanes, lluvias intensas, inundaciones, deslizamientos y volcanes, entre otros, y que la evaluación de cada amenaza se haga en términos de parámetros de intensidad que estén correlacionados con los daños observados.

Identificación de amenazas y análisis de información histórica

Para una adecuada caracterización de cada amenaza es necesario realizar un análisis exhaustivo de la información histórica y registros globales y de la región con relación a su ocurrencia y afectación. El objetivo es obtener una base de datos que nos permita determinar la frecuencia e intensidades observadas y generar curvas de intensidad-frecuencia. Para años y décadas recientes existirá en general información más confiable e instrumental, y para periodos más largos contaremos con información histórica que nos permite al menos fijar algunos parámetros de recurrencia de los eventos de mayor intensidad.

Análisis probabilista

El objetivo principal del análisis probabilista de amenazas es proporcionar la información necesaria para calcular el riesgo con incertidumbres para diferentes periodos de retorno. El cálculo de la amenaza se basa en eventos que siguen la distribución de intensidad-frecuencia observada. Para cada uno de los peligros se construye un conjunto de escenarios estocásticos cada uno de ellos calificado con su frecuencia y severidad con base en la mejor información disponible al igual que en la opinión general de expertos de cada campo.

Como resultado de la evaluación completa de cada amenaza se obtiene una base de datos (resultados) que contiene todos los posibles escenarios de esta amenaza y que son mutuamente excluyentes y colectivamente exhaustivos.

Sismicidad mundial

Los sismos se definen como el proceso de liberación súbita de energía mecánica acumulada dentro de la corteza terrestre a lo largo de largos periodos de tiempo. Su efecto inmediato es la transmisión de la energía liberada en el punto de origen del sismo o foco al terreno circundante mediante vibración.

La amenaza sísmica de una región determinada depende de un gran número de variables, algunas de las cuales son difíciles de cuantificar. Sin embargo, se han desarrollado modelos que permiten estimar las variables involucradas en el cálculo de la amenaza sísmica, lo cual permite dar un tratamiento científico al problema.

2.Actividad sísmica en México

México es uno de los países del mundo con mayor actividad sísmica. Según datos estadísticos, se registran más de 90 sismos por año con magnitud superior a 4 grados en la escala de Richter, lo que equivale a un 6 por ciento de todos los movimientos telúricos que se registran en el mundo. Durante el siglo XX se presentaron sismos de elevada intensidad en cada una de las décadas que han causado daños materiales considerables y de número de muertos. Se citan a continuación los de mayor intensidad y que han causado mayor número de víctimas fatales. La Figura 2 muestra las zonas donde ocurren los sismos en México.

 

 

 

En México, el Eje Neovolcánico no es paralelo a la trinchera. Esto es algo anormal en comparación con otras zonas de subducción en el mundo y es muy probable que se deba a la morfología de la placa de Cocos. Gracias a los esfuerzos de varios investigadores ha habido un avance significativo en el conocimiento de la morfología de la placa subducida bajo el continente (Singh et al., 1985b; Suárez et al., 1990; Ponce et al., 1992; Singh y Pardo, 1993; Pardo y Suárez, 1993, 1994). Las evidencias sugieren una subducción con un ángulo de ~45° en Jalisco (Figura 4a), casi horizontal en Guerrero (Figura 4b), con un ángulo de ~12° en Oaxaca y de ~45° en Chiapas. El contorno de los 80 a 120 km de profundidad de la zona de Benioff aproximadamente coincide con la línea de los volcanes. Existe una evidencia, aunque no definitiva, que la placa continental entre la costa grande de Guerrero y el Valle de México está en un estado de esfuerzo tensional, contrariamente a lo esperado (Singh y Pardo, 1993).

 

3.Cálculo de la amenaza sísmica

El cálculo de la amenaza sísmica emplea las definiciones y métodos presentados anteriormente, para establecer el nivel de peligro esperado en un sitio o zona determinada, bajo la influencia de la actividad sísmica de fuentes aledañas identificadas. Históricamente los ingenieros, geólogos y sismólogos se han preocupado por desarrollar metodologías de cálculo que representan cada vez mejor el comportamiento de las fuentes, el tránsito de las ondas dentro del medio rocoso, la respuesta de los suelos y la respuesta estructural en el sitio de interés. De esta manera, es posible identificar dos metodologías primordiales de evaluación de amenaza, que engloban los esfuerzos realizados en el pasado en diferentes estudios en el ámbito mundial.

Análisis determinista de amenaza sísmica

Durante muchos años el análisis determinista de amenaza sísmica (Deterministic Seismic Hazard Analysis DSHA) fue la herramienta primordial de la ingeniería sísmica para la evaluación de la amenaza en una zona determinada. El uso del DSHA implica la definición de un escenario particular, en el cual se basa la estimación del movimiento del terreno y los efectos secundarios relacionados. El escenario se define como un sismo de magnitud conocida, el cual sucede en un sitio determinado. Los pasos a seguir, para llevar a cabo un DSHA, son:

1.Caracterización de las fuentes generadoras de terremotos con influencia en el sitio de análisis. Se requiere definir cada fuente en términos de su geometría y sismicidad.

2.Selección de la distancia de la fuente al sitio. Generalmente se toma la menor distancia existente entre la fuente y el lugar de análisis.

3.Selección del sismo de análisis, el cual representa de la mejor manera el potencial sísmico de la fuente en consideración, en términos de la intensidad en el sitio bajo estudio. Se debe escoger a partir de comparación de los niveles de intensidad generados por sismos históricos de la región, o de otras regiones con características neotectónicas similares, de tal manera que sea posible definir una magnitud del sismo de análisis para las distancias anteriormente definidas.

4.Selección de las funciones de atenuación que permitan caracterizar completamente la amenaza en el sitio. Según el alcance del análisis se requerirán funciones de atenuación de aceleración, velocidad, desplazamiento, componentes espectrales de los anteriores parámetros, duración, o cualquier otro parámetro.

El DSHA indica el peor caso posible del efecto sísmico en el sitio de análisis. Cuando se emplea el DHSA para la evaluación de la amenaza en estructuras primordiales, puede estimarse la mayor intensidad que puede afectar dichas estructuras. Sin embargo, no se toma en cuenta cuál es la probabilidad de ocurrencia de ese evento, si es probable o no que ocurra en el sitio escogido, qué tan probable es que suceda a lo largo de un período determinado, ni cuál es el grado de incertidumbre asociado a las variables involucradas en el problema.

En general, el análisis determinista no se emplea ni se recomienda como herramienta única del análisis de la amenaza sísmica. Puede ser usado principalmente como herramienta de calibración de modelos más refinados, siempre y cuando se cuente con información histórica suficiente, o para el análisis retrospectivo de eventos históricos específicos.

Análisis probabilístico de amenaza sísmica

En la últimas décadas se ha desarrollado el enfoque probabilístico en los análisis de amenaza sísmica, con el fin de involucrar de manera analítica la incertidumbre asociada con las variables que intervienen en el peligro sísmico de una región. Parámetros como la frecuencia de ocurrencia de determinado sismo, la probabilidad de que ocurra en un sitio específico, probabilidades de excedencia de intensidades sísmicas, etc., son incluidos en los modelos de cálculo, para conformar un análisis probabilístico de amenaza sísmica (PSHA por sus siglas en inglés). Los pasos a seguir para llevar a cabo un PSHA son:

1.Caracterización de las fuentes generadoras de terremotos con influencia en el sitio de análisis, en términos de su geometría y distribución de probabilidad de puntos de inicio de la ruptura en el área de falla definida. Es usual asumir una distribución de probabilidad uniforme, lo cual implica que la ocurrencia de sismos se espera con igual probabilidad en cualquier lugar de la geometría de fuente definida. Determinación de la sismicidad de las fuentes consideradas, a partir del registro histórico de eventos ocurridos sobre la geometría anteriormente definida (catálogo sísmico), y de información y estudios de neotectónica y paleosismología para la fuente. La sismicidad se establece por medio de una curva de recurrencia de magnitudes, la cual es una relación específica para cada fuente, que indica cual es la tasa de excedencia de una magnitud sísmica particular.

2.Selección de las funciones de atenuación que permitan caracterizar completamente la amenaza en el sitio. Según el alcance del análisis se requerirán funciones de atenuación de aceleración, velocidad, desplazamiento, componentes espectrales de los anteriores parámetros, duración, etc. Debe involucrarse la incertidumbre asociada a la estimación de los parámetros, generalmente indicada en cada modelo de atenuación.

3.Finalmente se combinan las incertidumbres asociadas a localización, tamaño y atenuación y se obtiene una curva de amenaza, la cual indica la probabilidad que una intensidad específica sea igualada o excedida en un periodo de tiempo determinado.

Herramientas computacionales existentes

Existe una diversidad de herramientas computacionales y aplicaciones en software para la evaluación de la amenaza sísmica. La mayoría de esta aplicaciones se basan en modelos de amenaza probabilística (PSHA), brindando diferentes utilidades en términos de definición de fuentes sísmicas, sismicidad y relaciones de atenuación de movimiento fuerte. La Tabla 1 presenta algunos ejemplos de los principales sistemas existentes y en el Anexo CRISIS se presenta el manual de uso de este sistema elaborado en la UNAM.

Tabla 1 Algunas herramientas computacionales

Programa

Descripción

Método de cálculo

Referencia

EZ-FRISK

Programa de cálculo para estimar amenaza sísmica, respuesta local, manipulación de señales sísmicas, obtención de señales consistentes con espectros de respuesta determinados. Cuenta con archivos predeterminados de fuentes sísmicas, sismicidad y atenuación.

- Amenaza sísmica: PSHA

- Respuesta local de suelos: Método lineal equivalente

Risk Engineering Inc.

http://www.ez-frisk.com

HAZUS-MH

Programa de cálculo de riesgos por diversas amenazas naturales (Sismo, Huracán, Inundación)

PSHA

FEMA

http://www.fema.gov
/plan/prevent/hazus/

OpenSHA

Sistema en código Open Source para el cálculo de amenaza sísmica.

PSHA

USGS- SCEC

http://www.opensha.org/

CRISIS2007

Sistema para la integración de la amenaza sísmica en una zona determinada. Permite la definición de fuentes, sismicidad, atenuación y sitios de análisis.

PSHA / DSHA

Instituto de Ingeniería. UNAM

 

 

Procedimiento de análisis

 

Los pasos de la metodología utilizada en el modelo de amenaza sísmica son los siguientes:

 

  1. Definición y caracterización de las fuentes sismogénicas principales: a partir de la información geológica y neotectónica se define la geometría de las fuentes sismogénicas.

 

  1. Asignación de parámetros de sismicidad a las diferentes fuentes sísmicas: con base en el catálogo sísmico histórico se asignan los parámetros de sismicidad a cada fuente.

 

(3)Generación de un conjunto de eventos estocásticos compatible con la distribución de ubicación, profundidad, frecuencias y magnitudes: a partir de toda la información anterior, se genera un conjunto de eventos sísmicos por medio de un muestreo basado en división recursiva de la geometría de las fuentes, y se asignan parámetros de sismicidad a cada segmento de manera ponderada según su aporte de área en el área total. Para cada segmento se generan una serie de escenarios de diversas magnitudes, cuyas probabilidades de ocurrir se calculan a partir la curva de recurrencia de magnitudes específica de esa fuente.

 

  1. Modelo de atenuación de parámetros de movimiento del terreno: se seleccionan las leyes de atenuación que mejor representen las condiciones del movimiento entre las fuentes y los sitios donde se calcula la amenaza, ya sean leyes existentes en la literatura o creadas con información y datos locales.

 

  1. Generación de mapas de amenaza de eventos representativos: se generan los mapas de distribución espacial de intensidad sísmica (valores espectrales) para cada evento.

 

  1. Amplificación de parámetros de amenaza por efectos de sitio: la respuesta dinámica de depósitos de suelo modifica las características del movimiento en amplitud, contenido de frecuencias y duración. El efecto de amplificación y deamplificación de la intensidad por efecto de los depósitos de suelo blando superficiales se cuantifica por medio de cocientes de espectros de respuesta de manera que modifican directamente los mapas calculados en el paso (5).

 

(7)Aplicación del modelo probabilístico de amenaza sísmica: obtención de mapas de amenaza sísmica para diferentes periodos de retorno.

Integración espacial

Para realizar la integración espacial, el programa CRISIS asume que, dentro de una fuente, la sismicidad está uniformemente repartida por unidad de área. Para considerar correctamente esta suposición, se realiza una integración espacial subdividiendo las fuentes originales por medio de una función recursiva. Una vez divididas en subfuentes, la sismicidad asociada a cada subfuente se asigna a un punto, y la integración espacial adopta la forma de una suma. Las fuentes son polígonos en tres dimensiones. Primero, el área se divide en triángulos, y estos triángulos se siguen subdividiendo hasta que se llega a cualquiera de las dos siguientes condiciones:

1)El tamaño del triángulo es más pequeño que un valor dado, el “tamaño mínimo del triángulo”. Esto es, el triángulo se subdivide si es demasiado grande.

2)El cociente de la distancia fuente a sitio y el tamaño del triángulo es mayor que el cociente “Distancia Mínima/Tamaño del Triángulo”. En otras palabras, el triángulo se subdivide si el sitio no está suficientemente lejos.

Nótese que las fuentes están modeladas como áreas y no como líneas. Esto se debe a que la zona de subducción en México tiene un contacto entre las placas de entre 80 y 120 km, por lo que las fuentes modeladas como áreas representan mejor la sismicidad.

 

Atenuación de los parámetros de amenaza

Una vez determinada la tasa de actividad de cada una de las fuentes sísmicas, es necesario evaluar los efectos que, en términos de intensidad sísmica, produce cada una de ellas en un sitio de interés. Para ello se requiere saber qué intensidad se presentaría en el sitio en cuestión, hasta ahora supuesto en terreno firme, si en la fuente ocurriera un temblor con magnitud dada. A las expresiones que relacionan magnitud, posición relativa fuente-sitio e intensidad sísmica se les conoce como leyes de atenuación. Usualmente, la posición relativa fuente-sitio se especifica mediante la distancia focal, es decir, la distancia entre el foco sísmico y el sitio. Las leyes de atenuación pueden adoptar formas muy diversas. En este caso se utilizan diversas leyes de atenuación dependiendo del tipo de sismo. Como se verá más adelante, se considera que las intensidades sísmicas relevantes son las ordenadas del espectro de respuesta , (pseudoaceleraciones, 5% del amortiguamiento crítico), cantidades que son aproximadamente proporcionales a las fuerzas laterales de inercia que se generan en las estructuras durante sismos.

 

El cálculo de la intensidad sísmica no puede considerarse determinista puesto que tiene incertidumbre. Por esta razón, se supone que la intensidad sísmica es una variable aleatoria de distribución lognormal con mediana dada por la ley de atenuación y desviación típica del logaritmo natural igual a , como se aprecia en la Figura 8.

 

En este trabajo se clasifican las fuentes sísmicas en dos grupos: fuentes activas o intraplaca y fuentes de subducción. A cada uno de estos tipos de fuentes está asociada una ley de atenuación diferente. Se utilizan leyes de atenuación espectrales que toman en cuenta el hecho de que la atenuación es diferente para ondas de diferentes frecuencias, con lo cual es posible calcular el espectro de respuesta esperado dadas una magnitud y una distancia. Las siguientes son las leyes de atenuación adoptadas:

 

  1. Temblores costeros. Se utiliza, para la aceleración máxima del terreno provocada por temblores generados en la costa sur del Pacífico, la ley de atenuación de Ordaz et al. (1989). Esta ley fue construida a partir de numerosos registros de aceleración obtenidos por la Red Acelerográfica de Guerrero, que incluyen los del gran temblor del 19 de septiembre de 1985. La relación entre la aceleración máxima del terreno y las ordenadas del espectro de respuesta a otros periodos se obtiene del modelo teórico de fuente y trayecto reportado por Singh et al. (1989).

 

  1. Temblores de profundidad intermedia. Se emplea en este caso un modelo de atenuación desarrollado por García et al. (2005). Esta fue construida de 16 sismos con magnitudes que se encuentran entre 5.2 y 7.4 y profundidades entre 35 y 138 km (Figura 9).

 

 

 

  1. Temblores superficiales. Para modelar la atenuación de los temblores superficiales, tanto los que ocurren en el Eje Neovolcánico como los que se presentan en la parte noroeste del país, se utilizan leyes de atenuación construidas con datos registrados en California (Abrahamson y Silva, 1997).

 

4.Temblores costeros afectando la zona firme del Valle de México. Se sabe que aun el terreno firme del Valle de México está afectado por amplificaciones debidas, casi seguramente, a la constitución del subsuelo profundo de la cuenca. Esto hace que no exista propiamente “terreno firme” en el D.F., por lo que es necesario modelar la atenuación de las ondas de una manera específica. Para ello se utilizan las leyes de atenuación de Jaimes et al. (2006) construidas con datos registrados exclusivamente en la estación Ciudad Universitaria de la Ciudad de México durante la ocurrencia de temblores costeros.

 

A manera de ejemplo, en la Figura 10 se muestran dos grupos de curvas de atenuación para periodos estructurales de 0.0 y 1 segundos. Las curvas superiores corresponden a sismos de mayor magnitud que las curvas inferiores. En cada gráfica se aprecia el efecto de la magnitud del sismo y es claro que sismos pequeños son poco eficientes para generar ondas de periodo largo.