Por Andrew Chernin y Francisca Jara Febrero 25, 2011

Descubriendo los idiomas del subsuelo

Había pasado casi un año, pero todavía mirábamos el suelo sintiendo que algo pendiente podía quedar ahí. Un sismo, un sacudón, o esa gran réplica que nunca había reventado. Entonces sucedió algo que vino desde muy lejos para confirmar esa cuota que quedaba de duda. El miedo, como en los mejores guiones apocalípticos, se presentó justificado por la ciencia.

Desde el Instituto Nacional de Geofísica y Vulcanología en Roma (INGV), un experto que corría con el nombre de Stefano Lorito había publicado en la revista Nature Geoscience del 30 de enero de 2011, junto a otros autores, un paper que advertía que después del terremoto chileno del 27 de febrero de 2010, aún quedaba suficiente energía en el Maule para que la tierra se moviera a un ritmo de 7.5 grados en la escala de Richter. La explicación, a grandes rasgos, era que la falla se habían desplazado hacia el norte, a una zona que ya había sufrido un terremoto en 1928, y hacia el sur, donde la energía que había acumulado la tierra ya había estallado en 1960. En el Maule, en cambio, la falla no se movió mucho. Y eso sólo podía significar que incluso después del 8.8, en esa zona seguía habiendo tensión postergada.

John McCloskey, que es un profesor de la Universidad de Ulster, en Irlanda del Norte, fue coautor de ese paper con Lorito. Y antes que todo, se apura en decir que ese terremoto 7.5 es sólo el peor de los escenarios.

"Con la gente del INGV -dice-, hemos estado trabajando en una técnica donde medimos los movimientos del suelo, pero también usamos los registros de la ola del tsunami. Combinando estos dos obtienes una fotografía que muestra lo que está sucediendo debajo del mar y de la tierra. Y eso te entrega más habilidad para resolver mejor el tema del deslizamiento, para saber qué ocurrió en distintos lugares dentro del mismo terremoto".

"Medimos los movimientos del suelo, pero también usamos los registros de la ola del tsunami. Combinando estos dos obtienes una fotografía que muestra lo que está sucediendo debajo del mar y de la tierra", dice John McCloskey, de la Universidad de Ulster.

Esas técnicas de las que habla McCloskey, donde se integran GPS y radares satelitales, están entregando una suerte de nuevo estándar para la sismología. Porque, y éste quizás es el gran mérito del paper de Lorito, nunca antes se había propuesto una tesis sobre desplazamiento de fallas donde se integrara tanta información. Entonces, más que el descubrimiento de una nueva verdad sismológica, lo que hay es esto: muchos datos que necesitan ser analizados y comparados con los siguientes terremotos que se produzcan para establecer patrones. La lectura subterránea, si se quiere, es que a partir de ahora la ciencia podría empezar a entender los ritmos y el idioma de las placas del subsuelo.

Porque ahora, después de recolectar la información que pasa por los computadores de especialistas en todo el mundo, se dan inconsistencias teóricas como que hasta el 27/F se pensaba que donde el acoplamiento de las placas era bajo, no se obtenía un deslizamiento grande. Pero en Chile, el deslizamiento de las placas más grande sucedió en lugares donde el acoplamiento solamente era moderado. McCloskey explica la consecuencia de esto: "Antes pensábamos que si podías mapear los lugares donde la energía está siendo completamente acumulada, podías predecir dónde sería la próxima gran liberación de energía. Después de lo que aprendimos en el terremoto del Maule, la cosa no es tan así".

"Antes pensábamos que si podías mapear los lugares donde la energía está siendo acumulada, podías predecir dónde sería la próxima gran liberación de energía. Después de lo que aprendimos en el terremoto del Maule, la cosa no es tan así", agrega McCloskey.

Mientras todo esto pasaba en Europa, en Chile también se escribían capítulos del libro de las lecciones del 8.8.

"Este terremoto del 27 de febrero", dice el sismólogo de la Universidad de Chile Sergio Barrientos, "genera, con su réplica del 11 de marzo, la activación de una falla en Pichilemu, un lugar donde no se sabía que existía una falla".

En Chile, explica Barrientos, estamos acostumbrados a que las zonas de riesgo estén donde hay contacto entre las placas. Pero la réplica del 11 de marzo ocurrió dentro de la placa sudamericana. Él lo expresa de manera simple, pero inquietante: "Hay algo muy raro".

Algo, una verdad geológica quizás, que ha permanecido oculta. Algo que sólo ahora nuestra ciencia se está preparando técnicamente para entender. Y, finalmente, una sospecha incómoda. En Chile, tal vez, el suelo sigue caliente.

Chile, el gran laboratorio natural

Aquí se construye

El remezón fue en las oficinas de ingeniería. Había ocurrido un hecho inédito en Chile: habían muerto personas en edificios construidos por ingenieros. Equipos de estructurales y geotécnicos comenzaron a constituirse para estudiar lo que había pasado.

La gran pregunta: ¿Por qué se produjeron daños tan graves?  La respuesta no estaba en los libros; había que ir a buscarla a terreno. De ella surgieron varias lecciones a la hora de construir en el mundo post 27/F.

La primera: hay que considerar el efecto Doppler. El ingeniero sísmico Rodolfo Saragoni viajó hasta las localidades afectadas para estudiar el comportamiento de los edificios de altura. Y llegó a la conclusión, junto al equipo del Departamento de Geofísica de la Universidad de Chile, que la norma de emergencia no tomaba en cuenta los terremotos "de campo lejano". Es decir, los que ocurren lejos de la ciudad. Como pasó con Santiago.

La inquietud de estos expertos se arrastraba desde el 2007 con el terremoto de Pisco, Perú. Ese evento dañó estructuras en ciudades lejanas, como Lima. Algo no cuadraba: nunca habían visto una onda sísmica que viajara de sur a norte. El 27 de febrero de 2010 comprobaron en terreno que eso era posible.

El sismo se "rompió" hacia el norte, de manera que los edificios que estaban más lejos recibieron ondas menos graves (en cuanto a frecuencia) -las que son más destructivas para los edificios altos- que aquellos que estaban más cerca del epicentro. "Los edificios son como las radios: tienen una frecuencia que recibe las señales. Si la señal que manda el terremoto coincide con la frecuencia del edificio, éste tiene problemas. A esto se le llama efecto Doppler", explica Saragoni sobre la conclusión que fue publicada en la revista norteamericana "The structural design of tall and special buildings" de este año.

"Los edificios son como las radios: tienen una frecuencia que recibe las señales. Si la señal que manda el terremoto coincide con la frecuencia del edificio, éste tiene problemas. A esto se le llama efecto Doppler", explica Saragoni.

La segunda gran lección tiene que ver con el movimiento vertical del sismo, registrado en las 40 estaciones de monitoreo que estaban instaladas el 27/F, que tampoco se consideró en la norma. En experiencias sísmicas anteriores, el movimiento horizontal siempre era mayor. Por lo mismo,  la norma no lo había evaluado. Sin embargo, en éste el pulso vertical fue más importante, y en algunos puntos mayor al horizontal.

La teoría de Saragoni y su equipo es que este pulso habría colaborado al daño de los edificios altos. Una evidencia de ello fue la caída de un ala -una barra estética al costado- en la torre Titanium, como confirman en la oficina que se encargó de sus cálculos, Alfonso Larraín y Asociados. "Cuando tienes elementos volados como los balcones, por ejemplo, si los mueves horizontalmente no pasa nada, porque sólo están apoyados. Pero con la componente vertical empezaron a saltar, se corrieron y se cayeron", explica Jorge Flores, ingeniero estructural de esa oficina.

Esto implicaría que ambos movimientos están acoplados y que ya no se puede considerar sólo la componente horizontal, como se hace normalmente. Los aisladores sísmicos actuales no resuelven este problema. Por ello, en Japón e Italia ya se están desarrollando aisladores tridimensionales que sí lo hagan.

Otra lección valiosa se relaciona con la calidad del hormigón. La torre Titanium fue uno de los edificios altos que lograron soportar el terremoto sin mayores daños, lo que se atribuyó a un excelente cálculo. Pero también fue el primer edificio del país que se construyó con H-60, un hormigón de alta resistencia, que soporta hasta 600 kilos por cm2. "En Chile, sólo usábamos hasta el H-40. Pero el Titanium fue construido con  H-60 y eso nos permitió comprobar que el material se comportó bien", dice Jorge Flores, quien trabajó en esa obra.

En experiencias sísmicas anteriores, el movimiento horizontal siempre era mayor. Por lo mismo la norma no lo había evaluado. Sin embargo, en éste el pulso vertical fue más importante, y en algunos puntos mayor al horizontal.

Fue justamente esa experiencia la que también les permitió corroborar que la manera de analizar el material era la correcta. "La norma de hormigón armado no te dice 'si tiene un edificio de 50 pisos, use H-60'. Te dice, 'si el hormigón es de cierta calidad, calcula los parámetros de esta forma'", cuenta Flores. Y el cálculo, que no se había realizado antes, fue exitoso.

Finalmente, otro gran aprendizaje dice relación con la necesidad de clasificar mejor el tipo de suelo. El día del terremoto hubo sectores, como Ciudad Empresarial, que presentaron 1 ó 2 grados de diferencia en la escala de Mercalli. Con eso surgió la duda respecto de la correcta clasificación de los suelos.

Una prueba de ello fue el fenómeno que se presentó desde las costas de Viña del Mar hasta Lebu, y que se conoce como "licuación". "Con las vibraciones, la arena se asienta, entonces necesita juntar los granos, pero entre ellos hay agua. Esto hace que el agua tenga que salir expulsada hacia arriba. En ese instante todo el suelo se transforma en un líquido. Es como que el suelo estuviera en ebullición", afirma Esteban Sáez, profesor del Departamento de Ingeniería Estructural y Geotecnia de la Universidad Católica. Esto provocó que algunos edificios que "flotaron" durante ese instante quedaran inclinados.

La licuación fue el tema principal del Congreso Internacional de Geotecnia que se realizó el pasado 10 de enero en el hotel Sheraton, al que asistieron especialistas de Japón y EE.UU. Ahí se presentaron bases de datos de otros países intentando dar  luces para llegar a un nuevo parámetro global de clasificación.

Chile, el gran laboratorio natural

Un tsunami modelo

El científico ruso Vasily Titov, experto en tsunamis del Pacific Marine Environmental Laboratory (PMEL), dice que lo anima una meta clara. "No podemos evitar que ocurran", dice  desde su oficina en Seattle, "pero sí que mueran personas".

Durante su doctorado en la USC en California, Titov trabajó junto a su profesor guía, Costas Synolakis, en un  modelo de predicción de comportamiento de un tsunami en el Pacífico. El Method of Splitting Tsunami (MOST) pronostica los niveles de inundación en los territorios costeros. Desde 1997, el MOST había entregado información acertada para siete eventos. Pero no había sido probado en tiempo real, con un megaterremoto a gran escala.

Hasta el del 27 de febrero de 2010.

"Fue el primer terremoto en el cual se puso a prueba el sistema", explica Synolakis desde California. En el Pacific Tsunami Warning Center, en Hawái (dependiente del NOAA), estaban preocupados de predecir cómo llegaría la ola al resto de los territorios. El MOST, que por primera vez estaba siendo usado en tiempo real, auguraba inundaciones muy menores en Hawái y Japón. Fue lo que sucedió. Pero en el PTWC desconfiaron y emitieron una alerta de evacuación general, con los millonarios costos que implicaba. "Este era el evento para el cual el PTWC se había estado preparando", se lamenta Synolakis. "Pero tras cincuenta años de preparación  se equivocaron".

"Éste era el evento para el cual el Pacific Tsunami Warning Center se había estado preparando... Pero se equivocaron".

El tsunami chileno fue la prueba que consagró al MOST. Vasily Titov, sin embargo, advierte que éste es sólo el comienzo. "Ahora debemos desarrollar los procedimientos operacionales", dice. "La modelación es sólo parte del problema".

En Chile, en tanto, nació otro modelo. Los relatos y evidencias mostraban que el tsunami había venido desde el norte, algo atípico, o al menos poco estudiado. Así lo concluyó el ingeniero Patricio Monárdez en su investigación. Explica que la particularidad de un tsunami en Chile está dada por el efecto que generan la fosa de Atacama -que se extiende por todo el país- y la cordillera de los Andes. Ambas forman una pared vertical. Tras el maremoto, el mar se retira y la pared crea una elevación mayor del agua que tiende a llenar ese vacío. La fosa de Atacama es más profunda en el norte, lo que implica que el agua corre a mayor velocidad.

El biólogo Juan Carlos Castilla, Premio Nacional de Ciencias, destaca que gracias a este estudio por primera vez es posible modelar no sólo el tsunami inicial -provocado por el levantamiento de la columna de agua de más de 3 metros en la zona focal de la ruptura- sino además las olas de tsunami que llegaron a la zona de la falla con horas de diferencia. "Para la primera ola hubo muy poca posibilidad de alerta. La zona de ruptura estaba muy cerca de la costa y la falla fue muy superficial; la ola llegó en minutos. Pero para las olas posteriores, que llegaron horas más tarde, si hubiese existido este modelo se habrían evitado muchas muertes", asegura. "Ése es el valor de esta modelación".

Chile, el gran laboratorio natural

De aquí se ve tu casa

Ocho horas después del terremoto, el RapidEye surcó los cielos chilenos. El satélite óptico alemán viajaba por todo el mundo de polo a polo, y esta vez, por coincidencia, pasaba por Chile. Sus imágenes darían cuenta de la magnitud del desastre y, a su vez, ofrecerían valiosa información a los especialistas. Era el satélite que había pasado a la hora más cercana al tsunami y el que tenía casi toda la costa de Chile registrada en buena resolución.

A esa misma hora, en tierra firme, un equipo multidisciplinario de aproximadamente 40 profesionales (en su mayoría geólogos, ingenieros y geógrafos) llegó hasta el salón de eventos de la ONEMI, convocados por el ingeniero de la Agencia Chilena del Espacio (ACE), Juan Fernando Acuña. El llamado de este oficial en retiro de la FACh tenía como fin organizar un staff que cooperara con tecnología espacial, para afrontar la emergencia.

Acuña diseñó un protocolo inédito. Los datos combinados del satélite alemán con los provistos por la "Carta Internacional Espacio y Grandes Desastres" (Charter), diferentes organismos y empresas internacionales como, Spot Image y el Servicio Geológico de Estados Unidos (USGS), se complementaron con las imágenes aerotransportadas que captó el Servicio Aerofotogramétrico de la Fuerza Aérea (SAF) y que permitían apreciar los hechos con 30 centímetros de resolución. Con este material se armó una especie de collage de la zona afectada, que fue enviado al Sernageomin, cuyos geólogos marcaron la zona del borde costero inundada, para estimar cuál era la zona afectada por el tsunami. Luego cruzaron la información con los datos del INE para calcular la cantidad de personas y casas afectadas, y la enviaron a quienes estaban en terreno: ministerios, intendentes, jefes de plaza y alcaldes. Por ejemplo, armaron un plano que registraba los hospitales y camas disponibles, puentes habilitados, la situación de carreteras y fuentes de agua dañadas.

El 3 de marzo se conformó formalmente como el Grupo de Trabajo Multisectorial de Información Geoespacial (GTMIG), con Acuña como coordinador general. El objetivo era entregar apoyo directo a las autoridades en las tareas de emergencia.

La experiencia fue vista con interés por la comunidad internacional. La ONU los invitó a exponer en la Conferencia Espacial de las Américas, que se realizó en noviembre del año pasado en México. "Es una iniciativa que debe ser divulgada como un muy buen ejemplo en América Latina", destaca el oficial del programa UN-SPIDER, de la ONU, Juan Carlos Villagrán. Ecuador, República Dominicana y Jamaica, a pedido de la ONU, también recibirán talleres dirigidos por los expertos chilenos.

"Definimos una metodología que puede ser aplicada en cualquier parte", dice Acuña. El próximo paso es la institucionalización del GTMIG para eventos futuros. Aunque ya iniciaron conversaciones con el gobierno regional de Antofagasta para organizar un grupo de apoyo que transmita la experiencia, anticipándose a eventuales emergencias futuras.

El aprendizaje de las aseguradoras

Al estudiar las 237 mil denuncias que llegaron a las distintas firmas durante las primeras semanas (el normal anual es de apenas dos mil), el aprendizaje del sector fue claro: el suelo sobre el cual se edificaron esas viviendas u oficinas era de alto riesgo, y las aseguradoras debían dar cuenta de ello.

Actualmente, como explica el gerente general de la Asociación de Aseguradores de Chile, Jorge Claude, el país se divide en cuatro grandes zonas sísmicas, y de ahí se elaboran las pólizas. A partir del 27/F, el modelo será otro: se pondrá énfasis en el tipo de suelo sobre el cual se construirá y a la respuesta que tiene éste a las ondas sísmicas estudiadas en el 8.8. Sobre esa base, aprovechando la información ya disponible, se harán las nuevas coberturas.

Relacionados