Ciencias
¿Un detector de terremotos?
Como un paso más hacia el pronóstico de sismos, geofísicos de Caltech, el Instituto Tecnológico de California (EE. UU.), diseñaron un simulacro del comportamiento de la Falla de San Andrés en la zona de la ciudad de Parkfield.
El denominado segmento Parkfield, de 25 kilómetros de largo, es la región sísmica más estudiada del mundo. Es sacudida por terremotos de una magnitud media de 6,0 grados en la escala de Richter cada 20 años, causando daños menores a los agricultores locales e intrigando a los científicos.
Según el informe de Caltech, su simulacro es relativamente sofisticado y es capaz de ‘producir’ sismos que tienen un parecido sorprendente con los terremotos reales. El modelo pretende incluso explicar por qué el único pronóstico oficial de un sismo que hizo el Servicio Geológico de Estados Unidos (USGS) en su historia, prediciendo una réplica de 6,5 en Parkfield entre 1985 y 1993, resultó equivocado (no tuvo lugar hasta 20 años después, en 2004).
Para que su programa informatizado hiciera predicciones más relevantes indicando hora, lugar y magnitud lo más concretamente posible, los geofísicos californianos dirigidos por Jean-Philippe Avouac se preocuparon por abastecerlo con todos los datos accesibles sobre las características físicas de la falla. Cargaron en el sistema la hora y los puntos de partida de los seis mayores sismos de Parkfield (desde 1881), de los dos últimos –de 1966 y 2004-, incluso los mínimos detalles del proceso. Para calibrar el modelo, recurrieron a los resultados de observaciones del segmento por GPS y satélites a lo largo de las tres últimas décadas.
Los resultados han sido impresionantes. El programa calculó réplicas de 6,0 grados cada 20 años como promedio, igual que las reales. Mostró también líneas de rupturas que coincidieron con las reales. La parte más interesante apareció cuando el modelo mostró que un sismo ‘previsto’ de 6,0 grados de magnitud se demoró después de que una serie de réplicas de 3 grados se produjeran en el punto de partida habitual de la línea de ruptura de Parkfield.
Según los autores del programa, el hecho de que las réplicas menores fracasaran en desencadenar un sismo de 6 grados significó que el parche no estaba preparado para desbloquearse. El programa calculó el sismo más potente dentro de un intervalo muy largo. Los geofísicos californianos insisten en que esto es lo que pasó con la predicción errónea del USGS en 1985.
Sin embargo, este programa que pretende ser el más exacto del mundo en la actualidad, está lleno de detalles que no auguran que pueda usarse en la práctica en un futuro próximo. Logró pronosticar que un período promedio para que se produzca un sismo en Parkfield es de 20 años, pero el problema es que el ciclo histórico de terremotos reales es de entre 12 y 38 años. Con lo cual, es muy poco probable que el modelo, en su versión actual, pueda ayudar a predecir la hora del siguiente sismo que sacudirá esta zona.
Otro motivo para desanimarse es que los resultados tan aproximados se refieren a Parkfield, la zona sísmica más estudiada del mundo. Por lo visto, el margen del error para otras regiones podría ser aún más alto.
Según el informe de Caltech, su simulacro es relativamente sofisticado y es capaz de ‘producir’ sismos que tienen un parecido sorprendente con los terremotos reales. El modelo pretende incluso explicar por qué el único pronóstico oficial de un sismo que hizo el Servicio Geológico de Estados Unidos (USGS) en su historia, prediciendo una réplica de 6,5 en Parkfield entre 1985 y 1993, resultó equivocado (no tuvo lugar hasta 20 años después, en 2004).
Para que su programa informatizado hiciera predicciones más relevantes indicando hora, lugar y magnitud lo más concretamente posible, los geofísicos californianos dirigidos por Jean-Philippe Avouac se preocuparon por abastecerlo con todos los datos accesibles sobre las características físicas de la falla. Cargaron en el sistema la hora y los puntos de partida de los seis mayores sismos de Parkfield (desde 1881), de los dos últimos –de 1966 y 2004-, incluso los mínimos detalles del proceso. Para calibrar el modelo, recurrieron a los resultados de observaciones del segmento por GPS y satélites a lo largo de las tres últimas décadas.
Los resultados han sido impresionantes. El programa calculó réplicas de 6,0 grados cada 20 años como promedio, igual que las reales. Mostró también líneas de rupturas que coincidieron con las reales. La parte más interesante apareció cuando el modelo mostró que un sismo ‘previsto’ de 6,0 grados de magnitud se demoró después de que una serie de réplicas de 3 grados se produjeran en el punto de partida habitual de la línea de ruptura de Parkfield.
Según los autores del programa, el hecho de que las réplicas menores fracasaran en desencadenar un sismo de 6 grados significó que el parche no estaba preparado para desbloquearse. El programa calculó el sismo más potente dentro de un intervalo muy largo. Los geofísicos californianos insisten en que esto es lo que pasó con la predicción errónea del USGS en 1985.
Sin embargo, este programa que pretende ser el más exacto del mundo en la actualidad, está lleno de detalles que no auguran que pueda usarse en la práctica en un futuro próximo. Logró pronosticar que un período promedio para que se produzca un sismo en Parkfield es de 20 años, pero el problema es que el ciclo histórico de terremotos reales es de entre 12 y 38 años. Con lo cual, es muy poco probable que el modelo, en su versión actual, pueda ayudar a predecir la hora del siguiente sismo que sacudirá esta zona.
Otro motivo para desanimarse es que los resultados tan aproximados se refieren a Parkfield, la zona sísmica más estudiada del mundo. Por lo visto, el margen del error para otras regiones podría ser aún más alto.
comentarios