Tuesday, September 22, 2015


Los peligros detrás de un posible terremoto en Santiago sobre la falla de San Ramón

Informe sobre la posibilidad de un movimiento telúrico de gran magnitud en la mencionada zona "cambia el escenario de peligrosidad sísmica de Santiago, porque tenemos un foco de peligro al lado de nosotros", indicó el geógrafo Marcelo Lagos. En tanto, el alcalde de Vitacura Raúl Torrealba indicó que no han existido reuniones para tratar este tema.

Foto: Publimetro / Francisca Vildoso

Los profesores del Departamento de Geología de la Universidad de Chile, Gabriel Vargas y Sofía Rebolledo publicaron un estudio en la revista Geology llamado "Sondeo de grandes terremotos intraplaca en el flanco oeste de los Andes", en donde detallan que en la falla de San Ramón podría ocurrir en cualquier momento un sismo de mayor intensidad.



Al respecto, señalan que dicha zona "ha generado por lo menos dos terremotos de magnitud 7,5 en los últimos 17 mil años, y el último ocurrió hace unos 8 mil años. Entonces, de acuerdo a estos antecedentes, la falla estaría lista para generar un nuevo terremoto de gran magnitud”.
Sobre este tema, el geógrafo Marcelo Lagos compartió las conclusiones del estudio, señalando a Publimetro que con esto "hay más antecedentes que reafirman que la falla de San Ramón es una falla que está activa, y eso quiere decir que es una falla que acumula tensión y esa tensión se libera mediante terremotos". En ese sentido, precisó que "nadie puede decir específicamente cuando, pero hay una probabilidad, y donde hay una probabilidad quiere decir que hay riesgos. La discusión principal pasa por entender que de alguna forma cambia el escenario de peligrosidad sísmica de la ciudad de Santiago porque ahora tenemos un foco de peligro que está al lado de nosotros, en el contacto que hay del valle central y la cordillera de los andes".
"Generalmente, los grandes terremotos sobre 8.0 grados Richter se localizan en la costa, como el terremoto del 27 de febrero o el de 1960 en el sur de chile frente a la costa de Valdivia. Sin embargo, existen otros tipos de terremotos, que son por fallas secundarias, que son magnitudes superiores a 7.0, que podrías pensar que para Chile no es un evento relevante. Sin embargo, son eventos que son incomprendidos en parte porque se subestiman su peligro. ¿Por qué se subestima su peligro? Porque son eventos que generalmente están asociados a fallas que se desconoce su actividad y gradualmente mediante investigación, como en el trabajo que acaba de ver la luz en diciembre, se confirma que esta falla esta activa. El tema es que la ciudad ya está encima", alertó el geógrafo.
Sobre este ámbito, relató que "si tú haces una analogía con terremotos muy destructivos en el mundo, tenemos los terremotos de Nueva Zelanda hace un tiempo atrás (enero de 2014), el de Kobe en Japón de 1995, que son por una falla activa. Un terremoto (el de suelo nipón) que no se pensaba que podía ser tan peligroso, de una magnitud inferior a 7.0 grados, (y) mató a más de 6 mil personas. En la práctica estos terremotos son peligrosos porque generalmente están asociadas a fallas que están cerca de asentamientos humanos. en ese caso, las normas de diseño antisísmico las subestiman, y el subestimarlo quiere decir que las estructuras están diseñadas para soportar un tipo de terremoto, que son los grandes que ocurren en la costa, pero generalmente no están diseñadas para soportar terremotos que ocurren justo donde tú estás localizado. Eso es lo que hace cambiar el escenario de peligrosidad y se traduce que en forma urgente, se debe esto normar. Tiene que haber un rayado de cancha de cómo se construye en Chile en zonas cercanas a fallas activas. Porque ciertamente hay peligro", detalló el experto.

Consultado cómo sería un movimiento telúrico de gran magnitud en la mencionada zona, remarcó que "estamos encima de la fuente, las aceleraciones de superficie van a ser mayores probablemente a las cuales están diseñadas las estructuras". Además, añadió que "gran parte de los asentamientos humanos cercanos a la traza de la falla, hablamos de un área de afluencia de al menos 10 kilómetros, van a estar expuestos a esfuerzos que podrían generar daños estructurales y eso implica que hay que preocuparse".

"Las fallas activas no son solo un problema de Santiago, tenemos fallas activas en distintos lugares, muchos de ellos poblados y este es un tema nacional. Implica una mirada de Estado y una normativa y una planificación territorial que considere este tipo de peligros. El tema de fondo es que como no ocurre todos los días, pensamos que no puede ocurrir y cuando ocurre nos encuentra a todos por sorpresa y el impacto y daño es gigantesco. Una forma de convivir con este tipo de peligros es tener una conducta proactiva y la productividad pasa por articular a todos que tienen que ver con la toma de decisiones de cómo vivimos con este tipo de fenómenos", indicó.
Sobre este mismo tema, el alcalde de Vitacura Raúl Torrealba, manifestó no conocer sobre los eventuales peligros que podrían ocurrir en la falla de San Ramón, apuntando que ante una situación de esa índole, "lo que hacemos es coordinar y seguir las instrucciones de la Onemi, que es la institución que está a cargo de ese tema".

Asimismo, afirmó que "jamás" los municipios de la zona por donde recorre la traza de la falla han sostenido alguna cita sobre dicha materia, señalando que estaría de acuerdo a que exista la posibilidad que se dialogue sobre este ámbito. "Siempre cualquier cosa para prevenir es buena, pero no he tenido ninguna reunión y por lo que yo sé ni nivel de gobierno regional ni de otras autoridades, ha ocurrido".

Ante esto, Lagos afirmó finalmente que muchas de las fallas son desconocidas, "por lo mismo las ciudades se construyen sobre ellas y con el tiempo saben de la falla. Por lo mismo el alcalde (Torrealba) dice que no sabe de esto o que nunca se ha reunido porque es un tema que se sigue mirando como algo paralelo, como una probabilidad, pero como hay tanta incertidumbre hace que este tema no se tome como algo prioritario. Pero es un tema que debe ser abordado. Las fallas activas acompañan a gran parte del territorio nacional".

Guía animada: ¿cómo se produce un terremoto?

17 septiembre 2015

Un poderoso terremoto sacudió en la noche de este miércoles la zona central de Chile con un saldo de al menos aun a determinar (13 muertos y desaparecidos)
Más de un millón de personas fueron evacuadas.
El sismo tuvo una magnitud de 8,4 en la escala de Richter y su epicentro se ubicó a unos 177 kilómetros al norte de la ciudad costera de Valparaíso, a una profundidad de 11 kilómetros.

El terremoto tuvo una duración inusual: más de tres minutos.


¿Por qué hay tantos terremotos en Chile?
Ciencia BBC Mundo
17 septiembre 2015



Más de 600.000 habitantes debieron ser evacuados de la costa por temor a un tsunami.
La noche del miércoles, un poderoso terremoto de 8,3 de magnitud en la escala de Richter sacudió el centro-norte de Chile.
Su epicentro se ubicó a una profundidad de 11 kilómetros bajo el lecho marino, a unos 177 kilómetros al norte de la ciudad costera de Valparaíso.
La única sorpresa fue su duración: el evento se prolongó por más de tres minutos. Por lo demás, los chilenos están acostumbrados a los movimientos telúricos.
Es más, el terremoto más fuerte que jamás se haya registrado -9,5 de magnitud- ocurrió en Chile, en 1960.

¿Pero por qué se producen con tanta frecuencia?
La razón es simple: Chile es uno de los países más proclives a sufrir terremotos porque está ubicado justo al límite de la placa tectónica de Nazca, que choca contra la placa Sudamericana.


Estas dos placas son grandes bloques de superficie terrestre que intentan avanzar la una sobre la otra a razón de entre 7 y 8 centímetros por año.
La placa de Nazca (que limita en su lado izquierdo con la placa Pacífica) está siendo empujada por debajo de la placa Sudamericana.
Según le explicó a BBC Mundo Mario Pardo, doctor en física y sismología chileno, ambas "están pegadas por el roce de contacto en un área que va desde el sur de Perú hasta el norte de Chile".

La fricción entre ambas placas en las profundidades de la corteza terrestre generan una poderosa presión, y cuando se libera esta presión ocurre un terremoto.

El sismo se sintió a las 19.55, hora local (22.55 GMT).

Esta fricción constante entre ambos bloques hace que la región sea una de las más sísmicas del mundo.
Y aunque esto es sabido por los científicos, cuándo o qué magnitud tendrán resulta imposible de anticipar.
Cinturón de fuego del Pacífico
Por otra parte, hay que recordar que Chile -junto con Nueva Zelanda, Bolivia, Ecuador, Perú, Colombia, Panamá, Costa Rica, Nicaragua, El Salvador, Honduras, Guatemala, México, Estados Unidos y parte de Canadá- está ubicado en lo que se conoce como el Cinturón de Fuego del Pacífico.
Este cinturón de unos 40.000 kilómetros de longitud y en forma de media luna une a través de una línea imaginaria Chile con Nueva Zelanda.
Este cinturón en la costa pacífica concentra algunas de las zonas de subducción más importantes del mundo (en las que una capa empuja por debajo a la otra) y por ende es escenario de una intensa actividad sísmica.
Además, en el cinturón se encuentra el 75% de los volcanes -activos e inactivos- del mundo, con un total de 452 cráteres.



Volcán Tacora en la Estación Humapalca del Ferrocarril Arica a La Paz.

Intensifican labores de limpieza en el sector costero afectado por el terremoto
 © 24horas.cl

Intensifican labores de limpieza en el sector costero afectado por el terremoto Una ardua tarea de limpieza es la que se está llevando a cabo en el borde costero afectado por el terremoto 8,4 que sacudió la zona norte del país y el posterior tsunami.
Para comenzar la reconstrucción de las zonas afectadas lo primero es limpiar el lugar, por lo que las labores se intensificaron para hacer el despeje en el menor tiempo posible.
Según las autoridades se estima que en unos cinco días el trabajo puede estar terminado.
Pero no sólo por la reconstrucción es que es urgente terminar con la remoción de escombros, sino por el posible foco infeccioso que se podría generar.
Ministros se encuentran en el lugar para evaluar la situación.

Errores y mitos frecuentes al hablar sobre los terremotos
Redacción BBC Mundo
20 septiembre 2015

El mundo centró sus ojos en Chile tras el terremoto de este miércoles.
Son fenómenos traumáticos para miles de personas.
No importa si ocurren en el mar Caribe, en el océano Pacífico o en un país montañoso del sur de Asia, los grandes terremotos siempre se hacen sentir en las conversaciones cotidianas y en las redes sociales, donde estos fenómenos naturales se viven con gran intensidad.
Tras un sismo como el que sacudió Chile esta semana, ciudadanos de todo el mundo despiertan al día siguiente hablando de cuestiones como magnitud, grados, escalas, epicentro o la intensidad.
Se trata de términos que, pese a la experiencia adquirida por los grandes sismos y tsunamis ocurridos en lo que va de siglo, tienden a confundirse o a malinterpretarse.
BBC Mundo indaga sobre algunos de los errores más comunes.

¿De 7,9 o de 8,3?
Uno de los primeros datos que suele conocerse tras producirse un terremoto es su magnitud, es decir, la cantidad de energía liberada por el terremoto.
La magnitud se mide con una escala que cuantifica esa energía a partir de los registros obtenidos por los sismógrafos.
Con frecuencia, sin embargo, esta cifra varía desde el momento en el que se produce el sismo y su cálculo final.
¿La razón? Durante la primera hora casi toda la información procede de los datos que ofrecen las computadoras conectadas con los sismógrafos desplegados en el área afectada, pero esa data suele ser corregida luego.
"Los medios informan demasiado rápido. Es bueno esperar un poco porque esa información inicial va ser evaluada por una persona que va a determinar cuál es la cifra correcta", advierte Mark Benthien, director de Comunicación del Southern California Earthquake Center.
Los Primeros datos sobre la magnitud de un terremoto suelen ser corregidos después de ser evaluados.

No son grados
Cuando se habla de magnitud, un error común es decir que un terremoto fue de X "grados" en la escala de Richter.
La confusión se produce porque la magnitud se mide con una operación matemática, no con una escala que aumenta gradualmente.
La escala de Richter fue creada para medir los terremotos que se producían en la falla de San Andrés, en California, en la década de 1930.
El problema es que ese algoritmo para calcular la magnitud pierde precisión con terremotos de magnitudes superiores a 6,9.
Por eso desde finales de los años setenta se utiliza la escala sismológica de "magnitud de momento", un algoritmo diferente que logra mediciones más precisas en los valores más altos.

¿Por qué hay tanta diferencia entre un terremoto de magnitud 7 y uno de magnitud 8?
La escala de magnitud crece de forma exponencial, esto quiere decir, que la energía liberada por un sismo de magnitud 2 es 32 veces la de un sismo de magnitud 1; la de uno de magnitud 3 es 32 veces la de uno de magnitud 2, y así sucesivamente.
Esto hace que la cantidad de energía que representa cada valor de la escala en relación con el anterior sea cada vez mayor.

¿Magnitud o intensidad?
Mientras la magnitud cuantifica la totalidad de la energía liberada por el terremoto, la intensidad se asocia a su impacto en un lugar determinado.
La intensidad de un terremoto indica su efecto sobre un lugar determinado.
"La intensidad varía con la distancia, mientras más lejos estás de un terremoto, menor será su intensidad en el lugar donde te encuentras", indica Benthien.
"La intensidad cambia, mientras que la magnitud es una sola. La magnitud es un número que se aplica a toda el área donde se experimentó el terremoto, mientras que la intensidad describe cómo se sintió en cada lugar", explica.

El no tan importante epicentro
Otro dato al que siempre suele hacerse referencia al hablar de un sismo es el lugar donde tuvo su epicentro, que es el punto en la superficie de la tierra que está encima del lugar donde comenzó el terremoto.
En el caso de los sismos menos potentes el dato es relevante pues en ese sitio es donde suele producirse la mayor parte del daño. Sin embargo, en los terremotos más grandes esta información puede ser inútil o puede causar confusión.
"Un terremoto grande puede producirse en una larga falla que empieza en el epicentro pero que se extiende y puede terminar más cerca de una ciudad", destaca Benthien.
"Suele prestarle demasiada atención al epicentro, cuando en estos casos, el efecto del terremoto puede sentirse a centenares de kilómetros de distancia. La gente puede pensar que el daño estará concentrado en el epicentro cuando en realidad puede haberse producido en un área mucho mayor", agrega.
El experto asegura que más importante que el epicentro es el mapa del movimiento telúrico (shakemap), el cual muestra el impacto que tuvo el terremoto sobre la superficie en toda el área afectada.

"Esta información es mucho más útil para conocer lo que significó el terremoto que informar sobre cuál fue su epicentro o su magnitud. La magnitud es sólo un número, mientras el shakemap muestra cómo fue el terremoto en distintos lugares", apunta.

Volcanes Parinacota, Sajama (Bolivia) y Quiriquisini

Sismo reflota debate sobre reestructuración de la Onemi
© La Tercera

Senadores advierten que proyecto de ley, hoy en trámite, no define financiamiento ni el rol polifuncional de FF.AA. en emergencias naturales.
Cada nuevo desastre natural reflota la necesidad de contar con una renovada institucionalidad, para fortalecer la capacidad de respuesta del país ante las emergencias. Y si bien el proyecto del Ejecutivo, para transformar a la Oficina Nacional de Emergencia (Onemi) en un Servicio Nacional de Gestión de Riesgos y Emergencias, actualmente se encuentra en la Comisión de Defensa del Senado, son varias las precisiones para una reformulación de fondo.

“De partida no podemos tener una nueva institucionalidad sin un presupuesto definido, eso es clave. Junto con ello, hay que definir en la ley el rol polifuncional de las FF.AA., no sólo para la defensa del país, sino también para su apoyo en desastres”, puntualizó el senador Alejandro Guillier (Ind), presidente de la Comisión de Defensa.  Agregó que esta instancia solicitó al ministro del Interior, Jorge Burgos, que aclare cuál sería el presupuesto de la nueva Onemi y su mecanismo de financiamiento.  

Mientras, el senador Alejandro Navarro (MAS), integrante de la misma comisión, presentó ocho objeciones a la indicación sustitutiva, ya que en su opinión el proyecto es insuficiente. “Chile no resiste un nuevo terremoto con una institucionalidad tan débil. Somos el país de la Ocde que tiene el mayor gasto del PIB en materia de reconstrucción producto de desastres naturales, lo que demuestra lo poco que se invierte en prevención”, argumentó.

El parlamentario añadió que la principal debilidad del proyecto es no entregar a la nueva Onemi el rango de ministerio. “Sin eso, el nuevo servicio será uno más dentro del Ministerio del Interior, lo que no posibilita que interactúe a igual nivel jerárquico con el resto del aparato del Estado. Un  nuevo ministerio no es más burocracia, es justamente lo contrario, con el suficiente poder para pelear un presupuesto propio y con políticas de prevención”.

Expertos aseguran que un nuevo ministerio de gestión de catástrofes naturales y emergencias nacionales, como el que existe en Rusia, Paraguay y España, tendría un fuerte componente educativo y preventivo, con el consecuente ahorro para el Estado en reconstrucción.
En opinión de Navarro, es importante que los intendentes puedan declarar estado de catástrofe en caso de perderse la comunicación con el nivel central. Y apunta a “una mayor especialización de los funcionarios de emergencia a nivel de Onemi y municipios”.

Por qué los terremotos son menos mortíferos en Chile
© Reuters

Los chilenos aprendieron a dejar la casa con calma.
Un terremoto de gran magnitud volvió a azotar Chile este miércoles.
Y como ocurrió con el sismo de 2014, el número de muertos y daños materiales resultaron relativamente bajos en comparación con los provocados por los recientes movimientos telúricos de Nepal y Haití, por ejemplo.
Aunque las autoridades aún están haciendo el recuento de las consecuencias y siguen buscando desaparecidos, de momento se sabe que fallecieron al menos 10 personas.
Además, la Oficina Nacional de Emergencia del Ministerio del Interior y Seguridad Pública reportó desperfectos en casas de barro y edificios antiguos, desmoronamiento en rutas, caídas de paredes y techumbres en la región de Coquimbo, en el centro-norte del país, la más afectada y declarada zona de catástrofe.

El sismo tuvo una magnitud de 8,3, similar al que aconteció el 1 de abril de 2014. Aquél fue de magnitud 8,2, mató a 6 personas y dañó 2.500 viviendas.
Las cifras funestas de ambos, sin embargo, resultan muy bajas en comparación con los dos terremotos que golpearon Nepal el 25 abril y el 12 de mayo de este año.
En conjunto, ambos se cobraron la vida de más de 8.000 personas y pueblos enteros quedaron en ruinas.
Y eso que su magnitud fue menor que la de los de Chile: 7,8 el primero y 7,3 el segundo.
El que golpeó Haití el 12 de enero de 2010 también fue considerablemente menos potente que los chilenos: de magnitud 7,7.
Pero las pérdidas fueron mucho mayores: más de 220.000 muertos y un millón de personas sin hogar.
Este hecho, que los terremotos de gran magnitud en Chile resulten menos mortíferos que en otros lugares, llama la atención de otros países sísmicos.
"Esta mañana, cuando vimos las imágenes del sismo, nos preguntamos por qué los muertos de Nepal fueron mil veces más", dice Bhagirath Yogi, del servicio nepalí de la BBC.
"Y en Twitter mucha gente se hacía la misma pregunta", añade.

Entonces, ¿cuál es la razón, más allá del abismo económico entre Chile y Haití o Nepal?
1. Evacuación masiva
El sismo se sintió a las 7:55 pm hora local (22:55 GMT).
Pero para entonces, el ministro del Interior, Jorge Burgos, ya había ordenado la evacuación preventiva de las zonas costeras desde Arica hasta Puerto Aysén.
Así, después de que se diera la orden de resguardo por encima de los 30 metros sobre el nivel del mar, para el final de la noche un millón de personas habían abandonado sus hogares para refugiarse en un lugar seguro.
"Las medidas fueron tomadas de manera muy rápida y la evacuación de todas las zonas costeras se ha hecho de buena manera. Sé que para las personas evacuadas eso es duro y en algunos lugares frío, pero necesitamos tomar esas medidas para proteger su vida", evaluó la presidenta, Michelle Bachelet.
Más de un millón de personas fueron evacuadas. Los chilenos aprendieron a dejar la casa con calma. Desde niños, participan en simulacros organizados en los colegios.
La respuesta inmediata fue una lección que las autoridades aprendieron tras el terremoto de la madrugada del 27 de febrero de 2010.
Tuvo una magnitud de 8,8 y murieron 525 personas, la mayoría por el tsunami que le siguió.
Los damnificados llegaron a ser más de dos millones y se dañaron mas de 370.000 viviendas, de las que cinco años después aún quedan por reconstruir 17.178.
Aquello puso en entredicho la capacidad del país para enfrentar una emergencia.
El corresponsal de la BBC en el Cono Sur, Ignacio de los Reyes, recuerda que en aquél entonces también estaba Bachelet en el poder.
Su papel durante las primeras horas del sismo fue severamente cuestionado y aún fue tema de debate en la campaña electoral por su segundo mandato.
Pero Chile no solo aprendió de aquel fatal sismo, lo ha ido haciendo con cada uno de los que ha sufrido, empezando desde que el mayor terremoto de la historia, de magnitud 9,6, azotara la ciudad sureña de Valdivia en 1960.
Así no sólo las autoridades reaccionan rápido, los ciudadanos también.
Con rapidez, pero sin correr.
Y es que desde niños participan en simulacros organizados en los colegios y aprenden que mantener la calma y evacuar en orden es más seguro y eficaz.
Porque viven en el que se dice "el lugar más sísmico del mundo", los chilenos argumentan que "están acostumbrados".
Ya se lo dijo Katie Peters, del Instituto de Desarrollo Extranjero, al medio Sky News tras el terremoto de Nepal: "Se gasta cinco veces más dinero en respuesta (a los terremotos) que ayudando a la gente a preparase.
Además, la investigación sismológica es de primer nivel. Así lo señala el propio Centro Sismológico de Chile, aunque en la sección de preguntas frecuentes de su página web reconoce que "falta una red de instrumentos más densa y profesionales que analicen los datos".
En la misma línea, Sergio Barrientos, director científico del Servicio Sismológico de la Universidad de Chile, señaló en su día que "es necesario establecer un sistema de observación que permita detectar los temblores iniciales más pequeños y, sobre todo, establecer una red de mediciones que dé información suficiente para determinar las fuerzas que están actuando".

Al fin y al cabo, por sus características geológicas, Chile tiembla cada año, a diferencia de otras regiones. Y eso hace que la capacidad de resistir a ellos sea una prioridad.


Volcan Parinacota

En la ONU manifiestan que Chile es un ejemplo para el mundo en materia sísmica

En la ONU manifiestan que Chile es un ejemplo para el mundo en materia sísmica
El coordinador residente del sistema de las Naciones Unidas (ONU) en Chile, Antonio Molpeceres, felicitó hoy a nuestro país por la serena reacción de sus ciudadanos ante el terremoto.
Asimismo, elogió la inversión del Gobierno en recursos para evitar daños mayores producto de los movimientos telúricos y señaló que el hecho de que "los daños hayan sido mínimos" demuestra que las "inversiones han dado sus frutos".
"Al mundo le cuesta creer que con un terremoto de 8,4 grados en una ciudad como Santiago, de cinco millones de habitantes, no haya caído ningún edificio. Chile es un ejemplo para el resto de los países", afirmó el representante de la ONU.

¿Por qué el tsunami afectó más a Coquimbo que a La Serena?
© 24horas.cl

Pese a su cercanía, la ciudad de Coquimbo resultó mucho más dañada que La Serena tras el terremoto y tsunami del pasado miércoles.
Pero no fue sólo suerte, pues esto tiene una explicación técnica. Así lo reveló un grupo de geólogos al diario Las Últimas Noticias.

"La palabra japonesa tsu-nami, significa ola en la bahía, precisamente porque estos fenómenos se amplifican en este tipo de geografías costeras. Esta desventaja tiene que ver con que las olas de un tsunami se refractan, se desvían, al momento de entrar a la bahía", explicó el doctor en geología de la Universidad de Concepción, Jorge Quezada.
"Es más, mientras más chica sea la bahía, más se verá afectada. Acuérdese del caso de Dichato en el terremoto del 2010, que también es una bahía y resultó muy dañada", agregó al citado medio.
En el caso de La Serena, el experto explicó que "en ese caso el tsunami enfrentó a un terreno desde mar abierto, por lo que no afecta tanto".

Sin embargo, esta no es la única característica que incidió, pues según explicó al mismo medio el geólogo de la Universidad de Chile, Gabriel Vargas, también se suma el fondo marino.
"Aparte de la geomorfología de la bahía, también hay que considerar el relieve submarino de este lugar. Lo que tienen las bahías es que, como son ambientes más protegidos, el relieve submarino es más plano. Este factor produce que la ola puede alcanzar una altura mayor localmente. En cambio en las costas más abiertas, como La Serena, los fondos marinos son más abruptos y la ola tiende a alcanzar alturas no tan importantes", explicó.

Otro factor fundamental es que Coquimbo es una península, la cual protege a La Serena.

"Que los daños se hayan focalizado más en Coquimbo que en La Serena bien puede ser por la configuración de la costa en ese sector. La Serena está protegida por la península donde está Coquimbo. Por lo mismo, al estar Coquimbo en una península, las olas llegan por ambos lados a la ciudad", sostuvo la geofísica de la Universidad de Kiel, Alemania, Cindy Mora Stock.


Wednesday, September 02, 2015


Es oficial: El Niño está aquí

El patrón climático se mantendrá hasta mediados de 2015, pero de forma débil.
Por Andrea Thompson, Climate Central | 5 de marzo de 2015 


En parte debido a su debilidad, no se espera que El Niño tenga mucho impacto en los patrones climáticos de Estados Unidos. 
Crédito: NOAA

Justo cuando casi todo el mundo había dado por un hecho que no se iba a presentar, el fenómeno de El Niño, que ha pasado casi un año titubeando entre el sí y el no, finalmente surgió en febrero y podría durar hasta la primavera y el verano, anunció este jueves la Administración Nacional Oceánica y Atmosférica de Estados Unidos (NOAA).

No se trata de una repetición del severo El Niño de 1998, como muchos anticiparon cuando surgieron los primeros indicios de un acontecimiento inminente hace aproximadamente un año. Este El Niño solo se ha deslizado a través del umbral oficial, por lo que no será un evento fuerte.

"Básicamente estamos declarando El Niño", dijo Michelle L'Heureux, meteoróloga de la NOAA. "Es lamentable que no podemos declarar un El Niño débil".

En parte debido a su debilidad, así como su calendario inusual, no se espera que El Niño llegue a tener mucho impacto en los patrones climáticos de Estados Unidos, ni que llegue a traer mucho alivio para California, afectada por la sequía.


Animación de las anomalías de la temperatura del subsuelo en el Océano Pacífico tropical.  NOAA

Pero los analistas dicen que sí podría empujar los patrones climáticos en otras zonas del planeta, especialmente si persiste o se intensifica, y podría aumentar las temperaturas globales, tras el 2014, que ya fue el año más caliente que se ha registrado. "El fenómeno hace inclinar las probabilidades hacia el calor", dijo L'Heureux.

La diferencia que hace un año
Los meteorólogos del Centro de Predicción Climática de la NOAA y el Instituto Internacional de Investigación para el Clima y la Sociedad (IRI) de la Universidad de Columbia primero dieron la alerta a principios del año pasado de que un El Niño podría estar tomando forma.

Se basaron en un penacho de agua tibia bajo la superficie, llamado onda Kelvin, surgiendo de oeste a este a través del Pacífico tropical. (Fue esta gran columna que estableció comparaciones con el monstruo de El Niño de 1998, que causó diluvios e inundaciones en muchas partes del mundo y amplió considerablemente las temperaturas globales; 1998 sigue siendo el único año del siglo XX entre los 10 más cálidos de la historia registrada.)

El Niño se caracteriza por aguas inusualmente calientes sobre la parte central y oriental de esta cuenca. El CPC considera oficialmente un evento cuando las temperaturas superficiales del mar en una región clave del océano alcanzan al menos 0,5 ° C más que el promedio.

Múltiples ondas de Kelvin han aparecido en toda la cuenca del océano en los últimos meses y las temperaturas del océano han sido repetidamente lo suficientemente calientes en esa región para calificar la presencia de El Niño.

Pero las temperaturas del océano por sí solas no definen un El Niño; los pronosticadores del CPC también buscan los cambios correspondientes en los patrones atmosféricos, es decir, un debilitamiento de los vientos típicos de este a oeste de la región. Esos vientos alterados pueden afectar el clima en todo el mundo. Es por eso que son vigilados cuidadosamente mes a mes.

Un año después de que la primera señal de un inminente El Niño surgiera en el océano, otra onda Kelvin está haciendo su camino a través de la cuenca. Solo que esta vez, el océano está mucho más cálido y –más importante­– la atmósfera finalmente parece haber recibido el mensaje, presentando un debilitamiento vientos alisios.

El acoplamiento entre el océano y la atmósfera no está siguiendo el guion habitual, y los cambios típicos en los patrones de lluvia no han surgido. Pero L'Heureux señaló la rareza de que exista una respuesta de la atmósfera en esta época del año. En la primavera, dijo, es más difícil para el océano y la atmósfera "verse el uno al otro". "Estamos muy sorprendidos", dijo.

La primavera y el verano
Esta aparición tardía de El Niño significa que las condiciones típicas para Estados Unidos –más lluvia y frío en el sur del país– no van a suceder. "Sobre nosotros [el impacto] se vuelve muy, muy silenciado" en primavera, dijo L'Heureux.

Los meteorólogos creen que la actual ola Kelvin y las temperaturas de los océanos ya más cálidas significan que El Niño va a persistir, otro factor que pesó en la declaración oficial del evento.

El CPC prevé un 50 a 60 por ciento de probabilidades de que El Niño esté presente a lo largo de toda la primavera y el verano. Si lo hace, podría aplacar la temporada de huracanes en el Atlántico y sacarle energía a la temporada en el Pacífico oriental, como muchos dijeron que ocurrió el verano pasado, antes de que El Niño fuera declarado de forma oficial.

Esa designación oficial ya ha provocado un gran debate en la comunidad del clima, ya que el mar estaba lo suficientemente caliente durante gran parte de 2014 para calificar la presencia de El Niño. "Estoy seguro de que va a ser discutido un poco", dijo L'Heureux.

Pero pese a la duda de si esos océanos cálidos significaban que un El Niño estaba presente, lo cierto es que junto con las aguas cálidas en otras cuencas oceánicas, ayudaron a elevar las temperaturas superficiales globales en 2014, lo que lo convirtió en el año más cálido registrado.
 
Si eso sucederá de nuevo en 2015 aún está por verse, aunque el océano tiene una memoria de temperatura fuerte y no responde a los cambios muy rápidamente. Así que el calor es probable que aguante, o incluso aumente.

"Si El Niño se intensifica puede tener un mayor impacto en las temperaturas globales, como se ha observado en sucesos pasados", dijo en un correo electrónico Jessica Blunden, científica del clima con ERT, Inc., en el National Climatic Data Center de la NOAA. "Pero por ahora estamos en un modo de esperar y ver", agregó.

Este artículo se reproduce con permiso de 
Climate Central. El artículo fue publicado por primera vez el 5 de marzo de 2015.

¿Cuán distinto es este fenómeno de El Niño de los anteriores?
El patrón climático actual se parece en unas cosas a su antepasado de 1997, pero difiere en otras.
Por Andrea Thompson, Climate Central | 27 de julio de 2015



Comparación entre las temperaturas de superficie marinas entre noviembre de 1997 y julio de 2015.
Era el invierno de 1997-1998 cuando el abuelito de todos los fenómenos de  El Niño –aquél con el cual todos los demás El Niños serían comparados– acuñó el término climático como un nombre familiar. Tuvo tal impacto sobre el clima en los Estados Unidos que apareció en todos lados, desde las noticias de los derrumbes en el sur de California y la rutina legendaria de Chris Farley en Saturday Night Live. En esencia, fue el “vórtice polar” de los noventas tardíos.
Así que no es sorprendente que sea el fenómeno emblemático en el que la gente piensa cuando escuchan el nombre. Y naturalmente, conforme el fenómeno de El Niño actual ha ganado atención, las comparaciones con 1997 han ido incrementando.
El más reciente apareció esta semana en la forma de una imagen de la National Oceanic and Atmospheric Administration(NOAA) de los EE.UU. que compara las imágenes satelitales de las aguas tibias del Océano Pacífico –una marca distintiva de El Niño– con aquel periodo de junio a noviembre de 1997 cuando El Niño estuvo en su máximo.
Por un lado, las dos son comparables dado que El Niño de 1997 fue el más fuerte registrado hasta ahora y, en este momento, la ciencia más precisa indica que el fenómeno actual podría igualar o competir con aquel –por lo menos en términos de temperaturas oceánicas–. Pero por otra parte, cada fenómeno de El Niño es una bestia única, un producto de condiciones del océano y de la atmósfera, del clima y del tiempo, que son únicas de un tiempo y lugar en particular.
En el corto registro moderno de fenómenos de  El Niño, “no podemos encontrar un solo El Niño que se haya desenvuelto como otro El Niño”, dijo Michelle L’Heureux, una meteoróloga del Centro de Predicciones Meteorológicas de NOAA.
Meteorólogos como L’Heureux no gustan de las comparaciones porque no hay garantías de los impactos de un El Niño sean las mismas de  uno previo, aunque a grades rasgos parezcan muy similares. Y son esos impactos –como el potencial de lluvias para una California afectada por la sequía– los que a la mayoría más les importa.
Clima tormentoso
El Niño no es, como lo puso Farley, una tormenta individual, como un huracán. Más bien es un cambio en el fondo del estado del clima, creado al traer las aguas calientes del océano de su hogar habitual, el oeste tropical del Océano Pacífico, hacia el este. Esa redistribución afecta cómo y dónde el calor del océano se emite hacia la atmósfera, lo que puede alterar los patrones normales de los vientos y el clima tormentoso de la región.
Esos cambios más locales pueden telegrafiarse a través de la atmósfera y, en el caso de los EE.UU., pueden alterar la posición de la corriente de chorro en el país durante los meses de invierno, típicamente llevando a condiciones más húmedas de lo normal en los estados del sur y temperaturas más cálidas en el norte.


Vista aérea de un derrumbe en la costa sur de California al norte de Los Ángeles, tomada en abril de 1998.
Crédito: 
USGS
Sin embargo, esos son los efectos de El Niño a grandes rasgos. Tales tele-conexiones, como les llaman, tienden a ser más confiables cuando El Niño es uno fuerte. Tal fue el caso de ambos fenómenos fuertes de 1997-1998 y de 1982-1983. Enero y febrero de 1998 fueron los más húmedos y cálidos primeros dos meses del año consecutivos para los EE.UU. en un registro de 104 años hasta ese entonces,  según NOAA. La posición de la corriente de chorro significaba que algunos estados al norte vieron las temperaturas elevarse 15 grados por encima de lo normal, y tanto la parte sudeste como la sur de California fueron inundadas por una serie de tormentas.
En California, las lluvias fueron tan inclementes que provocaron derrumbes que arrastraron casas sobre acantilados que se desintegraron, causando cientos de millones de dólares en daños.
Con una California ahora inmersa en una sequía de cinco años que ha llevado al estado a imponer restricciones sobre el uso del agua por primera vez en su historia, algunas lluvias provocadas por El Niño serían más que bienvenidas en estos momentos.
Pero este es el problema: esos dos El Niño fuertes que trajeron lluvias pesadas en el invierno en California son solo eso; una muestra de dos. En la ciencia, eso es una muestra muy pequeña como para sacar conclusiones firmes, dijo L’Heureux.

No es un fenómeno aislado
Hay otros factores, desde el caos inherente a la atmósfera hasta otras señales climáticas de gran escala, que podrían ofuscar cualquier esfuerzo de El Niño. 

Eso fue lo que pasó exactamente con El Niño de 2009-2010, que aunque no fue tan fuerte como el de 1997, aún fue significativo. Pero otras señales climáticas ayudaron a reducir sus efectos en los EE.UU., particularmente en términos de temperaturas, dijo L’Heureux. Eventos como esos hacen que los meteorólogos sean cautos en comparar al El Niño actual con el de 1997 (la NOAA lo reconoció en tanto que cambió la imagen que utilizó originalmente e hizo notar que lo hizo para evitar confusiones).

Los impactos climáticos asociados típicamente con El Niño durante los meses de diciembre, enero y febrero.
Crédito: NOAA


“Pensamos que la fuerza de [El Niño] es importante”, dijo L’Heureux, pero la fuerza exacta que alcanza no es garantía de que los impactos serán similares a los de 1997, “y eso es simplemente porque están pasando otras cosas”, dijo. “El niño no es el único partido jugándose en la ciudad”.
Entonces, ¿dónde nos deja todo esto en términos de ver lo que El Niño depara para este invierno? Tenemos un evento que se ve más y más robusto (al comparar junio de 2015 con junio de 1997, los patrones de temperatura del océano en general son muy similares) y los modelos de pronóstico están bastante de acuerdo con que el fenómeno cobrará fuerza conforme nos acerquemos al invierno y el típico pico de El Niño. Pero exactamente cuándo ocurrirá este pico y cuál será su fuerza final aún es incierto. Y aún más incierto es qué otras influencias habrá sobre el clima de los EE.UU.

Así que lo que los meteorólogos pueden decir por ahora es que las probabilidades de ver aquellos impactos típicos de El Niño, incluyendo lluvia en el sur de California, son más altas, pero aún no se sabe dónde exactamente caerán esas lluvias.
Un factor que podría influenciarlo es la impresionante masa de aguas muy cálidas que ha estado estacionada afuera de la costa oeste por el último par de años, una característica que no estuvo presente en 1997. Esa característica podría impactar los cambios típicos que El Niño trae a la corriente de chorro, dijo en un email Daniel Swain, un estudiante de doctorado en ciencias climáticas de la Universidad de Stanford. Pero es posible que si el niño acumula suficiente fuerza, podría superar esa influencia, agregó.

“Si El Niño logra entrar en territorio de récord durante el próximo invierno, sería difícil que California no experimentara un invierno más húmedo de lo usual, por lo menos en cierta medida”, dijo.
Sin embargo, la única garantía real que los meteorólogos pueden hacer es que el fenómeno de El Niño “evolucionará a su propio modo”, dijo L’Heureux. “Podría ser similar a ciertos fenómenos del pasado”, pero no será exactamente igual.

Este artículo se reproduce con permiso de Climate Central. El artículo se publicó por primera vez el 23 de julio de 2015.

El estado de la Tierra visto en cuatro tendencias del clima

En el Día de la Tierra, cuatro tendencias climáticas revelan lo que está sucediendo en nuestro clima cambiante
http://www.scientificamerican.com/espanol/noticias/el-estado-de-la-tierra-visto-en-cuatro-tendencias-del-clima/
Por Brian Kahn y Andrea Thompson, Climate Central | 22 de abril de 2015 


¿Qué mejor día que este Día de la Tierra para dar un paso atrás y hacer balance del estado de nuestro planeta? Celebrado por primera vez  en 1970 para crear conciencia en Estados Unidos sobre el estado ambiental del planeta, el Día de la Tierra se celebra ahora en más de 190 países y ha llevado a la creación de  legislación en  Estados Unidos destinada a proteger el medio ambiente. Pese a ello, una tendencia mundial ha seguido alterando el mundo: el aumento de las emisiones de dióxido de carbono y otros gases de efecto invernadero que han conducido a una temperatura media global en constante aumento.

Es fácil quedar atrapado en los registros individuales o preguntándose qué influencia tiene el cambio climático sobre los fenómenos meteorológicos extremos. Pero para entender realmente el cambio climático, las tendencias son lo que importa. Aquí hay cuatro que dejan claro cómo nuestro planeta está cambiando:

El gráfico muestra el aumento de dióxido de carbono en la atmósfera en partes por millón. 

El Número: 400 ppm (partes por millón)
La Tendencia: Nivel actual de CO2 frente a los niveles preindustriales de 280 ppm.

A pesar de que el dióxido de carbono no es uno de los principales elementos de la atmósfera de la Tierra, su capacidad de atrapar el calor ayuda a prevenir que la Tierra sea fría y estéril, como Marte. Pero hasta lo bueno en exceso puede ser malo: desde el comienzo de la Revolución Industrial en el siglo XIX, la cantidad de dióxido de carbono en el aire ha ido en aumento debido a las actividades humanas, como la quema de carbón para la electricidad. El exceso de CO2 hace que cada vez se atrape más calor y con ello se dé el aumento de las temperaturas globales. Es la tendencia que impulsa todas las demás que se han asociado con el calentamiento global.

La concentración de CO2 en la atmósfera ha aumentado de unas 280 partes por millón (ppm) en la época preindustrial a 400 ppm en la actualidad, causando un apreciable aumento de la temperatura de la Tierra. Mientras que el CO2 todavía es una parte relativamente pequeña de la atmósfera, es de muy larga vida, por lo que su habilidad para calentar permanecerá por miles de años.

El inexorable aumento de CO2 se registra  claramente en la ahora famosa curva de Keeling –las mediciones diarias realizadas en la cima del volcán Mauna Loa de Hawai desde 1958, iniciadas por el científico Charles Keeling y ahora continuadas por su hijo, Ralph–. Los niveles de CO2 aumentan en alrededor de 2 ppm cada año, y llegaron al hito de 400 ppm en mayo de 2013. Fue la primera vez en la historia humana que los niveles de CO2 fueron tan altos. La marca de 400 ppm ha sido alcanzada más temprano cada año desde entonces; y los expertos esperan que los niveles de CO2 lleguen a estar por encima de 400 ppm durante todo un año dentro de un año o dos. El ascenso de la curva de Keeling y el calentamiento que esto conduce parece tener una tendencia clara que no cambiará en un futuro próximo.


El gráfico muestra la temperatura promedio mundial en grados Fahrenheit. 

El Número: 1.6 ° F
La tendencia: aumento de las temperaturas globales desde 1880
Desde el advenimiento de registros modernos en 1880, la temperatura media del planeta ha aumentado 1,6 ° F. La tendencia es una de las señas de identidad del calentamiento global y está estrechamente ligada con el aumento de las emisiones humanas de CO2.

El calentamiento se ha acelerado desde el primer Día de la Tierra en 1970. La temperatura media del planeta ha aumentado en aproximadamente 0,3 ° F por década desde entonces. En comparación, la subida hasta ese momento era aproximadamente 0,1 ° F por década. La velocidad en el calentamiento desde 1970 ha estado ligada a una serie de factores, en particular una reducción de las emisiones de aerosoles humanos en toda la década de 1970, que enfrían el planeta.

Los científicos han advertido que el calentamiento se debe limitar a 3,6 ° F por encima de los niveles preindustriales –más comúnmente representados por su contraparte en Celsius de 2 ° C–  y para evitar graves consecuencias del cambio climático.


361 meses consecutivos de temperaturas superiores a lo normal. 


El Número: 361
La Tendencia: meses consecutivos de temperaturas superiores a lo normal
Cada mes, la historia se escribe cuando se trata de la temperatura media mundial: es superior a lo normal. De vez en cuando, y con mayor frecuencia en los últimos años, también es récord.

Si bien cualquier mes podría reforzar la realidad de que el mundo se está calentando, es la tendencia la que realmente destaca. Partiendo hacia atrás desde marzo de 2015, el mundo ha tenido 361 meses consecutivos de temperaturas superiores a lo normal, de acuerdo con el Centro Nacional de Datos Climáticos (NCDC).

Habría que volver a febrero de 1985 para encontrar el último mes más frío que el promedio. Lo que significa que si usted es menor de 30 años, nunca ha experimentado un mes más frío de lo normal.

"Esto nos dice de forma definitiva que vivimos en un mundo cambiado. No vivimos en un mundo que puede cambiar, estamos en un mundo cambiado y va a seguir cambiando", dice Deke Arndt, quien dirige el departamento de vigilancia del clima del NCDC.


Los 10 años más calientes registrados.

El Número: 10
La Tendencia: Los 10 años más calurosos registrados en la historia han ocurrido desde 1998


Si usted toma los registros mensuales de temperatura y los promedia en un año, otra tendencia notable emerge. Los diez años más calurosos registrados han sucedido todos desde el año 1998. Aún más, 13 de los 15 años más cálidos han llegado desde el año 2000, incluyendo el llamativo 2014, el año más cálido registrado (aunque su reino puede ser de corta duración pues el 2015 está en camino de tomar la corona). ¿Las probabilidades de que esto ocurra por azar? Cerca de 1 en 27 millones.

A pesar de la ola de años con temperaturas récord –y el hecho de que el último año récord de frío se produjo en 1911­– algunos se han referido a los últimos 15 años como un paréntesis del calentamiento global porque las temperaturas de la superficie no han aumentado tan rápido como lo hicieron en las décadas anteriores. Se trata más de una desaceleración, que de un desaparición del calentamiento global.

"Estamos en un barrio muy caliente. Disminuimos la velocidad en un barrio donde nunca hemos frenado antes ", dijo Arndt.

Un número de estudios han señalado que los patrones climáticos naturales han contribuido a la desaceleración, pero que posiblemente podría terminar en los próximos 5 a 10 años cuando esos patrones cambien. Y a pesar de las tendencias en el calentamiento de la superficie, los océanos han seguido absorbiendo el 93 por ciento del calor extra que las emisiones de gases de efecto invernadero están atrapando en la Tierra. Así que llamarlo una desaceleración es posiblemente un nombre inapropiado.

Este artículo se reproduce con permiso de 
Climate Central. El artículo fue publicado por primera vez el 22 de abril de 2015.


El 2015 podría ser el año más caliente jamás registrado

Este año probablemente destronará a 2014 como el año más caliente en los registros.
Por Andrea Thompson, Climate Central | 28 de agosto de 2015 
http://www.scientificamerican.com/espanol/noticias/el-2015-podria-ser-el-ano-mas-caliente-jamas-registrado/

 
Si a usted le gusta apostar, sería casi seguro jugárselo todo a que 2015 se llevará el premio al año más caliente jamás registrado.

“Yo diría (que estamos) 99 por ciento seguros de que será el año más caliente del que se tenga registro”, dijo la semana  pasada en conferencia de prensa Jessica Blunden, climatóloga de ERT, Inc., institución adscrita a la Oficina Nacional de Administración Oceánica y Atmosférica (NOAA, por sus siglas en inglés).
De acuerdo con los datos sobre temperaturas globales compilada por la NASA, NOAA y la Agencia Japonesa de Meteorología, este julio fue el julio más caliente registrado desde hace más de un siglo, siguiendo la tendencia de otros tres meses que también fueron registrados este año como los más calientes de la historia comparados con los mismos meses en años anteriores. Los meses restantes de este año están entre los cuatro más calientes, lo que hace de 2015 el año más cálido hasta la fecha.
Con un El Niño que podría catalogarse como el más intenso de todos los que se tenga registro, y que se espera que permanezca a lo largo del año, las posibilidades de que las temperaturas de 2015 sobrepasen significativamente a las de 2014 son muy altas.
“Estamos ahora bastante seguros de que 2015 será el año más cálido que hayamos observado en el mundo”, dijo Jake Crunch, climatólogo de NOAA en la presentación a la prensa.
De acuerdo con los datos presentados, julio estuvo 1,46°F por encima de la media de temperatura de todos los meses de julio del siglo XX. Dado que julio es climatológicamente el mes más caliente de cualquier año, el de este año fue también el mes más cálido del que se haya tenido noticias desde 1880. El récord anterior era de julio de 1998. En lo que va del año, 2015 se ha presentado con temperaturas de 1,53°F por encima del promedio de todo el siglo pasado, y 0,16°F más que en 2010, año que tenía el último récord de altas temperaturas entre enero y julio.

Registro de temperaturas entre enero y julio de 2015, en todo el mundo. Crédito: NOAA
El Niño ha ayudado a elevar las temperaturas este año, al generar aguas más calientes en la zona tropical del Pacífico, y temperaturas más cálidas en muchos otros lugares del mundo, incluyendo la zona norte de los Estados Unidos. El Niño continúa fortaleciéndose y los expertos creen que llegará a su expresión máxima hacia el final del otoño o principios del invierno, por lo que es poco probable que las temperaturas de lo que queda de año sean más bajas que las de 2014.
Pero El Niño no es lo único que está ocasionando altas temperaturas. El calentamiento continuo de la atmósfera del planeta debido por el acumulamiento de gases invernadero es también un factor. Desde el inicio del siglo XX, la temperatura promedio de la Tierra se ha elevado 1,6°F, lo que ha favorecido más años record hoy y continuará haciéndolo en el futuro.
Después de que 2014 fue declarado el año más caliente jamás registrado, un análisis de Climate Central mostró que 13 de los 15 años más cálidos que hayan sido observados ocurrieron desde el año 2000, y que las posibilidades de que esto haya ocurrido aleatoriamente sin la influencia del calentamiento global son de 1 en 27 millones.
Incluso durante años recientes, cuando La Niña (la contraparte de aguas frías de El Niño) ha estado en efecto, el año ha resultado más caliente que los años de El Niño en décadas anteriores.


Este mapa muestra cuánto más calientes fueron las aguas oceánicas la semana del 10 de agosto de 2015 en comparación con la temperatura promedio registrada entre 1981 y 2010. Crédito: NOAA
Los niveles globales de dióxido de carbono se han elevado de cerca de 280 partes por millón (ppm) en tiempos preindustriales, a casi 400 ppm hoy en día. En años recientes, los niveles de CO2 –el principal gas invernadero– han estado durante largos períodos por encima de la referencia de 400 ppm. Ese ha sido el caso por seis meses de este año, un período de tiempo equivalente al doble del año pasado. Se espera que en los próximos años los niveles se establezcan de modo permanente por encima de las 400 ppm.

Hacia el final de este siglo, el continuo aumento de los niveles de CO2 elevará la temperatura del planeta entre otros 3°F y 9°F, dependiendo de cuándo y si las emisiones de gases invernadero logran contenerse, según datos de investigadores.
Eso significa que existe la posibilidad de que algunos años futuros continúen presentando nuevos récords, incluso si aún hay variaciones de año en año.

Este artículo se reproduce con permiso de Climate Central. El artículo se publicó originalmente el 20 de agosto de 2015.