El concepto de neutralidad climática es una trampa (I)

"La idea de la neutralidad climática ha dado alas a un enfoque imprudente de 'quema ahora, paga después', que ha hecho que las emisiones sigan aumentando", defienden los tres científicos.
Foto: cero-neto_imagen-principal-climatica

Este análisis sobre el concepto de cero emisiones netas (popularizado en España y Europa como neutralidad climática) se publicó originalmente, en inglés, en The Conversation. Debido a su extensión, el texto se ha dividido en tres partes por separado. Puedes leer la segunda parte aquí, y la tercera aquí.

A veces, la comprensión llega como un fogonazo deslumbrante. Las siluetas borrosas toman forma y, de repente, todo cobra sentido. Debajo de tales revelaciones suele haber un proceso de maduración mucho más lento. Las dudas en el fondo de la mente crecen. La sensación de confusión de que las cosas no pueden encajar aumenta hasta que algo encaja. O quizás se rompe.

En conjunto, los tres autores de este artículo debemos haber pasado más de 80 años pensando en el cambio climático. ¿Por qué nos ha llevado tanto tiempo hablar sobre los peligros obvios del concepto de “cero emisiones netas”? En nuestra defensa, la premisa de ese concepto es engañosamente simple, y admitimos que nos engañó.

Las amenazas del cambio climático son el resultado directo del exceso de demasiado dióxido de carbono en la atmósfera. Por tanto, no debemos superar esa cifra de emisiones e incluso reducirlas. Esta idea es fundamental en el plan mundial actual para evitar una catástrofe. De hecho, hay muchas sugerencias sobre cómo conseguirlo, desde la plantación masiva de árboles hasta extractores de CO2 atmosférico de alta tecnología que succionan el dióxido de carbono del aire.

El consenso actual es que, si implementamos estas y otras técnicas de “eliminación de dióxido de carbono” al mismo tiempo que reducimos nuestra quema de combustibles fósiles, podemos detener más rápidamente el calentamiento global.

Ojalá que a mediados de este siglo logremos las “cero emisiones netas”, “cero neto” o “neutralidad climática”, es decir, el punto en el que las emisiones residuales de gases de efecto invernadero se equilibran mediante tecnologías que las eliminan de la atmósfera.

Esta es una gran idea, en principio. Desafortunadamente, en la práctica ayuda a perpetuar la creencia en la salvación tecnológica y disminuye el sentido de urgencia que rodea la necesidad de reducir las emisiones ahora.

Hemos llegado a la dolorosa comprensión de que la idea de “cero neto” ha dado alas a un enfoque imprudente de “quema ahora, paga después”, que ha hecho que las emisiones de carbono sigan aumentando. También ha acelerado la destrucción del mundo natural al aumentar la deforestación en la actualidad y ha aumentado enormemente el riesgo de una mayor devastación en el futuro.

Para comprender cómo ha sucedido esto, cómo la humanidad ha apostado a su civilización a promesas de soluciones futuras, debemos volver a finales de los años ochenta, cuando el cambio climático irrumpió en el escenario internacional.

Pasos hacia las “cero emisiones netas”

El 22 de junio de 1988, James Hansen era el administrador del Instituto Goddard de Estudios Espaciales de la NASA, un nombramiento prestigioso pero casi desconocido fuera del mundo académico.

Durante la tarde del 23 de junio, iba camino de convertirse en el científico del clima más famoso del mundo. Esto fue como resultado directo de su testimonio en el Congreso de Estados Unidos, cuando presentó pruebas forenses de que el clima de la Tierra se estaba calentando y los humanos eran la causa principal: “Se ha detectado el efecto invernadero y está cambiando nuestro clima”, afirmó.

Si hubiéramos actuado sobre la base del testimonio de Hansen en ese momento, habríamos podido descarbonizar nuestras sociedades a una tasa de alrededor del 2% al año para darnos una probabilidad superior a un 66% de limitar el calentamiento a no más de 1,5 °C. Habría sido un gran desafío, pero la tarea principal en ese momento habría sido simplemente detener el uso acelerado de combustibles fósiles mientras se repartían equitativamente las emisiones futuras.

Cuatro años después, hubo destellos de esperanza de que esto fuera posible. Durante la Cumbre de la Tierra de Río de Janeiro (1992), todos los países participantes acordaron estabilizar las concentraciones de gases de efecto invernadero para asegurarse de que no produjeran interferencias peligrosas con el clima. La Cumbre de Kioto de 1997 intentó empezar a poner en práctica ese objetivo. Pero a medida que pasaban los años, la tarea inicial de mantenernos a salvo se volvió cada vez más difícil dado el aumento continuo del uso de combustibles fósiles.

Fue en esa época cuando se desarrollaron los primeros modelos informáticos que vinculaban las emisiones de gases de efecto invernadero con los impactos en diferentes sectores de la economía. Estos modelos híbridos climáticos y económicos se conocen como Modelos de Evaluación Integrada (MEI), y permitieron vincular la actividad económica con el clima, por ejemplo, explorando cómo los cambios en las inversiones y la tecnología podrían conducir a cambios en las emisiones de gases de efecto invernadero.

Parecían un milagro: se podían probar las políticas en la pantalla de un ordenador antes de implementarlas, lo que le ahorraba a la humanidad costosos experimentos. Surgieron rápidamente para convertirse en una guía clave para la política climática; una posición prioritaria que mantienen hasta el día de hoy.

Desafortunadamente, también eliminaron la necesidad de un pensamiento crítico profundo. Dichos modelos representan a la sociedad como una red de compradores y vendedores idealizados y sin emociones y, por lo tanto, ignoran complejas realidades sociales y políticas, o incluso los impactos del cambio climático en sí. Su promesa implícita es que los enfoques basados ​​en el mercado siempre funcionarán. Esto significó que las discusiones sobre las políticas climáticas se limitaron a las más convenientes para los políticos: innovaciones incrementales en la legislación y en los impuestos.

En torno a la época en que se desarrollaron por primera vez, se estaban haciendo esfuerzos para asegurar una acción de Estados Unidos sobre el clima que permitiera contar con los sumideros de carbono de los bosques del país. EE. UU. Argumentó que, si manejaba bien sus bosques, podría almacenar una gran cantidad de carbono en los árboles y el suelo, que debería restarse de sus obligaciones de limitar la quema de carbón, petróleo y gas. Al final, Estados Unidos se salió con la suya. Irónicamente, todas las concesiones fueron en vano, ya que el Senado de Estados Unidos nunca ratificó el acuerdo.

Proponer un futuro con más árboles podría compensar, de hecho, la quema de carbón, petróleo y gas. Como los modelos podían producir fácilmente números en los que el dióxido de carbono atmosférico bajara tan bajo como se deseaba, se podrían explorar escenarios cada vez más sofisticados que redujeran la urgencia de reducir el uso de combustibles fósiles. Al incluir sumideros de carbono en los modelos económico-climáticos, se abrió una caja de Pandora. Es aquí donde encontramos la génesis de las políticas de “cero neto” de hoy.

Dicho esto, la mayor parte de la atención a mediados de la década de 1990 se centró en aumentar la eficiencia energética y el cambio de energía (como ocurrió en Reino Unido, con el paso del carbón al gas) y el potencial de la energía nuclear para proporcionar grandes cantidades de electricidad libre de carbono. La esperanza era que tales innovaciones revertirían rápidamente los aumentos en las emisiones de combustibles fósiles.

Pero hacia el cambio de milenio estaba claro que tales esperanzas eran infundadas. Dada la suposición principal de cambio progresivo, se estaba volviendo cada vez más difícil para los modelos económico-climáticos encontrar vías viables para evitar un cambio climático peligroso. En respuesta, los modelos comenzaron a incluir cada vez más ejemplos de captura y almacenamiento de carbono, una tecnología que podría eliminar el dióxido de carbono de las centrales eléctricas de carbón y luego almacenar el carbono capturado en las profundidades del subsuelo indefinidamente.

En principio, se había demostrado que esto era posible: el dióxido de carbono comprimido se separó del gas fósil y luego se inyectó bajo tierra en varios proyectos desde la década de 1970. Estos modelos de recuperación mejorada de petróleo se diseñaron para forzar la entrada de gases en los pozos de petróleo con el fin de impulsar el petróleo hacia las plataformas de perforación y así permitir que se recupere más: petróleo que luego se quemaría, liberando aún más dióxido de carbono a la atmósfera. La captura y el almacenamiento de carbono ofreció el giro argumental de que, en lugar de utilizar el dióxido de carbono para extraer más petróleo, el gas se dejaría bajo tierra y se eliminaría de la atmósfera. Esta tecnología innovadora permitiría que el carbón fuera respetuoso con el clima y, por lo tanto, el uso continuado de este combustible fósil. Pero mucho antes de que el mundo fuera testigo de tales esquemas, el proceso hipotético se había incluido en los modelos económicos-climáticos. Al final, la mera perspectiva de la captura y el almacenamiento de carbono les dio a los responsables de la formulación de políticas una forma de evitar los recortes tan necesarios en las emisiones de gases de efecto invernadero.


Autores: James Dyke, profesor titular de Sistemas Globales, Universidad de Exeter; Robert Watson, catedrático emérito de Ciencias Ambientales, Universidad de East Anglia; y Wolfgang Knorr, investigador titular de Geografía Física y Ciencias del Ecosistema, Universidad de Lund.

Gracias a la colaboración de nuestra
comunidad podemos publicar. Ayúdanos a seguir.

COMENTARIOS

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.