Vista de nubes sobre la cordillera de los Andes, con la cumbre cubierta de nieve, desde Santiago (Chile).

Las nubes desafían la comunidad científica que trata de pronosticar el cambio climático desde hace medio siglo. Esas masas de vapor son muy complejas y se forman cuando hay núcleos de condensación. Nacen gracias a los aerosoles que tienen origen natural (polvo mineral y orgánico, sales del océano) o antropogénico, producido por procesos de combustión en generación de energía y transporte y en reacciones químicas secundarias. Esas partículas suspendidas en el aire que se lleva el viento permiten que el vapor de agua se agreguen a ellas y formen gotitas de agua o cristales de hielo. Además, hay una gran variedad de nubes y cada una tiene un efecto distinto sobre el calentamiento global. Algunas, como los estratos, reflejan más luz solar y enfrían la superficie, mientras que otras, conocidas como cirros, pueden tener el efecto contrario y atrapar el calor.


La interacción entre nube y aerosoles es muy difícil de simular porque existen muchos tipos de partículas, su composición química varía, sigue sin conocerse del todo y muchos otros factores entran en juego, así como el océano, la atmósfera, las montañas y la región del planeta, entre otras cosas. Debido a la contaminación del aire se forman más gotas y más pequeñas. Esto hace que la nube tenga más brillo y refleje más la luz del sol. Sin embargo, existen otras que provocan el efecto contrario y crean menos gotas, pero más grandes, dando lugar a esas nubes densas que absorben y calientan el planeta. En cambio, las de tipo cúmulo no tienden a afectar demasiado la temperatura.

Estos trabajos son esenciales porque nos ayudan a ver donde tenemos capacidad y necesidad de mejora en los modelos. Ponen el dedo en la llaga 

ENRIQUE SÁNCHEZ SÁNCHEZ, DE LA UNIVERSIDAD DE CASTILLA LA MANCHA
Hace unos 40 años, no se pensaba ni en ello y ese fenómeno, de una importancia evidente para el pronóstico del calentamiento global, ni siquiera se incluía en los modelos —hoy más numerosos [37] y mucho más complejos que los de entonces—. Francisco Doblas-Reyes, profesor en la Institución Catalana de Investigación y Estudios Avanzados (ICREA), explica que son partículas que no se ven y que son difíciles de medir porque se tendría que hacer en todas las zonas del planeta. “Es una gran fuente de incertidumbre y somos muy conscientes de ello”, añade.

Un nuevo artículo publicado en Science Advances recopila la información y confirma que esta interacción imperceptible y compleja está al origen de la alteración de las estimaciones de la sensibilidad climática de los modelos, que eran estables desde 1970 y decían que la tierra se podía calentar en los próximos años entre 1,5º y 4,5º. Según los resultados más recientes (CMIP6), el rango es mayor y se sitúa entre 1,8º y 5,6º.

Es importante mirar el contexto y la historia de los modelos para entender las variaciones, algo que un estudio de enero ya trató de aclarar. “Al tener más conocimiento y meter más información y realismo, crecen las incertidumbres, pero no significa que sea alarmista, al contrario. Desde que empezamos con los modelos, las cifras medias se han quedado estables y eso es una buena noticia”, explica Gerald Meehl, principal autor del estudio e investigador del Centro Nacional de Investigación Atmosférica de Estados Unidos (NCAR) que ha visto toda la progresión de los modelos desde los ochenta.


¿Cómo se mide?

El calentamiento en los próximos años se estima con las proyecciones de escenarios climáticos. Las dos métricas que se utilizan para ello existen desde el principio y se utilizan juntas y, tal y como lo dice Fidel González Rouco, investigador del Instituto de Geociencias (UCM-CSIC) en el Departamento de Física de la Tierra y Astrofísica de la Universidad Complutense de Madrid, “es importante guardar la homogeneidad en evaluar los modelos a lo largo del tiempo”. En primer lugar está el ECS (Equilibrium Climate Sensitivity) que contesta a la pregunta: ¿Cuánto cambiaría la temperatura si duplicásemos el CO2? Aunque eso no ocurre en la realidad, permite tener una idea a largo plazo de cómo ha evolucionado la sensibilidad de los modelos climáticos a cambios en las concentraciones de CO2. Una segunda opción llegó algunos años más tarde para dar más realismo: ¿Y qué ocurre si se aumenta progresivamente el CO2 de un 1% por año? La respuesta se llama el TCR (Transient Climate Response) y se sitúa entre 1,3º y 3,0º.

Al involucrar más factores y procesos, el ECS tiende a ser más alto que el TCR, pero González Rouco asegura que las dos son útiles. “Involucran procesos distintos y permiten contar la historia del clima a lo largo del siglo y la respuesta en función de diferentes escenarios”, argumenta. El especialista insiste en que las incertidumbres que aparecen hoy, debido al aumento de conocimiento y parametrizaciones, no son errores sino “guías para saber qué decisiones tomar en el futuro para mejorar los modelos climáticos” y dónde es necesario poner la lupa.

Mejorar la observación y la resolución

Existen varios avances cruciales que podrían ayudar a reducir dichas incertidumbres. Un grupo de investigadores consiguió calcular el brillo de una nube en función de la cantidad de partículas de aerosoles, comparando el antes y el después de la irrupción de un volcán, según se publicó en Nature hace tres años. “Por primera vez, teníamos un experimento físico concreto. Pero son procesos muy finos, microscópicos y complejos. Aunque fue un gran descubrimiento, solo era un tipo de nube, en un lugar concreto y a una latitud precisa”, advierte Meehl.

Por otro lado, el satélite Calipso, de la NASA y del Centro Nacional de Estudios Espaciales francés, gracias a un dispositivo lídar dotado de un emisor de láser pulsado, permite observar la estructura vertical de las nubes y la distribución de las partículas. Hasta ahora siempre había sido un gran misterio. Las diferentes capas que había y su construcción eran imperceptibles. “Para esto, los satélites son de una gran ayuda porque es muy difícil simular algo que no entiendes o desconoces y todas estas nuevas mediciones nos hacen cambiar y modificar nuestros modelos”, asegura el experto estadounidense.

Otro de los aspectos donde es necesario hacer una mejora es en la resolución. Los modelos globales actuales, explica Doblas-Reyes, son capaces de simular con una resolución de entre 50 y 100 kilómetros, cuando lo ideal sería de un kilómetro. “Para simular y describir los procesos más importantes necesitamos esa resolución porque entre cada puntito alrededor del planeta pasan muchas otras cosas. Todo este tipo de estructuras son importantes porque no es lo mismo tener un pico de 1.800 metros o una cordillera que una montaña de 500 o un valle”, detalla el experto. Sin embargo, conseguir dicha resolución requiere un mínimo de 10 años por lo que es imposible prever cuando el conocimiento vencerá la incertidumbre.

Mirar también la escala regional

Enrique Sánchez Sánchez, experto de modelización del clima a escala regional y profesor en la Universidad de Castilla La Mancha, también resalta la desventaja de los modelos globales: la poca resolución. “Aun así, los necesitamos; son el primer paso para luego hacer el zum en una región concreta.”, cuenta. Hace 30 años Filipo Giorgi, investigador en el Centro Internacional de Física Teórica en Trieste (Italia), desarrolló otro tipo de modelos que permitieron afinar los procesos, pero el problema, confirma Sánchez, es que “están centrados donde hay grupos activos, es decir, Australia, Europa, América del Norte, Japón”.

Las zonas dónde hay menos estudios son Asia, Ártico, África y América del Sur, pero a la vez son muy complejas. “Cada región tiene sus características y hay unas regiones donde es más sistemático y más estable”, compara Sánchez. Para él, el foco se tiene que poner en un mejor conocimiento de las nubes y, al mismo tiempo, en hacer más simulaciones regionales en áreas con una cantidad limitada de estudios. “Estos trabajos son esenciales porque nos ayudan a ver donde tenemos capacidad y necesidad de mejora en los modelos. Ponen el dedo en la llaga y muestran dónde vamos despacio y dónde, claramente, hemos mejorado”, concluye. La iniciativa CORDEX, por ejemplo, pretende coordinar dichos esfuerzos de mejora de modelización en todas las regiones del planeta.