in

Simulando el cambio climático del próximo siglo

The Millennium Simulation es un proyecto del Instituto Max Planck de Meteorología que permitirá a los científicos elaborar modelos computarizados avanzados de los cambios que se producirán en el clima del mundo durante el próximo milenio. Y lo están haciendo utilizando “solo” la potencia de los superordenadores que tienen a su disposición.

¿Cómo será el clima del planeta durante los próximos siglos?

No solo el ya olvidado Large Hadron Collider puede generar y “masticar” apabullantes cantidades de información. Los superordenadores utilizados para simular eventos complejos, como el clima o la evolución del universo, también son capaces de hazañas formidables. Por ejemplo, podríamos ser perfectamente capaces de pronosticar el clima exacto de cada ciudad de nuestro planeta para la semana siguiente, si pudiésemos introducir en un ordenador la posición y velocidad de cada partícula de la atmósfera -entre otros datos- y jugar un poco con ellos. Por supuesto, y dejando de lado la imposibilidad tecnológica actual de medir cosas semejantes, no hay ningún superordenador que esté siquiera remotamente cerca de lograr tal cosa.

Sin embargo, los científicos suelen ser bastante buenos a la hora de apañarse con lo que tienen a mano. Por ejemplo, en el Instituto Max Planck de Meteorología están teniendo en cuenta la influencia humana en el contenido de carbono de nuestro planeta, para así pronosticar cómo será el clima en el futuro. Y lo están haciendo utilizando “solo” la potencia de los superordenadores que tienen a su disposición. Los encargados del proyecto utilizan datos que incluyen las superficies de terreno cultivadas o los aportes de fenómenos naturales como la actividad volcánica para, mediante una simulación informática, determinar a grandes rasgos como será el clima del planeta durante las próximas décadas, siglos y milenios.

El modelo de la Tierra utilizado por The Millennium Simulation contiene submodelos específicos para determinar el comportamiento de la atmósfera, los océanos, la superficie terrestre, la biogeoquímica y, por supuesto, todo lo que sabemos sobre el  ciclo del carbono. Los resultados obtenidos se utilizarán como parte del próximo informe del Grupo Intergubernamental de Expertos sobre el Cambio Climático, órgano que provee la información que ayuda a los más altos niveles de los gobiernos a tomar decisiones sobre el medio ambiente.

Simulacion de los primeros instantes del universo.

Un proyecto tan ambicioso como este requiere de toda la colaboración necesaria, así que científicos de toda Europa y de otros continentes están aportando información y colaborando con el análisis de los resultados. Dado que las simulaciones necesitan de un gran ancho de banda, se está utilizando la infraestructura de Geant2, una red nacional compuesta a su vez por redes de investigación y educación distribuidas por todo el continente. Hasta ahora, las simulaciones han proporcionado unos 50 Terabytes de datos. Pero según Reinhard Budich, director del proyecto en el Instituto Max Planck de Meteorología, "la simulación de los próximos, digamos, 1000 años generarán enormes cantidades de datos que tienen que ser compartidos.” Es que no solo se realiza una simulación, sino que se corren cientos de ellas, cada una con parámetros iniciales ligeramente diferentes. Y cada ejecución genera más y más datos. Gracias a Geant2, los meteorólogos, historiadores y otras partes interesadas de todo el mundo tienen esta información a su disposición.

De hecho, si no fuese por esta red, que también se utiliza cuando el LHC está funcionando, sería imposible manejar semejante cantidad de bytes. Budich reconoce que “el proyecto depende de Geant2. Su infraestructura es indispensable para el proyecto”. Los datos generados por cada ejecución de The Millennium Simulation se almacenan en el World Datacenter for Climate, un centro de cómputo ubicado en Hamburgo, Alemania, que además es la base de datos basada en Linux más grande del mundo. Este depósito de datos almacena más de 400 Terabytes, y se encuentra enlazada con el Max Planck Institute a través de un enlace capaz de mover hasta 655Mpbs.

Esta, como toda simulación que se precie de tal, seguramente contendrá errores. Es decir, los científicos saben perfectamente que no pueden predecir con exactitud cuál será la temperatura media de los océanos dentro de mil años, o qué clima tendremos sobre Barcelona dentro de 4 décadas. Pero los modelos elaborados y las conclusiones generadas por iniciativas como esta son las que permiten determinar qué tan nocivas pueden resultar las actividades del hombre para nuestro futuro, sobre todo las que se relacionan con la inyección de gases de efecto invernadero en nuestra atmósfera.

Reportar

¿Qué te pareció?

Escrito por Ariel Palazzesi

One Comment

Leave a Reply
  1. Creía que Al Gore con su película ”Una verdad incómoda” y una infinidad de estudios científicos realizados para determinar los efectos negativos de la contaminación ya habían dejado claro cuál es el futuro que nos espera si no cambiamos radicalmente. No termino de comprender la verdadera finalidad de esta iniciativa.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Cabos: LimeWire abierto y gratis

Manuscrito Voynich: ¿El mejor cifrado de la historia?