Una predicción del tiempo atmosférico precisa y con la mayor anticipación posible no es solo fundamental para conocer la disponibilidad de energías renovables, planificar rutas o gestionar de forma eficaz la agricultura o inversiones en infraestructuras. También están en juego vidas. Las inundaciones han afectado en dos décadas a 2.500 millones de personas, matado a un cuarto de millón de ellas y causado daños evaluados en 936.000 millones, según la base de datos mundial sobre desastres naturales (EM-DAT) de la Universidad Católica de Lovaina (Bruselas). Los gigantes tecnológicos pugnan por conseguir el mejor modelo de predicción. Nature recoge este miércoles el desarrollo de Aurora, el modelo de inteligencia artificial (IA) desarrollado por Microsoft en colaboración con las universidades de Pensilvania, Cambridge y Ámsterdam, entre otras entidades. El objetivo es la mayor precisión y anticipación de forma eficaz, una carrera en la que también están IBM y la ESA (TerraMind) y Google (GraphCast).Augurar el tiempo es uno de los procesos más complejos. En la evolución atmosférica intervienen cientos de factores de comportamiento errático. Cualquier alteración de uno de ellos puede arruinar un pronóstico. Por esta razón, las predicciones más fiables no van más allá de tres días. Pero la inversión para romper esta limitación compensa: permitiría salvar vidas y evitar pérdidas económicas que un estudio publicado en Nature communications cifra en 143.000 millones de dólares anuales (128.000 millones de euros).Microsof asegura que Aurora facilita un pronóstico meteorológico de alta resolución más preciso y eficiente, así como de la calidad del aire, las trayectorias de los ciclones tropicales y la dinámica de las olas oceánicas. El programa ha sido entrenado con más de un millón de horas de datos diversos del sistema terrestre y su modelo se ha ajustado para “superar” en velocidad y precisión, según defiende Microsoft, “a varios sistemas operativos existentes”. La compañía afirma que su modelo ha arrojado “mejores resultados que los numéricos de última generación en el 92% de los objetivos y mejorando el rendimiento en eventos extremos”.Los modelos numéricos habituales se fundamentan en décadas de datos que exigen una gran potencia computacional. Algunos factores tardan días en recopilarse y procesarse y precisan de supercomputadores y sofisticados equipos. Este gasto de recursos se ha visto reducido recientemente por la IA. En el caso de Aurora, su entrenamiento, según destacan los autores de la investigación, tan solo llevó ocho semanas frente a los años que emplean sistemas convencionales. Los investigadores señalan que el modelo de Aurora, además, podría ser la base para el análisis de otros factores climáticos no implicados en su desarrollo actual.Paris Perdikaris, profesor asociado de ingeniería mecánica en la Universidad de Pensilvania y coautor de la investigación, afirma que Aurora ha sido “un desafío” porque no solo se trataba de diseñar y desarrollar herramientas de pronóstico confiables y precisas, sino que estas, además, fueran “accesibles para todos y requirieran muy pocos recursos computacionales”.“Aurora no utiliza directamente principios físicos, sino que se basa en observaciones e información y aprende de un conjunto muy diverso de datos geofísicos, incluidos pronósticos, observaciones, análisis y reanálisis, que es, básicamente, una reconstrucción de los patrones climáticos históricos”, explica Perdiakis.Para avalar la precisión del sistema, es investigador destaca: “Por primera vez, demostramos que un sistema de IA puede superar a todos los centros operativos de predicción de huracanes. Solo con datos históricos, [Aurora] pudo pronosticar correctamente todos los huracanes en 2023 con mayor precisión que los centros de operativos”. Perdikaris también resalta que el modelo demuestra “potencial para resolver con precisión tormentas y eventos extremos a escala muy local”.TerraMind, de IBM y la ESAEn esta carrera están también otros gigantes. IBM ha publicado en el repositorio abierto ArXiv los resultados de TerraMind, un modelo de la Agencia Espacial Europea (ESA) y la multinacional que, de forma muy resumida, consiste en dotar de cerebro a los sistemas satelitales de observación terrestre, los ojos de la tierra, y a la información de décadas sobre el comportamiento de la atmósfera.  “Hemos empezado nuevas modalidades. A los datos del radar, añadimos otros como el índice diferencial de vegetación, que ayuda a entender la vida en la superficie de la tierra; perfiles de elevación para entender todo en tres dimensiones, geocoordenadas … Si tenemos una imagen de satélite visual, nuestro sistema puede generar todos los otros modelos”, explica Juan Bernabé-Moreno, director de la división de investigación de IBM para Irlanda y Reino Unido y responsable de la Estrategia de Descubrimiento Acelerado para el Clima y la Sostenibilidad. El sistema no solo puede mostrar qué sucede bajo las nubes que dificultan el trabajo de los satélites. También es capaz de detectar, por ejemplo, la polución en el océano, rastrear flotas, la recuperación de una zona afectada por un incendio, las especies invasoras en un ecosistema, la degradación de la biodiversidad o del suelo, la evolución de un fenómeno o generar predicciones a partir de simulaciones con datos históricos. “Lo puedes aplicar a cualquier cosa que tenga una manifestación en la atmósfera, te añade un nivel de entendimiento del planeta que no había antes”, resume Bernabé-Moreno. TerraMind se ha generado con código abierto y con necesidades de memoria muy reducidas (1,5 gigas) para que sea accesible para cualquiera sin necesidad de equipos sofisticados. “Para nosotros es muy importante que la comunidad lo adopte y lo use”, argumenta el científico. En las futuras versiones, se trabaja con sistemas de inteligencia artificial que permitan al usuario, como un ganadero que quiera conocer los recursos naturales con los que cuenta y su posible evolución, interactuar con el programa a través del diálogo. La empresa de origen español Xoople trabaja también en este ámbito de “recopilación y análisis de datos terrestres para permitir una comprensión sistemática de los cambios físicos en la superficie de la Tierra”. Acaba de alcanzar una financiación de 115 millones de euros gracias al apoyo de AXIS, la gestora de capital riesgo del Instituto de Crédito Oficial (ICO), y el CDTI, una entidad del Ministerio de Ciencia, Innovación y Universidades de España que la ha calificado como Empresa Estratégica. El objetivo es aplicar la IA para reconocer patrones, detectar cambios y proporcionar análisis predictivos en plataformas comunes. Más informaciónGoogle DeepMind, la compañía de inteligencia artificial del gigante tecnológico norteamericano, fue la primera en mostrar en Science un modelo de pronóstico del tiempo basado en aprendizaje automático para aportar predicciones a 10 días “mejores, más rápidas y más accesibles que los enfoques existentes”, según el estudio. El modelo, denominado GraphCast, superó a los sistemas tradicionales en el 90% de los casos probados.El sistema que sirvió de referencia a Google fue el Centro Europeo de Previsiones Meteorológicas a Medio Plazo (ECMWF por sus siglas en inglés), que cuenta en Bolonia (Italia) con una supercomputadora con alrededor de un millón de procesadores y una potencia de 30 petaflops (30.000 billones de cálculos por segundo). Este centro, que utiliza la inteligencia artificial en su Sistema Integrado de Previsión (AIFS) y ofrece pronósticos a largo plazo de eventos climáticos, anticipó las lluvias torrenciales de septiembre en el centro de Europa.GraphCast no precisa de estas capacidades y recurre al aprendizaje automático entrenado a partir de datos históricos para arrojar un pronóstico preciso de 10 días en menos de un minuto. “Creemos que esto marca un punto de inflexión en la predicción meteorológica”, afirman los autores, dirigidos por Remi Lam, científico de DeepMind.

Shares: