Published On: 11 desembre 2025

Un grup de científics destacats, designats per les xarxes europees d’acadèmies que integren SAPEA (sigles de Science Advice for Policy by European Academies), presenta avui un nou informe sobre el paper de la intel·ligència artificial en la gestió d’emergències i crisis. L’informe s’entrega a Maciej Popowski, director general de la DG ECHO (Protecció Civil i Operacions d’Ajuda Humanitària Europees) de la Comissió Europea.

Informe sobre Intel·ligència Artificial en la Gestió d’Emergències i Crisis de SAPEA

El Mecanisme d’Assessorament Científic proporciona proves científiques independents i recomanacions de política a les institucions europees. Els científics tenen un paper essencial en orientar les polítiques de la UE, especialment en àmbits com la IA en la gestió d’emergències i crisis, on la coordinació intersectorial a escala europea és imprescindible.

La IA ofereix un potencial important per millorar la gestió d’emergències i crisis en determinades situacions. Adoptant una perspectiva sociotècnica, l’informe defensa que les eines d’IA han de respectar la dignitat humana, la transparència i la responsabilitat, i alhora complir les normes europees de seguretat i d’ètica. Cal una monitorització acurada per garantir el compliment dels marcs jurídics, evitar els biaixos algorítmics i mantenir un control humà significatiu.

Les evidències indiquen que la IA funciona millor en tasques estandarditzades i intensives en dades, típiques de desastres freqüents com inundacions, incendis forestals i sequeres. Excel·leix en tasques de monitoratge repetitives importants per als sistemes d’alerta precoç, i pot processar xarxes socials i avaluar danys a una escala i velocitat inabastables per als analistes humans. Tanmateix, la IA no s’adapta bé a interpretar contextos molt heterogenis o situacions noves en què falten dades d’entrenament adequades. A més, les decisions i els dilemes amb una forta càrrega moral no s’haurien de delegar en una eina d’IA.

El desenvolupament i la implementació de punts de referència, directrius pràctiques, codis de conducta i entorns de proves (sandboxes) per a la IA en la gestió de crisis permetrien testar la IA sota supervisió i amb control ètic abans del seu desplegament complet.

Un nou marc europeu de preparació de dades per a la gestió de crisis, amb estàndards comuns i protocols de compartició acordats, podria ajudar a cobrir buits de dades i promoure l’harmonització entre els Estats membres, facilitant l’entrenament d’IA a escala europea adaptada als contextos rellevants de la UE, i ajudant a disposar de millors eines europees de gestió de crisis.

“Les crisis travessen fronteres, però les dades es gestionen a escala nacional, amb estàndards diversos. Aquesta diversitat pot generar una fragmentació en el panorama de dades que la IA no pot salvar fàcilment. La preparació de les dades és un pas important per connectar aquests sistemes, que proporcionen la base necessària perquè la IA ofereixi un suport efectiu a la presa de decisions en la gestió de crisis a Europa”, va explicar la professora Tina Comes, presidenta del grup de treball de SAPEA sobre Intel·ligència Artificial en la Gestió d’Emergències i Crisis.

Quan utilitzar la IA per a la gestió de crisis i quan optar per vies alternatives (Figura 6. Informe sobre Intel·ligència Artificial en la Gestió d’Emergències i Crisis)

La investigadora de l’IDAEA-CSIC, Marta López Saavedra, va participar com a experta convidada en el taller “The Role and Use of Artificial Intelligence for Crisis Management”, organitzat en suport del Scientific Advice Mechanism (SAM) de la Comissió Europea. Les conclusions d’aquest taller han contribuït a l’elaboració d’un informe de síntesi de proves, preliminar a l’informe de SAPEA per a la DG ECHO.

Segons la Dra. Saavedra, membre del Servei d’Avaluació i Gestió de Riscos Naturals (NRAMS) de l’IDAEA-CSIC, especialitzat en l’avaluació i la gestió de riscos naturals mitjançant tecnologia avançada:

“Aquest informe és especialment valuós perquè ajuda a aclarir, amb un llenguatge accessible, què pot aportar realment la intel·ligència artificial en situacions de crisi i quines precaucions s’han de prendre per utilitzar-la de manera segura. Ofereix una guia clara per entendre per a quins tipus de tasques és útil la IA, quines dades necessita, com s’ha d’avaluar i per què és sempre imprescindible mantenir la supervisió humana.”

 

“Aquest treball aporta una base sòlida per prendre decisions informades: explica les oportunitats, assenyala les limitacions reals i proposa mesures pràctiques perquè qualsevol eina d’IA s’utilitzi de manera responsable, ètica i alineada amb la protecció de les persones. En un moment en què les crisis són cada cop més complexes, disposar d’un marc així és fonamental per reforçar l’anticipació, la coordinació i la resiliència”, afegeix la investigadora.

Descarrega aquí l’informe complet

Més notícies