Un equipo de investigadores de la Unitat de Gràfics i Visió per Ordinador i IA (UGiVIA) y del Laboratori d’Aplicacions d’Intel·ligència Artificial de la Universitat de les Illes Balears (LAIA@UIB) ha dado a conocer un estudio innovador sobre las métricas de fidelidad para la Inteligencia Artificial Explicable (XAI). Este trabajo pone de relieve la necesidad de validar las métricas que se utilizan para evaluar la precisión de las explicaciones generadas por los modelos de inteligencia artificial.
La fidelidad se refiere a la exactitud con la que las explicaciones producidas por un sistema de inteligencia artificial reflejan las causas reales que el modelo ha aprendido. En términos simples, una métrica de fidelidad mide si las explicaciones ofrecidas por un modelo son verídicas y representan correctamente su funcionamiento interno. Por ejemplo, si un modelo realiza una predicción basada en ciertos factores, una explicación fiel debe mostrar esos factores como la causa exacta de dicha predicción.
Avaluar la precisión de les explicacions
Las métricas de fidelidad son fundamentales porque permiten a investigadores y usuarios confiar en las explicaciones proporcionadas por la inteligencia artificial, asegurando que estas sean una representación precisa del aprendizaje del modelo. La investigación, publicada en la revista Information Processing & Management, destaca la falta de una evaluación objetiva entre la explicación y la causa real aprendida por el modelo.
Los investigadores han desarrollado una metodología innovadora que utiliza modelos transparentes para verificar estas métricas, lo que permite obtener explicaciones con una fidelidad perfecta. Esta propuesta establece un primer punto de referencia objetivo para dichas métricas, facilitando así la comparación con propuestas existentes y superando los métodos actuales.
Resultados y recomendaciones
Los resultados del estudio indican que las métricas actuales no son suficientemente confiables para su uso en escenarios reales. Por ello, los investigadores sugieren el desarrollo de nuevas métricas y promueven su propuesta como un estándar dentro de la comunidad científica para abordar estas limitaciones.
El equipo investigador está compuesto por los doctores Miquel Miró Nicolau, Antoni Jaume Capó y Gabriel Moyà Alcover, todos ellos miembros del UGiVIA y LAIA@UIB. Este estudio se ha llevado a cabo en el marco de proyectos financiados por el Ministerio de Ciencia e Innovación y otras entidades relevantes.
Referencia bibliográfica:
Miró-Nicolau, M., Jaume-i-Capó, A., & Moyà-Alcover, G. (2025). A comprehensive study on fidelity metrics for XAI. Information Processing & Management, 62(1), 103900.
Preguntas sobre la noticia
Què és l'estudi presentat pels investigadors de la UIB?
L'estudi és una proposta innovadora sobre mètriques de fidelitat per a la intel·ligència artificial explicable (XAI), que valida la precisió de les explicacions generades pels models d'intel·ligència artificial.
Per què són importants les mètriques de fidelitat?
Les mètriques de fidelitat permeten als investigadors i usuaris confiar en les explicacions proporcionades per la intel·ligència artificial, assegurant que aquestes representen amb precisió el que el model ha après.
Quines limitacions tenen les mètriques de fidelitat actuals?
Els resultats de l'estudi indiquen que les mètriques de fidelitat actuals no són prou fiables per utilitzar-se en escenaris reals.
Quin és l'objectiu dels investigadors amb aquesta nova metodologia?
Els investigadors busquen desenvolupar noves mètriques i utilitzar la seva proposta com a punt de referència dins la comunitat científica per abordar les limitacions actuals.
Qui ha participat en aquest estudi?
Han participat els doctors Miquel Miró Nicolau, Antoni Jaume Capó i Gabriel Moyà Alcover, membres de la Unitat de Gràfics i Visió per Ordinador i IA (UGiVIA) i del Laboratori d'Aplicacions d'Intel·ligència Artificial de la UIB (LAIA@UIB).