La Universidad de Granada coordina un manual sobre IA con el objetivo de mejorar la transparencia
El recurso ofrece una forma de verificar y certificar los resultados de modelos complejos y contribuye al desarrollo de sistemas
La Universidad de Granada (UGR) ha coordinado la elaboración de un manual que busca reforzar la confianza, la responsabilidad y la equidad en aplicaciones de Inteligencia Artificial (IA) en sectores como la salud, las finanzas y el ámbito legal.
Este recurso ofrece una forma de verificar y certificar los resultados de modelos complejos y contribuye al desarrollo de sistemas de IA que no solo sean efectivos, sino también comprensibles y justos.
La institución educativa ha explicado en una nota que, en los últimos años, el uso de sistemas automáticos de apoyo a la toma de decisiones, como las Redes Neuronales Profundas, ha crecido de manera significativa. Estos modelos destacan por su capacidad de predicción, pero su naturaleza opaca dificulta la interpretación detallada de su comportamiento, lo que plantea riesgos éticos y de legitimidad en decisiones de alto impacto.
Para abordar la problemática, el reciente artículo publicado en 'ACM Digital Library', titulado 'A Practical Tutorial on Explainable AI Techniques', presenta un manual exhaustivo de técnicas de inteligencia artificial explicable (XAI).
Guía para profesionales
Este recurso busca convertirse en una guía "esencial" para profesionales de la informática que busquen comprender y explicar los resultados de modelos de 'Machine Learning'. Cada capítulo describe técnicas XAI aplicables en situaciones cotidianas, con ejemplos y cuadernos de trabajo en 'Python' que pueden adaptarse a diversas aplicaciones específicas. Además de proporcionar métodos prácticos, el manual ayuda a los usuarios a conocer los requisitos necesarios para cada técnica y los beneficios que pueden obtener.
La directora de esta guía es la docente Natalia Díaz, del Departamento de Ciencias de la Computación e Inteligencia Artificial de la UGR, y una de las integrantes del Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional (Instituto DaSCI).
Díaz, que también es beneficiaria de una de las becas de Talento Leonardo de la Fundación BBVA, ha indicado que es "importante" que la población sea consciente de las capacidades y limitaciones, tanto de los modelos avanzados de IA como de las técnicas de explicabilidad que tratan de argumentar y validar los primeros.
Para la profesora, "en ocasiones las explicaciones no son satisfactorias o fácilmente validables, ya que, por ejemplo, no coinciden con el idioma que habla el experto del dominio en cada caso, exhibiendo dificultades a la hora de resolver el entendimiento entre público técnico y de calle".
"¿No sería genial pedirle a 'ChatGPT' que nos traduzca qué ha aprendido realmente un modelo y lo exprese con palabras? Aunque esto es algo a lo que aspiramos, y queda mucha investigación por realizar, este tutorial intenta dar un paso adelante", ha trasladado.
Trabajo con expertos internacionales
El trabajo ha sido realizado durante la estancia de la profesora Díaz en el Instituto Politécnico de París y es una colaboración internacional con expertos de Reino Unido, Francia y Austria, entre otros países.
El Instituto Andaluz Interuniversitario en Ciencia de Datos e Inteligencia Computacional es una entidad de colaboración entre las universidades de Granada, Jaén y Córdoba. Se dedica a la investigación avanzada y la formación en el ámbito de la inteligencia artificial, con un enfoque particular en la ciencia de datos e inteligencia computacional.
Además, reúne a un destacado grupo de investigadores e investigadoras que trabajan en proyectos conjuntos, promoviendo el desarrollo y la aplicación de tecnologías innovadoras en diversos sectores, con el objetivo de convertirse en un referente en su campo. El 'DaSCI' impulsa la transferencia de conocimiento científico al entorno socioeconómico, contribuyendo así al progreso tecnológico y a la digitalización de la industria.