Comparación de métodos de explicación del comportamiento de modelos de aprendizaje profundo en el procesamiento de imágenes digitales
Fecha
2024Autor(es)
Jimenez Lucumi, Vicenta del Rosario
Mercado Sarmiento, Francois Bernard
Metadatos
Mostrar el registro completo del ítemResumen
Este estudio tuvo como objetivo comparar diferentes métodos de explicación del
comportamiento de modelos de aprendizaje profundo en el procesamiento de imágenes
digitales. Se implementaron tres métodos ampliamente reconocidos: Grad-CAM, LIME
y Occlusion Sensitivity, aplicándolos a tres datasets distintos: Reusimat_USS_Dataset,
Brain Tumor MRI Dataset y Pistachio Dataset. Los modelos de aprendizaje profundo
utilizados fueron ResNet50, EfficientNetV2B0 y MobileNetV2. La efectividad de los
métodos de explicación se evaluó mediante las métricas de fidelidad, monotonía y
robustez. Los resultados mostraron que EfficientNetV2B0 alcanzó la mayor precisión
(99%) en los datasets de tumores cerebrales y pistachos. Grad-CAM demostró alta
monotonía en todos los datasets, mientras que LIME obtuvo la mayor fidelidad en el
dataset Reusimat_USS. Occlusion Sensitivity mostró un rendimiento excepcional en los
datasets de tumores cerebrales y pistachos, con alta fidelidad y robustez. Se concluyó
que la efectividad de los métodos de explicación varía significativamente según el
contexto y las características de los datos, subrayando la importancia de un enfoque
adaptativo en la selección de métodos de explicación. Este estudio contribuye al avance
de la explicabilidad en inteligencia artificial y sienta las bases para futuras
investigaciones que busquen equilibrar el rendimiento de los modelos con su
interpretabilidad.
Materias
Colecciones
El ítem tiene asociados los siguientes ficheros de licencia: