Mostrar el registro sencillo del ítem
Comparación de métodos de explicación del comportamiento de modelos de aprendizaje profundo en el procesamiento de imágenes digitales
dc.contributor.advisor | Tuesta Monteza, Victor Alexci | |
dc.contributor.author | Jimenez Lucumi, Vicenta del Rosario | |
dc.contributor.author | Mercado Sarmiento, Francois Bernard | |
dc.date.accessioned | 2024-11-28T15:39:55Z | |
dc.date.available | 2024-11-28T15:39:55Z | |
dc.date.issued | 2024 | |
dc.identifier.uri | https://hdl.handle.net/20.500.12802/13648 | |
dc.description.abstract | Este estudio tuvo como objetivo comparar diferentes métodos de explicación del comportamiento de modelos de aprendizaje profundo en el procesamiento de imágenes digitales. Se implementaron tres métodos ampliamente reconocidos: Grad-CAM, LIME y Occlusion Sensitivity, aplicándolos a tres datasets distintos: Reusimat_USS_Dataset, Brain Tumor MRI Dataset y Pistachio Dataset. Los modelos de aprendizaje profundo utilizados fueron ResNet50, EfficientNetV2B0 y MobileNetV2. La efectividad de los métodos de explicación se evaluó mediante las métricas de fidelidad, monotonía y robustez. Los resultados mostraron que EfficientNetV2B0 alcanzó la mayor precisión (99%) en los datasets de tumores cerebrales y pistachos. Grad-CAM demostró alta monotonía en todos los datasets, mientras que LIME obtuvo la mayor fidelidad en el dataset Reusimat_USS. Occlusion Sensitivity mostró un rendimiento excepcional en los datasets de tumores cerebrales y pistachos, con alta fidelidad y robustez. Se concluyó que la efectividad de los métodos de explicación varía significativamente según el contexto y las características de los datos, subrayando la importancia de un enfoque adaptativo en la selección de métodos de explicación. Este estudio contribuye al avance de la explicabilidad en inteligencia artificial y sienta las bases para futuras investigaciones que busquen equilibrar el rendimiento de los modelos con su interpretabilidad. | es_PE |
dc.description.uri | Trabajo de investigación | es_PE |
dc.format | application/pdf | es_PE |
dc.language.iso | spa | es_PE |
dc.publisher | Universidad Señor de Sipán | es_PE |
dc.rights | info:eu-repo/semantics/openAccess | es_PE |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/2.5/pe/ | * |
dc.source | Repositorio Institucional - USS | es_PE |
dc.source | Repositorio Institucional USS | es_PE |
dc.subject | Aprendizaje profundo | es_PE |
dc.subject | Explicabilidad de IA | es_PE |
dc.subject | Procesamiento de imágenes | es_PE |
dc.subject | Redes neuronales convolucionales | es_PE |
dc.subject | Interpretabilidad de modelos | es_PE |
dc.title | Comparación de métodos de explicación del comportamiento de modelos de aprendizaje profundo en el procesamiento de imágenes digitales | es_PE |
dc.type | info:eu-repo/semantics/bachelorThesis | es_PE |
thesis.degree.grantor | Universidad Señor de Sipán. Facultad de Ingeniería, Arquitectura y Urbanismo | es_PE |
thesis.degree.name | Bachiller en Ingeniería de Sistemas | es_PE |
thesis.degree.discipline | Ingeniería de Sistemas | es_PE |
dc.subject.ocde | https://purl.org/pe-repo/ocde/ford#2.02.04 | es_PE |
renati.advisor.dni | 42722929 | |
renati.advisor.orcid | https://orcid.org/0000-0002-5913-990X | es_PE |
renati.author.dni | 72072120 | |
renati.author.dni | 75904195 | |
renati.discipline | 612076 | es_PE |
renati.level | https://purl.org/pe-repo/renati/level#bachiller | es_PE |
renati.type | https://purl.org/pe-repo/renati/type#trabajoDeInvestigacion | es_PE |
dc.description.lineadeinvestigacion | Ciencias de la información como herramientas multidisciplinares y estratégicas en el contexto industrial y de organizaciones | es_PE |
dc.publisher.country | PE | es_PE |
dc.description.sublineadeinvestigacion | Nuevas tendencias digitales orientadas al análisis y uso estratégico de la información. | es_PE |