Mostrar el registro sencillo del ítem

dc.contributor.advisorTuesta Monteza, Victor Alexci
dc.contributor.authorJimenez Lucumi, Vicenta del Rosario
dc.contributor.authorMercado Sarmiento, Francois Bernard
dc.date.accessioned2024-11-28T15:39:55Z
dc.date.available2024-11-28T15:39:55Z
dc.date.issued2024
dc.identifier.urihttps://hdl.handle.net/20.500.12802/13648
dc.description.abstractEste estudio tuvo como objetivo comparar diferentes métodos de explicación del comportamiento de modelos de aprendizaje profundo en el procesamiento de imágenes digitales. Se implementaron tres métodos ampliamente reconocidos: Grad-CAM, LIME y Occlusion Sensitivity, aplicándolos a tres datasets distintos: Reusimat_USS_Dataset, Brain Tumor MRI Dataset y Pistachio Dataset. Los modelos de aprendizaje profundo utilizados fueron ResNet50, EfficientNetV2B0 y MobileNetV2. La efectividad de los métodos de explicación se evaluó mediante las métricas de fidelidad, monotonía y robustez. Los resultados mostraron que EfficientNetV2B0 alcanzó la mayor precisión (99%) en los datasets de tumores cerebrales y pistachos. Grad-CAM demostró alta monotonía en todos los datasets, mientras que LIME obtuvo la mayor fidelidad en el dataset Reusimat_USS. Occlusion Sensitivity mostró un rendimiento excepcional en los datasets de tumores cerebrales y pistachos, con alta fidelidad y robustez. Se concluyó que la efectividad de los métodos de explicación varía significativamente según el contexto y las características de los datos, subrayando la importancia de un enfoque adaptativo en la selección de métodos de explicación. Este estudio contribuye al avance de la explicabilidad en inteligencia artificial y sienta las bases para futuras investigaciones que busquen equilibrar el rendimiento de los modelos con su interpretabilidad.es_PE
dc.description.uriTrabajo de investigaciónes_PE
dc.formatapplication/pdfes_PE
dc.language.isospaes_PE
dc.publisherUniversidad Señor de Sipánes_PE
dc.rightsinfo:eu-repo/semantics/openAccesses_PE
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/2.5/pe/*
dc.sourceRepositorio Institucional - USSes_PE
dc.sourceRepositorio Institucional USSes_PE
dc.subjectAprendizaje profundoes_PE
dc.subjectExplicabilidad de IAes_PE
dc.subjectProcesamiento de imágeneses_PE
dc.subjectRedes neuronales convolucionaleses_PE
dc.subjectInterpretabilidad de modeloses_PE
dc.titleComparación de métodos de explicación del comportamiento de modelos de aprendizaje profundo en el procesamiento de imágenes digitaleses_PE
dc.typeinfo:eu-repo/semantics/bachelorThesises_PE
thesis.degree.grantorUniversidad Señor de Sipán. Facultad de Ingeniería, Arquitectura y Urbanismoes_PE
thesis.degree.nameBachiller en Ingeniería de Sistemases_PE
thesis.degree.disciplineIngeniería de Sistemases_PE
dc.subject.ocdehttps://purl.org/pe-repo/ocde/ford#2.02.04es_PE
renati.advisor.dni42722929
renati.advisor.orcidhttps://orcid.org/0000-0002-5913-990Xes_PE
renati.author.dni72072120
renati.author.dni75904195
renati.discipline612076es_PE
renati.levelhttps://purl.org/pe-repo/renati/level#bachilleres_PE
renati.typehttps://purl.org/pe-repo/renati/type#trabajoDeInvestigaciones_PE
dc.description.lineadeinvestigacionCiencias de la información como herramientas multidisciplinares y estratégicas en el contexto industrial y de organizacioneses_PE
dc.publisher.countryPEes_PE
dc.description.sublineadeinvestigacionNuevas tendencias digitales orientadas al análisis y uso estratégico de la información.es_PE


Ficheros en el ítem

Thumbnail
Thumbnail
Thumbnail
Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(es)

Mostrar el registro sencillo del ítem

info:eu-repo/semantics/openAccess
Excepto si se señala otra cosa, la licencia del ítem se describe como info:eu-repo/semantics/openAccess