Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/10495/35601
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorSalazar Jiménez, Augusto Enrique-
dc.contributor.authorCampaña Rosero, Jairo David-
dc.date.accessioned2023-06-23T15:07:25Z-
dc.date.available2023-06-23T15:07:25Z-
dc.date.issued2023-
dc.identifier.urihttps://hdl.handle.net/10495/35601-
dc.description.abstractRESUMEN : Abordar el problema del olvido catastrófico en redes neuronales artificiales (ANNs), es crucial en la liberación de su potencial para adaptarse y aprender continuamente en diferentes contextos y dominios sin perder el conocimiento previamente aprendido. Mitigarlo puede convertir a las ANNs en sistemas óptimos y versátiles. Este estudio realiza un análisis comparativo de dos estrategias de aprendizaje continuo bio-inspiradas en la plasticidad sináptica: Learning to Continually Learn (LCL) y Continual Learning Through Synaptic Intelligence (SI). Estas estrategias buscan mitigar el problema del olvido catastrófico en el contexto de clasificación de imágenes. La investigación evalúa y contrasta las capacidades de LCL y SI para permitirle a las ANNs aprender continuamente en múltiples tareas y dominios. Los resultados experimentales muestran como las estrategias se desempeñan en tres escenarios. Pese a su baja capacidad de representación, la estrategia LCL muestra comportamientos interesantes, como tasas de olvido relativamente bajas, permitiéndole aprender nuevas clases o instancias sin afectar negativamente las previamente aprendidas. Por otro lado, la estrategia SI presentó problemas graves de olvido catastrófico al aprender nuevas clases. Esta investigación ofrece información valiosa sobre el comportamiento de las estrategias LCL y SI, basadas en la plasticidad sináptica, para abordar el problema del olvido catastrófico en las ANNs. Las implicaciones de estos resultados destacan la importancia de investigaciones y desarrollos adicionales, para refinar las estrategias de aprendizaje continuo y ampliar su impacto potencial en diversas aplicaciones de inteligencia artificial. Este estudio contribuye a la búsqueda de modelos de aprendizaje más adaptables y eficientes.spa
dc.description.abstractABSTRACT : Addressing the catastrophic forgetting problem in artificial neural networks (ANNs), is essential for unlocking their potential to adapt and learn continuously across various contexts and domains without losing previously acquired knowledge. Mitigating this issue can transform ANNs into more optimal and versatile systems, enabling them to handle dynamic data efficiently and accurately. This study conducts a comparative analysis of two bio-inspired continuous learning strategies based on synaptic plasticity: Learning to Continually Learn (LCL) and Continual Learning Through Synaptic Intelligence (SI). These strategies aim to mitigate the catastrophic forgetting problem in the context of image classification tasks. The research evaluates and contrasts the ability of LCL and SI to enable ANNs to learn continuously across multiple tasks and domains. The experimental results demonstrate the performance of both strategies in three distinct scenarios. Despite its low representation capacity, the LCL strategy exhibits intriguing behaviors, such as relatively low forgetting rates, enabling it to learn new classes without negatively affecting previous ones. In contrast, the SI strategy encounters significant catastrophic forgetting issues when incorporating new classes. This investigation provides valuable insights into the behavior of LCL and SI strategies, based on synaptic plasticity, for addressing the catastrophic forgetting problem in ANNs. The implications of these findings emphasize the need for further research and development to refine continuous learning strategies, enhancing their potential impact across various artificial intelligence applications. The study contributes to the ongoing pursuit of more adaptable and efficient learning models.spa
dc.format.extent80spa
dc.format.mimetypeapplication/pdfspa
dc.language.isospaspa
dc.type.hasversioninfo:eu-repo/semantics/draftspa
dc.rightsinfo:eu-repo/semantics/openAccessspa
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/2.5/co/*
dc.titlePlasticidad sináptica para mitigar el problema del olvido catastrófico durante el aprendizaje continuo en redes neuronales artificialesspa
dc.typeinfo:eu-repo/semantics/bachelorThesisspa
oaire.versionhttp://purl.org/coar/version/c_b1a7d7d4d402bccespa
dc.rights.accessrightshttp://purl.org/coar/access_right/c_abf2spa
thesis.degree.nameIngeniero de Sistemasspa
thesis.degree.levelPregradospa
thesis.degree.disciplineFacultad de Ingeniería. Ingeniería de Sistemasspa
thesis.degree.grantorUniversidad de Antioquiaspa
dc.rights.creativecommonshttps://creativecommons.org/licenses/by-nc-sa/4.0/spa
dc.publisher.placeMedellín, Colombiaspa
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1fspa
dc.type.redcolhttps://purl.org/redcol/resource_type/TPspa
dc.type.localTesis/Trabajo de grado - Monografía - Pregradospa
dc.subject.decsRedes Neurales de la Computación-
dc.subject.decsNeural Networks, Computer-
dc.subject.decsPruebas Neuropsicológicas-
dc.subject.decsNeuropsychological Tests-
dc.subject.unescoAprendizaje a lo largo de la vida-
dc.subject.unescoLifelong learning-
dc.subject.proposalMachine Learningspa
dc.subject.proposalComputación neural y evolutivaspa
dc.subject.unescourihttp://vocabularies.unesco.org/thesaurus/concept1488-
Aparece en las colecciones: Ingeniería de Sistemas

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
CampanaJairo_2023_RedesNeuronalesArtificiales.pdfTrabajo de grado de pregrado2.59 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons