Por favor, use este identificador para citar o enlazar este ítem:
https://hdl.handle.net/10495/43702
Título : | Implementación de un modelo de segmentación automática de órganos abdominales mediante técnicas de Deep Learning en imágenes de Tomografía Computarizada contrastada. Semestre de industria |
Autor : | Mora Colorado, Jhoan Sebastian |
metadata.dc.contributor.advisor: | Ariza Cuberos, Isabella Agudelo Londoño, Yesika Alexandra |
metadata.dc.subject.*: | Radiología Radiology Redes Neurales de la Computación Neural Networks, Computer Base de datos Databases Tomografía Computarizada por rayos x Tomography, X-ray computed Diagnóstico por imágenes Diagnostic imaging Segmentación Deep learning MONAI http://vocabularies.unesco.org/thesaurus/concept501 https://id.nlm.nih.gov/mesh/D011871 https://id.nlm.nih.gov/mesh/D016571 |
Fecha de publicación : | 2024 |
Resumen : | RESUMEN : La segmentación automática de órganos abdominales ha representado un desafío significativo en la radiología, especialmente en aplicaciones clínicas donde se requiere precisión y eficiencia. A lo largo de la última década, las redes neuronales completamente convolucionales (FCNNs) han demostrado ser una solución eficaz para la mayoría de las tareas de segmentación de imágenes médicas. Sin embargo, presenta limitaciones para capturar dependencias espaciales a largo alcance. En este trabajo, se aborda la segmentación de órganos abdominales utilizando el framework MONAI, que facilita la implementación de flujos de trabajo de deep learning en imágenes médicas. Se emplea la arquitectura UNETR (U-Net con Transformers), que utiliza transformers para captar información global a diversas escalas. Para mejorar el rendimiento del modelo, se aplicaron técnicas avanzadas de regularización y optimización, aprovechando las herramientas proporcionadas por MONAI.. El modelo fue validado con la base de datos de la población SURA, lo que permite evaluar su desempeño en un contexto colombiano, abordando el sesgo presente en muchos estudios que utilizan datos europeos. Los resultados superaron los modelos de referencia, con un Coeficiente de Dice de 0.94365 y una pérdida de 0.5684, destacándose en la segmentación de órganos complejos como el páncreas y las venas esplénica y porta. Este trabajo contribuye a la generalización de modelos de segmentación en datos locales, estableciendo un nuevo estándar en la región. ABSTRACT : The automatic segmentation of abdominal organs remains a significant challenge in radiology, particularly in clinical applications where both accuracy and efficiency are essential. Over the past decade, Fully Convolutional Neural Networks (FCNNs) have proven to be effective for most medical image segmentation tasks. However, they present limitations in capturing long-range spatial dependencies. In this work, we address the segmentation of abdominal organs using the MONAI framework, which facilitates the implementation of deep learning workflows in medical imaging. The architecture employed is UNETR (U-Net with Transformers), which leverages transformers to capture global information at multiple scales. To enhance the model’s performance, advanced regularization and optimization techniques were applied, utilizing MONAI's powerful tools. The model was validated using the SURA population database, allowing for an assessment of its performance in a Colombian context and addressing the bias found in many studies relying on European data. The results outperformed baseline models, achieving a Dice Coefficient of 0.94365 and a loss of 0.5684, excelling in the segmentation of complex organs such as the pancreas and the splenic and portal veins. This work contributes to the generalization of segmentation models on local data, establishing a new standard in the region. |
Aparece en las colecciones: | Bioingeniería |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
MoraJhoan_2024_SegmentacionAutomaticaMultiorgano.pdf | Trabajo de grado de pregrado | 2.22 MB | Adobe PDF | Visualizar/Abrir |
Poster.pdf | Anexo | 1.8 MB | Adobe PDF | Visualizar/Abrir |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons