Por favor, use este identificador para citar o enlazar este ítem: https://hdl.handle.net/10495/28981
Título : Separación de hablantes en tiempo real usando técnicas de Deep Learning
Autor : Arango Sánchez, Jose Alberto
metadata.dc.contributor.advisor: Arias Londoño, Julián David
metadata.dc.subject.*: Audiología
Audiology
Reproducción del sonido - técnicas digitales
Sound--Recording and reproducing--Digital techniques
Audio digital
Digital audio
Sistemas
systems
http://aims.fao.org/aos/agrovoc/c_330985
Fecha de publicación : 2022
Resumen : RESUMEN : La separación de hablantes (Speaker Separation/Multitalker separation), es un tarea que consiste en separar en diferentes audios, las intervenciones individuales de los hablantes involucrados a partir de una mezcla auditiva. Tarea que permitiría mejorar la interacción entre humanos y sistemas, a través del habla, ya que serviría como filtro de información. Durante este trabajo de grado, exploramos el comportamiento de 3 aproximacio- nes del estado del arte (DPRNN, SepFormer, Conv-TasNet), usando un corpus de grabaciones de llamadas sobre canal telefónico en el idioma español[9], con hablantes de diferentes partes de América latina. Se seleccionó Conv-TasNet como la arquitectura base por su desempeño, ya que logró una relación señal distorsión invariante en la escala (SI-SDR) de 6.9 dB, luego realizamos múltiples experimentos con esta arquitectura, con el objetivo de obtener mejores resultados, consiguiendo así un modelo con un SI-SDR de 9.9 dB. Luego de manera experimental, se identifico una relación entre la similitud entre hablantes y el desempeño del modelo, por lo tanto se planteó una mejora a la arquitectura ConvTasNet, introduciendo un término en la función de costo de la arquitectura original. Dicho término esta relacionado con la similitud entre hablantes y utiliza un Speech embedding para el cálculo de di- cha similitud. Con esta mejora se logró un SI-SDR de 10.6 dB. Finalmente el modelo ConvTasNet modificado, se desplegó en una infraestructura que permitió su ejecución en tiempo real, sin embargo para garantizar el concepto de tiempo real, utilizamos segmentos de audio de 1 segundo, tiempo en el cual, por lo general solo 1 hablante interviene, lo cual es una condición distante de la realidad conocida por el modelo entrenado (longitud de las muestras de entrenamiento y validación).
metadata.dc.relatedidentifier.url: https://github.com/DW-Speech-Separation
Aparece en las colecciones: Ingeniería de Sistemas

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
ArangoJose_2022_SeparacionHablantesDL.pdfTrabajo de grado de pregrado3.85 MBAdobe PDFVisualizar/Abrir


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons