Por favor, use este identificador para citar o enlazar este ítem:
https://hdl.handle.net/10495/17662
Título : | Implementación y evaluación del rendimiento de redes neuronales densas en FPGA para la inferencia rápida, aplicadas a problemas en física y visión artificial |
Otros títulos : | Implementation and evaluation of the performance of dense neural networks implemented on FPGAs for fast inference, applied to problems in physics and computer vision |
Autor : | Montoya Vásquez, Daniel Alfonso |
metadata.dc.contributor.advisor: | Jaramillo Gallego, Johny Alexander |
metadata.dc.subject.*: | Inteligencia artificial Artificial intelligence Redes neurales (Computadores) Neural networks (Computer science) Física - Procesamiento de datos Physics - Data processing Aprendizaje profundo Lógica programable http://vocabularies.unesco.org/thesaurus/concept3052 |
Fecha de publicación : | 2020 |
Resumen : | RESUMEN: En la actualidad diferentes contextos industriales y científicos participan del crecimiento de la
producción de datos, lo cual conlleva igualmente a la necesidad de procesarlos de la manera
más rápida posible. Dos de estos contextos de particular interés para este trabajo son la física
experimental y la visión artificial, donde las técnicas de la inteligencia artificial como las redes
neuronales, vienen mostrando precisión y efectividad en ciertas tareas, pero tienen limitaciones
en cuanto a la velocidad de su implementación debidas principalmente al hardware con que se
implementan.
Alternativas de hardware como ASICS, GPUs, y FPGAs compiten en la carrera por acelerar el
entrenamiento y la inferencia de redes neuronales. Características como la flexibilidad, bajo
consumo de energía, costos asequibles, y velocidad hacen de las FPGAs uno de los
competidores más prometedores y aplicables, especialmente en contextos académicos.
En el presente trabajo se presentan las bases teóricas y conceptuales que se encuentran en la
intersección de la física, el aprendizaje profundo y las FPGAs, se ilustra el proceso de
implementación de diferentes redes neuronales en FPGA mediante el uso de la síntesis de alto
nivel, y se evalúa el rendimiento de éstas respecto a otros sistemas como GPUs, y CPUs
programadas en entornos Python y C, en cuanto a latencia y consumo de recursos, en particular,
respecto a los problemas de inferencia de redes neuronales para clasificación de subestructura
de jets, y un problema de visión artificial: la clasificación de dígitos escritos a mano. Los
resultados muestran la superioridad en cuanto a tiempo de inferencia, de una FPGA de bajo
costo respecto a los otros sistemas, en ordenes desde 10.72x hasta 805x veces más rápida sin
perder exactitud. Estos resultados validan estos dispositivos como fuertes candidatos para
mejorar el rendimiento de las redes neuronales. Finalmente se discuten limitaciones y
direcciones futuras. ABSTRACT: Currently, many industrial and scientific contexts participate in the worldwide growth of data production, which also leads to the need to process these data as quickly as possible. Two of these contexts of particular interest for this work are experimental physics and computer vision, where artificial intelligence techniques such as neural networks have been showing good precision and effectiveness in certain tasks, but have limitations in terms of the speed of their implementation due mainly to the hardware in which they are implemented. Hardware alternatives such as ASICS, GPUs, and FPGAs compete in the race to accelerate neural network training and inference. Features such as flexibility, low power consumption, affordable costs, and speed make FPGAs one of the most promising and applicable competitors, especially in academic contexts. This work presents the theoretical and conceptual basis at the intersection of physics, deep learning, and FPGA, illustrates the process of implementing different neural networks in FPGAs using high-level synthesis, and evaluates the performance of FPGAs with respect to other systems such as GPUs, and CPUs programmed in Python and C environments, in terms of latency and resource consumption, particularly with respect to neural network inference problems for jet substructure classification, and a machine vision problem: the classification of handwritten digits. The results show the superiority in terms of inference time of a low-cost FPGA over other systems, in orders from 10.72x to 805x times faster without losing accuracy. These results validate these devices as strong candidates for improving neural network performance. Finally, limitations and future directions are discussed. |
Aparece en las colecciones: | Física |
Ficheros en este ítem:
Fichero | Descripción | Tamaño | Formato | |
---|---|---|---|---|
MontoyaDaniel_2020_FpgaRedesNeuronales.pdf | Trabajo de grado de pregrado | 2.72 MB | Adobe PDF | Visualizar/Abrir |
Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons