Planificación y aceleración de algoritmos de machine learning

El crecimiento exponencial del interés del Machine Learning (ML) en la última década está relacionado con tres avances fundamentales: 1.el desarrollo de mejores algoritmos con aplicaciones directas en muchos campos de la ciencia y la ingeniería; 2.la disponibilidad de cantidades masivas de datos y l...

Descripción completa

Detalles Bibliográficos
Autores principales: Libutti, Leandro Ariel, De Giusti, Laura Cristina, Naiouf, Marcelo
Formato: Articulo Comunicacion
Lenguaje:Español
Publicado: 2021
Materias:
HPC
Acceso en línea:http://sedici.unlp.edu.ar/handle/10915/117780
https://revistas.unlp.edu.ar/InvJov/article/view/11777
Aporte de:
id I19-R120-10915-117780
record_format dspace
spelling I19-R120-10915-1177802023-05-31T13:33:01Z http://sedici.unlp.edu.ar/handle/10915/117780 https://revistas.unlp.edu.ar/InvJov/article/view/11777 issn:2314-3991 Planificación y aceleración de algoritmos de machine learning Optimization of Energy Consumption in Parallel Algorithms Libutti, Leandro Ariel De Giusti, Laura Cristina Naiouf, Marcelo 2021 2021-04-26T12:58:14Z es Informática HPC Paralelismo Dinámico Tensorflow Co-Planificación El crecimiento exponencial del interés del Machine Learning (ML) en la última década está relacionado con tres avances fundamentales: 1.el desarrollo de mejores algoritmos con aplicaciones directas en muchos campos de la ciencia y la ingeniería; 2.la disponibilidad de cantidades masivas de datos y la viabilidadde almacenarlos y analizarlos de manera eficiente3.La aparición de arquitecturas de hardware novedosas, normalmente paralelas y / u homogéneas, que permiten una explotación adecuada de ambos nuevos algoritmos en grandes conjuntos de datos en un tiempo asequible.Elframework de ML denominado TensorFlow (TF) se diseñó para proporcionar capacidades de subprocesos múltiples, extendidas con soporte de acelerador de hardware para aprovechar el potencial de las arquitecturas modernas. La cantidad de paralelismo en las versiones actuales se puede seleccionar en varios niveles bajo demanda. Sin embargo, esta selección es fija y no puede variar durante la ejecución de sesiones de entrenamiento / inferencia. Esto restringe en gran medida la flexibilidad y elasticidaddel framework, especialmente en escenarios en los que múltiples instancias de TF coexisten en una arquitectura paralela. Universidad Nacional de La Plata Articulo Comunicacion http://creativecommons.org/licenses/by/4.0/ Creative Commons Attribution 4.0 International (CC BY 4.0) application/pdf 552-553
institution Universidad Nacional de La Plata
institution_str I-19
repository_str R-120
collection SEDICI (UNLP)
language Español
topic Informática
HPC
Paralelismo Dinámico
Tensorflow
Co-Planificación
spellingShingle Informática
HPC
Paralelismo Dinámico
Tensorflow
Co-Planificación
Libutti, Leandro Ariel
De Giusti, Laura Cristina
Naiouf, Marcelo
Planificación y aceleración de algoritmos de machine learning
topic_facet Informática
HPC
Paralelismo Dinámico
Tensorflow
Co-Planificación
description El crecimiento exponencial del interés del Machine Learning (ML) en la última década está relacionado con tres avances fundamentales: 1.el desarrollo de mejores algoritmos con aplicaciones directas en muchos campos de la ciencia y la ingeniería; 2.la disponibilidad de cantidades masivas de datos y la viabilidadde almacenarlos y analizarlos de manera eficiente3.La aparición de arquitecturas de hardware novedosas, normalmente paralelas y / u homogéneas, que permiten una explotación adecuada de ambos nuevos algoritmos en grandes conjuntos de datos en un tiempo asequible.Elframework de ML denominado TensorFlow (TF) se diseñó para proporcionar capacidades de subprocesos múltiples, extendidas con soporte de acelerador de hardware para aprovechar el potencial de las arquitecturas modernas. La cantidad de paralelismo en las versiones actuales se puede seleccionar en varios niveles bajo demanda. Sin embargo, esta selección es fija y no puede variar durante la ejecución de sesiones de entrenamiento / inferencia. Esto restringe en gran medida la flexibilidad y elasticidaddel framework, especialmente en escenarios en los que múltiples instancias de TF coexisten en una arquitectura paralela.
format Articulo
Comunicacion
author Libutti, Leandro Ariel
De Giusti, Laura Cristina
Naiouf, Marcelo
author_facet Libutti, Leandro Ariel
De Giusti, Laura Cristina
Naiouf, Marcelo
author_sort Libutti, Leandro Ariel
title Planificación y aceleración de algoritmos de machine learning
title_short Planificación y aceleración de algoritmos de machine learning
title_full Planificación y aceleración de algoritmos de machine learning
title_fullStr Planificación y aceleración de algoritmos de machine learning
title_full_unstemmed Planificación y aceleración de algoritmos de machine learning
title_sort planificación y aceleración de algoritmos de machine learning
publishDate 2021
url http://sedici.unlp.edu.ar/handle/10915/117780
https://revistas.unlp.edu.ar/InvJov/article/view/11777
work_keys_str_mv AT libuttileandroariel planificacionyaceleraciondealgoritmosdemachinelearning
AT degiustilauracristina planificacionyaceleraciondealgoritmosdemachinelearning
AT naioufmarcelo planificacionyaceleraciondealgoritmosdemachinelearning
AT libuttileandroariel optimizationofenergyconsumptioninparallelalgorithms
AT degiustilauracristina optimizationofenergyconsumptioninparallelalgorithms
AT naioufmarcelo optimizationofenergyconsumptioninparallelalgorithms
_version_ 1767633945864699904