Planificación y aceleración de algoritmos de machine learning
El crecimiento exponencial del interés del Machine Learning (ML) en la última década está relacionado con tres avances fundamentales: 1.el desarrollo de mejores algoritmos con aplicaciones directas en muchos campos de la ciencia y la ingeniería; 2.la disponibilidad de cantidades masivas de datos y l...
Autores principales: | , , |
---|---|
Formato: | Articulo Comunicacion |
Lenguaje: | Español |
Publicado: |
2021
|
Materias: | |
Acceso en línea: | http://sedici.unlp.edu.ar/handle/10915/117780 https://revistas.unlp.edu.ar/InvJov/article/view/11777 |
Aporte de: |
id |
I19-R120-10915-117780 |
---|---|
record_format |
dspace |
spelling |
I19-R120-10915-1177802023-05-31T13:33:01Z http://sedici.unlp.edu.ar/handle/10915/117780 https://revistas.unlp.edu.ar/InvJov/article/view/11777 issn:2314-3991 Planificación y aceleración de algoritmos de machine learning Optimization of Energy Consumption in Parallel Algorithms Libutti, Leandro Ariel De Giusti, Laura Cristina Naiouf, Marcelo 2021 2021-04-26T12:58:14Z es Informática HPC Paralelismo Dinámico Tensorflow Co-Planificación El crecimiento exponencial del interés del Machine Learning (ML) en la última década está relacionado con tres avances fundamentales: 1.el desarrollo de mejores algoritmos con aplicaciones directas en muchos campos de la ciencia y la ingeniería; 2.la disponibilidad de cantidades masivas de datos y la viabilidadde almacenarlos y analizarlos de manera eficiente3.La aparición de arquitecturas de hardware novedosas, normalmente paralelas y / u homogéneas, que permiten una explotación adecuada de ambos nuevos algoritmos en grandes conjuntos de datos en un tiempo asequible.Elframework de ML denominado TensorFlow (TF) se diseñó para proporcionar capacidades de subprocesos múltiples, extendidas con soporte de acelerador de hardware para aprovechar el potencial de las arquitecturas modernas. La cantidad de paralelismo en las versiones actuales se puede seleccionar en varios niveles bajo demanda. Sin embargo, esta selección es fija y no puede variar durante la ejecución de sesiones de entrenamiento / inferencia. Esto restringe en gran medida la flexibilidad y elasticidaddel framework, especialmente en escenarios en los que múltiples instancias de TF coexisten en una arquitectura paralela. Universidad Nacional de La Plata Articulo Comunicacion http://creativecommons.org/licenses/by/4.0/ Creative Commons Attribution 4.0 International (CC BY 4.0) application/pdf 552-553 |
institution |
Universidad Nacional de La Plata |
institution_str |
I-19 |
repository_str |
R-120 |
collection |
SEDICI (UNLP) |
language |
Español |
topic |
Informática HPC Paralelismo Dinámico Tensorflow Co-Planificación |
spellingShingle |
Informática HPC Paralelismo Dinámico Tensorflow Co-Planificación Libutti, Leandro Ariel De Giusti, Laura Cristina Naiouf, Marcelo Planificación y aceleración de algoritmos de machine learning |
topic_facet |
Informática HPC Paralelismo Dinámico Tensorflow Co-Planificación |
description |
El crecimiento exponencial del interés del Machine Learning (ML) en la última década está relacionado con tres avances fundamentales: 1.el desarrollo de mejores algoritmos con aplicaciones directas en muchos campos de la ciencia y la ingeniería; 2.la disponibilidad de cantidades masivas de datos y la viabilidadde almacenarlos y analizarlos de manera eficiente3.La aparición de arquitecturas de hardware novedosas, normalmente paralelas y / u homogéneas, que permiten una explotación adecuada de ambos nuevos algoritmos en grandes conjuntos de datos en un tiempo asequible.Elframework de ML denominado TensorFlow (TF) se diseñó para proporcionar capacidades de subprocesos múltiples, extendidas con soporte de acelerador de hardware para aprovechar el potencial de las arquitecturas modernas. La cantidad de paralelismo en las versiones actuales se puede seleccionar en varios niveles bajo demanda. Sin embargo, esta selección es fija y no puede variar durante la ejecución de sesiones de entrenamiento / inferencia. Esto restringe en gran medida la flexibilidad y elasticidaddel framework, especialmente en escenarios en los que múltiples instancias de TF coexisten en una arquitectura paralela. |
format |
Articulo Comunicacion |
author |
Libutti, Leandro Ariel De Giusti, Laura Cristina Naiouf, Marcelo |
author_facet |
Libutti, Leandro Ariel De Giusti, Laura Cristina Naiouf, Marcelo |
author_sort |
Libutti, Leandro Ariel |
title |
Planificación y aceleración de algoritmos de machine learning |
title_short |
Planificación y aceleración de algoritmos de machine learning |
title_full |
Planificación y aceleración de algoritmos de machine learning |
title_fullStr |
Planificación y aceleración de algoritmos de machine learning |
title_full_unstemmed |
Planificación y aceleración de algoritmos de machine learning |
title_sort |
planificación y aceleración de algoritmos de machine learning |
publishDate |
2021 |
url |
http://sedici.unlp.edu.ar/handle/10915/117780 https://revistas.unlp.edu.ar/InvJov/article/view/11777 |
work_keys_str_mv |
AT libuttileandroariel planificacionyaceleraciondealgoritmosdemachinelearning AT degiustilauracristina planificacionyaceleraciondealgoritmosdemachinelearning AT naioufmarcelo planificacionyaceleraciondealgoritmosdemachinelearning AT libuttileandroariel optimizationofenergyconsumptioninparallelalgorithms AT degiustilauracristina optimizationofenergyconsumptioninparallelalgorithms AT naioufmarcelo optimizationofenergyconsumptioninparallelalgorithms |
_version_ |
1767633945864699904 |