Predicción de Latencia en Microservicios con Modelos de Deep Learning

La adopción de la tecnología de contenedores está creciendo rápidamente. Los desarrolladores de software encuentran en los contenedores una herramienta que les permite enfocarse en la aplicación en lugar de adaptar diferentes entornos de servidores. Estos son compactos, se ejecutan rápidamente, oper...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autores principales: Lanza, Ezequiel, Lanzarini, Laura Cristina, Estrebou, César Armando
Formato: Objeto de conferencia
Lenguaje:Español
Publicado: 2024
Materias:
Acceso en línea:http://sedici.unlp.edu.ar/handle/10915/176277
Aporte de:
id I19-R120-10915-176277
record_format dspace
spelling I19-R120-10915-1762772025-02-07T20:05:01Z http://sedici.unlp.edu.ar/handle/10915/176277 Predicción de Latencia en Microservicios con Modelos de Deep Learning Lanza, Ezequiel Lanzarini, Laura Cristina Estrebou, César Armando 2024-10 2024 2025-02-07T16:46:06Z es Ciencias Informáticas La adopción de la tecnología de contenedores está creciendo rápidamente. Los desarrolladores de software encuentran en los contenedores una herramienta que les permite enfocarse en la aplicación en lugar de adaptar diferentes entornos de servidores. Estos son compactos, se ejecutan rápidamente, operan en cualquier entorno, pueden dividirse en módulos pequeños y son autosuficientes. En sistemas a gran escala, gestionar manualmente aplicaciones con cientos o miles de contenedores es complejo, por lo que la orquestación de contenedores es esencial. Actualmente, Kubernetes es el orquestador open source más utilizado, manejando instancias de microservicios (pequeños servicios independientes que se comunican a través de API) y alojándolos en plataformas adecuadas (Pods). Sin embargo, el rendimiento de los microservicios en un clúster de Kubernetes puede degradarse de manera impredecible, generalmente manifestándose en mayores tiempos de respuesta, un indicador clave de confiabilidad. Este artículo presenta la línea de investigación y las tareas que se están desarrollando en el marco de una tesis correspondiente a la carrera de Maestría en Ciencia de Datos de la Universidad Austral (CABA, Bs.As.) cuyo objetivo es predecir la latencia de respuesta de extremo a extremo en una arquitectura de cloud-native (microservicios) sobre un caso de estudio concreto. Actualmente se está trabajando en el desarrollo de un modelo que sea capaz de predecir la latencia futura de un microservicio usando múltiples variables, estudiando especialmente los modelos basados en Transformers que, si bien han demostrado ser útiles para anticipar comportamientos inestables o para la comprensión de texto, aún no se han utilizado para predecir latencias. Se buscará comparar estas arquitecturas con métodos clásicos ampliamente utilizados para esta predicción, utilizando una implementación de referencia de microservicios para el benchmarking de aplicaciones. Red de Universidades con Carreras en Informática Objeto de conferencia Objeto de conferencia http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) application/pdf 114-124
institution Universidad Nacional de La Plata
institution_str I-19
repository_str R-120
collection SEDICI (UNLP)
language Español
topic Ciencias Informáticas
spellingShingle Ciencias Informáticas
Lanza, Ezequiel
Lanzarini, Laura Cristina
Estrebou, César Armando
Predicción de Latencia en Microservicios con Modelos de Deep Learning
topic_facet Ciencias Informáticas
description La adopción de la tecnología de contenedores está creciendo rápidamente. Los desarrolladores de software encuentran en los contenedores una herramienta que les permite enfocarse en la aplicación en lugar de adaptar diferentes entornos de servidores. Estos son compactos, se ejecutan rápidamente, operan en cualquier entorno, pueden dividirse en módulos pequeños y son autosuficientes. En sistemas a gran escala, gestionar manualmente aplicaciones con cientos o miles de contenedores es complejo, por lo que la orquestación de contenedores es esencial. Actualmente, Kubernetes es el orquestador open source más utilizado, manejando instancias de microservicios (pequeños servicios independientes que se comunican a través de API) y alojándolos en plataformas adecuadas (Pods). Sin embargo, el rendimiento de los microservicios en un clúster de Kubernetes puede degradarse de manera impredecible, generalmente manifestándose en mayores tiempos de respuesta, un indicador clave de confiabilidad. Este artículo presenta la línea de investigación y las tareas que se están desarrollando en el marco de una tesis correspondiente a la carrera de Maestría en Ciencia de Datos de la Universidad Austral (CABA, Bs.As.) cuyo objetivo es predecir la latencia de respuesta de extremo a extremo en una arquitectura de cloud-native (microservicios) sobre un caso de estudio concreto. Actualmente se está trabajando en el desarrollo de un modelo que sea capaz de predecir la latencia futura de un microservicio usando múltiples variables, estudiando especialmente los modelos basados en Transformers que, si bien han demostrado ser útiles para anticipar comportamientos inestables o para la comprensión de texto, aún no se han utilizado para predecir latencias. Se buscará comparar estas arquitecturas con métodos clásicos ampliamente utilizados para esta predicción, utilizando una implementación de referencia de microservicios para el benchmarking de aplicaciones.
format Objeto de conferencia
Objeto de conferencia
author Lanza, Ezequiel
Lanzarini, Laura Cristina
Estrebou, César Armando
author_facet Lanza, Ezequiel
Lanzarini, Laura Cristina
Estrebou, César Armando
author_sort Lanza, Ezequiel
title Predicción de Latencia en Microservicios con Modelos de Deep Learning
title_short Predicción de Latencia en Microservicios con Modelos de Deep Learning
title_full Predicción de Latencia en Microservicios con Modelos de Deep Learning
title_fullStr Predicción de Latencia en Microservicios con Modelos de Deep Learning
title_full_unstemmed Predicción de Latencia en Microservicios con Modelos de Deep Learning
title_sort predicción de latencia en microservicios con modelos de deep learning
publishDate 2024
url http://sedici.unlp.edu.ar/handle/10915/176277
work_keys_str_mv AT lanzaezequiel predicciondelatenciaenmicroserviciosconmodelosdedeeplearning
AT lanzarinilauracristina predicciondelatenciaenmicroserviciosconmodelosdedeeplearning
AT estreboucesararmando predicciondelatenciaenmicroserviciosconmodelosdedeeplearning
_version_ 1845116777339551744