Predicción de Latencia en Microservicios con Modelos de Deep Learning
La adopción de la tecnología de contenedores está creciendo rápidamente. Los desarrolladores de software encuentran en los contenedores una herramienta que les permite enfocarse en la aplicación en lugar de adaptar diferentes entornos de servidores. Estos son compactos, se ejecutan rápidamente, oper...
Guardado en:
| Autores principales: | , , |
|---|---|
| Formato: | Objeto de conferencia |
| Lenguaje: | Español |
| Publicado: |
2024
|
| Materias: | |
| Acceso en línea: | http://sedici.unlp.edu.ar/handle/10915/176277 |
| Aporte de: |
| id |
I19-R120-10915-176277 |
|---|---|
| record_format |
dspace |
| spelling |
I19-R120-10915-1762772025-02-07T20:05:01Z http://sedici.unlp.edu.ar/handle/10915/176277 Predicción de Latencia en Microservicios con Modelos de Deep Learning Lanza, Ezequiel Lanzarini, Laura Cristina Estrebou, César Armando 2024-10 2024 2025-02-07T16:46:06Z es Ciencias Informáticas La adopción de la tecnología de contenedores está creciendo rápidamente. Los desarrolladores de software encuentran en los contenedores una herramienta que les permite enfocarse en la aplicación en lugar de adaptar diferentes entornos de servidores. Estos son compactos, se ejecutan rápidamente, operan en cualquier entorno, pueden dividirse en módulos pequeños y son autosuficientes. En sistemas a gran escala, gestionar manualmente aplicaciones con cientos o miles de contenedores es complejo, por lo que la orquestación de contenedores es esencial. Actualmente, Kubernetes es el orquestador open source más utilizado, manejando instancias de microservicios (pequeños servicios independientes que se comunican a través de API) y alojándolos en plataformas adecuadas (Pods). Sin embargo, el rendimiento de los microservicios en un clúster de Kubernetes puede degradarse de manera impredecible, generalmente manifestándose en mayores tiempos de respuesta, un indicador clave de confiabilidad. Este artículo presenta la línea de investigación y las tareas que se están desarrollando en el marco de una tesis correspondiente a la carrera de Maestría en Ciencia de Datos de la Universidad Austral (CABA, Bs.As.) cuyo objetivo es predecir la latencia de respuesta de extremo a extremo en una arquitectura de cloud-native (microservicios) sobre un caso de estudio concreto. Actualmente se está trabajando en el desarrollo de un modelo que sea capaz de predecir la latencia futura de un microservicio usando múltiples variables, estudiando especialmente los modelos basados en Transformers que, si bien han demostrado ser útiles para anticipar comportamientos inestables o para la comprensión de texto, aún no se han utilizado para predecir latencias. Se buscará comparar estas arquitecturas con métodos clásicos ampliamente utilizados para esta predicción, utilizando una implementación de referencia de microservicios para el benchmarking de aplicaciones. Red de Universidades con Carreras en Informática Objeto de conferencia Objeto de conferencia http://creativecommons.org/licenses/by-nc-sa/4.0/ Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0) application/pdf 114-124 |
| institution |
Universidad Nacional de La Plata |
| institution_str |
I-19 |
| repository_str |
R-120 |
| collection |
SEDICI (UNLP) |
| language |
Español |
| topic |
Ciencias Informáticas |
| spellingShingle |
Ciencias Informáticas Lanza, Ezequiel Lanzarini, Laura Cristina Estrebou, César Armando Predicción de Latencia en Microservicios con Modelos de Deep Learning |
| topic_facet |
Ciencias Informáticas |
| description |
La adopción de la tecnología de contenedores está creciendo rápidamente. Los desarrolladores de software encuentran en los contenedores una herramienta que les permite enfocarse en la aplicación en lugar de adaptar diferentes entornos de servidores. Estos son compactos, se ejecutan rápidamente, operan en cualquier entorno, pueden dividirse en módulos pequeños y son autosuficientes. En sistemas a gran escala, gestionar manualmente aplicaciones con cientos o miles de contenedores es complejo, por lo que la orquestación de contenedores es esencial. Actualmente, Kubernetes es el orquestador open source más utilizado, manejando instancias de microservicios (pequeños servicios independientes que se comunican a través de API) y alojándolos en plataformas adecuadas (Pods). Sin embargo, el rendimiento de los microservicios en un clúster de Kubernetes puede degradarse de manera impredecible, generalmente manifestándose en mayores tiempos de respuesta, un indicador clave de confiabilidad. Este artículo presenta la línea de investigación y las tareas que se están desarrollando en el marco de una tesis correspondiente a la carrera de Maestría en Ciencia de Datos de la Universidad Austral (CABA, Bs.As.) cuyo objetivo es predecir la latencia de respuesta de extremo a extremo en una arquitectura de cloud-native (microservicios) sobre un caso de estudio concreto. Actualmente se está trabajando en el desarrollo de un modelo que sea capaz de predecir la latencia futura de un microservicio usando múltiples variables, estudiando especialmente los modelos basados en Transformers que, si bien han demostrado ser útiles para anticipar comportamientos inestables o para la comprensión de texto, aún no se han utilizado para predecir latencias. Se buscará comparar estas arquitecturas con métodos clásicos ampliamente utilizados para esta predicción, utilizando una implementación de referencia de microservicios para el benchmarking de aplicaciones. |
| format |
Objeto de conferencia Objeto de conferencia |
| author |
Lanza, Ezequiel Lanzarini, Laura Cristina Estrebou, César Armando |
| author_facet |
Lanza, Ezequiel Lanzarini, Laura Cristina Estrebou, César Armando |
| author_sort |
Lanza, Ezequiel |
| title |
Predicción de Latencia en Microservicios con Modelos de Deep Learning |
| title_short |
Predicción de Latencia en Microservicios con Modelos de Deep Learning |
| title_full |
Predicción de Latencia en Microservicios con Modelos de Deep Learning |
| title_fullStr |
Predicción de Latencia en Microservicios con Modelos de Deep Learning |
| title_full_unstemmed |
Predicción de Latencia en Microservicios con Modelos de Deep Learning |
| title_sort |
predicción de latencia en microservicios con modelos de deep learning |
| publishDate |
2024 |
| url |
http://sedici.unlp.edu.ar/handle/10915/176277 |
| work_keys_str_mv |
AT lanzaezequiel predicciondelatenciaenmicroserviciosconmodelosdedeeplearning AT lanzarinilauracristina predicciondelatenciaenmicroserviciosconmodelosdedeeplearning AT estreboucesararmando predicciondelatenciaenmicroserviciosconmodelosdedeeplearning |
| _version_ |
1845116777339551744 |