Orquestación de recursos para realizar cómputo de big data sobre arquitecturas distribuidas

Los avances tecnológicos, en particular IoT, han favorecido la generación de grandes cantidades de datos, los cuales necesitan ser almacenados y procesados de manera eficiente. Surge así el paradigma Big Data, donde el principal requerimiento no solo es la capacidad de cómputo, sino el manejo en un...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autores principales: Murazzo, María Antonia, Rodríguez, Nelson R., Guevara, Miguel José, Tello, Martín, Alonso, Matías, Medel, Diego, Mercado, Jorge, Gómez, Pablo, Picolli, Fabiana
Formato: Objeto de conferencia
Lenguaje:Español
Publicado: 2019
Materias:
Acceso en línea:http://sedici.unlp.edu.ar/handle/10915/77215
Aporte de:
Descripción
Sumario:Los avances tecnológicos, en particular IoT, han favorecido la generación de grandes cantidades de datos, los cuales necesitan ser almacenados y procesados de manera eficiente. Surge así el paradigma Big Data, donde el principal requerimiento no solo es la capacidad de cómputo, sino el manejo en un tiempo razonable de ingentes cantidades de datos. En este contexto, las aplicaciones para big data necesitan ser escalables, livianas, autocontenidas, distribuidas y replicadas con el objetivo de lograr la mejor performance frente a variaciones del volumen de datos. Para lograr esto, esta línea de investigación propone ajustar la construcción de aplicaciones a la filosofía DevOps y una arquitectura basada en microservicios los cuales puedan ser implementados con contenedores. La replicación y distribución para lograr altos niveles de escalabilidad se plantea mediante la orquestación de contenedores sobre una arquitectura distribuida, la cual puede ser física o virtual. De esta manera será posible desarrollar aplicaciones que escalen de forma elástica en función de los requerimientos de la aplicación misma, independiente del software y hardware subyacente.