Generalización de la divergencia de Jensen Shannon a estadística no extensiva para el análisis de secuencias

La divergencia de Jensen Shannon (JSD), una versión simetrizada de la divergencia de Kullback Leibler, permite cuantificar la diferencia entre distribuciones de probabilidad. Debido a esta propiedad ha sido ampliamente utilizada para el análisis de secuencias simbólicas, comparando la composición si...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autores principales: Bussandri, Diego Gastón, Garro Linck, Leonel, Ré, Miguel Angel, Lamberti, Pedro
Formato: Artículo publishedVersion
Lenguaje:Español
Publicado: Asociación Física Argentina 2012
Materias:
Acceso en línea:https://hdl.handle.net/20.500.12110/afa_v24_n02_p113
Aporte de:
Descripción
Sumario:La divergencia de Jensen Shannon (JSD), una versión simetrizada de la divergencia de Kullback Leibler, permite cuantificar la diferencia entre distribuciones de probabilidad. Debido a esta propiedad ha sido ampliamente utilizada para el análisis de secuencias simbólicas, comparando la composición simbólica de posibles subsecuencias. Una ventaja que ofrece JSD es que no requiere el mapeo de la secuencia simbólica a una secuencia numérica, necesaria por ejemplo en el análisis de correlación espectral. Se han propuesto distintas extensiones de JSD para mejorar la detección de bordes de subsecuencias en una secuencia, en particular para el análisis de secuencias de DNA. Desde su propuesta original, la extensión propuesta por Tsallis a la entropía de Boltzmann Gibbs ha sido considerada para extender sus resultados y aplicaciones. Sin embargo no surge una única posibilidad para la extensión de JSD a partir de la definición de Tsallis. Consideramos aquí posibles extensiones de la JSD en el marco de la entropía de Tsallis y consideramos los resultados que se obtienen cuando se aplican al análisis de secuencias simbólicas para la detección de bordes de subsecuencias