Generalización de la divergencia de Jensen Shannon a estadística no extensiva para el análisis de secuencias
La divergencia de Jensen Shannon (JSD), una versión simetrizada de la divergencia de Kullback Leibler, permite cuantificar la diferencia entre distribuciones de probabilidad. Debido a esta propiedad ha sido ampliamente utilizada para el análisis de secuencias simbólicas, comparando la composición si...
Guardado en:
Autores principales: | , , , |
---|---|
Formato: | Artículo publishedVersion |
Lenguaje: | Español |
Publicado: |
Asociación Física Argentina
2012
|
Materias: | |
Acceso en línea: | https://hdl.handle.net/20.500.12110/afa_v24_n02_p113 |
Aporte de: |
Sumario: | La divergencia de Jensen Shannon (JSD), una versión simetrizada de la divergencia de Kullback Leibler, permite cuantificar la diferencia entre distribuciones de probabilidad. Debido a esta propiedad ha sido ampliamente utilizada para el análisis de secuencias simbólicas, comparando la composición simbólica de posibles subsecuencias. Una ventaja que ofrece JSD es que no requiere el mapeo de la secuencia simbólica a una secuencia numérica, necesaria por ejemplo en el análisis de correlación espectral. Se han propuesto distintas extensiones de JSD para mejorar la detección de bordes de subsecuencias en una secuencia, en particular para el análisis de secuencias de DNA. Desde su propuesta original, la extensión propuesta por Tsallis a la entropía de Boltzmann Gibbs ha sido considerada para extender sus resultados y aplicaciones. Sin embargo no surge una única posibilidad para la extensión de JSD a partir de la definición de Tsallis. Consideramos aquí posibles extensiones de la JSD en el marco de la entropía de Tsallis y consideramos los resultados que se obtienen cuando se aplican al análisis de secuencias simbólicas para la detección de bordes de subsecuencias |
---|