Generalización de la divergencia de Jensen Shannon a estadística no extensiva para el análisis de secuencias
La divergencia de Jensen Shannon (JSD), una versión simetrizada de la divergencia de Kullback Leibler, permite cuantificar la diferencia entre distribuciones de probabilidad. Debido a esta propiedad ha sido ampliamente utilizada para el análisis de secuencias simbólicas, comparando la composición si...
Guardado en:
Autores principales: | Bussandri, Diego Gastón, Garro Linck, Leonel, Ré, Miguel Angel, Lamberti, Pedro |
---|---|
Lenguaje: | Español |
Publicado: |
2012
|
Materias: | |
Acceso en línea: | https://hdl.handle.net/20.500.12110/afa_v24_n02_p113 |
Aporte de: |
Ejemplares similares
-
Generalización de la divergencia de Jensen Shannon a estadística no extensiva para el análisis de secuencias
por: Bussandri, Diego Gastón, et al.
Publicado: (2012) -
Generalización de la divergencia de Jensen Shannon a estadística no extensiva para el análisis de secuencias
por: Bussandri, Diego Gastón, et al.
Publicado: (2012) -
Comparación de registros electroencefalográficos por divergencia de Jensen Shannon
por: Ré, Miguel Ángel, et al.
Publicado: (2024) -
Comparación de registros electroencefalográficos por divergencia de Jensen Shannon
por: Ré, Miguel A., et al.
Publicado: (2017) -
Segmentación de secuencias de rango continuo mediante información mutua
por: Ré, Miguel Ángel, et al.
Publicado: (2023)