Plasticidad y dinámica en redes neuronales.
En esta tesis se analizan diversos aspectos de plasticidad neuronal y de dinámica de redes neuronales. En primer lugar, se estudia la plasticidad dependiente del tiempo desde un punto de vista de la optimización de entropía condicional. Se analizan los efectos de los tipos de dinámica neuronal (...
Guardado en:
| Autor principal: | |
|---|---|
| Formato: | Tesis NonPeerReviewed |
| Lenguaje: | Español |
| Publicado: |
2011
|
| Materias: | |
| Acceso en línea: | http://ricabib.cab.cnea.gov.ar/337/1/1Rossi_Pool.pdf |
| Aporte de: |
| Sumario: | En esta tesis se analizan diversos aspectos de plasticidad neuronal y de
dinámica de redes neuronales. En primer lugar, se estudia la plasticidad
dependiente del tiempo desde un punto de vista de la optimización de entropía
condicional. Se analizan los efectos de los tipos de dinámica neuronal
(Tipo I o Tipo II) sobre las ventanas de plasticidad obtenidas con este principio.
Se utilizan para ésto modelos neuronales reducidos con una función de
escape que depende del valor de voltaje neuronal e introduce aleatoriedad
en el sistema. Sin embargo, este modelo no permite analizar los efectos de
las diferentes distribuciones de ruido sobre las ventanas de plasticidad y
sólo es una buena aproximación para el ruido Gaussiano blanco. Debido
a esto, se utilizan luego otros tipos de ruido para las evoluciones, haciéndose
especial hincapié en ruidos simétricos y asimétricos. Se observa que
algunas características de estas distribuciones tienen un gran efecto sobres
las ventanas de plasticidad obtenidas. En particular, ruidos con más intensidad
dan lugar a mayor LTD (long term depression) y ruidos más asimétricos
separan las constantes temporales de LTD y LTP (long term potentiation). Utilizando
estos dos tipos de enfoques, se obtienen una amplia gama de curvas
STDP, que explican la gran mayoría de las curvas medidas en forma experimental.
Se muestra luego, que la variabilidad en la corriente de entrada que
una neurona recibe, puede ser explicada a través de estados balanceados de
redes neuronales de gran tamaño. Se estudian estas fluctuaciones y se analiza
con métodos de correlación inversa la posibilidad de identificar el tipo
neuronal cuando el ruido es generado por la misma red. Además, se muestra
que el ruido Gaussiano con autocorrelación exponencial, es una buena
aproximación para las fluctuaciones que una neurona inmersa en este tipo
de redes recibe. Finalmente, se estudia el desarrollo de las conexiones de
una red recurrente con dinámica neuronal de tasa de disparo, que representa
una hiper-columna de la corteza. Se obtiene, que la plasticidad Hebbiana
o BCM (Bienenstock, Cooper y Munro) por si solas dan lugar a inestabilidades
en el desarrollo de las sinapsis y rompen la simetría de la matriz de
conexiones. Sin embargo, con la incorporación de procesos de homeostasis
que tienden a estabilizar el sistema llevando la actividad neuronal a un valor
esperado (actividad blanco), se logran desarrollar conexiones que cumplen
las características y funciones esperadas. |
|---|