Plasticidad y dinámica en redes neuronales.

En esta tesis se analizan diversos aspectos de plasticidad neuronal y de dinámica de redes neuronales. En primer lugar, se estudia la plasticidad dependiente del tiempo desde un punto de vista de la optimización de entropía condicional. Se analizan los efectos de los tipos de dinámica neuronal (...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autor principal: Rossi Pool, Román
Formato: Tesis NonPeerReviewed
Lenguaje:Español
Publicado: 2011
Materias:
Acceso en línea:http://ricabib.cab.cnea.gov.ar/337/1/1Rossi_Pool.pdf
Aporte de:
Descripción
Sumario:En esta tesis se analizan diversos aspectos de plasticidad neuronal y de dinámica de redes neuronales. En primer lugar, se estudia la plasticidad dependiente del tiempo desde un punto de vista de la optimización de entropía condicional. Se analizan los efectos de los tipos de dinámica neuronal (Tipo I o Tipo II) sobre las ventanas de plasticidad obtenidas con este principio. Se utilizan para ésto modelos neuronales reducidos con una función de escape que depende del valor de voltaje neuronal e introduce aleatoriedad en el sistema. Sin embargo, este modelo no permite analizar los efectos de las diferentes distribuciones de ruido sobre las ventanas de plasticidad y sólo es una buena aproximación para el ruido Gaussiano blanco. Debido a esto, se utilizan luego otros tipos de ruido para las evoluciones, haciéndose especial hincapié en ruidos simétricos y asimétricos. Se observa que algunas características de estas distribuciones tienen un gran efecto sobres las ventanas de plasticidad obtenidas. En particular, ruidos con más intensidad dan lugar a mayor LTD (long term depression) y ruidos más asimétricos separan las constantes temporales de LTD y LTP (long term potentiation). Utilizando estos dos tipos de enfoques, se obtienen una amplia gama de curvas STDP, que explican la gran mayoría de las curvas medidas en forma experimental. Se muestra luego, que la variabilidad en la corriente de entrada que una neurona recibe, puede ser explicada a través de estados balanceados de redes neuronales de gran tamaño. Se estudian estas fluctuaciones y se analiza con métodos de correlación inversa la posibilidad de identificar el tipo neuronal cuando el ruido es generado por la misma red. Además, se muestra que el ruido Gaussiano con autocorrelación exponencial, es una buena aproximación para las fluctuaciones que una neurona inmersa en este tipo de redes recibe. Finalmente, se estudia el desarrollo de las conexiones de una red recurrente con dinámica neuronal de tasa de disparo, que representa una hiper-columna de la corteza. Se obtiene, que la plasticidad Hebbiana o BCM (Bienenstock, Cooper y Munro) por si solas dan lugar a inestabilidades en el desarrollo de las sinapsis y rompen la simetría de la matriz de conexiones. Sin embargo, con la incorporación de procesos de homeostasis que tienden a estabilizar el sistema llevando la actividad neuronal a un valor esperado (actividad blanco), se logran desarrollar conexiones que cumplen las características y funciones esperadas.