[ Pobierz całość w formacie PDF ]
+"exp 2 2
2
( )
2 ( )
ó
Wprowadzając zrenormalizowaną odległość średniego pobudzenia od progu:
- ( )
a( ) =
( )
wzór na prawdopodobieństwo na jednostkę czasu mierzoną w stałych czasowych , okre-
ślający średnią liczbę impulsów w czasie , przyjmuje prostą postać:
"
z2 dz
P( ) = exp -
+"
2
2
( )
Dla typowych neuronów =10ms, C=20.000, =0.02 (2 impulsy/sek) mamy = 400J oraz
= 20J. Dokładniejszy model pokazuje, że jest to dobre przybliżenie dla aktywności nie
przekraczających 100 impulsów na sekundę.
W sieci złożonej z takich neuronów można rozwiązać problem stabilności sieci i poszuki-
wać spontanicznych częstości impulsacji. Wiadomo, że neurony w mózgu wykazują ciągła
aktywność przejście w stan spoczynku oznaczałoby śmierć. W dynamice mózgu musi więc
istnieć bardzo stabilny, rozległy atraktor, gwarantujący stabilność działania sieci neuronów. Z
problemem tym nie potrafią sobie poradzić prostsze sieci (np. sieci Hopfielda), oparte na
atraktorach punktowych. W przypadku braku hamowania rozwiązania są niestabilne wzglę-
dem fluktuacji częstości. Dodając około 10% synaps pochodzących od hamujących interneu-
ronów można otrzymać stabilne rozwiązania. W modelu mamy następujące parametry:
" liczbę synaps pobudzających CE =20.000;
" liczbę synaps hamujących CI =2.000;
" ułamek impulsów pobudzających od innych neuronów wewnątrz modułu w stosunku do
neuronów zewnętrznych,
" średnie wartości sprawności synaptycznych JEE, JEI, JIE, JII,
" czasy integracji neuronów hamujących I oraz pobudzających E.
Należy obliczyć średnie częstości I oraz E dla samoreprodukującej się aktywności spon-
tanicznej. Globalna stabilność w największym obszarze zmienności tych parametrów osiąga-
na jest dla stałych czasowych synaps hamujących wyraznie krótszych od pobudzających. Jed-
nakże przy czasach I bardzo krótkich (ok. 2 ms) sieć staje się wrażliwa na opóznienia cza-
sowe związane z przesyłaniem impulsów między neuronami i przestaje być stabilna, gdyż
opóznienia te wzmacniają lokalne fluktuacje i rośnie prawdopodobieństwo przejścia do stanu
absolutnego spoczynku.
14
Tak skonstruowana sieć działająca spontanicznie może uczyć się reprezentacji sygnałów
dochodzących z zewnątrz korzystając z lokalnej reguły plastyczności Hebba. Załóżmy, że
moduł ma się nauczyć p reprezentacji. Niech każda z nich zwiększa aktywność f procent neu-
ronów pobudzających, przy czym każda reprezentacja kodowana będzie przez niezależne neu-
rony modułu, f p
zentacji i stosunkowo dużych sieciach. W sytuacjach doświadczalnych (uczenie małp rozpo-
znawania obrazów) p=50 a f=0.01. Mamy więc podsieć pfN neuronów reagujących na jeden z
bodzców p i pozostałych neuronów działających w sposób spontaniczny. Rozkład prawdopo-
dobieństwa P+(J) sprawności synaptycznych podsieci reagującej na pobudzanie jednym z p
wzorców ma średnią J+>JEE oraz odpowiednią wariancję. Jednocześnie część (1-f)CEE synaps
neuronów pobudzających nie reaguje na wybrany wzorzec i opisać je można rozkładem P-(J)
o średniej J-
ne jest osłabieniem innych. Możliwe są dwa scenariusze uczenia się: stochastyczna rekrutacja
coraz większej liczby synaps znajdujących się w dyskretnych stanach lub ciągłe, stopniowe
zwiększanie wzmocnień synaptycznych. W sieciach tego typu, przy dużej liczbie neuronów,
przybliżenie dyskretne wydaje się funkcjonować dobrze.
Wyniki symulacji programem SpikeNet dla 2000-400.000 neuronów (jeden moduł złożony
jest z 2000 neuronów) pokazują, że spontaniczna aktywność jest stabilna w czasie lokalnego
uczenia się, chociaż w module uczącym się pojawia się podwyższona częstość impulsacji
wśród neuronów biorących udział w kodowaniu któregoś wzorca i nieco obniżona wśród po-
zostałych neuronów (jest to zapewne wynikiem przyjętego założenia o równowadze pomię-
dzy wzmocnieniem a osłabieniem synaptycznym). To podwyższenie średniej częstości impul-
sacji przy prezentacji wzorców zapowiada pojawienie się nowego atraktora. Przy wzrastają-
cym stosunku J+/J w pewnym momencie pojawia się bifurkacja i dwa rozwiązania stabilne,
odpowiadające spontanicznej aktywności i lokalnemu atraktorowi.
W eksperymentach opóznionego wyboru (Delayed Match to Sample, DMS) makak uczy
[ Pobierz całość w formacie PDF ]