img039

img039



39


Rozdział 3. Liniowe sieci neuronowe

mu taką strategię liczenia, by zapamięta] i potrafi! porem rozpoznać aktualnie wprowadzany sygnał X. Inne neurony sieci są w tym czasie bezczynne. Omówiona zasada uczenia może być zapisana jako

u-!m,0+,) =    (*}» - w\m)U))

Wydaje się, że po wszystkim co do tej pory napisano — nie ma już potrzeby komentowania tego prostego wzoru. Można tylko dodać, że z praktyki stosowania metody wynikają pewne zalecenia odnośnie wyboru wartości które powinny zmieniać się zgodnie z empiryczną regułą:

-0,1-A j

przy czym współczynnik A trzeba wybrać na tyle mały, by w ciągu całego uczenia zachodził warunek > 0.

Na zasadzie analogii do insi ar można wprowadzić także drugą propozycję Grossberga — koncepcję outstar. W koncepcji tej rozważa się wagi wszystkich neuronów całej warstwy, jednak wybiera się wyłącznie wagi łączące te neurony z pewnym ustalonym wejściem. W sieciach wielowarstwowy cli wejście to pocłiodzi od pewnego ustalonego neuronu wcześniejszej warstwy i to właśnie ten neuron staje się „gwiazdą wyjść” — outstar. Wzór opisujący uczenie sieci outstar jest następujący:

+ ,,<■>'{£> -

Warto raz jeszcze podkreślić odmienność powyższego wzoru w stosunku do poprzednio rozważanych. Tutaj * jest ustalone (arbitralnie lub w jakiś inny sposób), natomiast m jest zmienne i przebiega wszystkie możliwe wartości (m = 1,2,    Reguła zmieniania

Tjk* jest w tym wypadku nieco inna, niż przy instar i może być dana wzorem:

r/*> = 1 - A j

0    ile metoda instar stosowana jest. w przypadku, kiedy trzeba sieć nauczyć rozpoznawania określonego sygnału X, o tyle metoda outstar znajduje zastosowanie przy uczeniu sieci wytwarzania określonego wzorca zachowań Y w odpowiedzi na określony sygnał inicjujący

Xj.

Reguły uczenia podane przez Nebba i Grossbcrga były przez wielu badaczy wzbogacane

1    modyfikowane. Pierwsza interesująca modyfikacja polega na wprowadzeniu dyskryminacji wejściowych i wyjściowych sygnałów. Dyskryminacja ta polega na dzieleniu sygnałów oraz y\ł) na ..aktywne” i „nie aktywne”. W tym celu używa się parametru ftr) będącego ustaloną lub zależną od j wartością progową i wprowadza się nowe zmienne * oraz y™ zdefiniowane w sposób następujący:

‘N:

= { o


oraz


gdy > £

w przeciwnym przypadku gdy i&} > e

w przeciwnym przypadku

+ vx(i})y<,P


Przy tych oznaczeniach nową technikę uczenia wg zmodyfikowanego algortmu Ilebba zapisać można w postaci:


Wyszukiwarka

Podobne podstrony:
Sieci CP str039 39 Rozdział 3. Liniowe siwi neuronowe mu taką strategię uczenia, by zapamięta] i pot
img037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie nazywa si
img029 29 Rozdział 3. Liniowe sieci neuronowe że neuron rozpoznaje1 sygnały wejściowe, wyróżnając te
img031 31 Rozdział 3. Liniowe sieci neuronowe jest aprioryczne ustalenie wektora W lub macierzy W* o
img035 35 Rozdział 3. Liniowe sieci neuronowe albo prościejv 3)=ww gdzie A jest pewną ustaloną stalą
img037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie nazywa si
img041 41 Rozdział 3. Liniowe sieci neuronowe dopasowanie wektora wag    do rozpoznaw
img043 43 Rozdział 3. Liniowe sieci neuronowe3.9 Uczenie z forsowaniem Opisane wyżej techniki samo u
img045 45 Rozdzinl :i. Liniowe sieci neuronowe ma na ogól niewielką wartość, ponieważ poszczególne s
img047 47 Rozdział 3. Liniowe sieci neuronowe nazywanej skumulowanym błędem. Wartości skumulowanego
Sieci CP str037 37 Rozdział 3. Liniowe sieci neuronowe pokazano jedynie oczy i usta). Takie zadanie
Sieci CP str029 29 Rozdział X. Liniowe sieci neuronowe że neuron rozpoznaje1 sygnały wejściowe, wyró

więcej podobnych podstron