img070

img070



70


5.6. Uczenie drugiej warstwy sieci CP

Funkcja adaptująca t}2{k) dla małych k przyjmuje bardzo małe wartości, natomiast potem powoli rośnie do wartości 1 i tę wartość zachowuje przez resztę procesu uczenia. Sens tar kich zmian wektora X(*> jest oczywisty: na'porzątku poszczególne skorygowane wektory bardzo mało różnią się od siebie, ale za to prawic dokładnie pokrywają się z wektorami wag wj*\ Wśród „zwycięskich” neuronów (początkowo są to wszystkie neurony wyjściowej warstwy, potem stopniowo jest ich coraz mniej) przeprowadza się prosty zabieg porządkujący, polegający na tym, że uznaje się za „zwycięski” neuron o najniższym numerze i tylko jego wagi poddaje się procesowi uczenia — też początkowo bardzo subtelnego, jak wynika ze wzoru opisującego sposób uczenia i przyjętej reguły modyfikacji wektorów X^. Dzięki opisanym zabiegom wektory    początkowo wspólliniowe, zaczynają się z wolna

rozchodzić w kierunkach wynikających z naturalnych tendencji występujących w zbiorze wejściowych sygnałów X(*\ dając początek sprawnej i efektywnie dalej przebiegającej kla-steryzacji. Warto podkreślić, że opisane zabiegi skutkują jedynie w krótkim początkowym okresie uczenia, gdyż wkrótce funkcja *h(k) osiąga wartość 1 i modyfikacja wektorów X^praktycznie przestaje działać.

5.6 Uczenie drugiej warstwy sieci CP

W porównaniu z kłopotami, jakich nastręcza uczenie pierwszej warstwy sieci CP, uczenie warstwy Crossberga to sama przyjemność. Reguła zmiany wag V{j podporządkowana jest tu zasadzie Widrowa-Hoffa:

t#+1) =    + r/3 (yi - Zi) kj

Reguła ta okazuje się jeszcze prostsza w stosowaniu, niż to może wynikać z podanego wzoru, gdyż tylko jedna wartość kj jest różna od zera i w każdym kroku procesu uczenia korygowane są tylko te wagi, które łączą poszczególne neurony wyjściowej warstwy z jednym tylko — mianowicie „zwycięskim” elementem poprzedniej warstwy. Ta zasada (zwana czasem regułą outstar) znakomicie zmniejsza pracochłonność procesu uczenia.

Parametr 1/3 wybiera się zazwyczaj ostrożnie tak, by proces uczenia nie spowodował wpisania do „tablicy” (łook-np table.) błędnych wartości. Zwykle zaczyna się uczenie od wartości 1/3 = 0,1 a potem się tę wartość jeszcze mocniej redukuje.

5.7 Przykład zadania rozwiązywanego przez sieć CP

Sieci CP okazują się zaskakująco przydatne przy rozwiązywaniu różnych praktycznych zadań. Przykładowo można tu wspomnieć o modelu sieci CP wbudowanym w symulator Neural-Works Professional II firmy NeuralWare. Model len ma doradzać, jak spędzać sobotni wieczór.

Sieć ma dwa wejścia:

-    z\ określające ilość pilnej pracy, jaka jest do wykonania,

-    z-2 podające „temperaturę” uczuć rodzinnych.

Sieć ma też pięć wyjść:


Wyszukiwarka

Podobne podstrony:
Sieci CP str070 70 5.6. Uczenie drugiej warstwy sieci CP Funkcja adaptująca fyik) dla małych k przyj
img068 68 5.4. Zadania drugiej warstwy sieci5.4 Zadania drugiej warstwy sieci Sumarycznie pierwsza w
Sieci CP str066 66 r>.2. Działanie pierwszej warstwy sieci CP X5.2 Działanie pierwszej warstwy si
img073 73Rozdział 5. Sieci CP określonych systemów, są wreszcie także bardzo cenione jako systemy sł
Sieci CP str073 73 Rozdział 5. Sieci CP określonych systemów, są wreszcie także bardzo cenione jako
Img00107 Wpływ rezystancji warstwy nalotowej jest szczególnie niekorzystny w przypadku zestyków na b
Sieci CP str032 32 3.3. Uczenie pojedynczego neuronu skorygowanie wektora wag W, by neuron lepiej re
Sieci CP str058 58 •1.5. Uczenie nieliniowego neuronu Rozkładając funkcjonał błędu na elementy skład
img070 70 (j - 1, n) (6.5) Wzory (6.4) i (6.5) noszę nazwę reguły wyznaczania pochodnych cząstkowych

więcej podobnych podstron