Sieci CP str092

Sieci CP str092



92


7.6. Maszyny BoUzmanua

2. Obniża się stopniowo wartość w kolejnych krokach (na przykład według reguły

T^j+i) = y{; J _

albo


T<>+x> = 7^Jf> (1 — 0

i powtarza się punkt 1 aż do osiągnięcia stanu równowagi.

Proces ten - na podstawie analogii z procesem tzw. odprężania stosowanego w cieplnej obróbce metali nazywa się zwykle symulowanym odprężaniem (simnlated anne-a ling), ponieważ podobnie jak obrabianemu materiałowi — sieci nadaje się na początku wysoką ,,temperaturę” a potem stopniowo się ją obniża doprowadzając do osiągnięcia globalnego minimum łącznej energii wewnętrznej sieci.

Technika ,.maszyny Boltzmauna” może być zastosowana do dowolnej sieci, nie tylko sieci Hopfielda (autoasocjacyjnych). Jeśli sieć ma wyróżnione sygnały wejściowe i wyróżnione sygnały wyjściowe (a więc jest siecią typu feedforward zgodnie z wyżej przyjętą terminologią), to wówczas także można skorzystać z koncepcji osiągania przez sieć stanu „równowagi termodynamicznej” w taki sposób, że w kroku j = 0 podaje się na wejście sieci sygnały X. a potem stosując, wyżej opisany algorytm dla j = 1,2,... doprowadza się sieć do stanu równowagi o najmniejszym potencjale energetycznym i odczytuje się odpowiedź z wyjść neuronów mających charakter elementów końcowej warstwy.

Opisany algorytm zastał uogólniony przez Hintoua i Scjuowskiogo [łlinlfitj] w sposób następujący. Załóżmy, że mamy uczyć pewną konkretną sieć jakiejś określonej formy przetwarzania informacji, posługując się ciągiem uczącym U = {<    >, k = 1,2, N},

gdzie X jest wektorem sygnałów wejściowych podawanych do niektórych elementów sieci, a Z jest wektorem wyjściowym określającym sygnały, jakie są oczekiwane na wyjściach także niektórych elementów sieci. Wówczas algorytm uczenia sieci można opisać wymieniając trzy czynności:

1.    Obliczanie „związanych” prawdopodobieństw.

Krok ten przewiduje wykonanie następujących operacji:

a.    Wymusza się wynikające z ciągu uczącego wartości wejść X* i wyjść Z* wyróżnionych neuronów wejściowych i wyjściowych.

b.    Pozwala się sipci dojść do stanu równowagi.

c.    Rejestruje się sygnały wyjściowe y\» * wszystkich elementów sieci.

d.    Powtarza się punkty od a do c. dla wszystkich elementów ciągu uczącego (dla k = 1,2,..., N), zbierając statystykę, dzięki której po zakończeniu pokazów wszystkich elementów ciągu uczącego możliwe jest obliczenie prawdopodobieństw tego, że sygnały wyjściowe neuronów o numerach i oraz j mają równocześnie wartość. 1.

2.    Obliczanie „nie związanych” prawdopodobieństw.

Krok ten przewiduje wykonanie następujących operacji:

a. Wymusza się przypadkowo wartości sygnałów wyjściowych wszystkich neuronów sieci.


Wyszukiwarka

Podobne podstrony:
img092 92 7.6. Muszyny Ro/tzmanua 2. Obniża się stopniowo wartość w kolejnych krokacli (na przykład
Sieci CP str090 faimęc nmoHsocjacyjua która upraszcza się w przypadku funkcji <p zbliżonej kształ
Sieci CP str012 12 2.2. Czym jest- sieć neuronowa?2.2 Czym jest sieć neuronowa? Na temat sieci neuro
W zależności od szczebla zarządzania zmienia się jednak ranga poszczególnych funkcji. Na przykład na
06 (28) Z kolei zadanie może się składać z szeregu zadań cząstkowych, na przykład lekarz musi przepr
ardowi zwróci się Derrida w swoich nowszych pracach, na przykład w Donner la mort z 1992 roku). Na p
0000060 (6) nazywają się wiązaniami nr. Wiązania n występują na przykład obok wiązań a w benzenie (r
P1060304 * Spotyka się również inne określenia bezrobocia dla przykładu według Międzynarodowej Organ
Zarz Ryz Finans R15G2 472 Zarządzanie ryzykiem finansowym który zmienił się dla niego najkorzystniej
72611 Obraz4 92 XI. Naród i państwo Poza hiszpańskim, językami takimi są na przykład angielski i fr
land stwierdził, że przestępstw uczymy się podobnie jak innych dziedzin na przykład rachunkowości.1
Pompy te stosuje się do pompowania cieczy zanieczyszczonych, na przykład do odwadniania wykopów,

więcej podobnych podstron