img065

img065



Rozdział 5

Sieci CP

5.1 Pomysł sieci „przesyłającej żetony” (Hecht-Nielsena)

Wada, jaką jest powolny i uciążliwie pracochłonny proces uczenia w sieciach ze wsteczną propagacją błędów sprawiła, że w literaturze dotyczącej sieci neuronowych pojawiło się wiele propozycji sieci o podobnym przeznaczeniu, lecz sprawniejszych w działaniu. Jedną z najhardziej znanych jest propozycja Roberta Hecht-Nielsena (Hecli88), określana jako sieć CVu»ier-Projmgalion. Nazwa la jest (rudna do przetłumaczenia na język polski, gdyż tytułowy co-ttntcr ina wiele znaczeń. Ponieważ najlepiej przystającym polskim terminem wydaje się być „żeton” (używany w banku do identyfikacji klienta w trakcie większych operacji kasowych), dlatego zaproponowano nazwę „sieć przesyłająca żetony” z pełną świadomością jej niedoskonałości i z nadzieją, że ktoś z Czytelników książki zaproponuje lepszą nazwę. W dalszych rozważaniach używać będziemy oznaczenia CP dla określenia tej sieci.

Sieć CP właściwie nie jest oryginalną propozycją, lecz stanowi kompilację sieci Kohonena i sieci Grossberga. Jednak zestawienie tych sieci w strukturze sieci CP wprowadziło istotnie nową jakość - sieć stosunkowo szybko się uczącą i mającą (potencjalnie) nieograniczony zakres możliwych odzworowań pomiędzy sygnałem wejściowym X i wyjściowym Y.

Ze względu na dość prostą zasadę działania, funkcjonowanie sieci CP porównywane jest do odczytu gotowego wyniku z tablicy (tzw. technika look-np labie, chętnie stosowana przy programowaniu sterowników przemysłowych). Oczywiście sieć CP nie ogranicza swojego działania do odczytu z tablicy, gdyż wejściowa jej warstwa dokonuje dodatkowo adaptacyjnej klasyfikacji wejściowych bodźców, co pozwala na pewne uogólnianie gromadzonego doświadczenia, a ponadto jak wszystkie sieci neuronowe CP dysponuje możliwością uczenia, co pozwała na jej wygodne używanie w szerokim zakresie ciekawych zastosowań.

Na podanym niżej rysunku połączenia między warstwą Kohonena, a warstwą wyjściową narysowano w uproszczeniu. W rzeczywistości mamy tu do czynienia z połączeniem według reguły „każdy z każdym”, co jest jednak trudne do narysowania (i do realizacji...), ponieważ z reguły liczba neuronów w warstwie Kohonena jest bardzo duża (im większa, tym bogatsze możliwości sieci!); jak zaznaczono na rysunku, jest. to liczba znacznie większa, niż liczba składowych wektora wejść i wektora wyjść z sieci.


Wyszukiwarka

Podobne podstrony:
Sieci CP str065 Rozdział 5Sieci CP5.1 Pomysł sieci „przesyłającej żetony” (Hecht-N ielsena) Wada, ja
ROZDZIAŁ 16 ■ Wprowadzenie do sieci komputerowych Transmisja typu klient-serwer wykorzystywana jest
ROZDZIAŁ 16 M Wprowadzenie do sieci komputerowych Dostęp do medium transmisyjnego realizowany jest p
img117 117 Rozdział 9. Dynamika procesu uczenia sieci neuronowych Do tego samego wniosku można dojść
img005 Rozdział 1W prowadzenie Technika sieci neuronowych1 budzi coraz większe zainteresowanie na ca
img007 7 Rozdział i. Wprowadzenie w zakresie samych sieci neuronowych lub ich licznych zastosowań. B
img112 Rozdział 9Dynamika procesu uczenia sieci neuronowych W poprzednich rozdziałach prezentowane b
img113 113 Rozdział 9. Dynamika procesu uczenia sieci neuronowych Rozwiązanie ma ogólną postać W(f)
img115 115 Rozdział 9. Dynamika procesu uczenia sieci neuronowych zjawisko jest znane w biologii pod
img117 117 Rozdział 9. Dynamika procesu uczenia sieci neuronowych Do tego samego wniosku można dojść
img119 119 Rozdział 9. Dynamika procesu uczenia sieci neuronowych albo — uwzględniając równanie opis
img121 Rozdział 10Przykłady konkretnych zastosowań sieci neuronowych Dyskusja przedstawiona w poprze

więcej podobnych podstron