2014 05 20


Deep Learning na przykładzie Deep Belief Networks
Jan Karwowski
Zakład Sztucznej Inteligencji i Metod Obliczeniowych
Wydział Matematyki i Nauk Informacyjnych PW
20 V 2014
Jan Karwowski (MiNI) Deep Learning 20 V 2014 1 / 14
Deep Learning
Głębokość  maksymalna długość ścieżki od wejścia do wyjścia sieci
(liczba neuronów)
Początkowo ( 50,  60) zaniechana ze względu na brak możliwości
obliczeniowych
Wzrost popularności w ostatnich 10 latach
Trudność w uczeniu głębokich układów klasycznymi algorytmami
http://deeplearning.net
Jan Karwowski (MiNI) Deep Learning 20 V 2014 2 / 14
Motywacja
Rzeczywiste układy biologiczne
Ośrodek widzenia w mózgu kota ma około 10 warstw
Istnieją funkcje trudne do reprezentacji w płaskim modelu (parzystość)
Sieci wielowarstwowe mogą łączyć preprocessing i klasyfikację/regresję
Jan Karwowski (MiNI) Deep Learning 20 V 2014 3 / 14
Restricted Boltzman Machine
Neurony binarne
Prawdopodobieństwo pobudzenia neuronu

P(hk = 1|v) = (bk + wi,kvi)
i
Każde połączenie działa w obie strony
Energia układu

E(v, h) = - aivi - bjhj - vihjwij
i j i,j
v1 v2 v3 v4 v5
w1,1
h1 h2 h3
Jan Karwowski (MiNI) Deep Learning 20 V 2014 4 / 14
Contrastive Divergence
Geoffrey E Hinton.  Training products of experts by minimizing
contrastive divergence . In: Neural computation 14.8 (2002),
pp. 1771 1800
Geoffrey Hinton. A practical guide to training restricted Boltzmann
machines. 2010
Tijmen Tieleman.  Training restricted Boltzmann machines using
approximations to the likelihood gradient . In: Proceedings of the
25th international conference on Machine learning. ACM. 2008,
pp. 1064 1071
Jan Karwowski (MiNI) Deep Learning 20 V 2014 5 / 14
Contrastive Divergence
v1, . . . , vn  warstwa widoczna, h1, . . . , hm  warstwa ukryta, W " Mm 
n
macierz wag połączeń,   wsp. uczenia
Algorithm 1 Pojedyncza epoka dla pojedynczego wzorca
1: function ContrastiveDivergence(V, W)
2: v ! V
3: H ! h ! SampleHidden(v,W)
4: for i ! 1..n do
5: v ! SampleVisible(h,W)
6: h ! SampleHidden(v,W)
7: end for"W ! ( OuterProduct(V,H) - OuterPro-
duct(v,h) )
8: return W + "W
9: end function
Pomijamy wpływ zmiany wag na poprzednie próbkowania
Jan Karwowski (MiNI) Deep Learning 20 V 2014 6 / 14
Deep Belief Network
Geoffrey E Hinton,
Simon Osindero, and
Yee-Whye Teh.  A fast learning
algorithm for deep belief nets .
In: Neural computation 18.7
(2006), pp. 1527 1554
model generatywny
Jan Karwowski (MiNI) Deep Learning 20 V 2014 7 / 14
Algorytm Uczący
1: Uczenie każdej warstwy połączeń osobno za pomocą CD, w niższej
warstwie wartości rzeczywiste  prawdopodobieństwa wystąpienia 1, w
wyższej próbkowane 0,1
2: Uczenie części klasyfikacyjnej jako elementu rozszerzającego
przedostatnią warstwę neuronów
3: for i ! 1.. liczba epok do
4: Próbkowanie w góre
5: Naprzemienne próbkowanie w najwyższej warstwie
6: Propagacja w dół
7: Gradientowa poprawa wszystkich wag
8: end for
Jan Karwowski (MiNI) Deep Learning 20 V 2014 8 / 14
Warstwę 2 i wyjście traktujemy jakby
była to jedna warstwa.
Jan Karwowski (MiNI) Deep Learning 20 V 2014 9 / 14
Użycie DBN
Wariant 1:
1
Z wejścia próbkuj wartości wyższych warstw, aż do warstwy z
dwukierunkowymi połączeniami
2
W obrębie górnej RBM wykonuj naprzemienne próbkowanie, aż do
osiągnięcia stanu równowagi
3
Zainicjuj wartości wszystkich etykiet klas wyjścia na 0.1 i wykonuj
naprzemienne próbkowanie w warstwie rozpoznającej aż do osiągnięcia
równowagi
Wariant 2:
1
Z wejścia próbkuj wartości wyższych warstw, aż do warstwy z
dwukierunkowymi połączeniami
2
Dla każdej klasy wykonaj: ustaw etykietę danej klasy na 1, pozostałe
na 0, wykonuj naprzemienne próbkowanie warstwy etykiet z dolną
warstwą górnej RBM i górnej warstwy RBM, aż do osiągnięcia
równowagi
3
Wybierz klasę, dla której końcowa energia układu była najmniejsza
Jan Karwowski (MiNI) Deep Learning 20 V 2014 10 / 14
Zbiór MNIST
Geoffrey E Hinton, Simon Osindero, and Yee-Whye Teh.  A fast learning
algorithm for deep belief nets . In: Neural computation 18.7 (2006),
pp. 1527 1554
Jan Karwowski (MiNI) Deep Learning 20 V 2014 11 / 14
Generatywna część modelu
Geoffrey E Hinton,
Simon Osindero, and
Yee-Whye Teh.  A
fast learning
algorithm for deep
belief nets . In:
Neural computation
18.7 (2006),
pp. 1527 1554
Próbkowanie w
najwyższej warstwie,
propagacja jak w
perceptronie w
niższych.
Jan Karwowski (MiNI) Deep Learning 20 V 2014 12 / 14
Inne architektury Deep Learning
Deep Boltzman Machine
Autoencoder
Convolutional Neural Network
Deep SVM
Jan Karwowski (MiNI) Deep Learning 20 V 2014 13 / 14
Deep Learning
+
Dobre działanie dla problemów z rozpoznawaniem obrazów, dla dużej
liczby danych wejściowych
Wykorzystanie znanych wcześniej płytkich modeli
-
Duża złożoność, w szczególności pamięciowa
Trudna analiza teoretyczna
Jan Karwowski (MiNI) Deep Learning 20 V 2014 14 / 14


Wyszukiwarka

Podobne podstrony:
2014 05 23 paths reserve currency renminbi
Przyklad 8 sup 2014 05 07
Przyklad 7 sup 2014 05 07
05 (20)
2016 05 20 Ustawa Program modernizacji Policji 2017 2020 projekt
2014 05 11 THE ESSENTIALS OF A HEALTHY?MILY part 4

więcej podobnych podstron