plik


Teoria informacji i kodowanie  WykBad nr 1 1. Wstp Do najbardziej podstawowych zadaD wspBczesnej techniki mo|na zaliczy przekazywanie informacji w czasie (systemy przechowywania informacji) oraz w przestrzeni (systemy telekomunikacyjne). W drugim przypadku przekazywanie informacji umo|liwiaj kanaBy transmisyjne. Natomiast w pierwszym za kanaB mo|na uwa|a [rodki sBu|ce do przechowywania informacji. Aby dan wiadomo[ przesBa i przekaza poprzez kanaB, rozumiany tutaj w szerokim sensie, nale|y j przedstawi w formie stosownej do niego. Rozwa|my na pocztku oglny system przesyBania informacji, przedstawiony na rysunku 1.1. 1.1 Oglna struktura systemu (otwartego) przesyBania informacji. Omwimy teraz kolejno poszczeglne elementy tego systemu. yrdBo wiadomo[ci Przez zrdBo wiadomo[ci rozumiemy obiekt, ktry wytwarza wiadomo[ci oraz podaje je w celu wykonania nad nimi pewnych czynno[ci. Najistotniejsz cech charakteryzujc zrdBo wiadomo[ci (S) jest zbir wiadomo[ci oraz ich rozkBad prawdopodobieDstwa. Ze wzgldu na zbir wiadomo[ci, zrdBa dzielimy na: - ziarniste (dyskretne)  zbir wiadomo[ci jest skoDczony (zawiera N elementw) lub nieskoDczenie przeliczalny (rwnoliczny ze zbiorem liczba naturalnych). - cigBe  zbir wiadomo[ci jest nieprzeliczalny, ale ograniczony. PrzykBadem zrdBa ziarnistego jest koDcwka dalekopisu, ktra generuje cigi sygnaBw o dwch charakterystycznych cechach. Natomiast przykBadem zrdBa cigBego jest przyrzd pomiarowy, np. amperomierz, ktry pokazuje warto[ci prdu w zakresie od zera do 5A. W przypadku zrdBa cigBego istnieje mo|liwo[ zamiany cigBego zbioru na dyskretny, przy czym im liczno[ zbioru dyskretnego jest wiksza tym to odwzorowanie jest dokBadniejsze. Np. rozwa|my przebiegi na rys. 1.2. 1 Teoria informacji i kodowanie  WykBad nr 1 Rys. 1.2 Proces dyskretyzacji zrdBa Proces zamiany zbioru cigBego na dyskretny zachodzi w urzdzeniu kwantujcym. W praktyce tego typu konwersja czasami okazuje si bardzo po|yteczna. W dalszych rozwa|aniach bdziemy si zajmowa jedynie zrdBami dyskretnymi. Ze wzgldu na rodzaj rozkBadu prawdopodobieDstwa zrdBa mo|na podzieli na: - deterministyczne  wwczas wiadomo, jaka wiadomo[ zostaBa nadana i zatem system przesyBania informacji nie jest konieczny. Oczywi[ci taki przypadek nas nie interesuje. - probabilistyczne  tzn. takie, ktre wytwarzaj wiadomo[ci w sposb losowy. Takie zrdBa nas tylko i wyBcznie interesuj. yrdBo probabilistyczne mo|na modelowa generatorem losowym wiadomo[ci, ktre je generuje wg. pewnego rozkBadu prawdopodobieDstwa. Taki rozkBad prawdopodobieDstwa mo|na wyznaczy: - a priori  tzn. na drodze teoretycznych rozwa|aD - a posteriori  tzn. na drodze eksperymentalnej. PrzykBad 1. Mo|na zaBo|y, |e litery wystpujce w jzyku polskim s wiadomo[ciami, ktre wystpuj z pewnymi czsto[ciami. Najcz[ciej wystpuj: A (ok. 8,5%), I (7,9%), E, O (7,8%). Najrzadziej wystpuj litery: y (0,1%), F, C (0,2%). 8.5 4.3 2.3 1.0 A R U  7.9 4.0 2.2 1.0 I T J { 7.8 4.0 2.1 0.9 O Y A 7.8 3.8 2.0 0.7 E C L Z 5.6 3.6 1.6 0.4 Z K G  5.2 3.3 1.5 0.2 N D B F 5.1 3.0 1.3 0.2 S P  C 4.6 2.8 1.2 0.1 W M H y Mo|e si zdarzy, |e zbir wiadomo[ci dyskretnych skBada si z cigw wiadomo[ci elementarnych. Wwczas modelem takiego cigu wiadomo[ci jest cig dyskretnych zmiennych losowych (BaDcuch losowy). 2 Teoria informacji i kodowanie  WykBad nr 1 Je|eli rozkBad prawdopodobieDstwa jest staBy w czasie to mwimy, |e zrdBo jest stacjonarne. Je|eli nadane wiadomo[ci zale| od skoDczonej liczby wiadomo[ci nadanych w przeszBo[ci to mwimy, |e zrdBo ma skoDczon pami. Do teoretycznego opisu takich zrdeB posBugujemy si procesami Markowa. Koder zrdBa (KS) Zwykle nie przesyBa si kanaBem sygnaBw, ktre s odwzorowaniami wszystkich wiadomo[ci ze zrdBa S. Najcz[ciej wiadomo[ci s zamieniane na cigi sygnaBw elementarnych, zwane dalej cigami kodowymi. Zbir sygnaBw elementarnych bdziemy nazywa alfabetem. Operacj przyporzdkowujc poszczeglnym wiadomo[ciom r|ne cigi kodowe nazywamy kodowaniem. Pojcia te u[ci[limy potem. Mo|na zada pytanie, po co tak zamian stosowa. Ma to na celu zapewni: 1) prostot, 2) pewno[, 3) efektywno[ urzdzeD koniecznych do transmisji informacji, przy czym nie bierzemy pod uwag statystycznych wBa[ciwo[ci zrdBa oraz zakBceD wystpujcych w kanale transmisyjnym. Koder zrdBa (KS) stosowany jest w celu takiego zakodowania informacji, aby cigi kodowe miaBy jak najmniejsz dBugo[ (dBugo[ = liczba liter). W przypadku braku zakBceD w kanale transmisyjnym, korzy[ci jest zmniejszenie [redniego czasu potrzebnego do transmisji cigu kodowego. Oczywi[ci wpBywa to na oszczdno[ urzdzeD pamitajcych, a wic na efektywno[ systemu. Koder kanaBu (KK) Koder kanaBu ma na celu takie odwzorowanie wiadomo[ci, ktre zapewniBoby |dan pewno[ jej transmisji lub przechowywania przez wprowadzenie nadmiaru. Tego typu kodowanie przeprowadzane jest wedBug prostych algorytmw przy uwzgldnieniu statystyki zakBceD wystpujcych w kanale transmisyjnym. Tego typu kodowanie nazywamy nadmiarowym lub protekcyjnym (zabezpieczajcym). Jemu bdzie po[wicona gBwna uwaga. Oglnie oba kodery, tj. KZ i KK wystpuj w systemach teletransmisyjnych i nazywamy je koderem K (rys. 1.3). KZ KK Koder K Rys. 1.3 Struktura kodera K Modulator M SygnaBy z kodera nie zawsze s sygnaBami, ktre s odpowiednie dla danego kanaBu lub mog Batwo ulega w nim znieksztaBceniu. W zwizku z tym istnieje potrzeba przeksztaBcenia tych sygnaBw na inne, ktre wykazywaByby si cechami przeciwnymi do podanych. Np. w radiofonii stosuje si modulacj czstotliwo[ci, w celu eliminacji zakBceD 3 Teoria informacji i kodowanie  WykBad nr 1 (UKF). Odbywa si to w urzdzeniu zwanym modulatorem. Zwykle przyjmuje si, |e modulator stanowi pierwszy czBon kanaBu transmisyjnego. KanaB transmisyjny (KT) Przekazywanie wiadomo[ci ze zrdBa do OPW odbywa si poprzez kanaB. Nale|y zaznaczy, |e w systemie mog wystpowa zakBcenia, ktrych dziaBanie reprezentuje kanaB transmisyjny. ZakBcenia SygnaB SygnaB KT nadany odebrany Rys. 1.4. KanaB transmisyjny KanaB charakteryzuj dwa zespoBy wBa[ciwo[ci: 1) wBa[ciwo[ci zbioru sygnaBw wej[ciowych, 2) wBa[ciwo[ci zbioru sygnaBw wyj[ciowych. Je|eli ka|dy z tych zbiorw zawiera skoDczon ilo[ elementw, to kanaB nazywamy dyskretnym. W wikszo[ci systemw teletransmisyjnych sygnaBy transmitowane zbudowane s z sygnaBw elementarnych. Zwykle ich liczba jest niewielka. Typowym przykBadem kanaBu dyskretnego jest kanaB binarny, gdzie zarwno cigi wej[ciowe jak i wyj[ciowe zawieraj dwa rodzaje sygnaBw elementarnych. W oglnym przypadku liczebno[ci zbiorw: wej[ciowego i wyj[ciowego  mo|e by r|na. Je|eli zbiory te s cigBe to mwimy, |e kanaB jest cigBy. Charakterystyki zbioru cigw wej[ciowych W dalszym cigu ograniczymy si jedynie do kanaBw dyskretnych, gdy| ta dziedzina si szybko rozwija i jest bardzo wa|na (transmisja danych). Pojedynczy cig kodowy charakteryzuj parametry: 1) energia 2) ilo[ sygnaBw elementarnych (dBugo[ cigu) 3) czas trwania cigu. Je|eli wybra jeden z parametrw to charakteryzuj go: 1) warto[ ekstremalna, 2) warto[ [rednia np. najdBu|szy cig w zbiorze; [rednia dBugo[ cigu. Je|eli wprowadza si pewn wielko[ jako charakteryzujc zbir cigw wej[ciowych, to na ogB |da si, aby nie przekraczaBa lub byBa rwna pewnej z gry ustalonej wielko[ci. Wtedy mwimy, |e mamy kanaB: ) o ograniczonej warto[ci szczytowej parametru ) o ograniczonej [redniej warto[ci parametru. Np. czasem wymaga si, |eby wszystkie cigi miaBy jednakow dBugo[. Stosuje si to w systemach, w ktrych nie znamy zakBceD dziaBajcych na cig. Jak si pzniej oka|e, je|eli 4 Teoria informacji i kodowanie  WykBad nr 1 cigi te s dosy dBugie, to mo|na skutecznie niwelowa dziaBanie zakBceD. W tej sytuacji jest rwnie| prosta budowa kodera i dekodera. Inn wBa[ciwo[ci mo|e by ograniczenie, co do pewnych kombinacji sygnaBw elementarnych. PrzykBadem mog by np. sygnaBy Morse a. Tutaj po kropce, lub kresce musi nastpi przerwa a nie np. znowu kropka. KanaBy takie nazywamy kanaBami o zakazanych kombinacjach. Charakterystyki zbioru cigw wyj[ciowych Je|eli na podstawie cigu wyj[ciowego mo|na odtworzy bezbBdnie cig wej[ciowy to kanaB taki nazywamy bezszumowym. PrzykBadem takiego kanaBu s np. litery zapisane na papierze i transportowane w sposb mechaniczny. W zasadzie rzeczywiste kanaBy nie s bezszumowe; sygnaB wyj[ciowy u nich zale|y nie tylko od sygnaBu wej[ciowego, ale tak|e od pewnych nieznanych czynnikw ubocznych. W tej sytuacji kanaB mo|e by opisany za pomoc zbioru prawdopodobieDstw warunkowych: P{q p} gdzie: p oznacza cig nadany, a q cig odebrany. P{q p}= P{q1 p1}* P{q2 p2}*...* P{qN pN } KanaB dyskretny posiadajcy powy|sz wBa[ciwo[ nazywamy kanaBem bezpamiciowym. Gdy prawdopodobieDstwa P{q p} nie zmieniaj si w czasie, to kanaB nazywamy stacjonarnym. Nadajnik N Oglnie przez nadajnik rozumiemy urzdzenie, ktre poszczeglnym wiadomo[ciom przyporzdkowuje sygnaBy, ktre w okre[lonym sensie s najbardziej po|dane i ktre s nastpnie przesyBane kanaBem. W rozwa|aniach naszych przez nadajnik bdziemy rozumie urzdzenie skBadajce si z KS, KK i M lub ka|dej kombinacji tych elementw. Nadajnik N KS KK M Rys. 1.5. Struktura nadajnika N Odbiornik O Podczas transmisji cigw sygnaBw elementarnych poprzez kanaB mog one ulec dziaBaniu nieznanych zakBceD losowych. Oglnie w systemach komunikacyjnych mo|na wyr|ni dwa rodzaje zakBceD: 5 Teoria informacji i kodowanie  WykBad nr 1 1) zewntrzne 2) wewntrzne ad.1) ZakBcenia zewntrzne s to zakBcenia, ktrych zrdBo znajduje si poza systemem. Mog by one wytworzone przez czBowieka (komutatory maszyn elektrycznych, ukBad zapBonowy w samochodzie) lub te| nie (wyBadowania atmosferyczne, promieniowanie odlegBych galaktyk wszech[wiata). Tego typu zakBcenia jednak|e daje si do[ dobrze eliminowa. Ad.2) Problem stanowi zakBcenia wewntrzne, ktre maj dwa zrdBa: 1) Przypadkowe ruchy termiczne elektronw poruszajcych si w przewodniku o temperaturze powy|ej zera bezwzgldnego  tzw. szum termiczny (Johnsona). 2) No[niki prdu (tj. elektrony i dziury) s dyskretnymi czstkami naBadowanymi, zatem np. gdy czstki takie poruszaj si w pBprzewodniku lub od katody do anody, to w kolejnych przedziaBach czasu ich liczba si waha w sposb losowy. Zatem odpowiadajcy im prd elektryczny rwnie| takim zmianom podlega. Tego typu zakBcenia nazywamy: szumem [rutowym. Poniewa| mo|e si zdarzy, |e przesyBany sygnaB poprzez kanaB mo|e ulec w nim znieksztaBceniu to odbiornik musi podj decyzj czy takie zdarzenie miaBo miejsce. Odbiornik skBada si z urzdzeD, ktre dziaBaj odwrotnie do urzdzeD nadajnika, zatem w skBad niego wchodzi demodulator DM oraz dekodery DKK i DKZ lub cz[ z nich. Odbiornik O DM DKK DKZ Rys. 1.6. Struktura odbiornika Problem podejmowania decyzji przez odbiornik O nie jest problemem trywialnym. Od strony teoretycznej zajmuje si tym teoria funkcji decyzyjnych. Je|eli zbir decyzji jest identyczny ze zbiorem wiadomo[ci to decyzj nazywamy punktow, a zasad wedBug, ktrej podejmowana jest decyzja  punktow reguB decyzyjn. Nieco bardziej skomplikowane jest podejmowanie decyzji w przypadku, gdy zbir decyzji zawiera jeszcze jeden element majcy sens decyzji:  nie wiadomo, ktr wiadomo[ nadano . Wwczas reguB decyzyjn nazywamy reguB z wykrywaniem obecno[ci bBdu. Kod, ktry umo|liwia podejmowanie decyzji, mimo, |e cz[ sygnaBw elementarnych zostaBa odtworzona bBdnie nazywamy kodem wykrywajcym bBdy lub kodem detekcyjnym. Stosowanie reguBy decyzyjnej z wykrywaniem obecno[ci bBdu ma szczeglne znaczenie w systemach telekomunikacyjnych ze sprz|eniem zwrotnym (rys. 1.7) 6 Teoria informacji i kodowanie  WykBad nr 1 S N O OPW K KSZ Rys. 1.7. System telekomunikacyjny ze sprz|eniem zwrotnym. Bardzo wa|n reguB decyzyjn jest tzw. reguBa obszarowa, w ktrej nie precyzuje si, jaka wiadomo[ zostaBa nadana tylko podaje si podzbir, w ktrym si ona mo|e zawiera. ReguBom decyzyjnym mo|na nada prost interpretacj geometryczn, w ktrej odebrane cigi sygnaBw elementarnych traktujemy jako punkty (rys. 1.8). Rys. 1.8. Ilustracje geometryczne reguB decyzyjnych Jak si oka|e, je|eli bdziemy stosowa odpowiedni sposb kodowania, to mimo, |e wystpiBy bBdy, jeste[my w stanie podejmowa decyzje bezbBdne. Kody, ktre pozwalaj to uzyska nazywamy kodami korekcyjnymi lub korygujcymi bBdy. Zauwa|my jeszcze na koniec, |e w rozwa|anym systemie telekomunikacyjnym stosuje si podwjne zabezpieczenie przed bBdami: 1) modulacja 2) kodowanie. 7 Teoria informacji i kodowanie  WykBad nr 1 2. yRDAO WIADOMOZCI Przez zrdBo wiadomo[ci bdziemy rozumie urzdzenie, ktre generuje wiadomo[ci z pewnego zbioru (dyskretnego lub cigBego ograniczonego) w sposb losowy. yrdBo dyskretne dostarcza skoDczonej liczby wiadomo[ci. PrzykBadem przebiegw wyj[ciowych takiego zrdBa mo|e by cig ...132653421..., otrzymany w wyniku kolejnych rzutw kostk do gry. W przeciwieDstwie do zrdeB dyskretnych zrdBa cigBe dostarczaj nieskoDczon ilo[ ze zbioru ograniczonego (wynika z przesBanek fizycznych). PrzykBadem przebiegu wyj[ciowego takiego zrdBa jest sygnaB napiciowy otrzymywany z mikrofonu. Cyfrowa posta informacji Ka|dej wiadomo[ci w zbiorze mo|emy przypisa pewien numer porzdkowy. W tym przypadku przesyBanie lub przechowywanie wiadomo[ci sprowadz si do przesyBania lub przechowywania liczb. Liczby te mo|na wyrazi w dowolnym systemie liczenia, co daje mo|liwo[ stosowania kodw o r|nych alfabetach. Oglnie jest przyjta tzw. pozycyjna zasada tworzenia systemw liczenia. Warto[ ka|dego symbolu (cyfry) zale|y od jej poBo|enia w cigu symboli (cyfr) przedstawiajcych liczb. Jednostka ka|dej pozycji jest b-krotnie wiksza od poprzedniej, przy czym b stanowi podstaw systemu liczenia. Warto[ liczby otrzymujemy sumujc wszystkie pozycje. k L = bi-1 = lkbk -1 + lk -1bk -2 + ...+ l2b + l1, lklk -1...l2l1 "l i i=1 gdzie i  nr pozycji danej liczby k  liczba pozycji (ilo[ cyfr liczby) li  wspBczynnik ze zbioru [0,b -1] b  podstawa systemu Im wiksza jest podstawa liczenia tym mniej pozycji potrzeba do jej przedstawienia, a zatem mniej czasu do przesBania, jednak|e powoduje to - wiksze wymagania dotyczce kanaBu transmisyjnego, - zBo|ono[ aparatury nadawczej i odbiorczej, - elementy logiczne musz mie wicej stanw stabilnych. - Uwzgldniajc te okoliczno[ci nale|y d|y do zminimalizowania kosztu przesyBania danej cyfry L [koszt p. cyfry L]=[ilo[ pozycji k][podstawa systemu] C(L) = f (k,b) Wwczas liczba L wymaga co najmniej k = logb L pozycji poniewa| L = bk Cb (L) = k "b = b logb N Niech C2 (L) = 2log2 L 8 Teoria informacji i kodowanie  WykBad nr 1 Koszt wzgldny Cb (L) b logb N b Cw (L) = = = = f (b) ' C2 (L) 2log2 N 2log2 b Cw(b) 1 0,942 1 2 e 3 4 5 6 7 b Najbardziej efektywny jest system trjkowy, niewiele mu ustpuj systemy dwjkowy i czwrkowy, pozostaBe gorsze. Std wynika, |e b=2 najlepszy - tylko dwa stany stabilne, - rozr|nienie braku impulsu, - konwersja systemw b = 2 ! b = 10 jest prosta. Jednak|e kod dwjkowy nie jest wygodny przy wprowadzaniu i wyprowadzaniu informacji, gdy| czBowiekowi niewygodnie jest operowa liczbami wyra|onymi w tej postaci. Std te| s inne kody - semkowy (b=8), - szesnastkowy (b=16), - dwjkowo-dziesitny (tzw. kody wa|one). - W najprostszym przypadku wiadomo[ generowane przez zrdBo dyskretne nie zale| od wiadomo[ci generowanych w przeszBo[ci. Wwczas zbiorowi wiadomo[ci M = {m1, m2, ..., mn} mo|na przyporzdkowa zbir prawdopodobieDstw P = {p1, p2, ..., pn} a zrdBo wiadomo[ci nazywamy zrdBem bezpamiciowym. Zatem jako model matematyczny zrdBa mo|emy przyj obiekt oznaczony przez nastepujac tablic: m1 m2 ... mN M S = = (2.1) [ ] p p2 ... pN P 1 Odpowiednia ilo[ informacji dostarczona przez jedna wytworzona wiadomo[ ze zrdBa jest jak wiadomo z podstaw teorii informacji rwna [redniej niepewno[ci co do jej otrzymania. Wielko[ t nazywamy entropi i oznaczamy przez H. Wynosi ona dla zrdBa S. Okre[lonego przez (2.1) N ( ) H S = - pi log2 pi [ bit ] (2.2) " i=1 PrzykBad 2.1 Rozwa|my dwa zrdBa: m1 m2 m1 m2 S1 = i S2 = . 0.99 0.01 0.5 0.5 Obliczamy entropi dla obu zrdeB: H(S1) = -0.99log20.99 - 0.01log20.01 = 0.081 [bit], H(S2) = -0.5log20.5 - 0.5log20.5 = 1 [bit]. 9 Teoria informacji i kodowanie  WykBad nr 1 Zatem H(S1) < H(S2). Otrzymanie konkretnej wiadomo[ci jest bardziej nieokre[lone dla zrdBa S2. Rzeczywi[cie, poniewa| zrdBo S1 generuje przewa|nie wiadomo[ m1, zatem jeste[my mniej niepewni odno[nie tego, ktra wiadomo[ zostaBa wytworzona. Entropia zrdBa S okre[lonego przez (2.1) ma nastpujce wBasno[ci: ( ) 1) 0 d" H S d" log2 N ,1 (2.3) 2) dla rwnomiernego rozkBadu prawdopodobieDstwa P = {1/N, 1/N, ..., 1/N} entropia osiga maksimum rwne ( ) Hmax S = log2 N . (2.4) PrzykBad 2.2 Mamy dane zrdBo wiadomo[ci m1 m2 S = p 1 - p yrdBo takie nazywamy binarnym, gdy| zbir wiadomo[ci skBada si z dwch elementw. Obliczamy entropi: N pp ( ) H S = - pilog2pi = - plog2p + (1 - p)log2(1- p) = -log2 " [ ] (1- p)p-1 i=1 Zale|no[ entropii zrdBa H(S) od prawdopodobieDstwa p przedstawiona jest na rys. 2.1. W przypadku, gdy prawdopodobieDstwo jednej z wiadomo[ci rwna si zero, to prawdopodobieDstwo drugiej rwna si jeden. Wwczas mamy do czynienia ze zrdBem zdeterminowanym, gdy| wiemy, jak wiadomo[ ono wytworzy. Zatem w tym przypadku entropia rwna si zeru. Entropia osiga maksimum rwne jedno[ci dla wiadomo[ci rwnoprawdopodobnych. H (S) 1 0.5 p 0.5 1 Rys. 2.1. Entropia binarnego zrdBa wiadomo[ci 1 Je[li pi = 0, to przyjmujemy umow, |e pilog2pi = 0, poniewa| lim pi log2 pi = 0 . pi !0 10 Teoria informacji i kodowanie  WykBad nr 1 Niech X x1 x2 Y y1 y2 S1 = = = P p p2 i S2 = Q q q2 . 1 1 Utwrzmy nowe zrdBo S , ktre okre[lone jest w sposb nastpujcy: X Y S'= P Q W przypadku, gdy S1 = S2 = S, to tak utworzone zrdBo nazywamy drugim rozszerzeniem zrdBa S. I oznaczamy je przez S2. Postpujc w podobny sposb mo|emy utworzy k - krotne rozszerzenie zrdBa S, ktre bdziemy oznacza przez Sk. Oczywi[cie S1 = S. PrzykBad 2.3. Mamy dane zrdBo m1 m2 S = 0.4 0.6 Drugie rozszerzenie tego zrdBa ma posta m1m1 m1m2 m2m1 m2m2 S2 = , 0.16 0.24 0.24 0.36 a trzecie m1m1m1 m1m2m1 m2m1m1 m2m2m1 m1m1m2 m1m2m2 m2m1m2 m2m2m2 S3 = . 0.064 0.096 0.096 0.144. 0.096 0.144 0.144 0.216 Twierdzenie 2.1. Je|eli m1 m2 ... mn S = p p2 ... pN 1 jest bezpamiciowym zrdBem wiadomo[ci, to H(Sk) = kH(S). Entropia k - tego rozszerzenia zrdBa S wynosi k N H(Sk ) = - P log2 P , (2.5) (i ) (i ) " i=1 gdzie i = mi1mi2 ...mik . Poniewa| zrdBo jest bezpamiciowe, zatem ( ) P mi1mi2 ...mik = P mi1 " P mi2 "..."P mik . ( ) ( ) ( ) ( ) Zgodnie z definicj zrdBa, suma prawdopodobieDstw P{i} powinna by rwna jedno[ci. Rzeczywi[cie, gdy| Nk Nk N N N P = P mi1 " P mi2 "..."P mik = ... P mi1 " P mi2 "..."P mik = (i ) " " ( ) ( ) ( ) " " " ( ) ( ) ( ) i=1 i=1 i1=1i2 =1 ik =1 N N N = P mi1 " P mi2 "..." P mik = 1"1"..."1 = 1 " ( ) " ( ) " ( ) k-razy i1=1 i2 =1 ik =1 Rwnanie (2.5) mo|na przedstawi w nastpujcej postaci: 11 Teoria informacji i kodowanie  WykBad nr 1 Nk Nk H Sk = - P log2 pi1pi2 ...pik = - P log2pi1 - (i ) (i ) ( ) " ( ) " i=1 i=1 (2.6) Nk Nk - P log2pi2 -...- P log2pik (i ) (i ) " " i=1 i=1 Zauwa|my, |e Nk Nk - (i log2pij = - ) (m )" P (m )"..."P mij "..."P (m )" log2pij = "P "P i1 i2 ( ) ik i=1 i=1 N n N N = - mi1 " mi2 "..." mi j log2pij"..." mik = H S ( ) ( ) ( ) ( ) "P "P "P ( ) "P i=1 i=1 i=1 i=1 1 1 H S 1 ( ) Uwzgldniajc powy|szy rezultat w zale|no[ci (2.6) dostajemy, |e H(Sk) = kH(S), co dowodzi sBuszno[ci twierdzenia 2.1. PrzykBad 2.4. Entropia zrdBa S z przykBadu 2.3 wynosi H(S) = -0.4 log20.4 - 0.6 log20.6 = 0.971 [bit] Entropi 2-go i 3-go rozszerzenia tego zrdBa mo|na Batwo obliczy korzystajc z twierdzenia 2.1: H(S2) = 2H(S) = 2 " 0.971 = 1.942 [bit] i H(S3) = 3H(S) = 3 " 0.971 - 2.913 [bit]. W rzeczywisto[ci pojawienie si pewnej wiadomo[ci ze zrdBa zale|y od poprzednio wytworzonych wiadomo[ci przez to zrdBo. Np., gdy bdziemy rozwa|a litery jzyka polskiego w pewnym tek[cie jako wiadomo[ci wygenerowane przez zrdBo, to mo|na stwierdzi, |e niektre ich sekwencje - np.   s wykluczone, a po literze  p litera  a lub  e ma wiksz szans pojawienia si ni| np.  c . Definicja 2.2 Markowowskim zrdBem wiadomo[ci L - tego rzdu nazywamy zrdBo, z ktrego pojawienie si wiadomo[ci zale|y od L wiadomo[ci wygenerowanych przez to zrdBo w przeszBo[ci. Aby takie zrdBo scharakteryzowa, nale|y ka|dej wiadomo[ci przypisa zbir prawdopodobieDstw warunkowych: mi ! P (mi mj mj ...m ) i,jk "{1,2,...,N}. (2.7) jL 1 2 Zatem, ka|dej wiadomo[ci jest przyporzdkowanych NL prawdopodobieDstw. W przypadku zrdBa L - tego rzdu prawdopodobieDstwo podanie konkretnej wiadomo[ci jest znane, je|eli znamy sekwencj L poprzednich wiadomo[ci. Zatem dla wybranego momentu czasu L poprzednich wiadomo[ci mo|emy traktowa jako stan zrdBa. PrzykBad 2.5. Rozwa|my zrdBo markowowskie 2-go rzdu o dwuelementowym zbiorze wiadomo[ci M = {m1, m2} i okre[lone przez zbir prawdopodobieDstw warunkowych: P {m1 m1m1}= 0.1, P {m2 m1m1}= 0.9 P {m1 m1m2}= 0.3, P {m2 m1m2}= 0.7 P {m1 m2m1}= 0.5, P {m2 m2 m1}= 0.5 P {m1 m2m2}= 0.4, P {m2 m2m2}= 0.6. 12 Teoria informacji i kodowanie  WykBad nr 1 Zauwa|my, |e P m1 mimj + P m2 mimj = 1, gdy| ze stanu mimj zrdBo mo|e jedynie { } { } przej[ do jednego ze stanu mjm1 lub mjm2. yrdBa markowowskie jest wygodnie przedstawia za pomoc grafu przej[ z jednego stanu do drugiego. Dla powy|szego zrdBa graf jest nastpujcy: 0.1 m1m1 0.9 0.5 0.5 m1m2 m2m1 0.3 0.4 0.7 m2m2 0.6 Do analizy zrdeB markowowskich najbardziej jest przydatna teoria BaDcuchw Markowa. Rozwa|my teraz teoretycznie najprostszy przypadek zrdBa markowowskiego - zrdBo 1 -go rzdu. PrawdopodobieDstwo wystpienia pary wiadomo[ci (mi, mj) jest okre[lone wzorem P mimj = P mi " P mj mi . (2.8) ( ) ( ) ( ) Zatem [rednia ilo[ informacji zwizana z par wiadomo[ci dostarczona przez zrdBo (entropia Bczna H(mi mj)) wynosi N N H mimj = - P mimj log2 P mimj . (2.9) ( ) " " ( ) ( ) i=1 j=1 Zrednia ilo[ informacji zwizana z wiadomo[ci podan przez zrdBo pod warunkiem, |e znamy wiadomo[ j poprzedzajc (entropia warunkowa H(mjmi) wynosi N N H (mj | mi)= - (mimj)log2 P (mj | mi). (2.10) ""P j=1 i=1 13 Teoria informacji i kodowanie  WykBad nr 1 3. MODELE KANAAW DYSKRETNYCH Przekazywanie wiadomo[ci ze zrdBa do obiektu ich przeznaczenia umo|liwia kanaB. Ze wzgldu na r|ne zjawiska zachodzce w kanale sygnaB wej[ciowy jest r|ny od sygnaBu wyj[ciowego z kanaBu. KanaB mo|na scharakteryzowa opisujc zbiory sygnaBw wej[ciowych i wyj[ciowych. Je|eli ka|dy z tych zbiorw zawiera skoDczon liczb elementw, to kanaB nazywamy dyskretnym (ziarnistym). Je|eli zbiory te s cigBe i ograniczone (co wynika z fizycznych przesBanek), to kanaB nazywamy cigBym. W przypadku systemw kodowych rozwa|a si kanaBy dyskretne. Najprostszym modelem kanaBu jest kanaB binarny, tzn. kanaB, w ktrym sygnaBy na wej[ciu i wyj[ciu pojawiaj si w postaci cigw sygnaBw elementarnych mogcych przyjmowa jedynie dwie postaci. Umownie bdziemy je oznacza przez s1 i s2. Aatwo zauwa|y, |e kanaB binarny powstaje z kanaBu cigBego przez przyBczenie do jego wej[cia odpowiedniego urzdzenia wytwarzajcego dwa stany (np. modulator FSK lub PSK) i do wyj[cia - urzdzenia wykrywajcego dwa stany. Poniewa| w kanaBach na ogB wystpuj zakBcenia, zatem nadane cigi sygnaBw elementarnych mog si r|ni od odebranych. ZaB|my, |e nadawane s cigi skBadajce si z jednakowej liczby sygnaBw elementarnych n. Liczba r|nych takich cigw niech bdzie M. Pod wpBywem zakBceD dowolny z nadanych cigw mo|e przej[ w jeden z N = 2n cigw odebranych. Ilustruje to rys. 3.1. Cigi odebrane Cigi nadane 1 1 2 2 i j M N ZakBcenia w kanale Rys. 3.1 Ilustracja kanaBu dyskretnego z zakBceniami. Oznaczmy przez xi = xi1,xi2 ,...,xin , i = 1,2,...,M cigi nadane, a przez ( ) yj = yj1,yj2 ,...,yjn , j = 1,2,...,N cigi odebrane, przy czym elementy xik, yjl " {S1, S2}. ( ) Wwczas kanaB dyskretny mo|na scharakteryzowa przez podanie zbioru prawdopodobieDstw warunkowych, ktre mo|na przedstawi w postaci nastpujcych macierzy: 14 Teoria informacji i kodowanie  WykBad nr 1 P(y1 x1) P(y1 x ) L P(y1 xi ) L P(y1 x ) 2 M (y2 ) L P(y2 x ) P x1) P(y2 x2) L P(y2 xi M M M M M (3.1) P j x1) P(y j x 2 (y ) L P(y xi) L P(y xM) j j M M M M P x1) P(yN x (yN ) LP(yN xi )L P(yN x ) 2 M W przypadku, gdy czas trwania zakBceD jest mniejszy od czasu trwania sygnaBu elementarnego, to mo|na przyj, |e pojawienie si okre[lonego sygnaBu elementarnego na danej pozycji w cigu nie zale|y od warto[ci poprzednich sygnaBw elementarnych. KanaB, ktry charakteryzuje si wy|ej opisan wBasno[ci, nazywamy bezpamiciowym. W przypadku kanaBu bezpamiciowego dla dowolnej pary wskaznikw (i, j), i = 1, 2, ..., M., j = 1, 2, ..., N, sBuszna jest zale|no[ P y xi = P yj1 xi1 " P yj2 xi2 " ..." P yjn xin . (3.2) ( ) ( ) ( ) ( ) j W szczeglnym przypadku, gdy prawdopodobieDstwa P(yjlxik) nie zale| od pozycji n w cigu, to kanaB nazywamy stacjonarnym. Zatem w przypadku stacjonarnego, bezpamiciowego kanaBu binarnego wystarczy poda jedynie prawdopodobieDstwa P(S1S2) i P(S2S1), aby w peBni go scharakteryzowa. Je[li P S1 S2 = P S2 S1 = pe = BER, (3.3) ( ) ( ) to kanaB binarny nazywamy symetrycznym (BSK). BER (Bit Error Rate)  bitowa stopa bBdw okre[lona jako stosunek liczby bitw odebranych bBdnie do oglnej liczby nadanych bitw. Czsto kanaBy dyskretne przedstawiamy za pomoc grafw przej[. Dla kanaBu binarnego przedstawiony jest on na rys. 3.2. P(S1S1) = 1 - P(S2S1) S1 S1 P(S1S2) P(S2S1) S2 S2 P(S2S2) = 1 - P(S1S2) Rys. 3.2. KanaB binarny W rozwa|aniach teoretycznych prowadzi si rozwa|ania dla kanaBw q - arnych, tzn. kanaBw, w ktrym sygnaBy elementarne nale| do zbioru {s1, s2, ..., sq} (q > 2). WspBczesne systemy przesyBania i zapamitywania informacji s z reguBy systemami binarnymi, zatem rezultaty otrzymane dla kanaBu binarnego s najistotniejsze. Poza tym wiele kodw binarnych 15 Teoria informacji i kodowanie  WykBad nr 1 mo|e by stosunkowo prosto uoglnionych na kody g - arne w przypadku, gdy q = pm (p - liczba pierwsza). Innym rodzajem kanaBu, dla ktrego otrzymano szereg rezultatw w teorii kodowania, jest tzw. kanaB z wymazywaniem. Graf przej[ dla tego kanaBu przedstawiony jest na rys. 3.3 P(s1s1) s1 s1 P(xs1) x P(xs2) s2 s2 P(s2s2) Rys. 3.3 KanaB binarny z wymazywaniem KanaB ten charakteryzuje si tym, |e dany sygnaB elementarny mo|e zosta przesBany udanie lub  wymazany tj. zaniknie. Innymi sBowy odbiornik mo|e podj decyzje wymijajc, nie decydujc jaki sygnaB zostaB nadany. Powy|sze dwa typy kanaBw nie s adekwatne do wszystkich rzeczywistych kanaBw, w ktrych czsto zakBcenia powoduj wystpowanie bBdw w seriach. Poniewa| bBdy tego typu szczeglnie czsto wystpuj w Bczach telefonicznych, w ktrych obecnie najcz[ciej przesyBane s informacje cyfrowe, std ich du|e znaczenie. Dla tego typu bBdw stosowane s specjalne typy kodw. Wa|n wielko[ci, charakteryzujc kanaB jest jego przepustowo[. Oznaczmy przez X = {x1, x2, ..., xm} zbir sygnaBw wej[ciowych, a przez Y = {y1, y2, ..., yn} zbir sygnaBw wyj[ciowych kanaBu. Wwczas transinformacja n m n m P (xi y )= P (xi , y ) j j I (X ;Y ) = (xi )log2 (xi )log2 ""P , y j ""P , y j P (xi ) P (xi )P (y ) j=1 i=1 j=1 i=1 j (3.4) jest miar [redniej ilo[ci informacji zwizanej z wiadomo[ci przesBan kanaBem. Przepustowo[ci C nazywamy maksymaln warto[ transinformacji, wyznaczon po wszystkich mo|liwych rozkBadach prawdopodobieDstwa opisujcych zrdBo wiadomo[ci: ( ) ( ) ( ) C = max I X ;Y = max H X - H X Y , (3.5) [ ] pi pi { } { } gdzie H(X) jest entropi zrdBa wiadomo[ci, a H(XY) [redni niepewno[ci co do nadanej wiadomo[ci pod warunkiem, |e znamy zbir sygnaBw wyj[ciowych n m (H (X Y)= - (yj)"P (xi y )log2P (xi y )). "P j j j=1 i=1 PrzykBad 3.1. KanaB bezszumowy Graf przej[ dla kanaBu bezszumowego jest przedstawiony na rys. 3.4. 16 Teoria informacji i kodowanie  WykBad nr 1 x1 y1 y2 x2 xN yN Rys. 8.4 KanaB bezszumowy (deterministyczny) Aatwo zauwa|y, |e w przypadku kanaBu bezszumowego H(X) = I(X;Y) = H(Y). Zatem ( ) ( ) C = max I X;Y = maxH X . pi pi { } { } Zgodnie z otrzymanym poprzednio rezultatem (2.4), wiemy, |e entropia osiga maksimum 1 dla wiadomo[ci rwnoprawdopodobnych - p = (i = 1, 2, ..., N) , ktre wynosi log2N. N Zatem w przypadku kanaBu bezszumowego jego przepustowo[ jest rwna [ ] C = log2 N bit / wiadomo[ . (3.6) Przepustowo[ kanaBu jak i szybko[ przesyBania informacji kanaBem mog by wyra|one w bitach na sekund zamiast w bitach na wiadomo[. ZaB|my, |e sygnaBy odpowiadajce elementom xi maj jednakowy czas trwania , wwczas przepustowo[ kanaBu wynosi log2 N [ ] C = bit / s . (3.7)  Powy|szy wzr jest Batwo uoglni na przypadek, w ktrym elementw xi odpowiadaj r|ne czasy trwania sygnaBw. PrzykBad 3.2. KanaB BSK. Niech pe bdzie prawdopodobieDstwem bBdu i P(S1) = p, P(S2) = 1-p, wwczas H(X )= - plog2 p -(1- p)log2(1- p) H(X Y)= - pe log2 pe -(1- pe )log2(1- pe ) (3.8) C = max [H(X )- H(X Y)]= 1+ pe log2 pe +(1- pe )log2(1- pe ) {pe ;1- pe} 1 dla pe =1- pe = . 2 PrzykBad 3.3. KanaB z wymazywaniem (symetryczny) Niech P(S1S1) = P(S2S2) = q oraz P(S1) = p i P(S2) = 1-p wwczas ( ) H X = -[ ] p log2 p + (1 - p)log2(1- p) , H(X Y) = 1- q, (3.9) ( ) ( ) C = max H X - H X Y = q. [ ] p;1- p 17 Teoria informacji i kodowanie  WykBad nr 1 W bardziej oglnych przypadkach, np. kanaBach niesymetrycznych i kanaBach z pamici, wyliczenie przepustowo[ci jest bardzo |mudne. Poniewa| gBwnie bdziemy si zajmowa kanaBem BSK i kanaBem z wymazywaniem obliczenie przepustowo[ci dla innych kanaBw zostanie pominite. Inne modele kanaBw Dla koherentnej BPSK (Binary Phase Shift Keying - binarne kluczowanie z przesuwem fazy, stosowane jako modulacja w systemach radiowych) w kanale binarnym, prawdopodobieDstwo podjcia bBdnej decyzji p , wynosi: 2Es 2Eb p'= pb = Q( ) = Q( ) N0 N0 gdzie: " 1 - ''2 / 2 Q('') = +"e d '' 2  '' Es  [rednia energia na symbol Eb  [rednia energia na bit KanaB z paczk bBdw (ang. burst channel) Dwustanowy kanaB przedstawiony jest na rysunku poni|ej: UkBad mo|e przechodzi ze stanu pierwszego (state 1) do drugiego (state 2) z prawdopodobieDstwem q 1, natomiast ze stanu drugiego do pierwszego pierwszego 18 Teoria informacji i kodowanie  WykBad nr 1 prawdopodobieDstwem q 2. PrawdopodobieDstwo q 2 jest du|o wiksze od q 1 , dlatego stan pierwszy nazywany jest dobrym ( good state ). Je|eli ukBad znajduje si w stanie drugim ( bad state), to bardziej prawdopodobne jest jego przejdzie do stanu 2 (q 2), ni| pozostanie w tym samym (1 - q 2). Je|eli ukBad znajduje si w dobrym stanie, prawdopodobieDstwo podjcia bBdnej decyzji jest bardzo maBe  p 1 ma znikom warto[. Je|eli jednak znajduje si w zBym stanie prawdopodobieDstwo podjcia zBej decyzji jest o wiele wiksze (p 1 << p 2). Typowe warto[ci prawdopodobieDstw wynosz dla p 1 i p 2 odpowiednio: 10-10 i 10-2 . 19

Wyszukiwarka

Podobne podstrony:
TIiK Wykład 11 2008
TIiK Wykład 11P 2009
TIiK Wykład 9 2009P
TIiK Wykład 1P
Sieci komputerowe wyklady dr Furtak
Wykład 05 Opadanie i fluidyzacja
WYKŁAD 1 Wprowadzenie do biotechnologii farmaceutycznej
mo3 wykladyJJ
ZARZĄDZANIE WARTOŚCIĄ PRZEDSIĘBIORSTWA Z DNIA 26 MARZEC 2011 WYKŁAD NR 3
Wyklad 2 PNOP 08 9 zaoczne
Wyklad studport 8
Kryptografia wyklad
Budownictwo Ogolne II zaoczne wyklad 13 ppoz

więcej podobnych podstron