- •2.1. Бір оқиғаның ақпараты
- •2.1 Сурет. Қарапайым х алфавитінің ақпарат дереккөзі.
- •2.2 Сурет. I(p) символының ақпараты р пайда болу ықтималдығымен.
- •3.1. Дереккөздерді кодтау теоремасы I
- •3.1 Сурет. Кодты дарақ.
- •3.1.1 Теорема. Дереккөздерді кодтау теоремасы I.
- •4.1. Өзара және шартты ақпарат
- •4.1 Сурет. Екі байланысты дереккөздің моделі.
- •4.2. Бірлескен және шартты энтропия
- •4.2 Сурет. Екі байланысқан дискретті дереккөз.
- •4.3. Қорытындылар
- •4.3 Кесте. Символды жадсыз х және y дискретті дереккөздері.
- •5.1. Энтропия
- •5.1 Сурет. Үздіксіз сигнал.
- •5.2. Дереккөздерді кодтау теоремасы 2
- •5.3. Марковтың шекті тізбектері
- •5.3.2. Шекті дискретті марковтық r жадты дереккөздер
- •5.6 Сурет. Марковтың тізбегі кейіпіндегі дереккөз (бірінші қадам).
- •5.4. Стационарлы марковтық дереккөздің энтропиясы
- •5.5. Стационарлы марковтық дереккөздерді кодтау
- •5.6. Қорытындылар
- •5.3 Кесте. Марковтық тізбектер.
- •5.4 Кесте. Марковтық тізбектер. (жалғасы)
- •5.5 Кесте. Стационарлы Марковтық дереккөздер.
- •6.1 Сурет. Неміс әдеби тілінің блок ұзындығының функциясы
- •6.2. Арифметикалық кодтау
- •6.1 Кесте. Әріптер және олардың шамаланған жиіліктері.
- •6.2 Сурет. Арифметикалық кодтау.
- •6.2 Кесте. Арифметикалық кодтаудың алгоритмі.
- •6.3. Лемпель - Зив кодтауы.
- •Каналдар және ақпарат
- •7.2. Екілік симметриялы канал
- •7.2 Сурет. Екілік симметрилы канал арқылы мағлұмат тасымалдау диаграммасы.
- •7.3 Сурет. Шартты I(y1 / x1) және өзара I(y1 ; x1) мағлұматтары
- •7.3. Ақпарат тасымалдау
- •7.4 Сурет. Каналмен байланысқан екі жадсыз дискретті дереккөз.
- •7.5 Сурет. Ақпараттық тасқын диаграммасы
- •7.4. Қорытынды
- •7.5. Каналдың өткізгіштік қабілеті
- •7.5.2. Ақаулы екілік симметриялы каналдың
- •7.12 Сурет. Ақаулы екілік симметриялы канал.
- •7.13 Сурет. Ɛ қате ықтималдықты екілік симметриялы каналдың сеск
- •7.6. Жадсыз дискретті каналдар үшін кодтау
- •8.1 Сурет. Үздіксіз дереккөздің сигналы.
- •8.1. Дифференциалды энтропия
- •8.2 Сурет. Канал арқылы байланысқан екі жадсыз
- •8.3 Сурет. Δ кванттау интервалды үздіксіз дереккөзді бақылау сәтінде цифрлеу
- •8.2. Каналдың өткізгіштік қабілеті және Шеннон шегі
- •8.4 Сурет. Тілкемде шектелген аагш-лы каналдың үлгісі.
- •8.5 Сурет. Сигнал/шу қатынас функциясы ретіндегі өткізгіштік
- •8.7 Сурет. Шектелген тілкемдегі ақ гаусстық шудың спектрі.
- •8.8 Сурет. Ақпарат тасымалдау уақытындағы өткізшіш тілкем
7.3 Сурет. Шартты I(y1 / x1) және өзара I(y1 ; x1) мағлұматтары
Шартты I(y1 / x1) мағлұматын канал тарапынан енгізіліп жатқан белгісіздік деп, ал өзара I(y1 ; x1) мағлұматын канал арқылы тасымалданып жатқан ақпарат ретінде қарастыруға болады. Бір ғана ɛ=0 екілік рәмізін тасымалдағанда ақпарат ысырапсыз жетіп барады, сол себепті I(y1 / x1)=0, ал I(y1 ; x1)=1 бит. ɛ-нің қате ықтималдығы жоғарылауы себепті, канал тарапынан енгізіліп жатқан белгісіздік өседі, ал тасымалданып жатқан ақпарат, керісінше, азаяды. ɛ=0,5 болған жағдайда, ақпарат тасымалдау жүрмейді, сондықтан I(y1 / x1)=1 ал I(y1 ; x1)=0. Шартты I(y1 / x1) және өзара I(y1 ; x1) ақпараттар қосындысы ɛ-ге тәуелді емес және әрдайым бір битке тең.
7.3. Ақпарат тасымалдау
Өткен бөлімде бөлек жұп оқиғаларды қарастырғаннан соң, ақпарат тасымалдау үлгісіне қайта оралайық. 7.4 суретте негізгі жағдаят көрсетілген.
Каналды өтпелі ықтималдықтар жәрдемімен суреттеу ақыр аяғында бірлескен жұп оқиғалар ықтималдықтарына әкеледі. Осы тұрғыдан алғанда, екі дереккөз де ақпарат тасымалдау үлгісінде бірдей мәнге ие, сол себепті ақпарат тасымалдау бағытын ескере отырып дереккөздерді хабарлағышқа және қабылдағышқа бөлу қазір және мұнан былай мағынасыз.
7.4 Сурет. Каналмен байланысқан екі жадсыз дискретті дереккөз.
4 бөлімде (4.3 кестені қараңыз) екі дереккөздің бірлескен энтропиясы барлық мүмкін жұп оқиғалар ақпаратының математикалық күтімі ретінде анықталған
Шартты энтропия да дәл осылай анықталады
Мұнан шығады
H(X, Y) = H(Y) + H(X/Y) = H(X) + H(Y/X) (7.7)
және
әрі, теңдік белгісі тек қана тәуелсіз дереккөздер үшін қойылады.
Каналмен байланысты екі дереккөз жағдайында, бірлескен белгісіздік төмендейді, себебі бір дереккөздің оқиғасы басқа дереккөз оқиғасын шамалауға ерік береді. Ақпарат теориясының тұрғысынан алғанда, белгісіздіктің төмндеуі дереккөздер арасындағы мағлұмат алмасуды тұспалдайды. Ұқсас ой жүгірте отырып канал арқылы тасымалданып жатқан ақпараттың орташа мәні барлық жұп оқиғалардың өзара мағлұматтарының математикалық күтімі ретінде анықталады деген шешімге келеміз.
Х және Ү екі жадсыз дискретті дереккөздері алмасып жатқан мәліметтің орташа мәні тең болады
Ескерту. Теңдіктің сол жағындағы “минус” таңбасына және оң жақ алдындағы “плюс” таңбасына назар аударыңыз.
Тасымалданған ақпарат анықтамасынан шығатыны
және сол себепті,
Бұл жерде қайтадан энтропияның аксиоматикалық мазмұны турасындағы анықтамасы хақында сауал туындайды. “Сын тас” ретінде әуелі келесі тұжырымның әділ екенін дәлелдейміз.
7.3.1 Теоремасы. I(X; Y) тасымалданып жатқан ақпараты әрдайым теріс емес мәнде, әрі ол тек қана тәуелсіз Х және Ү дереккөздері үшін ғана нөлге тең
I(X; Y) ≥ 0. (7.12)
Дәлел.
Дәлелдеу үшін I(X; Y) анықтамасын негізге аламыз және үш тәсіл қолданамыз. Біріншіден, натурал логарифм функциясын бағалаймыз (2.19). Екіншіден, қауымдастықты шектемей тек ықтималдығы нөлден өзгеше рәміздер жұбын ғана қарастырамыз. Үшіншіден, (2.19)-дағы логарифмдік функцияның аргументінде есептеуіш және аяндауыштың орындарын алмастыру логарифмдік функцияны минус 1-ге көбейткенге эквивалентті, сол себепті бізге теңсіздіктің әділ екенін дәлелдеудің өзі жетеді
Бізге
қойылған шектеудің салдарынан, қосындылар
p(x, y) ≠ 0 үшін (x, y) жұптарынан ғана алынады,
логарифмдік функциясының аргументі
әрдайым нөлден өзгеше оң мәнге ие,
сондықтан (2.19) бағасын қолданамыз
(7.12) орындалмаған жағдайда, ақпарат тасымалдау энтропияны төмендетпеген болар еді (яғни дереккөз айқындығы жоғарыламас еді).
Тасымалданған ақпарат әрдайым теріс емес және (7.1) және (7.2) теңдіктері үнемі әділ екендігі, келесі тұжырымның әділ екендігін тағы да дәлелдейді:
Кез-келген шектеу дереккөз белгісіздігін жоғарылата алмайды
H(X) ≥ H(X/Y). (7.15)
Бірлескен энтропия өзінің максимумына дереккөздер тәуелсіз болған жағдайда ғана жетеді
H(X, Y) ≤ H(X) + H(Y). (7.16)
Табылған тәуелділіктерді ақпараттар тасқыны диаграммасы жәрдемімен көрнекі айқындауға болады(7.5 сурет). Диаграмма шартты H(X/Y) және H(Y/X) энтропияларының мағнасын анықтауға септігін тигізеді.
