- •1. Мера информации предложенная автором теории информации Клодом Шенноном:
- •1.2 Аддитивная мера количества информации, ее связь с мерой к. Шеннона и сфера применения.
- •2. Роль, виды и критерии квантования (дискретизации) непрерывных сигналов.
- •2.1. Виды дискретизации (квантования)
- •2.2. Критерии точности представления квантованного сигнала
- •3. Формулировка теоремы Найквиста-Котельникова и ее ограничения.
- •4. Теорема о минимальной средней длине кодового слова.
- •5. Назначение и порядок построения оптимальных кодов Шеннона-Фэно и Хаффмена. Коды Хаффмена
- •Коды Шеннона−Фэно:
- •6. Кодирование информации. Равномерные и неравномерные коды. Двоичное кодирование.
- •7. Общие принципы использования избыточности при построении помехоустойчивых кодов
- •Принципы помехоустойчивого кодирования
- •8. Основная теорема Шеннона для дискретных каналов с шумом.
- •9. Пропускная способность непрерывного канала с аддитивным шумом.
- •10. Состав современного пк. Назвачение. Состав компьютерной системы
- •11. Микропроцессоры. Назвачение, типы . Основные характеристики.
- •1. Оперативная память
- •3. Специальная память
- •4. Видеопамять
- •12. Понятие и основные свойства алгоритма. Способы описания алгоритмов. Стандарты для изображения блок-схем алгоритмов.
- •Блок-схемы:
- •13. Отличительные особенности эвм различных поколений. Первое поколение эвм (1948 — 1958 гг.)
- •Второе поколение эвм (1959 — 1967 гг.)
- •Третье поколение эвм (1968 — 1973 гг.)
- •Четвертое поколение эвм (1974 — 1982 гг.)
- •14. Основные характеристики эвм.
- •15. Архитектурные особенности четвёртого поколения эвм.
- •16. Назначение и характеристики системы прерываний. Порядок обработки прерывания.
- •Характеристики системы прерываний:
- •17. Иерархическая структура памяти эвм. Назначение.
- •18. Концепция виртуальной памяти и методы её реализации.
- •19. Многопроцессорные вычислительные системы.
- •20. Типовые структуры многопроцессорных систем.
- •21. Многомашинные вычислительные системы:
- •22. Организация параллельных вычислений в современных компьютерах.
- •23. Risc и cisc архитектуры.
- •24. Принципы построения ос.
- •25. Задачи ос по управлению файлами и устройствами.
- •26. Классификация ос.
- •27. Функция ос.
- •28. Базовые технологии безопасности ос.
- •29. Поколение ос.
- •30. Свопинг и виртуальная память
- •31. Задачи файловой системы в ос.
- •32. Типы структур файловой системы:
- •33. Физическая организация фс. (Файловой системы)
- •34. Классификация компьютерных сетей:
- •35. Эталонная модель взаимодействия открытых систем osi.
- •Распределенные системы обработки данных
- •В модели osi средства взаимодействия делятся на семь уровней:
- •Уровни модели osi Физический уровень.
- •Канальный уровень.
- •Сетевой уровень.
- •36. Характеристика методов доступа к передающей среде в компьютерных сетях.
- •37. Характеристика спутниковых сетей связи.
- •38. Маршрутизация пакетов в сетях.
- •39. Коммутация пакетов в сетях.
- •Процесс передачи данных в сети с коммутацией пакетов
- •Методы пакетной коммутации
- •Дейтаграммный метод
- •Виртуальный метод
- •41. Характеристики и области применения цифровых сетей с isdn
- •42. Характеристика и области применения сетей атм.
- •43. Характеристика и области применения локальных компьютерных сетей.
- •44. Топология локальных сетей. Основные топологии. Преимущества и недостатки.
- •45. Архитектуры файл-сейрвер и клиент-сервер локальных сетей.
- •46. Типовая структура глобальных компьютерных сетей.
- •47. Типы глобальных компьютерных сетей
- •48. Корпоративные компьютерные сети: характеристики и функции.
- •49. Протоколы семейства tcp/ip.
- •50. Понятия: протокол, интерфейс, стек протоколов, спецификации.
- •51. Назначение и классификация интерфейсов.
- •52. Пользовательский интерфейс.
- •54. Программный интерфейс.
- •55. Аппаратный интерфейс.
- •56. Системные и периферийные интерфейсы.
- •57. Сетевые интерфейсы и протоколы.
- •58. Мультиплексный режим передачи данных.
- •59. Способы доступа к удаленным ресурсам.
- •Служба общего доступа (sharing)
Принципы помехоустойчивого кодирования
Сообщения по каналу связи передаются в виде кодограммы. Кодограммой, или кодовой комбинацией, называется упорядоченный набор k элементов, каждый из которых может принимать m значений. Множество всех кодовых комбинаций, поставленных в соответствие сообщениям, называется k-разрядным кодом с основанием m. Таким образом, код - множество кодовых комбинаций, а не одна комбинация.
Пример:
Сообщения |
Двоичный код |
0 |
0000 |
1 |
0001 |
2 |
0010 |
3 |
0011 |
4 |
0100 |
5 |
0101 |
6 |
0110 |
7 |
0111 |
8 |
1000 |
9 |
1001 |
Коды могут быть:
Безызбыточными - комбинации ставятся в соответствие каким-то сообщениям. В безызбыточном коде искажение любого элемента приводит к перерождению кодовой комбинации, т.е. изменению смыслового содержания сообщения.
Избыточными - использованы не все возможные комбинации. В этих кодах искажение элемента не всегда приводит к искажению сообщения. ( Так, при использовании двоичного кода в случае приема комбинации 1100 неизвестно, какая цифра передана, но и ошибки в распознавании не происходит, так как такой комбинации в коде нет. Ошибка в этом случае обнаруживается. Скорее всего переданы комбинации 1000 или 0100, поскольку они "ближе" к принятой.) Пример избыточного кодирования показан в вышеприведенной таблице.
Идея помехоустойчивого кодирования заключается как раз в таком разнесении кодовых комбинаций, за счет введения избыточности, при котором искажения элементов не приводит к перерождению комбинаций. Разнесение кодовых комбинаций можно изобразить графически.
8. Основная теорема Шеннона для дискретных каналов с шумом.
Для дискретного канала в шумом существует такой способ кодирования, при котором может быть обеспечена безошибочная передача все информации, поступающей от источника сообщений, если только пропускная способность канала превышает производительность источника сообщений, т.е. если выполняется условие:
Vк max [ log2m – H(B/B’)] > Vи * H(A), (4.1)
где H(A) – энтропия источника.
Здесь обозначения соответствуют схеме, изображенной на рис. 4.6.
4
В – символы на входе, а В’ – на выходе канала;
Vи и Vк – скорость поступления символов от источника на вход кодирующего устройства и с выхода кодирующего устройства на вход линии связи.
.6. Схема системы передачи информации через дискретный канал связи с помехами и сопутствующие обозначения.Доказательство
Согласно полученной ранее формуле, число типичных последовательностей длительностью Т равно:
Nтип(А) = 2Vи*T*H(A) (4.2)
Максимально возможное число различных последовательностей на выходе кодера, которое сможет иметь ту же длительность, Т равна:
N(B) = mVк*T,
где m – объем вторичного алфавита.
Эту формулу можно записать также в виде:
(4.3)
Предположим, что условие теоремы Vк [ log2m – H(B/B’)] > Vи * H(A) выполняется. Тогда, поскольку H(B/B’)>0, неравенство условия теоремы только усилится, если его записать в виде: Vк log2m > Vи * H(A).
Домножим левую и правую части неравенства на Т и сделаем их показателями двойки:
.
Таким образом, возможное число последовательностей длительностью Т на выходе кодера больше числа типичных последовательностей той же длительности, которое может выдать источник.
Если установить однозначное соответствие между последовательностями на выходе кодера с последовательностями на входе, остаются последовательности, которые не могут использоваться для кодирования, т.е. запрещенные кодовые слова. Если все же такая последовательность получается с выхода канала связи – это верный признак ошибки.
Каждому способу кодирования будет соответствовать определенный вариант установки соответствия между каждой из множества типичных последовательностей, генерируемых источником и кодовым словом, взятым из множества разрешенных кодовых слов N(B).
Требуется теперь доказать, что среди всех возможных способов установки этого соответствия существует такой, который обеспечивает однозначную идентификацию любого принятого кодового слова, даже если оно получилось в результате искажения помехой передаваемого слова.
Для доказательства найдем вероятность правильного приема, усредненную по всем возможным способам кодирования, т.е. установки соответствия между принятым и возможно искаженным кодовым словом и закодированной информационной последовательностью.
По условной энтропии H(B/B’) можно найти количество возможных типичных последовательностей на входе канала, которые после искажения в нем могли бы дать определенную последовательность на выходе канала:
Nтип(B/B’) = 2T Vк H(B/B’) . (4.4)
Вывод аналогичен сделанному ранее при исследовании свойств типичных последовательностей. Только в данном случае энтропия символа на выходе канала – функция того, какой символ получен на входе канала – H(B/B’).
Правильный прием возможен только тогда, когда на [Nтип(B/B’)-1] не разрешенных кодовых слов приходится одно разрешенное, т.е. число возможных кодовых слов вообще должно быть в Nтип(B/B’) раз больше числа типичных Nтип(A) последовательностей, которые может выдать источник.
Предположим теперь, что соответствия между типичными последовательностями, выдаваемыми источником, и кодовыми словами устанавливаются равновероятно. Тогда вероятность pразр того, что определенное кодовое слово среди Nтип(А) является разрешенным, равна: pразр=Nтип(А)/N(B) (кодируются только типичные последовательности).
Соответственно, вероятность того, что кодовое слово является запрещенным равна 1- pразр= 1 - Nтип(А)/N(B).
Правильное декодирование возможно только тогда, если среди Nтип(B/B’) кодовых слов только одно выбрано в качестве разрешенного.
Вероятность этого равна:
.
Так
как основание степени
,
то, увеличивая показатель степени с
Nтип(B/B’)-1
до Nтип(B/B’),
получим неравенство:
. (4.5)
