Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
MOZI.doc
Скачиваний:
3
Добавлен:
01.07.2025
Размер:
2.55 Mб
Скачать

Вопросы для повторения

  1. Понятия граф, орграф, мультиграф, полный и связный граф, степень вершин. Способы задания графов. Примеры.

  2. Способы задания графов. Изоморфизм графов и операция дополнения графа. Примеры.

  3. Понятия неориентированный граф, маршрут, цепь, цикл в графе, длина маршрута в неориентированном графе. Примеры.

  4. Понятия граф, подграф, остовный подграф, подграф, порожденный заданным множеством вершин, дерево, остовное дерево. Примеры. Алгоритм Краскала.

  5. Понятие Эйлеров граф. Необходимое и достаточное условие существования Эйлерова цикла и Эйлеровой цепи в графе. Алгоритм построения эйлерова цикла в графе.Пример.

  6. Понятия матрица смежности, матрица инцидентности и матрица достижимости. Примеры их построения для заданного графа и построения графа по заданной матрице.

  7. Понятия полный и регулярный графы, двудольный граф. Критерий двудольности графа. Пример.

  8. Задача коммивояжера и её приложение к теории графов. Алгоритмы её решения.

  9. Числовые характеристики графа: внутренне и внешне устойчивые множества, цикломатическое число. Матрица расстояний графа, диаметр, радиус и центры графа.

  10. Деревья. Матричная теорема о деревьях. Обходы дерева.

  11. Алгоритм Краскала построения минимального остовного дерева.

Глава 5.Основы математической теории информации

5.1.Меры информации

Под информацией будем понимать устраненную неопределенность в знаниях о сигнале. В качестве оценок степени неопределенности знаний существуют следующие меры: синтактическая, связанная с неопределенностью, с которой можно судить о сигнале до его приема; структурная или логарифмическая, которая характеризует информацию по объему (мера Хартли); и вероятностная или статистическая, которая характеризует информацию по объему и новизне (мера Шеннона).

5.1.1.Мера Хартли

Обозначим через I количество информации, N – число состояний физической системы (n общее количество сообщений длины N), тогда I =I(N) – функция количества информации.

I (N) =n log N

На количество информации, получаемой из сообщения, влияет фактор неожиданности его для получателя, который зависит от вероятности получения того или иного сообщения. Чем меньше эта вероятность, тем сообщение более неожиданно и, следовательно, более информативно. Сообщение, вероятность которого высока и, соответственно, низка степень неожиданности, несет немного информации. Р. Хартли понимал, что сообщения имеют различную вероятность и, следовательно, неожиданность их появления для получателя неодинакова. Но, определяя количество информации, он пытался полностью исключить фактор «неожиданности». Поэтому формула Хартли позволяет определить количество информации в сообщении только для случая, когда появление символов равновероятно и они статистически независимы. На практике эти условия выполняются редко. При определении количества информации необходимо учитывать не только количество разнообразных сообщений, которые можно получить от источника, но и вероятность их получения.

Формула, предложенная Хартли, удовлетворяет предъявленным требованиям. Поэтому ее можно использовать для измерения количества информации.

Обосновывая вид функции, которую Хартли выбрал для описания количества информации в физической системе, он отмечал три основных момента.

1. Если физическая система имеет одно единственное состояние, то информация, содержащаяся в ней равна нулю: I = I(1) = 0

2. При наличии независимых источников информации с N1 и N2 числом возможных состояний I(N1 * N2) = log (N1*N2) = log N1 + log N2 = I( N1) + I(N2), т.е. количество информации, приходящееся на одно сообщение, равно сумме количеств информации, которые были бы получены от двух независимых источников, взятых порознь.

3. Большее количество информации содержит физическая система, имеющая большее число состояний, т.е. если N1 > N2, тогда I(N1 )> I( N2).

Итак, Хартли предложил определять количество информации в физической системе, основываясь на числе ее возможных состояний. При этом он считал все состояния системы равновероятными, и в этом был главный недостаток формулы Хартли.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]