- •Информация
- •Введение
- •Основные концепции моделирования
- •Теория случайных графов
- •Модель Эрдёша-Реньи
- •Подграфы
- •Распределение степеней
- •Связность и диаметр
- •Кластерный коэффициент
- •Концепции
- •Алгоритм
- •Фрактальная размерность
- •Размерность Минковского
- •Информация[4]
- •Информация[4]
- •Понятие энтропии
- •Свойства энтропии сообщений
- •Избыточность сообщений
- •Теоремы Шеннона
- •Свойства количества информации
Информация[4]
Информация -- фундаментальное, первичное понятие информатики.
В быту под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами В технике информация -- сообщения, передаваемые в виде последовательности знаков или сигналов В теории информации под информацией понимают только сведения, уменьшающие существовавшую до их появления неопределенность (Информация -- это снятая неопределенность. (К. Шеннон)) В кибернетике (теории управления) информация -- та часть знаний, которая используется для ориентирования, активного действия, управления, т. е. в целях сохранения, совершенствования, развития системы В семантической теории -- сведения, обладающие новизной В документалистике -- все, что в так или иначе зафиксировано в знаковой форме в виде документов. По отношению к окружающей среде информация бывает
По отношению к конкретной задаче, проблеме
По изменчивости
Прочие классификации информации: по полноте, по принадлежности (территории, физическому или юридическому лицу и т.д.), по доступу, по предметной области, по характеру использования (коммерческая, справочная, учебная и т.п.) и др
Основные свойства информации [1],[4]
Методы получения и использования информации
2 Носители информации [1] Информация всегда связана с материальным носителем
Аналоговый сигнал -- сигнал, непрерывно (плавно) изменяющийся во времени Дискретный сигнал может принимать конечное число значений, скачком переходя от одного такого значения к другому Для работы с аналоговыми сигналами цифровыми методами выполняют ихдискретизацию 3 Измерение информации 3.1 Объемный способ измерения информации [2] Технический способ измерения количества информации (или, точнее, информационного объема сообщения) основан на подсчета количества символов, из которых образовано сообщение. При этом не учитывается смысловое содержание сообщения. Например, многократное повторение одного и того же текста не несет новой информации, однако в результате занимает больший объем памяти, требует большего времени для передачи и т.п. Поэтому этот способ удобен в технических расчетах За 1 бит в этом случае принимается один двоичный символ в сообщении 3.2 Алгоритмическое измерение информации [2] А. Н. Колмогоров (1965 г.): Алгоритмическая сложность некоторой последовательности данных определяется как минимальная длина вычислительного алгоритма, который мог бы воспроизвести заданную последовательность 3.3 Вероятностный подход к измерению количества информации [4] 3.3.1 Мера Р. Хартли Американским инженером Р. Хартли в 1928 г. получена формула для определения количества информации, получаемой при реализации одного из N равновероятных состояний
где a -- основание системы, N -- количество равновозможных состояний, P -- вероятность реализации состояния. При a = e единица измерения называется <<нат>>, при a = 2 -- <<бит>>, при a = 10 -- <<дит>> Пример 1 ДНК человека можно представить как некоторое слово четырехбуквенного алфавита, где буквы соответствуют нуклеотидам1. Определим, какое количество информации содержит ДНК, если она состоит примерно из 1.5×1023 нуклеотидов. Так как алфавит -- четырехбуквенный, каждый символ слова несет log24 = 2 бита информации. Следовательно ДНК в целом позволяет хранить 3×1023 бит или около 3×1010 Терабайт информации. 3.3.2 Задачи с <<двоичными>> ответами [3] Задача 1 Имеется колода из 32 игральных карт (без шестерок). Задумана одна из карт. Какое наименьшее число вопросов нужно задать, чтобы угадать задуманную карту, если на вопросы даются ответы <<Да>> и <<Нет>>? Задача 2 Задумано целое число от нуля до ста. Какое наименьшее число вопросов нужно задать, чтобы угадать это число? Задача 3 Задумано некоторое число. Известно, что отгадать его можно, задав 7 вопросов. Оцените это число. Задача 4 Имеется 26 монет, одна из которых -- фальшивая (более легкая). Каким образом за 3 взвешивания определить фальшивую монету? Задача 5 Имеется 41 монета, из них одна -- фальшивая. Как при помощи двух взвешиваний определить, тяжелее фальшивая монета настоящей или легче? 3.3.3 Мера К. Шеннона Американский математик и инженер К. Шеннон в 1948 г. получил формулу для расчета количества информации, содержащейся в системе, обладающей произвольным набором неравновероятных (в общем случае) состояний
где n -- число возможных состояний системы, pi -- вероятность i-го состояния (причем pi = 1) Чем меньше вероятность наступления события, тем большую информацию это событие несет |
