Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Lektsia_OZO_Osnovy_matematicheskoy_obrabotki_in...doc
Скачиваний:
0
Добавлен:
01.03.2025
Размер:
167.42 Кб
Скачать

1.2. Информация, количество и качество

Информация  один из популярных терминов в нашем лекси­коне. В него вкладывается довольно широкий смысл, а его вос­приятие чаще всего интуитивно. Большой энциклопедический словарь (М, 1998) дает следующее определение информации: «Информация (от лат. informatio  разъяснения, изложение), пер­воначально  сведения, передаваемые людьми устным, письмен­ным или другим способом (с помощью условных сигналов, тех­нических средств и т.д.), с середины 20 в. общенаучное понятие, включающее обмен сведениями между людьми, человеком и ав­томатом, автоматом и автоматом; обмен сигналами в животном и растительном мире...; − одно из основных понятий кибернети­ки.» Как видим, это определение отражает смысловой сдвиг в понимании термина информация, произошедший за последнюю половину века. Желая подчеркнуть особую, нематериальную сущность информации, Норберт Винер сказал: «Информация есть информация, не материя и не энергия». Информацию можно хранить, преобразовывать (обрабатывать) и передавать, у нее должен быть источник, материальный носитель, передатчик, ка­нал связи и приемник.

В общении мы часто употребляем термин «данные» как си­ноним информации, однако между ними есть существенное раз­личие. Данные − это величины, их отношения, словосочетания (тексты), преобразование и обработка которых позволяют из­влечь ту или иную информацию (знание) о некотором предмете, явлении, процессе. Данные в этом аспекте служат «сырьем» для получения информации.

Исследованием методов хранения, передачи и приема инфор­мации, а также оценки ее количества и качества занимается теория информации. Математические основы теории информации состав­ляют теория кодирования, теория случайных процессов, математи­ческая статистика, теория вероятностей. Основоположниками тео­рии информации являются Н. Винер, К. Шеннон, Р. Хартли, значи­тельный вклад в теорию информации внесли отечественные ученые А.Н. Колмогоров, А.А. Харкевич, В.А. Котельников и др.

Важнейшим понятием теории информации является количест­венная оценка информации. Эта оценка дает возможность измерить информационные потоки в информационных системах независимо от их природы и физической реализации. Один из подходов к оцен­ке количества информации основан на следующих соображениях.

Предположим, что получателя информации интересует, в ка­ком из N возможных состояний находится интересующий его объ­ект. Если у получателя нет никаких сведений о состоянии объекта, то количество требуемой для этого информации можно считать равным уменьшению неопределенности состояния объекта.

Эта мера в теории информации называется энтропией по ана­логии с физикой, где энтропия характеризует степень неупорядо­ченности (хаотичности) физической системы. Неупорядочен­ность может быть интерпретирована в смысле того, насколько мало получателю информации известно о данной системе. Если наблюдатель выявил что-нибудь в физической системе, ее энтро­пия для наблюдателя снизилась. В нашем случае максимум эн­тропии соответствует отсутствию информации о состоянии объ­екта. Минимум энтропии (ноль) соответствует полной информа­ции о состоянии объекта.

Таким образом, энтропия и объем информации имеют проти­воположные знаки. Если объект может находиться в двух равно­вероятных состояниях (N = 2), то говорят, что для снятия неопре­деленности о его состояниях требуется единица информации. Та­кая единица получила название бит (binary digit-bit), т.е. бит ин­формации сужает область выбора вдвое. Аналогично для N = 4 достаточно двух бит и т.д.

По формуле Шеннона, энтропия объекта, имеющего N воз­можных состояний, равна

где Pi,  вероятность нахождения объекта в i-м состоянии.

Если все N состояний объекта равновероятны, энтропия равна

При кодировании информации в той или иной позиционной системе счисления, число различных состояний, кодируемых п разрядами, равно

N=qn , где q - основание системы счисления;

п - число разрядов.

При передаче n-разрядного сообщения, записанного в систе­ме с основанием q, получателем будет воспринято количество информации, равное

I = log N = nlog q - формула Хартли.

Если в качестве основания логарифма принять q, то I = п, т.е. количество информации, воспринятой получателем (при его пол­ном априорном незнании содержания сообщения), будет равно числу разрядов в сообщении (объему данных) I = п= VД , где VД -объем данных.

Если появление различных кодовых комбинаций в сообще­нии не равновероятно, то естественно, что I < VД.

Обратим внимание на другую сторону измерения количества информации. Она связана с той или иной потребностью получателя информации, о которой отправитель сообщения может и не знать.

Всем известно, что некий оратор может говорить очень дол­го, например передать содержание нескольких десятков страниц текста (десятки тысяч знаков), а неопределенность, снимаемая его сообщением, может составлять всего несколько бит.

Измерения только количества информации в наше время (ла­винообразного нарастания ее потоков) уже недостаточно. По­требности управления, науки и техники требуют решения про­блемы содержательности информации и ее ценности.

В одной из работ предлагается принять за меру ценности ин­формации ее количество, необходимое для достижения постав­ленной цели.

Если до получения информации вероятность достижения це­ли ее получателем равнялась Р0, а после ее получения − Рi то ценность информации можно определить как С = log (Р0i).

В других работах, кроме вероятностных характеристик неопре­деленности состояния объекта до и после получения информации, вводятся функции штрафов и потерь. Оценка информации произво­дится по результатам их минимизации. Рассматривается и случай, когда ценность информации становится отрицательной (за счет де­зинформации или неполноты, информации). Ценность информации связывается с конкретной задачей, для которой она получается.

Попытки построить семантическую (смысловую) теорию цен­ности информации исходят еще от Н. Винера. Его идея состоит в том, что эффективность использования информации зависит от уровня знаний ее получателя. Если назвать совокупность знаний получателя о некотором предмете тезаурусом, то количество и цен­ность информации в некотором сообщении можно оценить степе­нью изменения тезауруса получателя под воздействием сообщения.

Зависимость количества информации Iс, включаемого поль­зователем в свой тезаурус после получения некоторого сообщения, от величины этого тезауруса Тn в момент получения сообщения можно представить графиком на рисунке .

Максимальное количество информации получатель приобре­тает (включает в свой тезаурус), обладая достаточно большим (развитым), но еще не полным тезаурусом. При ТП = 0 получа­тель не способен воспринимать информацию. При ТП =ТП поли., т.е. при полном знании о некотором объекте, получатель не нуж­дается в поступающей информации.

Качество информации определяется и другими показателями, обеспечивающими возможность ее эффективного использования, вне зависимости от тезауруса получателя.

Среди таких показателей важнейшие:

− релевантность информации (от английского relevant − уме­стный, относящийся к делу) отражает соответствие сообщения поступившему запросу;

− репрезентативность информации (от французского representatif − представительный) означает правильность выбора частных пока­зателей в целях отражения характеристик объекта в целом;

− полнота информации характеризует сообщение с точки зре­ния достаточности набора показателей для принятия решения;

− актуальность информации определяется степенью сохране­ния ее ценности на момент принятия решения;

− точность информации определяется ее адекватностью ре­альному состоянию некоторого объекта.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]