Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
лекции физики.doc
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
540.16 Кб
Скачать

20. Информация. Количество информации. Единицы количества информации.

Ожидаемым событиям присуща неопределенность, которая затем устраняется по мере поступления информации. Согласно Шеннону, информация – это мера того количества неопределенности, которая устраняется после получения сообщения. Информация – это совокупность сведений, сообщений о явлениях, процессах, предметах, привносящих новые знания об этих явлениях. Мерой неопределенности событий является энтропия.

Количество информации, содержащейся в сообщении, численно равно энтропии, исчезающей после получения сообщения.

Информационная энтропия имеет одинаковую размерность с информацией. Единицами количества информации являются: БИТ, ДИТ, НИТ (в зависимости от основания логарифма). БИТ – если основание логарифма 2, ДИТ - 10, а НИТ – когда это основание натурального логарифма. Бит – это количество информации, заключенное в сообщении о том, что произошло одно из двух равновероятных событий. 1000 байт называется килобайтом.

21. Информационная энтропия. Формула Хартли и Шеннона.

Энтропия является мерой неопределенности событий. Если система может находиться только в одном состоянии, то энтропия имеет минимальное значение равное нулю. Энтропия системы принимает максимальное значение в случае, если все состояния системы равновероятны. Информация, содержащаяся в сообщении, численно равна энтропии, исчезающей после получения сообщения.

Количество информации, соответствующее наступлению какого-либо одного из N равновероятных событий, рассчитывается по формуле Хартли: Н = log N = - logР. ( Так как Р = 1/ N = N -1)

Если события неравновозможные, то информационная энтропия рассчитывается по формуле К.Шеннона:

Н = - PilogPi , где Pi – вероятность i -того события.

22. Общая схема съема, передачи и регистрации информации.

Общая схема системы передачи информации состоит из: источника сообщения, кодирующего устройства, канала связи, декодирующего устройства и приемника сообщения. Каналом связи называется среда, по которой передаются сигналы. Канал связи характеризуется пропускной способностью. Пропускной способностью С канала связи называется максимальное количество информации, которое можно передать по каналу связи в единицу времени. Она находится по формуле: С = H / t [бит/с ]. Где Н – количество информации, а t – время, за которое оно было передано.

канал

Источник информации

Декодирующее устройство

приемник

Кодирующее устройство

связи

23. Понятие о сенсорных системах. Абсолютные и дифференциальные пороги.

СЕНСОРНЫМИ (чувствительными) называются системы, с помощью которых осуществляется процесс кодирования, передачи и обработки информации о внешних раздражениях.

Абсолютный порог - это минимальное значение силы стимула вызывающее ощущения.

Болевой или максимальный порог - максимальное значение силы стимула, вызывающее ощущение (выше этого уровня появляется чувство боли).

Дифференциальный порог - минимальное отличие между силой, действующих стимулов, при котором они воспринимаются как различные.

Дифференциальный временной порог – наименьшее время между действием двух раздражителей, при котором последние воспринимаются как раздельные.

Дифференциальный пространственный порог - наименьшее расстояние между раздражителями, при котором они воспринимаются как раздельные.