- •Раздел I
- •В.Г. Беспалов, в.Н. Крылов, в.Н. Михайлов основы оптоинформатики
- •Раздел I
- •Введение
- •Глава 1, глава 2 и Приложения написаны в.Г. Беспаловым, глава 3 написана в.Н. Крыловым и глава 4 написана в.Н. Михайловым.
- •§2. Предельные возможности элементной базы электронной компьютерной техники
- •§3. Оптические технологии в информатике
- •§4. Аналоговые оптические вычисления и процессоры
- •§5. Оптический процессор Enlight256
- •§6. Голографические методы обработки информации
- •§7. Цифровые оптические процессоры
- •Глава 2. Теория информации для оптических систем §1. Основы теории информации
- •§ 1.1. Количество информации в системе равновероятных событий. Подход Хартли.
- •§1.2. Количество информации в системе событий с различными вероятностями. Подход Шеннона
- •§1.3. Обобщенная схема информационной системы
- •§1.4. Основные характеристики информационной системы
- •§1.5. Дискретизация и теорема отчетов (Котельникова)
- •§1.6. Пропускная способность канала при наличии белого теплового шума
- •§1. 7. Избыточность информации
- •§2. Теория информации в оптике
- •§2.1. Число пространственных степеней свободы когерентных оптических сигналов
- •§2.2. Теоремы д. Габора
- •§2.3. Число степеней свободы частично когерентных оптических сигналов
- •§ 2.4. Информационная емкость голограмм
- •Глава 3. Источники излучения для оптоинформатики
- •§1. Физические основы работы лазеров
- •§1.1. Оптическое усиление
- •§1.2. Взаимодействие излучения с веществом.
- •1.2.1. Излучение абсолютно чёрного тела.
- •1.2.2. Статистика Больцмана
- •1.2.3. Коэффициенты Эйнштейна.
- •§1.3. Поглощение и усиление
- •1.3.1. Инверсная населённость.
- •§1.4. Принципы лазерной генерации
- •1.4.1. Методы создания инверсной населённости.
- •Трёхуровневая система.
- •Четырёхуровневая система.
- •Методы накачки активных лазерных веществ.
- •§1.5. Основные типы лазеров: классификация лазеров по агрегатному состоянию активного вещества
- •§1.6. Твердотельные лазеры
- •§1.5. Газовые лазеры
- •§1.5. Жидкостные лазеры
- •§2. Полупроводниковые лазеры §2.1. Физические основы работы полупроводникового лазера
- •§2.2. Полупроводники
- •§2.3. Прямозонные и непрямозонные полупроводники
- •§2.4. Полупроводниковые светодиоды
- •§2.5. Основные параметры полупроводниковых лазеров
- •§2.6. Полупроводниковые лазеры на основе гетероструктур
- •§2.7. Квантоворазмерные структуры
- •§2.8. Безопасность лазеров
- •§3. Источники излучения фемтосекундной и аттосекундной длительности §3.1. Предельно короткие импульсы света и сверхсильные поля
- •3.2. Методы генерации сверхкоротких, в том числе фемтосекундных импульсов
- •3.2.1. Электрооптический затвор на основе эффекта Поккельса.
- •3.2.2. Работа лазера в режиме синхронизации мод.
- •§3.2. Генерация аттосекундных импульсов электромагнитного излучения
- •Глава 4. Локальная и распределенная запись информации §4.1. Локальная (побитовая) запись
- •§4.2. Голографическая (распределенная) запись
- •§4.3. Оптические дисковые системы записи и хранения информации
- •§4.4. Голографические системы записи информации
- •§4.5. Быстродействие оптических устройств записи и хранения информации
- •Список литературы
- •Приложения Параметры и свойства оптических материалов
- •Механизмы поглощения оптического излучения в полупроводниках
- •Эффект Франца-Келдыша (электроабсорбционный эффект) в полупроводниках
- •Квантово-размерный эффект Штарка
- •Кафедра фотоники и оптоинформатики
§1.2. Количество информации в системе событий с различными вероятностями. Подход Шеннона
Рассмотренный §1.1. подход с равновероятностными результатами соответствует идеализированному случаю, когда до опыта (априори) нет никакой информации об изучаемом объекте. На практике, как правило, экспериментатор располагает некоторыми априорными сведениями о свойствах исследуемого объекта, что позволяет делать предсказания. Следовательно, в этом случае различные исходы опыта уже не равновероятны, и их неопределенность уменьшается по сравнению с опытом, имеющим равновероятные исходы.
Рассмотрим следующий эксперимент. Человек открывает страницу некоторой книги и не глядя, наугад выбирает одну букву. Какой результат он получит? Если у него не имеется никаких сведений о статистических свойствах литературного русского языка, то предсказание исхода невозможно и получение любой из 33 букв в результате опыта для него равновероятно. Однако процесс естественного развития языков привел к тому, что различные буквы встречаются в текстах с неодинаковыми частотами. Вероятности появления, или относительная частота появления в тексте букв в русском языке приведены в таблице 1, относительная частота появления пробела или знака препинания в русском языке составляет 0,174.
Таблица 1. Относительная частота появления в тексте букв в русском языке
Буква |
Частота |
Буква |
Частота |
Буква |
Частота |
Буква |
Частота |
о |
0.09 |
|
0.038 |
з |
0.016 |
ж |
0.007 |
е, ё |
0.072 |
л |
0.035 |
ы |
0.016 |
ш |
0.006 |
а |
0.062 |
к |
0.028 |
б |
0.014 |
ю |
0.006 |
и |
0.062 |
м |
0.026 |
ь,ъ |
0.014 |
ц |
0.004 |
н |
0.053 |
д |
0.025 |
г |
0.013 |
щ |
0.003 |
т |
0.053 |
п |
0.023 |
ч |
0.012 |
э |
0.003 |
с |
0.045 |
у |
0.021 |
й |
0.01 |
ф |
0.002 |
р |
0.04 |
я |
0.018 |
х |
0.009 |
|
|
Из табл.1 видно, что из 1000 наудачу выбранных в тексте букв около 90 раз встретится буква "о", 62 раза - "а", 26 раз-"м" и только 2 раза - "ф".
Таким образом, имея приведенную в таблице информацию можно априори предсказать, что в результате опыта экспериментатор с вероятностью ро = 0,090 выберет букву "о", а о вероятностью ре = 0,072 - букву "е" и т.д., то есть результаты такого опыта имеют меньшую неопределенность, чем результаты опыта в случае отсутствия данных таблицы 1.
Вопросы оценки количества информации, получаемой в опыте с не равновероятными результатами, впервые в 1948 году были рассмотрены американским ученым Клодом Шенноном, который заложил основы современной теории информации. Клод Шеннон в своих работах по теории связи выписывает формулы для вычисления количества информация и энтропии. Термин энтропия используется Шенноном по совету патриарха компьютерной эры фон Неймана, отметившего, что полученные Шенноном для теории связи формулы для ее расчета совпали с соответствующими формулами статистической физики, а также то, что “точно никто не знает” что же такое энтропия.
Предположим, что в эксперименте измеряются значения некоторой дискретной случайной величины X . Совокупность всех возможных значений величины X образует полную систему взаимонезависимых случайных событий, называемую ансамблем:
(9)
где xi (i = 1,2,…., N)- значения случайной величины X, которые она может принять в результате проведения опыта; pi (i = 1,2,…., N) - вероятности получения соответствующих значений xi . Поскольку cиcтема событий полная, выполняется условие нормировки
. (10)
Предположим далее, что в результате проведения одного опыта с полной определенностью стало известно, что случайная величина приняла некоторое значение xk (1 ≤ k ≥ N ). Количество информации, полученное в этом опыте, по определению считается равным
Ik = - log2 pk , (11)
где pk - априорная вероятность события "Случайная величина приняла значение xk". Величина Ik называется частной информацией, поскольку она характеризует неожиданность (неопределенность) появления отдельного конкретного события (Х = xk) или, иными словами, количество информации связанное с появлением этого события. Определение (11) является естественным обобщением меры количества информации по Хартли (6) на случай опыта с неравновероятными исходами. Из соотношения (11) видно, что наибольшая информация достигается, если в результате опыта произошло наименее вероятное (наиболее неожиданное) событие. Заметим, что количество информации в виде (11) всегда положительно, постольку в соответствии с условием (10) вероятность каждого из событий всегда меньше единицы.
Усредненной оценкой количества информации при многократных повторениях опыта по измерению величины X является математическое ожидание частной информации – мера Шеннона:
. (12)
Мера Шеннона характеризует количество информации, приходящееся в среднем на одно событие. Свойства меры Шеннона:
-
обращается в нуль, когда одно из состояний достоверно, а другие невозможны;
-
непрерывна относительно pk и достигает максимального значения, когда состояния системы равновероятны, например: p1 = p2 = 0.5, E = -(0.5log(1/2) + 0.5log(1/2)) = 1, если p1 = 0.25 p2 = 0.75 то E = -(-0.75* 0.415 - 0.25*2) = 0.811;
-
является монотонно возрастающей функцией N ;
-
обладает свойством аддитивности, то есть в случае объединения независимых систем их информации складываются.
На выходе реальных информационных систем количество информации, содержащееся в сообщении, определяется следующим образом:
I = Ни - Н0 , (13)
где I - количество информации, содержащееся в сообщении; Ни - исходная неопределенность ансамбля событий, известная априори; Н0 - неопределенность ансамбля событий, оставшаяся после опыта. До получения информации ситуация характеризуется неопределенностью того, от какого источника она будет направлена, т.е. априорной энтропией:
. (14)
Энтропия дискретной случайной величины — это минимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной случайной величины. В термодинамике энтропия означает вероятность теплового состояния вещества, в математике – степень неопределенности ситуации или задачи, в информатике она характеризует способность источника отдавать информацию. Энтропия источника бинарных (двоичных) сообщений изменяется от нуля до единицы в зависимости от вероятности сообщений и имеет максимум при p1 = p2 = 0,5 . В этом случае мера Шеннона совпадает с мерой Хартли. Источник с энтропией в 1 бит полностью согласован с каналом, например, реле, имеющим информационную емкость в 1 бит. При неравновероятности сообщений канал будет недогружен. Зависимость энтропии от вероятности для бинарного источника иногда называют функцией Шеннона (рис. 41.)
Рис. 41. Энтропия бинарного источника
Таким образом, маловероятное событие несет большее количество, информации, чем событие высоковероятное. Это свойство количества информации соответствует психологической реакции человека. Действительно, как показано в экспериментальных исследованиях, чем неожиданнее (маловероятнее) происходящее перед глазами человека событие, тем больше соответствующее ему время задержки реакции человека на это событие; при этом соблюдается пропорциональная зависимость между временем задержки и количеством информации, найденным по формуле (11). Для примера на рис. 42 заимствованном из работы американского психолога Р. Xаймана кружками отмечены данные восьми опытов, состоящих в определении среднего времени, требующегося испытуемому, чтобы указать, какая из k лампочек (где k менялось от 1 до 8) зажглась.
Рис.42. Опыт с лампочками
Это среднее время определялось из большого числа серий зажиганий, в каждой из которых частоты зажиганий всех лампочек были одинаковыми, причем предварительно испытуемый специально тренировался в подобных опытах. По оси ординат на рис. 42 отложено среднее время реакции, а по оси абсцисс — величина log2 k; при этом, как мы видим, все 8 кружков довольно точно укладываются на одну прямую.