- •А.С. Гуменюк элементы информатики и теории информации
- •Введение
- •1. Информация и информирование в процессе управления
- •1.1. Управление и имеющие место в его процессе информация и информирование
- •1.2. Сообщения в процессе управления
- •Вопросы для закрепления и углубления материала
- •1.3. Преобразования в процессе управления
- •Вопросы для закрепления и углубления материала
- •1.4. Код как преобразование в процессе управления
- •Вопросы для закрепления и углубления материала
- •1.5. Информация как преобразование в процессе управления
- •Вопросы для закрепления и углубления материала
- •1.6. Информирование в процессе управления
- •Вопросы для закрепления и углубления материала
- •2. Информационная метрика
- •2. 1. Три подхода при измерении информации
- •Вопросы для закрепления и углубления материала
- •2. 2. Структурные меры информации
- •Вопросы для повторения и закрепления материала
- •2. 3. Статистические меры информации
- •Вопросы для повторения и закрепления материала
- •2.4. Подсчёт числа информации, трактуемых как преобразования в процессе управления
- •2.4.1. Полезная, избыточная и паразитная информации в процессе управления
- •2.4.2. Описательные информации и подсчет их числа в информационной цепи
- •2.4.3. Идентифицирующие информации и подсчёт их числа в информационной цепи
- •2.4.4. Использование мер описательной и идентифицирующей информаций
- •2.5. Определение, описание и средства анализа строя информационной цепи сообщений
- •Вопросы для закрепления и углубления материала
- •Библиографический список
Вопросы для закрепления и углубления материала
1. Определите полезную, избыточную и паразитную информации и приведите их примеры.
Что такое описательная информация? Каково назначение исходного сообщения и исходной информации и какими они могут быть?
Определите понятие «редкость».
Определите полную описательную информацию множества сообщений информационной цепи; приведите примеры таких информации.
Приведите соотношения для определения числа описательных информации следующих информационных цепей: 1) состоящей только из разных сообщений, 2) содержащей основную информацию, 3) содержащей группы одинаковых сообщений. Докажите справедливость приведённых соотношений.
Что такое идентификация? Что может быть критерием выделения сообщения? На каком утверждении основана идентификация сообщения? Каково число вопросов или выборов возможно при идентификации сообщения?
Что такое идентифицирующая информация и каково её отличие от описательной информации?
В какой информационной цепи возможна однозначная идентификация?
9. Приведите соотношения для определения числа идентифицирующих информаций в информационной цепи, состоящей только из разных сообщений, а также – содержащей группы одинаковых сообщений; докажите справедливость приведенных соотношений.
10. Какова зависимость между числом описательных и идентифицирующих информаций?
11. Почему идентифицирующих информаций меньше, чем описательных в данной информационной цепи?
12. Какова связь между соотношением для определения числа идентифицирующих информации и формулами Р. Хартли и К. Шеннона?
13. Какие количественные характеристики информационной цепи определяет среднее число описательных информаций?
14. Какова связь между энтропией и разнообразием описательных информации в различных информационных цепях?
15. Укажите области явлений, где целесообразен подсчёт описательных и идентифицирующих информации?
16. Понятия однородной и неоднородной информационных цепей сообщений.
17. Определения интервала и удаленности выделенного сообщения в однородной цепи.
18. Понятие и определение строя информационной цепи сообщений (в отличие от собственно информационной цепи сообщений).
19. Приведите числовые характеристики строя информационной цепи сообщений.
20. Каким образом связаны числовые характеристики строя цепи сообщений с формулами для количества информации М. Мазура и К. Шеннона?
Библиографический список
1. Черри К. Человек и информация: Пер. с англ. − М.: Связь, 1972. − 368 с.
2. Мазур М. Качественная теория информации: Пер. с польск. − М.: Мир, 1974. − 240 с.
3. Реньи А. Трилогия о математике: Пер. с венгр. −М.: Мир, 1980. − 376 с.
4. Яцкевич Ю. Э. Теоретические основы вычислительной техники. Информационные основы. − Л.: Изд-во ЛПИ, 1977. − 76 с.
5. Темников Ф. Е., Афонин В. А. , Дмитриев В. И. Теоретические основы информационной техники. − 2-е изд., испр. и доп. − М.: Энергия, 1979. − 512 с.
6. Коган И. М. Прикладная теория информации. − И.: Радио и связь, 1981. – 216 с.
Яглом A. M., Яглом И. М. Вероятность и информация. − М.: Наука, 1973. − 512 с.
Вентцель Е. С. Теория вероятностей. − М.: Наука, 1969. − 576 с.
A. Gumenyuk, A. Kostyshin, S. Simonova An approach to the research of the structure of linguistic and musical texts. – Glottometrics. − 3 (2002). Liideschtid RAM-Verl С.61− 89.
Гуменюк А.С. Об информационных характеристиках для числового анализа строения знаковых последовательностей и массивов упорядоченных данных. РНТО РЭС имени А.С.Попова. Научная сессия, посвященная Дню радио: Тез.докл. − М.: 1999. − С.109 − 110
Гуменюк А.С., Богорад Д.М. Об исчислении взаимного расположения элементов в массивах данных:// − Труды РНТО РЭС им. Попова. Выпуск: LIX − 2. 2004. – С.114− 116.
Редактор Т.А.Жирнова
Компьютерный набор А.С. Воробьевой
Свод. темплан 2006 г.
ИД № 06039 от 12.10.2001 г.
Подписано к печати 06.07.06. Бумага офсетная. Формат 60 х 84 1/16.
Отпечатано на дупликаторе. Усл. печ. л. 4,75. Уч.-изд, л. 4,75.
Тираж 150 экз. Заказ 602.

Издательство ОмГТУ. 644050, Омск, просп. Мира,11
Типография ОмГТУ

