- •1. Алгебраические системы, алгебры, классы алгебр и формальные модели.
- •2. Алгебраические оп-ии и осн св-ва
- •5. Метрическое пространство и его аксиоматика.
- •6. Примеры метрики кодовое расстояние Хемминга
- •7. Линейное пространство и его аксиоматика.
- •8. Линейное нормированное пр-во и аксиоматика.
- •9. Примеры нормы
- •10. Цель и суть любого кодирования.
- •11. Суть помехоустойчивого кодирования избыт информация
- •12. Классификация помехоустойчивых кодов
- •13. Возможные варианты передачи слов.
- •14. Варианты разбиения множества n.
- •15. Понятия минимального Хеммингово расстояния.
- •17 Формула для определения числа избыточ разряд.
- •18. Процедура построения группового кода.
- •20. Временная дискретизация и ее виды
- •21. Представление непрерывного сигнала последовательностью импульсов. Ряд Котельникова.
- •22. Представление сигнала спектром гармоник. Ряд ж. Фурье.
- •23. Цель и суть квантования по уровню; функция ацп.
- •25 Типы (модели) помех. Влияние помех на квантованный по уровню сигнал.
- •27. Цепь управления и процесс воздействия источника на приемник как мн-во; цепи прямой и обратной связи. Определение понятия сообщ-ия; отличие сообщ-ия от инф-ии.
- •28. Виды сообщ-ий в цепи управления; активные и пассивные сообщ-ия.
- •29. Понятие ассоциации сообщ-ий в цепи управления; понятие и виды преобразований сообщ-ий.
- •30. Кодовая ассоциация сообщений. Определение понятия код как преобразования; место кодов в цепи управления; отличие кодов от инф-ии.
- •31 Виды кодов в цепи управления. Примеры.
- •32 Определение оп-ионного и основного кода.
- •33. Ассоциационный код.
- •34. Информационная ассоциация сообщений...
- •35. Понятие информационной цепи
- •36. Виды инф-ии в цепи управления.
- •37. Определение оновной информ отличие от кода.
- •38. Допущение теории информации. Понятие и определение информирования. Виды информирования.
- •39 Транс информироваание.
- •40 Псевдоинформирование.
- •41. Дезинформирование
- •42. Параинформирование
- •43 Три подхода при измерении инф-ии: структурный, статистический, семантический.
- •44 Структурные меры инф-ии; Аддитивная мера р. Хартли.
- •46 Статистическая мера инф-ии количество инф-ии по Шеннону.
- •47. Подсчет описательных информаций
- •48. Подсчет числа идентифицирующих информаций.
43 Три подхода при измерении инф-ии: структурный, статистический, семантический.
При СТРУКТУРНОМ ПОДХОДЕ измерение инф-ии осуществляется простым подсчетом ЧИСЛА СООБЩ-ИЙ, сос-щих информационный массив, или КОЛИЧЕСТВОМ ПРОЕБРАЗОВАНИЙ сообщ-ий(связей), или ЧИСЛОМ КОМБИНАЦИЙ, которые М реализовать из этих сообщ-ий. Подход применяется для оценки ёмкости инф-ых систем без учёта условий их применения,это системы типа средства формирования, передачи, обработки, преобразования и хранения сообщ-ий. При СТАТИСТИЧЕСКОМ ПОДХОДЕ кол-во инф-ии ставится в зависимость от вероятности появления сообщ-ий. Подход позволяет оценить информационные возМсти систем с учетом статистических св-в сообщ-ий и помех. Он развит в наше время. Этот подход описывает не все инф-ые явления даже в технических системах. Сфера его применения ограничена статистическим (СЛУЧАЙНЫМ, неупорядоченным) характ-ом анализируемых явлений, тогда как многие явления объектов природы и техники не случайны и закономерно реализуются. СЕМАНТИЧЕСКИЙ ПОДХОД предназначен для учёта целесообразности, ценности, полезности, существенности и содержательности инф-ии, для оценки эффективности логического опыта. Прим, более ценная инфа содержится в короткой программе из возмогших программ, ведущих к одной цели из заданного исходного положения. Это направление в настоящее время недостаточно разработано.
44 Структурные меры инф-ии; Аддитивная мера р. Хартли.
К структурным мерам инф-ии относятся: геометрическая, комбинаторная и аддитивная. ГЕОМ-АЯ МЕРА инф-ии употребляется в измерении "длины линии", "Sди" "Vма" данного инф-го массива (комплекса) в единицах дискретных элементов (сообщ-ий) этого массива. Этой мерой измеряют ИНФОР-УЮ ЁМКОСТЬ массива, комплекса и т.п. J = nY*nХ*nZ КОМБИНАТОРНАЯ МЕРА инф-ии упот-ся для оценки возМстей систем, в которых передача и хранение инф-ии осущ-ся при помощи комбинаций из набора сообщ-ий. В комбинаторике рассматривают различные виды соединений из элементов. СОЧЕТАНИЯ из M элементов по N различаются составом элементов. ПЕРСТАНОВКИ из M элементов различаются их порядком; есть перестановки с повторениями элем-ов. РАЗМЕЩЕНИЯ из m элементов по n элементов различаются составом-порядком эл-ов. Число размещений с повторениями эл-ов N = mn. Комбинаторная мера определяет количество инф-ии числом возможных или реализуемых комбинаций из элементов. АДДИТИТВНАЯ МЕРА инф-ии или "МЕРА ХАРТЛИ". ГЛУБИНА m КОДОВОГО СЛОВА или числа - это количество РАЗЛИЧНЫХ сообщ-ий, содержащихся в принятом алфавите. Глубина числа соответствует основанию позиционной системы счисления. ДЛИНА n КОДОВОГО СЛОВА или числа - это количество повторений символов алфавита для образования данного кодового слова или числа. Длина числа соответствует принятой разрядности системы счисления. N = mn. Хартли ввёл АДДИТИВНУЮ ДВОИЧНУЮЛОГАРИФМИЧЕСКУЮ МЕРУ, представляющую количество инф-ии в битах. Для определения количества инф-ии этой мерой берётся не количество разных кодовых слов или состояний системы N, а его двоичный логарифм J = log2N Если N = mn то J =log2 mn = n * log2 m, где log2m = К - постоянная величина. J = К * n мера Хартли удобна благодаря свойству АДДИТИТВНОСТИ, которое обеспечивает возМсть СЛОЖЕНИЯ и ПРОПОРЦИАНАЛЬНОСТЬ количества инф-ии к длине кодового слова.
45 Понятие инф-ии по Р. Хартли. ИНФ-ИЯ - это особого рода логическая инструкция, набор указаний или программа для выбора, поиска, идентификации определённого сообщ-ия (состояния) из некоторого их множества. ИНФ-ИЯ по Хартли - это так называемая идентифицирующая ИНФ-ИЯ. Есть еще описательная. Однако здесь важно заметить, что Хартли определил информацию как ОПРЕДЕЛЁННОГО РОДА ПРЕОБРАЗОВАНИЕ, переводящее приёмник из одного состояния в другое.
