
- •Вопрос 1 - Измерение информации
- •Вопрос 2 - Согласование характеристик сигнала и канала.
- •Вопрос 3 - Эффективное кодирование (алгоритмы сжатия данных)
- •Вопрос 4 - Помехоустойчивое кодирование (идея построения помехоустойчивых кодов, коды Хэмминга, циклические коды)
- •Вопрос 5 - Дискретизация и квантование сигналов. Выбор шага дискретизации сигнала по времени, шага квантования по уровню
- •Вопрос 6 - Переключательные (булевы) переменные и функции. Булева алгебра
- •Вопрос 7 - Способы задания булевых функций
- •Вопрос 8 - Минимизация булевых функций
- •Вопрос 9 - Аппарат булевых функций - язык описания функционирования комбинационных схем.
- •Вопрос 10 - Анализ и синтез комбинационных схем
- •Вопрос 11 - Основные понятия и определения из теории автоматов. Абстрактный конечный автомат
- •Вопрос 12 - Методы задания автоматов
- •Вопрос 13 - Структурный синтез автоматов
- •Вопрос 14 - Абстрактный синтез автоматов. Автоматы Мили и Мура
- •Вопрос 15 - Понятие интегральной схемы, понятие серии интегральных схем, виды интегральных схем по степени интеграции, по принципу схемотехнического построения, по быстродействию.
- •Вопрос 16 - Системы элементов, их характеристики. Особенности базовых элементов ттлш, n -моп, кмоп
- •Вопрос 17 - Элементы интегральных схем с открытым коллектором и тремя состояниями выхода, их назначение
- •Вопрос 18 - Триггеры
- •Вопрос 19 - Регистры
- •Параллельные регистры
- •Последовательные сдвигающие регистры
- •Реверсивный регистр
- •Вопрос 20 - Счетчики. Методы повышения быстродействия счетчиков
- •Двоичные счетчики
- •Счетчики с ускоренным переносом
- •А) Счетчик с параллельным переносом
- •Б) Счетчик с комбинированным переносом
- •Вопрос 21 - Мультиплексоры и демультиплексоры. Синтез многовходовых мультиплексоров
- •Демультиплексоры
- •Вопрос 22 - Дешифраторы. Синтез многоразрядных дешифраторов
- •Вопрос 23 - Двоичные и приоритетные шифраторы. Указатели старшей единицы
- •Вопрос 24 - Параллельные многоразрядные сумматоры
- •Сумматоры с групповой системой переноса.
- •Вопрос 25 - Преобразователи кодов
- •Вопрос 26 - Запоминающий элемент интегральных схем динамической памяти и его работа
- •Вопрос 27. Виды мс статической и динамической памяти и их потребит. Особенности.
- •Характеристики мс памяти(на всякий случай)
- •Вопрос 28. Мс энергонезависимой памяти (rom, prom, eprom, eeprom, fram, mram) и их потребительские свойства.
Вопрос 1 - Измерение информации
В установлении количества информации используется структурные, статистические и семантические меры.
Структурные меры – рассматривают дискретное строение массивов информации и их измерение простым подсчетом информационных элементов. Меры применяется для оценки возможностей аппаратуры (канала связи, ЗУ, устройств отображения) вне зависимости от условий применения.
Различают геометрическую, комбинаторную и аддитивную меру Хартли. Определение количества информации геометрической мерой сводится к измерению длины линии, площади или объема геометрической модели данного информационного комплекса в количестве дискретных единиц. Геометрическим методом определяется потенциальное (максимально-возможное) количество информации в заданных структурных габаритах. Кол-во информации в комбинированной мере вычисляется как количество комбинаций элементов, т.е. оценки подвергается комбинаторное свойство потенциального структурного разнообразия информационных комплексов. Для подсчета используются формулы комбинаторики. Формулы комбинаторики неудобны из-за больших получаемых величин. Вот почему Хартли ввел аддитивную логарифмическую двоичную меру, позволяющую измерять информацию в битах. I=l*log2h , где l- длина числа (т.е. количество разрядов) h – основание системы счисления.
байт=8 инф. бит + 1 проверка на чет.
байт=8 инф. бит
байт=7 инф. бит + 1 контр. (ASCII – изначально 7 –разрядный)
октет =8 бит идущих подряд
Статистическая мера измерения информации.
Статическая мера оперирует понятием энтропии как мерой неопределенности, учитывая вероятность появления, а, следовательно, и информативность тех или иных сообщений.
При данном подходе информация рассматривается как сообщение об исходе случайных событий, а кол-во информации ставится в зависимость от априорных (до опытных) вероятностей этих событий. Когда приходит сообщение о часто встречающемся событии вероятность появления которого 1, то такое сообщение мало информативно. Если же наступило событие вероятность которого мала, то сообщение об этом считается информативным.
Неопределенность ситуации – энтропия. (Н)
pi – вероятность появления i-го сообщения, k- число событий
Некоторые свойства энтропии:
Энтропия всегда неотрицательна;
Энтропия = 0 в том случае, когда вероятность одного события = 1, а остальных = 0;
Энтропия достигает максимального значения при Pi=1/K;
Количество информации о некотором объекте = разности априорной и апостприорной энтропий объекта: I=H1-H2
Статическая мера информации совпадает с мерой Хартли при следующих условиях:
Хартли: I=log2h Шеннон: I=log2k
Если l =1, а все элементы алфавита равновероятны, то Iш= Iх . совпадение количества информации по Шеннону и по Хартли говорит о полном использовании потенциальной информационной емкости. В случае неравновероятности событий количество информации по Шеннону меньше количества информации по Хартли.
Семантические меры информации.
Под семантикой понимается смысл, содержание информации.
В качестве семантических мер используется такие меры как содержательность информации, целесообразность, динамическая энтропия и тезаурус.
Целесообразность информации. Если информация используется в системах управления, то ее полезность можно оценивать по тому эффекту, который она оказывает на результат управления.
А.А. Харкевич предложил меру целесообразности информации, которая определяется как изменение вероятности достижения цели при получении дополнительной информации.
где р2 – вероятность достижения после получения информации, р1 – вероятность достижения до получения информации.