- •1)Основные понятия и определения теории информации. Схема.
- •2)Виды сообщений и сигналов
- •3)Передача дискретных сообщений с помощью дискр. Сигналов. Информативные признаки посылок.
- •4)Передача непрерывных сообщений с помощью дискр. Сигналов.
- •5)Передача непрерывных и дискретных сообщений с помощью непрерывных сигналов. Виды модуляции.
- •6)Математические модели детерминированных сигналов. Элементарные дет. Сигналы.
- •7)Частотное представление детерминированных сигналов. Периодические сигналы.
- •8)Частотное представление детерминированных сигналов. Не периодические сигналы.
- •9)Квантование сигналов. Способы квантования
- •10)Равномерное квантование по времени. Теорема Котельникова.
- •11)Кодирование сигналов. Цель кодирования. Основные понятия и определения.
- •12)Перевод чисел из одной системы счисления в другую. Два способа.
- •13)Арифметические основы работы эвм. Равномерные простые цифровые коды.
- •14)Арифм. Операции с двоичными числами
- •15) Представление данных в эвм
- •16)Выполнение операций двоичной арифметики. Операции с фикс. Точкой.
- •17)Выполнение операций двоичной арифметики. Операции с плав. Точкой.
- •18)Основные принципы помехоустойчивого кодирования
- •19)Построение кода с заданной корректирующей способностью
- •20)Принцип построения систематических кодов
- •21)Принцип построения кода Хэмминга
- •22)Принцип построения циклических кодов.
- •23)Количество информации и энтеропия
- •24)Оперативные структуры данных. Статические структуры.
- •25)Полу статические структуры
- •26)Динамические структуры
-
23)Количество информации и энтеропия
-
Численная мера количества информации должна соответствовать след. условиям:
-
1. Кол-во информации в сообщении пропорционально длине сообщения. 2. Кол-во информации равно нулю, если в системе возможно только 1 сообщение.
-
Т.к. система событий конечная и полная, то сумма вероятностей начала событий – есть единица. Поэтому для удобства за единицу информации берут такое кол-во, которое исключает неопределенность относительно появления одной из двух возможных вероятных независимых событий. Такая единица кол-ва информации наз. «двоичной единицей информации» или бит
-
Таким обр. мера кол-ва инф., которая есть в сообщении: I=logpi где pi – вероятность появления сообщения
-
Энтропия – среднее кол-во инф. на 1сообщение. Энтропия показывает степень разнообразия возможных состояний системы.
-
24)Оперативные структуры данных. Статические структуры.
Оперативными наз. Структуры данных, хран. В оперативной памяти ЭВМ.
Стуктурой данных наз. Совокупность элементов данных и отношений между ними.
Простейший статический массив — вектор (это одномерный массив, состоящий из конечного множества простых данных (скаляров) одного и того же типа). Элементы вектора находятся в одном единственно возможном отношении — следовании.
Массив — это вектор, каждый элемент которого также вектор.
Запись — это конечное упоряд. Множество элементов, характ. В общем случае типом данных. Запись может быть иерархической.
-
25)Полу статические структуры
Список — это линейно-упорядоченная последовательность элементов. Каждый элемент хар-ся одним и тем же набором полей. Такой список наз. Линейным. Могут быть односвязные и двусвязные списки.
Стек (магазин, очередь) — работает по принципу LIFO.
Основные операции со стеком- 1)Включение элемента 2)чтение элемента
Дек — это очередь с двумя концами.
-
26)Динамические структуры
Динамические структуры данных – это структуры данных, память под которые выделяется и освобождается по мере необходимости.
n=var (количество элементов не ограничено)
Односвязные списки — отличаются наличием однозначного соответствия между пред. И послед. Элементом списка.