- •1 Предмет информатики. Определения информатики и кибернетики. Место информатики среди других наук. Понятие информации. Определение и свойства. Структура информационных наук.
- •2 История вычислительной техники и информатики
- •3 Основные свойства информации. Объективность и субъективность. Полнота, достоверность, адекватность, доступность, актуальность.
- •4 Формальное определение «Информатика». Кибернетика.
- •5 Понятие о кодировании информации. Количественная мера информации.
- •6 Системы счисления. Двоичная система счисления. Кодирование целых и действительных чисел.
- •7 Кодирование графической и звуковой информации. Растровые и векторные данные.
- •8 Понятие данных. Носители данных и их характеристики. Операции с данными.
- •9 Кодирование текстовых данных. Стандарты. Таблицы кодировки. Проблема национальных алфавитов.
- •11 Персональный компьютер. Базовая аппаратная конфигурация. Количественные характеристики.
- •12 Устройство системного блока пк. Системы, расположенные на материнской плате. Характеристики устройств.
- •13 Методы классификации компьютеров.
- •14 Программное обеспечение. Программная конфигурация. Базовый уровень. Системный уровень. Служебный уровень. Прикладной уровень.
- •15 Классификация прикладных программных средств.
- •16 Классификация служебных программных средств.
- •17 Средства обеспечения компьютерной безопасности.
- •18 Система команд процессора.
- •19 Организация файловой системы.
- •20 Функции операционных систем. Интерфейсы пользователя. Графическая операционная система Windows.
- •21 Классификация языков программирования. Примеры яну и яву, и их характеристика.
- •22 Количество информации при равновероятных состояниях элементов сообщения. Энтропия сообщений.
- •23 Единицы измерения количества информации и энтропии.
- •24 Представление сообщений и определение количества информации и энтропии при разновероятных состояниях элементов.
- •25 Основные свойства энтропии.
- •27 Коэффициент сжатия и избыточность сообщений.
- •29 Семантическая и синтактическая информация. Два основных различных типа информации.
- •31 Основные этапы работы в системе ТеХ.
- •32 ТеХ. Спецсимволы. Команды и их задание.
- •39 ТеХ. Набор матриц.
- •40 ТеХ. Вставка готовых рисунков.
- •41 ТеХ. Создание таблиц.
- •42 Арифметические основы работы эвм. Системы счисления. Выбор системы счисления. Перевод чисел из одной системы счисления в другую.
- •43 Способы представления чисел в эвм с фиксированной и плавающей запятой. Микрооперации сдвига, передача, преобразование.
- •44 Изображение отрицательных чисел в эвм. Прямой код. Дополнительный код.
- •45 Изображение чисел в эвм. Обратный код.
- •46 Понятие алгоритма (Колмогоров, Кнут). Граф алгоритма. Алгоритмы и способы их описания. Этапы решения задач на эвм. Блок-схемы.
- •47 Алгоритмы. Линейная часть алгоритма. Цикл. Ветвлительные алгоритмы. Циклический алгоритм с ветвлением. Внешние и внутренние циклы.
- •48 Гост 19.701-90. Общие положения. Описание схем.
- •1. Общие положения
- •2. Описание схем
- •51 Гост 19.701-90. Символы линий. Специальные символы.
- •3.3. Символы линий
- •3.4. Специальные символы
- •52 Радиотехнические сигналы. Детерминированные и случайные сигналы. Видоимпульсы и радиоимпульсы. Дискретные сигналы.
- •53 Энергия сигналов.
- •54 Основные понятия ортогональных сигналов. Скалярное произведение сигналов.
- •55) Периодические сигналы. Ряды Фурье. Разложение сигналов в ряд-Фурье. Спектр сигнала.
22 Количество информации при равновероятных состояниях элементов сообщения. Энтропия сообщений.
23 Единицы измерения количества информации и энтропии.
Количество информации при равновероятных состояниях элементов сообщения. Энтропия сообщений.
За единицу количества информации приняли такое количество информации, при котором неопределённость уменьшается в два раза. Такая единица названа бит.
С точки зрения вероятности 1 бит — это такое количество информации, которое позволяет выбрать одно событие из двух равновероятных.
В технике под количеством информации понимают количество кодируемых, передаваемых или хранимых символов.
Равновероятное, т.е. ни одно из них не имеет преимущества перед другим.
Для того чтобы количество информации имело положительное значение, необходимо получить сообщение о том, что произошло событие как минимум из двух равновероятных. Такое количество информации, которое находится в сообщении о том, что произошло одно событие из двух равновероятных, принято за единицу измерения информации и равно 1 биту.
Существует формула, которая связывает между собой количество возможных событий и количество информации. N = 2I; где N — количество возможных вариантов, I - количество информации.
Если из этой формулы выразить количество информации, то получится I = log N.
Сообщение содержит информацию, если оно приводит к уменьшению неопределенности наших знаний.
Энтропия- количество информации, которая приходится на один символ в сообщении.: h=log m. где m-число состояний
24 Представление сообщений и определение количества информации и энтропии при разновероятных состояниях элементов.
Неравновероятность является следствием того, что некоторая предварительная (априорная) информация по этому вопросу уже имеется.
25 Основные свойства энтропии.
1.Количество информации пропорционально числу элементов в сообщении.(прямая зависимость)
2.Количество информации и энтропия зависит от числа возможных состояний.
3. Количество информации зависит от вероятности состояния.
4. Энтропия максимальна, когда все состояния источника равновероятны. При этом Hmax(UN) = log2 N.
5. Энтропия является неотрицательной вещественной величиной. Это так, поскольку вероятность лежит в интервале от 0 до 1, ее логарифм отрицателен, а значение –pi log pi положительно.
6. Энтропия ограничена сверху значением 1.
7. Энтропия равна 0, только если одно из состояний имеет вероятность, равную 1 (полностью определенный источник).
8. Энтропия источника с двумя состояниями изменяется от 0 до 1, достигая максимума при равенстве их вероятностей.
9. Энтропия объединения нескольких независимых источников информации равна сумме энтропий исходных источников.
10. Энтропия характеризует среднюю неопределенность выбора одного состояния из ансамбля, не учитывая содержательную сторону (семантику) состояний
27 Коэффициент сжатия и избыточность сообщений.
Если вероятности одинаковые, энтропия максимальная.
Сообщения, энтропии которых равны максимальному значению, являются оптимальными сообщениями в смысле наибольшего количества передаваемой информации. Для любых сколько-нибудь реальных источников выполняется условие и для характеристики неоптимальности вводят коэффициент сжатия.
Коэффициент сжатия характеризует степень сжатия реальных сообщений при переходе к оптимальному кодированию для оценки той части реальных сообщений которая может быть отброшена при переходе к оптимальному кодированию, т.е. доля элементов реальных сообщений, которая является излишней вводится коэффициент избыточности . n-количество элементов в сообщении.