Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Informatika (1).doc
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
2.69 Mб
Скачать

Вопросы к экзамену по дисциплине «Информатика»

Специальность 230100 «Информатика и вычислительная техника»

1 Курс бакалавры

  1. Понятие информации и ее качественные характеристики.

  2. Принципы измерения информации. Энтропия. Свойства энтропии.

  3. Условная вероятность и условная энтропия.

  4. Взаимная информация. Потери информации от помех. Избыточность.

  5. Информационные характеристики дискретных источников.

  6. Цепи Маркова. Характеристики Марковских источников.

  7. Теоремы об эффективном кодировании.

  8. Метод Хаффмана и другие методы сжатия данных.

  9. Спектры и энтропия непрерывных источников.

  10. Информационные характеристики каналов связи.

  11. Теоремы ШеннОна. Помехоустойчивое кодирование.

  12. Представление целых чисел в ЭВМ. Сложение и вычитание.

  13. Представление вещественных чисел. Умножение и деление.

  14. Представление текста в ЭВМ. Кодировки и обработка текстов.

  15. Представление графики и звука в ЭВМ.

  16. Основные типы данных и процедуры их обработки.

  17. Основные алгоритмы обработки массивов.

  18. Основные алгоритмы обработки динамических структур.

  19. Hash-таблицы и поиск информации.

  20. Системы управления базами данных. Реляционная модель.

  21. Функциональные зависимости и нормальная форма БД.

  22. Объекты и классы. Объектно-ориентированная методология программирования.

  23. Технические средства хранения и передачи информации.

  1. Понятие информации и ее качественные характеристики.

Информация - прослойка между субъективным восприятием и объективной реальностью. Субъекты взаимодействуют с окружающей средой только за счет обмена информацией.

Характеристики:

1) Семантическая

Знак:

а) концепт (формулировка, понятие)

б) денотат (множество объектов)

2) Синтаксическая

набор четких правил, задающих логическую структуру

3) Гносеологическая

степень новизны и актуальность информации

4) Аксиологическая

ценность для субъекта

5) Коммуникативная

Отношение данной информации к средствам общения людей

6) Физическая

свойства носителя информации

Информация:

- первичная (получается из непосредственного наблюдения за объективной реальностью)

- вторичная (результат обработки первичной информации. При этой обработке количество информации не увеличивается!)

  1. Принципы измерения информации. Энтропия. Свойства энтропии.

  1. Количество информации должно обладать свойствами меры (положительность, монотонность, аддитивность)

  2. Количество информации зависит от вероятности наступления события (если событие наступает с вероятностью 1, то информация о нем нулевая; чем меньше вероятность наступления события, тем больше количество информации о его наступлении)

  3. Получение информации уменьшает неопределенность при принятии решений.

Энтропия (Н) - мера неопределенности. Энтропия определяется не для отдельного события, а для полной группы событий.

(основание роли не играет)

Свойства энтропии

1. H(X)>=0

2. Если одно из pi=1, а остальные равны 0, то из log1=0 и lim p->0 (p log(p)) = 0 следует H(X)=0, т.е. неопределенность отсутствует.

3. При заданном N наибольшая энтропия будет, когда все pi=1/N.

4.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]