
- •Понятие информации, основные свойства информации.
- •Кодирование информации в пк. Формулы Хартли и Шеннона изменения количества информации. Понятие энтропии.
- •Системы счисления и правила работы с ними. Логические основы работы пк.
- •Принципы фон Неймана построения эвм. Принципы фон Неймана
- •5.Базовая конфигурация пк. Состав системного блока. Состав материнской платы.
- •6.Микропроцессор и его характеристики
- •7.Внутренняя память пк. Виды, назначение.
- •8.Внешняя память пк, виды, назначение
- •9. Периферийные устройства пк. Их виды, назначение.
- •10. Состав программного обеспечения пк
- •Прикладное по
- •11.Назначение, функции и виды операционных систем
- •12. Организация файловой системы пк
- •13. Виды компьютерной графики. Краткая характеристика.
- •14. Сравнительная характеристика векторной и растровой графики:
- •15. Понятие цветовой модели. Характеристика цветовой модели rgb.
- •16. Компьютерные сети, виды, назначение.
- •17. Типовые топологии компьютерных сетей
- •18.Принципы взаимодействия открытых систем
- •19.Адресация в сети Интернет. Протоколы сети.
- •20.Основные службы сети Интернет
- •21.Понятие бд, назначение субд. Модели данных в базе.
- •22.Назначение субд access. Объекты субд и режимы их создания.
- •23.Понятие моделирования, модели. Классификация моделей.
- •24.Этапы исследования компьютерной модели на пк
- •25.Этапы решения задачи на пк. Понятие алгоритма, его свойства.
- •26.Базовые алгоритмические структуры
- •3.Базовая структура повторение
- •27.Виды алгоритмов, их свойства. Способы записи.
- •Способы записи алгоритма
Понятие информации, основные свойства информации.
Информация - сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний.
Информатика рассматривает информацию как связанные между собой сведения, данные, понятия, изменяющие наши представления о явлении или объекте окружающего мира. Свойства информации:
Репрезентативность информации связана с правильностью ее отбора в соответствии с целью.
Содержательность информации отражает семантическую емкость, равную отношению количества семантической информации в сообщении к ее объему.
Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав показателей.
Доступность информации для восприятия пользователя обеспечивается соответствующими процедурами по ее получению и преобразованию.
Актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования.
Своевременность информации означает ее поступление не позже заранее назначенного момента времени.
Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта , процесса, явления и пр.
Достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью.
Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности.
Кодирование информации в пк. Формулы Хартли и Шеннона изменения количества информации. Понятие энтропии.
Информация может передаваться в виде сигналов – звуковых, световых, электрических и пр.. Для того, чтобы сохранить информацию, ее надо закодировать. Кодирование – выражение данных одного типа через другие.
В
вычислительной технике используется
универсальная система кодирования
данных двоичным кодом - последовательностью
двоичных цифр 0 и 1. Один разряд двоичного
кода называется битом (от англ. Binary digit
– двоичная цифра). Количество разных
символов, которое может быть представлено
при двоичном кодировании, зависит от
разрядности кода. Один бит выражает два
значения. Общую формулу вычисления
количества кодируемых значений можно
представить:
N = 2m
где н – предельное число кодируемых
значений, м - разрядность кода (количество
бит)(пример: 8
= 23
–
с помощью
3
битов можно закодировать 8 числовых
значений (000, 001, 010, 011, 100, 101, 110, 111) . Для
вычисления количества информации в
сообщении используется формула Хартли:I
= log 2N (I-
количество информации, N
– возможное количество кодируемых
сообщений).
Формула Хартли используется для
вычисления количества информации, когда
все события равновероятны. В случае,
когда все элементы (события) не
равновероятны, используется формула
Шеннона: I = -∑pi
log2 pi,
(I- количество
информации, pi,
- вероятность возникновения i-го
события). Формула Хартли является
частным случаем более общей формулы
Шеннона.
Энтропия
системы - рассматриваться как мера
недостающей информации. Энтропия системы
Н(х), имеющая N возможных состояний,
согласно формуле
Шеннона
равна: