- •Тематическая структура апим
- •1.2.Свойства информации.
- •Понятие количества информации
- •3.1.Системы счисления.
- •3.3.3. Преобразования чисел из двоичной в восьмеричную, шестнадцатеричную системы счисления и обратно.
- •3.4.6.Двоичное вычитание с использованием дополнительных кодов.
- •3.6.Логические операции.
- •3.6.2.Логическое умножение (конъюнкция или логическое и)
- •3.6.3.Логическое сложение (дизъюнкция или логическое или)
- •Часть II. Программное обеспечение (по, software).
- •7.2.2.Атрибуты шрифта, абзаца и страницы.
- •Точка. Этот объект на плоскости представляется двумя числами (х, у), указывающими его положение относительно начала координат.
- •Отрезок прямой. Он отличается тем, что требует для своего описания еще двух параметров — координат х1 и х2 начала и конца отрезка.
- •8.5.Фрактальная графика.
- •8.8.1.Цветовая модель rgb.
- •8.8.2.Цветовая модель cmyk.
- •8.8.3.Цветовая модель hsb.
- •8.8.4.Цветовая модель cie Lab.
- •8.9.2.3.Векторные графические редакторы.
- •9.2.3.Атрибуты ячеек, шрифта и страницы. Типы и формат данных в ячейках.
- •10.3.Типы баз данных.
- •10.4.Основные понятия реляционных бд.
- •10.8.Поиск записей. Понятие о запросе. Виды запросов и способы их организации.
- •11.3.Средства создания мультимедиа документов (обзор).
- •12.1.Компьютерные сети.
- •12.2.Топология сети.
- •12.3.Архитектура сети.
- •12.5.3.Адресация в Internet.
- •12.6.Основы технологии www.
- •12.6.1.Архитектура распределенной Web-системы.
- •6.12.2.Структурное программирование.
- •История
- •Главные понятия и разновидности
- •Основные понятия
- •Определение ооп и его основные концепции Сложности определения
- •Определение ооп
- •Концепции
- •Особенности реализации
- •Подходы к проектированию программ в целом
- •Критика ооп
- •Объектно-ориентированные языки
Понятие количества информации
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией.
Количество информации, которое можно получить при ответе на вопрос типа «да-нет», называется битом (англ. bit — сокращенное от binary digit — двоичная единица). Бит — минимальная единица количества информации, ибо получить информацию меньшую, чем 1 бит, невозможно. При получении информации в 1 бит неопределенность уменьшается в 2 раза. Таким образом, каждое бросание монеты дает нам информацию в 1 бит.
Связь между количеством информации и числом состояний системы устанавливается формулой Хартли: i=log2N,
где i — количество информации в битах; N —. число возможных состояний. Ту же формулу можно представить иначе: N =2i.
Группа из 8 битов информации называется байтом
Во всех отмеченных подходах к представлению информации важным является способ измерения количества информации. Существует несколько подходов к измерению количества информации Статистический, Семантический, Прагматический:
Статистический подход — оценивается количество информации в передаваемых сообщениях о состояниях некоторой системы, которая может иметь определённое количество дискретных состояний. Если до получения информации было известно сколько таких состояний может получать система и после получения стало известно в каком состоянии она оказалась, то можно получить количество принятой информации как меру снятия неопределённости о состоянии системы. Если считать, что все N состояний системы равновероятны, количество информации можно определить, используя формулу английского инженера Р.Хартли i = log2 N , причем N = 2I
Пример: "Бросание монеты": перед броском существует неопределенность, как упадет монета предсказать невозможно. После броска реализуется полная определенность (например "орел"). Аналогично, при бросании четырехгранной пирамиды существуют 4 возможных исхода, а при бросании игрального кубика — 6 возможных исходов.
Вывод: чем больше возможных событий, тем больше начальная неопределенность результата и, главное, тем больше количество информации будет получено после проведения опыта.
Семантический подход — количество полученной информации измеряется с учётом её смысла для получателя. Оценивается количество смысла полученной информации, с помощью сравнения объёмов тезаурусов до и после получения информации, т.е. оно равно разности тезауруса Sп до получения информации Sп.0 и после получения информации Sп.1, т.е. I = Sп.1 – Sп.0 .
Определение. Тезаурус — свод слов, устойчивых словосочетаний, описывающих предметную область, сгруппированных и упорядоченных по некоторым правилам (например, в порядке убывания алфавита).
Прагматический подход — количество информации в данном случае оценивается как полезность сообщения. Для этого используется следующее соотношение I = log2 (P1/P0) , где P — вероятность решения задачи: P0 до получения сообщения и P1 после получения сообщения.