- •1.2. Понятие информации
- •1.3. Сигналы и данные
- •1.4. Информатизация общества
- •1.5. Контрольные вопросы и задания
- •2.1. Формулы Хартли и Шеннона
- •2.2. Меры информации
- •Навигация по разделу:
- •2.2.1. Синтаксическая мера информации
- •2.2.2. Семантическая мера информации
- •2.2.3. Прагматическая мера информации
- •2.3. Бит, байт и производные от них единицы
- •2.4. Контрольные вопросы и задания
- •3.1. Позиционные системы счисления
- •3.2. Двоичная, восьмеричная и шестнадцатеричная системы счисления
- •3.3. Перевод чисел из десятичной системы в другую позиционную систему счисления и обратно
- •Навигация по разделу:
- •3.3.1. Перевод целого десятичного числа в другую позиционную систему счисления
- •3.3.2. Перевод правильной десятичной дроби в другую позиционную систему счисления
- •3.3.3. Перевод числа в десятичную систему счисления
- •3.4. Арифметические операции в позиционных системах счисления
- •3.4.1. Сложение
- •3.4.2. Вычитание
- •3.5. Контрольные вопросы и задания
- •777777888Найдите разность чисел в двоичном предс4.Введение
- •4.1. Представление целых чисел в компьютере
- •Навигация по разделу:
- •4.1.1. Форматы хранения целых чисел без знака
- •4.1.2. Форматы хранения целых чисел со знаком
- •4.2. Представление в компьютере вещественных чисел
- •Форматы хранения вещественных чисел
- •4.3. Представление в компьютере текстовой информации
- •4.4. Кодирование графической информации
- •0×00Bbggrr
- •4.5. Контрольные вопросы и задания
- •7.1. Основные этапы развития вычислительной техники
- •В ххi веке, когда на смену электронным приборам придут квантовые, оптические или биоэлектронные приборы, современные нам эвм будут казаться будущим пользователям такими же м7.2. Архитектура эвм
- •7.3. Принцип работы вычислительной системы
- •7.4. Контрольные вопросы и задания
- •8.1. Классификация эвм. Основные элементы пк и их назначение
- •8.2. Центральный процессор
- •Навигация по разделу:
- •8.2.1. История развития процессоров
- •8.2.2. Назначение и структура простейшего процессора
- •8.2.3. Принцип действия процессора
- •8.2.4. Арифметико-логическое устройство
- •8.3. Системные шины и слоты расширения
- •Навигация по разделу
- •8.3.1. Шина расширения isa
- •8.3.2. Шина расширения pci
- •8.3.3. Шина расширения agp
- •8.3.4. Шина расширения pci Express
- •Описание протокола
- •Пропускная способность шины pci Express
- •8.4. Контрольные вопросы и задания
- •9.1. Классификация и основные параметры зу. Память
- •9.2. Оперативная память
- •9.3. Внешнее запоминающее устройство
- •9.4. Контрольные вопросы и задания
- •Способы воспроизведения звуков (виды синтезов). 10.1. Устройства ввода информации
- •10.2. Устройства вывода информации
- •10.3. Контрольные вопросы и задания
- •11.Введение
- •11.1. Классификация программного обеспечения
- •Базовый уровень
- •Системный уровень
- •Служебный уровень
- •Классификация служебных программных средств
- •Прикладной уровень
- •Классификация прикладного программного обеспечения
- •11.2. Контрольные вопросы и задания
- •12.1. Понятие и назначение операционной системы
- •12.2. Классификация программного обеспечения
- •12.3. Виды программного обеспечения и их характеристики
- •12.4. Контрольные вопросы и задания
- •13.1. Файловая структура. Общие сведения
- •13.2. Контрольные вопросы и задания
- •17.1. Формулы в ms Excel
- •Создание формулы
- •17.2. Работа со списками в ms Excel
- •Создание списка
- •Заполнение списка
- •Анализ данных
- •Консолидация данных
- •Сводная таблица
- •17.3. Создание диаграммы
- •17.4. Контрольные вопросы и задания
1.5. Контрольные вопросы и задания
|
|
Что такое «информатика»?
Что обозначает термин информатика?
Назовите основные направления информатики.
Что такое информация?
Назовите основные свойства информации.
Что такое сигнал, сообщение?
Какие сигналы называют дискретными?
Какие сигналы называют непрерывными?
Что такое данные?
В чем суть информатизации общества?
2.1. Формулы Хартли и Шеннона
← 1.5. Контрольные вопросы и задания |
2.2. Меры информации → |
Разработаны различные способы оценки количества информации.
В 1928 году американский инженер Ральф Хартли рассматривал процесс получения информации как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N.
Формула Хартли:
I = log2N.
В качестве примера использования формулы Хартли рассмотрим задачу. Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 = 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.
А теперь рассмотрим другую задачу: являются ли равновероятными сообщения «первой выйдет из дверей здания женщина» и «первым выйдет из дверей здания мужчина». Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то такая вероятность одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.
Для подобных задач американский ученый Клод Шеннон предложил в 1948 году другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.
Формула Шеннона:
I = - ( p1·log2p1 + p2·log2p2 + . . . + pN·log2pN),
где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.
Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли
2.2. Меры информации
← 2.1. Формулы Хартли и Шеннона |
2.3. Бит, байт и производные от них единицы → |
Навигация по разделу:
2.2.1. Синтаксическая мера информации
2.2.2. Семантическая мера информации
2.2.3. Прагматическая мера информации
Для измерения информации вводятся два параметра: количество информации I и объем данных Vд.
Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности.
Синтаксическая адекватность. Она отображает формально-структурные характеристики информации и не затрагивает ее смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т. п.
Информацию, рассматриваемую только с синтаксических позиций, обычно называют данными, так как при этом не имеет значения смысловая сторона.
Семантическая (смысловая) адекватность. Эта форма определяет степень соответствия образа объекта и самого объекта. Семантический аспект предполагает учет смыслового содержания информации. На этом уровне анализируются те сведения, которые отражает информация, рассматриваются смысловые связи. В информатике смысловые связи устанавливаются между кодами представления информации. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения.
Прагматическая (потребительская) адекватность. Она отражает отношение информации и ее потребителя, соответствие информации цели управления, которая на ее основе реализуется. Проявляются прагматические свойства информации только при наличии единства информации (объекта), пользователя и цели управления.
Прагматический аспект рассмотрения связан с ценностью, полезностью использования информации при выработке потребителем решения для достижения своей цели. С этой точки зрения анализируются потребительские свойства информации. Эта форма адекватности непосредственно связана с практическим использованием информации, с соответствием ее целевой функции деятельности системы.
Каждой форме адекватности соответствует своя мера количества информации и объема данных (рис. 2.1).
Рис. 2.1. Меры информации