 
        
        - •1.2. Понятие информации
- •1.3. Сигналы и данные
- •1.4. Информатизация общества
- •1.5. Контрольные вопросы и задания
- •2.1. Формулы Хартли и Шеннона
- •2.2. Меры информации
- •Навигация по разделу:
- •2.2.1. Синтаксическая мера информации
- •2.2.2. Семантическая мера информации
- •2.2.3. Прагматическая мера информации
- •2.3. Бит, байт и производные от них единицы
- •2.4. Контрольные вопросы и задания
- •3.1. Позиционные системы счисления
- •3.2. Двоичная, восьмеричная и шестнадцатеричная системы счисления
- •3.3. Перевод чисел из десятичной системы в другую позиционную систему счисления и обратно
- •Навигация по разделу:
- •3.3.1. Перевод целого десятичного числа в другую позиционную систему счисления
- •3.3.2. Перевод правильной десятичной дроби в другую позиционную систему счисления
- •3.3.3. Перевод числа в десятичную систему счисления
- •3.4. Арифметические операции в позиционных системах счисления
- •3.4.1. Сложение
- •3.4.2. Вычитание
- •3.5. Контрольные вопросы и задания
- •777777888Найдите разность чисел в двоичном предс4.Введение
- •4.1. Представление целых чисел в компьютере
- •Навигация по разделу:
- •4.1.1. Форматы хранения целых чисел без знака
- •4.1.2. Форматы хранения целых чисел со знаком
- •4.2. Представление в компьютере вещественных чисел
- •Форматы хранения вещественных чисел
- •4.3. Представление в компьютере текстовой информации
- •4.4. Кодирование графической информации
- •0×00Bbggrr
- •4.5. Контрольные вопросы и задания
- •7.1. Основные этапы развития вычислительной техники
- •В ххi веке, когда на смену электронным приборам придут квантовые, оптические или биоэлектронные приборы, современные нам эвм будут казаться будущим пользователям такими же м7.2. Архитектура эвм
- •7.3. Принцип работы вычислительной системы
- •7.4. Контрольные вопросы и задания
- •8.1. Классификация эвм. Основные элементы пк и их назначение
- •8.2. Центральный процессор
- •Навигация по разделу:
- •8.2.1. История развития процессоров
- •8.2.2. Назначение и структура простейшего процессора
- •8.2.3. Принцип действия процессора
- •8.2.4. Арифметико-логическое устройство
- •8.3. Системные шины и слоты расширения
- •Навигация по разделу
- •8.3.1. Шина расширения isa
- •8.3.2. Шина расширения pci
- •8.3.3. Шина расширения agp
- •8.3.4. Шина расширения pci Express
- •Описание протокола
- •Пропускная способность шины pci Express
- •8.4. Контрольные вопросы и задания
- •9.1. Классификация и основные параметры зу. Память
- •9.2. Оперативная память
- •9.3. Внешнее запоминающее устройство
- •9.4. Контрольные вопросы и задания
- •Способы воспроизведения звуков (виды синтезов). 10.1. Устройства ввода информации
- •10.2. Устройства вывода информации
- •10.3. Контрольные вопросы и задания
- •11.Введение
- •11.1. Классификация программного обеспечения
- •Базовый уровень
- •Системный уровень
- •Служебный уровень
- •Классификация служебных программных средств
- •Прикладной уровень
- •Классификация прикладного программного обеспечения
- •11.2. Контрольные вопросы и задания
- •12.1. Понятие и назначение операционной системы
- •12.2. Классификация программного обеспечения
- •12.3. Виды программного обеспечения и их характеристики
- •12.4. Контрольные вопросы и задания
- •13.1. Файловая структура. Общие сведения
- •13.2. Контрольные вопросы и задания
- •17.1. Формулы в ms Excel
- •Создание формулы
- •17.2. Работа со списками в ms Excel
- •Создание списка
- •Заполнение списка
- •Анализ данных
- •Консолидация данных
- •Сводная таблица
- •17.3. Создание диаграммы
- •17.4. Контрольные вопросы и задания
1.5. Контрольные вопросы и задания
| 
 | 
 | 
- Что такое «информатика»? 
- Что обозначает термин информатика? 
- Назовите основные направления информатики. 
- Что такое информация? 
- Назовите основные свойства информации. 
- Что такое сигнал, сообщение? 
- Какие сигналы называют дискретными? 
- Какие сигналы называют непрерывными? 
- Что такое данные? 
- В чем суть информатизации общества? 
2.1. Формулы Хартли и Шеннона
| ← 1.5. Контрольные вопросы и задания | 2.2. Меры информации → | 
- Разработаны различные способы оценки количества информации. 
- В 1928 году американский инженер Ральф Хартли рассматривал процесс получения информации как выбор одного сообщения из конечного наперед заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N. 
- Формула Хартли: 
- I = log2N. 
- В качестве примера использования формулы Хартли рассмотрим задачу. Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 = 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации. 
- А теперь рассмотрим другую задачу: являются ли равновероятными сообщения «первой выйдет из дверей здания женщина» и «первым выйдет из дверей здания мужчина». Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то такая вероятность одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины. 
- Для подобных задач американский ученый Клод Шеннон предложил в 1948 году другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. 
- Формула Шеннона: 
- I = - ( p1·log2p1 + p2·log2p2 + . . . + pN·log2pN), 
- где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений. 
- Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли 
2.2. Меры информации
| ← 2.1. Формулы Хартли и Шеннона | 2.3. Бит, байт и производные от них единицы → | 
Навигация по разделу:
2.2.1. Синтаксическая мера информации
2.2.2. Семантическая мера информации
2.2.3. Прагматическая мера информации
Для измерения информации вводятся два параметра: количество информации I и объем данных Vд.
Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности.
Синтаксическая адекватность. Она отображает формально-структурные характеристики информации и не затрагивает ее смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т. п.
Информацию, рассматриваемую только с синтаксических позиций, обычно называют данными, так как при этом не имеет значения смысловая сторона.
Семантическая (смысловая) адекватность. Эта форма определяет степень соответствия образа объекта и самого объекта. Семантический аспект предполагает учет смыслового содержания информации. На этом уровне анализируются те сведения, которые отражает информация, рассматриваются смысловые связи. В информатике смысловые связи устанавливаются между кодами представления информации. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения.
Прагматическая (потребительская) адекватность. Она отражает отношение информации и ее потребителя, соответствие информации цели управления, которая на ее основе реализуется. Проявляются прагматические свойства информации только при наличии единства информации (объекта), пользователя и цели управления.
Прагматический аспект рассмотрения связан с ценностью, полезностью использования информации при выработке потребителем решения для достижения своей цели. С этой точки зрения анализируются потребительские свойства информации. Эта форма адекватности непосредственно связана с практическим использованием информации, с соответствием ее целевой функции деятельности системы.
Каждой форме адекватности соответствует своя мера количества информации и объема данных (рис. 2.1).

Рис. 2.1. Меры информации
