Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ответы на вопросы по информатике.docx
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
270.71 Кб
Скачать
  1. Информация. Свойства. Формы представления.

Информация – это сведения об окружающем мире, которые являются объектом преобразования и используются для выработки поведения, для принятия решения, для управления или для обучения.

Будучи объектом преобразования и использования, информация характеризуется следующими свойствами:

  • синтаксис – свойство, определяющее способ представления информации на носителе (в сигнале). данная информация представлена на электронном носителе с помощью определенного шрифта. можно рассматривать такие параметры представления информации, как стиль и цвет шрифта, его размеры, междустрочный интервал и т.д

  • семантика – свойство, определяющее смысл информации как соответствие сигнала реальному миру. Так, семантика сигнала “информатика” заключается в данном ранее определении. Семантика может рассматриваться как некоторое соглашение, известное потребителю информации, о том, что означает каждый

  • прагматика – свойство, определяющее влияние информации на поведение потребителя. Так прагматика информации, получаемой читателем настоящего учебного пособия, заключается, по меньшей мере, в успешной сдаче экзамена по информатике.

Формы представления(способы кодирования) информации:

– разговорные языки (более 2000);

– язык мимики и жестов;

– язык рисунков и чертежей;

– научные языки (математики, программирования);

– языки искусства (музыка, живопись, скульптура);

– специальные языки (азбука Брайля, азбука Морзе, флажковая азбука).

Способы кодирования информации:

1) графический (с помощью рисунков, значков, схем, чертежей, графиков);

2) числовой (с помощью чисел);

3) символьный (с помощью символов того же алфавита, что и исходный текст).

  1. Формула Хартли, Шеннона. Единицы измерения информации.

В качестве единицы информации условились принять один бит.Бит в теории информации - количество информации, необходимое для различения двух равновероятных сообщений.

В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

Одним битом могут быть выражены два понятия: 0 или 1 (да или нет, черное или белое, истина или ложь и т.п.).

Если количество битов увеличить до двух, то уже можно выразить четыре различных понятия:

00 01 10 11

Тремя битами можно закодировать восемь различных значений:

000 001 010 011 100 101 110 111

Увеличивая на единицу количество разрядов в системе двоичного кодирования, мы увеличиваем в два раза количество значений, которое может быть выражено в данной системе, то есть общая формула имеет вид:

N=2m

где N - количество независимых кодируемых значений; m - разрядность двоичного кодирования, принятая в данной системе. Бит - слишком мелкая единица измерения. На практике чаще применяется более крупная единица - байт, равная восьми битам.

Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера: 256=2^8

Широко используются также ещё более крупные производные единицы информации:

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

Количество информации, которое вмещает один символ N-элементного алфавита, определяется по формуле Хартли:

N=2i

Формула Шеннона:

где I - количество информации;

N - количество возможных событий;

рi - вероятность i-го события.

Формула Хартли определяет количество информации, содержащееся в сообщении длины n.