Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Информатика.docx
Скачиваний:
23
Добавлен:
12.03.2016
Размер:
98.34 Кб
Скачать

Свойства информации.

Корректность, полезность, оперативность, точность, достоверность, дискретность, устойчивость, достаточность.

Корректность – обеспечивает однозначное восприятие всеми потребителями.

Полезность(ценность) – проявляется в том случае, когда она способствует достижению стоящей перед потребителем цели. Ценность – относительное свойство: одна инф. имеет разную ценность для разных потребителей. С течением времени, ценность инф. убывает, однако стоит иметь в виду, что старит информацию не само время, а появление новой информации, которая отвергает имеющуюся, дополняет, уточняет её, даёт новое сочетание сведений, приводящее к получению дополнительного эффекта.

Оперативность – отражает актуальность инф. для необходимых расчетов и принятия решений в изменившихся условиях.

Точность – определяет допустимый уровень искажения, как исходный, так и результатной инф., при котором сохраняется эффективность функционирования системы.

Достоверность – определяется свойством информации отражать реально существующие объекты с необходимой точностью. Измеряется доверительной вероятностью необходимой точности, т.е. вероятности того, что отображаемая информацией значение параметра не отличается от истинного значения этого параметра в пределах необходимой точности.

Дискретность – см. ниже.

Устойчивость – отражается её способность реагировать на изменение исходных данных без нарушения необходимой точности. Устойчивость информации определяется выбранной методикой её отбора и формирования.

Достаточность(полнота) – означает, что инф. содержит минимально-необходимый объём сведений для принятия правильного решения. Неполная информация (недостаточная для принятия правильного решения) снижает эффективность принимаемых пользователем решений. Избыточность снижает оперативность принимаемых решений, затрудняет принятие решений, зато делает инф. более устойчивой.

При передачи инф. от источника к получателю используется некоторый носитель инф. Сообщение, передаваемое с помощью носителя, называют сигналом. Если при передаче сигнала одна из его характеристик(параметр сигнала) принимает конечное число значений, то такой сигнал, как и само сообщение, называют дискретным. Информация, передаваемая при этом, так-же будет дискретной (прерывной, имеющей конечный набор значений). Если при передаче источник вырабатывает непрерывное сообщение, то в этом случае передаваемая информация будет непрерывной. Пример: текстовая информация (набор букв конечен). Непрерывное сообщение всегда можно преобразовать в дискретное. Процесс преобразования называют дискретизацией. Пример: запись музыки в нотах. При дискретизации часть информации теряется. Обратный процесс (преобразование дискретной инф. в непрерывную), кроме того, информация может искажаться.

Измерение информации.

Вероятность – величина, которая может принимать значение в диапазоне от 0 до 1.

Вероятность есть мера возможности наступления события, которое может иметь в одних случаях и не иметь место в других. Если событие никогда не может произойтиЮ его вероятность считается равной нулю. Если событие происходит всегда, его вероятность равна единице. Чем больше вероятность события, тем больше уверенность в том, что оно произойдёт и тем меньше информации содержит сообщение об этом событии. Если вероятность события мала, то сообщение о том, что оно случилось – очень информативно.

Количество информации, характеризующей состояние, в котором пребывает объект, можно определить через Формула Шергана:

I=-(p1*logp1+p2*logp2+…+pn*logpn)

P– вероятности состояний

N– количество вероятностей

Минус нужен для положительных значений (в скобках отрицательное выражение)

Единица информации – бит (binarydigit). Понижает степень неопределённости вдвое. Количество информации, посредством которого выделяется одно из двух равновероятных состояний объекта.

Формула Шергана может быть использована для оценки количества информации в непрерывных величинах.

При оценке количества дискретной информации часто используется формула Хартли:

I=log2(n)

Кол-во информации зависит только от числа возможных равновероятных состояний объекта. Формула не всегда применима: события строго равновероятны.

В общем случае справедливо утверждение: количество информации в сообщении зависит от числа разнообразий, присущих источнику информации и их вероятностей.

Например, определим количество информации на один знак (т.е. содержащихся в каждом символе) при двоичном кодировании. Рассмотрим сообщение, состоящее из единиц и нулей. На каждой позиции может стоят один из двух символов, т.е. мы имеем два равновероятных состояния для каждого символа. По формуле Хартли, получаем:

I=log2(2)=1

Один бит информации. Значит, сообщение, длиной nсимволов содержитnбит информации.

В вычислительной технике, при определении кол-ва информации, чаще используется объёмный подход, суть которого в следующем. Создатели компьютеров отдают предпочтение именно двоичной системе счисления, потому что в техническом устройстве наиболее просто реализовать два противоположных технических состояния (идёт ток или нет, намагниченность). В компьютере, бит является наименьшей возможной единицей информации. Объём информации, записанной двоичными знаками в памяти компьютера, измеряется по количеству затраченных символов. При этом невозможно нецелое число бит (в отличие от вероятностного подхода).

И так, если у нас есть один бит информации, то с его помощью можно закодировать один из двух символов. Двумя битами можно составить четыре различных вариантов кодов (00, 01, 10, 11). Три бита дают 23 вариантов.

Если есть nбит, то с их помощью можно составить 2nвариантов сообщений.

В обычной жизни нам достаточно 150-160 стандартных символов. Русский, литинский алфавиты, цифры, знаки препинания, арифметика, большие буквы. Семи бит будет недостаточно, необходимо восемь бит (256 вариантов). ASCIIкод (Американский стандартный код для обмена информацией). Каждому символу «аскии» соответствует восьмибитный двоичный код.

Для удобства введены более крупные единицы.

Байт (8 бит)

Килобайт (1024 байт)

Мегатайт (1024 килобайт = 2^20 байт)

Гигобайт

Терабайт

Скорость передачи информации по линиям связи измеряется в бодах.

1 бод = 1 бит/сек.

Соотношение между вероятностным и объёмным количествами информации – не однозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объёма информации в вероятностном смысле.

Если некоторое сообщение допускает измеримость кол-ва информации в обоих смыслах, то они не обязательно совпадают. При этом, вероятностное количество информации не может быть больше объёмного.

Системы счисления.

Совокупность приёмов и правил для записи чисел другими знаками и символами.

Все системы счисления делятся на два класса:

  • Позиционные

  • Непозиционные

Позиционные. Используют некоторое количество отличных друг от друга знаков.

Количество таких знаков называется основанием системы счисления.

В позиционной системе счисления, относительной позиции цифры в числе ставится в соответствии весовой множитель. И число может быть представлено в виде суммы произведений коэффициентов на соответствующую степень основания системы счисления (весовой множитель). Например:

2015 = 5*100+ 1*101+ 0+102+ 2*103

2015 = 5*100+1*101+0*102+2*103

538 = 8*100+3*101+5*102

110111001 = 1*23+1*24+1*25+0*26+1*27= 1+8+16+32+128+256 = 441

В общем виде в системе счисления с основанием Р:

… А3А2А1А0, В1В2В3… = (А0*р0 + А1*р1 + А2р2 + …) + (В1-1+ В2р-2+ …)

А3А2А1А0 – целая часть

В1В2В3– дробная часть

При работе с компьютерами приходится параллельно использовать несколько позиционных систем счисления. Двоичную, десятичную, восьмиричную и шестнадцатиричную системы – чаще всего. По этому большое практическое значение имеют процедуры перевода чисел из одной системы в другую.

Переведём 16-ричное число.

D8FE816= 8*160+E*161+F*162+ 6*163+D*164

A = 10

B = 11

C = 12

D = 13

E = 14

F = 15

В общем случае, чтобы перевести целую часть числа из десятичной системы в систему с основанием P, необходимо разделить её наP. Остаток даст младший разряд числа. Полученное при этом частное необходимо вновь разделить наP, остаток даст следующий разряд числа. Деления продолжают до тех пор, пока частное не станет равным нулю. Значения получившихся остатков, взятые в обратной последовательности образуют искомое число. Для перевода дробной части, её необходимо умножить наP, целая часть произведения будет первым после запятой знаком. Дробную часть произведения необходимо вновь умножить наP, целая часть полученного – следующий знак.

3,21748 = 3*80+ 2*8-1+ 1*8-2+ 7*8-3+ 4*8-4= …

Конечная десятичная дробь при переводе в другую систему счисления может превратиться в бесконечную.

Универсальный способ извлечения

23 декабря- учимся. Пишем на лекции письменную работу на 10 баллов.

Кроме рассмотренных позиционных систем счисления, существуют такие, в которых значение знака не зависит от того места, которое он занимает в числе.

Такие системы счисления называются непозицонными. Наиболее известный пример – римская система. В этой системе используется семь знаков, которые соответствуют следующим величинам.

I= 1

V= 5

X= 10

L= 50

C= 100

D= 500

M= 1000

Недостатком непозиционных систем является отсутствие формальных правил записи чисел и арифметических действий над ними. В связи с этим, непозиционные системы представляют лишь исторический интерес.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]