Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Информатика / inf-ka_shpory.doc
Скачиваний:
67
Добавлен:
13.02.2015
Размер:
642.56 Кб
Скачать

1) Понятие инф-ии. Непрерывная и дискретная инф-ия. Системы счисления, формы представления инф-ии. Измерение и кодирование инф-ии. Формула Шеннона.

Инф-ия- это одно из фундаментальных понятий, наряду с такими, как вещество и энергия. Оно относится к числу фундаментальных в науке, носит философский характер и явл-ся предметом постоянных научных дискуссий. В науке и в практике известны различные подходы к инф-ции, и в рамках каждого из них дается определение этого поня­тия. Однако все выделяют общие св-ва инф-ции: Достоверность; Полнота; Актуальность; Ценность; Понятность; Объективность.

Сущ. 2 основных подхода к понятию инф-ции и оценке кол-ва инф-и:

1) субъективный = вероятностный = содержательный: инф-ция рассматривается с точки зрения ее роли в жизни и деятельности человека. В наиболее общем определении - это отражение предметного мира с помощью знаков и сигналов. Это знания, сведения, кот-ми обладает человек, кот. он получает из окружающего мира. В нем можно определить, какое сообщение более информативно, а какое менее. Информация рассматривается как знания: декларативные и процедурные. Данный подход дает определение бита, в дальнейшем используемое д. измерения инф-ции. i=log21/p, где i – кол-во инф-ции в сообщении о событии, p – вероятность события. i=1бит, если p=1/2. Но это очень узкий подход и работает только с равновероятными событиями.

2) объективный = кибернетический = алфавитный: И.-любая совокупность сигналов,воздействий или сведений,которые воспринимаются системой из окруж.среды,выдаются в нее,а также хранятся в себе. Именно этот подход позволяет создавать машины, работающие с инф-цией. Т.о. когда речь идет об автоматической передаче инф-ции, ее хранении и переработке, то инф-ция - это произвольная последовательность символов из некоторого алфавита; каждый новый символ при этом увеличивает количество инф-ции. В этом случае все виды ин­ф. процессов сво­дятся к действиям над символами, что и происходит в технич. системах. Кибернетический подход – это единственный способ измерения инф-ции, кот. может применяться по отношению к инф-ции, циркулирующей в инф. технике и компах. Кол-во инф-ии, кот. несет в тексте каждый символ (i), выч-ся из уравнения Хартли: 2i = N (Здесь i – инф-ционный вес символа, а N – число символов в алфавите, или мощность алф-та). Мин. мощность алф-та, пригодного д. передачи инф-ии, = 2. Такой алф-т называют 2-чным. Из формулы очевидно, что 1 символ 2-чного алф-та несет 1 бит инф-ции. Инф-цию принято представлять в виде языков, естественных и формальных [делятся на 1) языки информатики и 2) другие – муз., математич].

Разнообразие инф-ции отражается в двух формах - непрерывной и дискретной. Объекты и явления характ-ся значениями физич. вел-н (массой, температурой и т.д.). Природа некот. ве-н такова, что вел-на может принимать принципиально любые знач-я в каком-то диапазоне. Эти зн-я могут быть сколь угодно близки друг к другу, исчезающе малоразличимы, но все-таки, хотя бы в принципе, различаться, а кол-во зн-ий, кот. может принимать такая вел-на, бесконечно велико. Такие вел-ны наз-ся непрер. вел-нами, а инф-ция, кот-ю они несут в себе, непрер-ой инф-цией. Слово "непрерывность" отчетливо выделяет основное св-во таких вел-н - отсутствие разрывов, промежутков между значениями, кот. может принимать вел-на. Непрерывны физич. вел-ны.

Кроме непрер., сущ-ют иные вел-ны (например, количество людей в комнате, количество электронов в атоме и т.д.). Такого рода вел-ны могут принимать только целые зн-ия и не могут иметь дробных значений. Вел-ны, принимающие лишь вполне определенные зн-ия, наз-ют дискретными. Можно утверждать, что различие между двумя формами инф-ции обусловлено принципиальным различием природы вел-н. В то же время непрер. и дискр. инф-ция часто исп-ся совместно д. представления сведений об объектах и явлениях.

Что объединяет непрер. и дискр. вел-ны? В кач-ве простого примера рассмотрим весы. Масса тела, измеряемая на них, - вел-на непрер. по своей природе. Чтобы охаракт-ть массу, в весах традиционно исп-ся шкала. При этом масса будет характ-ся конечным, т.е. дискретн. набором значений. Таким образом, инф-ция о непрер. вел-не, массе тела, приобрела дискр. форму. Получим, что любую непрер. вел-ну можно представить в дискр. форме. Но по дискр. представлению восстановить непрер. вел-ну можно лишь приближенно.

Кроме рассмотренных существуют и другие формы представления дискр. инф-ции. Например, чертежи и схемы содержат в себе графическую инф-цию. Любая инф-ция хранится в виде кодов. Запись в тетради не что иное, как кодирование с помощью специальных символов букв, здесь система кодирования называется алфавит. Звуковую инф-ию можно записать с помощью нот.

Символьная инф-ция может представляться с исп-ием самых различных алфавитов без искажения содержания и смысла инф-ции: при необходимости можно изменять форму представления инф-ции - вместо общепринятого алфавита исп-ть какой-либо другой, искусственный алфавит, например, двухбуквенный. Форма представления инф-ции, отличная от естественной, общепринятой, называется кодом. Коды широко применяются в ЭВМ и в аппаратуре передачи данных.

Система счисления – это опред. способ представления чисел и соответствующие ему правила действия над числами. СС бывают позиционные и непозиционные. В непозиц. значение, кот. несет цифра в числе, не зависит от позиции этой цифры (римские числа). В позиционн. знач-е, кот несет каждая цифра числа, зависит не только от того, какая это цифра, но и от позиции, кот. она занимает в числе (арабск числа). Основанием СС наз-ся размер алфавита.

В основу кодирования в ЭВМ положена двоичная СС, так как технические устройства могут со 100% надежностью сохранять и распознавать не более 2х различных состояний. Для инженеров наиболее просто реализовать двоичный элемент: включено/выключено. Кроме того, в двоичной системе наиболее просто реализуются все операции. Цифровую инф-цию удобно кодировать, а значит удобно хранить и обрабатывать. Текстовую инф-цию принято кодировать с помощью кодов ASCII; цвет представляется в виде комбинации трёх основных цветов: красного, зелёного и синего, каждый из кот. кодируется 1 байтом. Звук кодируется путем разбиения сигнала по времени и регистрации его уровня в дискретные моменты.

Разработаны различные способы оценки количества инф-ции. В технике чаще всего используется способ оценки, предложенный в 1948 году основоположником теории инф-ции Клодом Шенноном.

Кол-во инф-ции I, харак-щей состояние, в кот. пребывает объект, можно определить, используя формулу Шеннона: I = -(p[1]*log(p[1])+p[2]*log(p[2])+...+p[n]*log(p[n])) n - число возможных состояний; p[1],...p[n] - вероятности отдельных состояний; log( ) - функция логарифма при основании 2.

H=-∫p(x)logp(x)dx (от ∞ до ∞) – формула Шеннона для непр.инф.

Единица инф-ции наз-ся битом, "Binary digiT". 1 бит инф-ции – кол-во инф-ции, посредством кот-го выделяется одно из двух равновероятных состояний объекта. Это наименьшая единица инф-ции в инф-ке. Формула Шеннона, в принципе, может быть использована и д. оценки кол-ва инф-ции в непрер. вел-нах. При оценке кол-ва дискр. инф-ции при равновероятных событиях часто используется также формула Хартли: 2i = N, где N - число возможных равновероятных состояний.

Соседние файлы в папке Информатика