Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Chast_1-Osnovy_informatiki

.pdf
Скачиваний:
15
Добавлен:
09.06.2015
Размер:
967.67 Кб
Скачать

1 . Информационные процессы и средства их реализации

ГЛАВА 1

ИНФОРМАЦИОННЫЕ ПРОЦЕССЫ

ИСРЕДСТВА ИХ РЕАЛИЗАЦИИ

1.1.Основные понятия

Определение 1 . 1 . 1 . Вещь – это целостная и относительно устойчивая часть материального мира, существующая объективно, т. е. вне нас и независимо от нас, и отражающаяся в нашем сознании.

Определение 1 . 1 . 2 . Отношение – это одна из форм всеобщей взаимосвязи всех предметов, явлений, процессов в природе, обществе и мышлении.

Определение 1 . 1 . 3 . Предмет – это всякая материальная вещь, объект познания. Предмет существует вне и независимо от сознания и воспринимается органами наших чувств.

Вне и независимо от сознания существуют свойства вещей и отношения между вещами, поэтому свойства и отношения также могут рассматриваться как предметы, но в отличие от предмета как вещи они называются абстрактными предметами.

Определение 1 . 1 . 4 . Объект – это то, что существует вне нас и независимо от нашего сознания (внешний мир, действительность) и является предметом познания, практического воздействия.

Объектом познания может быть не только эмпирический объект, но и теоретический объект («точка» в геометрии), так называемая идеализация, которая в реальном мире не существует, но которая все же имеет в нем свой прообраз.

Определение 1 . 1 . 5 . Свойство – это то, что присуще предметам, что отличает их от других предметов или делает их похожими на другие предметы.

Каждый предмет обладает множеством свойств. Проявляются свойства в процессе взаимодействия предметов. Свойства делятся на существенные, без которых предмет существовать не может, и несущественные. Совокупность существенных свойств предмета выражает его качественную определенность. В практике различают также свойства общие и специфические, необходимые и случайные, внутренние и внешние и т. д.

6

1 . Информационные процессы и средства их реализации

Определение 1 . 1 . 6 . Сущность – это совокупность всех сторон и связей (законов), свойственных вещи, взятых в их естественной взаимозависимости, в их жизни.

Сущность всегда находится в единстве с явлением, ибо она в явлениях не только обнаруживается, но через явления существует, действует. Задача познания и состоит в том, чтобы от явления, лежащего на поверхности предмета, идти к сущности, к познанию закона.

Определение 1 . 1 . 7 . Явление – это обнаружение сущности предмета через свойства и отношения, доступные чувствам.

Сущность скрыта под поверхностью явлений, тогда как явления обнаруживаются непосредственно.

Определение 1 . 1 . 8 . Субстанция – это основа всего существующего, существенное в предметах и явлениях объективной действительности.

Определение 1 . 1 . 9 . Атрибут – это неотъемлемое, существенное, необходимое свойство, признак предмета или явления, без которого предмет или явление не могут существовать, быть самим собой; в отличие от случайных, преходящих, несущественных свойств, или акциденций.

Определение 1 . 1 . 1 0 . Акциденция – это изменчивое, преходящее, временное, несущественное, случайное свойство или состояние предмета, которое может быть абстрагировано и при этом сущность предмета не потерпит изменения.

Определение 1 . 1 . 1 1 . Знак – это материальный чувственновоспринимаемый объект, который символически, условно представляет и отсылает к обозначенному им предмету, явлению, действию или событию, свойству, связи или отношению предметов, явлений, действий или событий, сигнализирует о предмете, явлении, свойстве и т. п., который им обозначается.

Знак является основным понятием семиотики – науке о знаках и знаковых системах, а также о естественных и искусственных языках как знаковых системах. Семиотика изучает виды знаков (буквы, слова, графические изображения, сигналы и т. п.), закономерности их сочетаний в различных системах.

Знаки в определенных условиях (в совокупности образующих знаковую ситуацию) служат для представления информации на основе ассоциации, связи или по соглашению. Материализуя мысленные образы, знак дает возможность накоплять, хранить и передавать информацию.

7

1 . Информационные процессы и средства их реализации

Определение 1 . 1 . 1 2 . Символ – это чувственно-воспринимаемый объект, вещественный, письменный или звуковой знак, которым обозначается какое-либо понятие (идея, мысль), предмет, действие или событие.

Часто в информатике символ – это то же, что литера или элемент знаковой системы, представляемый словом из одной или нескольких литер.

Определение 1 . 1 . 1 3 . Алфавит – это всякое непустое конечное множество символов (знаков), которые расположены в строго определенном порядке.

Символы, входящие в алфавит, называются литерами (буквами), коли-

чество литер, входящих в алфавит, объемом алфавита, а конечная последо-

вательность символов алфавита – словом. При этом возможна пустая последовательность.

Определение 1 . 1 . 1 4 . Литера – это элемент алфавита. Определение 1 . 1 . 1 5 . Слово – это последовательность литер. Определение 1 . 1 . 1 6 . Сигнал – это условный знак, с помощью ко-

торого передаются какие-либо сведения, сообщения, указания, предупреждения и т. п. В информатике сигнал – это материальный процесс, несущий информацию, материальное воплощение информации.

Сигнал передается с помощью какого-либо материального канала связи (телефонного провода, радиоволн, воздуха и т. п.). Для сигнала характерно не непосредственное физическое воздействие, а действие информационное, обусловленное принятой системой кодирования, которая превращает материальный процесс (физический, химический и т. п.), материальный знак в сигналы.

Определение 1 . 1 . 1 7 . Данные – факты и идеи, представленные в формализованном виде, позволяющем передавать или обрабатывать эти факты или идеи при помощи некоторого процесса (и соответствующих технических средств).

В информатике формальную систему, используемую для выражения фактов и идей и обеспечивающую возможность их хранения, обработки или передачи, называют языком представления данных.

Данные обычно представлены на каких-либо носителях (бумаге, магнитной ленте и т. п.).

Определение 1 . 1 . 1 8 . Отражение – это всеобщее свойство материи, сущность которого состоит в том, что взаимодействующие друг с другом тела (органические или неорганические) посредством соответствующих внутренних изменений своих свойств и состояний более или менее

8

1 . Информационные процессы и средства их реализации

адекватно воспроизводят (отображают) в виде отпечатка, сдвига частиц, следа, образа и т. п. некоторые особенности, свойства и состояния воздействующих на них других материальных тел.

Если отражение рассматривать с позиции одной из взаимодействующих вещей, можно сказать, что отражение – это воспроизведение особенностей отражаемого предмета в соответствующих изменениях свойств и состояний отражающего предмета. Причем сам процесс отражения, возможный лишь в результате взаимодействия материальных тел, уже на самых низших ступенях развития материи представляет собой именно взаимоотражение тел.

Определение 1 . 1 . 1 9 . Информация – это одно из основных универсальных свойств предметов, явлений, процессов объективной действительности, человека и созданных им машин, заключающееся в способности воспринимать внутреннее состояние и воздействия окружающей среды и сохранять определенное время результаты восприятия, преобразовывать полученные сведения (данные) и передавать результаты обработки (преобразования) другим предметам, явлениям, процессам, машинам, людям.

Информация – это один из видов осуществления процесса отражения, которое является материальной базой возможности протекания информационных процессов. Информация – это отраженное разнообразие, которое отражающий объект получает от объекта отражаемого, и не только получает, но и преобразует в соответствии со своей внутренней организацией. И в этом смысле можно говорить, что информация носит объективный характер. Все материальные объекты и процессы являются источниками, носителями и потребителями разнообразной информации.

Определение 1 . 1 . 2 0 . Сообщение – это последовательность сигналов, передаваемых в процессе передачи информации от источника к получателю информации.

Источником информации потенциально может быть любой предмет или явление как живой, так и неживой природы. Некоторый объект является получателем информации, если приходящие от источника сигналы, являющиеся физическими носителями передаваемой информации, приводят к некоторому изменению состояния объекта. Передача информации – это реальный физический процесс, протекающий в среде, разделяющей источник и получатель.

Определение 1 . 1 . 2 1 . Код – это система условных знаков (символов) для передачи, обработки и хранения (запоминания) различной информации.

9

1 . Информационные процессы и средства их реализации

Конечная последовательность кодовых знаков называется словом. Число различных символов (составляющих алфавит кода), которые используются в словах данного кода, называют его основанием.

Определение 1 . 1 . 2 2 . Кодирование – это операция отождествления символов или групп символов одного кода с символами или группами символов другого кода.

Необходимость кодирования возникает, прежде всего, из потребности приспособить форму сообщения к данному каналу связи или какому-либо другому устройству, предназначенному для преобразования или хранения информации. Так, с помощью телеграфных кодов сообщения, представленные в виде последовательности букв, например, русского языка, и цифр, преобразуется в определенные комбинации электрических импульсов.

Определение 1 . 1 . 2 3 . Информатика – это наука, изучающая законы и методы накопления, передачи и обработки информации с помощью электронных вычислительных машин и включающая также изучение всех видов человеческой интеллектуальной деятельности, связанных с применением ЭВМ.

Как фундаментальная наука информатика связана с философией – через учение об информации как общенаучной категории и теорию познания; с математикой – через понятие математической модели, математическую логику и теорию алгоритмов; с лингвистикой – через учение о формальном языке

ио знаковых системах. Информатика также тесно связана с такими науками, как теория информации, кибернетика, системотехника.

Важнейшими методологическими принципами информатики являются изучение природного явления или поведения объекта как процесса обработки информации, а также признание единства законов обработки информации в искусственных, биологических и социальных системах.

Основными видами человеческой интеллектуальной деятельности, изучаемыми в информатике, являются: математическое моделирование (фиксация результатов познавательного процесса в виде математической модели); алгоритмизация (реализация причинно-следственных связей и других закономерностей в виде направленного процесса обработки информации по формальным правилам); программирование (реализация алгоритма на ЭВМ); выполнение вычислительного эксперимента (получение нового знания об изучаемом явлении или объекте с помощью вычислений на ЭВМ); наконец, решение конкретных задач, относящихся к кругу объектов и явлений, описанных исходной моделью.

10

1 . Информационные процессы и средства их реализации

Определение 1 . 1 . 2 4 . Информационная технология – это создаваемая прикладной информатикой совокупность систематических и массовых способов и приемов обработки, передачи и хранения информации во всех видах человеческой деятельности с использованием современных средств связи, вычислительной техники и программного обеспечения.

В основе информационной технологии лежат те или иные технические изобретения (печатный станок, телеграф, фотоаппарат, пишущая машинка, телефон, звукозапись, радио, телевизор, видеозапись и др.), которые со временем приводили к созданию социально-технических структур, удовлетворявших информационные потребности общества (книгопечатание, почта, электросвязь, радио- и телевещание, кинематограф, пресса, библиотечное и архивное дело).

Изобретение ЭВМ, в особенности микропроцессоров, привело к революционным изменениям информационных технологий. Компьютер и инфор- мационно-вычислительные сети посредством безнаборного способа печати, машинной графики, безбумажного способа делопроизводства, электронной почты, коллективно используемых банков данных, дистанционного образования и т. п. обеспечивают создание и развитие информационных технологий на принципиально новой технической базе. Это позволяет не только существенно повысить эффективность известных информационных технологий, но и является основой разработки и широкого использования новых информационных технологий.

1.2. Энтропия и информация

Главным свойством случайных событий является отсутствие полной уверенности в их наступлении, создающее известную неопределенность при выполнении связанных с этим событием опытов. Однако степень этой неопределенности в различных случаях будет разной. Для практики важно уметь численно оценивать степень неопределенности самых разнообразных опытов. Рассмотрим опыты, имеющие k равновероятных исходов. Очевидно, что степень неопределенности каждого такого опыта определяется числом k : если при k = 1 исход опыта вообще не является случайным, то при большом k , т. е. при наличии большого числа разных исходов, предсказание результата опыта становится весьма затруднительным. Таким образом, ясно, что искомая численная характеристика степени неопределенности должна

11

log k

1 . Информационные процессы и средства их реализации

зависеть от k , т. е. являться функцией f (k ) . При этом для k = 1 эта функция должна обращаться в нуль (ибо в этом случае неопределенность полностью отсутствует), а при возрастании числа k она должна возрастать.

Для более полного определения функции f (k ) надо предъявить к ней дополнительные требования. Рассмотрим два независимых опыта α и β

(т. е. такие два опыта, что любые сведения об исходе первого из них никак не меняют вероятностей исходов второго). Пусть опыт α имеет k равновероят-

ных исходов, а опыт β имеет l равновероятных исходов; рассмотрим также сложный опыт αβ , состоящий в одновременном выполнении опытов α и β .

Очевидно, что неопределенность опыта αβ больше неопределенности опыта

α , так как к неопределенности α здесь добавляется еще неопределенность исхода опыта β . Естественно считать, что степень неопределенности опыта

αβ равна сумме неопределенностей, характеризующих опыты α и β . А так

как опыт αβ имеет, очевидно, kl равновероятных исходов (они получаются,

если комбинировать каждый из k возможных исходов опыта α с l исхода-

ми β ), то мы приходим к следующему условию, которому должна удовле-

творять наша функция f (k ) :

f (kl ) = f (k ) + f (l ) .

Последнее условие приводит к мысли принять за меру неопределенно-

сти опыта, имеющего k равновероятных исходов, число (ибо

log(kl ) = log k + log l ). Такое определение меры неопределенности согласуется также с условиями, что при k = 1 она равна нулю и что при возрастании k она возрастает.

Заметим, что выбор основания системы логарифмов здесь несуществен, так как в силу известной формулы

logb k = logb a loga k

переход от одной системы логарифмов к другой сводится лишь к умножению функции f (k ) = log k на постоянный множитель (модуль перехода logb a ), т. е. равносилен простому изменению единицы измерения степени неопределенности. В конкретных применениях «меры степени неопределенности» обычно используются логарифмы при основании два (другими сло-

вами – считается, что f (k ) = log2 k ). Это означает, что за единицу измерения степени неопределенности здесь принимается неопределенность, содержащаяся в опыте, имеющем два равновероятных исхода (например, в опыте, состоящем из подбрасывания монеты и выяснении того, какая сторона ее ока-

12

1 . Информационные процессы и средства их реализации

залась сверху, или в выяснении ответа «да» или «нет» на вопрос, по поводу которого с равными основаниями можно ожидать, что ответ будет утвердительным или отрицательным). Такая единица измерения неопределенности называется двоичной единицей (сокращенно дв. ед.) или битом. В дальнейшем будут использоваться двоичные единицы (биты); таким обра-

зом, запись log k

(где, как правило, не будет указываться основание системы

логарифмов) будет обычно означать log2 k .

 

 

 

 

 

 

 

 

 

 

 

Таблица вероятностей для опыта, имеющего k

равновероятных исхо-

дов, имеет вид:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

исходы опыта

 

 

A1

 

A 2

 

A 3

 

K

 

Ak

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

вероятности

1

 

 

1

 

 

1

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

 

 

k

 

 

k

 

 

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Так как общая неопределенность опыта равна log k ,

то можно считать, что

каждый отдельный исход, имеющий вероятность

1

, вносит неопределен-

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ность, равную

1

log k = −

1

log

1

.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k

 

k

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Аналогично этому можно положить, что в общем случае, для опыта α с таблицей вероятностей

исходы опыта

A1

A 2

A 3

 

Ak

вероятности

p( A1 )

p( A 2 )

p( A 3 )

 

p( A k )

 

 

 

 

 

 

мера неопределенности равна

p( A1 ) log p( A1 ) p( A 2 ) log p( A 2 ) p( A3 ) log p( A3 ) − K − p( A k ) log p( A k ) .

Это последнее число будем называть энтропией опыта α и обозначать через

H (α) .

Так как p log p равно нулю лишь при p = 0 или p = 1, то ясно, что энтропия H (α) опыта α равна нулю лишь в том случае, когда одна из веро-

ятностей p( A1 ) , p( A 2 ) , , p( A k ) равна единице, а все остальные равны нулю (напоминаем, что p( A1 ) + p( A 2 ) + K + p( A k ) = 1). Это обстоятельство хорошо согласуется со смыслом величины H (α) как меры степени неопре-

деленности: действительно, только в этом случае опыт вообще не содержит

13

1 . Информационные процессы и средства их реализации

никакой неопределенности. Далее естественно считать, что среди всех опытов, имеющих k исходов, наиболее неопределенным является опыт,

имеющий k равновероятных исходов, этот опыт обозначим через α0 ; в этом случае предсказать исход опыта труднее всего. Этому отвечает то обстоя-

тельство, что опыт

α0 имеет наибольшую энтропию. Согласно

Р. Шеннону, исходу Ai

опыта α следует приписать неопределенность, рав-

ную log p( Ai ) . Далее в качестве меры неопределенности всего опыта α принимается среднее значение неопределенности отдельных исходов (т. е.

среднее значение случайной величины, принимающей значения log p( A1 ) ,

log p( A 2 ) , K, log p( A k ) с вероятностями p( A1 ) , p( A 2 ) , K, p( A k ) ; это среднее значение и равно H (α) ). Использование величины H (α) в качестве

меры неопределенности опыта α оказывается очень удобным для весьма многих целей. Реальная ценность понятия энтропии определяется в первую очередь тем, что выражаемая им «степень неопределенности» опытов оказывается во многих случаях именно той характеристикой, которая играет роль в разнообразных процессах, встречающихся в природе и технике и так или иначе связанных с передачей и хранением информации.

Пусть α и β – два независимых опыта с таблицами вероятностей:

опыт α

 

 

 

 

 

 

 

 

 

 

 

исходы опыта

 

A1

 

A 2

 

A 3

 

K

 

Ak

 

 

 

 

 

 

 

вероятности

 

p( A1 )

 

p( A 2 )

 

p( A 3 )

 

K

 

p( A k )

опыт β

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

исходы опыта

 

B 1

 

B 2

 

B 3

 

K

 

B l

 

 

 

 

 

 

 

вероятности

 

p( B 1 )

 

p( B 2 )

 

p( B 3 )

 

K

 

p( B l )

 

 

 

 

 

 

 

 

 

 

 

 

Рассмотрим сложный опыт αβ , состоящий в том, что одновременно осуществляются опыты α и β . Этот опыт может иметь kl исходов:

A1 B 1 , A1 B 2 , K, A1B l ; A 2 B 1 , A2 B 2 , K, A 2 B l ; K; Ak B1 , Ak B 2 , K, Ak B l ,

где, например, A1 B 1 означает, что опыт α имел исход A1 , а опыт β ис-

ход B1 . Очевидно, что неопределенность опыта αβ больше неопределенно-

14

1 . Информационные процессы и средства их реализации

сти каждого из опытов α и β , так как здесь осуществляются сразу оба эти опыта, каждый их которых может иметь разные исходы в зависимости от случая. Можно доказать справедливость равенства

H (αβ) = H (α) + H (β)

(правило сложения энтропий), которое хорошо согласуется со смыслом энтропии как меры неопределенности.

Предположим теперь, что опыты α и β не независимы. В этом

случае мы не можем ожидать, что энтропия сложного опыта αβ будет равна сумме энтропий опытов α и β . Определим, чему равна энтропия сложного опыта αβ .

H (αβ) = − p( A1B1 ) log p( A1B1 ) p( A1B2 ) log p( A1B2 ) − K− p( A1Bl ) log p( A1Bl )

p( A 2 B1 ) log p( A 2 B1 ) p( A 2 B2 ) log p( A 2 B2 ) − K − p( A 2 Bl ) log p( A 2 Bl ) − K K− p( Ak B1 ) log p( A k B1 ) p( A k B2 ) log p( Ak B2 ) − K− p( Ak Bl ) log p( Ak Bl ) ,

где через A1 , A 2 , K, Ak и B 1 , B 2 , K, B l

обозначены соответственно исхо-

ды опытов α и β .

Если в случае независимых опытов α и β вероятность

p( Ai B j ) = p( Ai ) p( B j ) , 1 i k ,

1 j l ,

то при зависимых опытах α и β

p( Ai B j ) = p( Ai ) p A

( B j ) , где p A

( B j ) условная вероятность собы-

 

i

i

 

тия B j при условии Ai . Сумма

p A i ( B1 ) log p A i ( B1 ) p Ai ( B2 ) log p A i ( B2 ) − K − p A i ( Bl ) log p A i ( Bl )

представляет собой энтропию опыта β при условии, что имело место собы-

тие Ai (энтропия опыта β зависит от исхода опыта α , так как от исхода α зависят вероятности отдельных исходов β ). Это выражение естественно на-

звать условной энтропией опыта β при условии Ai и обозначить через H A i (β) .

Используя условную энтропию опыта β , выражение для H (αβ) можно переписать в виде

H (αβ) = H (α) + { p( A1 )H A1 (β) + p( A 2 )H A 2 (β) + K + p( A k )H A k (β)} .

Первый член последнего выражения представляет собой энтропию опыта α . Что же касается второго, то это есть среднее значение случайной величины,

принимающей с вероятностями p( A1 ) , p( A 2 ) , K, p( A k ) значения H A1 (β) ,

15

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]