Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Архитектура компьютера Тема1_Общ

.pdf
Скачиваний:
6
Добавлен:
01.04.2015
Размер:
245.47 Кб
Скачать

1

РАЗДЕЛ I

ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ В СОВРЕМЕННОМ -ОБ ЩЕСТВЕ

Тема 1 Информационные технологии: основные понятия, определения

и этапы развития

1.1 Основные понятия.

Ключевые понятия сферы информационных технологий проистекают из смыслового наполнения понятия«информация». Различные исследователи в зависимости от поставленных целей по-разному интерпретируют это понятие: от технократической трактовки информации как совокупности закодированных сведений, необходимых для принятия решений и их реализации, до её представления в качестве измерения. По замечанию академика Чернавского, 1 ни одно из многочисленных определений понятия «информация» нельзя считать общепринятым. В основу теории информации положены понятие сигнала и схема передачи сообщений, которые были сформулированы в теории связи, которая рассматривает сигнал рассматривается в качестве носителя информации с закодированными параметрами. В кибернетике под информацией понимается любая совокупность сигналов и сведений, которые воспринимаются и выдаются опреде-

лённой системой при её взаимодействии с окружающей средой или же хранятся и перерабатываются в ней. Общими характеристиками информа-

ции, при этом, считаются её количество, осмысленность, условность, ценность.

Определения информации и ряда связанных с ней базовых категорий фиксируется Федеральным законодательством, а в специальной литературе предлагается углублённое их изложение. В Таблице 1.1 приводится сопоставление определений информации, информационной технологии и информационной системы, данных Федеральным законом от 27.07.2006 № 149-ФЗ «Об информации, информационных технологиях и о защите информации» и её определений, упомянутых в источниках [11] и [13]. Последовательность представления формулировок отвечает статье2 названного Федерального закона.

1 Чернавский Дмитрий Сергеевич (1926), Главный научный сотрудник Физического института им. Лебедева РАН, Действительный член РАЕН.

2

Таблица 1.1 Сопоставление определений, данных Федеральным законом от 27.07.2006 № 149-ФЗ «Об информации, информационных технологиях и о защите информации» и определений данных в [11] и [13]

 

Определение соглас-

 

 

 

 

 

 

но статье 2 Феде-

 

Определение из источника [11] или [13]

 

рального закона от

 

 

 

 

 

 

 

 

 

 

27.07.2006 № 149-ФЗ

 

 

 

 

 

 

 

Информация

све-

 

Информация.

 

 

 

 

дения

(сообщения,

 

1.1 Обозначение содержания, полученного из

 

 

данные)

независимо

 

внешнего мира в процессе приспособления

к

 

от формы

их

пред-

нему человека и приспособления к нему чело-

 

 

ставления.

 

 

 

веческих чувств. (Н. Винер) [11]

 

 

 

 

 

 

 

1.2 Совокупность закодированных сведений,

 

 

 

 

 

 

 

необходимых для принятия решений и их реа-

 

 

 

 

 

 

 

лизации. [13]

 

 

 

 

 

 

 

 

 

1.3 Информация

снятая неопределённость

 

 

 

 

 

 

 

или результат выбора из возможных альтерна-

 

 

 

 

 

 

 

тив. (К. Шенон) [11]

 

 

1

 

 

 

 

 

1.4 Информация – сведения, воспринимаемые

 

 

 

 

 

 

человеком и (или) специальными устройствами

 

 

 

 

 

 

 

 

 

 

 

 

 

 

как отражение фактов материального или ду-

 

 

 

 

 

 

 

ховного

мира

в

процессе коммуникации.

 

 

 

 

 

 

(ГОСТ 7.0 – 99) [11]

 

 

 

 

 

 

 

 

Информация – объективное содержание связи

 

 

 

 

 

 

между

взаимодействующими материальными

 

 

 

 

 

 

объектами, проявляющееся в изменении состо-

 

 

 

 

 

 

яний этих объектов. (ВИНИТИ) [11]

 

 

 

 

 

 

1.6 Информация – это длина алгоритма, позво-

 

 

 

 

 

 

ляющего преобразовать один объект в другой,

 

 

 

 

 

 

то есть мера сложности объекта. (А. Н. Колмо-

 

 

 

 

 

 

горов) [11]

 

 

 

 

Информационные

 

Информационные технологии (ИТ): сово-

 

 

технологии

-

про-

 

купность методов, производственных процес-

 

цессы, методы поис-

 

сов и программно-технических средств, объ-

 

ка, сбора, хранения,

 

единённых в технологическую цепь, обеспечи-

2

обработки,

предо-

 

вающую

сбор, хранение, обработку, вывод и

 

ставления,

распро-

 

распространение информации. [13]

 

странения

информа-

 

 

 

 

 

 

 

ции и способы осу-

 

 

 

 

 

 

 

ществления

 

таких

 

 

 

 

 

 

процессов и методов.

 

 

 

 

 

 

 

 

 

 

 

3

 

 

 

 

 

 

Определение соглас-

 

 

но статье 2 Феде-

Определение из источника [11] или [13]

 

рального закона от

 

 

 

 

 

27.07.2006 № 149-ФЗ

 

 

 

Информационная

Информационная систем (ИС): совокуп-

 

 

система - совокуп-

ность устройств, обеспечивающих полное вы-

 

 

ность

содержащейся

полнение информационного процесса.

 

 

в базах

данных

-

инОбеспечение воспроизведения информации —

 

3

формации и обеспе-

обязательный и необходимый атрибут любой

 

 

чивающих

её

обра-

информационной системы.

 

 

ботку

информацион-

 

 

 

ных

технологий

и

 

 

технических средств.

 

 

При сопоставлении различных определений информации выделяются атрибутивная и функциональная концепции. Атрибутивная концепция рассматривает информацию как атрибут, присущий всем уровням материи, а функциональная — как функциональное качество самоорганизующихся систем. Онтологическое1 понимание информации подразумевает её принадлежность объективной действительности в качестве особого явления материального мира или функции высокоорганизованных систем. Методологическое2 понимание фиксирует информацию и как продукт познания, и как познавательный инструмент.

Упомянутые два подхода определяют деление свойств информации на атрибутивные свойства, имманентно присущие этому явлению, и прагматические свойства, характеризующие полезность информации. [11]

Атрибутивные свойства информации: непрерывность, дискрет-

ность символьного представления, неотделимость от физического носителя.

Прагматические свойства информации: смысловая наполненность,

новизна, полезность (снижение неопределённости), способность хранимой информации увеличиваться, полнота (достаточность для принятия решений или формирования новых данных), достоверность (чистота от посторонних сведений или«информационного шума»), адекватность (степень соответствия реальному состоянию объекта), доступность (возможность получения), актуальность (степень соответствия заданному периоду или моменту времени).

1Онтология: раздел философии, изучающий бытие.

2Методология: учение о методе научного познания; совокупность приёмов исследования в какой-либо области знаний.

4

Всвязи с определением информационной системы необходимо -от метить ряд принципиальных моментов.

Вразличных объектных и проблемных областях используются разные варианты понятия«система». Н. Винер1 основывал свой подход к определению категории «система» на исследованиях общности процессов

регулирования и информационного обмена в

среде автоматических

устройств и в животном мире, полагая, что основой

целенаправленного

«поведения» системы является кибернетический механизм обратной связи. Эти выводы позволили рассматривать любые, в том числе информационные, системы как самоорганизующиеся, благодаря чему стал возможен синергетический подход к описанию систем, в рамках которого причиной эволюции ценности информации считается неустойчивость состояний систем.

С понятием «информационная система», как видно из Таблицы1.1, неразрывно связана категория «информационный процесс»:

Информационный процесс: осуществление всей совокупности следующих элементарных информационных актов: приём или создание информации, её хранение, передача и использование. [13]

Кроме того, структура и взаимодействие устройств, составляющих любую информационную систему подчиняются единым принципам, зафиксированным в соответствующих стандартах. Поэтому архитектура информационной системы определяется как комплекс взаимоувязанных решений на базе основополагающих принципов выбора стандартов и технологий для создания взаимодействующих программ в информационной системе, а также для формирования требований к необходимым для разработки и функционирования этих программ технологическим, техническим и телекоммуникационным средствам и иным видам обеспечения. [13]

Интуитивно понятно, что информационный акт, например хранение информации, неосуществим в отрыве от информационного ресурса. В рамках настоящего пособия предлагаются три трактовки этого понятия.

Информационный ресурс: данные, преобразованные в форму, которая является значимой для принятия решений. [13]

Информационный ресурс: информация, созданная и (или) обнаруженная, зарегистрированная, оценённая, в соответствии с определёнными законами деградации и обновления. [13]

Информационный ресурс: совокупность информации, зафиксированной на материальном носителе в форме, обеспечивающей её передачу

впространстве и во времени.

1Норберт Винер (1894 - 1964), выдающий математик, основоположник кибер-

нетики.

5

Информационный ресурс имеет определённую структуру, задаваемую целью и методикой его создания и может оцениваться по его востребованности, по техническим (точность, достоверность) и экономическим характеристикам (стоимость получения и регистрации информации).

1.2 Некоторые виды информации

1.2.1Правовая информация: сведения о фактах, событиях, предметах, лицах, явлениях, протекающих в правовой сфере жизни общества, содержащихся как в нормах права, так и в других источниках, и используемые при решении правовых задач. [12]

Необходимость создания доступной для граждан государственной системы правовой информации зафиксирована в«Стратегии развития информационного общества в Российской Федерации», утверждённой Президентом Российской Федерации 7 февраля 2008 г. за № Пр-212.

1.2.2В системах организационного управления циркулирует экономическая информация, связанная с управлением коллективами людей, занятых производством продукции, работ и услуг, и техническая информация, связанная с управлением техническими объектами. [13]

Экономическая информация: совокупность сведений, отражающих социально-экономические процессы и служащих для управления этими процессами и коллективами людей в производственной и непроизводственной сферах. [11]

Обработка экономической информации характеризуется многократ-

ностью, цикличностью, преобладанием логических и арифметических операций.1

Специфичны физические носители экономической информации, её информационные ресурсы (например, первичные документы имеющие нормативно установленные формы).

1.2.3Техническая информация: данные, идентифицирующие технические объекты, определяющие их статические и динамические характеристики на основе наблюдения и измерения некоторых их параметров и внешних возмущающих воздействий.

Техническая информация – основа комплексной автоматизации производства, разработки и создания систем управления в различных отраслях.

Независимо от вида информации стоит вопрос об общем подходе к определению её количества для передачи, обработки и хранения.

1Некоторые аспекты обработки экономической информации предполагают использование методов высшей математики.

6

1.3 Некоторые аспекты теоретико-информационного подхода к решению задач передачи, обработки и хранения информации

1.3.1 Общие замечания Количественные закономерности процессов обработки, хранения и

передачи информации изучает теория информации. Эти процессы являются необходимыми условиями функционирования многих систем, предполагающего обмен информацией между звеньями системы. Очевидный пример: системы управления.

Важность применения теоретико-информационного подхода к разработке информационных технологий и построению информационных систем, решающих конкретные практические задачи передачи, обработки и хранения информации, была показана Норбертом Винером в1947 году в книге «Кибернетика», а затем, в 1967 году, Михаилом Бонгардом в книге «Проблема узнавания». Характерной чертой современного этапа развития теории информации является появление её новых приложений, моделей, алгоритмов. К таковым могут быть отнесены методы оценки функции плотности вероятностей в пространствах большой размерности по малым выборкам, поиск регуляризаторов для оценки редко наблюдаемых событий, решение проблем машинного обучения на основе моделей колмогоровской сложности. На основе теории информации решается ряд традиционных задач. Это, например, задачи сжатия и кодирования данных для их хранения или наиболее эффективной передачи в условиях отсутствия или наличия помех, оценки пропускной способности каналов передачи -ин формации, позволяющей исключить помехи и задержки. Важный сегмент теории: расчёт ёмкости запоминающих устройств, предназначенных для хранения информации, определение наиболее эффективных способов ввода данных в эти запоминающие устройства и их вывода. Примером решаемых теорией задач обработки информации могут служить актуальные в настоящее время исследования проблем возможности и оценки прогнозов.

Есть различные, дополняющие друг друга подходы к решению задач передачи, обработки и хранения информации. Например, один подход состоит в поиске наиболее простых и коротких описаний точных процедур, а другой подход сводится к поиску и обоснованию эффективных аппроксимаций сложных процедур. [15]

В связи с решением упомянутых задач возникает вопрос о возможности введения универсальной числовой меры для определения количества информации.1

1 «…по существу … вычисление и оценка количества информации при помощи предельных переходов совершенно тривиальны, если вести изложение в терминах нормированных булевых алгебр» А.Н. Колмогоров [14 с. 25]

7

1.3.2 Количество информации и энтропия Черты случайности, присущие характеристикам объектов, о которых

передаётся информация, и самому процессу передачи информации диктуют необходимость применения вероятностных методов при изучении теории информации и решении её задач и введения меры неопределённости состояния объекта.

Предметом информационного сообщения, как правило, выступает субъект или объект правовых, экономических или иных отношений, физическая, техническая, социальная, экономическая или иная система. Под предметом информационного сообщения в данном контекстеподразуме-

вается некоторое конечное множество элементов, связанных друг с дру-

гом некоторыми связями. Элементы и связи могут иметь разную природу, задающую тип предмета. Если бы состояние этого предмета было строго детерминировано, не возникала бы необходимость в передаче/ приёме информационного сообщения, следовательно, значимость сведений о предмете тем выше, чем большей степенью неопределённости характеризуются его состояния. Мерой такой неопределённости принято считать

энтропию – сумму произведений вероятностей различных состояний предмета на логарифмы этих вероятностей взятую с противополож-

( ) = − ∑

log

(1.1)

ным знаком1:

 

 

где pi – вероятность каждого отдельного состояния предмета информационного сообщения( ) =. 0

Такой выбор оправдан в силу ряда особенностей энтропии. Во-первых, тогда, когда одно из состояний( ) = предмета{ ( )} до-

стоверно, а другие невозможны, т.е. неопределённость отсутствует. Во-вторых, при заданном числе состояний то-

гда, когда состояния равновероятны2.

В-третьих, из формулы (1.1) очевидно, что при увеличении числа состояний энтропия увеличивается.

В-четвёртых, при объединении нескольких независимых предметов их энтропии складываются (свойство аддитивности).

Основанием логарифма в формуле(1.1), называемым единицей измерения энтропии, может быть любое числоa > 1: a = 10 называется десятичной единицей измерения, a = 2 – двоичной единицей. Двоичная еди-

2

,(

< 1) ( > 1) log < 0

 

( ) > 0

 

 

 

 

1

 

 

 

, поэтому, чтобы выполнялось условие

нужно перед знаком суммы поставить минус.

Один из путей доказательства этого факта– применение метода неопределённых множителей Лагранжа.

8

ница сочетается с двоичной системой счисления. Применимость последней в рассматриваемом аспекте объясняется тем, что многие (но далеко не все) сложные вопросы могут быть заменены последовательностями -би нарных «да / нет» вопросов. Поэтому в дальнейшем в этом пункте полагается a = 2.

Увеличение количества данных о предмете снижает степень неопределённости его состояний, то есть уменьшает энтропию. Значит, количество информации I(X) с полной определённостью описывающее состояние какого - либо предмета X можно считать равным энтропии этого предме-

та:

( ) = − ∑

log

 

 

 

 

 

 

(1.2)

 

Тогда каждое

отдельное

слагаемое

 

суммы (1.2) может

рассматриваться как

частная

информация

обi-ом частном состоянии

log

 

предмета сообщения.

 

 

 

 

 

В теории вероятностей сумма произведений всех возможных значе-

ний случайной величины на вероятности этих значений называется математическим ожиданием случайной величины и обозначается прописной латинской буквой M.1 Исходя из этого, сумму (1.2), представляющую количество информации о предмете информационного сообщения, принято называть математическим ожиданием логарифма вероятности состояния этого предмета( ) = [,взятогоlog (с противоположным)] знаком:

(1.3)

где X – состояние предмета информационного сообщения.

Формула (1.3) представляет простейший случай информации об одном предмете сообщения, характеризующимся набором независимых состояний. Теория информации отвечает и на более общие вопросы об -из мерении информации о системе из многих объектов с взаимозависимыми состояниями.

В известном труде академика Колмогорова[14] приводятся следующие наглядные рассуждения.

Пусть система всех случайных событий А, В, С, . . . является булевой алгеброй2 с операциями образования дополнительного элементаА',

1Понятие «математическое ожидание» сложнее, чем здесь изложено, но для целей настоящего пособия такой формулировки достаточно.

2Булева алгебра: множество, в котором определены две коммутативные, ассоциативные, взаимно дистрибутивные и поглощающие бинарные алгебраические опе-

 

 

 

 

 

9

соединения A

 

В и умножения АВ, единичным элементом Ε и нулевым

элементом 0.

Распределения вероятностей Р(А) являются определёнными

 

 

 

 

 

на неотрицательными

функциями, удовлетворяющими условию адди-

тивности

 

 

 

 

, если АВ = 0, и нормировки Р(Ε) = 1.

испытание» идентифицируется с понятием подалгебры алгебры

Понятие « (

 

) =

(

) + ( )

 

. Например,

подалгебра

состоит из всех событий, исход которых ста-

новится известным после совершения данного испытания. Если подалгеб-

ры и

конечны, то количество информации, содержащейся в результа-

тах испытания

относительно результатов испытания

, принято опре-

делять формулой Шеннона:

 

 

 

( ,

) = ∑

 

log

( )

(1.4)

Следует отметить, что кроме затронутого в этом подпункте вероятностного подхода к введению количественной меры информации в частности и основных понятий теории информации вообще, разработаны комбинаторные и алгоритмические их интерпретации. Комбинаторный подход в данном пособии не обсуждается, а об алгоритмах необходимо упомянуть ввиду их ключевой роли в разработке информационных технологий, построении и функционировании информационных систем.

1.3.3 Наглядное представление об алгоритме

1

Формулировка общего определения алгоритма в терминах более простых понятий выходит за рамки настоящего пособия, которое ограничивается лишь наглядным представлением об алгоритме как о точном предписании, задающем процесс обработки информации или, точнее, процесс преобразования состояний предмета информационного сообще-

ния. ПустьΓ предмет информационного ΓсообщенияX находится в некоем) исходном состоянии X0, принадлежащем области применимости алгоритма . [14] Применение алгоритма к предмету в исходном состоянии X0 доставляет заключительное состояние Xn, или решение.

Процесс применения алгоритма разбивается наn шагов ограниченной сложности. Каждый шаг приводит к преобразованию возникшего к этому шагу i-го состояния в последующееi+1-е состояние, i = 1, 2, … .

 

 

 

 

 

 

(

 

̅)

=

, выполнены условия

(

 

̅)

=

рации

и и унарная операция так, что при всех

1 В теории информации устанавливается связь между понятиями «алгоритм» и «частично рекурсивная функция». [14]

10

При этом преобразование осуществляется на основании информации о заранее ограниченной, так называемой активной частиi-го состояния, и

преобразование затрагивает только эту активную часть.

 

 

 

 

= Ω (

)

 

задаётся оператор

, то

Конечным набором правил алгоритма

 

 

 

 

 

 

в последу-

есть правило преобразования каждого предыдущего состоянияΩ (

)

ющее:

 

.

 

 

 

 

 

Алгоритмический процесс

 

 

,

и так

далее,

может иметь несколько исходов.

Заключительное состояние X (решение)

= Ω ( ),

= Ω ( )

 

n

 

является результатом выполнения всех n шагов алгоритма. Безрезультат-

ная остановка преобразований происходит,

если возникло i-е состояние,

для которого оператор

 

не определён;

в этом случае исходом, наря-

быть неограниченное продолжение процесса.

ду с остановкой, можетΩ (

)

 

 

Практическим воплощением затронутого в этом пункте теоретикоинформационного подхода к решению задач хранения, обработки и передачи информации являются информационные технологии и системы, которые, благодаря определённым свойствам информационных технологий, формируются на базе единых принципов.

1.4 Основные свойства информационных технологий и три принципа их формирования

1.4.1 Основные свойства информационных технологий.

Некоторые базовые свойства ИТ обуславливают техническую, экономическую и социальную эффективность их применения для решения задач хранения, обработки и передачи информации.

А) Возможность формализованного описания ИТ и представления этого описания в виде документов, оформленных в соответствии с действующими правилами и стандартами, что является особенно важным для проектирования, внедрения и модернизации информационных систем.

Б) Сравнительно низкие энергоёмкость и материалоёмкость.

В) Надёжность в смысле наличия таких обратных связей, которые позволяют эффективно выявлять и устранять допущенные при разработке, внедрении и модернизации ошибки.

Г) Надёжность в смысле эффективной реализации заданных функ-

ций.

Д) Защищённость от несанкционированных внешних воздействий. Е) Открытость и расширяемость, предполагающие интеграцию в ин-

формационную технологию, и, как следствие систему, новых для неё стандартных элементов и связей.