Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

lek2010

.pdf
Скачиваний:
25
Добавлен:
03.03.2015
Размер:
3.97 Mб
Скачать
Рис.1.8 Аналоговый сигнал

1.7. Структура информационного процесса.

При переносе информации в виде сигнала от источника к потребителю, она проходит последовательно следующие фазы (говорят – фазы обращения), составляющие информационный процесс:

1.Восприятие (если фаза реализуется технической системой) или сбор (если фаза реализуется человеком) – осуществляет отображение источника информации в сигнал. Здесь определяются качественные и количественные характеристики источника, существенные для решения задач потребителя информации, для чего и собирается информация. Совокупность этих характеристик создает образ источника, который фиксируется в виде сигнала на носителе той или иной природы (бумажном, электронном или любом другом).

2.Передача – перенос информации в виде сигнала в пространстве посредством физических сред любой природы. Включается в информационный процесс, если места сбора или восприятия информации территориально разобщены с местом обработки сигнала либо если место обработки сигнала отстоит от места представления или воздействия на потребителя информации.

3.Обработка – любое преобразование информации с целью решения определенных функциональных задач (они определяются потребителем информации). Данная фаза может включать хранение информации как перенос ее во времени.

4.Представление (если потребителем информации является человек) или воздействие (если потребителем является техническая система). В первом случае выполняется подготовка информации к виду, удобному для потребителя (графики, тексты, диаграммы, таблицы и т.д.). Во втором случае вырабатываются управляющие воздействия на технические средства.

1.8.Информация в технических устройствах и системах

Всуществующих на сегодняшний день разнообразных технических устройствах и системах прием, обработка и передача информации осуществляется с помощью сигналов. Сигналы отражают физические характеристики изучаемых объектов и процессов. Посредством сигналов информация может передаваться как на очень короткие расстояния, например, от одного узла устройства к другому, так и на очень большие, расположенные в разных точках Земного шара. Кроме этого, информация в виде сигнала может различным образом перерабатываться, сохраняться, уничтожаться и т. п.

На сегодняшний день различают несколько видов сигналов. Это, например, звуковые сигналы, или световые сигналы. Но наибольшее распространение в современных технических устройствах получили электрические сигналы, для них созданы наилучшие технические средства обработки, хранения и передачи.

При передаче информации посредством электрического сигнала значение информации, заключенной в этом сигнале, выражается в параметрах электрического тока - в силе тока и напряжении. При этом информация, переносимая таким сигналом, может быть самой разнообразной.

Существующие в технических устройствах сигналы де-

лятся на непрерывные (или аналоговые) и дискретные.

Непрерывность сигнала означает возможность его изменения на любую малую величину в любой заданный малый промежуток времени (рис. 1.8).

Непрерывный сигнал. Образование аналогового сигнала происходит, например, при получении первичной информации с датчиков, связанных с изучаемым объектом или

внешней средой. Полученный аналоговый сигнал, как правило, требует дальнейшей его обработки. Это может быть передача, преобразование или сохранение.

Примером аналоговой передачи сигнала является передача речевой информации по телефонным проводам.

 

 

При телефонных переговорах поступающая речевая информация преоб-

 

 

разуется в аналоговые электрические сигналы, которые по проводам пе-

 

 

редаются абоненту, а затем обратно преобразуются в речевую инфор-

 

 

мацию. В этом случае никакой обработки сигнала не производится, толь-

 

 

ко небольшое усиление, которое просто предотвращает затухание сиг-

 

 

нала.

 

 

Аналоговое сохранение информации является также довольно рас-

 

 

пространенным явлением. Это, например запись звукового сигнала на

 

 

магнитофонную ленту.

 

 

До семидесятых годов ХХ века технические устройства работали

 

 

только с аналоговыми сигналами. Аналоговыми являлись и способы их

 

 

обработки. Это означало, что обработка сигнала проводилась на непре-

 

 

рывном интервале времени (иными словами - в каждый малый промежу-

 

 

ток времени). А в результате такой обработки получался также аналого-

 

 

вый сигнал (рис. 1.9).

 

 

С появлением в семидесятых годах ХХ века микропроцессора - ос-

 

 

новного элемента ЭВМ, а также микросхем с высокой степенью интегра-

Рис.1.9 Преобразование аналогового

ции, стали получать распространение дискретные и цифровые сигналы,

а вместе с ними и соответствующие способы их обработки.

 

сигнала

11

 

 

 

Рис. 1.11 Цифровой сигнал
Рис. 1.10. Дискретный сигнал

Говоря о непрерывности сигнала, мы рассматривали непрерывный промежуток времени, на котором может изменяться сигнал.

Дискретность же сигнала означает возможность его измерения только на конечном отрезке, в строго определенные моменты времени. Следовательно, и сам сигнал представляет собой уже не непрерывную функцию, а последовательностью дискретных значений (рис. 1.10).

Как видно из рис. 1.10 дискретные значения функции, полученные в дискретные моменты времени, имеют приближенные числовые значения.

Взависимости от решаемой задачи, эти значения могут быть зафиксированы только в данных временных точках, а могут сохранять свое значение в промежутке от данной до следующей точки измерения.

Вслучае, когда наличие приближенных значений не удовлетворяет поставленной задаче, производят округление имеющихся значений с заданной степенью точности. И тогда уже вместо приближенных значений получаются определенные конечные числовые значения (рис. 1.11).

Дискретный сигнал, значения которого выражены определенными конечными числами, называется цифровым.

Для обработки, хранения, передачи цифровых сигналов также существуют специальные технические устройства. Бурное развитие вычислительной техники, средств телекоммуникации непосредственно связано с обработкой именно цифровых сигналов, поскольку цифровая связь имеет множество преимуществ по сравнению с аналоговой.

Широкое применение цифрового способа хранения информации находит запись различного рода информации на аудио- и видео- компакт-дисках (CD-ROM).

С цифровой передачей данных мы сталкиваемся при обмене информацией между компьютерами с помощью модема или при работе с факсимильными средствами связи.

Несмотря на то, что цифровая обработка информации приобретает все большее распространение, отказаться от аналоговой невозможно. Остается достаточно много систем и устройств, в которых информация может передаваться только в виде аналогового сигнала. В связи с этим ищутся новые способы преобразования аналогового сигнала в цифровой и наоборот.

Очевидно, что при преобразовании исходного аналогового сигнала в цифровой, появляется определенная погрешность. Однако, увеличивая число отрезков по оси времени и функции сигнала, можно достичь уменьшения погрешности. Использование современных высокоскоростных технических средств обработки и хранения цифровых сигналов позволяет значительно упростить и удешевить процесс преобразования аналогового сигнала в цифровой. А также устранить недостатки, присущие аналоговой передаче сигнала, например, влияние шумов, и получить ряд важных преимуществ.

1.9. Как измеряется количество информации?

Понятие количества информации связано с классификацией информации по метрически свойствам. По метрически свойствам информацию можно разделить на три группы: параметрическую топологическую и абстрактную. Переход от одной группы к другой связан со сложностью информационного содержания сообщений.

Под параметрической информацией понимают множество численных оценок параметров объекта, например, тактовая частота, разрядность, рабочее напряжение, объем кэш-памяти для процессоров.

Топологическая информация использует более обобщенные понятия, такие как образы или ситуации. При передаче топологической информации конкретный вид сообщения характеризует не величину, а целое множество определенным образом упорядоченных величин. Например, передача по информационному каналу значений полуосей эллипса аналогична передаче конкретного эллипса.

Абстрактная информация является предельным случаем обобщения и служит для теоретических исследований общих свойств информации вне ее конкретного содержания.

Параметрическая информация может быть представлена одним из четырех видов: событие, величина,

функция и комплекс.

Событие - простейшая форма параметрической информации, представляет собой выбор из двух ситуаций: “событие произошло”, “событие не произошло”.

Величина “x” является обобщенным понятием “событие ” и представляет собой упорядоченное в некотором направлении множество событий. Событие всегда дискретно, величина же может быть как дискретной, если множество событий счетно, так и непрерывной.

Функция x(t) является математическим отражением связи, т.е. соответствует значениям двух множеств вели-

чин {x} и {t}.

Комплекс – самый общий вид параметрической информации, он отображает зависимость исследуемой величины сразу от группы параметров, например, x(t,y, z).

Геометрически событие может быть задано точкой, величина – отрезком, функция двумерной кривой, комплекс – поверхностью в пространстве с осями t, y, z.

12

Для установления меры информации, т.е. указания единицы и способа ее измерения информационной мощности сообщения существуют три основных подхода (теории): структурная, статистическая и семантическая теории.

Подходы к определению количества информации. Формулы Хартли и Шеннона.

В определенных, весьма широких условиях можно пренебречь качественными особенностями информации, выразить её количество числом, а также сравнить количество информации, содержащееся в различных группах данных. Структурная и статистическая теории, рассматривают информацию без оценки ее содержания.

Структурная теория связана с механической передачей или размещением информации. Она применяется во многих технических разработках, например при проектировании устройств, хранящих и обрабатывающих информацию. Обычно применяют три вида структурных мер: геометрическую, комбинаторную и аддитивную.

Геометрическая мера. За единицу информации принимается наименьшая измеримая часть информации (квант). Например, при записи на магнитную ленту за единицу принимается отрезок, равный разрешающей способности системы, т.е. расстояние на котором удается отличить запись одного элементарного сигнала от другого. Эта величина, в свою очередь зависит от свойств самого носителя (магнитной ленты) и характеристик аппаратуры записи/считывания информации.

При величине разрешения ∆x и длине всей ленты X, количество информации N, записанное на магнитной

ленте будет: N x X x .

При записи информации на гибкий магнитный диск, квант информации может быть измерен в двух измерениях - ∆x и ∆y. Тогда количество информации, которое можно разместить в устройстве с линейными размерами X и

Y, можно определить как N xy X x * Y y .

При объемном расположении информации, получим N xyz X x * Y y * Z z , где X,Y,Z – размеры устрой-

ства по трем осям.

Комбинаторная мера является развитием геометрической меры. Для измерении информации здесь используется одновременно несколько различных мер. Отдельные, отличающиеся друг от друга меры, называются символами или буквами, а вся их совокупность – алфавитом. Алфавит характеризуется своим объемом или количеством входящих в него букв. Объем алфавита обозначим буквой n. Для простоты будем считать, что все слова составлены из одинакового количества знаков. Число знаков назовем длиной слова и обозначим буквой m. Рассмотрим задачу заполнения m последовательно расположенных ячеек n знаками данного алфавита. Тогда мак-

симальное число различных кодовых комбинаций (размещений с повторениями) будет Nmax nm .

Комбинаторные меры рассматриваются для различных способов соединения элементов, кроме рассмотрен-

ного выше размещения с повторениями, возможны размещения без повторений, перестановки, сочетания и

т.д. Рассмотрим некоторые из них.

Размещением называется процесс последовательного заполнения m ячеек буквами из алфавита объемом n.

Размещения могут быть двух видов: размещения без повторений и размещения с повторениями.

Размещения без повторений. Подсчитаем число A различных слов, которые можно образовать, не допуская повторения в слове одинаковых букв, оно определяется так: для замещения первой ячейки имеется n вариантов, для заполнения второй ячейки (n-1) вариантов, т.к. одна ячейка уже использована, для третьей (n-2) и т.д. Повторяя процедуру m раз получим

Аnmб / п n(n 1)(n 2)(n 3)....(n m 1) .

Размещения с повторениями. При подсчете числа размещений с повторениями учитываем, что для заполнения любой ячейки кодовой комбинацией существует n вариантов, поэтому

Аnm с / п n n n....n nm .

Число размещений с повторениями дает максимальное число различных кодовых комбинаций, которое можно образовать на длине слова m, используя алфавит объемом n. Поэтому при многих выводах и оценках, где необходимо рассчитать максимальные значения величин передаваемой информации, используется соотношение:

Nmax nm .

Перестановки можно рассматривать как вид размещения при условии, что длина кодового слова равна объему алфавита, n=m. В этом случае все кодовые слова будут отличатся друг от друга только порядком расположения элементов на длине слова.

Для подсчета числа перестановок без повторений Pб/п можно использовать соответствующую формулу для числа размещений, положив n=m. Тогда получим:

/ п n(n 1)(n 2)...3 2 1 1 2 3...(n 2)(n 1)n n! .

Перестановки без повторений. Пусть для n букв алфавита a,b,c,…,z заданы величины повторяемости na , nb , nc ,..., nz , означающие, что буква a повторяется в слове na раз b nb раз и т.д. Объем алфавита тогда бу-

дет равен величине

n` na nb nc ... nz .

Если бы все буквы в слове были бы различны, то число перестановок было бы равно величине n!. Однако, из этого числа мы должны исключить перестановки, связанные с заменой одной буквы на такую же букву, но стоя-

13

na !nb !nc !...nz !

щую в другой ячейке. Очевидно, что для буквы a число таких перестановок, не меняющих вид кодового слова, будет na !, а для буквы b - nb ! и т.д. Поэтому действительное число перестановок с повторением будет равно

/ п (na nb nc ... nz )! .

Комбинации символов, называемые сочетаниями, отличаются только символами, но не порядком их расположения в сообщении. Поэтому число сочетаний без повторений будет меньше числа размещений на число возможных перестановок внутри кодового слова m, т.е.

C m б / п

n(n 1)(n 2)(n 3)...(n m 1)

,

 

n

m!

 

 

 

если умножим числитель и знаменатель на величину (n-m)! Получим

C m б / п

n!

.

 

 

 

 

n

m!(n m)!

 

 

 

Сочетания с повторениями. Пусть на длине слова m необходимо разместить n различных символов, причем каждый символ может повторятся вплоть до величины m. Тогда эту задачу можно свести к задаче определения числа перестановок из m+(n-1) элементов с повторением, т.к величина (n-1), характеризующая число разделительных линий между группами одинаковых символов (но не занимающих ячеек), может рассматриваться как добавление в алфавит еще одного символа кратности (n-1). Тогда

C m с / п C m

 

(m n 1)!

.

 

n

n (m 1)

 

m!(n 1)!

 

 

 

Аддитивная мера

Аддитивность свойство величин, состоящее в том, что значение величины, соответствующее целому объекту, равно сумме значений величин, соответствующих его частям при любом разбиении объекта на части. В 1928г. Р. Хартли предложил для измерения количества информации I следующую формулу: I=logN (формула Хартли), а

при Nmax nm I=m log n, где n – алфавит, а m – длина слова. В качестве основания логарифма может быть ис-

пользовано число 2 (в этом случае единица количества информации называется бит) или число 10 (единица количества информаций, по аналогии с битом называется дит).

Статистическая теория

Статистическая теория связана с вероятностной (статистической) оценкой принятых сообщений.

Считается, что сообщение не принесло никакой новой информации (I = 0), если полученные сведения уже были ранее известны. Сообщение содержит определенное количество информации (I > 0), если оно добавляет что-то новое к нашим знаниям (уменьшает наше незнание, снимает неопределенность).

При этом количество информации тем больше, чем неожиданней пришедшее сообщение:

I=H(1)-H(2),

где Н(1) - величина, характеризующая степень нашего незнания об исследуемом предмете до получения сообщения;

Н(2) - степень незнания после получения сообщения.

Пусть имеется система, которая может находиться в n различных состояниях. Вероятность нахождения этой системы в i-м состоянии – величина pi (i = 1,2, ..., n). Тогда мера неопределенности, называемая энтропией системы, выглядит следующим образом:

Данное выражение, принимаемое здесь без доказательств, называется формулой Шеннона.

В случае равновероятных состояний системы, можно заметить, что формула Шеннона превращается в формулу Хартли.

,

получим

Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = lоg2100 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации.

Вкачестве единицы информации Клод Шеннон предложил принять один бит (англ. bit - binаry digit - двоичная цифра).

Бит в теории информации - количество информации, необходимое для различения двух равновероятных сообщений (типа "орел"-"решка", "чет"-"нечет" и т.п.).

Ввычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

14

Бит - слишком мелкая единица измерения. На практике чаще применяется более крупная единица - байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также ещё более крупные производные единицы информации:

1 Килобайт (Кбайт) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

Впоследнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

1.10. Что можно делать с информацией?

Информацию можно:

 

 

 

 

 

 

создавать;

 

формализовать;

 

собирать;

 

передавать;

 

распространять;

 

хранить;

 

воспринимать;

 

преобразовывать;

 

искать;

 

использовать;

 

комбинировать;

 

измерять;

 

запоминать;

 

обрабатывать;

 

разрушать;

 

принимать;

 

делить на части;

 

и др.

 

копировать;

 

упрощать;

 

 

Все эти процессы, связанные с определенными операциями над информацией, называются информацион-

ными процессами.

Данные являются составной частью информации и представляют собой зарегистрированные сигналы.

Во время информационного процесса данные преобразуются из одного вида в другой при помощи различных методов.

1.11. Какими свойствами обладает информация?

Свойства информации:

 

 

 

 

достоверность;

 

понятность;

 

полнота;

 

доступность;

 

ценность;

 

краткость;

 

своевременность;

 

и др.

Информация достоверна, если она отражает истинное положение дел. Недостоверная информация мо-

жет привести к неправильному пониманию или принятию неправильных решений.

Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел.

Информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избы-

точная информация сдерживает принятие решений или может повлечь ошибки.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

Ценность информации зависит от того, насколько она важна для решения задачи, а также от того,

насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека.

Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежела-

тельны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка. Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной. Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена

эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по разному излагаются в школьных учебниках и научных изданиях.

Информацию по одному и тому же вопросу можно изложить кратко (сжато, без несущественных дета-

лей) или пространно (подробно, многословно). Краткость информации необходима в справочниках, энциклопедиях, учебниках, всевозможных инструкциях.

Качество информации является одним из важнейших параметров для потребителя информации. Оно

определяется следующими характеристиками:

1.репрезентативность – правильность отбора информации в целях адекватного отражения источника информации. Например, в целях большей репрезентативности данных о себе абитуриенты стремятся представить в приемную комиссию как можно больше свидетельств, дипломов, удостоверений и другой информации, подтверждающей их высокий уровень подготовки, что учитывается при зачислении в ВУЗ;

2.содержательность – семантическая емкость информации. Рассчитывается как отношение количества семантической информации к ее количеству в геометрической мере. Это характеристика сигнала, про который говорят, что «мыслям в нем тесно, а словам просторно». В целях увеличения содержательности сигнала, например, используют для характеристики успеваемости абитуриента не полный перечень его аттестационных оценок, а средний балл по аттестату;

15

3.достаточность (полнота) – минимальный, но достаточный состав данных для достижения целей, которые преследует потребитель информации. Эта характеристика похожа на репрезентативность, однако разница состоит в том, что в данном случае учитывается минимальный состав информации, который не мешает принятию решения. Например, абитуриент – золотой медалист может не представлять в приемную комиссию свой аттестат: диплом, подтверждающий получение золотой медали, свидетельствует о полном наборе отличных оценок в аттестате;

4.доступность – простота (или возможность) выполнения процедур получения и преобразования информации. Эта характеристика применима не ко всей информации, а лишь к той, которая не является закрытой. Для обеспечения доступности бумажных документов используются различные средства оргтехники для их хранения, а для облегчения их обработки используются средства вычислительной техники;

5.актуальность – зависит от динамики изменения характеристик информации и определяется сохранением ценности информации для пользователя в момент ее использования. Очевидно, что касается информации, которая используется при зачислении, она актуальна, так как само обучение уже закончилось, и его результаты изменены быть не могут, а, значит, остаются актуальными;

6.своевременность – поступление не позже заранее назначенного срока. Этот параметр также очевиден недавним абитуриентам: опоздание с представлением позитивной информации о себе при поступлении может быть чревато незачислением;

7.точность – степень близости информации к реальному состоянию источника информации. Например, неточной информацией является медицинская справка, в которой отсутствуют данные о перенесенных абитуриентом заболеваниях;

8.достоверность – свойство информации отражать источник информации с необходимой точностью. Эта характеристика вторична относительно точности. В предыдущем примере получаемая информация недостоверна;

9.устойчивость – способность информации реагировать на изменения исходных данных без нарушения необходимой точности.

1.12. Что такое обработка информации?

Обработка информации - получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов.

Обработка является одной из основных операций, выполняемых над информацией, и главным средством увеличения объёма и разнообразия информации.

Средства обработки информации - это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер - универсальная машина для обработки информации.

Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов.

Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.

Данные являются составной частью информации, представляющие собой зарегистрированные сигналы. Во время информационного процесса данные преобразуются из одного вида в другой.

Обработка данных включает в себя множество разных операций.

Основные операции при обработке данных:

сбор данных - накопление информации с целью обеспечения достаточной полноты для принятия решения;

формализация данных - приведение данных, которые поступают из разных источников к единой форме;

фильтрация данных - устранение лишних данных, которые не нужны для принятия решений;

сортировка данных - приведение в порядок данных за заданным признаком с целью удобства использования;

архивация данных - сохранение данных в сжатой форме;

защита данных - комплекс мер, направленных на предотвращение потерь, воспроизведения и модификации данных;

транспортирование данных - прием и передача данных между отдаленными пользователями информационного процесса. Источник данных принят называть сервером, а потребителя - клиентом;

преобразование данных - преобразование данных с одной формы в другую, или с одной структуры в другую, или изменение типа носителя.

1.13. Что такое информационная система?

Винформатике понятие "система" чаще используют относительно набора технических средств и программ. Системой называют также аппаратную часть компьютера. Дополнение понятия "система" словом "информационная" отображает цель ее создания и функционирования.

Информационная система - взаимосвязанная совокупность средств, методов и персонала, используемая для сохранения, обработки и выдачи информации с целью решения конкретной задачи.

Современное понимание информационной системы предусматривает использование компьютера как основного технического средства обработки информации. Компьютеры, оснащенные специализированными программными средствами, являются технической базой и инструментом информационной системы.

Вработе информационной системы можно выделить следующие этапы:

1.Зарождение данных - формирование первичных сообщений, которые фиксируют результаты определенных операций, свойства объектов и субъектов управления, параметры процессов, содержание нормативных и юридических актов и т.п..

16

2.Накопление и систематизация данных - организация такого их размещения, которое обеспечивало бы быстрый поиск и отбор нужных сведений, методическое обновление данных, защиту их от искажений, потери, формирование целостности и др.

3.Обработка данных - процессы, вследствие которых на основании прежде накопленных данных формируются новые виды данных: обобщающие, аналитические, рекомендательные, прогнозные. Производные данные тоже можно обрабатывать, получая более обобщенные сведения.

4.Отображение данных - представление их в форме, пригодной для восприятия человеком. Прежде всего - это вывод на печать. Широко используют построение графических иллюстративных материа-

лов (графиков, диаграмм) и формирование звуковых сигналов.

Сообщения, которые формируются на первом этапе, могут быть обычным бумажным документом, сообщением в "машинном виде" или тем и другим одновременно. В современных информационных системах сообщения массового характера большей частью имеют "машинный вид".

Потребности второго и третьего этапов удовлетворяются в современных информационных системах в основном средствами вычислительной техники. Средства, которые обеспечивают доступность информации для человека, то есть средства отображения данных, являются компонентами вычислительной техники.

Подавляющее большинство информационных систем работает в режиме диалога с пользователем. Типичные программные компоненты информационных систем включают: диалоговую подсистему ввода-вывода, подсистему, которая реализует логику диалога, подсистему прикладной логики обработки данных, подсистему логики управления данными.

Для сетевых информационных систем важным элементом является коммуникационный сервис, обеспечивающий взаимодействие узлов сети при общем решении задачи. Значительная часть функциональных возможностей информационных систем закладывается в системном программном обеспечении: операционных системах, системных библиотеках и конструкциях инструментальных средств разработки. Кроме программной составляющей информационных систем важную роль играет информационная, которая задает структуру, атрибутику, типы данных и тесно связана с логикой управления данными.

1.14. Что такое информационное общество, информационные ресурсы и информационные технологии?

Информационное общество - это общество, в котором в изобилии циркулирует высокая по качеству информация и есть все необходимые средства для ее хранения, распределения и использования. Ин-

формация легко распространяется по требованию заинтересованных лиц или организаций и выдается в привычной для них форме. Стоимость пользования информационными услугами невелика и доступна каждому.

В экономическом плане информационное общество характеризуется тем, что информация становится одним из основных ресурсов, играющим решающую роль в его развитии. Такое положение информации по отношению к традиционным видам ресурсов (материальным, энергетическим и людским) обусловлено свойствами информации как ресурса и сложившимися условиями развития общества.

Эти условия определяются тем, что человечество практически исчерпало возможности развития за счет увеличения расхода ресурсов. Традиционные технологии и способы производства приводят к быстрому истощению ресурсов, ухудшению экологической обстановки и здоровья человека. Поиск новых ресурсов и включение их в мировое производство – одна из важнейших задач современности. Ее решение позволит продолжить поступательно движение общества. Таким новым ресурсом была выбрана информация.

Информационные ресурсы - это идеи человечества и указания по их реализации, накопленные в форме, позволяющей их воспроизводство.

Это книги, статьи, патенты, диссертации, научно-исследовательская и опытно-конструкторская документация, технические переводы, данные о передовом производственном опыте и др.

Информационные ресурсы обладают уникальными свойств по сравнению с традиционными ресурсами:

позволяют сократить потребление других видов ресурсов, создать ресурсосберегающие и экологически чистые технологии и производства;

представляют собой неисчерпаемый ресурс, поскольку не убывают в процессе использования, легко тиражируются и распространяются;

являются экологически чистым ресурсом. Информационное загрязнение имеет в настоящее время достаточно низкий уровень.

Уровень развития информационного общества определяется не только объемом информационных ресурсов, но и интенсивностью их использования, т.е. превращением информационных ресурсов в информационные продукты и услуги.

Для создания информационных продуктов ведется интенсивная разработка современных информационных

технологий.

Информационная технология - это совокупность методов и устройств, используемых людьми для обработки информации.

Наиболее удачное определение информационной технологии принадлежит академику Глушкову В.М. Это

человеко-машинная технология сбора, обработки и передачи информации, которая базируется на использовании вычислительной техники.

Информационные ресурсы и информационные технологии, средства массовой информации, локальные, глобальные и космические информационные сети позволяют поднять науку и технический прогресс на беспрецедентный уровень по сравнению с тем, какой обеспечили физика, механика, химия и электродинамика, вместе взятые

17

Совершенствование информационных технологий представляет самую важную, хотя дорогостоящую и трудную задачу.

В настоящее время создание крупномасштабных информационно-технологических систем является экономически возможным, и это обусловливает появление национальных исследовательских и образовательных программ, призванных стимулировать их разработку.

1.15.Вопросы для самоконтроля

1.1.Что означает термин "информатика" и каково его происхождение?

1.2.Какие области знаний и административно-хозяйственной деятельности официально закреплены за понятием "информатика" с 1978 года?

1.3.Какие сферы человеческой деятельности и в какой степени затрагивает информатика?

1.4.Назовите основные составные части информатики и основные направления её применения.

1.5.Что подразумевается под понятием "информация" в бытовом, естественно-научном и техническом смыс-

лах?

1.6.Приведите примеры знания фактов и знания правил. Назовите новые факты и новые правила, которые Вы узнали за сегодняшний день.

1.7.От кого (или чего) человек принимает информацию? Кому передает информацию?

1.8.Где и как человек хранит информацию?

1.9.Что необходимо добавить в систему "источник информации - приёмник информации", чтобы осуществлять передачу сообщений?

1.10.Какие типы действий выполняет человек с информацией?

1.11.Приведите примеры ситуаций, в которых информация

а) создаётся;

д) копируется;

б) обрабатывается;

е) воспринимается;

в) запоминается;

ж) измеряется;

г) делится на части;

з) принимается;

и) передаётся; к) разрушается; л) ищется; м) упрощается.

1.12.Приведите примеры обработки информации человеком. Что является результатами этой обработки?

1.13.Приведите примеры информации:

а) достоверной и недостоверной; б) полной и неполной; в) ценной и малоценной;

г) своевременной и несвоевременной; д) понятной и непонятной;

е) доступной и недоступной для усвоения; ж) краткой и пространной.

1.14.Назовите системы сбора и обработки информации в теле человека.

1.15.Приведите примеры технических устройств и систем, предназначенных для сбора и обработки инфор-

мации.

1.16.От чего зависит информативность сообщения, принимаемого человеком?

1.17.Почему количество информации в сообщении удобнее оценивать не по степени увеличения знания об объекте, а по степени уменьшения неопределённости наших знаний о нём?

1.18.Как определяется единица измерения количества информации?

1.19.В каких случаях и по какой формуле можно вычислить количество информации, содержащейся в сооб-

щении?

1.20.Почему в формуле Хартли за основание логарифма взято число 2?

1.21.При каком условии формула Шеннона переходит в формулу Хартли?

1.22.Что определяет термин "бит" в теории информации и в вычислительной технике?

1.23.Что такое информационные ресурсы и чем они отличаются от других?

1.24.Чем отличаются информационные системы от информационных технологий?

2.Глава 2. Общие принципы организации и работы компьютеров

2.1. Что такое компьютер?

Компьютер (англ. cоmputer - вычислитель) представляет собой программируемое электронное устройство, способное обрабатывать данные и производить вычисления, а также выполнять другие задачи манипулирования символами.

Существует два основных класса компьютеров:

цифровые компьютеры, обрабатывающие данные в виде двоичных кодов;

аналоговые компьютеры, обрабатывающие непрерывно меняющиеся физические величины (элек-

трическое напряжение, время и т.д.), которые являются аналогами вычисляемых величин.

Поскольку в настоящее время подавляющее большинство компьютеров являются цифровыми, далее будем рассматривать только этот класс компьютеров и слово "компьютер" употреблять в значении "цифровой компью-

тер".

Основу компьютеров образует аппаратура (HаrdWаre), построенная, в основном, с использованием электронных и электромеханических элементов и устройств. Принцип действия компьютеров состоит в выполнении программ (SоftWаre) - заранее заданных, четко определённых последовательностей арифметических, логических и других операций.

Любая компьютерная программа представляет собой последовательность отдельных команд.

18

Команда - это описание операции, которую должен выполнить компьютер. Как правило, у команды есть свой код (условное обозначение), исходные данные (операнды) и результат.

Например, у команды "сложить два числа" операндами являются слагаемые, а результатом - их сумма. А у команды "стоп" операндов нет, а результатом является прекращение работы программы.

Результат команды вырабатывается по точно определенным для данной команды правилам, заложенным в конструкцию компьютера.

Совокупность команд, выполняемых данным компьютером, называется системой команд этого компьютера.

Компьютеры работают с очень высокой скоростью, составляющей миллионы - сотни миллионов операций в секунду.

2.2. Как устроен компьютер?

Разнообразие современных компьютеров очень велико. Но их структуры основаны на общих логических принципах, позволяющих выделить в любом компьютере следующие главные устройства:

память (запоминающее устройство, ЗУ), состоящую из перенумерованных ячеек;

процессор, включающий в себя устройство управления (УУ) и арифметико-логическое устройство (АЛУ);

устройство ввода;

устройство вывода.

Эти устройства соединены каналами связи, по которым передается информация.

Основные устройства компьютера и связи между ними представлены на схеме (рис. 2.1). Жирными стрелками показаны пути и направления движения информации, а простыми стрелками - пути и направления передачи управляющих сигналов.

Функции памяти:

приём информации из других устройств;

запоминание информации;выдача информации по запросу в

другие устройства машины. Функции процессора:

обработка данных по заданной про-

грамме путем выполнения арифметических и логических операций;

программное управление работой

устройств компьютера.

Рис. 2.1. Общая схема компьютера Та часть процессора, которая вы-

полняет команды, называется арифме- тико-логическим устройством (АЛУ), а другая его часть, выполняющая функции управления устройствами, называется устройством управления (УУ).

Обычно эти два устройства выделяются чисто условно, конструктивно они не разделены.

Всоставе процессора имеется ряд специализированных дополнительных ячеек памяти, называемых реги-

страми.

Регистр выполняет функцию кратковременного хранения числа или команды. Над содержимым некоторых регистров специальные электронные схемы могут выполнять некоторые манипуляции. Например, "вырезать" отдельные части команды для последующего их использования или выполнять определенные арифметические операции над числами.

Основным элементом регистра является электронная схема, называемая триггером, которая способна хранить одну двоичную цифру (разряд двоичного кода). Логическая схема триггера описана в разделе 5.7.

Регистр представляет собой совокупность триггеров, связанных друг с другом определённым образом общей системой управления.

Существует несколько типов регистров, отличающихся видом выполняемых операций. Некоторые важные регистры имеют свои названия, например:

сумматор - регистр АЛУ, участвующий в выполнении каждой операции;

счетчик команд - регистр УУ, содержимое которого соответствует адресу очередной выполняемой команды; служит для автоматической выборки программы из последовательных ячеек памяти;

регистр команд - регистр УУ для хранения кода команды на период времени, необходимый для ее выполнения. Часть его разрядов используется для хранения кода операции, остальные - для хране-

ния кодов адресов операндов.

2.3.На каких принципах построены компьютеры?

Воснову построения подавляющего большинства компьютеров положены следующие общие принципы, сформулированные в 1945 г. американским ученым Джоном фон Нейманом.

19

1. Принцип программного управления. Из него следует, что программа состоит из набора команд, которые выполняются процессором автоматически друг за другом в определенной последовательности.

Выборка программы из памяти осуществляется с помощью счетчика команд. Этот регистр процессора последовательно увеличивает хранимый в нем адрес очередной команды на длину команды.

А так как команды программы расположены в памяти друг за другом, то тем самым организуется выборка цепочки команд из последовательно расположенных ячеек памяти.

Если же нужно после выполнения команды перейти не к следующей, а к какой-то другой, используются команды условного или безусловного пере-

ходов, которые заносят в счетчик команд номер ячейки памяти, содер-

жащей следующую команду. Выборка команд из памяти прекращается после достижения и выполнения команды “стоп”.

Таким образом, процессор исполняет программу автоматически, без вмешательства человека.

 

2. Принцип однородности памяти. Программы и данные хранятся в од-

 

ной и той же памяти. Поэтому компьютер не различает, что хранится в дан-

Рис. 2.2. Джон фон Нейман, 1945 г.

ной ячейке памяти - число, текст или команда. Над командами можно выпол-

нять такие же действия, как и над данными. Это открывает целый ряд воз-

 

можностей. Например, программа в процессе своего выполнения также может подвергаться переработке,

что позволяет задавать в самой программе правила получения некоторых ее частей (так в программе организует-

ся выполнение циклов и подпрограмм). Более того, команды одной программы могут быть получены как результаты исполнения другой программы. На этом принципе основаны методы трансляции - перевода тек-

ста программы с языка программирования высокого уровня на язык конкретной машины.

3. Принцип адресности. Структурно основная память состоит из перенумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка. Отсюда следует возможность давать имена областям памяти, так, чтобы к запомненным в них значениям можно было впоследствии обращаться или менять их в процессе выполнения программ с использованием присвоенных имен.

Компьютеры, построенные на этих принципах, относятся к типу фон-неймановских. Но существуют компьютеры, принципиально отличающиеся от фон-неймановских. Для них, например, может не выполняться принцип программного управления, т.е. они могут работать без “счетчика команд”, указывающего текущую выполняемую команду программы. Для обращения к какой-либо переменной, хранящейся в памяти, этим компьютерам не обя-

зательно давать ей имя. Такие компьютеры называются не-фон-неймановскими.

2.4. Что такое команда?

Команда - это описание элементарной операции, которую должен выполнить компьютер.

Вобщем случае, команда содержит следующую информацию:

код выполняемой операции;

указания по определению операндов (или их адресов);

указания по размещению получаемого результата.

Взависимости от количества операндов, команды бывают:

одноадресные;

двухадресные;

трехадресные;

переменноадресные.

Команды хранятся в ячейках памяти в двоичном коде.

В современных компьютерах длина команд переменная (обычно от двух до четырех байтов), а способы указания адресов переменных весьма разнообразные. В адресной части команды может быть указан, напри-

мер:

сам операнд (число или символ);

адрес операнда (номер байта, начиная с которого расположен операнд);

адрес адреса операнда (номер байта, начиная с которого расположен адрес операнда), и др. Рассмотрим несколько возможных вариантов команды сложения (англ. аdd - сложение), при этом вместо

цифровых кодов и адресов будем пользоваться условными обозначениями:

одноадресная команда аdd x (содержимое ячейки x сложить с содержимым сумматора, а результат

оставить в сумматоре)

аdd x

двухадресная команда аdd x, y (сложить содержимое ячеек x и y, а результат поместить в ячейку y)

аdd

x

y

трехадресная команда аdd x, y, z (содержимое ячейки x сложить с содержимым ячейки y, сумму поме-

стить в ячейку z)

аdd

x

y

z

2.5. Как выполняется команда?

Выполнение команды можно проследить по схеме:

20

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]