Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Курс лекций 230100.doc
Скачиваний:
323
Добавлен:
18.12.2018
Размер:
5.39 Mб
Скачать

Информационные системы и технологии

  • ввода/вывода, сбора, хранения, передачи и обработки данных;

  • подготовки текстовых и графических документов;

  • программирования, проектирования, моделирования, обучения, диагностики, управления объектами, процессами, системами (информационно-справочные, информационно-поисковые системы, современные глобальные системы хранения и поиска информации, включая Интернет и др.)

Теоретическая информатика – часть информатики, занимающаяся изучением структуры и общих свойств информации и информационных процессов, разработкой общих принципов построения информационной техники и технологии. Основные разделы истории информатики -это теория алгоритмов и автоматов, теория информации и теория кодирования, теория формальных языков и грамматик, исследование операций и др.

Средства информатизации (технические и программные) – раздел, занимающийся изучением общих принципов построения вычислительных устройств и систем обработки и передачи данных, а также вопросов, связанных с разработкой систем программного обеспечения.

Информационные системы и технологии – раздел информатики, связанный с решением вопросов по анализу потоков информации, их оптимизации, структурировании в различных сложных системах, разработкой принципов реализации в данных системах информационных процессов.

Иногда информационные технологии называют компьютерными технологиями или прикладной информатикой. Само слово «компьютер» произошло от английского computer, переводимого на русский язык как «вычислитель», или электронная вычислительная машина – ЭВМ.

Технические (аппаратные) средства, или аппаратура компьютеров, в английском языке обозначаются словом hardware, которое переводиться как «твёрдые изделия». Для обозначения программных средств, под которыми понимается совокупность всех программ, используемых компьютерами, и область деятельности по их созданию и применению, используется слово software (в переводе – «мягкие изделия»), которое подчёркивает способность программного обеспечения модифицироваться, приспосабливаться и развиваться.

Информатика – очень широкая сфера научных знаний, возникла на стыке нескольких фундаментальных и прикладных дисциплин. Информатика является научным фундаментом процесса информатизации общества. С ней связано прогрессивное увеличение возможностей компьютерной техники(hardware) и программного обеспечения (software), развитие информационных сетей, создание новых информационных технологий, которые приводят к значительным изменениям во всех сферах общества: в производстве, науке, образовании, медицины.

Лекция №2 .Количество и качество информации.

Вопросы:

1.Меры информации.

2.Качество информации.

3.Виды и формы представления информации в информационных системах.

Меры информации синтаксического уровня

Количественная оценка информации этого уровня не связана с содержательной стороной информации, а оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту. В связи с этим данная мера дает возможность оценки информационных потоков в таких разных по своей природе объектах, как системы связи, вычислительные машины, системы управления, нервная система живого организма и т.п.

Для измерения информации на синтаксическом уровне вводятся два параметра: объём информации (данных) – V (объемный подход) и количество информации – I (вероятностный подход).

Объем информации V (объемный подход). При реализации информационных процессов информация передается в виде сообщения, представляющего собой совокупность символов какого-либо алфавита. При этом каждый новый символ в сообщении увеличивает количество информации, представленной последовательностью символов данного алфавита. Если количество информации, содержащейся в сообщении из одного символа, принять за единицу, то объем информации (данных) V в любом другом сообщении будет равен количеству символов (разрядов) в этом сообщении ( так как одна и та же информация может быть представлена многими разными способами с использованием разных алфавитов, то и данные соответственно будут меняться).

Так, в десятичной системе счисления один разряд имеет вес, равный 10, и соответственно единицей измерения информации будет бит (десятичный разряд). В этом случае сообщение в виде n-разрядного числа имеет объем данных V=n бит. Например: четырехразрядное число 2003 имеет объем данных V=4 бит.

В двоичной системе счисления один разряд имеет вес, равный 2, и соответственно единицей измерения информации будет – бит (bit-binary digit-двоичный разряд). В этом случае сообщение в виде n –разрядного числа имеет объем данных V=n бит. Например, восьмиразрядный двоичный код 11001011имеет объем данных V=8 бит.

В современной вычислительной технике наряду с минимальной единицей измерения данных <бит> широко используется укрупненная

единица измерения <байт>, равная 8 бит. При работе с большими объемами информации для подсчета её количества применяют более крупные единицы измерения, такие как килобайт (Кбайт), мегабайт (Мбайт), гигабайт (Гбайт). Терабайт (Тбайт):

1Кбайт =1024 байт

1Мбайт =1024 Кбайт

1Гбайт = 1024 Мбайт

1Тбайт =1024 Гбайт .

Следует обратить внимание, что в системе измерения двоичной (компьютерной) информации, в отличие от метрической системы, единицы с приставками <кило>, <мега> и т.д. получаются путем умножения основной единицы не на 103 =1000, 106 =1 000 000 и т.д., а на 210 = 1024, 220 =1 048 576 и т.д.

Количество информации I (энтропийный подход). В тории информации и кодирования принят энтропийный подход к измерению информации. Этот подход основан на том, что факт получения информации всегда связан с уменьшением разнообразия или неопределенности (энтропии) системы. Количество информации в сообщении определяется как мера уменьшения неопределенности состояния данной системы после получения сообщения. Неопределенность может быть интерпретирована в смысле того, насколько мало известно наблюдателю о данной системе. Как только наблюдатель выявил что-нибудь в физической системе, энтропия системы снизилась, так как для наблюдателя система стала более упорядоченной.

Таким образом, при энтропийном подходе под количеством информации понимается количественная величина, исчезнувшей в ходе какого-либо процесса (испытания измерения и т.д. ) неопределенности. При этом в качестве меры неопределенности вводится энтропия H, а количество информации равно:

I = Hapr – Haps (1)

где, Hapr - априорная энтропия о состоянии исследуемой системы или процесса.

Haps - апостериорная энтропия.

Априори - (от лат. a priori – из предшествующего ) – понятие характеризующее знание, предшествующее опыту (испытанию, измерению) , и независимое от него.

Апостериори - ( от лат. a posteriori – из последующего) – происходящее из опыта (испытания, измерения).

В случае когда в ходе испытания имевшаяся неопределенность снята (получен конкретный результат , т.е. Haps = 0). Количество полученной информации совпадает с первоначальной энтропией I = Hapr.

Рассмотрим в качестве исследуемой системы дискретный источник информации (источник дискретных сообщений), под которым будем понимать физическую систему,

__

имеющую конечное множество возможных состояний {ai}, I = 1,m.

Все множество A = {а12,…аm} состояний системы в теории информации называют абстрактным алфавитом, или алфавитом источника сообщений.

Отдельные состояния а12,…аm называют буквами или символами алфавита.

Такая система может в каждый момент времени случайным образом принять одно из конечных множеств возможных состояний – аi. При этом говорят, что различные состояния реализуются вследствие выбора их источником.

Поскольку одни состояния выбираются одним источником чаще, а другие реже, то в общем случае он характеризуется ансамблем А, т.е. полной совокупностью состояний с вероятностями их появления, составляющими в сумме единицу. Причем ai – возможные состояния системы, pi – вероятности появления состояний.

Введем меру неопределенности выбора состояния источника. В качестве меры неопределенности источника с равновероятностными состояниями и характеризующего его ансамбля А принят логарифм числа состояний:

H(A) = log2N (2)

Указанная мера была предложена ученым Р. Хартли в 1928 г. Основание логарифма в формуле (3) не имеет принципиального значения и определяет только масштаб или единицу измерения:

1.Биты – при этом основание логарифма равно 2:

I = H(A) = log2N (3)

2. Наты - при этом основание логарифма равно е:

I = H = =lnN

3. Диты - при этом основание логарифма равно 10:

I = H = lgN. (4)

Так как современная информационная техника базируется на элементах, имеющих два устойчивых состояния, то в информатике в качестве меры неопределенности обычно используют формулу (4). При этом единица неопределенности называется двоичной единицей или битом, и представляет собой неопределенность выбора из двух равновероятностных событий.

Формулу (4) можно получить эмпирически: для снятия неопределенности в ситуации из двух равновероятностных событий необходим один опыт и соответственно один бит информации, при неопределенности, состоящей из четырех равновероятных событий, достаточно двух бит информации, чтобы угадать искомый факт. Эти рассуждения можно продолжить : 3 бита информации соответствуют неопределенности из 8 равновероятностных событий, 4 бита – 16 равновероятностных событий и т.д. Например, для определения карты из колоды, состоящей из 32 карт, достаточно 5 бит информации, т.е. достаточно задать 5 вопросов с ответами <да> или <нет>, чтобы определить искомую карту.

Если сообщение указывает на один из n равновероятностных вариантов, то неопределенность равна log2n . Действительно, из наших примеров log232 = 5, log216 = 4, log28 = 3 и т.д. Количество информации равно степени, в которую необходимо возвести число 2, чтобы получить число равновероятных вариантов выбора, т.е. (2I = 16, где I = 4) бита.

Предложенная мера позволяет решать определенные практические задачи, когда все возможные состояния источника информации имеют одинаковую вероятность.

В общем случае степень неопределенности реализации состояния источника информации зависит не только от числа состояний . но и от вероятностей этих состояний. Если источник информации имеет, например, два возможных состояния с вероятностями 0.99 и 0,01. то неопределенность выбора у него значительно меньше, чем у источника, имеющего два равновероятных состояния, так как в этом случае результат практически предрешен (реализация состояния, вероятность которого равна 0,99 ).

Американский ученый К. Шеннон обобщил понятие меры неопределенности выбора H на случай, когда H зависит не только от числа состояний , но и от вероятностей этих состояний (вероятностей р, выбора символов а. алфавита А). Эту меру, представляющую собой неопределенность, приходящуюся в среднем на одно состояние, называют энтропией дискретного состояния источника информации).

Если снова ориентироваться на измерение неопределенности в двоичных единицах, то основание логарифма следует принять равным двум.

Меры информации семантического уровня

Для измерения смыслового содержания информации, т.е. её количества на семантическом уровне, наибольшее распространение получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение. Действительно, для понимания и использования полученной информации получатель должен обладать определенным запасом знаний. Полное незнание предмета не позволяет извлечь полезную информацию из принятого сообщения об этом предмете. По мере роста знаний о предмете растет и количество полезной информации, извлекаемой из сообщения.

Если назвать имеющиеся у получателя знания о данном предмете <тезаурусом> (т.е. неким сводом слов, понятий, названий объектов,

связанных смысловыми словами), то количество информации, содержащееся в некотором сообщении, можно оценить степенью изменения индивидуального тезауруса под воздействием данного сообщения.

Тезаурус – совокупность сведений, которыми располагает пользователь или система.

Количество семантической информации, извлекаемой получателем из поступающих сообщений.

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации Ic , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рис. 2.1. Рассмотрим два предельных случая, когда количество семантической информации Ic равно 0:

при Sp=0 пользователь не воспринимает (не понимает) поступающую информацию;

при Sp-> пользователь “все знает “ , и поступающую информация ему не нужна.

Рис. 2.1. Зависимость количества семантической информации, воспринимаемой потреблением, от его тезауруса Ic= ƒ(Sp)

Максимальное количество семантической информации потребитель приобретает при согласовании её смыслового содержания S со своим тезаурусом Sp (Sp = Sp opt ), когда поступающая информация понятна пользователю и несет ему ранее неизвестные (отсутствующие в его тезаурусе ) сведения.

Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного.

При оценке семантического ( содержательного) аспекта информации необходимо стремиться к согласованию величин S и Sp.

Относительной мерой количества семантической информации является коэффициент содержательности C, который определяется как отношение количества семантической информации к её объему:

C=Ic /Vg

Меры информации прагматического уровня

Мера позволяющая определяет полезность информации (ценность) для достижения пользователем поставленной цели. Она также величина относительная, обусловленная особенностями использования этой информации в той или иной системе.

Одним из первых отечественных ученых к этой проблеме обратился А.А. Харкевич, который предложил принять за меру ценности информации количество информации, необходимое для достижения поставленной цели, т. Е. рассчитывать приращение вероятности достижения цели. Так, если до получения информации вероятность достижения цели равнялась P0 , а после её получения – P1, то ценность информации определяется как логарифм отношения P1/P0

I = log2P1 – log2P0 = log2P1/P0 (7)

Таким образом, ценность информации при этом измеряется в единицах информации, в данном случае в битах.

Выражение (7) можно рассматривать как результат нормировки числа исходов. В пояснение на рис. 2.2 приведены три схемы, на которых приняты одинаковые значения P0= 2, P1 = 6. Исходное положение – точка 0. На основании полученной информации совершается переход в точку 1. Цель обозначена крестиком. Благоприятные исходы изображены линиями, ведущими к цели. Определим ценность полученной информации во всех трех случаях:

а) число благоприятных исходов равно трем: P0 = 1/2, P1 = 3/6 = 1/2

I = log2( P1/P0 ) = log21 = 0

б) имеется один благоприятный исход: P0 = 1/2, P1 = 1/6,

I = log21/3 = -log23 = -1,58;

в) число благоприятных исходов равно четырем: P0 = ½, P1 = 4/6 = 2/3,

I = log2 2/3/1/2 = log2 4/3 = 0,42.

Рис. 2.2. К вопросу о ценности информации: а) I = 0; б) I = -1,58 (дезинформация); в) I = 0,42

В примере б) получена отрицательная ценность информации (отрицательная информация ). Такую информацию, увеличивающую исходную неопределённость и уменьшающую вероятность достижения цели, называют дезинформацией. Таким образом, в примере б) мы получили дезинформацию в 1,58 двоичной единицы.

Дальнейшее развитие данного подхода базируется на статистической теории информации и теории решений. Сущность метода состоит в том, что, кроме вероятностных характеристик неопределённости объекта, после получения информации водятся функции штрафов или потерь и оценка информации производится в результате минимизации потерь. Максимальной ценностью обладает то количество информации, которое уменьшает потери до ноля при достижении поставленной цели.

Качество информации

Эффективность применения и качество функционирования любых систем во многом определяется качеством информации. На основе которой принимаются управляющие решения. Составляющие качества информации отражены на рис 2.3.

Качество информации - совокупность свойств информации, характеризующих степень её соответствия потребностям ( целям, ценностям ) пользователя ( средств автоматизации. Персонала и др. ).

Выделяют внутреннее качествосодержательность ( присущее собственно информации и сохраняются при её переносе в другую систему ) и внешнее – защищенность ( присущее информации, находящейся или используемой только в определенной системе).

Рис. 2.3. Составляющие качества информации

Содержательность информации – совокупность сведений о конкретном объекте (системе) или процессе, содержащаяся в сообщениях и воспринимаема получателем. Содержательность отражает семантическую емкость информации, содержащейся в информационных массивах ( массивах данных, программ, сообщениях, фактах ). Содержательная информация используется, как правило, для выработки и принятия управляющего действия.

Содержательность информации определяется такими свойствами, как значимость и кумулятивность.

Значимость информации – свойство информации сохранять ценность для потребителя с течением времени, т.е. не подвергаться «моральному» старению.

Составляющими значимости являются полнота и идентичность.

Полнота информации – свойство содержательной информации, характеризуемое мерой её достаточности для решения определённых задач. Полнота ( достаточность ) информации означает, что она обеспечивает принятие правильного ( оптимального ) решения. Из этого следует, что данное свойство является относительным: полнота информации оценивается относительно вполне определённой задачи или группы задач. Поэтому, чтобы иметь возможность определить показатель полноты информации, необходимо для каждой существенно значимой задачи или группы задач иметь перечень тех сведений, которые требуются для их решения. Как неполная, т.е. недостаточная для принятия правильного решения, так и избыточная информации снижают эффективность принимаемых пользователем решений.

Идентичность – свойство, заключающееся в соответствии содержательной информации состоянию объекта. Нарушение идентичности связано с техническими ( по рассогласованию признаков ) старением информации при котором происходит расхождение реальных признаков объектов и тех же признаков, отображенных в информации.

Кумулятивность информации – свойств содержательной информации, заключенной в массиве небольшого объёма, достаточно полно отображать действительность.

Задачу обеспечения кумулятивности информации можно решать без учета и с учетом опыта и квалификации конкретного потребителя информации . применяя соответственно формально-технические и социально-психологические приемы. К числу формально-технических приемов относится, например, агрегирование – получение сводных

показателей различного уровня обобщения или выбор отдельных показателей из массивов исходных данных. Эти и другие формальные приемы направлены на построение моделей типа «многое в одном», когда действительность отображается с помощью малого числа символов. Такие модели называются гомоморфными, а соответствующее свойство – гомоморфизмом информации. Это формально-техническая составляющая кумулятивности информации.

Гомоморфизм информации–свойство содержательности информации, связанное с достаточно полным отображением действительности, представленной информационными массивами большого объема, с помощью малого числа информационных единиц(символов ) на основе соответствующих моделей агрегирования.

Информационное обеспечение конкретного потребителя может осуществляться с учетом его опыта, квалификации и других свойств. А также с учетом решаемых им задач. Информация, специально отобранная для конкретного потребителя, обладает определённым свойством – избирательностью. Это социально-психологическая составляющая свойства кумулятивности.

Избирательность информации – свойство содержательности информации, заключающееся в достаточно полном отображении действительности, представленной информационными массивами большого объема, с помощью малого числа информационных единиц (символов) на основе учета квалификации, опыта и других качеств конкретного потребителя.

Защищенность отражает внешнее качество информации, определяемое совокупностью свойств информации, обеспечиваемых системой контроля и защиты информации (КЗИ) в конкретной информационной системе.

Основным из них являются свойства, заключающиеся в способности не допускать случайного или целенаправленного искажения или разрушения, раскрытия или модификации информационных массивов, соответственно достоверность, конфиденциальность и сохранность информации, При переносе информации в другую систему ( среду ) эти свойства исчезают.

Достоверность информации– свойство информации, характеризуемое степенью соответствия (в пределах заданной точности ) реальных информационных единиц ( символов, знаков, записей, сообщений, информационных массивов и т.д. ) их истинному значению и определяемое способностью КЗИ обеспечить отсутствие ошибок переработки информации, т.е. не допустить снижения ценности информации при принятии управленческих решений, искажений информационных массивов (ИМ), их смыслового значения, замены единичных символов ИМ и других из-за несовершенства организации (структуры ) процесса переработки, несовершенства алгоритмов, ненадежной работы аппаратно-программных средств, ошибок пользователя и т.д.

Требуемый уровень достоверности информации достигается путем внедрения методов контроля и защиты информации на всех стадиях её переработки, повышением надежности комплекса технических и программных средств информационной системы, а также административно-организационными мерами ( моральными и материальными стимулированием, направленным на снижение числа ошибок, улучшением условий труда персонала и др.).

Конфиденциальность информациисвойство информации, позволяющее сохранять предоставленный ей статус. Конфиденциальность информации характеризуется такими показателями, как доступность.

Сохранность информациисвойство информации, характеризуемое степенью готовности определенных ИМ к целевому применению и определяемое способностью КЗИ обеспечить постоянное наличие и своевременное предоставление ИМ, необходимых для автоматизированного решения целевых и функциональных задач системы, т.е. не допускать разрушения ИМ из-за несовершенства носителей,

механических повреждений, неправильной экспулатации , износа и старения аппаратных средств, ошибок персонала и

несанкционированных корректировок, недостатков в программных средствах и т.д. Основными показателями сохранности являются целостность и готовность информации.

Целостность информации характеризуется степенью аутентичности (подлинности) ИМ в информационной базе и исходных документах ( сообщениях) и определяется способностью КЗИ обеспечить, насколько возможно, физическое наличие информационных единиц в информационной базе в любой момент времени, т.е. не допустить случайных искажений и разрушения ИМ из-за дефектов и сбоев аппаратных средств, действия «компьютерных вирусов», ошибок оператора( при вводе информации в информационную базу или обращении к ней), ошибок в программных средствах (операционных системах, СУБД, комплексах прикладных программ и др.).

Готовность информации характеризуется степенью работоспособности ИМ при выполнении целевых и функциональных задач системы и определяется возможностью КЗИ обеспечить своевременное предоставление необходимых не разрушенных ИМ.

Необходимый уровень сохранности ИМ достигается путем введения специальной организации хранения и подготовки, регенерации и восстановления ИМ, использования дополнительных ресурсов для их резервирования, что позволяет значительно уменьшить влияние разрушающих факторов на эффективность функционирования ИС в целом.

Виды и формы представления информации в информационных системах

Все многообразие окружающей нас информации можно классифицировать по различным признакам. Так, по признаку «область возникновения» информацию, отражающую процессы, явления неодушевленной природы, называют элементарной, или механической, процессы животного и растительного мира – биологической, человеческого общества – социальной. Информацию, создаваемую и используемую человеком, по общественному назначению можно разбить на три вида: личная, массовая, специальная. Личная информация предназначается для конкретного человека, массовая для любого желающего ею пользоваться (общественно-политическая, научно-популярная и т.д.), а специальная – для применения узким кругом лиц, занимающихся решением сложных специальных задач в области науки, техники, экономики и т.п. Информация может быть объективной и субъективной. Объективная информация отражает явления природы и человеческого общества. Субъективная информация создаётся людьми и отражает их взгляды на объективные явления.

В автоматизированных информационных системах выделяют:

1) структурную (преобразующую) информацию объектов системы, заключенную в структурах системы, её элементах управления, алгоритмах и программах переработки информации.

2) содержательную ( специальную, главным образом осведомляющую, измерительную и управляющую, а также научно-техническую, технологическую и др. ) информацию, извлекаемую из информационных массивов (сообщений, команд и т.п. ) относительно индивидуальной модели предметной области получателя ( человека, подсистемы ).

Первая связана с качеством информационных процессов в системе, с внутренними технологическими эффектами, затратами на переработку информации. Вторая – как правило, с внешним целевым (материальным ) эффектом.

При реализации информационных процессов передача информации (сообщения ) от источника к приемнику может осуществляться с помощью какого-либо материального носителя ( бумаги, магнитной ленты и т.п. ) или физического процесса ( звуковых или электромагнитных волн).

В зависимости от типа носителя различают следующие виды информации:

1)документальную;

2)акустическую(речевую);

3)телекоммуникационную.

Виды информации

Рис. 2.5 Классификация информации в зависимости от типа носителя

Документальная информация представляется в графическом или буквенно-цифровом виде на бумаге, а также в электронном виде на магнитных и других носителях.

Речевая информация возникает в ходе ведения разговоров, а также при работе систем звукоусиления и звуковоспроизведения. Носителем речевой информации являются акустические колебания ( механические колебания частиц упругой среды, распространяющиеся от источника колебаний в окружающее пространство в виде волн различной длины) в диапазоне частот от 200…300 Гц до 4…6 кГц.

Телекоммуникационная информация циркулирует в технических средствах обработки и хранения информации, а также в каналах связи при её передаче. Носителями информации при её обработке техническими средствами и передаче по проводным каналам связи является электрический ток, а при передаче по радио- и оптическому каналам – электромагнитные волны.

Источник информации может вырабатывать непрерывное сообщение ( сигнал ), в этом случае информация называется непрерывной, или дискретное – информация называется дискретной.

Например, сигналы, передаваемые по радио и телевидению, а также используемые в магнитной записи, имеют форму непрерывных, быстро изменяющихся во времени зависимостей. Такие сигналы называются непрерывными, или аналоговыми сигналами. В противоположность этому в телеграфии и вычислительной технике сигналы имеют импульсную форму и называются дискретными сигналами.

Непрерывная и дискретная формы представления информации имеют особое значение при рассмотрении вопросов создания, хранения, передачи и обработки информации с помощью средств вычислительной техники.

В настоящее время во всех вычислительных машинах информация представляется с помощью электрических сигналов. Возможны две формы представления численного значения какой- либо переменной, например X:

1)в виде одного сигнала – например, электрического напряжения, которое сравнимо с величиной X ( аналогично ей ). Например, при X = 2003 единицам на выход вычислительного устройства можно подать напряжение 2,003 В ( масштаб представления 0,001 В/ед. ) или 10,015 В ( масштаб представления 0,005 В/ед. );

2)в виде нескольких сигналов – нескольких импульсов напряжений, которые сравнимы с числом единиц в X, числом сотен в X и т.д.

Первая форма представления информации ( с помощью сходной величины – аналога ) называется аналоговой или непрерывной. Величины, представленные в такой форме, могут принимать принципиально любые значения в определенном диапазоне. Количество значений, которые может принимать такая величина , бесконечно велика. Отсюда названия – непрерывная величина и непрерывная информация. Слово непрерывность отчетливо выделяет основное свойство таких величин – отсутствие разрывов, промежутков между значениями, которые может принимать данная аналоговая величина.

Вторая форма представления информации называется дискретной (с помощью набора напряжений, каждое из которых соответствует одной из цифр представляемой величины). Дискретные величины, принимают определенные значения, называются дискретными ( прерывистыми ). В отличие от непрерывной величины количество значений дискретной величины всегда будет конечным.

Сравнивая непрерывную и дискретную формы представления информации, нетрудно заметить, что при использовании непрерывной формы для создания вычислительной машины потребуется меньшее число устройств ( каждая величина представляется одним, а не несколькими сигналами ), но эти устройства будут сложнее ( они должны различать значительно большее число состояний сигнала).

Непрерывная форма представления информации используется в аналоговых вычислительных машинах (АВМ). Эти машины предназначены в основном для решения задач, описываемых системами дифференциальных уравнений: исследования поведения подвижных объектов, моделирования процессов и систем, и решения задач параметрической оптимизации и оптимального управления. Устройства для обработки непрерывных сигналов

обладают более высоким быстродействием, они могут интегрировать сигнал, выполнять любое его функциональное преобразование и т.п. Однако из-за сложности технической реализации устройств выполнения логических операций с непрерывными сигналами, длительного хранения таких сигналов, их точного измерения АВМ не могут эффективно решать задачи, связанные с хранением и обработкой больших объемов информации, которые легко решаются при использовании цифровой ( дискретной ) формы представления информации, реализуемой цифровыми электронными вычислительными машинами (ЭВМ).

не и т. д.