Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

IK_ekz

.pdf
Скачиваний:
66
Добавлен:
16.02.2016
Размер:
6.32 Mб
Скачать

температуры или от номиналов реальных элементов, из которых собрано устройство. Дискретный сигнал не может иметь других промежуточных уровней!

Кривая изменения сигнала от низкого уровня к верхнему называется передним (позитивным) фронтом, а от верхнего уровня к низкомузадним (негативным). Для дискретного сигнала существуют строгие требования к крутизне фронта. Если кривая фронта достаточно пологая, то уровень сигнала в определенный момент времени может быть прочитан неправильно. Примером дискретного сигнала может быть ток в электрической цепи, которую коммутируют выключателем. При разомкнутом контакте ток в электрической цепи отсутствует, что соответствует логическому 0, а при замкнутом контакте ток в электрической цепи номинальныйлогическая 1. Однако, реальное включение (выключение) контакта более сложное по форме, и связанно с переходными процессами при пробое межискрового промежутка электрическим током.

Естественным сигналом в природе является аналоговый сигнал. Например звук, свет, тепло. Часто встречаемыми являются гармонические или близние по форме к ним сигналы, имеющие несколько гармоник (т.е. состоящие из нескольких синусоидальных колебаний разных частот). Например, музакальный звук. Аналоговый сигналнеразрывно изменяется во времени. Не смотря на то, что аналоговый сигнал может резко изменяться во времени, тем не менее, всегда можно найти уровень, который незначительно отличается от предыдущего уровня. Это будет зависеть от выбранного приращения времени ∆t. Некоторые уровни аналогового сигнала описываются бесконечными числами, т.е. такими числами, которых невозможно выразить на бумаге из-за бесконечно большого количества цифр. Такие уровни невозможно измерить, т.к. каждый измерительный прибор имеет погрешность. По этой причине аналоговый сигнал не может быть обработан при помощи электронно вычеслительной техники.

(Дальше как раз дискретизация сигнала)

Под дискретизацией сигналов понимают преобразование функций непрерывных переменных в функции дискретных переменных, по которым исходные непрерывные функции могут быть восстановлены с заданной точностью.

Дигитальный (цифровой) сигнал является отображением аналогового сигнала с помощью дискретных величин. Любой уровень дигитального сигнала может быть выражен с помощью конечного числа.

Дигитальный сигнал предназначен для цифровой обработки. Вычислительная техника не может напрямую обрабатывать аналоговый сигнал, т.к. обрабатываемые числа должны иметь конечную длину.

Дигитальный сигнал практически всегда имеет отличие от исходного аналогового сигнала. Эта погрешность определяется длиной числа (числом разрядов), выделенного для описания уровня. Последняя цифра этого числа получена путем округления. Абсолютной погрешностью является разница между реальным и округленным числом.

Наименьшим шагом дигитальной величины есть единица наименьшего разряда числа. Для выше приведенного примера это 0,1. Таким образом, в основе дигитальной величины лежит дискретная величина.

Точность отображения аналогового сигнала также зависит от максимальной длины приращения времени ∆t. Время, в течении которого, величина сигнала остается неизменной,

называется квантом времени. Чем меньше квант времени, тем точнее дигитальный сигнал.

7. (1.7) Кодирование информации. Алфавит. Слово. Словарь. Двоичное кодирование.

Одну и ту же информацию, например, сведения об опасности мы можем выразить разными способами: просто крикнуть; оставить предупреждающий знак (рисунок); с помощью мимики и жестов; передать сигнал «SOS» с помощью азбуки Морзе или используя семафорную и флажковую сигнализацию. В каждом из этих способов мы должны знать правила, по которым можно отобразить информацию. Такое правило назовем кодом.

Код — это набор условных обозначений (или сигналов) для записи (или передачи) некоторых заранее определенных понятий.

Кодирование информации – это процесс формирования определенного представления информации. В более узком смысле под термином «кодирование» часто понимают переход от одной формы представления информации к другой, более удобной для хранения, передачи или обработки.

Обычно каждый образ при кодировании (иногда говорят — шифровке) представлении отдельным знаком.

Знак - это элемент конечного множества отличных друг от друга элементов. Знак вместе с его смыслом называют символом.

Набор знаков, в котором определен их порядок, называется алфавитом. Существует множество алфавитов:

алфавит кириллических букв {А, Б, В, Г, Д, Е, ...}

алфавит латинских букв {А, В, С, D, Е, F,...}

алфавит десятичных цифр{0, 1, 2, 3, 4, 5, 6, 7, 8, 9}

алфавит знаков зодиака {картинки знаков зодиака} и др. Особенно большое значение имеют наборы, состоящие всего из двух знаков:

пара знаков {+, -}

пара цифр {0, 1}

пара ответов {да, нет}

Алфавит, состоящий из двух знаков, называется двоичным алфавитом. Двоичный знак (англ. binary digit) получил название «бит».

Шифрование - кодирование сообщения отправителя, но такое чтобы оно было не понятно несанкционированному пользователю.

Длиной кода называется такое количество знаков, которое используется при кодировании. Количество символов в алфавите кодирования и длина кода - совершенно разные вещи.

Например, в русском алфавите 33 буквы, а слова могут быть длиной в 1, 2, 3 и т.д. буквы.

Код может быть постоянной и непостоянной длины. Коды различной (непостоянной) длины в технике используются довольно редко. Исключением является лишь троичный код Морзе. В вычислительной технике в настоящее время широко используется двоичное кодирование с алфавитом (0, 1). Наиболее распространенными кодами являются ASCII (American standart code for information interchange - американский стандартный код для обмена информацией) и КОИ-8 (код обмена информации длиной 8 бит).

Одно и то же сообщение можно закодировать разными способами, т. е. выразить на разных языках. В процессе развития человеческого общества люди выработали большое число языков кодирования. К ним относятся:

разговорные языки (русский, английский, хинди и др. — всего более 2000);

язык мимики и жестов;

язык рисунков и чертежей;

язык науки (математические, химические, биологические и другие символы);

язык искусства (музыки, живописи, скульптуры и т. д.);

специальные языки (эсперанто, морской семафор, азбука Морзе, азбука Брайля для слепых и др.).

8.Семантический аспект понятия информации.

Термин "информация" происходит от латинского слова "Informatiо"- разъяс-нение, изложение, осведомленность. Можно считать, что этот термин в начальном представлении является общим понятием, означающим некоторые сведения, совокупность данных, знаний и т.д. Понятие информации должно быть с определенным объектом, свойства которого она отражает. Кроме того, наблюдается относительная независимость информации от ее носителя, поскольку возможны ее преобразование и передача по различным физическим средам с помощью разнообразных физических сигналов безотносительно к ее содержанию, т.е. к семантике, что и явилось центральным вопросом многих исследований, в том числе и в философской науке. Информация о любом материальном объекте может быть получена путем наблюдения, натурного либо вычислительного эксперимента, а также на основе логического вывода.

Выделяют следующие аспекты информации:

-прагматический,

-семантический,

-синтаксический.

Прагматический аспект связан с возможностью достижения поставленной цели с использованием получаемой информации. Этот аспект информации влияет на поведение потребителя. Если информация была эффективной, то поведение потребителя меняется в желаемом направлении, т. е. информация имеет прагматическое содержание. Таким образом, этот аспект характеризует поведенческую сторону проблемы.

Семантический аспект позволяет оценить смысл передаваемой информации, соотнося ее с информацией, хранящейся до появления данной. Семантические связи между словами или другими смысловыми элементами языка отражают словарь-тезаурус. Он состоит из двух частей: списка слов и устойчивых словосочетаний, которые сгруппированы по смыслу, и некоторого ключа, т е. алфавитного словаря, позволяющего расположить слова и словосочетания в определенном порядке. Тезаурус имеет особое значение в системах хранения информации, в которые могут вводиться семантические отношения, в основном подчинения, что позволяет на логическом уровне осуществлять организацию информации в виде отдельных записей, массивов и их комплексов. Таким образом, при возникновении информации можно изменить исходный тезаурус. Степень изменения тезауруса может быть принята как характеристика количества информации.

Синтаксический аспект информации связан со способом ее представления. В зависимости от реального процесса, в котором участвует информация, т.е. осуществляется ее сбор, передача, преобразование, отображение, представление, ввод или вывод, она представляется в виде специальных знаков, символов. Характерным носителем информации является сообщение, под которым обычно понимают все то, что подлежит передаче. Сообщения представляют в виде электрического сигнала, передаваемого по выбранной физической среде. Для этого сообщение

подвергают преобразованию, т. е. придают ему электрический характер, далее кодированию, при котором сообщение превращается в некоторую. последовательность символов, однозначно его отображающих, и модуляции, при которой каждый элемент кода (либо код в целом) переводится в электрический сигнал, способный передаваться на заданное расстояние по выбранному каналу связи. Процессы преобразования, кодирования и модуляции исключительно многообразны, а синтаксический аспект информации при ее передаче в настоящее время хорошо развит.

Виды информации Все виды деятельности человека по преобразованию природы и общества сопровождались

получением новой информации. Логическая, адекватно отображающая объективные закономерности природы, общества и мышления получила название научной информации. Ее делят по областям получения или пользования на следующие виды: политическую, техническую, биологическую, химическую, физическую и т.д.; по назначению- на массовую и специальную. Часть информации. которая занесена на бумажный носитель, получила название документальной информации. Любое производство при функционировании требует перемещения документов, т.е. возникает документооборот. Для автоматизированных систем управления информация в документах составляет внешнее информационное обеспечение. В то же время большая часть информации хранится в памяти ЭВМ на магнитных лентах, дисках и т.д. Она определяется как внутримашинное информационное обеспечение.

9.Количество информации. Мера количества информации и ее свойства. Формула Хартли.

Ральф Винтон Лайон Хартли (1888 – 1970). «Когда кто-то получает информацию, каждый полученный символ позволяет получателю «устранять возможности», исключая другие возможные символы и их связанные значения.» Количество информации – число, адекватно характеризующее величину разнообразия (набор состояний, альтернатив и т.д.) в оцениваемой системе.

Мера информации – формула, критерий оценки количества информации.

Мера информации обычно задана некоторой неотрицательной функцией, определенной на множестве событий и являющейся аддитивной, то есть мера конечного объединения событий (множеств) равна сумме мер каждого события.

Измерение количества информации:

Формула Хартли (1928):

H = log2 N

H – количество информации

N – количество возможных равновероятных альтернатив

N = 2 H=1

1 бит - количество информации, которое соответствует сообщению о выборе одной из 2-х равновероятных альтернатив:

истина ложь

да

нет

1

0

 

10.Формула Шеннона для оценки количества информации и следствия из нее.

Клод Элвуд Шеннон (1916-2001). Из статьи "Математическая теория связи»:Одна из задач теории информации - поиск наиболее экономных методов кодирования, позволяющих передать необходимую информацию с помощью минимального количества символов.

Формула Шеннона (1948):

H = - Sumni log2 рi)

n – количество альтернатив рi – вероятности альтернатив i = 1….n

H – среднее количество информации при многократном выборе .

11.Единицы измерения информации. Связь между длиной двоичного кода и количеством возможных кодируемых альтернатив. Варианты кодирования текстовых символов.

1 бит - количество информации, которое соответствует сообщению о выборе одной из 2-х равновероятных альтернатив:

истина ложь

да

нет

1

0

В двоичном коде каждый двоичный символ несет 1 бит информации. Кодовое слово длиной в H двоичных символов несет H бит информации (при условии равной вероятности появления двоичных символов). Общее количество кодовых слов

длиной H бит равно:

N =

2H

H=8

N = 256

1 байт = 8 бит.

1 байт - количество информации, которое соответствует сообщению о выборе одной из 256

равновероятных альтернатив

 

Пример

 

 

Кодовая таблица ASCII :

A

01000001

 

……………………

 

R

01010010

 

……………………

12.Единицы измерения информационной емкости устройств памяти. Пропускная способность каналов передачи информации.

Информационная емкость устройств памяти ПК (объем памяти) оцениваются следующими единицами:

1 кбайт = 1024 байт (210 байт)

1 Мбайт = 1024 кбайт (220 байт)

1 Гбайт = 1024 Мбайт (230 байт)

1 Тбайт = 1024 Гбайт (240 байт)

Пропускная способность — метрическая характеристика, показывающая соотношение предельного количества единиц информации, проходящих через канал, систему, узел в единицу

времени.

Кбит/сек, Мбит/сек, МБ/сек.

13.Двоичное кодирование чисел. Перевод чисел из двоичной системы счисления в десятичную и обратно.

Для представления чисел в ЭЦВМ используется двоичная система счисления — позиционная система счисления с основанием 2.

Преобразование двоичного числа в десятичное:

100110111012 =1*210+0*29+0*28+1*27+1*26+0*25+1*24+1*23+1*22+0*21+1*20= 124510 1024 512 256 128 64 32 16 8 4 2 1

Преобразование десятичного числа в двоичное (последовательными делениями на 2):

24510

2*122=244 2*61=122 1

2*30=60 0 2*15=30 1

2*7=14 0 2*3=6 1

2*1=2 1 1 =11101012

14.Преимущества использования восьмеричной и шестнадцатеричной систем кодирования.

Восьмеричная система счисления

{0, 1, 2, 3, 4, 5, 6, 7}

110 010 111 001 101

6 2 7 1 5

Шестнадцатиричная система счисления

{0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F} 1111 0101 1100 1101

F 5 C D.

восьмеричная система позволяет экономить место, в шестнадцатеричной системе больше диапазон чисел.

15.(1.15) Принципы реализации двоичных арифметических операций: сложение, вычитание, умножение.

Впервые двоичная система появилась в 1605 году в работах Томаса Хэрриота (он изобрёл знаки > и <). Позже двоичная система была забыта, и только в 1936-1938 гг. американский инженер и

математик Клод Шеннон нашёл замечательные применения двоичной системы при конструировании электронных схем.

Двоичная система удобна для компьютера, но неудобна для человека - числа получаются очень длинными и их трудно записывать и запоминать. Она используется, как правило, для «внутренних

нужд» компьютера. Двоичная система счисления позволяет достаточно просто организовать числа, и для того, чтобы представить число в ЭВМ, достаточно иметь устройство, которое обладает только двумя устойчивыми состояниями, одно из которых соответствует логической «1», а другое - «0». Таких элементов достаточно много: намагниченный или не намагниченный сердечник, открытый или закрытый транзистор и др. Для десятичной системы счисления понадобилось бы, к примеру, устройство с 10 устойчивыми состояниями. Это значительно усложнило бы схему ЭВМ.

Другим важным достоинством двоичной системы является простота вычислений. Рассмотрим, как выполняются арифметические действия в двоичной системе. Для этого проведём анализ таблиц сложения и умножения в двоичной системе.

Примеры сложения двоичных чисел:

Примеры умножения двоичных чисел:

Следует обратить внимание на аналогию в правилах выполнения арифметических действий в двоичной и десятичной системах счисления: например, если при сложении двух двоичных чисел сумма цифр окажется больше единицы, то возникает перенос в старший разряд.

Вычитание двоичных чисел осуществляется следующим образом: Вычитаемое число преобразуется в дополнительный код. Например, если надо вычесть из числа 10110 число 01000, то вычитаемое 01000 преобразуется в дополнительный код так: в числе вместо 0 пишется 1, а вместо 1 пишется 0, следовательно, получим из вычитаемого число 10111. Затем преобразованное число складывается с уменьшаемым:

И вычитаемое, и уменьшаемое состоят из 5 разрядов, а результат суммы - число 6-разрядное. Старший разряд суммы отнимается от числа и складывается с результатом:

Такой приём часто используется в практике вычислений. Например, в десятичной системе числа можно вычесть так. Допустим требуется найти разность 842-623. Представим число 623 в дополнительный вид, отняв его от 1000. Получим число 377. Затем найдём сумму: 842+377=1219. Отбросим перенос в старший разряд и получим число 219. Мы нашли решение этого примера.

16.(1.16) Алгебра логики. Элементарные логические операции. Таблицы истинности.

Алгебра высказывания ( алгебра логики)

Высказывания представляются логическими переменными, которые могут иметь всего два значения:

-Истина: true (1) -Ложь: false (0)

Джордж Буль (1815-1864) разработал алгебру логики (Булеву алгебру) Базовые операции алгебры логики (задаются таблицами истинности)

1)Логическое ИЛИ (дизъюнкция V,I ,OR)

2)Логическое И (конъюнкция ^, &, AND)

3)Логическое НЕ (инверсия, NOT )

 

 

 

A

 

 

B

a

 

b

 

 

a+b

 

0

 

0

 

 

0

 

0

 

1

 

 

1

 

1

 

0

 

 

1

 

1

 

1

 

 

1

 

 

 

 

 

 

 

a

b

a*b

 

 

 

0

0

0

 

 

 

 

0

1

0

 

 

 

 

1

0

0

 

 

 

 

1

1

1

 

 

 

 

aa/

(чёрточка

 

сверху)

0

1

1

0

C

 

Происходит убывание приоритета от С до А

17.(1.17) Основные законы алгебры логики.

-Операции с константами: а+0=а, а+1=1, а+0=0, а+1=а -Закон исключённого третьего: а+а/(эта чёрточка должна быть сверху над а)=1 -Закон непротиворечия : а+а/=0 -законы идемпотенции : а+а=а, а*а=0 -Закон двойного отрицания: а//=а

-Закон де Моргана(отображают дуальность): а+b/(черта над всей суммой)=a/*b/, а*b(черта над всем произведением)=a/+b/

-Закон поглощения: а+а*b=а -Закон склеивания: а*b+a*b/=а

18.(1.18) Правила построения логических выражений в СДНФ.

Любая сколь угодно сложная логическая функция, заданная своей таблицей истинности, может быть представлена логическим выражением в совершенной дизъюнктивной нормальной форме (СДНФ)

Пример: таблица истинности однорядного сумматора.

Входы

 

 

Выходы

 

 

 

 

 

 

a

b

c

S

P

 

 

 

 

 

0

0

1

1

0

 

 

 

 

 

0

1

0

1

0

 

 

 

 

 

0

1

1

0

1

 

 

 

 

 

S=a/b/p+a/bp/+ab/p/+abp

P=a/bp+ab/p+abp/+abp=ab=ap+bp

*Здесь чёрточка рядом с буквой (a/) должна располагаться сверху над ней.

Построение СДНФ: для всех сторон с единичными значениями выходной функции выписывается логическая сумма (дизъюнкция) из логических произведений (конъюнкций) всех входных переменных, при этом входная переменная пишется с инверсией, если её значение в соответствующей строке равно нулю.

19.(2.1) История компьютера. Принципы организации работы компьютера. Базовая архитектура компьютера. Поколения ЭЦВМ.

Компьютер (ЭЦВМ) - программно управляемое электронное устройство для автоматизации процессов приема, хранения, обработки и передачи информации История компьютера:

1Аналитическая машина (1834)- Чарльз Бэббидж 2. Первая статья по программированию (1843)- Ада Лавлейс

3.Джон фон Нейман, принципы фон Неймана (1946): -Принцип программного управления -Принцип двоичного кодирования -Принцип однородности памяти -Принцип адресности памяти -Принцип жесткости архитектуры

Архитектура компьютера по фон Нейману

4.Первая ЭЦВМ с единым ОЗУEDSAC (1949) Морис Винсент Уилкс (Англия)

5.Микроэлектроника - направление электроники, связанное с созданием приборов и устройств в микроминиатюрном исполнении и с использованием групповой (интегральной) технологии их изготовления.

В основе - полупроводниковые структуры в кристаллах кремния.

«Закон Мура»: Каждые два года число транзисторов на кристалле удваивается (Гордон Мур – основатель корпорации Intel )

Поколения ЭЦВМ:

1 – электронные лампы

2 – транзисторы

3 – интегральные схемы

4 – большие интегральные схемы (микропроцессоры)

5

– ? (сетевые технологии,

искусственный интеллект)

20.(2.2)

Основные семейства ПК и их отличительные особенности. Классическая

 

архитектура ПК.

 

 

 

 

 

 

 

 

 

 

 

Семейство персональных компьютеров

 

 

Семейство персональных

 

 

 

 

 

 

 

IBM PC

 

 

компьютеров

 

 

 

 

 

 

Apple Macintosh

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

CISC архитектура –

 

 

RISC архитектура – усеченный набор

 

 

полный набор команд

 

 

команд

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Требуется больше памяти для хранения программ

 

Простые команды занимают мало

 

 

 

 

 

Увеличивается среднее время выполнения команд

 

места в памяти и выполняются

 

 

 

 

 

 

быстрее

 

 

 

 

 

 

Необходима эмуляция сложных

 

 

 

 

 

 

команд последовательностями

 

 

 

 

 

 

простых команд

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Многие периферийные функции требуют установки

 

Большинство периферийных функций

 

 

 

 

 

дополнительных устройств

 

 

являются встроенными

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]