Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Otvety_k_ekzamenu_po_infor.docx
Скачиваний:
33
Добавлен:
26.02.2016
Размер:
151.23 Кб
Скачать

1) Информатика – техническая наука о способах получения, накопления, хранения, преобразования, передачи, защиты и использования информации средствами вычислительной техники. А также принципы функционирования этих средств и управление ими.

Предметом информатики являются информационные технологии: аппаратное обеспечение ЭВМ, программное обеспечение, средства взаимодействия аппаратного и программного обеспечения и взаимодействие человека с ними. Объектом изучения информатики – информационные системы.

Начинается  история развития информатики с момента появления первых электронно-вычислительных машин в конце 40-х – начале 50-х годов ХХ века. Это были первые ЭВМ, работающие на электронных лампах. Ближе к 60-м годам были изобретены дискретные полупроводниковые ЭВМ. А в середине 60-х годов появились машины, оборудованные интегральными микросхемами. Но были и предпосылки: в 1642 году Паскалем был создан восьмиразрядный суммирующий механизм. Через 2 столетия Шарль де Кольмар усовершенствовал его до арифмометра, который производил более сложные математические действия в виде умножения и деления. Но собственно история развития информационных технологий начинается с изложения идей, положенных в основу современных компьютеров в 1833 году англичанином Чарльзом Бэббиджем. Он впервые использовал перфокарты, отверстия которых служили для передачи информации. Это были первые шаги программирования.

История  развития информационных систем была продолжена в 1888 году инженером из Америки Германом Холлеритом, которому принадлежит авторство первой счетной машины электромеханического типа. История  развития информационных технологий благодарна Холлериту и в том, что он основал компанию, которая в дальнейшем стала именоваться IBM и на сегодняшний день является гигантом мировой компьютеризации. Ее сотрудники вместе с учеными Гарвардского университета в 1940 году построили первую электронно-вычислительную машину, которую назвали «Марк-1». Таким образом, история развития информатики подошла к моменту радикального уменьшения размеров компьютеров и следующее их поколение было существенно меньших размеров. А скорость вычислительных способностей увеличилась в 10 раз.

Информатика – научная дисциплина, изучающая вопросы, связанные с поиском, сбором, хранением, накоплением, преобразованием и использованием информации в самых различных сферах человеческой деятельности.

Киберне́тика – наука об общих закономерностях процессов управления и передачи информации в различных системах, будь то машины, живые организмы или общество. Она фокусирует внимание на том, как что-либо (цифровое, механическое или биологическое) обрабатывает информацию, реагирует на неё и изменяется или может быть изменено, для того чтобы лучше выполнять задачи.

2) Ещё в V веке до нашей эры древние люди стали использовать для счета специальные доски - абак. В 1642 году французкий ученый Блез Паскаль создал первую механическую счетную машину "паскалину", которая могла складывать и вычитать числа. В 1670 году немецкий ученый Готфрид Вильгельм Лейбниц создал свою счетную машину, которая позволяла не только складывать и вычитать, но и умножать и делить числа. Эта машина стала прототипом будущих арифмометров. В 1801 году французский изобретатель Ж. М. Жаккар впервые использовал перфокарты для управления автоматическим ткацким станком. В 1823 году Чарльз Беббидж (Англия) изобрел первую автоматическую счетную машину с программным управлением. Идеи Беббиджа воплотились в принципах фон Неймана построения универсальной ЭВМ, сформулированные им 1945 году. В 1946 была продемострирована первая ЭВМ, электронная вычислительная машина, реализованная на электронных лампах. Первый компьютер, в котором были воплощены принципы фон Неймана, был построен в 1949 году английским исследователем Морисом Уилксом. С той поры компьютеры стали гораздо более мощными, но подавляющее большинство из них сделано в соответствии с теми принципами, которые изложил в своем докладе в 1945 году Джон фон Нейман.

3) Первое поколение - компьютеры на электронных лампах (1946-1956г.). За точку отсчета эры ЭВМ обычно принимают 15 февраля 1946 года, когда ученые Пенсильванского университета США ввели в строй первый в мире электронный компьютер ЭНИАК. В нем использовалось 18 тысяч электронных ламп. Машина занимала площадь 135 м, весила 30 тонн и потребляла 150 кВт электроэнергии. В СССР в 1952 году академиком С.А. Лебедевым была создана самая быстродействующая в Европе ЭВМ БЭСМ. Второе поколение - компьютеры на транзисторах (1956-1964г.). Полупроводниковый прибор - транзистор был изобретен в США в 1948 году Шокли и Бардиным. Компьютеры на транзисторах резко уменьшили габариты, массу, потребляемую мощность, повысили быстродействие и надежность. Третье поколение - компьютеры на микросхемах с малой степенью интеграции (1964-1971г.). Микросхема была изобретена в 1958 году Дж. Килби в США. Микросхемы позволили повысить быстродействие и надежность ЭВМ, снизить габариты, массу и потребляемую мощность. Первая ЭВМ на микросхемах IBM-360 была выпущена в США в 1965 году, как и первая мини-ЭВМ PDP-8 размером с холодильник. Четвертое поколение - компьютеры на микропроцессорах (1971-настоящее время). Микропроцессор - это арифметическое и логическое устройство, выполненное чаще всего в виде одной микросхемы с большой степенью интеграции. Применение микропроцессоров привело к резкому снижению габаритов, массы и потребляемой мощности ЭВМ, повысило их быстродействие и надежность. Первый микропроцессор Intel-4004 был выпущен в США фирмой Intel в 1971 году. Его разрядность была 4 бита. В 1973г. был выпущен 8-битовый Intel-8008, а в 1974г. Intel-8080. В 1975г. появился первый в мире персональный компьютер Альтаир-8800, построенный на базе Intel-8080. Началась эра персональных ЭВМ. Первый компьютер фирмы IBM с названием IBM PC появился в 1981 году. Он был сделан на базе 16-битового микропроцессора Intel-8088 и имел ОЗУ 1 Мб (у всех других машин было тогда ОЗУ 64 Кб). В 1985г. фирма Intel разработала 32-битовый процессор Intel-80386.

Пятое поколение (перспективное) - это ЭВМ, использующие новые технологии и новую элементную базу, например сверхбольшие интегральные схемы, оптические и магнито-оптические элементы, работающие посредством обычного разговорного языка, оснащенные огромными базами данных. Предполагается также использовать элементы искусственного интеллекта и распознавание зрительных и звуковых образов. Такие проекты разрабатываются в ведущих промышленно развитых странах.

4) Термин  "информация"  происходит от латинского слова  "informatio",  что означает сведения,  разъяснения,  изложение. Несмотря на широкое распространение этого термина, понятие информации является одним из самых дискуссионных в науке. В настоящее время наука пытается найти общие свойства и закономерности, присущие многогранному понятию информация, но пока это понятие во многом остается интуитивным и получает различные смысловые наполнения в различных отраслях человеческой деятельности.

Свойства информации

Характерной особенностью информации, отличающей ее от других объектов природы и общества, является дуализм: на свойства информации влияют как свойства данных, составляющих ее содержательную часть, так и свойства методов, взаимодействующих с данными в ходе информационного процесса. Можно привести немало разнообразных свойств информации. Каждая научная дисциплина рассматривает те свойства, которые ей наиболее важны. С точки зрения информатики наиболее важными представляются следующие свойства: объективность, полнота, достоверность, адекватность, доступность и актуальность информации.

Виды информации по способу восприятия:

У человека пять органов чувств, с их помощью человек получает информацию о внешнем мире: зрение – визуальная, слух – аудиальная, обоняние – обонятельная, вкус – вкусовая, осязание – тактильная.

Виды информации по форме представления:

Текстовая, числовая, звуковая, мультимедийная (комбинированная).

Виды информации по общественному значению:

Личная (знания, умения, навыки, интуиция), массовая (общественная, обыденная, эстетическая), специальная (научная, производственная, техническая, управленческая).

5) Информация - очень емкое понятие, отражающееся в двух формах - непрерывной (аналоговой) и дискретной. Обратимся к их сущности.  Непрерывная. Объекты и явления характеризуются значениями физических величин. Природа некоторых величин такова, что величина может принимать принципиально любые значения в каком-то диапазоне. Эти значения могут быть сколь угодно близки друг к другу, малоразличимы, но все-таки, хотя бы в принципе, различаться, а количество значений, которое может принимать такая величина, бесконечно велико.  Такие величины называются непрерывными величинами, а информация, которую они несут в себе, непрерывной информацией. Слово "непрерывность" отчетливо выделяет основное свойство таких величин - отсутствие разрывов, промежутков между значениями, которые может принимать величина.  Дискретная. Кроме непрерывных существуют иные величины. Такого рода величины могут принимать только целые значения, например, 0, 1, 2, ..., и не могут иметь дробных значений. Величины, принимающие не всевозможные, а лишь вполне определенные значения, называют дискретными.

6) Для теоретической информатики информация играет такую же роль, как и вещество в физике. И подобно тому, как веществу можно приписывать довольно большое количество характеристик, так и для информации имеется представительный набор характеристик. Как и для характеристик вещества, так и для характеристик информации имеются единицы измерения.

На сегодняшний день наиболее известны следующие способ измерения информации: объемный, энтропийный, алгоритмический.

Объемный является самым простым и грубым способом измерения информации. Соответствующую количественную оценку информации естественно назвать объемом информации (Объем информации в сообщении — это количество символов в сообщении.)

В вычислительной технике вся обрабатываемая и хранимая информация вне зависимости от ее природы (число, текст, отображение) представлена в двоичной форме (с использованием алфавита, состоящего всего из двух символов 0 и 1). Такая стандартизация позволила ввести две стандартные единицы измерения: бит и байт. Байт — это восемь бит.

Энтропийный подход к измерению информации. Этот способ измерения исходит из следующей модели. Получатель информации (сообщения) имеет определенные представления о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны ни выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей. Количество информации в сообщении определяется тем, насколько уменьшится эта мера после получения сообщения.

7) Наиболее известным и широко применяемым на практике является вероятностный подход к измерению информации. На основе этого подхода разработан обширный раздел количественной теории информации, называемый также по имени его основоположника, как "теория информации Шеннона". Главной отличительной особенностью вероятностного подхода от комбинаторного является тот факт, что он основан на вероятностных допущениях относительно пребывания какой-либо системы в различных состояниях. При этом общее число элементов (микросостояний, событий) системы не учитывается. За количество информации здесь принимается снятая неопределенность выбора из множества возможностей, имеющих, в общем случае, различную вероятность.

Основополагающая роль в вероятностном подходе принадлежит энтропии множества вероятностей, формула которой была получена в 1948 году американским исследователем К. Шенноном. Предлагая для измерения количества информации свою знаменитую энтропийную меру, К. Шеннон руководствовался следующими соображениями. 1) Н должна быть непрерывной относительно . 2) Если всеравны, тоН должна быть монотонно возрастающей функцией от n. 3) Если выбор распадается на два последовательных выбора, то первоначальная Н должна быть взвешенной суммой индивидуальных значений Н каждого из выборов.

8) В современной информатике используются в основном три системы счисления (все – позиционные): двоичная, шестнадцатеричная и десятичная. Также есть: пятеричная (в Китае), шестеричная, восьмеричная, двенадцатеричная (временная года, часы).

Двоичная система счисления используется для кодирования дискретного сигнала, потребителем которого является  вычислительная техника. Такое положение дел сложилось исторически, поскольку двоичный сигнал проще представлять на аппаратном уровне. В этой системе счисления для представления числа применяются два знака – 0 и 1.

Шестнадцатеричная система счисления  используется для кодирования дискретного сигнала, потребителем которого является хорошо подготовленный пользователь – специалист в области информатики. В такой форме представляется содержимое любого файла, затребованное через интегрированные оболочки операционной системы, например, средствами Norton Commander в случае MS DOS. Используемые знаки для представления числа – десятичные цифры от 0 до 9 и буквы латинского алфавита – A, B, C, D, E, F.

Десятичная система счисления используется для кодирования дискретного сигнала, потребителем которого является так называемый конечный пользователь – неспециалист в области информатики (очевидно, что и любой человек может выступать в роли такого потребителя). Используемые знаки для представления числа – цифры от 0 до 9.

Для перевода чисел из одной системы счисления в другую существуют определенные правила. Они различаются в зависимости от формата числа – целое или правильная дробь. Для вещественных чисел используется комбинация правил перевода для целого числа и правильной дроби. Также есть позиционные (значение зависит от положения) и не позиционные (не зависит).

9) В позиционных системах значение записи целого числа определяется по следующему правилу: пусть a nn-1n-2…a 1— запись числа A, а i – цифры, тогда A = a n·pn+a n-1·pn-1 +a n-2·pn-2+...+a 1·p1+ a0·p0 (1) где p — целое число большее 1, которое называется основанием системы счисления. Для того, чтобы при заданном p любое неотрицательное целое число можно было бы записать по формуле (1) и притом единственным образом, числовые значения различных цифр должны быть различными целыми числами, принадлежащими отрезку от 0 до p-1.

Представление отрицательных и дробных чисел:

Во всех позиционных системах для записи отрицательных чисел так же как и в десятичной системе используется знак ‘–‘.  Для отделения целой части числа от дробной используется запятая. Значение записи a nn-1n-2…a 10, a -1 a -2…a m-2 m-1mчисла A определяется по формуле, являющейся обобщением формулы (1): A = an·pn+a n-1·p n-1+a n-2·p n-2+…+a1·p1+a0·p0+a-1·p-1+a -2·p-2+…+am-2·p–(m–2)+am–1·p–(m–1)+amp–m (2).

Перевод чисел из произвольной системы счисления в десятичную:

Следует понимать, что при переводе числа из одной системы счисления в другую количественное значение числа не изменяется, а меняется только форма записи числа, так же как при переводе названия числа, например, с русского языка на английский.

Перевод чисел из произвольной системы счисления в десятичную выполняется непосредственным вычислением по формуле (1) для целых и формуле (2) для дробных чисел.

Перевод чисел из десятичной системы счисления в произвольную.

Перевести число из десятичной системы в систему с основанием p – значит найти коэффициенты в формуле (2). Иногда это легко сделать простым подбором. Понятно, что не всегда ответ столь очевиден. В общем случае применяется способ перевода отдельно  целой и дробной частей числа.  

Для перевода целых чисел применяется следующий алгоритм (полученный на основании формулы (1):

1. Найдем частное и остаток от деления числа на p. Остаток  будет очередной цифрой ai (j=0,1,2 …) записи числа в новой системе счисления.

2. Если частное равно нулю, то перевод числа закончен, иначе применяем к частному пункт 1.

Замечание 1. Цифры ai в записи числа нумеруются справа налево.

Замечание 2. Если p>10, то необходимо ввести обозначения для цифр с числовыми значениями, большими или равными 10.

Для перевода дробных частей чисел применяется алгоритм, полученный на основании формулы (2):

1. Умножим дробную часть числа на p.

2. Целая часть результата будет очередной цифрой am (m = –1,–2, –3 …) записи  числа в новой системе счисления. Если дробная часть результата равна нулю, то перевод числа закончен, иначе применяем к ней пункт 1.

Перевод чисел из одной произвольной системы в другую:

В этом случае сначала следует выполнить перевод числа в десятичную систему, а затем из десятичной в требуемую.

10) Представление целых чисел в компьютере.

Целые числа являются простейшими числовыми данными, с которыми оперирует ЭВМ. Для целых чисел существуют два представления: беззнаковое (только для неотрицательных целых чисел) и со знаком. Очевидно, что отрицательные числа можно представлять только в знаковом виде. Целые числа в компьютере хранятся в формате с фиксированной запятой.

Число с фиксированной запятой — формат представления вещественного числа в памяти ЭВМ в виде целого числа. При этом само число x и его целочисленное представление x′ связаны формулой: ,

Название «фиксированная запятая» произошло из-за простой метафоры: между двумя заранее определёнными разрядами ставится запятая, превращая, например, целое число 1234 в дробное 12,34.

Недостаток фиксированной запятой — очень узкий диапазон чисел, с угрозой переполнения на одном конце диапазона и потерей точности вычислений на другом. Эта проблема и привела к изобретению плавающей запятой.

11) Для представления вещественных чисел в современных компьютерах принят способ представления с плавающей запятой. Этот способ представления опирается на нормализованную (экспоненциальную) запись действительных чисел. Как и для целых чисел, при представлении действительных чисел в компьютере чаще всего используется двоичная система, следовательно, предварительно десятичное число должно быть переведено двоичную систему.

Нормализованная запись числа.

Нормализованная запись отличного от нуля действительного числа - это запись вида a= m*Pq, где q - целое число (положительное, отрицательное или ноль), а m - правильная P-ичная дробь, у которой первая цифра после запятой не равна нулю. При этом m называется мантиссой числа, q - порядком числа.

Представление чисел с плавающей запятой.

При представлении чисел с плавающей запятой часть разрядов ячейки отводится для записи порядка числа, остальные разряды - для записи мантиссы. По одному разряду в каждой группе отводится для изображения знака порядка и знака мантиссы. Для того, чтобы не хранить знак порядка, был придуман так называемый смещённый порядок, который рассчитывается по формуле 2a-1+ИП, где a - количество разрядов, отводимых под порядок. Алгоритм представления числа с плавающей запятой:

1)Перевести число из p-ичной системы счисления в двоичную;

2)Представить двоичное число в нормализованной экспоненциальной форме;

3)Рассчитать смещённый порядок числа;

4)Разместить знак, порядок и мантиссу в соответствующие разряды сетки.

12)Двоичное кодирование текстовой информации.

Традиционно для кодирования одного символа используется 1 байт (8 двоичных разрядов). Это позволяет закодировать N = 28 = 256 различных символов, которых обычно бывает достаточно для представления тексто­вой информации (прописные и заглавные буквы русского и латинского алфавита, цифры, знаки, графические символы и т.д.).

При двоичном кодировании текстовой информации каждому символу ставится в соответствие своя уникальная последовательность из восьми нулей и единиц, свой уникаль­ный двоичный код от 00000000 до 11111111 (десятичный код от 0 до 255).

Присвоение символу конкретного двоичного кода - это вопрос соглашения, которое фиксируется в кодовой таблице. Первые 33 кода (с 0 по 32) соответствуют не символам, а операциям (перевод строки, ввод про­бела и т.д.). Коды с 33 по 127 являются интернациональными и соответствуют символам латинского алфавита, цифрам, знакам арифметических операций и знакам препинания.

Коды с 128 по 255 являются национальными, т.е. в национальных кодировках одному и тому же коду соответствуют различные символы.

В последнее время появился новый международный стандарт Unicode, который отводит на каждый символ не один байт, а два, и потому с его помощью можно закодировать не 256 символов, а N = 216 = 65536 различных символов. Эту кодировку поддерживает платформа Microsoft WindowsOffice 97.

КОДИРОВАНИЕ СИМВОЛОВ. ВИДЫ КОДИРОВОК. ТАБЛИЦЫ ASCII. UNICODE. Сравнительно небольшой базовый набор символов можно закодировать при помощи таблиц соответствия этого набора машинным кодам (фактически, двоичным числам). Можно вполне ограничиться набором двоичных чисел от 0 до 27 (всего 128 позиций), что и было сделано. Таблица соответствия получила название ASCII (American Standard Code for Information Interchange). В рамках таблицы ASCII создание многоязычных документов являлось очень проблематичной, а в большинстве случаев и совершенно невыполнимой задачей.

Однако базового набора кодов стало быстро не хватать. Возросший дефицит знакомест в стандартной таблице ASCII потребовал ее немедленного расширения. В результате возникла новая таблица кодировок, получившая название "расширенная таблица ASCII", число знакомест в которой возросло до 28 (256 знакомест). Эта таблица получила название международного стандарта IS 646, а восьмибитный код -Latin-1. В него были добавлены в основном латинские буквы со штрихами и диакритические символы. Вскоре появился новый стандарт IS 8859, в котором вводилось понятие "кодовая страница", т.е. набор из 256 символов для определения языка или группы языков, т.е. IS 8859-1 этоLatin-1, IS 8859-2 включал славянские языки с латинским алфавитом (чешский, польский, вергерский), IS 8859-3 включал турецкий, мальтийский, эсперанто, галисийский языки, и т.д. Недостатком такого подхода является то, что программное обеспечение должно следить за кодовыми страницами, смешивать языки при этом невозможно, кроме того не были созданы кодовые страницы японского и китайского языков.

UNICODE

В январе 1991 года возник консорциум UNICODE (Unicode Consortium), целью которого является продвижение, развитие и реализация стандарта Unicode как международной системы кодирования для обмена информацией, а также поддержание качества этого стандарта в будущих версиях.

Стандарт UNICODE 4.0 представляет собой новую систему кодирования символов, выводимых на экран монитора или на принтер, позволяющую закодировать 1 114 112 символов (в стандарте из принято называть code points). Большинство символов, используемых в основных языках мира занимают 65 536 code points, образуя Basic Multilingual Plane (BMP) (Основной Многоязычный Уровень). Оставшиеся (более миллиона) code points вполне достаточно для кодирования всех известных символов, включая малораспространенные языки и исторические знаки. Стандарт UNICODE поддерживается тремя формами, 32-битной (UTF-32), 16-битной (UTF-16) и 8-битной (UTF-8). Восьмибитная форма UTF-8 была разработана для удобной совместимости с ASCII-ориентироваными системами кодирования. Стандарт UNICODE совместим с Международным стандартом International Standard ISO/IEC 10646.

13) С 80-х годов интенсивно развивается технология обработки на компьютере графической информации. Компьютерная графика позволяет создавать и редактировать рисунки, схемы, чертежи, преобразовывать изображения (фотографии, слайды и т.д.), представлять статистические данные в форме деловой графики, создавать анимационные модели (научные, игровые и т.д.), обрабатывать «живое видео».

Графическая информация на экране монитора представляется в виде изображения, которое формируется из точек (пикселей). В простейшем случае (черно-белое изображение без градаций серого цвета) каждая точка экрана может иметь лишь два состояния — «черная» или «белая», т.е. для хранения ее состояния необходим 1 бит.

Цветные изображения могут иметь различную глубину цвета (бит на точку 4, 8, 16, 24). Каждый цвет можно рассматривать как возможное состояние точки, и тогда по формуле N = 21 может быть вычислено количество цветов, отображаемых на экране монитора.

Изображение может иметь различный размер, который определяется количеством точек по горизонтали и по вертикали В современных персональных компьютерах обычно используются четыре основных размера изображения или разрешающих способностей экрана: 640*480, 800*600, 1024*768 и 1280*1024 точки.

Для того чтобы на экране монитора формировалось изображение, информация о каждой его точке (цвет точки) должна храниться в видеопамяти компьютера.

14) Двоичное кодирование звуковой информации.

С начала 90-х годов персональные компьютеры получили возможность работать со звуковой информацией. Каждый компьютер, имеющий звуковую плату, микрофон и колонки, может записывать, сохранять и воспроизводить звуковую информацию. С помощью специальных программных средств (редакторов аудиофайлов) открываются широкие возможности по созданию, редактированию и прослушиванию звуковых файлов. Создаются программы распознавания речи и появляется возможность управления компьютером при помощи голоса.

Звуковой сигнал - это непрерывная волна с изменяющейся амплитудой и частотой. Чем больше амплитуда сигнала, тем он громче для человека, чем больше частота сигнала, тем выше тон. Для того чтобы компьютер мог обрабатывать непрерывный звуковой сигнал, он должен быть дистретизирован, те превращен в последовательность электрических импульсов (двоичных нулей и единиц).

При двоичном кодировании непрерывного звукового сигнала он заменяется серией его отдельных выборок-отсчетов. Каждая выборка фиксирует реальную амплитуду сигнала и присваивается ей определенное, наиболее близкое, дискретное значение. Чем большее количество дискретных значений может обеспечить звуковая карта и чем большее количество выборок производится за 1 секунду, тем точнее процедура двоичного кодирования.

15) Компьютер работает на электричестве,  т.е. логические элементы компьютера оперируют с сигналами, представляющими собой электрические импульсы. Есть импульс – логический смысл сигнала – 1, нет импульса – 0. На входы логического элемента поступают сигналы-значения аргументов, на выходе появляется сигнал-значение функции.

Преобразование сигнала логическим элементом является таблицей состояния, которая фактически является таблицей истинности, соответствующей логической функции.

Базовые логические элементы реализуют рассмотренные выше три основные логические операции: • логический элемент «И» - логическое умножение; • логический элемент «ИЛИ» - логическое сложение; • логический элемент «НЕ» - инверсию. Поскольку любая логическая операция может быть представлена в виде комбинаций трех основных, любые устройства компьютера, производящие обработку или хранение информации, могут быть собраны из базовых логических элементов, как из «кирпичиков».

16) Принципы фон Неймана.

Основы учения об архитектуре вычислительных машин заложил выдающийся американский математик Джон фон Нейман. Он подключился к созданию первой в мире ламповой ЭВМ ENIAC в 1944 г., когда ее конструкция была уже выбрана. В процессе работы во время многочисленных дискуссий со своими коллегами Г. Голдстайном и А. Берксом фон Нейман высказал идею принципиально новой ЭВМ. В 1946 г. ученые изложили свои принципы построения вычислительных машин в ставшей классической статье “Предварительное рассмотрение логической конструкции электронно-вычислительного устройства”. С тех пор прошло полвека, но выдвинутые в ней положения сохраняют актуальность и сегодня.

В статье убедительно обосновывается использование двоичной системы для представления чисел (нелишне напомнить, что ранее все вычислительные машины хранили обрабатываемые числа в десятичном виде). Авторы убедительно продемонстрировали преимущества двоичной системы для технической реализации, удобство и простоту выполнения в ней арифметических и логических операций.

Еще одной поистине революционной идеей, значение которой трудно переоценить, является предложенный Нейманом принцип “хранимой программы”. Нейман первым догадался, что программа может также храниться в виде набора нулей и единиц, причем в той же самой памяти, что и обрабатываемые ею числа. Отсутствие принципиальной разницы между программой и данными дало возможность ЭВМ самой формировать для себя программу в соответствии с результатами вычислений.

Основными блоками по Нейману являются устройство управления (УУ) и арифметико-логическое устройство (АЛУ) (обычно объединяемые в центральный процессор), память, внешняя память, устройства ввода и вывода.

Устройство управления и арифметико-логическое устройство в современных компьютерах объединены в один блок – процессор, являющийся преобразователем информации, поступающей из памяти и внешних устройств.

Память (ЗУ) хранит информацию (данные) и программы. Запоминающее устройство у современных компьютеров “многоярусно” и включает оперативное запоминающее устройство (ОЗУ), хранящее ту информацию, с которой компьютер работает непосредственно в данное время (исполняемая программа, часть необходимых для нее данных, некоторые управляющие программы), и внешние запоминающие устройства (ВЗУ) гораздо большей емкости, чем ОЗУ. но с существенно более медленным доступом (и значительно меньшей стоимостью в расчете на 1 байт хранимой информации). На ОЗУ и ВЗУ классификация устройств памяти не заканчивается – определенные функции выполняют и СОЗУ (сверхоперативное запоминающее устройство), и ПЗУ (постоянное запоминающее устройство), и другие подвиды компьютерной памяти.

В построенной по описанной схеме ЭВМ происходит последовательное считывание команд из памяти и их выполнение. Номер (адрес) очередной ячейки памяти. из которой будет извлечена следующая команда программы, указывается специальным устройством – счетчиком команд в УУ. Его наличие также является одним из характерных признаков рассматриваемой архитектуры.

Разработанные фон Нейманом основы архитектуры вычислительных устройств оказались настолько фундаментальными, что получили в литературе название “фон-неймановской архитектуры”. Подавляющее большинство вычислительных машин на сегодняшний день – фон-неймановские машины. Исключение составляют лишь отдельные разновидности систем для параллельных вычислений, в которых отсутствует счетчик команд, не реализована классическая концепция переменной и имеются другие существенные принципиальные отличия от классической модели (примерами могут служить потоковая и редукционная вычислительные машины).

По-видимому, значительное отклонение от фон-неймановской архитектуры произойдет в результате развития идеи машин пятого поколения, в основе обработки информации в которых лежат не вычисления, а логические выводы

17)Процессор. Основные характеристики процессора

Микросхема, реализующая функции центрального процессора персонального компьютера, называется микропроцессором. Обязательными компонентами микропроцессора является арифметико – логическое устройство и блок управления.

Арифметико – логическое устройство отвечает за выполнение арифметических и логических операций, а устройство управления координирует работу всех компонентов и выполнение процессов, происходящих в компьютере.

Процессор компьютера предназначен для обработки информации. Каждый процессор имеет определенный набор базовых операций (команд), например, одной из таких операций является операция сложения двоичных чисел.

Технически процессор реализуется на большой интегральной схеме, структура которой постоянно усложняется, и количество функциональных элементов (типа диод или транзистор) на ней постоянно возрастает (от 30 тысяч в процессоре 8086 до 5 миллионов в процессоре Pentium II).

Тактовая частота задает ритм жизни компьютера. Чем выше тактовая частота, тем меньше длительность выполнения одной операции и тем выше производительность компьютера.

Под тактом мы понимаем промежуток времени, в течение которого может быть выполнена элементарная операция. Тактовую частоту можно измерить и определить ее значение. Единица измерения частоты - МГц – миллион тактов в секунду.

Другой характеристикой процессора, влияющей на его производительность, является разрядность. В общем случае производительность процессора тем выше, чем больше его разрядность. В настоящее время используются 18,16-, 32- и 64-разрядные процессоры, причем практически все современные программы рассчитаны на 32- и 64-разрядные процессоры.

Производительность процессора является интегральной характеристикой , которая зависит от частоты процессора, его разрядности, а так же особенностей архитектуры (наличие кэш-памяти и др.). Производительность процессора нельзя вычислить, она определяется в процессе тестирования, т.е. определения скорости выполнения процессором определенных операций в какой-либо программной среде.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]