
Лабораторная работа № 1 Основы информации и структуры пк
1.Задание по работе
1.1. Законспектировать незнакомый материал работы в тетрадь.
1.2. Схематично изобразить в тетради заднюю панель системного блока ПК в аудитории. Указать тип и назначение разъемов.
1.3. Подготовить ответы на вопросы и защитить работу.
2 Основы теории информации
В дисциплинах информатика, информационных и компьютерных технологиях базовым элементом является понятие информации. Слово «информация» вошло в русский язык в Петровскую эпоху от латинского informatio, как представление, понятие о чем-либо. Толковый словарь русского языка Ожегова приводит определение информации как сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством. В базовом курсе информатики [1] дается определение информации как продукта взаимодействия данных и адекватных им методов.
Исходя из этого определения, данными считаются сигналы, которые человек может воспринимать, регистрировать, запоминать и т.д.. Данные, для которых существуют методы (алгоритмы) обработки позволяющие принимать решения, называются информацией. Информация позволяет выполнять исследования, анализ, синтез и получать новую информацию –знания.
Вид и тип информации многообразен и зависит от воспринимающих органов человека, регистрирующих приборов. Она может быть в виде света, звука, графики и т.д. Функциональное назначение информации используется для образования, обучения, хранения знаний, как социально образующее, как продукт производства и потребления и др.
Объём
информации можно представлять как
логарифм
количества возможных состояний.
(Логарифм
(от
греческого
λόγος —
«слово», «отношение» и ἀριθμός –
«число») числа
b
по основанию a
определяется как показатель степени,
в которую надо возвести основание a,
чтобы получить число b.
Обозначение:
)
Например,
,
потому что
,
log2
2=1. Наименьшее целое число, логарифм
которого положителен –
это 2. Это число равное единице (бит)
является основой исчисления информации
в цифровой технике. Приняты следующие
названия:
-1 байт = 8 бит - 100 - 20 ,
-1 килобайт = 1024 байт - 103 - 210,
-1 мегабайт = 1024 Кбайт - 106 - 220,
-1 гигабайт = 1024 Мбайт - 109 - 230,
-1 терабайт = 1024 Гбайт - 1012 - 240,
-1 петабайт = 1024 Тбайт - 1015 - 250,
-1эксабайт(ЕВ) = 1024 Пбайт(PB) - 1018 - 260 ,
-1зеттабайт ( ZB) ) = 1024) ЕВ - 1021 - 270,
-1 йоттабайт (YB) ) = 1024 ZB - 1024 - 280.
Для характеристики качества информации может быть использован показатель – энтропия. Величина (полнота) информации (как и близкая к ней по смыслу энтропия) безразмерна. Энтропия (от греч. ἐντροπία – поворот, превращение) в теории информации – мера неопределённости какого –либо опыта (сообщения), который может иметь разные исходы, а значит и количество информации. Единица измерения информации — бит (два состояния, т.е. два символа).
Два состояния по дистрибутивному закону булевой алгебры (имеются два состояния Х=1 или Х=0) обозначаются, когда есть сигнал –1, когда нет – О. Электрические значения этих сигналов с развитием технических средств менялись и в настоящее время составляют 2,5 вольта, т.е. 1 и 0,5 вольта – 0. Наличие двух значений напряжений, принятых как виртуальные символы (числа) 1 и 0, позволяет использовать двоичную систему счисления, как основную, при работе ЭВМ (персонального компьютера ПК ). Вся информация в компьютере находится в виде электрических напряжений (электромагнитных зарядов). Все сигналы внешней среды (свет, звук, температура и т.д.) преобразуются в приборах, преобразователях и входных платах компьютера в электрические сигналы.
В основу построения подавляющего большинства ПК положены следующие общие принципы, сформулированные в 1945 году американским ученым венгерского происхождения ДЖОНОМ фон НЕЙМАНОМ:
1. Принцип использования двоичной системы счисления для представления и кодирования информации и арифметического устройства для выполнения одного математического действия – сложения. Согласно этому принципу, вся информация, поступающая в ЭВМ, кодируется с помощью двух сигналов(0,5;2,5 вольт).
2. Принцип программного управления – операционная система(ОС), которая должна быть на внешнем устройстве (винчестер) и иметь возможность смены алгоритма управления, т.е. ОС. Из него следует, что программа состоит из набора команд, которые выполняются процессором автоматически друг за другом в определенной последовательности.
3. Принцип разнотипности памяти ЭВМ. Первый тип – быстрая (оперативная, ОЗУ), вторая – более медленная, но значительно большего размера (постоянная, винчестер, ПЗУ).
4. Принцип адресности. Это означает, что структурно основная память состоит из пронумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка.
5. Принцип модульности. Построение отдельных функциональных частей ПК в виде самостоятельных модулей с возможностью замены их на более совершенные.
Машины, построенные по этим принципам, называются Фон-Неймановскими.
Развитие элементной базы компьютеров.
В 40-х и 50-х годах компьютеры создавались на основе электронных ламп. Поэтому компьютеры были очень большими (они занимали огромные залы), дорогими и ненадежными – ведь электронные лампы, как и обычные лампочки, часто перегорают. Но в 1948 г. были изобретены транзисторы – миниатюрные и недорогие электронные приборы, которые смогли заменить электронные лампы. Это привело к уменьшению размеров компьютеров в сотни раз и повышению их надежности. Первые компьютеры на основе транзисторов появились в конце 50-х годов. После появления транзисторов наиболее трудоемкой операцией при производстве компьютеров было соединение и спайка транзисторов для создания электронных схем. Но в 1959 г. Роберт Нойс (будущий основатель фирмы Intel) изобрел способ, позволяющий создавать на одной пластине кремния транзисторы и все необходимые соединения между ними. Полученные электронные схемы стали называться интегральными схемами или чипами. В 1970 г. фирма Intel начала продавать интегральные схемы памяти.
Появление персональных компьютеров.
В 1979 г. фирма IBM решила попробовать свои силы на рынке персональных компьютеров. Было решено не конструировать персональный компьютер «с нуля», а использовать блоки, изготовленные другими фирмами. В компьютере были использованы структуры аналогичных компьютеров. Пользователи получили возможность самостоятельно модернизировать свои компьютеры и оснащать их дополнительными устройствами сотен различных производителей.
Все это привело к удешевлению IBM PC-совместимых компьютеров и стремительному улучшению их характеристик, используя комплектующие различных фирм, а программное обеспечение было поручено разработать тогда небольшой фирме Microsoft.
В августе 1981 г. новый компьютер под названием IBM PC был официально представлен публике. Через один - два года компьютер IBM PC занял ведущее место на рынке, вытеснив другие модели.
Фирма IBM сделала свой компьютер разъемным устройством и не стала защищать его конструкцию патентами. Наоборот, она собрала компьютер из независимо изготовленных частей и не стала держать спецификации этих частей и способы их соединения в секрете. Напротив, принципы конструкции IBM PC были доступны всем желающим. Этот подход, называемый принципом открытой архитектуры, обеспечил потрясающий успех компьютеру IBM PC, хотя и лишил фирму IBM возможности единолично пользоваться плодами этого успеха.