Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лаб1_ТПК_13.docx
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
453.39 Кб
Скачать

9 (раб1)

Лабораторная работа № 1 Основы информации и структуры пк

1.Задание по работе

1.1. Законспектировать незнакомый материал работы в тетрадь.

1.2. Схематично изобразить в тетради заднюю панель системного блока ПК в аудитории. Указать тип и назначение разъемов.

1.3. Подготовить ответы на вопросы и защитить работу.

2 Основы теории информации

В дисциплинах информатика, информационных и компьютерных технологиях базовым элементом является понятие информации. Слово «информация» вошло в русский язык в Петровскую эпоху от латинского informatio, как представление, понятие о чем-либо. Толковый словарь русского языка Ожегова приводит определение информации как сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством. В базовом курсе информатики [1] дается определение информации как продукта взаимодействия данных и адекватных им методов.

Исходя из этого определения, данными считаются сигналы, которые человек может воспринимать, регистрировать, запоминать и т.д.. Данные, для которых существуют методы (алгоритмы) обработки позволяющие принимать решения, называются информацией. Информация позволяет выполнять исследования, анализ, синтез и получать новую информацию –знания.

Вид и тип информации многообразен и зависит от воспринимающих органов человека, регистрирующих приборов. Она может быть в виде света, звука, графики и т.д. Функциональное назначение информации используется для образования, обучения, хранения знаний, как социально образующее, как продукт производства и потребления и др.

Объём информации можно представлять как логарифм количества возможных состояний. (Логарифм (от греческого λόγος — «слово», «отношение» и ἀριθμός – «число») числа b по основанию a определяется как показатель степени, в которую надо возвести основание a, чтобы получить число b. Обозначение: )

Например, , потому что , log2 2=1. Наименьшее целое число, логарифм которого положителен – это 2. Это число равное единице (бит) является основой исчисления информации в цифровой технике. Приняты следующие названия:

-1 байт = 8 бит - 100 - 20 ,

-1 килобайт = 1024 байт - 103 - 210,

-1 мегабайт = 1024 Кбайт - 106 - 220,

-1 гигабайт = 1024 Мбайт - 109 - 230,

-1 терабайт = 1024 Гбайт - 1012 - 240,

-1 петабайт = 1024 Тбайт - 1015 - 250,

-1эксабайт(ЕВ) = 1024 Пбайт(PB) - 1018 - 260 ,

-1зеттабайт ( ZB) ) = 1024) ЕВ - 1021 - 270,

-1 йоттабайт (YB) ) = 1024 ZB - 1024 - 280.

Для характеристики качества информации может быть использован показатель – энтропия. Величина (полнота) информации (как и близкая к ней по смыслу энтропия) безразмерна. Энтропия (от греч. ἐντροπία – поворот, превращение) в теории информации – мера неопределённости какого –либо опыта (сообщения), который может иметь разные исходы, а значит и количество информации. Единица измерения информации — бит (два состояния, т.е. два символа).

Два состояния по дистрибутивному закону булевой алгебры (имеются два состояния Х=1 или Х=0) обозначаются, когда есть сигнал –1, когда нет – О. Электрические значения этих сигналов с развитием технических средств менялись и в настоящее время составляют 2,5 вольта, т.е. 1 и 0,5 вольта – 0. Наличие двух значений напряжений, принятых как виртуальные символы (числа) 1 и 0, позволяет использовать двоичную систему счисления, как основную, при работе ЭВМ (персонального компьютера ПК ). Вся информация в компьютере находится в виде электрических напряжений (электромагнитных зарядов). Все сигналы внешней среды (свет, звук, температура и т.д.) преобразуются в приборах, преобразователях и входных платах компьютера в электрические сигналы.

В основу построения подавляющего большинства ПК положены следующие общие принципы, сформулированные в 1945 году американским ученым венгерского происхо­ждения ДЖОНОМ фон НЕЙМАНОМ:

1. Принцип использования двоичной системы счисления для представления и кодирования информации и арифметического устройства для выполнения одного математического действия – сложения. Согласно этому принципу, вся информация, по­ступающая в ЭВМ, кодируется с помощью двух сигналов(0,5;2,5 вольт).

2. Принцип программного управления – операционная система(ОС), которая должна быть на внешнем устройстве (винчестер) и иметь возможность смены алгоритма управления, т.е. ОС. Из него следует, что программа состоит из на­бора команд, которые выполняются процессором автоматически друг за другом в опре­деленной последовательности.

3. Принцип разнотипности памяти ЭВМ. Первый тип – быстрая (оперативная, ОЗУ), вторая – более медленная, но значительно большего размера (постоянная, винчестер, ПЗУ).

4. Принцип адресности. Это означает, что структурно основная память состоит из пронумерованных ячеек; процессору в произвольный момент времени доступна любая ячейка.

5. Принцип модульности. Построение отдельных функциональных частей ПК в виде самостоятельных модулей с возможностью замены их на более совершенные.

Машины, построенные по этим принципам, называются Фон-Неймановскими.

Развитие элементной базы компьютеров.

В 40-х и 50-х годах компьютеры создавались на основе электронных ламп. Поэтому компьютеры были очень большими (они занимали огром­ные залы), дорогими и ненадежными – ведь электронные лампы, как и обычные лампочки, часто перегорают. Но в 1948 г. были изобретены транзисторы – миниатюрные и недорогие электронные приборы, кото­рые смогли заменить электронные лампы. Это привело к уменьшению размеров компьютеров в сотни раз и повышению их надежности. Пер­вые компьютеры на основе транзисторов появились в конце 50-х годов. После появления транзисторов наиболее трудоемкой операцией при производстве компьютеров было соединение и спайка транзисторов для создания электронных схем. Но в 1959 г. Роберт Нойс (будущий основа­тель фирмы Intel) изобрел способ, позволяющий создавать на одной пластине кремния транзисторы и все необходимые соединения между ними. Полученные электронные схемы стали называться интегральными схемами или чипами. В 1970 г. фирма Intel начала про­давать интегральные схемы памяти.

Появление персональных компьютеров.

В 1979 г. фирма IBM решила попробовать свои силы на рынке персональных ком­пьютеров. Было решено не конструи­ровать персональный компьютер «с нуля», а использовать блоки, изго­товленные другими фирмами. В компьютере были использованы структуры аналогичных компьюте­ров. Поль­зователи получили возможность самостоятельно модернизировать свои компьютеры и оснащать их дополнительными устройствами сотен раз­личных производителей.

Все это привело к удешевлению IBM PC-совместимых компьютеров и стремительному улучшению их характеристик, используя комплектующие различных фирм, а программ­ное обеспечение было поручено разработать тогда небольшой фирме Microsoft.

В августе 1981 г. новый компьютер под названием IBM PC был официально представлен публике. Через один - два года компьютер IBM PC занял ведущее место на рынке, вытеснив другие модели.

Фирма IBM сделала свой компьютер разъемным устройством и не стала защищать его конструкцию патентами. Наоборот, она собрала компьютер из независимо изготовленных частей и не стала держать спецификации этих частей и способы их соединения в секрете. Напро­тив, принципы конструкции IBM PC были доступны всем желающим. Этот подход, называемый принципом открытой архитектуры, обеспечил потрясающий успех компьютеру IBM PC, хотя и лишил фирму IBM воз­можности единолично пользоваться плодами этого успеха.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]