- •1) Информация– это совокупность знаний о практических данных: процесса,явления,окружающего мира и связях между ними. Информация всегда представляется в виде моделей(реал.Объектов)
- •2) Классификация информации
- •3)Объем и кодирование информации в эвм
- •4) Синтаксическая мера количества информации
- •5)Количество информации как вероятностное понятие. Формула Шенона
- •6) Семантическая и прагматическая меры информации
- •7) Обработка и хранение информации с помощью эвм. Двоичные числа
- •8)История развития вт до появления эв Делится на 3 периода 1)Древнейший (до появл.Механизирован.Ед. Счёта.) 2)Древний (до появл. Эвм) 3)Современный
- •9)Первое и второе поколения эвм
- •1 Поколение эвм(обобщение: ламповая громадина, производящая простые однотипные расчеты, с которой возится 1 специализированный человек)
- •2 Поколение эвм (разработки после 1960г)
- •10)Третье и четвертое поколения эвм
- •3 Поколение эвм (разработки после 1970г)
- •4 Поколение эвм (разработки после 1980г)
- •11)Пятое и шестое поколения эвм
- •5 Поколение эвм (разработки после 1990г )
- •6 Поколение эвм (разработки настоящего времени )
- •12)Архитектура и структура пэвм
- •13)Классы пэвм и их конструктивные блоки
- •14)Материнская плата и общая шина пк
- •15)Процессоры
- •17)Постоянная и программируемая память, как часть внутренней памяти эвм
- •18)Классификация, история развития внешней памяти эвм
- •19)Накопители на жестких дисках
- •20)Накопители на оптических дисках (cd и dvd rom –r –rw дисках)
- •21)Клавиатура
- •22)Ручные манипуляторы относительного перемещения
- •23)Дополнительные устройства ввода (дигитайзер, сканер, видеокамера, мИкрофон)
- •24)Дисплеи
- •25)Принтеры и плоттеры
- •Плоттеры
5)Количество информации как вероятностное понятие. Формула Шенона
Количество информации уменьшающее неопределенность в 2 раза носит название 1 бит. Если еще раз уменьшить неопределенность в 2 раза (всего – в 4 раза), количество информации увеличится еще на 1 бит. количество информации – есть величина логарифмическая. Это означает, что когда несколько событий или объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается. N-возможности реализации, р-вероятность
6) Семантическая и прагматическая меры информации
В семантической мере- анализируется смысловое содержание информации.
Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение.
Тезаурус — это совокупность сведений, которыми располагает пользователь или система.
Кол-во семантическ. информации зависит от соотношения информации и тезауруса пользователя.
C=Ic/Vд
Прагматическая мера- определяет практическую полезность информации (ценность).
Эта мера определяет полезность информации для достижения пользователем поставленной цепи. Эта мера - также величина относительная, обусловленная особенностями использования этой информации в той или иной системе. Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция. (целевая функция есть математическое выражение некоторого критерия качества одного объекта (решения, процесса и т.д.) в сравнении с другим.Критерий всегда привносится извне, и только после этого ищется правило решения)
7) Обработка и хранение информации с помощью эвм. Двоичные числа
Назначение вычислительной техники(ВМ) – обработка информации.
Обработка дискретной информации с помощью ВМ включает ВВОД (передача инф-ции с внеш. устр-ва в опер. память) , ХРАНЕНИЕ (передача инф-ции из опер. памяти на внеш. устр-во.), ПРЕОБРАЗОВАНИЕ (получение новой информац. из имеющейся.) И ВЫВОД ДАННЫХ.
Для хранения в машине инф. испол.алфавит из 2-ух символов.
Программа в машинных кодах - последовательность машинных команд, выполняющих обработку данных в соответствии с требуемым алгоритмом. Машинные команды - это фиксированный набор дискретных двухуровневых электрических сигналов, подаваемых на вход процессора, на которые последний реагирует известным однозначным способом. То, что машинные команды используют двухуровневые электрические сигналы, не является, строго говоря, обязательным. Это связано с двумя причинами: во-первых, устройства с 2 устойчивыми состояниями проще по конструкции, чем с 3-мя или более, во-вторых, правила двоичной арифметики самые простые, а логика разработана вообще только двоичная (на основе понятий "истина" и "ложь").
8)История развития вт до появления эв Делится на 3 периода 1)Древнейший (до появл.Механизирован.Ед. Счёта.) 2)Древний (до появл. Эвм) 3)Современный
В "древней" истории можно выделить три принципиальных шага(этапа:
1)механизация счёта(с появлен.механизма,умеющ.складывать Б.Паскаль 1641)
2)этап-автоматизац.счёта(попрограмме Бэйбиджа)
3)этап(разработка,архитектуры,вычислительн.машины)
Современную историю обычно рассматривают в плане смены поколений ЭВМ. Изм.сигналов-электрич.машины 1 машина ENIAC с конструирован. Эккерт и Моули
1)расчёт дел. Ядер урана 2)расчет баллистических ракетн.траекторий
Отцом современных ЭВМ считается американский ученый Джон фон Нейман (1903-1957), предложивший размещать программу и данные в одной памяти. Он предложил архитектуру ЭВМ на базе принципа "управления потоком команд", причем одному потоку команд соответствует один поток данных, которые занимают подчиненное положение.
В середине XX века в США и несколько позже в СССР появляются первые ЭВМ. В частности в США в Электрической школе Мура Пенсильванского университета в период 1943-1945 была спроектирована и построена первая ЭВМ с названием ЭНИАК.