- •1) Информация– это совокупность знаний о практических данных: процесса,явления,окружающего мира и связях между ними. Информация всегда представляется в виде моделей(реал.Объектов)
- •2) Классификация информации
- •3)Объем и кодирование информации в эвм
- •4) Синтаксическая мера количества информации
- •5)Количество информации как вероятностное понятие. Формула Шенона
- •6) Семантическая и прагматическая меры информации
- •7) Обработка и хранение информации с помощью эвм. Двоичные числа
- •8)История развития вт до появления эв Делится на 3 периода 1)Древнейший (до появл.Механизирован.Ед. Счёта.) 2Древний (до появл. Эвм) 3)Современный
- •9)Первое и второе поколения эвм
- •1 Поколение эвм
- •2 Поколение эвм (разработки после 1960г)
- •10)Третье и четвертое поколения эвм
- •3 Поколение эвм (разработки после 1970г)
- •4 Поколение эвм (разработки после 1980г)
- •11)Пятое и шестое поколения эвм
- •5 Поколение эвм (разработки после 1990г )
- •6 Поколение эвм (разработки настоящего времени )
- •12)Архитектура и структура пэвм
- •13)Классы пэвм и их конструктивные блоки
- •14)Материнская плата и общая шина пк
- •15)Процессоры
- •17)Постоянная и программируемая память, как часть внутренней памяти эвм
- •18)Классификация, история развития внешней памяти эвм
- •19)Накопители на жестких дисках
- •20)Накопители на оптических дисках (cd и dvd rom –r –rw дисках)
- •21)Клавиатура
- •22)Ручные манипуляторы относительного перемещения
- •23)Дополнительные устройства ввода (дигитайзер, сканер, видеокамера, мИкрофон)
- •24)Дисплеи
- •25)Принтеры и плоттеры
- •Плоттеры
5)Количество информации как вероятностное понятие. Формула Шенона
Количество информации уменьшающее неопределенность в 2 раза носит название 1 бит. Если еще раз уменьшить неопределенность в 2 раза (всего – в 4 раза), количество информации увеличится еще на 1 бит. количество информации – есть величина логарифмическая. Это означает, что когда несколько событий или объектов рассматриваются как один, количество возможных состояний перемножается, а количество информации — складывается. N-возможности реализации, р-вероятность
6) Семантическая и прагматическая меры информации
В семантической мере- анализируется смысловое содержание информации.
Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне, наибольшее признание получила тезаурусная мера, которая связывает семантические свойства информации со способностью пользователя принимать поступившее сообщение.
Тезаурус — это совокупность сведений, которыми располагает пользователь или система.
Кол-во семантическ. информации зависит от соотношения информации и тезауруса пользователя.
C=Ic/Vд
Прагматическая мера- определяет практическую полезность информации.
Эта мера определяет полезность информации (ценность) для достижения пользователем поставленной цепи. Эта мера - также величина относительная, обусловленная особенностями использования этой информации в той или иной системе. Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция.
7) Обработка и хранение информации с помощью эвм. Двоичные числа
Назначение вычислительной техники – обработка информации.
Обработка дискретной информации с помощью вычислительных машин (ВМ) включает ВВОД, ХРАНЕНИЕ, ПРЕОБРАЗОВАНИЕ И ВЫВОД ДАННЫХ.
Обработка включает в себя: ввод, вывод, хранение и преобразование информации. Ввод- передача информации с внеш. Устройства в оперативную память. Вывод-передача инормац. из оператив. памяти на внеш.устро-во. Основная задача преобразование-получение новой информац. из имеющейся.
Для хранения в машине инф. испол.алфавит из 2-ух символов.
Программа в машинных кодах - последовательность машинных команд, выполняющих обработку данных в соответствии с требуемым алгоритмом. Машинные команды - это фиксированный набор дискретных двухуровневых электрических сигналов, подаваемых на вход процессора, на которые последний реагирует известным однозначным способом. То, что машинные команды используют двухуровневые электрические сигналы, не является, строго говоря, обязательным. Это связано с двумя причинами: во-первых, устройства с 2 устойчивыми состояниями проще по конструкции, чем с 3-мя или более, во-вторых, правила двоичной арифметики самые простые, а логика разработана вообще только двоичная (на основе понятий "истина" и "ложь").
8)История развития вт до появления эв Делится на 3 периода 1)Древнейший (до появл.Механизирован.Ед. Счёта.) 2Древний (до появл. Эвм) 3)Современный
В "древней" истории можно выделить три принципиальных шага:
1)Этап –механизация счёта( с появлен. 1-го механизма,умеющ. Складывать Б.Паскаль 1641)
2)этап-автоматизац.счёта(попрограммеБэйбидж)
3)этап(разработка,архитектуры,вычислительн.машины)
Современную историю обычно рассматривают в плане смены поколений ЭВМ. Изм.сигналов-электрич.машины 1 машина с конструирован. Эккерт и Моули
1)расчёт дел. Ядер урана 2)расчет баллистических ракетн.траекторий
1-ая мшина ENIAC
Отцом современных ЭВМ считается американский ученый Джон фон Нейман (1903-1957), предложивший размещать программу и данные в одной памяти. Он предложил архитектуру ЭВМ на базе принципа "управления потоком команд", причем одному потоку команд соответствует один поток данных, которые занимают подчиненное положение.
В середине XX века в США и несколько позже в СССР появляются первые ЭВМ. В частности в США в Электрической школе Мура Пенсильванского университета в период 1943-1945 была спроектирована и построена первая ЭВМ с названием ЭНИАК.