- •Информационные революции
- •Поколения эвм
- •Классификация эвм по возможностям (оперативная память, разрядность, быстродействие, внешняя память, малые эвм, большие эвм, супер-эвм).
- •Классификация эвм по системам машинных команд
- •3 Этап.
- •6.Архитектура пк (принцип модульности, магистральный принцип обмена информацией, состав персонального компьютера)
- •Классификация компьютерных сетей ( по степени территориальной рассредоточенности, по выполняемым функциям, по способу управления, по топологии)
- •8.Режимы передачи данных (средства передачи, режимы передачи информации)
- •9.Аппаратная реализация передачи данных (способы передачи цифровой информации, аппаратные средства).
- •10.Характеристики компьютерной сети (скорость передачи информации, пропускная способность канала связи, достоверность передачи информации, надежность канала связи)
- •11.Эталонные модели взаимодействия систем (общие сведения)
- •12.Модель osi (многоуровневая архитектура модели, взаимодействие уровней модели, уровни модели)
- •13.Модель Project 802
- •14.Пакеты (определение пакета, структура пакета)
- •15.Протоколы (маршрутизируемые и немаршрутизируемые протоколы, три типа протоколов, стандартные стеки протоколов, установка и удаление протоколов)
- •17.Математические основы информатики (формы представления информации)
- •18.Математические основы информатики (преобразование сообщений)
- •19.Теория информации (понятие энтропии, энтропия и информация, информация и алфавит)
- •21.Алгебра логики (логические операции, таблицы истинности, основные соотношения алгебры логики)
- •22.Последовательность создания и выполнения программы, виды трансляторов
- •23.Модель компилятора языка Turbo Pascal 7.0. Общие сведения
- •24.Модель компилятора языка Turbo Pascal 7.0.Лексемы.
- •25.Структура программы
- •26.Блок-схемы
- •27.Основные конструкции языка Turbo Pascal 7.0. Оператор присваивания.
- •28.Основные конструкции языка Turbo Pascal 7.0. Оператор условного перехода.
- •29.Основные конструкции языка Turbo Pascal 7.0. Оператор выбора.
- •30.Основные конструкции языка Turbo Pascal 7.0. Операторы цикла.
19.Теория информации (понятие энтропии, энтропия и информация, информация и алфавит)
Теория информации основывается на теории вероятности и понятии энтропии.
Степень неопределенности различна для разных ситуаций. Например если опыт состоит в определении возраста случайно выбранного студента 1-го курса дневного отделения ВУЗа, то с большей долей уверенности можно утверждать что ему меньше 30 лет, хотя по положению на дневном отделении могут учится лица в возрасте до 35 лет. Гораздо меньшую определенность имеет аналогичный опыт, если проверятся: будет ли возраст произвольно выбранного студента меньше 18 лет.
Для практики очень важно иметь возможность произвести численную оценку неопределенностей разных опытов. Попробуем ввести такую количественную меру неопределенности. Начнем с простого опыта. Когда опыт имеет n равновероятных исходов, то неопределенность каждого из них является функцией числа исходов. За меру неопределенности опыта с n равновероятными исходами принимается число logN. Выбор основания log в данном случае не имеет значения, т.к. по формуле преобразований: logbN=logba*logaN, видно, что переход заключается в постоянном множителе, что равносильно изменению масштаба измерения неопределенности. Имеется возможность выбрать удобное основание log, таким основанием выбрано число 2. В этом случае за единицу измерения неопределенности принимается неопределенность, содержащаяся в опыте, имеющем лишь 2 равновероятных исхода, которые можно обозначить как истина и ложь.
Единица измерения неопределенности, при двух возможных равновероятных исходах опыта называется бит.
Т.о. установлен явный вид функции, описывающей меру неопределенности опыта, имеющего n равновероятных исходов.
f(N)=log2N- эта величина получила название энтропии (Н).
Энтропия является мерой неопределенности опыта, в котором проявляются случайные события и равна средней неопределенности всех возможных его исходов.
Энтропия и информация
Энтропия=информации относительно опыта, которая содержится в нем самом, или энтропия опыта=той информации, которую получаем в результате его осуществления.
Информация опыта=среднему значению количества информации, содержащейся в каждом его исходе.
Математическая запись: I= -∑ P(Ai)*log2P(Ai)
Количество информации численно равно числу вопросов с равновероятными бинарными вариантами ответов, которые необходимо задать, чтобы полностью снять неопределенность задачи.
В 1928г американский инженер Р. Хартли вывел формулу, которая связывает количество информации сообщений с количеством равновероятных состояний n.
Формула Хартли: I=log2N
Смысл формулы заключается в том, что если некоторое множество содержит n элементов и х принадлежит данному множеству, то для выделения (однозначной идентификации) элемента х требуется количество информации равное log2N.
Частным случаем применения формулы Хартли является ситуация, когда n=2k, I= к бит.
Информация и алфавит:
При передаче дискретных сообщений возникает проблема распознавания знаков в этом сообщении, т.е. проблема как по полученным знакам (сигналам) восстановить исходную информацию.
Появление конкретного знака (буквы) в конкретном месте сообщения- событие случайное, следовательно, для узнавание знака требуется некоторая порция информации. Можно связать эту информацию с самим знаком и считать, что знак несет в себе некоторое количество информации. Вероятность появления различных букв в тексте различна.
Например: для знаков русского алфавита:
Буква |
пробел |
0 |
А |
Вероятность (относительная частота) |
0,175 |
0,09 |
0,062 |
Т.о. для оценки информации, связанной с выбором одного знака алфавита, используется формула К. Шеннона, которая была получена в 1948г.: I= -∑ pilog2Pi
Данная формула определяет среднее количество информации, приходящейся на один знак.
Pi – вероятность появления знака.
n- общее количество знаков.
Сообщения, в которых вероятность появления каждого отдельного знака не меняется со временем называется Шенновскими, а порождающий их отправитель- Шенновским источником.
Если вероятность появления любого символа алфавита в сообщениях одинаковая, то для английского алфавита: Io=4,755 бит (для равновероятных событий)
Если учесть вероятность появления одного символа, то I1=4,04 бит, если учесть влияние пар символов на вероятность появления символов, то I2=3,32 бит.
Для английского языка Шеннон вывел: I∞=1,4÷1,5
Шеннон вывел формулу: R=1-l∞/l0
R-относительная избыточность языка (для англ примерно 0,68, для остальных 0,6÷0,7)
Эта величина( R) определяет долю информации, которую содержат тексты данного языка. Это означает, что возможно почти трехкратное сокращение текста без ущерба для его содержания. Т.о. избыточность языка позволяет легко восстановить текст, даже если он содержит большое число ошибок. С другой стороны текст можно сжать в 3 раза без ущерба для его содержания. Это является теоретической базой для шифрования.
20.Системы счисления (группы систем счисления, перевод из одной позиционной системы счисления в другую позиционную систему счисления, выполнение арифметических операция в различных позиционных системах счисления)
Любое число имеет значение и форму представления. Способ представления числа определяется системой счисления.
СИСТЕМА СЧИСЛЕНИЯ- это правила записи чисел с помощью заданного набора специальных знаков- цифр.
Группы систем счисления:
1) Унарная – это система счисления, в которой для записи числа используется только один знак (палочка |); |||-3, |||||-5.
2) Непозиционная- самая популярная римская система счисления. Применяются заглавные латинские буквы. (I-1, V-5, X-10, L-50,C-100,D-500, M-1000)
Все другие числа строятся комбинацией базовых по следущим правилам:
-
если цифра меньшего значения стоит справа от большей цифры, то их значение суммируется, а если слева, то меньшее значение вычитается из большего
-
цифры I, X, C, M могут следовать подряд не более трех раз каждая
-
цифры V, L, D могут использоваться в записи числа не более одного раза
Недостатки: запись числа в ней громоздка и неудобна: неудобно выполнять даже самые простые арифметические операции; отсутствие 0 и знаков больше М не позволяют записать любое число, даже натуральное.
Поэтому данная система сейчас применяется только для нумерации
3)Позиционная- это та система счисления, в которой значение каждой цифры изображения числа определяется ее положением (позицией) в ряду других цифр.
Наиболее распространенной СС является десятичная СС.
Количество цифр, которые применяются для построения чисел в любой позиционной СС ровняется основанию СС. Минимальное основание в позиционной СС=2. Десятичная СС- самая распространенная, двоичная СС- применяется на компьютерах, очень удобно для технической реализации.
Все рассмотренные СС подразделяются на 2 типа:
1)аддитивные(унарная и непозиционная)- значение числа определяется операциями сложения и вычитания базисных цифр
2) аддитивно-мультипликативные (позиционные)- значение числа определяется операциями умножения и сложения.
Главной особенностью позиционных систем является то, что у них с помощью ограниченного набора знаков (цифр)обозначен знака, числа, разделит десятичных разрядов можно записать неограниченным количеством различных цифр.
Кроме этого в этих системах гораздо легче, чем в аддитивных выполняются операции умножения и деления, поэтому позиционные СС применяются в обработке чисел как человеком, так и компьютером.
z-число
р-основание системы