- •1. Предмет информатика
- •Информатизация общества. Аспекты информатизации.
- •Классификация компьютеров.
- •Понятие информации, ее виды и свойства.
- •Единицы измерения информации.
- •6. Позиционные системы счисления – десятичная, двоичная, восьмеричная, шестнадцатиричная. Правила записи чисел и расчета их значений. Причины применения в эвм двоичной системы счисления.
- •7.Перевод чисел из одной системы счисления в другую – перевод чисел с основаниями, являющимися степенью 2, перевод целых и дробных чисел по правилам, по степенному ряду, по схеме Горнера.
- •9.Умножение и деление двоичных, восьмеричных и шестнадцатиричных чисел.
- •10. Кодирование информации. Кодирование текстовой, графической и звуковой информации.
- •12. Сущность и назначение машинных кодов – прямой, дополнительный и обратный. Правила образования машинных кодов.
- •13.Действия над числами, представленными в естественной форме.
- •14.Действия над числами, представленными в нормальной форме.
- •15.Определение и принцип построения цифровой эвм.
- •16. Состав и основные характеристики современного пк.
- •17.Понятие команды. Процесс выполнения команд.
- •18.Понятие архитектуры и структуры компьютера.
- •19. Шинная организация эвм.
- •20.Канальная организация эвм.
- •21.Центральный процессор.
- •22.Память внутренняя.
- •23. Память внешняя.
- •24.Видеосистема. Аудиосистема.
Единицы измерения информации.
На сегодняшний день известны следующие способы измерения информации: объемный, энтропийный, алгоритмический.
Объемный является самым простым и грубым способом измерения информации. Соответствующую количественную оценку информации естественно назвать объемом информации. Объем информации в сообщении – это количество символов в сообщении. Поскольку одно и то же число может быть записано многими разными способами («двадцать один», 21, XXI, 11001), то этот способ чувствителен к форме представления сообщения. В вычислительной технике вся информация представлена в двоичной форме. Такая стандартизация позволила ввести две стандартные единицы измерения: бит и байт. Байт – это восемь бит. Для десятичной системы – дит. Но реализовать в технике такой подход сложнее.
В теории информации и кодирования принят энтропийный подход к измерению информации. Получатель информации имеет определенные представления о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей. Количество информации в сообщении определяется тем, насколько уменьшится эта мера после получения сообщения. Например, имеется колода из 32 карт. Вероятность выбора одной из них 1/32. Шансы выбрать ту или иную карту одинаковы. Производя выбор мы устраняем эту неопределенность, которую можно было характеризовать количеством возможных равновероятных выборов. Если теперь определить количество информации как меру устраненной неопределенности, то и полученную в результате выбора информацию можно охарактеризовать числом 32. Однако в теории информации получила использование другая количественная оценка, а именно – логарифм от описанной выше оценки по основанию 2: H=log2m, где m – число возможных равновероятных выборов. То есть для выбора из колоды имеем следующую оценку количества информации, получаемую в результате выбора: H=log232=5. Полученная оценка характеризует число двоичных вопросов, ответы на которые позволяют выбрать либо да либо нет, для выбора дамы пик такие вопросы будут:
1. Карта красной масти? Ответ нет 0.
2. Трефы? Ответ нет 0.
3. Одна из четырех старших? Ответ да 1.
4. Одна из двух старших? Ответ нет 0.
5. Дама? Ответ да 1.
Этот выбор можно описать последовательностью из пяти двоичных символов 00101.
Если же степень двойки не годится, то пользуемся усреднением по случаям.
Шеннону принадлежит обобщение H на случай, когда Н зависит не только от m, но и от вероятностей возможных выборов (для сообщения – вероятность выбора символов). Для количества собственной индивидуальной информации он предложил соотношение
hi=-logPi где Pi - вероятность выбора итого символа алфавита.
В алгоритмической теории информации предлагается алгоритмический метод оценки информации в сообщении. Он характеризуется рассуждениями:
Слово 010101…01 сложнее слова 000…0, а слово где 0 и 1 выбираются из эксперимента, сложнее обоих предыдущих. Компьютерная программа, производящая слово из одних нулей крайне проста. Для получения чередования 01 нужна чуть более сложная программа, печатающая символ, противоположный только что напечатанному. Случайная последовательность не может быть воспроизведена короткой программой, она должна быть близка к последней. Рассуждения позволяют предположить, что любому сообщению можно приписать количественную характеристику, отражающую сложность (размер) программы, которая позволяет ее произвести. Так как имеется много разных вычислительных машин и разных языков программирования (задания алгоритма), то для определенности задаются некоторой конкретной вычислительной машиной, например машиной Тьюринга, а предполагаемая количественная характеристика – сложность слова, определяется как минимальное число внутренних состояний машины Тьюринга, требующихся для его воспроизведения.