- •Вопросы к экзамену по информатике и икт для обучающихся 10 «а» технологического класса
- •1.Магистрально-модульный принцип построения компьютера.
- •2. Процессор.
- •3. Оперативная память.
- •4. Магнитная память.
- •5. Оптическая память.
- •6. Флэш-память.
- •7. Логическая структура носителя информации.
- •8. Файл.
- •9. Иерархическая файловая система.
- •10. Назначение и состав операционной системы.
- •11. Загрузка операционной системы.
- •12. Вредоносные программы и антивирусные программы.
- •13. Компьютерные вирусы и защита от них.
- •14. Сетевые черви и защита от них.
- •15. Троянские программы и защита от них.
- •16. Рекламные и шпионские программы и защита от них.
- •17. Понятие «информация» в науках о неживой и живой природе, обществе и технике.
- •18. Количество информации как мера уменьшения неопределенности знаний.
- •19. Алфавитный подход к определению количества информации.
- •20. Формула Шеннона.
- •21. Кодирование текстовой, графической и звуковой информации.
- •1) Тестовая информация.
- •2) Графическая информация.
- •3) Звуковая информация.
- •22. Непозиционные системы счисления.
- •23. Позиционные системы счисления.
- •24. Перевод целых чисел из десятичной системы в двоичную, восьмеричную и шестнадцатеричную.
- •25. Перевод дробей из десятичной системы в двоичную, восьмеричную и шестнадцатеричную дроби.
- •26. Перевод чисел из двоичной системы счисления в восьмеричную и шестнадцатеричную и обратно.
- •30. Представление чисел в формате с плавающей запятой.
17. Понятие «информация» в науках о неживой и живой природе, обществе и технике.
Информация — сведения о чем-либо, независимо от формы их представления.
Понятие информация в окружающем мире делится на 3 мира
1)Микромир, сюда входят микрообъекты (Молекулы, Клетки и т.д.)
2)Макромир- это мир в котором размеры объектов сравнимы с человеком, сюда входят макрообъекты которые подразделяются на живые, неживые и искусственные.
Неживые: Камень, скала, песок, ракушки и т.д.
Живые: Человек, животные, растения
Искусственные: все что создано человеком
3)Мега мир: сюда входят космос, галактика…
Социально значимые св-ва информации
Человек существо социальное, для общения с другими людьми ему необходимо обмениваться информацией.
Св-ва информации
1)Понятность
2)Полезность
3)Достоверность и актуальность
4)Полнота и точность
5)Знание и незнание
18. Количество информации как мера уменьшения неопределенности знаний.
1 байт = 8 бит
За единицу кол-во информации принимается такое кол-во информации которое содержит сообщение, уменьшающее неопределённость знание в 2 раза.
Такая единица называется бит.
1 Байт = 3 бит и равняется 8
1 Килобайт =210 байт = 1024 бит
1 Мегабайт =210 килобайт = 220 килобит
1 Гигабайт =210мегобайт
1 Терабайт = 210 гигабайт
Формулы связи между кол-вом событий и кол-вом информации
N=2I
N- кол-во возможных событий, i кол-во информации.
19. Алфавитный подход к определению количества информации.
При хранении и передачи информации с помощью технических устройств целесообразно отвлечься от содержания информации и рассматривать её как последовательность символов – знаков (букв, цифр, кодов-цветов и т.д.)
Набор символов знаковой системы (алфавита) можно рассматривать как различные возможные состояния (события)
Определение мощности русского алфавита
Информационная ёмкость буквы в Русском алфавите (не используя буквы Ё) составляет 5 бит.
I(снизу с)=i(умножить на) K
I(c)=i*K
I(с) - информационная ёмкость сообщения
i-кол-во информации которое несёт 1н символ
К- кол-во символов
20. Формула Шеннона.
Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только i-e состояние.
Таким образом, энтропия события x является суммой с противоположным знаком всех произведений относительных частот появления события i, умноженных на их же двоичные логарифмы[1]. Это определение для дискретных случайных событий можно расширить для функции распределения вероятностей.
Шеннон предположил, что прирост информации равен утраченной неопределённости, и задал требования к её измерению:
-
мера должна быть непрерывной; то есть изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение функции;
-
в случае, когда все варианты (буквы в приведённом примере) равновероятны, увеличение количества вариантов (букв) должно всегда увеличивать значение функции;
-
должна быть возможность сделать выбор (в нашем примере букв) в два шага, в которых значение функции конечного результата должно являться суммой функций промежуточных результатов.