
- •2. Понятие информации, свойства информации, аспекты информации.
- •3.Способы измерения информации (вероятностный и объемный подходы). Примеры задач на применение формулы Хартли.
- •4. Кодирование информации.
- •5.Файловая система
- •9 Алгоритмы
- •12. Пример задачи моделирования случайных процессов на примере системы массового обслуживания.
- •Вопрос 13. Классификация моделей.
- •Вопрос 14. Прямой, обратный, дополнительный коды. Их назначение, правила
- •17. Построение логической схемы полусумматора.
- •21.Принципы фон Неймана. Шинная архитектура. Платформы современных компьтеров.
- •24. Устройства ввода/вывода. Устройства передачи данных
- •25. Классификация прикладного программного обеспечения.
- •26.Системное программное обесцпечение (операционная система, утилиты). Альтернативные операционные системы.
- •27. Системы программирования. Транслятор, компилятор, тестирование, отладка
- •28. Уровни языков программирования.
- •29. Аппаратные средства создания локальных сетей. Основные типы топологий сетей.
- •30. Программные средства создания локальных сетей. Протоколы. Структурная схема, модель межсетевого взаимодействия iso/osi.
- •31. Доменные зоны. Сайты и их адреса.
- •32. Виды компьютерных вирусов, способы защиты от них.
- •33. Основные понятия баз данных. Структуры баз данных. Виды связей между таблицами в реляционных базах данных. Целостность баз данных, ее обеспечение.
- •34. Система управления базами данных, ее основные функции. Виды субд.
- •Вопрос 35. Проектирование баз данных. Этапы проектирования.
1 Понятие информатики. Этапы становления информатики. Основные разделы информатики.
Информатика - комплекс научно- практических дисциплин, изучающих все аспекты получения, обработки, хранения, преобразования и обработки инфо.
Этапы становления:
1.Механический. Для счёта использовались механические устройства.(абак, счёты, логарифмическая линейка, аналитическая машина…)
2.Электромеханический. ( телеграф, радио, телефон)
Компьютеры. 1- е поколение: элементная база- электронная база.
2-е поколение: применяются транзисторы.
3-е поколение: изобретены интегральные микросхемы.
4-е поколение: ЭВМ реализуются на больших интегральных схемах (БИС).
5-е поколение: БИС повышенной степени интеграции.
Разделы информатики
1 Математические основы 2 Теория вычислений 3 Алгоритмы и структуры данных
4 Языки программирования и компиляторы 5 Базы данных
6 Конкурентные, параллельные и распределенные системы
2. Понятие информации, свойства информации, аспекты информации.
ИНФОРМАЦИЯ – это сведение об окружающем мире, которые уменьшают степень неопределенности неполноты знаний, отчужденной от их создателя, ставшей сообщением, выраженное с помощью специальных знаков, которые можно воспроизводить
СВОЙСТВА ИНФОРМАЦИИ
1.АДЕКВАТНОСТЬ – степень соответствия образа, создаваемого с помощью информации реальному объекту. Выражается в трех формах:
Синтаксическая адекватность - способ представления информации, скорость передачи и обработки, размеры кодов представления информации. Эта форма способствует восприятию внешних структурных характеристик.
Семантическая (смысловая) адекватность - эта смысловой отчет содержания информации.. Эта форма служит для формирования понятий и представлений, выявления смысла, содержание информации и ее обобщения.
Прагматическая(потребительская )адекватность - связан с ценностью, полезностью использования информации при выработке потребителем решения для достижения своей цели
2.ДОСТОВЕРНОСТЬ – полная информация об объекте.
3.ТОЧНОСТЬ – близость к реальному состоянию объекта
4. ЦЕННОСТЬ - важна информация для принятия решений
5. СВОЕВРЕМЕННОСТЬ. Только своевременная информация может привести ожидаемую пользу.
6.ПОНЯТНОСТЬ – информация должна быть представлена на язык пользователя.
7.ДОСТУПНОСТЬ. Информация должна быть выражена в доступной форме.
8.КРАТКОСТЬ. Краткость информации необходима в справочниках, энциклопедиях.
9. ПОЛНОТА. Достаточно информации для принятия решения. Неполная или избыточная информация
задерживает принятие решения или может повлечь ошибки.
Правовые аспекты информации:
В России 25.01.95 принят ФЗ « Об информации, информатизации и защите информации». Он регулированию подлежат: вопросы собственности на информацию, охрана авторских прав, гарантии сохранения конфиденциальности и секретности некоторых видов информации.
3.Способы измерения информации (вероятностный и объемный подходы). Примеры задач на применение формулы Хартли.
Существует 2 способа измерения информации: вероятностный подход и объемный подход.
1.Вероятностный подход.(для равновероятных событий)
Формула Хартли:
,
Где Н-количество информации (бит);
N - Количество равновероятных сообщений (различных комбинаций).
Прологарифмируем
обе части равенства по основанию 2:
Из этой формулы видно, что Н=1 при N=2,т.е. в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов(например, «орел» и «решка»). Такая единица количества информации называется «бит». 1 бит-количество информации, необходимое для различения двух равновероятных событий, которое может произойти или не произойти, т.е. 1 бит-количество информации для передачи количества символов N=2(0 или 1).
2.Объемный подход
Бит-двоичный разряд. Это наименьшая единица информации. Физически бит-разряд памяти ЭВМ, где хранится 0 или 1.
Байт-группа из 8 бит, обрабатываемая как единое целое. Физически байт - наименьшая адресуемая единица памяти ЭВМ-ячейка.
В вычислительной техники кроме бит и байт используется еще одна единица информации- машинное слово. С помощью его записываются числа, символы и команды. Длина машинного слова определяет важную характеристику ЭВМ - разрядность. До недавнего времени ЭВМ были 16-разрядные. Современные ЭВМ имеют длину машинного слова 32…128 разрядов (бит). Следовательно, в структуре машинного слова можно выделить 4…16 байт.
Пример задач на применении формы Хартли:
1)Сообщение о том, что ваш друг живет на 9 этаже, несет 4 бита информации. Сколько этажей в доме?
Ответ:16 этажей
2)Сколько бит информации несет сообщение о том, что поезд прибывает на один из 8 путей?
Формула Хартли: I = log2N,
где N – число равновероятностных исходов события, о котором речь идет в сообщении,
I – количество информации в сообщении.
I = log28 = 3(бит) Ответ: 3 бита.