
- •Вопросы к экзамену по информатике
- •1.Кодирование текстовой информации.
- •2.Понятие файла. Файловый принцип организации данных. Операции с файлами.
- •3. Кодирование графической информации. Растровая и векторная графика. Средства и технологии работы с графикой. Форматы графических файлов. Способы сжатия.
- •Векторное и фрактальное изображения
- •4. Кодирование звуковой информации.
- •5.Архитектура современных компьютеров. Основные устройства компьютера, их функции и взаимосвязь. Магистрально-модульный принцип построения компьютера.
- •6.Классификация и характеристика программного обеспечения компьютера. Взаимосвязь аппаратного и программного обеспечения компьютера. Многообразие операционных систем.
- •7.Компьютерные вирусы и антивирусные программы. Специализированное программное обеспечение для защиты программ и данных.
- •8.Основные понятия и операции формальной логики. Законы логики. Логические переменные. Логические выражения и их преобразования. Построение таблиц истинности.
- •9.Логические элементы и схемы. Типовые логические устройства компьютера, полусумматор, сумматор, триггеры, регистры.
- •10.Операционная система: понятие, основные функции. Примеры операционных систем.
- •11.Понятие информации. Виды информационных процессов. Поиск и систематизация информации. Основные информационные процессы: храпение, передача и обработка информации.
- •2. Сбор информации
- •3. Передача информации
- •12.Вероятностный и алфавитный подходы к измерению информации. Единицы измерения информации. Скорость передачи информации. Пропускная способность канала связи.
- •13. Характеристики процессора и внутренней памяти компьютера (быстродействие, разрядность, объем памяти и др.).
- •14. Внешняя память компьютера. Носители информации (гибкие диски, жесткие диски, сd-rом диски, магнитооптические диски и пр.) и их основные характеристики.
- •15. Технологии работы с текстовыми документами. Текстовые редакторы и процессоры.
- •16. Технологии работы с графической информацией.
- •17. Электронные таблицы. Назначение и основные возможности.
- •18. Позиционные и непозиционные системы счисления. Алгоритмы перевода из десятичной системы счислении в произвольную и наоборот.
- •19. Понятие о кодировании информации. Выбор способа представления информации в соответствии с поставленной задачей. Универсальность дискретного (цифрового) представления информации.
- •20. Компьютерные сети, Аппаратные средства компьютерных сетей. Топология локальных сетей. Характеристики каналов (линий) связи.
- •Топологии компьютерных сетей
- •21. Понятие алгоритма. Свойства алгоритмов, исполнители алгоритмов. Автоматическое исполнение алгоритма. Способы описания алгоритмов.
- •Базовые алгоритмические структуры
- •22.Язык программирования. Типы данных. Реализация основных алгоритмических структур на языке программирования. Основные этапы разработки программ.
- •Основные этапы разработки программ
- •23.Технология нисходящего программирования. Разбиение задачи на подзадачи. Процедуры и функции.
- •24.Структуры данных. Обработка массивов. Поиск в массиве. Основные алгоритмы сортировки массивов.
- •26,29. Табличные базы данных (бд): основные понятия (поле, запись, первичный ключ записи); типы данных. Системы управления базами данных и принципы работы с ними.
- •Глобальная компьютерная сеть Интернет.
- •Поиск информации в Интернет
- •30. «Линейная» алгоритмическая структура. Команда присваивания. Привести примеры.
- •31. Алгоритмическая структура «ветвления». Команда ветвления. Привести примеры.
- •32. Алгоритмическая структура «цикл». Команда повторения. Привести примеры.
12.Вероятностный и алфавитный подходы к измерению информации. Единицы измерения информации. Скорость передачи информации. Пропускная способность канала связи.
1. Вероятностный подход. Подход к информации как мере уменьшения неопределенности знания позволяет количественно измерять информацию, что чрезвычайно важно для информатики. Пусть у нас имеется монета, которую мы бросаем на ровную поверхность. С равной вероятностью произойдет одно из двух возможных событий — монета окажется в одном из двух положений: «орел» или «решка». Перед броском существует неопределенность наших знаний (возможны два события), и как упадет монета — предсказать невозможно. После броска наступает полная определенность, так как мы видим, что монета в данный момент находится в определенном положении (например, «орел»). Это приводит к уменьшению неопределенности наших знаний в два раза, поскольку из двух возможных равновероятных событий реализовалось одно.
Имеется формула, которая связывает между собой число возможных событий N и количество информации I:
По этой формуле легко определить число возможных событий, если известно количество информации. Так, для кодирования одного символа требуется 8 бит информации, следовательно, число возможных событий (символов) составляет:
Наоборот, для определения количества информации, если известно число событий, необходимо решить показательное уравнение относительно /. Например, в игре «Крестики-нолики» на поле 4*4 перед первым ходом существует 16 возможных событий (16 различных вариантов расположения «крестика»), тогда уравнение принимает вид:
16 = 2^i. Так как 16 = 2^4, то уравнение запишется как:
Таким образом, I = 4 бит, т.е. количество информации, полученное вторым игроком после первого хода первого игрока, составляет 4 бит.
2. Алфавитный подход. Исходя из вероятностного подхода к определению количества информации, набор символов знаковой системы (алфавит) можно рассматривать как различные возможные состояния (события). Тогда, если считать, что появление символов в сообщении равновероятно, по формуле можно рассчитать, какое количество информации несет каждый символ:
где N — количество знаков в алфавите, I — количество информации.
Информационная емкость знаков зависит от их числа в алфавите (мощности алфавита): чем больше их число, тем большее количество информации несет один знак.
Так, информационная емкость буквы в русском алфавите, если не использовать букву «ё», составляет:
.
Аналогично легко подсчитать, что каждый знак «алфавита» нервной системы (есть импульс, нет импульса) в соответствии с формулой несет информацию 1 бит, а каждый из четырех символов генетического алфавита — информацию 2 бит. В соответствии с алфавитным подходом количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на число знаков в сообщении.
*******************
1 бит — минимальная единица измерения информации, при вероятностном подходе к измерению информации, принятом в теории информации, это количество информации, уменьшающее неопределенность знаний в 2 раза.
Связь между единицами измерения информации: •* 1 байт = 8 бит,
• 1 Кб (килобайт) = 2ю (1024) байт = 213 бит;
• 1 Мб (мегабайт) = 210 (1024) Кб = = 2го (1048576) байт = 223 бит;
• 1 Гб (гигабайт) = 210Мб = 220 Кб = 230 байт =
= 233 бит;
• 1 Тб (терабайт) = 210 Гб = 220Мб = 230 Кб = = 240 байт = 243 бит.
При объемном подходе к измерению информации, характерном для компьютерной обработки данных, информативность сообщения определяется количеством символов, его составляющих.
Скорость передачи информации — скорость передачи данных, выраженная в количестве бит, символов или блоков, передаваемых за единицу времени. Теоретическая верхняя граница скорости передачи информации определяется теоремой Шеннона-Хартли.
Рассматривая все возможные многоуровневые и многофазные методы шифрования, теорема Шеннона-Хартли утверждает, что ёмкость канала C, означающая теоретическую верхнюю границу скорости передачи информации, которые можно передать с данной средней мощностью сигнала S через один аналоговый канал связи, подверженный аддитивному белому гауссовскому шуму мощности N равна:
где C— ёмкость канала в битах в секунду;
B — полоса пропускания канала в герцах;
S — полная мощность сигнала над полосой пропускания, измеренной в ваттах или вольтах в квадрате;
N — полная шумовая мощность над полосой пропускания, измеренной в ваттах или вольтах в квадрате;
S/N — отношение сигнала к шуму(SNR) сигнала к гауссовскому шуму, выраженное как отношение мощностей.
Бит в секунду - базовая единица измерения скорости передачи информации, используемая на физическом уровне сетевой модели OSI или TCP/IP. На более высоких уровнях сетевых моделей, как правило, используется более крупная единица — байт в секунду равная 8 бит/c.
В отличие от бодов (baud; при двоичном кодировании боды также обозначают количество бит в секунду), битами в секунду измеряется эффективный объём информации, без учёта служебных битов (стартовые/стоповые/чётность) применяемых при асинхронной передаче. В некоторых случаях (при синхронной двоичной передаче) скорость в бодах может быть равной скорости в битах в секунду.
В информатике определение пропускной способности обычно применяется к каналу связи и определяется максимальным количеством переданной или полученной информации за единицу времени.
Пропускная способность — один из важнейших с точки зрения пользователей факторов. Она оценивается количеством данных, которые сеть в пределе может передать за единицу времени от одного подсоединенного к ней устройства к другому.