Теория к тестированию ГЭ – 2012
ДЕ – 1
Основные понятия и методы теории информатики и кодирования. Сигналы, данные, информация. Общая характеристика процессов сбора, передачи, обработки и накопления информации
Тема 1 Сообщения, сигнал, данные, атрибутивные свойства информации, показатели качества информации, формы представления информации. Системы передачи информации.
Основные понятия
Сигнал — это изменяющийся во времени физический процесс.
Сигналы могут порождать в физических телах изменения свойств. Это явление называется регистрацией сигналов. Сигналы, зарегистрированные на материальном носителе, называются данными.
Чтобы получить информацию, имея данные, необходимо к ним применить методы, которые преобразуют данные в понятия, воспринимаемые человеческим сознанием. Таким образом, можно считать, что информация — это продукт взаимодействия данных и адекватных методов.
Энтропия в теории информации представляет собой меру неопределенности состояния системы.
В теории информации по концепции Шеннона под информацией понимают сведения, уменьшающие неопределенность (энтропию).
Сообщения – это сведения о каких-то событиях.
Свойства информации
Дуализм информации характеризует ее двойственность. С одной стороны, информация объективна в силу объективности данных, с другой — субъективна, в силу субъективности применяемых методов.
Полнота информации характеризует степень достаточности данных для принятия решения или создания новых данных на основе имеющихся.
Достоверность информации — это свойство, характеризующее степень соответствия информации реальному объекту с необходимой точностью. Информация достоверна, если она отражает истинное положение дел.
Адекватность информации выражает степень соответствия создаваемого с помощью информации образа реальному объекту, процессу, явлению.
Доступность информации — это возможность получения информации при необходимости. Доступность складывается из двух составляющих: из доступности данных и доступности методов. Отсутствие хотя бы одного дает неадекватную информацию.
Актуальность информации. Информация существует во времени, так как существуют во времени все информационные процессы.
Объективность информации – независимость от личного мнения.
Формы представления информации
1. Знаковая письменная - в виде различных знаков, среди которых принято выделять:
символьную в виде текста, чисел, специальных символов (химические формулы, дорожные знаки),
графическую (рисунки, схемы, чертежи, карты, графики, диаграммы),
табличную,
2. В виде жестов и сигналов (например, сигналы регулировщика дорожного движения),
3. Устная словесная.
Информационные процессы
1) Сбор информации — это деятельность субъекта по накоплению данных с целью обеспечения достаточной полноты.
2) Хранение информации - это поддержание данных в форме, готовой к выдаче их потребителю.
3) Передача информации - это процесс обмена данными. Предполагается, что существует источник информации, канал связи, приемник информации.
4) Обработка информации - это процесс преобразования информации от исходной ее формы до определенного результата.:
получение новой информации путем вычислений и/или логических рассуждений,
преобразование представления информации из одной формы в другую без изменения содержания (кодирование и шифрование)
упорядочение (сортировка).
5) Поиск информации
Системы передачи информации
Передача информации – физический процесс, посредством которого осуществляется перемещение информации в пространстве. В процессе передачи информации обязательно участвуют источник и приемник информации: первый передает информацию, второй ее получает. Между ними действует канал передачи информации – канал связи. В качестве канала связи можно использовать телефонную, телеграфную или спутниковую линии связи и аппаратные средства, используемые для передачи информации
Измерение информации
Содержательный подход: Если сообщение несет 1 бит информации, то оно уменьшает неопределенность знаний в 2 раза.
Алфавитный подход: 1 бит – это информационный вес символа двоичного алфавита.
Меры и единицы количества и объема информации
Для измерения количества информации нужна единица измерения.
В качестве единицы информации К. Шеннон предложил принять такое количество информации, при котором неопределенность уменьшается в 2 раза. Такая единица названа бит (англ. bit — binary digit — двоичная цифра).
Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений (типа «орел – решка», «чет – нечет» и т.п.).
В вычислительной технике битом называют наименьшую «порцию» памяти компьютера, необходимую для хранения одного из двух знаков «0» и «1», используемых для внутримашинного представления данных и команд.
Информационный объем сообщения — количество двоичных символов, используемое для кодирования этого сообщения.
Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная 8 бит. Именно 8 бит требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256 = 28).
1 байт = 8 бит
Широко используются также еще более крупные производные единицы информации:
1 килобайт (Кбайт) = 1024 байт = 210 байт;
1 мегабайт (Мбайт) = 1024 Кбайт = 220 байт;
1 гигабайт (Гбайт) = 1024 Мбайт = 230 байт.
1 терабайт (Тбайт) = 1024 Гбайт = 240 байт;
Позиционные системы счисления
Система счисления - это способ записи чисел с помощью заданного набора специальных знаков (цифр).
Существуют системы позиционные и непозиционные.
В непозиционных системах счисления вес цифры не зависит от позиции, которую она занимает в числе. Так, например, в римской системе счисления в числе XXXII (тридцать два) вес цифры X в любой позиции равен просто десяти.
В позиционных системах счисления вес каждой цифры изменяется в зависимости от ее позиции в последовательности цифр, изображающих число. Любая позиционная сиситема характеризуется своим основанием. Основание позиционной системы счисления - это количество различных знаков или символов, используемых для изображения цифр в данной системе. За основание можно принять любое натуральное число - два, три, четыре, шестнадцать и т.д. Следовательно, возможно бесконечное множество позиционных систем.