Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Теория к тестированию ГЭ.doc
Скачиваний:
5
Добавлен:
25.11.2019
Размер:
163.33 Кб
Скачать

Теория к тестированию ГЭ – 2012

ДЕ – 1

Основные понятия и методы теории информатики и кодирования. Сигналы, данные, информация. Общая характеристика процессов сбора, передачи, обработки и накопления информации

Тема 1 Сообщения, сигнал, данные, атрибутивные свойства информации, показатели качества информации, формы представления информации. Системы передачи информации.

Основные понятия

Сигнал — это изменяющийся во времени физический процесс.

Сигналы могут порождать в физических телах изменения свойств. Это явление называется регистрацией сигналов. Сигналы, зарегистрированные на материальном носителе, называются данными.

Чтобы получить информацию, имея данные, необходимо к ним применить методы, которые преобразуют данные в понятия, воспринимаемые человеческим сознанием. Таким образом, можно считать, что информация — это продукт взаимодействия данных и адекватных методов.

Энтропия в теории информации представляет собой меру неопределенности состояния системы.

В теории информации по концепции Шеннона под информацией понимают сведения, уменьшающие неопределенность (энтропию).

Сообщения – это сведения о каких-то событиях.

Свойства информации

Дуализм информации характеризует ее двойственность. С одной стороны, информация объективна в силу объективности данных, с другой — субъективна, в силу субъективности применяемых методов.

Полнота информации характеризует степень достаточности данных для принятия решения или создания новых данных на основе имеющихся.

Достоверность информации — это свойство, характеризующее степень соответствия информации реальному объекту с необходимой точностью. Информация достоверна, если она отражает истинное положение дел.

Адекватность информации выражает степень соответствия создаваемого с помощью информации образа реальному объекту, процессу, явлению.

Доступность информации — это возможность получения информации при необходимости. Доступность складывается из двух составляющих: из доступности данных и доступности методов. Отсутствие хотя бы одного дает неадекватную информацию.

Актуальность информации. Информация существует во времени, так как существуют во времени все информационные процессы.

Объективность информации – независимость от личного мнения.

Формы представления информации

1. Знаковая письменная - в виде различных знаков, среди которых принято выделять:

символьную в виде текста, чисел, специальных символов (химические формулы, дорожные знаки),

графическую (рисунки, схемы, чертежи, карты, графики, диаграммы),

табличную,

2. В виде жестов и сигналов (например, сигналы регулировщика дорожного движения),

3. Устная словесная.

Информационные процессы

1) Сбор информации — это деятельность субъекта по накоплению данных с целью обеспечения достаточной полноты.

2) Хранение информации - это поддержание данных в форме, готовой к выдаче их потребителю.

3) Передача информации - это процесс обмена данными. Предполагается, что существует источник информации, канал связи, приемник информации.

4) Обработка информации - это процесс преобразования информации от исходной ее формы до определенного результата.:

получение новой информации путем вычислений и/или логических рассуждений,

преобразование представления информации из одной формы в другую без изменения содержания (кодирование и шифрование)

упорядочение (сортировка).

5) Поиск информации

Системы передачи информации

Передача информации – физический процесс, посредством которого осуществляется перемещение информации в пространстве. В процессе передачи информации обязательно участвуют источник и приемник информации: первый передает информацию, второй ее получает. Между ними действует канал передачи информации – канал связи. В качестве канала связи можно использовать телефонную, телеграфную или спутниковую линии связи и аппаратные средства, используемые для передачи информации

Измерение информации

Содержательный подход: Если сообщение несет 1 бит информации, то оно уменьшает неопределенность знаний в 2 раза.

Алфавитный подход: 1 бит – это информационный вес символа двоичного алфавита.

Меры и единицы количества и объема информации

Для измерения количества информации нужна единица измерения.

В качестве единицы информации К. Шеннон предложил принять такое количество информации, при котором неопределенность уменьшается в 2 раза. Такая единица названа бит (англ. bit — binary digit — двоичная цифра).

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений (типа «орел – решка», «чет – нечет» и т.п.).

В вычислительной технике битом называют наименьшую «порцию» памяти компьютера, необходимую для хранения одного из двух знаков «0» и «1», используемых для внутримашинного представления данных и команд.

Информационный объем сообщения — количество двоичных символов, используемое для кодирования этого сообщения.

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная 8 бит. Именно 8 бит требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256 = 28).

1 байт = 8 бит

Широко используются также еще более крупные производные единицы информации:

1 килобайт (Кбайт) = 1024 байт = 210 байт;

1 мегабайт (Мбайт) = 1024 Кбайт = 220 байт;

1 гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

1 терабайт (Тбайт) = 1024 Гбайт = 240 байт;

Позиционные системы счисления

Система счисления - это способ записи чисел с помощью заданного набора специальных знаков (цифр).

Существуют системы позиционные и непозиционные.

В непозиционных системах счисления вес цифры не зависит от позиции, которую она занимает в числе. Так, например, в римской системе счисления в числе XXXII (тридцать два) вес цифры X в любой позиции равен просто десяти.

В позиционных системах счисления вес каждой цифры изменяется в зависимости от ее позиции в последовательности цифр, изображающих число. Любая позиционная сиситема характеризуется своим основанием. Основание позиционной системы счисления - это количество различных знаков или символов, используемых для изображения цифр в данной системе. За основание можно принять любое натуральное число - два, три, четыре, шестнадцать и т.д. Следовательно, возможно бесконечное множество позиционных систем.