Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Шпорки.docx
Скачиваний:
61
Добавлен:
24.04.2019
Размер:
156.78 Кб
Скачать

3 Основные свойства информации. Объективность и субъективность. Полнота, достоверность, адекватность, доступность, актуальность.

Свойства информации (с точки зрения бытового подхода к определению информации):

* релевантность -- способность информации соот-ветствовать нуждам (запросам) потребителя;

* полнота -- свойство информации исчерпывающе (для данного потребителя) характеризовать отображае-мый объект или процесс;

* своевременность -- способность информации со-ответствовать нуждам потребителя в нужный момент времени;

* достоверность -- свойство информации не иметь скрытых ошибок. Достоверная информация со време-нем может стать недостоверной, если устареет и пере-станет отражать истинное положение дел;

* доступность -- свойство информации, характе-ризующее возможность ее получения данным потре-бителем;

* защищенность -- свойство, характеризующее не-возможность несанкционированного использования или изменения информации;

* эргономичность -- свойство, характеризующее удоб-ство формы или объема информации с точки зрения данного потребителя.

Информация – это отражение внешнего объективного мира. Объективная информация изменение свойств наблюдателя частью свойств исследуемого объекта, в результате чего образуются объекты, являющиеся функцией от свойств исследуемого объекта.

Субъективная - избыточность свойств моделей, возникающая в результате сравнения свойств ранее полученной объективной информации со свойствами текущей объективной информации,

поступившей от объектов, имеющих подобные свойства.

Объективный – существующий вне и независимо от человеческого сознания.

Информацию можно назвать полной, если ее достаточно для понимания и принятия решений. Неполная информация может привести к ошибочному выводу или решению.

Полезность (ценность) информации. Полезность может быть оценена применительно к нуждам конкретных ее потребителей и оценивается по тем задачам, которые можно решить с ее помощью.

Актуальность информации – важность для настоящего времени.

Адекватность информации — это уровень соответствия образа, создаваемого с помощью информации, реальному объекту, процессу, явлению.

4 Формальное определение «Информатика». Кибернетика.

Информатика – молодая научная дисциплина, изучающая вопросы, связанные с поиском, сбором, хранением, преобразованием и использованием информации в самых различных сферах человеческой деятельности.

Киберне́тика — наука об общих закономерностях процессов управления и передачи информации в различных системах, будь то машины, живые организмы или общество.

Термин «кибернетика» в современном понимании как наука об общих закономерностях процессов управления и передачи информации в машинах, живых организмах и обществе впервые был предложен Норбертом Винером в 1948 году

Она включает изучение обратной связи, чёрных ящиков и производных концептов, таких как управление и коммуникация в живых организмах, машинах иорганизациях, включая самоорганизации.

5 Понятие о кодировании информации. Количественная мера информации.

В настоящее время достаточно распространен процесс кодирования, т. е. преобразование информации из одной знаковой формы в другую, удобную для ее обработки, хранения или передачи. Используемый для кодирования конечный набор знаков называют алфавитом. Кодирование осуществляется по принятым правилам. Правило кодирования называется кодом (от французского code — кодекс, свод законов). Длина кода — количество знаков алфавита, используемое для кодирования.

Современный компьютер может обрабатывать числовую, текстовую, графическую, звуковую и видео информацию. Все эти виды информации в компьютере представлены в двоичном коде, т. е. используется алфавит мощностью два (всего два символа 0 и 1). Связано это с тем, что удобно представлять информацию в виде последовательности электрических импульсов: импульс отсутствует (0), импульс есть (1). Такое кодирование принято называть двоичным, а сами логические последовательности нулей и единиц - машинным языком.

Теория любого явления начинается с появления количественных взаимоотношений между объектами исследований, т.е. при установлении принципов измеряемости каких-либо свойств объектов. Единицу количественной меры информации - БИТ (сокращение binary digit - двоичная цифра), впервые предложил Р. Хартли в 1928 году. 1 бит - это информация о двух возможных равновероятных состояниях объекта, неопределенность выбора из двух равновероятных событий. Математически это отображается состоянием 1 или 0 одного разряда двоичной системы счисления. Количество информации Н (в битах), необходимое и достаточное для полного снятия неопределенности состояния объекта, который имеет N равновозможных состояний, измеряется как логарифм по основанию 2 из числа возможных состояний:

H = log 2 N. (1.4.1)

Соответственно, двоичный числовой информационный код одного из N возможных состояний объекта занимает Н двоичных разрядов.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]