Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
ISS.docx
Скачиваний:
1
Добавлен:
01.07.2025
Размер:
1.47 Mб
Скачать

Информация[4]

Информация -- фундаментальное, первичное понятие информатики.

Информация [1] (от лат. Informatio - разъяснение, осведомление, изложение) -- отражение внешнего мира с помощью знаков и сигналов.

В быту под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами

В технике информация -- сообщения, передаваемые в виде последовательности знаков или сигналов

В теории информации под информацией понимают только сведения, уменьшающие существовавшую до их появления неопределенность (Информация -- это снятая неопределенность. (К. Шеннон))

В кибернетике (теории управления) информация -- та часть знаний, которая используется для ориентирования, активного действия, управления, т. е. в целях сохранения, совершенствования, развития системы

В семантической теории -- сведения, обладающие новизной

В документалистике -- все, что в так или иначе зафиксировано в знаковой форме в виде документов.

По отношению к окружающей среде информация бывает

  • входная (получается от окружающей среды);

  • выходная (выдается в окружающую среду);

  • внутренняя (внутрисистемная).

По отношению к конкретной задаче, проблеме

  • исходная (существовавшая до начала обработки);

  • промежуточная (от начала до завершения обработки);

  • результирующая (после завершения обработки).

По изменчивости

  • постоянная (никогда не изменяемая);

  • переменная (изменяемая в процессе работы);

  • смешанная (условно-постоянная или условно-переменная).

Прочие классификации информации: по полноте, по принадлежности (территории, физическому или юридическому лицу и т.д.), по доступу, по предметной области, по характеру использования (коммерческая, справочная, учебная и т.п.) и др

Ноосфера (от греч. noos -- мысль, разум и sphaira -- сфера) Сфера деятельности человеческого разума. Современное состояние биосферы, возникшее в процессе деятельности человека. (Понятие впервые введено В. И. Вернандским)

Основные свойства информации [1],[4]

  • полнота (<<Недоученный хуже неученого>>);

  • объективность;

  • достоверность;

  • актуальность (необходимость, своевременность);

  • интерпретируемость (понятность);

  • кодируемость и экономичность кодировки;

  • избыточность;

  • защищенность и помехоустойчивость.

Методы получения и использования информации

  • Эмпирические методы

    • наблюдение;

    • сравнение;

    • измерение;

    • эксперимент.

  • Теоретические методы

    • идеализация (мысленное исследование упрощенных, не существующих в действительности подобий изучаемых систем);

    • формализация (описание системы с помощью формальных языков, например, математических формул, и исследование полученной модели);

    • аксиоматизация (получение знаний на основе принятия некоторых аксиом);

    • виртуализация (исследование системы в искусственно созданной среде, обстановке, ситуации).

  • Эмпирико-теоретические методы

    • абстрагирование (установление общих свойств объектов путем отбрасывания несущественных деталей);

    • анализ (разбиение системы на подсистемы);

    • синтез (объединение подсистем в систему);

    • индукция (переход от частного к общему);

    • дедукция (переход от общего к частному);

    • моделирование, макетирование;

    • визуализация и др.

2  Носители информации [1]

Информация всегда связана с материальным носителем

Носитель информации -- среда для записи и хранения информации

Сигнал -- способ передачи информации. Это физический процесс, какая-либо характеристика которого изменяется во времени. Сигнал может быть дискретным или аналоговым.

Аналоговый сигнал -- сигнал, непрерывно (плавно) изменяющийся во времени

Дискретный сигнал может принимать конечное число значений, скачком переходя от одного такого значения к другому

Для работы с аналоговыми сигналами цифровыми методами выполняют ихдискретизацию

3  Измерение информации

3.1  Объемный способ измерения информации [2]

Технический способ измерения количества информации (или, точнее, информационного объема сообщения) основан на подсчета количества символов, из которых образовано сообщение. При этом не учитывается смысловое содержание сообщения. Например, многократное повторение одного и того же текста не несет новой информации, однако в результате занимает больший объем памяти, требует большего времени для передачи и т.п. Поэтому этот способ удобен в технических расчетах

За 1 бит в этом случае принимается один двоичный символ в сообщении

3.2  Алгоритмическое измерение информации [2]

А. Н. Колмогоров (1965 г.): Алгоритмическая сложность некоторой последовательности данных определяется как минимальная длина вычислительного алгоритма, который мог бы воспроизвести заданную последовательность

3.3  Вероятностный подход к измерению количества информации [4]

3.3.1  Мера Р. Хартли

Американским инженером Р. Хартли в 1928 г. получена формула для определения количества информации, получаемой при реализации одного из N равновероятных состояний

H = logaN = -logaP,

(1)

где a -- основание системы,  N -- количество равновозможных состояний,  P -- вероятность реализации состояния.

При a = e единица измерения называется <<нат>>, при a = 2 -- <<бит>>, при a = 10 -- <<дит>>

Пример 1 ДНК человека можно представить как некоторое слово четырехбуквенного алфавита, где буквы соответствуют нуклеотидам1. Определим, какое количество информации содержит ДНК, если она состоит примерно из 1.5×1023 нуклеотидов. Так как алфавит -- четырехбуквенный, каждый символ слова несет log24 = 2 бита информации. Следовательно ДНК в целом позволяет хранить 3×1023 бит или около 3×1010 Терабайт информации.

3.3.2  Задачи с <<двоичными>> ответами [3]

Задача 1 Имеется колода из 32 игральных карт (без шестерок). Задумана одна из карт. Какое наименьшее число вопросов нужно задать, чтобы угадать задуманную карту, если на вопросы даются ответы <<Да>> и <<Нет>>?

Задача 2 Задумано целое число от нуля до ста. Какое наименьшее число вопросов нужно задать, чтобы угадать это число?

Задача 3 Задумано некоторое число. Известно, что отгадать его можно, задав 7 вопросов. Оцените это число.

Задача 4 Имеется 26 монет, одна из которых -- фальшивая (более легкая). Каким образом за 3 взвешивания определить фальшивую монету?

Задача 5 Имеется 41 монета, из них одна -- фальшивая. Как при помощи двух взвешиваний определить, тяжелее фальшивая монета настоящей или легче?

3.3.3  Мера К. Шеннона

Американский математик и инженер К. Шеннон в 1948 г. получил формулу для расчета количества информации, содержащейся в системе, обладающей произвольным набором неравновероятных (в общем случае) состояний

I = -

 

pilog2pi,

(2)

где n -- число возможных состояний системы, pi -- вероятность i-го состояния (причем pi = 1)

Чем меньше вероятность наступления события, тем большую информацию это событие несет

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]