Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Билеты на экзамен / Экзамен по информатике 1.docx
Скачиваний:
0
Добавлен:
27.05.2024
Размер:
41.55 Кб
Скачать

Билет №1. Информация. Определение информации по Шеннону, по Виннеру.

До середины ХХ века под информацией понимали сведения, передаваемые людьми устным, письменным или другим способом. Например, в словаре С. И. Ожегова приводится следующая формулировка: «Информация – это сведения об окружающем мире и протекающих в нем процессах; сообщения, осведомляющие о положении дел, о состоянии чего-либо»

Информация – это совокупность сигналов, воспринимаемых нашим сознанием, которые отражают те или иные свойства объектов и явлений окружающей действительности. Природа данных сигналов подразумевает наличие принципиальных возможностей по их сохранению, передаче и трансформации (обработке).

Клод Шеннон («отец информатики»), определил информацию как свойство сигнала, возникающее при его передаче от передатчика к приёмнику и характеризировал её как снятую неопределённость, он же предложил единицу измерения – бит.

Норберт Виннер («отец кибернетики»), определил информацию как содержание, полученное из внешнего мира в процессе приспособления к нему. Противопоставлял информацию как энергии, так и материи.

Андрей Колмогоров (основоположник современной теории вероятностей), определил информацию как набор необходимых операций в алгоритме, воспроизводящем свойства объекта. Количество информации предложил оценивать, как количество строк программы нужное для описания объекта.

Подходы к оценке количества информации:

  1. Вероятностный (в битах) – подход Шеннона, снятие неопределённости;

  2. Алгоритмический (в командах) – подход Колмогорова, объём кода для описания объекта на формальном языке (математическом).

Клод Элвуд Шеннон:

1943 г. – разработал теорию защищенной радиосвязи в секретных системах и теорию кодирования

1948 г. – предложил математическую теорию информации, метод измерения количества информации и единицу измерения (бит)

1952 г. – создал обучаемую логическую машину, которая искала и находила выход из лабиринта

1959 г. – разработал первую промышленную игрушку на радиоуправлении, также создал автомат, собирающий кубик-рубика

Билет №2. Источники получения информации. Свойства информации.

Человек получает информацию через органы чувств, поэтому она бывает 5 видов: зрительная (80-90% всей информации), звуковая, вкусовая, обонятельная, тактильная.

Три последних вида, увы, пока не научились хранить и обрабатывать на компьютере.

Свойства информации:

  1. Релевантность (соответствие информации нуждам получателя)

  2. Эргономичность (удобство для восприятия получателем)

  3. Утилитарность (применимость получателем для решения задач)

  4. Достоверность (не имеет скрытых ошибок и внутренних противоречий)

  5. Актуальность (значимость в данный момент)

  6. Полнота (исчерпывающе характеризует объект и контекст)

  7. Защищенность (бесполезность для всех, кроме получателя)

Билет №3. Понятия «данные», «информация», «знания». Связь понятий.

Данные - это совокупность сведений, зафиксированных на определенном носителе в форме, пригодной для постоянного хранения, передачи и обработки. То есть в объективной (материальной) форме.

Информация - это результат работы с данными. Отличие информации от данных состоит в том, что данные - это статические сведения, которые хранятся на носителях (определяют их состояние), а информация – продукт обработки данных в контексте конкретной решаемой задачи.

Знания - это результат обработки информации и результатов её применения на практике. Знания отличаются от информации систематизированностью (информация обобщена на основании сходств и классифицирована на основании различий) и интерпретируемостью (трактовка знаний позволяет получить новую информацию или новые знания).

Данные - зафиксированные факты. Информация – обработанные данные. Знания – обработанная информация.