- •Билет №1. Информация. Определение информации по Шеннону, по Виннеру.
- •Билет №4. Действия в отношении информации.
- •Билет №5. Понятия «Информатика», «иткт».
- •Misc (англ. Minimal Instruction Set Computer — «компьютер с минимальным набором команд»).
- •Примеры архитектуры: Intel Itanium, Эльбрус-3.
- •Билет №12. Внутренние и внешние зу, основные различия.
- •Различия:
Билет №1. Информация. Определение информации по Шеннону, по Виннеру.
До середины ХХ века под информацией понимали сведения, передаваемые людьми устным, письменным или другим способом. Например, в словаре С. И. Ожегова приводится следующая формулировка: «Информация – это сведения об окружающем мире и протекающих в нем процессах; сообщения, осведомляющие о положении дел, о состоянии чего-либо»
Информация – это совокупность сигналов, воспринимаемых нашим сознанием, которые отражают те или иные свойства объектов и явлений окружающей действительности. Природа данных сигналов подразумевает наличие принципиальных возможностей по их сохранению, передаче и трансформации (обработке).
Клод Шеннон («отец информатики»), определил информацию как свойство сигнала, возникающее при его передаче от передатчика к приёмнику и характеризировал её как снятую неопределённость, он же предложил единицу измерения – бит.
Норберт Виннер («отец кибернетики»), определил информацию как содержание, полученное из внешнего мира в процессе приспособления к нему. Противопоставлял информацию как энергии, так и материи.
Андрей Колмогоров (основоположник современной теории вероятностей), определил информацию как набор необходимых операций в алгоритме, воспроизводящем свойства объекта. Количество информации предложил оценивать, как количество строк программы нужное для описания объекта.
Подходы к оценке количества информации:
Вероятностный (в битах) – подход Шеннона, снятие неопределённости;
Алгоритмический (в командах) – подход Колмогорова, объём кода для описания объекта на формальном языке (математическом).
Клод Элвуд Шеннон:
1943 г. – разработал теорию защищенной радиосвязи в секретных системах и теорию кодирования
1948 г. – предложил математическую теорию информации, метод измерения количества информации и единицу измерения (бит)
1952 г. – создал обучаемую логическую машину, которая искала и находила выход из лабиринта
1959 г. – разработал первую промышленную игрушку на радиоуправлении, также создал автомат, собирающий кубик-рубика
Билет №2. Источники получения информации. Свойства информации.
Человек получает информацию через органы чувств, поэтому она бывает 5 видов: зрительная (80-90% всей информации), звуковая, вкусовая, обонятельная, тактильная.
Три последних вида, увы, пока не научились хранить и обрабатывать на компьютере.
Свойства информации:
Релевантность (соответствие информации нуждам получателя)
Эргономичность (удобство для восприятия получателем)
Утилитарность (применимость получателем для решения задач)
Достоверность (не имеет скрытых ошибок и внутренних противоречий)
Актуальность (значимость в данный момент)
Полнота (исчерпывающе характеризует объект и контекст)
Защищенность (бесполезность для всех, кроме получателя)
Билет №3. Понятия «данные», «информация», «знания». Связь понятий.
Данные - это совокупность сведений, зафиксированных на определенном носителе в форме, пригодной для постоянного хранения, передачи и обработки. То есть в объективной (материальной) форме.
Информация - это результат работы с данными. Отличие информации от данных состоит в том, что данные - это статические сведения, которые хранятся на носителях (определяют их состояние), а информация – продукт обработки данных в контексте конкретной решаемой задачи.
Знания - это результат обработки информации и результатов её применения на практике. Знания отличаются от информации систематизированностью (информация обобщена на основании сходств и классифицирована на основании различий) и интерпретируемостью (трактовка знаний позволяет получить новую информацию или новые знания).
Данные - зафиксированные факты. Информация – обработанные данные. Знания – обработанная информация.