- •1.История становления понятия информации. Основные подходы к определению понятия информации
- •2. Характеристика и-и как устраненной неопределенности.
- •3. Характеристика и-и как снятой неразличимости.
- •4. Характеристика и-и как отраженного разнообразия.
- •5. «Закон необходимого разнообразия» Уильяма Росса Эшби.
- •6. Хар-ка алгоритмического подхода к опред. Понятия инф-и.
- •7. Количество информации, ее определение. Единица инф-и.
- •8. Понятие энтропии в теории инф-и, формула энтропии.
- •10. Вероятностный подход к определению ценности информации
- •11. Семиотика и ее основные разделы.
- •12. Семантические концепции информации. Понятие тезауруса.
- •13.Закономерности восприятия информации реципиентом в рамках тезаурусной модели
- •16. Типология и общие свойства ин-ии
- •18. Понятие системы. Системны принципы
- •19. Понятие и область применения системного подхода и системного анализа
- •21. Кибернетика и информатика как области знания (научные дисциплины)
- •23. Понятие информационного взаимодействия, его типология
- •24. Барьеры в инфовзаимодействия. Общие виды, понятия
- •25. Понятие знаковой ситуации. Треугольник Фреге.
- •26. Знак. Концепт Денотат.
- •28. Понятие машины Тьюринга, назначение, описание работы.
- •29. Формальные языки. Общее понятие, область применения.
- •30. Формальные грамматики. Общее понятие, классификация.
- •31.Понятие и определение нечетких множеств
- •37. Понятие инф-ой потребности.
6. Хар-ка алгоритмического подхода к опред. Понятия инф-и.
Очень близка к «разнообразностной» трактовке информации идея алгоритмического измерения ее количества, выдвинутая в 1965 г. А.Н. Колмогоровым. Для оценки информации в одном конечном объекте относительно другого конечного объекта он предложил использовать теорию алгоритмов. За количество информации при этом, принимается значение некоторой функции от сложности каждого из объектов и длины программы (алгоритма) преобразования одного объекта в другой Суть ее заключается в том, что количество информации определяется как минимальная длина программы, позволяющей преобразовать один объект (множество) в другой (множество). Чем больше различаются два объекта между собой, тем сложнее (длиннее) программа перехода от одного объекта к другому. Этот подход, в отличие от подхода Шеннона, не базирующийся на понятии вероятности, позволяет, например, определить прирост количества информации, содержащейся в результатах расчета, по сравнению с исходными данными. Вероятностная теория информации на этот вопрос не может дать удовлетворительного ответа.
7. Количество информации, ее определение. Единица инф-и.
Подход к информации как к мере уменьшения неопределённости знания позволяет количественно измерять информацию.
Количество информации - это количество информации в одном случайном объекте относительно другого; мера уменьшения неопределенности.Формула, которая связывает между собой количество возможных событий N и количество информации I:
N=2I.
За единицу количества информации принято такое количество информации, которое содержит сообщение уменьшающее неопределённость знания в 2 раза. Такая единица названа бит. Бит - это наименьшая единица измерения информации.
Единицы измерения информации: 1байт = 8 бит
1Кб (килобайт) = 210 байт = 1024 байт
1Мб (мегабайт) = 210 Кб = 1024 Кб
1Гб (гигабайт) = 210 Мб = 1024 Мб
I - количество информации
N – количество возможных событий
pi – вероятности отдельных событий
8. Понятие энтропии в теории инф-и, формула энтропии.
Базисным понятием всей теории информации является понятие энтропии.Шеннон сформулировал энтропию как меру хаоса в противовес количеству информации как меры упорядоченности структур. Энтропия – мера неопределенности. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.Если взять, например, последовательность символов, составляющих какое-либо предложение на русском языке. Каждый символ появляется с разной частотой, следовательно, неопределённость появления для некоторых символов больше, чем для других. Если же учесть, что некоторые сочетания символов встречаются очень редко, то неопределённость ещё более уменьшается.
Энтропия независимых случайных событий рассчитывается по формуле:
Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только i-e состояние.
10. Вероятностный подход к определению ценности информации
Все события происходят с различной вероятностью, но зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил Шеннон.
С точки зрения отдельного человека, ценность информации определяется тем, насколько она проясняет для него какой-либо вопрос, то есть уменьшает неопределенность ситуации. Данный способ измерения исходит из следующей модели: получатель сообщения имеет определённое представление о возможных наступлениях некоторых событий. Эти представления в общем случае недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределённостей называется энтропией, потому поход назван так же энтропийным.
Количество информации в сообщении определяется тем, насколько уменьшилась эта мера после получения сообщения: чем больше энтропия системы, тем больше степень её неопределённости. Поступающее сообщение полностью или частично снимает эту неопределённость, следовательно, количество информации можно измерять тем, насколько понизилась энтропия системы после получения сообщения. За меру количества информации принимается та же энтропия, но с обратным знаком.
Чем больше равновозможных событий, тем больше неопределенность ситуации. Минимальный размер сообщения о том, что произошло одно из двух равновозможных событий, равен одному биту. Информацию о том, что произошло первое событие, можно закодировать в двоичном алфавите нулем, а о том, что произошло второе событие – единицей.
Для уменьшения неопределенности в два раза (вместо двух возможных событий – одно реально произошедшее) требуется один бит информации. Иначе говоря, сообщение, уменьшающее неопределенность ситуации в два раза, несет один бит информации. Если его длина больше, значит сообщение несет избыточную, с точки зрения уменьшения неопределенности, информацию.