Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
EK_shpory.docx
Скачиваний:
13
Добавлен:
23.09.2019
Размер:
854.3 Кб
Скачать

37. Сущность понятия «информация». Этапы преобразования информации

Схема:

Инф-я I – данные («отражено») >>синтаксич. фильтр «передано»>> Инф-я II – стат. или семант. инф. («принято») >>семантич. фильтр «понято» >>Инф-я III – семант. инф. («усвоено»)>>прагматич. фильтр «оценено»>>

Инф-я IV – прагматич. инф.(«полезно»)>> Использ-я инф-я – «применено».

I Инф-я– любое сообщение (В получает сведения об А, не учитывается, имел ли B априорные знания и какова была степень их неопределенности).

II Инф-я – мера уменьшения неопределенности знаний у В после получения им сообщения о состоянии А. Оценивается соотношением вероятностей состояния А в представлении В после получения сообщения и до него, формула . Также это мера снятия неопределенности системы.

III Инф-я – мера расширения, развития тезауруса.

IV Инф-я – мера полезности полученных и усвоенных получателем знаний.

40. Энтропия системы и количество информации.

Энтропия (Э) — это количество информации, приходящейся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения.

До получения инф-ии A хар-ся неопредел-ю для B. Для измерения неопред-ти исп-ся Э. Формула Э по Больцману: S=kBlnW, где S – энтропия системы (вещества), kB – постоянная Больцмана (kB = 1,3806504(24)×10-23Дж×К-1 (Джоуль/Кельвин), W – количество макроскопически неразличимых состояний исследуемой системы.

Пусть априорные знания B об A хар-ся вероятностями конечных состояний A: p1, p2,…,pn, ∑ pi =1. Э в представлении B об A рассчит-ся формулой . Если после получения инф-ии об A полностью снимается неопред-ть у B, то кол-во получен. инф-ии будет равно Э: H(A)=I(A) или (формула Шенона), где I(A) – кол-во инф-ии об A. Т.о. инф-ция – мера снятия неопред-ти системы. Единица кол-ва инф-ии – 1 бит опр-ся по двум равновероятностным состояниям системы.

Ф-ция H(A) дает колич. оценку степени неопределенности набора возможных событий. Действительно, если все p одинаковы, то неопределенность максимальна (хаос), а если одна из вероятностей равна 1 (другие при этом будут равны нулю), то никакой неопределенности нет, она равна нулю. В промежуточных ситуациях функция H(A) будет принимать какие-то значения между нулем и максимумом, и ученые не нашли другой функции, которая столь же хорошо описывала бы неопределенность. Разница между неопределенностью хаотического набора событий и неопределенностью данного набора есть количество информации, содержащееся в данном наборе событий, поэтому количество информации всегда измеряется с помощью функции энтропии.

43. Информация как мера расширения тезауруса и полезности полученных и усвоенных знаний.

СООБЩЕНИЕ ЯВЛЯЕТСЯ ФОРМОЙ ПЕРЕДАЧИ ЗНАНИЯ - УПОРЯДОЧЕННОГО ОТРАЖЕНИЯ ОБЪЕКТОВ И ПРОЦЕССОВ В ПОНЯТИЯХ, СУЖДЕНИЯХ И ДРУГИХ ПОСТРОЕННЫХ ИЗ ПОНЯТИЙ ОБРАЗАХ. ЧТОБЫ ВОСПРИНЯТЬ И УСВОИТЬ СООБЩЕНИЕ, ЕГО ПОЛУЧАТЕЛЬ САМ ДОЛЖЕН ОБЛАДАТЬ ОПРЕДЕЛЕННЫМ ЗАПАСОМ ЗНАНИЙ. ОБЫЧНО ЭТОТ ЗАПАС ПРЕДСТАВЛЯЮТ В ВИДЕ Т Е З А У Р У С А , Т.Е. СИСТЕМАТИЗИРОВАННОГО СЛОВАРЯ ПОНЯТИЙ С УКАЗАНИЕМ ЛОГИЧЕСКИХ СМЫСЛОВЫХ СВЯЗЕЙ МЕЖДУ НИМИ.

ТЕЗАУРУС [ ОТ ГРЕЧЕСКОГО, ЗАПАС ] – ПОЛНЫЙ СИСТЕМАТИЧЕСКИЙ НАБОР ДАННЫХ О КАКОЙ-ЛИБО ОБЛАСТИ ЗНАНИЯ, ПОЗВОЛЯЮЩИЙ ЧЕЛОВЕКУ ИЛИ ВЫЧИСЛИТЕЛЬНОЙ МАШИНЕ В НЕЙ ОРИЕНТИРОВАТЬСЯ.

КОГДА СООБЩЕНИЕ УВЯЗЫВАЕТСЯ С ТЕЗАУРУСОМ ЕГО ПОЛУЧАТЕЛЯ, И К ТОМУ ЖЕ ЭТИ СООБЩЕНИЯ ОБОГАЩАЮТ ТЕЗАУРУС, МОЖНО СКАЗАТЬ, ЧТО ПОЛУЧЕНА НОВАЯ СМЫСЛОВАЯ (СЕМАНТИЧЕСКАЯ ) ИНФОРМАЦИЯ.

ПОД ИНФОРМАЦИЕЙ ( I I I ) ПОНИМАЕТСЯ МЕРА РАСШИРЕНИЯ, РАЗВИТИЯ ТЕЗАУРУСА. МОЖНО СЧИТАТЬ ЛЮБУЮ СЕМАНТИЧЕСКУЮ ИНФОРМАЦИЮ ПОТЕНЦИАЛЬНО ПОЛЕЗНОЙ, НЕ ИСКЛЮЧАЯ ПРИ ЭТОМ СОДЕРЖАЩИЕСЯ В НЕЙ НЕНУЖНЫЕ ЗНАНИЯ (« ПРАГМАТИЧЕСКИЙ ШУМ»). ВАЖНО ПЛУЧЕНИЕ АКТУАЛЬНО ПОЛЕЗНОЙ ИНФОРМАЦИИ, СПОСОБСТВУЮЩЕЙ РЕШЕНИЮ СТОЯЩИХ ПЕРЕД НАМИ ЗАДАЧ. В ЭТОМ КОНТЕКТСЕ ПОД ИНФОРМАЦИЕЙ - IV (ОНА ЯВЛЯЕТСЯ ПРАГМАТИЧНОЙ) ПРАВОМЕРНО ПОНИМАТЬ МЕРУ ПОЛЕЗНОСТИ ПОЛУЧЕННЫХ И УСВОЕННЫХ ПОЛУЧАТЕЛЕМ ЗНАНИЙ.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]