- •1.История становления понятия информации. Основные подходы к определению понятия информации
- •2. Характеристика и-и как устраненной неопределенности.
- •3. Характеристика и-и как снятой неразличимости.
- •4. Характеристика и-и как отраженного разнообразия.
- •5. «Закон необходимого разнообразия» Уильяма Росса Эшби.
- •6. Хар-ка алгоритмического подхода к опред. Понятия инф-и.
- •7. Количество информации, ее определение. Единица инф-и.
- •8. Понятие энтропии в теории инф-и, формула энтропии.
- •10. Вероятностный подход к определению ценности информации
- •11. Семиотика и ее основные разделы.
- •12. Семантические концепции информации. Понятие тезауруса.
- •13.Закономерности восприятия информации реципиентом в рамках тезаурусной модели
- •16. Типология и общие свойства ин-ии
- •18. Понятие системы. Системны принципы
- •19. Понятие и область применения системного подхода и системного анализа
- •21. Кибернетика и информатика как области знания (научные дисциплины)
- •23. Понятие информационного взаимодействия, его типология
- •24. Барьеры в инфовзаимодействия. Общие виды, понятия
- •25. Понятие знаковой ситуации. Треугольник Фреге.
- •26. Знак. Концепт Денотат.
- •28. Понятие машины Тьюринга, назначение, описание работы.
- •29. Формальные языки. Общее понятие, область применения.
- •30. Формальные грамматики. Общее понятие, классификация.
- •31.Понятие и определение нечетких множеств
- •37. Понятие инф-ой потребности.
1.История становления понятия информации. Основные подходы к определению понятия информации
Понятие информации рассматривалось ещё античными философами. В течение многих веков это понятие не раз изменялось. Сначала под этим словом понимали «представление», «понятие», затем – «сведения», «передачу сообщений». Слово ин-я происходит от латинского слова informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Такое значение слова «информация» продержалось до середины 20 века. В это время благодаря бурному развитию телеграфа, телефона, радио, телевидения и других средств массового общения и воздействия появилась необходимость измерять количество информации. Возникают различные математические подходы к измерению информации, и слово стало изменяться. Начало научному изучению информации как таковой положено в работах Н. Винера, У.Р. Эшби, которые связывали информацию с теорией управления и К.Э. Шеннона, который вел меру количества информации – бит. Далее рассматривать вопросы теории информации стала новая на то время наука кибернетика (наука об управлении).
Коммуникативный подход рассматривает информацию как сферу общения. Важно знать, как происходит обмен информацией между людьми.
Функциональная подход определяет информацию как форму отражения, которая связана с самоуправляемыми системами (это система управления, способная постоянно поддерживать свою качественную определенность, осуществлять целенаправленное (программное) функционирование и саморазвитие, самосовершенствование (в плане видоизменения своих программ и способов функционирования). При данном подходе информация тесно связана с понятием «сигнал». Сигнал выступает в качестве формы, а информация является содержанием. Важным является содержание сообщения, хотя физические свойства носителя информации накладывают определенные ограничения на отображение действительности и адекватное управление ею.
Атрибутивный подход понимает информацию как «отражение разнообразия в любых объектах и процессах, как в живой, так и в неживой природе». При этом информация определяется как мера неоднородности распределения материи и энергии в пространстве и во времени. Различают четыре формы материи: физическую, химическую, биологическую и социальную.
2. Характеристика и-и как устраненной неопределенности.
В теории К. Шеннона информация определена величиной устранённой с её помощью неопределённости, а неопределённость измеряется посредством вероятности. Уменьшение неопределенности всегда связано с отбором одного или нескольких элементов. Такая взаимная обратимость понятий вероятности и неопределенности послужила основой для использования понятия вероятности при измерении степени неопределенности в теории информации.Чем меньше вероятность какого-либо события, тем большую неопределенность снимает сообщение о его появлении и, следовательно, тем большую информацию оно несет. Количество информации в сообщении определяется тем, насколько уменьшится мера неопределенности после получения сообщения.Энтропия (Н) - мера неопределенности. Чем больше Н, тем больше хаоса. Формула энтропии:
Теория К. Шеннона называется вероятностно-статистической теорией информации.