Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
основы ответы.doc
Скачиваний:
11
Добавлен:
23.09.2019
Размер:
190.46 Кб
Скачать

36. Синтактическая мера информации. Понятие энтропии. Условная энтропия сложного события. Вид вероятностей, используемых при исчислении энтропии.

Синтактическая мера информации - мера Шеннона-Винера. Эта теория создавалась для решения передачи задач по какому – то сообщению связи. Любой подход к измерению информации сообщений связан с мерой неопределенности события, кот происходит или будет происходить, поэтому изучение св-в неопределенности и прохождения ее хар-к явл исходным этапом теории и информации. Под неопределенностью принимают отсутствие знаний объекта у получателя сообщений.

Теория Шеннона-Винера исследуемая неопределенность связана с неполнотой сведений поддающихся описанию вероятностными законами. Рассмотрим две системы с разным числом возможных состояний, причем в каждом из состояний сист могут оказаться случайным образом неопределенность той сист больше у кот возможных состояний. У сист имеющей только одно возможное сост неопределенности отсутствует, кроме того число состояний не может полностью хар-ть степень неопределенности сист, где степень неопределенности зависит от числа возможных сост, но и вероятности числа их наступлений. Неопределенность сист сост из двух подсист, равна сумме неопределенности этих подсистем, взятых в отдельности. Неопределенность сложных событий равна сумме неопределенности сост его событий. В общем случае неопределенность каждого исхода будет определяться алгоритмом его вероятности. Чем больше вероятность исхода до осуществления события, тем меньше кол-во информации о его осуществлении.

Энтропия – мера средней неопределенности событий.

H(A)={сумма от n до i1}P(ai)LogP(ai)

Величина Н(А) называется энтропией события А и является мерой его средней неопределенности. Она достигает максимума при равновероятности всех исходов и делает тем меньше, чем больше различия и вероятностях отдельных исходов.

Энтропия сложного события (АВ) равна сумме энтропий составляющих его простых событий, но лишь при условии, что последние независимы.

H(AB) = H(A) +H(B)

Если же А и В взаимозависимы, то очевидно, что

H(AB) (меньше) H(A) +H(В)

В случае, когда исход события В полностью определяется исходом события А, то есть если А и В связаны функциональной зависимостью

H(AB) = H(A)

Если же зависимость, связывающая события А и В вероянтостная, то

H(AB) = H(A) +H(B/А),

где, Н(В/А) – условная энтропия события в при условии, что событие А наступило.

47. Современная классификация функций. Общие и специальные функции управления.

Основная современная классификация ф-ций управления изложена в книге “Основы менеджмента” американских авторов М.Х. Мескона, М. Альберта и Ф. Хедоури. Согласно ей процесс управления состоит из 4 взаимосвязанных ф-ций: планирования, организации, мотивации и контроля.

Планирование заключается в выяснении какова ситуация в настоящее время, прогнозе будущего, определении целей организации, определении путей достижения намеченных целей.

Планирование в организации – не одноразовое событие, а регулярно повторяющийся процесс.

Мотивация – это создание таких условий, в которых работники организации будут успешно выполнять работу в соответствии со своими обязанностями и имеющимся планом.

Общие ф-ции управления – такие как планирование (включая прогнозирование), организация (упорядочение, согласование всех элементов управляемой подсистемы) и координирование (согласование работы элементов и подразделений в процессе их функционирования).

Конкретные ф-ции – определяемые по принадлежности задач управления.

Специальные – подфункции конкретной ф-ции, представляющие собой комплекс задач, направленных на достижение одной или нескольких целей предприятия (например, “Планирование повышения качества продукции”, являющееся подфункцией ф-ции “Перспективное и текущее планирование”).