Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ekzamen_6_semestr.doc
Скачиваний:
9
Добавлен:
02.05.2015
Размер:
196.61 Кб
Скачать

3.Три концепции вероятности, их взаимосвязь и соответствие аксиоматической теории исчисления вероятностей.

Естественнонаучная концепция вероятности обобщает определенные области реального мира для которых выполняются аксиомы, лежащие в основе математической теории исчисления вероятности, при этом выполнимость данных аксиом доказывается методом, свойственном в данной области, естественнонаучными знаниями, при этом вероятность рассматривается как объективная нормированная мера. Практическое значение имеют три научноестественные концепции вероятности: объективная(чистый подход), логическая, субъективная.

Концепция объективной вероятности основывается на предпосылки существования объективной хар-ки массового явления приближенного измеряемой его чистотой. В управлении производством и в любой области деятельности приходится знать отдельные факты принимать общие решения, достоверность которых нельзя точно установить на основании сведений, такой способ называется индукцией, кот изучается индуктивной логикой вероятности, кот представляет высказывание истинности или лжи, но и промежуточное значение, кот она наз. вероятностными высказываниями. Между высказываниями и гипотезами существуют определенное логическое отношение. Высказывание в той или иной степени подтверждается или делает вероятную гипотезу. Меры связи суждения и достоверные знания, обусловлено первого вторым наз. логической вероятностью.

Концепция субъективной вероятности - вероятность означает степень уверенности индивидуума в исходе данного события. Измерение степени уверенности индивидуума с помощью ставок при заключении пари.

Субъективная вероятность не отображает и не может отображать с необходимой адекватностью какие-либо экономически значимые реальности, поскольку "степень личной уверенности" отражает, прежде всего, и в ос­новном особенности личности индивидуума, производящего оценку: склон­ность к оптимизму или пессимизму, личные интересы и потребности, уро­вень и профиль образования и т.п.

Рассмотренные концепции по своей сути являются естественнонаучными. Они объясняют природу, происхождение, физический смысл вероят­ности. Наряду с ним существует и математическая теория исчисления веро­ятностей, построенная на базе определенных аксиом и не нуждающаяся в принципе, ни в каком естественно научном объяснении. Указанная теория является общеприменимым математическим аппаратом для всех трех концеп­ций вероятностей

4.Синтактическая мера информации. Понятие энтропии. Условная энтропия сложного события. Вид вероятностей, используемых при исчислении энтропии.

Синтактическая мера информации - мера Шеннона-Винера. Эта теория создавалась для решения передачи задач по какому – то сообщению связи. Любой подход к измерению информации сообщений связан с мерой неопределенности события, кот происходит или будет происходить, поэтому изучение св-в неопределенности и прохождения ее хар-к явл исходным этапом теории и информации. Под неопределенностью принимают отсутствие знаний объекта у получателя сообщений.

Теория Шеннона-Винера исследуемая неопределенность связана с неполнотой сведений поддающихся описанию вероятностными законами. Рассмотрим две системы с разным числом возможных состояний, причем в каждом из состояний сист могут оказаться случайным образом неопределенность той сист больше у кот возможных состояний. У сист имеющей только одно возможное сост неопределенности отсутствует, кроме того число состояний не может полностью хар-ть степень неопределенности сист, где степень неопределенности зависит от числа возможных сост, но и вероятности числа их наступлений. Неопределенность сист сост из двух подсист, равна сумме неопределенности этих подсистем, взятых в отдельности. Неопределенность сложных событий равна сумме неопределенности сост его событий. В общем случае неопределенность каждого исхода будет определяться алгоритмом его вероятности. Чем больше вероятность исхода до осуществления события, тем меньше кол-во информации о его осуществлении.

Энтропия – мера средней неопределенности событий.

Величина Н(А) называется энтропией события А и является мерой его средней неопределенности. Она достигает максимума при равновероятности всех исходов и делает тем меньше, чем больше различия и вероятностях отдельных исходов.

Энтропия сложного события (АВ) равна сумме энтропий составляющих его простых событий, но лишь при условии, что последние независимы.

H(AB) = H(A) +H(B)

Если же А и В взаимозависимы, то очевидно, что

H(AB) H(A) +H(В)

В случае, когда исход события В полностью определяется исходом события А, то есть если А и В связаны функциональной зависимостью

H(AB) = H(A)

Если же зависимость, связывающая события А и В вероянтостная, то

H(AB) = H(A) +H(B/А),

где, Н(В/А) – условная энтропия события в при условии, что событие А наступило.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]