Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Соколова 1т-11.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
361.47 Кб
Скачать

3.4. Установление причинно-следственных связей

3.4.1. Методика исследования

Для управления технологическими процессами, строением и свойствами выпускаемых тканей необходимо определить наиболее значимые факторы, влияющие на выходные параметры. Существующие методы (планирование эксперимента, корреляционный анализ) не всегда дают хорошие результаты, так как в конечном итоге присутствуют так называемые "эффекты сопутствия" влияния различных входных параметров. Кроме того, необходимо при проведении экспериментальных исследованиях факторы варьировать в строго определенных пределах, что сложно в производстве.

В ряде работ в области технологии ткачества (С.Д.Николаев, Ж.В.Мельяченко, М..В.Назарова) используется бинарная причинно-следственная теория информации, основанная на предпосылках Шеннона.

Задачи исследования обусловлены использованием метода, который бы позволял: идентифицировать исследуемые факторы; устранять эффекты сопутствия; автоматизировать трудоемкий метод расчета, определить причинно-следственные связи.

В причинном анализе следует выделить 2 основные фундаментальные проблемы: проблему идентификации причин и следствий в исследуемом процессе; проблему количественной оценки интенсивности прямых и косвенных причинных влияний в процессе. В простейшей постановке проблема идентификации может быть сформулирована следующим образом: рассматриваются две переменные y и х, между которыми существует причинная связь и имеется статистика значений рассматриваемых переменных Хi, Yi, i=1,2,...,N. Требуется, не привлекая никаких дополнительно данных и гипотез, на основании анализа статистики определить направление причинной связи и ее количественную оценку. На первый взгляд, задачу можно решить методами корреляционного анализа, но величина корреляции может включать в себя связи сопутствия или координационный эффект.

Предлагается использовать следующее соотношение: I12:H1 > I21:H2, то 21,где J, H - соответственно информация и энтропия распределения вероятностей случайных величин. Поскольку I12=I21, то если H1<H2, то 21.

Энтропия - теоретико-информационная мера степени неопределенности случайной величины. При ее расчете логарифм берется обычно по основанию два. Энтропия - количественная мера неопределенности (по Шеннону), связанная со случайными явлениями. Причинная связь - это информационный канал между фактором-причиной и фактором-следствием. Следовательно, при одной и той же статистической неопределенности следствия, информация, поступающая от причины, должна быть тем больше, чем больше собственная статистическая неопределенность причины.

Величину энтропии распределения вероятностей для случайной одномерной величины можно определить по формуле:

к

Нi = Р (Хki) log2 P(Xкi) , (3.26)

1

где Р(Хкi) - вероятность состояний случайной величины Хкi.

Величина информации между i-ым и j-ым факторами определится по формуле

к,r P(Xкi,Xrj)

Iij =  P (Xкirj) log2 -------------------- (3.27)

1 P(Xкi) P(Xrj)

где Р(Хrj) - вероятность состояний случайной величины Xrj;

P(Хкi, Хrj) - вероятность состояний случайных величин Хкi и Хrj.

Для функционалов энтропии и информации справедливо следующее равенство:

Гij = Iij : Hi (3.28)

где Гij - коэффициент причинного влияния j-ого фактора на i-ый.

При расчете коэффициентов Гij целесообразно для удобства при определении информации и энтропии использовать десятичные или натуральные логарифмы вместо логарифмов с основанием 2. Причинную связь между факторами мы будем понимать как информационный канал между фактором - причиной и фактором - следствием. При одной и той же статистической неопределенности следствия информация, поступающая от причины, должна быть тем больше, чем больше собственная статистическая неопределенность причины. При статистической независимости переменных Хi, Хj парный коэффициент причинного влияния Гij равен 0, при Гji=1 существует наличие строгой детерминированности следствия причиной.

Однако парные коэффициенты Гij не могут служить мерой истинной тесноты связи между факторами. Такой мерой могут служить частные коэффициенты причинного влияния gij, причем Гij > gij . Разность Гij-gij может служить оценкой косвенного причинного влияния Xj на Xi.

Частные коэффициенты причинного влияния не равны парным. Любой выбор одного элемента из множества есть устранение неопределенности, превращение возможности в действительность. Установление причинной связи, рассматриваемое как установление определенного соответствия множеств, можно охарактеризовать как снятие неопределенности.

Несмотря на нелинейность, система уравнений вида может быть решена последовательными подстановками, так как левые части системы представлены треугольной матрицей.

Ниже приведено решение ряда конкретных задач, возникших при исследовании технологического процесса ткачества. Расчет энтропии, информации и парных коэффициентов причинного влияния проведен по программе, составленной на кафедре ткачества МГТУ имени А.Н.Косыгина на ЭВМ. Расчет частных коэффициентов причинного влияния проведен при использовании стандартной программы "Эврика".