Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Фролова 1-10.doc
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
240.64 Кб
Скачать

4. Применение регрессионного анализа в ук.

В экономических исследованиях часто решают задачу выявления факторов, определяющих уровень и динамику экономического процесса. Такая задача чаще всего решается методами корреляционного и регрессионного анализа. Для достоверного отображения объективно существующих в экономике процессов необходимо выявить существенные взаимосвязи и не только выявить, но и дать им количественную оценку. Этот подход требует вскрытия причинных зависимостей. Под причинной зависимостью понимается такая связь между процессами, когда изменение одного из них является следствием изменения другого. Не все факторы, влияющие на экономические процессы, являются случайными величинами, поэтому при анализе экономических явлений обычно рассматриваются связи между случайными и неслучайными величинами. Такие связи называются регрессионными, а метод математической статистики, их изучающий, называется регрессионным анализом.

В зависимости от количества факторов, включенных в уравнение регрессии, принято различать простую (парную) и множественную регрессии.

Простая регрессия – регрессия между двумя переменными, где y-результативный признак, х- признак-фактор:

у = f(x)

Множественная регрессия – регрессия результативного признака с двумя и большим числом факторов: y = f (x1, x2,…, xn)

Вид простой регрессии лучше всего подходит для того, чтобы продемонстрировать основополагающие принципы регрессионного анализа.

Общее выражение линейной парной регрессии: у = b*х + а,

где b — регрессионные коэффициенты, a — смещение по оси ординат.

При проведении простой линейной регрессии основной задачей является определение параметров b и а:

  1. Коэффициент парной линейной регрессии b имеет смысл показателя силы связи между вариацией факторного признака х и вариацией результативного признака у, т.е. коэффициент b указывает среднее изменение результата с изменением фактора на 1 единицу.

  2. Коэффициент а указывает:

если а>0, то относительное изменение результата происходит медленнее, чем изменение фактора;

если а <0, то относительное изменение результата происходит быстрее, чем изменение фактора.

Параметры уравнения а , b находят методом наименьших квадратов (метод решения систем уравнений, при котором в качестве решения принимается точка минимума суммы квадратов отклонений).

Для практического использования моделей регрессии большое значение имеет их адекватность, т.е. соответствие фактическим статистическим данным. Регрессионный анализ обычно проводится для ограниченной по объёму совокупности. Поэтому показатели регрессии– параметры уравнения регрессии могут быть искажены действием случайных факторов. Чтобы проверить, насколько эти показатели характерны для всей генеральной совокупности, не являются ли они результатом стечения случайных обстоятельств, необходимо провести верификацию статистических моделей:

1. найти коэффициент корреляции:

rxy= b* σx\ σy

2. найти коэффициент детерминации:

R2=1- rxy2

если R2 близок к 1, то модель достоверна и наоборот;

3. найти среднюю ошибку аппроксимации:

А=1\n∑(yi-yi)\y*100%

если А < 8-10, то построенная модель описывает реальное положение с высокой точностью.

4.найти эластичность:

Э= f(x)’*(xср\yср)

оценить надежность.

5. Применение корреляционного анализа в УК.

Корреляционный анализ является одним из методов статистического

анализа взаимосвязи нескольких признаков.

Он определяется как метод, применяемый тогда, когда данные наблюдения

можно считать случайными и выбранными из генеральной совокупности,

распределенной по многомерному нормальному закону. Основная задача

корреляционного анализа (являющаяся основной и в регрессионном анализе)

состоит в оценке уравнения регрессии (простое уравнение):

y = a + bx,

где b- коэффициент регрессии.

Корреляционный анализ заключается в определении r xy – коэффициента корреляции. Зная значение r xy, оцениваем уравнение регрессии:

если 0≤ rxy ≤ 1,то b>0- прямая зависимость между фактором и результатом,

если -1≤ rxy ≤ 0, то b<0- обратная зависимость, т.е.

коэффициент регрессии b указывает:

среднее изменение результата с изменением фактора на 1 единицу.

Корреляция – это статистическая зависимость между случайными

величинами, не имеющими строго функционального характера, при которой

изменение одной из случайных величин приводит к изменению математического

ожидания другой.

1. Парная корреляция – связь между двумя признаками (результативным и

факторным или двумя факторными).

2. Частная корреляция – зависимость между результативным и одним факторным

признаками при фиксированном значении других факторных признаков.

3. Множественная корреляция – зависимость результативного и двух или более

факторных признаков, включенных в исследование.

Корреляционный анализ имеет своей задачей количественное определение

тесноты связи между двумя признаками (при парной связи) и между

результативным признаком и множеством факторных признаков (при

многофакторной связи).

Теснота связи количественно выражается величиной коэффициента

корреляции:

r xy = b *(σx/σy) ,

где σx, σy- средние квадратичные отклонения параметров,

-1 ≤ rxy ≤ 1- границы.

Коэффициенты корреляции представляет количественную

характеристику тесноты связи между признаками:

если 0 ≤ rxy ≤ 1, то зависимость между признаками прямая,

если -1 ≤ rxy ≤ 0, то зависимость между признаками обратная,

если rxy = 1, то зависимость линейная;

также они дают возможность определить «полезность» факторных признаков при построении уравнений множественной регрессии.

Величина коэффициентов корреляции служит также оценкой

соответствия уравнению регрессии выявленным причинно-следственным связям.

Корреляционный анализ обычно (особенно в условиях так называемого малого и среднего бизнеса) проводится для ограниченной по объёму совокупности. Поэтому показатели регрессии и корреляции – параметры уравнения регрессии, коэффициенты корреляции и детерминации могут быть искажены действием случайных факторов. Чтобы проверить, насколько эти показатели характерны для всей генеральной совокупности, не являются ли они результатом стечения случайных обстоятельств, необходимо провести верификацию модели:

1. найти коэффициент корреляции:

rxy= b* σx\ σy

2. найти коэффициент детерминации:

R2=1- rxy2

если R2 близок к 1, то модель достоверна и наоборот;

3. найти среднюю ошибку аппроксимации:

А=1\n∑(yi-yi)\y*100%

если А < 8-10, то построенная модель описывает реальное положение с высокой точностью.

4.найти эластичность:

Э= f(x)’*(xср\yср) оценить надежность.

6. Проверка статистических гипотез в УК

Статистическая проверка гипотез, система приёмов в математической статистике, предназначенных для проверки соответствия опытных данных некоторой статистической гипотезе. Проверка статистических гипотез используется чаще всего для определения принадлежности двух имеющихся выборок к одной и той же генеральной совокупности. Процедуры С. п. г. позволяют принимать или отвергать статистические гипотезы, возникающие при обработке или интерпретации результатов измерений во многих практически важных разделах науки и производства, связанных с экспериментом. Правило, по которому принимается или отклоняется данная гипотеза, называется статистическим критерием. Построение критерия определяется выбором подходящей функции Т от результатов наблюдений, которая служит мерой расхождения между опытными и гипотетическими значениями. Эта функция, являющаяся случайной величиной, называется статистикой критерия, при этом предполагается, что распределение вероятностей Т может быть вычислено при допущении, что проверяемая гипотеза верна. По распределению статистики Т находится значение Т0, такое, что если гипотеза верна, то вероятность неравенства T >T0 равна , где  — заранее заданный значимости уровень. Если в конкретном случае обнаружится, что Т > T0, то гипотеза отвергается, тогда как появление значения ТT0 не противоречит гипотезе. Пусть, например, требуется проверить гипотезу о том, что независимые результаты наблюдений x1,..., xn подчиняются нормальному распределению со средним значением а = a0 и известной дисперсией 2. При этом предположении среднее арифметическое  результатов наблюдений распределено нормально со средним а = a0 и дисперсией 2/n, а величина  распределена нормально с параметрами (0, 1). Полагая   можно найти связь между T0 и  по таблицам нормального распределения. Например, при гипотезе а = a0 событие Т > 1, 96 имеет вероятность а = 0,05. Правило, рекомендующее считать, что гипотеза а = a0 неверна, если Т > 1,96, будет приводить к ложному отбрасыванию этой гипотезы в среднем в 5 случаях из 100, в которых она верна. Если же Т 1,96, то это ещё не означает, что гипотеза подтверждается, т.к. указанное неравенство с большой вероятностью может выполняться при а, близких к a0. Следовательно, при использовании предложенного критерия можно лишь утверждать, что результаты наблюдений не противоречат гипотезе а = a0. При выборе статистики Т всегда явно или неявно учитывают гипотезы, конкурирующие с гипотезой а = a0. Например, если заранее известно, что а  a0, т. е. отклонение гипотезы а = a0 влечёт принятие гипотезы а > a0, то вместо Т следует взять . Если дисперсия 2 неизвестна, то вместо данного критерия для проверки гипотезы а = a0 можно воспользоваться т. н. критерием Стьюдента, основанным на статистике  которая включает несмещенную оценку дисперсии

 

  и подчинена Стьюдента распределению с n — 1 степенями свободы. Такого рода критерии называются критериями согласия и используются как для проверки гипотез о параметрах распределения, так и гипотез о самих распределениях. При решении вопроса о принятии или отклонении какой-либо гипотезы H0 с помощью любого критерия, основанного на результатах наблюдения, могут быть допущены ошибки двух типов. Ошибка «первого рода» совершается тогда, когда отвергается верная гипотеза H0. Ошибка «второго рода» совершается в том случае, когда гипотеза H0 принимается, а на самом деле верна не она, а какая-либо альтернативная гипотеза Н. Естественно требовать, чтобы критерий для проверки данной гипотезы приводил возможно реже к ошибочным решениям. Обычная процедура построения наилучшего критерия для простой гипотезы заключается в выборе среди всех критериев с заданным уровнем значимости и (вероятность ошибки первого рода) такого, который приводил бы к наименьшей вероятности ошибки второго рода (или, что то же самое, к наибольшей вероятности отклонения гипотезы, когда она неверна). Последняя вероятность (дополняющая до единицы вероятность ошибки второго рода) называется мощностью критерия. В случае, когда альтернативная гипотеза Н простая, наилучшим будет критерий, который имеет наибольшую мощность среди всех других критериев с заданным уровнем значимости а (наиболее мощный критерий). Если альтернативная гипотеза Н сложная, например зависит от параметра, то мощность критерия будет функцией, определенной на классе простых альтернатив, составляющих Н, т. е. будет функцией параметра. Критерий, имеющий наибольшую мощность при каждой альтернативной гипотезе из класса Н, называется равномерно наиболее мощным, однако следует отметить, что такой критерий существует лишь в немногих специальных ситуациях. В задаче проверки гипотезы о среднем значении нормальной совокупности а = а0 против альтернативной гипотезы а > a0равномерно наиболее мощный критерий существует, тогда как при проверке той же гипотезы против альтернативы аa0 его нет. Поэтому часто ограничиваются поиском равномерно наиболее мощных критериев в тех или иных специальных классах (Инвариантных, несмещенных критериев и т.п.).

  Теория С. п. г. позволяет с единой точки зрения трактовать выдвигаемые практикой различные задачи математической статистики (оценка различия между средними значениями, проверка гипотезы постоянства дисперсии, проверка гипотезы независимости, проверка гипотез о распределениях и т.п. Идеи последовательного анализа, примененные к С. п. г., указывают на возможность связать решение о принятии или отклонении гипотезы с результатами последовательно проводимых наблюдений (в этом случае число наблюдений, на основе которых по определённому правилу принимается решение, не фиксируется заранее, а определяется в ходе эксперимента).

7. Приемочный контроль. Виды планов статистического анализа.

Приемочный контроль

1)контроль готовой продукции, осуществляемый органами приемки.

2) совокупность статистических методов контроля массовой продукции с целью выявления её соответствия заданным требованиям.

Под планом статистического контроля понимают систему правил, указывающих методы отбора изделий для проверки, и условия, при которых партию следует примять, забраковать или продолжить контроль.

Различают следующие виды планов статистического контроля партии продукции по альтернативному признаку:

  • Одноступенчатые планы, согласно которым если среди случайно отобранных изделий число дефектных окажется не больше приемочного числа ( ), то партия принимается; в противном случае партия бракуется.

  • Двухступенчатые планы, согласно которым, если среди случайно отобранных изделий число дефектных окажется не больше приемочного числа ( ), то партия принимается, если , где - браковочное число, то партия бракуется. Если же , то принимается решение о взятии второй выборки объемом . Тогда если суммарное число дефектных изделий в двух выборках , то партия принимается, в противном случае партия бракуется по двум выборкам.

  • Многоступенчатые планы являются логическим продолжением двухступенчатых. Первоначально берется выборка объемом и определяется число дефектных изделий . Если , то партия принимается. Если , ( ), то партия бракуется. Если , то принимается решение о взятии второй выборки объемом . Пусть среди изделий имеется дефективных. Тогда если - второе приемочное число, то партия принимается; если ( ), то партия бракуется. При принимается решение о взятии третьей выборки. В дальнейшем контроль производиться по аналогичной схеме, за исключением -го последнего шага. Если на -м шаге среди проконтролированных изделий выборки оказалось дефективных и , то партия принимается; если же , то партия бракуется. В многоступенчатых планах число шагов заранее задается. Обычно принимается, что .

  • Последовательный контроль, при котором решение о контролируемой партии принимается после оценки качества ряда выборок, общее число которых заранее не установлено и определяется в процессе контроля по результатам предыдущих выборок.

Одноступенчатые планы проще в смысле организации контроля на производстве. Двухступенчатые, многоступенчатые и последовательные планы контроля обеспечивают при том же объеме выборки большую точность принимаемых решений, но они более сложны в организационном плане.

Задача выборочного приемочного контроля фактически сводится к статистической проверке гипотезы о том, что доля дефектных изделий q в партии равна допустимой величине qo, т. е. H0::q = q0. Задача правильного выбора плана статистического контроля состоит в том, чтобы сделать ошибки первого и второго рода маловероятными: ошибки первого рода связаны с возможностью ошибочно забраковать партию изделий; ошибки второго рода связаны с возможностью ошибочно пропустить бракованную партию.