
- •1. Понятие информации
- •2. Классификация и виды информационных технологий
- •3. История, состояние и перспективы развития вычислительной техники
- •4. Элементная база, архитектура компьютера
- •5. Состав и назначение пк. Виды компьютеров
- •6. Операционные системы
- •7. Языки и технологии программирования.
- •8.Процедурное, функциональное, объективно-ориентированное и логическое програмирование
- •9. Интегрированные пакеты
- •9. Пакет msOffice. Состав и назначение основных компонентов
- •10. Текстовый процессор ms Word. Набор и редактирование текста
- •10. Графический редактор ms Visio. Графические шаблоны
- •11. Табличный процессор ms Excel. Состав и структура документа
- •11. Табличный процессор ms Excel. Вычислительные возможности
- •12. Система подготовки презентации ms PowerPoint
- •13.Семиуровневая модель структуры протоколов связи
- •14. Компьютерные сети
- •15.Организационная структура Internet
- •16. Протоколы Internet (tcp и udp)
- •17. Основные сервисы Internet (dns, ftp, http, snmp, pop3, sntp)
- •18. Структура данных, модели данных, создание базы данных и таблиц
- •19. Системы управления базами данных
- •20. Базы данных Access, Oracle, MySql
- •21. Основы языка sql
- •22. Организационно-технические, правовые, криптографические и стеганографические методы защиты информации в компьютерных системах
- •23. Простейшие алгоритмы шифрования
- •24. Арифметика целых чисел и полей Галуа
- •25. Стандарт шифрования данных des
- •26. Электронная подпись
- •27. Математические модели
- •28. Системы математических вычислений. MathCad, MatLab
- •29. Численное Интегрирование и дифференцирование
- •30. Метод Рунге–Кутта
- •31. Методы теории вероятностей и математической статистики
- •32. Метод Монте-Карло
- •33. Методы минимизации функций одной переменных
- •34. Методы минимизации функций нескольких переменных
- •35. Задача линейного программирования
- •36. Поиск кратчайших путей
- •37. Принятие решений при многих критериях
- •1 Выбор Парето-оптимальных решений
- •2 Методы на основе компенсации критериев
- •3 Методика экспресс-анализа альтернатив
- •4 Методика скаляризации векторных оценок
- •38. Метод анализа иерархий
- •39. Методы поддержки принятия решений
- •1 Методика сравнительной оценки двух альтернатив по степени доминирования
- •2 Модифицированный алгоритм Кемени-Снелла
- •3 Алгоритм Саати
- •4 Метод электра
- •40. Экспертные системы
30. Метод Рунге–Кутта
Применяется для решения ДУ из-за высокой точности.
Отличительная особенность – уточнение наклона интегральной кривой за счет вычисления производной не только в начале текущего отрезка интегрирования, но и, например, в середине отрезка (для двучленных схем Р–К) или 4хкратное вычисление производных в методе 4-ого порядка. При одном уравнения двучленная итерационная формула:
yn+1=yn+hf(xn+0,5h,yn+0,5hfn)
Последовательность вычислений: сначала делают половинный шаг по схеме ломаных (по формуле Эйлера), находя yn+0,5=yn+hy’n+0,5, затем в найденной точке определяют наклон кривой y’n+0,5=f(xn+0,5, yn+0,5) и по этому наклону определяют приращение на целом шаге yn+1=yn+ hy’n+0,5.
Четырехчленная схема Рунге–Кутта наиболее часто употребляется в машинных расчетах и имеет четвертый порядок точности:
yn+1=yn+(h/6)*(k1+2k2+2k3+k4)
k1=f(xn,yn); k2=f(xn+h/2,yn+hk1/2),
k3=f(xn+h/2,yn+hk1/2), k4=f(xn+h,yn+hk3),
Метод Рунге–Кутта легко переносится и на случай системы ДУ.
31. Методы теории вероятностей и математической статистики
Теория вероятностей – математическая наука, изучающая закономерности случайных явлений. Знание закономерностей, которым подчиняются массовые случайные события, позволяют предвидеть, как эти события будут протекать.
Методы теории вероятностей широко применяются в различных отраслях науки и техники: в теории надежности, в теории массового обслуживания, теоретической физике, астрономии, теории ошибок, теории управления, теории связи и во многих других теоретических и прикладных науках. Теория вероятности служит для обоснования математической статистики.
Математическая статистка – раздел математики, изучающий методы сбора, систематизации и обработки результатов наблюдений с целью выявления статистических закономерностей. Методы математической статистики применяются при планировании организации производства, анализе технологических процессов, для контроля качества продукции и многих других целей.
Статистические программные пакеты сделали методы теории вероятностей и математической статистики более доступными и наглядными, так как трудоемкую работу по расчету статистик, параметров, характеристик, построение таблиц и графиков в основном стал выполнять компьютер, а исследователю осталось выполнить постановку задачи, выбор метода решения и интерпретацию результатов.
Основными методами, используемые в теории вероятностей, являются следующие:
1. классический метод: Вероятностью события А называют отношение числа благоприятствующих этому событию исходов к общему числу всех равновозможных несовместных элементарных исходов, образующих полную группу: P(A) = m/n, где m-число элементарных исходов, благоприятствующих А; n-число всех возможных элементарных исходов испытания.
2. геометрический метод: вероятность попадания точки в область(отрезок, часть плоскости и т.д.). Пусть отрезок l составляет часть отрезка L. На отрезок L на удачу поставлена точка. Это означает выполнение следующих предположений: поставленная точка может оказаться в любой точке отрезка L, вероятность попадания точки на отрезок l пропорциональна длине этого отрезка и не зависит от его расположения относительно отрезка L. В этих предположениях вероятность попадания точки на отрезок l определяется равенством. P= Длинаl/длинаL.
3. теорема сложения вероятностей: Вероятность суммы двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления: Р(А)+Р(В)=Р(А)+Р(В)-Р(А*В)
4. теорема произведения событий: Произведением двух событий А и В называют событие АВ, состоящее в совместном появлении (совмещении) этих событий другими словами логическое И. Вероятность появления двух зависимых событий равна произведению вероятностей одного из них на вероятность другого вычисленную при условии, что первое событие имело место: Р(А*В)=Р(А)*Р(В/А)=Р(В)*Р(В/А).
Вероятность произведения нескольких событий равна произведению вероятностей этих событий причем вероятность каждого следующего события вычисляется при условии, что все предыдущие имели место. Р(А1;А2…Аn)=Р(А1)*Р(А2/А1)*… *Р(Аn/А1,А2…Аn-1).
5.
формула полной вероятности: пусть
событие А может появиться вместе с одним
из образующих полную группу
попарнонесовместных событий Н1,Н2…Нn
называемых гипотезами, тогда вероятность
события А вычисляется как сумма
произведений вероятностей каждой
гипотезы на вероятность события А при
этой гипотезе
.
6.
формула Бернулли: испытания проводимые
по данной формуле должны быть независимы,
количество их должно быть известно
заранее и в результате должны произойти
два исхода: успех или неуспех. Вероятность
того, что в n испытаниях успех осуществится
ровно k раз следовательно, неуспех (n-k)
раз, вычисляется по следующей формуле:
,
где Сnk-число сочетаний из n-элементов
k, p - вероятность успеха, q - вероятность
неуспеха, где q = 1-р.
7.
формула Байеса: пусть имеется полная
группа попарнонесовместных гипотез
Н1,Н2…Нn с известными вероятностями
появления. В результате проведения
опыта появилось некоторое события А,
требуется переоценить вероятности
гипотез при условии, что событие А
произошло:
.
Основными методами математической статистики являются следующие:
1. однофакторный и многофакторный корреляционный анализ - применяется для установления факта зависимости или независимости исследуемой случайной величины от одного или нескольких факторов – рассчитываются коэффициенты коэффициента множественной корреляции R. Степень влияния значения конкретного фактора x на результативный показатель Y оценивается с помощью коэффициента парной корреляции rY,x ,
На основании полученных коэффициентов множественной корреляции строится матрица парных коэффициентов, после чего делается вывод о взаимосвязи факторов с результирующим показателем.
2. регресионный анализ – получение регрессионной модели, т.е. функциональной зависимости результативного показателя Y от значений выбранных факторов. Количественными характеристиками качественности выбранной модели на основании регрессионного анализа чаще всего используются коэффициент множественной корреляции R и коэффициент детерминации R2.
Коэффициент множественной корреляции (индекс корреляции) R считается универсальным, т.к. отражает тесноту связи и точность модели. Чем ближе значение коэффициента к 1, тем точнее построенная модель. Коэффициент детерминации R2 показывает долю вариации значений показателя Y под воздействием изучаемых факторов. То есть коэффициент позволяет количественно определить, какая доля изменений показателя Y учтена в модели и обусловлена влиянием на него факторов.
3. коэффииценный анализ оценка влияния отдельных факторов регрессионной модели на величину результативного показателя Y. Рассчитываются такие коэффициенты:
1.
Коэффициент эластичности показывает,
на сколько процентов изменится зависимая
величина показателя Y при изменении
фактора xj на 1%. Однако он не учитывает
степень колеблемости факторов.
2.
Бета-коэффициент позволяет определить,
на какую часть величины среднего
квадратического отклонения
изменится зависимая величина Y с
изменением соответствующей независимой
переменной xj на величину своего среднего
квадратического отклонения
при
фиксированном значении остальных
независимых переменных.
,
где
среднее квадратическое отклонение
зависимой величины Y,
среднее квадратическое отклонение
фактора xj:
дельта-коэффициент - позволяет оценить долю влияния каждого фактора xj в суммарном влиянии всех факторов:
, где ryj коэффициент парной корреляции между фактором xj (j=1,…,m) и зависимой величиной Y; R2 коэффициент детерминации.