
- •4 Алгоритм и его свойства.
- •6. Алгоритмизация решения задач и ее результат. Основные блоки визуальных алгоритмов. Пример.
- •10 Линейные и циклические алгоритмы.
- •14 Существуют прямые и итерационные методы решения нелинейных уравнений.
- •17 Одношаговые методы решения оду.
- •18 Одношаговые методы решения оду.
- •19 Одношаговые методы решения оду.
- •21 Методы прогноза и коррекции.
- •22 Методы прогноза и коррекции.
- •23 Методы прогноза и коррекции.
- •24 Методы прогноза и коррекции.
- •35. Методы одномерного поиска. Метод деления интервала пополам.
- •36. Методы одномерного поиска. Метод дихотомии.
- •37. Методы одномерного поиска. Метод золотого сечения.
- •39. Жизненный цикл программного продукта.
- •40. Основные принципа структурного программирования
- •41. Основные компоненты и понятия алгоритмических языков.
- •Условный оператор
- •Безусловные операторы
- •46. Операторы gets, putchar, getchar
- •49. While
- •51. Do while
- •52. Break и continue
- •Операторы break и continue
24 Методы прогноза и коррекции.
Отличие данных методов от одношаговых заключается в том, что для выч-я знач. координат след. точки нужна инф-ция о нескольких предыдущих точках, т.е. данный метод не имеет св-ва самостартования. Исх. данные при этом получают с помощью какого-либо одношагового метода. Для получения инф-ции о положении новой точки данные методы используют 2 ф-лы, которые наз. ф-ла прогноза(ф П) и ф-ла коррекции(ф К). Блок схемы методов П и К одинаковы и различаются лишь итерационными ф-ми.
y(0)- нулевая точность; y(1)- первая точность, более точная.
yn+1(0) – индекс (0) означает, что данное прогнозируемое знач. явл. одним из последовательности знач. yn+1, располагавшихся в порядке возрастания точности, т.е. yn+1(i+1) точнее, чем yn+1(i).
Общая хар-ка метода П и К:
1)Для реализации методов необходима инф-ция о нескольких точках (отсутствует св-во самостартования). Исх. данные получают с помощью одношаговых методов.
2)Одношаговые методы и методы П и К имеют сопоставимую точность. Однако методы П и К позволяют учитывать погрешность на каждом шаге. Из-за того, что в одношаговых методах величина шага h выбирается меньше, чем требуется, методы П и К оказываются более эффективными.
3)В методе Рунге-Кутта 4ого порядка нужно вычислять 4 знач. ф-ии на каждом шаге. В методах П и К для обеспечения сходимости достаточно только 2 знач.
Вывод:
Достоинство одношаговых методов – простота начала счёта и возможность изменения величины шага в процессе вычисления.
Основные достоинства методов П и К простота оценки ошибки на шаге. Т.е. при выборе алгоритма необходимо находить компромисс между точностью счёта и быстродействием.
25. Выбор шага при решении ОДУ. Главные достоинства методов Рунге-Кутта и методов прогноза и коррекции.
Дано дифф. уравнение dy/dx=f(x,y) b начальное условие y(x0)=y0. Требуется найти функцию y(x), удовлетворяющую как указанному уравнению, так и начальному условию. Обычно численное решение получают, сначала вычисляя значение производной, а затем задавая малое приращение и переходя к новой точке x1=x0+h. Величину шага h следует выбирать из соображений максимальной допустимой ошибки на шаге. Такой выбор целесообразно осуществлять автоматически и включать как составную часть алгоритма или программы решения ДУ.
Всем одношаговым методам решения ОДУ присущи определенные общие черты:
Самостартование - для получения информации о новой точки надо иметь данные лишь об одной предыдущей точке. Благодаря ему можно легко менять величину шага h.
В основе всех одношаговых методов лежит разложение функции в ряд Тейлора, в котором сохраняются члены, содержащие h в степени до k включительно, k – порядок метода, при этом погрешность при шаге имеет порядок k+1.
Все одношаговые методы не требуют действительного вычисления производной. Вычисляется только сама функция, однако могут потребоваться ее значения в нескольких промежуточных точках.
26. Методы решения краевых задач. Конечно–разностные методы. Пример расчета.
Краевые – в отличие от задачи Коши, задачи с несколькими значениями независимой переменной (начальными условиями).
Методы, основанные на замене краевой задачи Коши (метод «стрельбы»).
Конечно-разностный метод (заключается в сведении краевой задачи к решению системы алгебраических уравнений).
Заданный интервал [a,b] делится на n равных частей, каждая x1=x0+i*h, где i=1,2,3…..n.
x0=a h=(b-a)/n
xn=b
после этого пользуются формулами представления для производных
y`=1/(2*h)*(yi+1-yi-1)
y``=1/(h^2)*(yi+1-2*yi+yi-1)
Если рассмотреть эти выражения для всех точек интервала, то получим систему n-1 уравнений с n-1 неизвестными.
Пример:
y``=2*x+3*y
y(0)=0 y(1)=1
a A b B
h=0,2
1/0,04*(yi+1-2*yi+yi-1)=2*xi+3*yi
i0=0 x0=0 y0=1
i1=1 x1=0,2 y2-2*y1+0=(2*0,2+3*y1)/25
y2-2,1*y1=0,016
i=2 x2=0,4
y3-2*y2+y1=(2*0,4+3*y2)/25
y3-2,12*y2
y2+y1=0,032
27. выбор алгоритма решения ОДУ.
ОДУ-ДУ, содержащие одну независимую переменную и производные по ней. Для их решение необходимо знать значение независимой переменной и (или) ее производных при некоторых значений независимой переменной. Если эти доп. условия задаются при одном значении нез. переменной, то эта задача наз. Задача Коши. Если условия задаются при двух или более значениях нез. переменной, то задача назыв. краевой. Методы численного решения з. Коши: 1) одношаговые (для нахождения след. точки требуется информация лишь об одном пред. шаге.) Эйлеоа, Р-К. 2) ПиК (треб. О нескольких точках) Милана, Адамса-Башфорта, Хемминга. Появляются погрешности: округления, усечения, распространения. Эти погрешности приводят к глобальным и локальным ошибкам.
29. Метод пузырька
П
оследовательное
сравнение значений двух элементов
массива, начиная с последнего. В результате
сравнения меньший элемент (по возр.)
перемещается на место соседнего, достигая
через несколько шагов места первого
элемента.
2 5 10 1; 2 5 1 10; 2 1 5 10; 1 2 5 10 массив отсортирован, дальнейшие проходы только проверяют правильность сортировки. В этих лишних итерациях заключается недостаток массива, чтобы устранить его нужно использовать счетчик, который после перестановки станет равным 1, в противном случае 0. Если после одного прохода, счетчик остался =0, то массив отсортирован и нет необходимости продолжать процесс.
Что бы отсортировать массив по убыв. Нужно переставить знак в 4 блоке.
28. Метод простого перебора.
Последовательное сравнение значения каждого элемента, начиная с первого с соседними и их взаимной перестановки.
Б
лок-схема
(по убыв.) Нам необходимо несколько раз
выполнить операцию сравнения значений
двух элементов
R[i] и r[j] и менять их местами в том случае r[i]<r[j], из сравниваемых элементов первым окажется тот, чье значение больше.
2 5 10 1; 5 2 10 1; 10 2 5 1; 10 5 2 1. Массив отсортирован, дальнейшие проходы только проверяют правильность сортировки. В этих лишних итерациях заключается недостаток массива, чтобы устранить его нужно использовать счетчик, который после перестановки станет равным 1, в противном случае 0. Если после одного прохода, счетчик остался =0, то массив отсортирован и нет необходимости продолжать процесс. Чтобы отсортировать массив по убыв. Нужно переставить знак в 5 блоке.
30. Оптимизация.Основы теории. Проектные параметры. Целевая функция.
Оптимизация- это процесс(последовательность операций), позволяющий получить оптимальное(наилучшее по какому-либо критерию) решение.
M-уравнений, n-неизвестных
1) M=n (имеет 1 решение)
2) M>n (переопределенная задача, не имеет решения)
3) M<n (недоопределенная задача, имеет бесконечное множество решений)
Основные показатели (термины) теории оптимизации:
Проектные параметры-независимые переменные параметры, величина которых вычисляется в процессе оптимизации. В качестве ПП могут выступать любые основные или производные величины, позволяющие количественно описать решаемую задачу. Количество ПП показывает степень сложности задачи.
Целевая функция(критерии качества) – выражения, значения которого позволяют количественно сравнить два и более альтернативных варианта решения. Значение целевой функции всегда стараются сделать или минимальным, или максимальным.
M(ц.ф.)=(n+1)- мерная, n-количество проектных параметров.
Целевая функция может быть задана:
1)В виде непрерывной или кусочной функции
2)В виде таблицы
3)В виде дискретной функции
4)В виде логической функции
5)В качественном виде
Целевая функция M(x1,x2,…xn)-обязательно функция проектных параметров.
Возможны случаи, когда нужно использовать несколько целевых функций.
При этом может понадобиться функция компромисса (позволяет сравнить две целевые функции).
31. Оптимизация. Поиск минимума и максимума. Пространство проектирования. Ограничения-равенства и ограничения неравенства. Локальный и глобальный оптимум.
Оптимизация- это процесс(последовательность операций), позволяющий получить оптимальное(наилучшее по какому-либо критерию) решение.
Если необходимо найти минимум функции, а в вашем распоряжении только методы нахождения максимума функции, можно использовать любые методы нахождения экстремума, поменяв знак целевой функции на противоположный.
Пространство проектирования – область, определяемая всеми проектными параметрами.
Достаточно часто пространство проектирования ограничено рядом условий:
ограничение равенства
ограничение неравенства
C1(x1,x2,…xn)=F1
C2(x1,x2,…xn)=F2
…
Cm(x1,x2,…xn)=Fm
Ограничение равенства- зависимость между ПП, которые должны учитываться при отыскании оптимизационного решения.( Смотри пример)
Ограничение, если какой-либо из проектных параметров можно выразить ограничением равенства через остальные ПП, то данный ПП из задачи поиска исключается, значит задача упрощается. Число ограничений равенств и ограничений неравенств может быть любым.
Ограничение неравенства-
Пример:
C1<=M(x1,x2…xn)<=D1
C2<=M(x1,x2…xn)<=D2
…
Cm<=M(x1,x2…xn)<=Dm
Достаточно часто в связи с ограничениями неравенства оптимальное значение ссответствует не точке экстремума, а одной из границ этих ограничений.
Локальный и глобальный оптимумы.
Локальный оптимум-точка пространства проектирования, в которой целевая функция имеет оптимальное значение по сравнению с ближайшей окрестностью, а глобальный оптимум- точка пространства проектирования, в которой целевая функция имеет оптимальное значение во всем диапазоне поиска.
32. Пример решения оптимизационной задачи проектирования.
33. Методы одномерного поиска. Начальный и суженный интервалы неопределенности.
При отыскании оптимального значения необходимо сделать как можно меньше лишних вычислений, при этом методы одномерного поиска предполагают, что рассматриваема функция унимодальна (в искомом диапазоне имеет один минимум или один максимум). Интервал, в котором находится оптимальное значение - интервал неопределенности. Вычислив значения функций в х1, х2 (М1, М2) начальный интервал сужается. Методы одномерного поиска как раз отличаются способами сужения интервала неопределенности. (рисунок).
34. Методы одномерного поиска. Общий поиск.
При отыскании оптимального значения необходимо сделать как можно меньше лишних вычислений, при этом методы одномерного поиска предполагают, что рассматриваемая функция унимодальна (в искомом диапазоне имеет один минимум или один максимум). Интервал, в котором заключено оптимальное значение называется интервалом неопределенности. Вычислив значения функций в х1, х2 (М1, М2), начальный интервал неопределенности сужается.
Метод общего поиска. Наиболее логично искать оптимальное значение, разделив НИН на несколько равных частей и вычислить значение функций в этих узлах. Интервал сужается до двух узлов сетки. ИН характеризуется с помощью коэф. дробления f. f=2/(N+1); f=0.01 N=199. F1=0.1N=19. F2-0.1=19. Сумма=38. (Рис.)