Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Бичков - Основи сучасного програмування.doc
Скачиваний:
69
Добавлен:
07.03.2016
Размер:
2.67 Mб
Скачать

1.4. Складність задач

Поняття складності алгоритму пов'язане з поняттям складності задачі. Із теореми Блюма можна зробити висновок, що визначати склад­ність задачі через складність найкращого алгоритму для її розв'язання – не найвдаліший спосіб.

Нехай необхідно побудувати алгоритм для розв'язання такого класу задач: обчислити значення виразу у точці  b, де aiR, bR, а R – множина дійсних чисел.

Множина вхідних даних: деaiR, bR, – вектор зn 1 дійсних чисел, b – дійсне число.

Результат: , де.

Змінні: i – цілого типу; х, r – дійсного.

Константи: {ai0,..., n}, п.

Наведемо алгоритм для даного класу задач:

Алгоритм:

  1. Покласти i рівним n, s рівним 0, х рівним b.

  2. Піднести х до степеня i.

  3. Помножити на степінь.

  4. Покласти s рівній сумі s і добутку на степінь.

  5. Якщо i=0, то sрезультат (стоп).

Інакше покласти i=i-1, перейти до кроку 2.

Послідовність обчислень за алгоритмом описує вираз

.

Існує також інший алгоритм для розв'язання задач цього класу.

Вхідні дані: ті самі, що й у попередній задачі.

Результат: такий самий.

Змінні: r, s, x – дійсного типу, i – цілого типу.

Константи: п.

Алгоритм:

  1. Покласти i рівним п,x рівним b.

  2. Покласти r рівним

  3. Помножити r на x.

  4. Покласти r рівним добутку.

  5. Покласти i рівним i1.

  6. Покласти r рівним r+.

  7. Якщо i=0, то rрезультат, інакше перейти до кроку 3.

Послідовність обчислень за цим алгоритмом можна пояснити виразом

.

Такий метод обчислення значення полінома у точці називається схемою Горнера.

Виразимо складність дії піднесення до степеня i як (i – 1) операцій множення. Тоді складність другого алгоритму (за схемою Горнера) у вигляді кількості операцій додавання та множення дорівнюватиме 2п, а для прямого алгоритму становитиме

Таким чином, другий алгоритм ефективніший за перший.

Тепер можна дати визначення ефективному алгоритму.

Означення 1.7. Алгоритм, трудомісткість якого обмежена поліномом від характерного обсягу задачі, називається ефективним.

Під складністю задачі розумітимемо час, необхідний для обчислення функції, за допомогою якої знаходиться її розв'язок. Під складністю розумітимемо складність алгоритму у найгіршому випадку. Ос­кільки не можна побудувати для кожної функції найкращої машини, що її обчислює, то введемо поняття класу складності.

Означення 1.8. Клас складності містить функції f, для яких існує машина М, що обчислює f, така, що функція Т(М, х) за часом обмежена функцією t(n) із точністю до мультиплікативної константи, тобто

,

де t(n) – порядок класу.

Класом задач складності t(n) назвемо сукупність задач, які розв'язуються за час порядку t(n).

O-оцінки виражають відносну швидкість алгоритму залежно від початкових даних. Розглянемо класи O-складності алгоритмів. Нехай N – кількість оброблюваних даних (табл. 1.1).

Таблиця 1.1

Класи

складності

Опис програм

О(1)

Більшість операцій у програмі виконується або один раз, або фіксовану кількість разів. Будь-який алгоритм, що завжди вимагає (незалежно від обсягу даних) одного й того самого часу, має константну складність.

О(N)

Час роботи програми лінійно залежить від N. Властиво алгоритмам, які обробляють кожен елемент вхідних даних кількість разів, пропорційну лінійній функції.

О(N2), О(N3), О(Nк)

Поліноміальна складність. О(N2) – квадратична складність, О(N3) – кубічна складність. Час роботи програми пропорційний поліноміальній функції.

О(Log(N))

Час роботи програми логарифмічний. Зустрічається зазвичай у програмах, які ділять велику задачу на маленькі й розв'язують їх окремо.

О(N*log(N))

Такий час роботи мають алгоритми, які ділять велику задачу на маленькі, а потім, розв'язавши їх, сполучають розв'язки.

О(2N)

Експоненціальна складність. Такі алгоритми найчастіше виникають унаслідок підходу, що має назву "метод грубої сили".

Розглянемо прийоми проведення аналізу алгоритмів і визначення їх складності. Тимчасова складність алгоритму може бути порахована, виходячи з аналізу його керувальних структур. Ми пам'ятаємо, що до керувальних структур належать лінійні та умовні вирази, цикли (табл. 1.2).

Таблиця 1.2

Керувальна структура

Складність

Простий вираз

О(1)

Лінійний вираз S1,…Sn

Домінанта О(С1),…, О(Cn), де C1,…, Сn – складність обчислення виразів S1,…Sn

Якщо <умова> то дія1

Інакше дія2

Домінанта О (С1), О(С2), О (С3), де С1, С2, С3 – складність обчислень дій та умови, відповідно

Цикл із n повтореннями тіла S1

О(n*C1), де С1 – складність обчислення S1

Якщо немає рекурсії й циклів, то всі керувальні структури можуть бути зведені до структур константної складності. Отже, і весь алгоритм також характеризується константною складністю. Тому визначення складності алгоритму в основному зводиться до аналізу циклів і рекурсивних викликів.

Розглянемо алгоритм обробки елементів масиву.

Алгоритм:

Для i=1 до N виконувати

початок

{Простий вираз}

кінець;

Складність цього алгоритму становить О(N), оскільки тіло циклу виконується разів, а складність тіла циклу дорівнює О(1).

Якщо один цикл вкладено в іншій та обидва мають однакову кількість повторень, то вся конструкція характеризується квадратичною складністю.

Розглянемо алгоритм.

Алгоритм:

Для i=1 до N виконувати

Для j=1 до N виконувати

початок

{Простий вираз}

кінець;

Його складність становить О(N2).

Оцінимо складність алгоритму, що має назву "Трійки Піфагора". Суть задачі: знайти всі трійки натуральних чисел (х, y, z), що задо­вольняють рівняння x 2y 2 z 2. Піфагор знайшов формули, які в сучасному формалізмі можна записати як

x 2п 1, y 2п(п 1),  2п2 2п  1,

де п – ціле число. Наприклад:

А

B

С

3

4

5

5

12

13

8

15

17

7

24

25

20

21

29

12

35

37

9

40

41

28

45

53

11

60

61

Трикутники із такими сторонами є прямокутними. Розпочате Піфагором дослідження рівняння x 2 y 2 z 2 привело до складної проблеми сучасної теорії чисел – дослідження у цілих числах рівняння xn  yn  zn. Перед аналізом складності програми, яка знаходить трійки Піфагора, зазначимо, що існують два способи аналізу складності: висхідний (від внутрішніх керувальних структур до зовнішніх) і низхідний (від зовнішніх – до внутрішніх). Ми користуватимемося висхідним. Розглянемо алгоритм.

Алгоритм:

D

А

Вхід: n

1. small=1

E

2. Поки small<n виконувати

Початок

B

3. next=small

G

4. Поки next<=n виконувати

Початок

С

5. last=next

I

6. Поки last<n виконувати

Початок

F

7. Якщо last<=2*small і next<=2*small і last*last=small*small+next*next

H

  1. то друк(small)

друк(next)

друк(last)

J

  1. last=last+1 кінець циклу last

К

  1. next=next+1 кінець циклу next

  1. small=small+1 кінець циклу small

  1. Кінець

Вихід: роздруковані значення small,next,last

Підрахуємо його складність:

О(H)  O(1)  O(1)  O(1)  O(1);

О(I)  O(N)*(О(F)  O(J))  O(N)*O (домінанти умови)  О(N);

О(G)  O(N)*(О(C)  O(I)  O(K))  O(N)*(О(1)  O(N)  O(1))  O(N2);

О(E)  O(N)*(О(B)  O(G)  O(L))  O(N)*О(N2)  О(N3);

О(D)  O(A)  O(E)  O(1)  О(N3)  О(N3).

Таким чином, складність алгоритму становить О(N3).

Проаналізувавши програму, можна дійти висновку, що основну оцінку складності забезпечують вкладені цикли. Тому для зменшення складності, перш за все, можна спробувати зменшити глибину вкладеності циклів. Далі слід розглянути можливість скорочення кількості операторів у циклах з найбільшою глибиною вкладеності. Однак ці рекомендації не завжди можна виконати.

Оцінимо алгоритм бінарного пошуку ключа в упорядкованому масиві. Суть алгоритму: розглядаємо серединний елемент масиву й перевіряємо відповідність ключа до його значення. Якщо не вдається знайти відповідність, то порівнюємо ключ і значення серединного елемента, а потім переміщаємося в нижню половину списку елементів масиву, якщо ключ менше, і верхню – якщо більше. В обраній половині знову шукаємо середину та знову порівнюємо із ключем. Якщо не виходить, то знову ділимо надвоє поточний інтервал.

Розглянемо детальніше алгоритм. Вхід: low, high – змінні, що задають нижню й верхню межі масиву, key – шукане число.

початок

поки low<=high виконувати

початок

mid=(low+high)/2;

data=a[mid];

якщо key=data

тоді початок search=mid; закінчити роботу кінець

інакше якщо key<data

то high=mid-1

інакше low=mid+1;

кінець;

search=-1;

кінець;

Перша ітерація циклу має справу з усім списком елементів. Кожна подальша ітерація ділить список навпіл. Наприклад, розмірами списків для послідовних кроків алгоритму є n n/21 n/22 n/23 n/24... n/2m. Урешті-решт знайдеться таке ціле m, що n/2m 2 або n  2m+1. Оскільки m – перше ціле, для якого n/2m  2, то має бути вірним n/2m 1   2 або 2m   n. Із цього випливає, що 2m   n  2m 1.

Візьмемо логарифм кожної частини нерівності й дістанемо   log2(n)  x m  1. Значення m – найбільше ціле, що менше або дорівнює х. Отже, складність дорівнює О(log2n).

Знайдемо вираз для часу, що необхідний програмі для обробки масиву з N елементами як функцію від N. Зазвичай нас цікавить середній випадок – очікуваний час роботи програми на типових вхідних даних, і гірший – очікуваний час роботи програми на найгірших вхідних даних.

Через труднощі, пов'язані з проведенням аналізу часової складності алгоритму в середньому, часто доводиться задовольнятися оцінками для гіршого й кращого випадків. Ці оцінки, по суті, визначають нижню й верхню межі складності в середньому. У такому разі оцінка, одержана для найгіршого випадку, може служити хорошою апроксимацією складності в середньому.

Основним недоліком O-оцінювання є його надмірна грубість. Якщо алгоритм А виконує деяку задачу за 0.001*N, тоді як для її розв'язання за допомогою алгоритму В потрібно 1000*Nз, то В у мільйон разів швидше за А. Однак А та В мають одну й ту саму складність О(N).

Можна умовно розділити задачі на прості, які мають поліноміальний час розв'язання (розв'язання системи лінійних алгебраїчних рівнянь у раціональних числах); складні (важкі, що не мають розв'язку) – задачі, які не розв'язуються за поліноміальний час, або алгоритм розв'язання за поліноміальний час не знайдений. Крім цього, існують принципово нерозв'язні задачі. Дане твердження доведене А. Тьюрінгом.

Завершимо розгляд основ теорії складності тезами двох великих учених.

Теза Колмогорова. Проблеми, які не можуть бути розв'язані без пов­ного перебирання, залишаться за межами можливостей машини на скільки завгодно високому рівні техніки й культури.

На думку А. Тьюрінга, усе те, що природно визнали б обчислюваним, могло б, принаймні у принципі, бути обчислене у природі. Тому справедлива

Теза Тьюрінга. Можливо побудувати генератор віртуальної реальності з репертуаром, що включає всі середовища, існування яких не суперечить законам фізики. Це означає наявність:

 відповідної програми;

 необхідних обчислювальних ресурсів (швидкодії, обсягу пам'яті).