Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
829.doc
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
544.77 Кб
Скачать

1.2 Філософські аспекти проблеми систем ші (можливість існування, безпека, корисність).

З курсом "Основи проектування систем ШІ" склалася ситуація, що ріднить його з комунізмом — вивчається те, чого ще немає. І якщо цього не буде протягом найближчих 100 років, то дуже може бути, що епоха ШІ на цьому закінчиться.

Виходячи зі сказаного вище, випливає основна філософська проблема в області ШІ — чи можливість не можливість моделювання мислення людини. У випадку якщо коли-небудь, буде отримана негативна відповідь на це питання, то всі інші питання курсу не будуть мати ні найменшого змісту.

Отже, починаючи дослідження ШІ, ми заздалегідь припускаємо позитивну відповідь. Спробуємо привести кілька розумінь, що підводять нас до даної відповіді.

Перше доведення є схоластичним, і доводить несуперечність ШІ і Біблії. Очевидно, навіть люди далекі від релігії, знають слова священного писання: "І створив Господь людину по образі і подобі своєму ...". Виходячи з цих слів, ми можемо припустити, що, оскільки Господь, по-перше, створив нас, а по-друге, ми по своїй суті подібні йому, то ми цілком можемо створити когось по образі і подобі людини.

Створення нового розуму біологічним шляхом для людини справа цілком звична. Спостерігаючи за дітьми, ми бачимо, що велику частину знань вони здобувають шляхом навчання, а не як закладену в них заздалегідь. Дане твердження на сучасному рівні не доведено, але по зовнішніх ознаках усе виглядає саме так.

Те, що раніш здавалося вершиною людської творчості — гра в шахи, шашки, розпізнавання зорових і звукових образів, синтез нових технічних рішень, на практиці виявився не такою вже складною справою (тепер робота ведеться не на рівні можливості чи неможливості реалізації перерахованого, а про побудову найбільш оптимального алгоритму). Тепер найчастіше дані проблеми навіть не відносять до проблем ШІ. Є надія, що і повне моделювання мислення людини виявиться не такою вже складною справою.

З проблемою відтворення свого мислення тісно стоїть проблема можливості самовідтворення.

Здатність до самовідтворення довгий час вважалася прерогативою живих організмів. Однак деякі явища, що відбуваються в неживій природі (наприклад, ріст кристалів, синтез складних молекул копіюванням), дуже схожі на самовідтворення. На початку 50-х років Дж. фон Нейман зайнявся ґрунтовним вивченням самовідтворення і заклав основи математичної теорії "автоматів, що самовідтворюються,". Так само він довів теоретично можливість їхнього створення.

Існують також різні неформальні докази можливості самовідтворення, але для програмістів самим яскравим доказом, мабуть, буде існування комп'ютерних вірусів.

Принципова можливість автоматизації рішення інтелектуальних задач за допомогою ЕОМ забезпечується властивістю алгоритмічної універсальності. Що ж це за властивість?

Алгоритмічна універсальність ЕОМ означає, що на них можна програмно реалізовувати (тобто представити у виді машинної програми) будь-які алгоритми перетворення інформації, — будь це обчислювальні алгоритми, алгоритми керування, пошуку доказу чи теорем композиції мелодій. При цьому ми маємо на увазі, що процеси, породжувані цими алгоритмами, є потенційно здійсненними, тобто що вони здійсненні в результаті кінцевого числа елементарних операцій. Практичне створення алгоритмів залежить від наявних у нашому розпорядженні засобів, що можуть мінятися з розвитком техніки. Так, у зв'язку з появою швидкодіючих ЕОМ стали практично здійсненними і такі алгоритми, що раніше були тільки потенційно здійсненними.

Однак властивість алгоритмічної універсальності не обмежується констатацією того, що для усіх відомих алгоритмів виявляється можливою їхня програмна реалізація на ЕОМ. Зміст цієї властивості має і характер прогнозу на майбутнє: усякий раз, коли в майбутньому яке-небудь розпорядження буде визнано алгоритмом, то незалежно від того, у якій формі і яких засобах це розпорядження буде спочатку виражено, його можна буде задати також у виді машинної програми.

Однак не слід думати, що обчислювальні машини і роботи можуть у принципі вирішувати будь-які задачі. Аналіз різноманітних задач привів математиків до чудового відкриття. Було строго доведене існування таких типів задач, для яких неможливий єдиний ефективний алгоритм, що вирішує всі задачі даного типу; у цьому змісті неможливе рішення задач такого типу і за допомогою обчислювальних машин. Цей факт сприяє кращому розумінню того, що можуть робити машини і чого вони не можуть зробити. Справді, твердження про алгоритмічну нерозв'язність деякого класу задач є не просто визнанням того, що такий алгоритм нам не відомий і ніким ще не знайдений. Таке твердження являє собою одночасно і прогноз на всі майбутні часи про те, що подібного роду алгоритм нам не відомий і ніким не буде зазначений чи, і іншими словами, що він не існує.

Як же діє людина при рішенні таких задач? Схоже, що він всього-на-всього ігнорує їх, що, однак не заважає йому жити далі. Іншим шляхом є звуження умов універсальності задачі, коли вона зважується тільки для визначеної підмножини початкових умов. І ще один шлях полягає в тім, що людина методом "наукового тику" розширює безліч доступних для себе елементарних операцій (наприклад, створює нові матеріали, відкриває нові родовища чи типи ядерних реакцій).

Наступним філософським питанням ШІ є мета створення. У принципі усе, що ми робимо в практичному житті, звичайно спрямоване на те, щоб більше нічого не робити. Однак при досить високому рівні життя (великій кількості потенційної енергії) людини на перші ролі виступає вже не лінь (у змісті бажання заощаджувати енергію), а пошукові інстинкти. Допустимо, що людина зуміла створити інтелект, що перевищує свій власний (нехай не якістю, так кількістю). Що тепер буде з людством? Яку роль буде грати людина? Для чого він тепер потрібний? Чи не стане він тупою і жирною свинею? І взагалі, потрібно чи в принципі створення ШІ?

Очевидно, самою прийнятною відповіддю на ці питання є концепція "підсилювача інтелекту" (ПІ). Я думаю, що тут доречна аналогія з президентом держави — він не зобов'язаний знати валентності ванадію, чи мови програмування Java для ухвалення рішення про розвиток ванадієвої промисловості. Кожний займається своєю справою — хімік описує технологічний процес, програміст пише програму; зрештою, економіст говорить президенту, що вклавши гроші в промислове шпигунство, країна одержить 20%, а у ванадієву промисловість — 30% річних. Думаю, що при такій постановці питання навіть самий останній бомж (правда при свідомості) зможе зробити правильний вибір.

У даному прикладі президент використовує біологічний ПІ — групу фахівців з їх білковими мозками. Але вже зараз використовуються і неживі ПІ — наприклад ми не могли б пророчити погоду без комп'ютерів, при польотах космічних кораблів із самого початку використовувалися бортові лічильно-вирішальні пристрої. Крім того, людина вже давно використовує підсилювачі сили (ПС) — поняття, багато в чому аналогічне ПІ. Як підсилювачі сили йому служать автомобілі, крани, електродвигуни, преси, пушки, літаки і багато чого іншого.

Основною відмінністю ПІ від ПС є наявність волі. Адже ми не зможемо собі представити, щоб раптом серійний "Запорожець" збунтувався, і став їздити так, як йому хочеться. Не можемо представити саме тому, що йому нічого не хочеться, у нього немає бажань. У теж час, інтелектуальна система, цілком могла б мати свої бажання, і робити не так, як нам хотілося б. У такий спосіб перед нами встає ще одна проблема — проблема безпеки.

Дана проблема хвилює розум людства ще з часів Карела Чапека, що вперше використав термін "робот". Велику лепту в обговорення даної проблеми внесли й інші письменники-фантасти. Як найвідоміші ми можемо згадати серії розповідей письменника-фантаста і вченого Айзека Азимова, а так само досить свіжий здобуток — "Термінатор". До речі саме в Айзека Азимова ми можемо знайти, і прийняте більшістю людей рішення проблеми безпеки. Мова йде про так званих три закони роботехніки.

  1. Робот не може заподіяти шкоду людині, чи своєю бездіяльністю допустити, щоб людині була заподіяна шкода.

  2. Робот повинний коритися командам, що йому дає людина, крім тих випадків, коли ці команди суперечать першому закону.

  3. Робот повинний піклуватися про свою безпеку, наскільки це не суперечить першому і другому закону.

На перший погляд подібні закони, при їхньому повному дотриманні, повинні забезпечити безпеку людства. Однак при уважному розгляді виникають деякі питання. По-перше, закони сформульовані людською мовою, що не допускає простого їхнього перекладу в алгоритмічну форму. Спробуйте, до приклада перевести на кожній з відомих Вам мов програмування, такий термін, як "заподіяти шкоду". Чи "допустити". Спробуйте визначити, що відбувається в будь-якому випадку, а що він "допустив"?

Далі припустимо, що ми зуміли переформулювати, дані закони на мову, що розуміє автоматизована система. Тепер цікаво, що буде мати на увазі система ШІ під терміном "шкода" після довгих логічних міркувань? Чи не вирішить вона, що усе існування людини це суцільна шкода? Адже він курить, п'є, з роками старіє і втрачає здоров'я, страждає. Чи не буде меншим злом швидко припинити цей ланцюг страждань? Звичайно можна ввести деякі доповнення, зв'язані з цінністю життя, волею волевиявлення. Але це вже будуть не ті прості три закони, що були на початку.

Наступним питанням буде таке. Що вирішить система ШІ в ситуації, коли порятунок одного життя можливо тільки за рахунок іншого? Особливо цікаві ті випадки, коли система не має повної інформації про те, хто є хто.

Однак незважаючи на перераховані проблеми, дані закони є досить непоганим неформальним базисом перевірки надійності системи безпеки для систем ШІ.

Так що ж, невже немає надійної системи безпеки? Якщо відштовхуватися від концепції ПІ, то можна запропонувати наступний варіант.

Відповідно до численних досвідів, незважаючи на те, що ми не знаємо точно, за що відповідає кожен окремий нейрон у людському мозку, багатьом з наших емоцій звичайно відповідає порушення групи нейронів (нейронний ансамбль) у цілком передбачуваній області. Були також проведені зворотні експерименти, коли роздратування визначеної області викликало бажаний результат. Це могли бути емоції радості, гноблення, страху, агресивності. Це наводить на думку, що в принципі ми цілком могли б вивести ступінь "задоволення" організму назовні. У той же час, практично усі відомі механізми адаптації і самонастроювання (у першу чергу маються на увазі технічні системи), базуються на принципах типу "добре" — "погано". У математичній інтерпретації це зведення якої-небудь функції до максимуму чи до мінімуму. Тепер уявимо собі, що наш ПІ як таку функцію використовує прямо чи побічно, ступінь задоволення мозку людини-хазяїна. Якщо вжити заходів, щоб виключити самодеструктивну діяльність у стані депресії, а так само передбачити інші особливі стани психіки, то одержимо наступне.

Оскільки передбачається, що нормальна людина, не буде наносити шкоду самій собі, і, без особливої на те причини, іншим, а ПІ тепер є частиною даного індивідуума (не обов'язково фізична спільність), то автоматично виконуються всі 3 закони роботехніки. При цьому питання безпеки зміщаються в область психології і охорони права, оскільки система не буде робити нічого такого, чого б не хотів її власник.

І тепер залишилася ще одна тема — а чи варто взагалі створювати ШІ, може просто закрити всі роботи в цій області? Єдине, що можна сказати з цього приводу — якщо ШІ можливо створити, то рано чи пізно він буде створений. І краще його створювати під контролем громадськості, з ретельним проробленням питань безпеки, чим він буде створений років через 100-150 (якщо на той час людство ще не знищить саме себе) яким-небудь програмістом-механіком-самоучкою, що використовує досягнення сучасної йому техніки. Адже сьогодні, наприклад, будь-який грамотний інженер, при наявності визначених грошових ресурсів і матеріалів, може виготовити атомну бомбу.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]