Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лачинов В.М., Поляков А.О. Інформодинаміка [укр.язык].doc
Скачиваний:
31
Добавлен:
02.05.2014
Размер:
5.23 Mб
Скачать

11.5. Деякі кількісні оцінки елементної бази

Таким представляється сьогодні елемент “канального перетворювача”. Скільки станів у такого “мікропроцесора” сказати без додаткових досліджень досить проблематично. Проте можна з упевненістю сказати, що в ньому (нейроні) з боку кожного входу не менше однієї метаструктури типу S для подання стану, що приймається, і однієї у відповідь S’ – для внутрішнього подання (попереднього стану).

Спробуємо оцінити “еквівалентну інформаційну місткість” нейрона, виходячи з найпростіших припущень і загальноприйнятих чисельних оцінок. Наприклад, візьмемо оцінку числа входів і інших параметрів нейрона з роботи [33]. Найпростіший сервісний нейрон, що виконує функції “каналу зв’язку”, має два входи, тобто повинен “обслуговувати” (відображати і передавати) дві структури типу S.

Нехай його “внутрішня пам’ять” запам’ятовує тільки стани самого нижнього рівня структури S і кожний з дротів передає тільки два стани сигналу. Тобто опис стану входу повинен містити 8х8=64 однобітових “комірок” (вузлів дерева), кожна з яких має два стани. І таких “полів пам’яті” для структури S треба два – для S і S’, тобто в сумІ128 однобітових “комірок”.

Нагадаємо тепер, що ми будуємо “безадресний механізм”, вісім станів повинні займати вісім бінарних “комірок”, ми не маємо права кодувати їх {171. А, наприклад, застосовуючи трибітовий регістр (тобто позиційну восьмизначну систему запису “станів як чисел”) ми вимушені кодувати ці стани, значення кожної “однобітової комірки” визначається її позицією в регістрі, тобто прийнятою системою числення і прийнятим розбиттям на регістри. Але розбиття на регістри це вже і є система адресації.}. Для кожного окремого вузла дерева ми повинні виділяти окрему структуру пам’яті, для структури S, для кожного окремого стану складових її половинок, відповідно 128-бітовий регістр, 128 комірок. Для сприйняття двох входів нейрона відповідно два регістри по 128.

Вважаючи “байти” (у лапках, тому що це не байти у вісімковому сенсі, а групи по вісім однобітових комірок) незалежними, оскільки вони не зв’язані ніякою позиційною системою числення, і вважаючи, що вони реалізуються як незалежні фізичні структури, отримаємо оцінку “еквівалентного поля”, що адресується, 256 Кбайт.

Що й говорити, ми дуже неекономно розпорядилися “однобітовими комірками”, проте не поспішатимемо з висновками, поки що це модель простого “транспортного нейрона”.

Вважатимемо, що для “високого нейрона” використано той же механізм запам’ятовування станів. Орієнтуючись на загальноприйняті оцінки наприклад, [33] тощо.], вважаючи, що “високий нейрон” має ~102 робочих і ~104 навчаючих входів, і кожен вхід розрізняє ~102, тобто близько 64 різних порогових станів (що якраз відповідає “моделі каналу”, тобто числу станів структури S), отримаємо оцінку “оперативної пам’яті” ~2,56 Гбайт і “довготривалої” ~2,56х104 Гбайт. Але якщо припустити, що кожна “однобітова комірка” реалізована як стан валентного зв’язку в деяких молекулярних структурах, наприклад, “тубулінових мікротрубочках С. Хамероффа”, то оцінка зовсім не представляється божевільною з погляду можливостей її фізичної реалізації.

А зараз звернемо увагу на такий факт. Складна структура з двох рівнів структур типу S, що містить тільки дві нижні структури S має вигляд, зображений на рис. 11.7.

Тобто для “порожніх” вузлів верхньої структури S, а значить і відповідних їм “нижніх структур не треба резервувати місце, їх можна взагалі не будувати, їм не треба привласнювати ім’я, можна взагалі “про них забути”. Фізично це місце може бути віддане іншим структурам, що належать інший метаструктурі. Це і є безадресна організація чи, інакше кажучи, механізм самоадресації даних.

Чим складніші, тобто високі структури реалізуються, тим більша економія тому, що не треба навіть думати про “предка без нащадків”, “ім’я без даних” просто не існує за умовчанням, тобто не потрібні жодних спеціальних механізмів іменування, резервування тощо. Про те, як упаковуються високі структури для зберігання на рівні “власних даних”, тобто в те, що ми називали вище B*-деревами, організованими в Z структури, ми поговоримо окремо в наступних розділах.

Втім, читач можливо вже й сам про це здогадується, зокрема і про те, що реалізується механізм такої властивості в “багатошаровій голографічній пам’яті” або чомусь подібному.

Відзначимо ще раз цікаву особливість – при розмірі оперативної пам’яті від двох до десяти гігабайт розглянутий тут “суттєво неекономний механізм” і найекономніший із відомих способів управління адресами, вживаніший в системі Cache’ для адресної архітектури стають еквівалентними за витратою елементарних однобітових комірок. Для складніших структур будь-який спосіб адресації буде вже безнадійно програвати.

Щоб пояснити це, загалом не відразу очевидне твердження, зробимо невеликий відступ. Традиційно пояснюють “переваги” фон Нойманівської архітектури нехитрим прикладом. Вісьма бітами можна адресувати 256 слів (байт), 16 бітами – 256 Кбайт тощо, тобто довжина адресної частини команди логарифмічно залежить від розміру поля, що адресується.

Насправді забувають (чому?) про те, що використання адрес вимагає імен, каталогів імен, ієрархічної системи опису адресного простору, а, значить, пам’яті для розміщення всього цього. Про те, що потрібний механізм для створення, використання і модифікації цієї системи описів, а, значить, і ресурс для роботи цього механізму (тобто пам’ять і час) забувають тим більше.

А тут йдеться саме про це, про затрати на створення і підтримку сукупності цих механізмів, які тільки і роблять адресну архітектуру працездатною. До деяких пір, у “початковий період розвитку комп’ютерної техніки” ми перебували на початку деякої витратної кривої, що описує залежність сукупних затрат на управління адресним простором від розміру поля, що адресується. У даний час ми наближаємося до дальнього кінця графіка, до критичної точки, де затрати на підтримку “каталогів над каталогами”, ієрархії описів повинні перевищити обсяг найкориснішої інформації, того, для чого ці каталоги створюються. Все це можна зобразити на графіку рис.11.8.

На ньому:

N – кількість однобайтових комірок, використовуваних для подання;

S – складність моделі даних, оцінюючи, наприклад, в байтах;

1 – графік для безадресної пам’яті;

2 – графік для машини фон Ноймана.

Для машини фон Ноймана N узято з урахуванням витрати на опис всієї сукупності структур даних БД, механізмів інтерпретації і необхідного сукупного “вільного простору” для роботи всіх механізмів БД, тобто це повний обсяг пам’яті комп’ютерної системи.

К – критична точка, лежача залежно від прийнятої моделі даних у діапазоні від 2 до 10 Гбайт.

Схожі оцінки походять з дуже складних і туманних обчислень, із численними застереженнями їх авторів. У простому випадку шукається (експериментально оцінюється) просто деякий розмір необхідної пам’яті того, що ми тут називаємо “інформаційною машиною”. Але взагалі-то необхідно врахувати ту обставину, що існують не тільки різні швидкості роботи рівнів механізмів пам’яті комп’ютера, який і використовують як “розрахункову модель”, але існує і власна динаміка інформаційних процесів (зовнішня динаміка, яку комп’ютер тільки моделює).

Рядом дослідників у зв’язку з цим розглядалося поняття “Точки спалаху розуму” в сенсі кількісної оцінки апаратних затрат і їх “динамічних характеристик”, після чого може відбутися щось нетривіальне. Наприклад, за Р. Пенроузом, у черв’яка з його 302 нейронами таких “моментів свідомості” може відбуватися не більше двох за секунду – на більше “апаратного забезпечення” не вистачить.

Проте загалом “кількісні оцінки динаміки інформаційних процесів” зовсім нічого не пояснюють, окрім того факту, що динаміка ця є в Природі, але вона слабо зв’язана (а може і не зв’язана) зі швидкісними співвідношеннями роботи рівнів пам’яті в комп’ютері, не дуже відповідному інструменті використовуваному для її моделювання.

Не займатимемося оцінкою “правильності” точки К на графіці, швидше за все ця величина суттєво змінна, залежна від моделі даних та застосованого програмного забезпечення. Тут важливе інше, достатньо близький збіг її оцінок у різних, незалежних дослідженнях і її збіг із приведеною тут “оцінкою пам’яті” нейрона що не має вже взагалі нічого спільного з оцінками фізичних ентропійних моделей, за змістом від будь-яких ентропійних підходів незалежною.

Інакше кажучи, там де Природа безнадійно програла на конструкції нейрона, там же вона і абсолютно виграла на можливості будувати з цих нейронів скільки завгодно великі конструкції. І не просто будувати “скільки завгодно складні” конструкції, “моделі даних”, але й робити це, не використовуючи взагалі ніяких спеціальних формалізмів моделювання, а тільки один принцип самоподібності, чисту рекурсію.

Завершуючи цей розділ неможливо обійти увагою наступну обставину.

Якщо викладена вище модель “безадресної пам’яті” здасться читачеві занадто складною, ознайомтеся із згаданими обчисленнями і туманними інтерпретаціями оцінок, так чи інакше чисельно збіжних із критичною точкою К, після чого стане зрозумілим весь гумор ситуації. А заразом стане зрозумілішим, чи є сенс у спробах описати і зрозуміти інтелект, негентропійні системи засобів теорії передачі інформації, тобто засобів, створених для ентропійних систем і, зрозуміло, придатних тільки і виключно для них.

Корисно, мабуть, дати ще одне пояснення. Логарифмічна залежність довжини адреси від розміру адресного поля не залежить від самого розміру пам’яті і з цієї позиції приведений графік здається безглуздою вигадкою. Принаймні, виникає бажання отримати “доказ” чи “точне значення” положення точки на графіці.

Але в тому то й справа, що “доказу в строгому сенсі” не існує. Справа не в тому, що кожному елементу можна зіставити деяке число, адресу, а в тому, що як цими адресами користуватися. ПК 1999 року на базі Pentium III за потужністю відповідає всім комп’ютерам космічних комплексів СРСР і США на 1969 рік, проте поглянемо як і на що ця потужність витрачається.

Спробуйте розрахувати на цьому ПК, наприклад, виведення на орбіту супутника – якщо Ви не фахівець з орбітальної балістики, то все ПЗ Вам не допоможе.

Так само марно доручати комп’ютеру розставити коми в деякому “середньому” тексті. Так само і всі графічні пакети дуже мало допоможуть тому, хто не вміє читати креслення.

Нарешті, згадайте, чи багато Ви знаєте індивідуумів, що знають у точності призначення всіх кнопок в тій чи іншій скільки-небудь складній програмі?

Все це і відображено на графіці рис. 11.7. Це і означає, що вся сукупність прикладного ПЗ, за розміром що перевершує 8 гігабайт стандартного HDD, “сама вміє” тільки допомогти деякому “середньостатистичному користувачеві” сформулювати і розв’язати своє прикладне завдання. Тобто фактично велика частина пам’яті і потужності витрачається на управління ресурсом, на те, щоби цим ресурсом можна було користуватися.

Зробимо прямий практичний висновок – прогноз майбутніх змін у машинах і операційних системах.

Стає все більше зрозумілим, що починаючи з обсягу оперативної пам’яті більше 10 Гбайт ефективність усіх відомих підходів, усієї суми інформаційних технологій, що базуються на адресному поданні, тобто сукупності {ОС – операційна оболонка – прикладна система} різко перестає рости. А відносна ефективність, “коефіцієнт корисної дії” від збільшення потужності машини стане різко падати.

Виживуть лише дві “гілки родовідного дерева”. По-перше, це матричні процесори типу “колумбійської машини” {172. Про “колумбійський процесор” див. далі за текстом книги.}, тобто ті, топологія даних, модель даних у яких адекватна обчислювальному процесу, що реалізується, наприклад моделям механіки суцільних середовищ, моделям вибухів, потокових процесів тощо.

По-друге це будуть “машини керовані даними”, такі, що хоч і базуються на “адресній апаратній базі”, але такі, що використовують суттєвий розвиток ідей підходів, перерахованих у восьмому розділі, реалізують пряме управління ресурсом, адресним полем від динамічної моделі даних.

Інші ОС і операційні оболонки просто “вимруть як динозаври”, залишаться як релікти для студентів, для вивчення історії науки про інформацію, тієї самої computer science, від якої зараз старанно відхрещується інформатика.

Протиріччя породжують теорії.

Теорії породжують протиріччя.

Нехай же метатеорією стане теорія узгодження.