- •Глава 1. Саморазрушающиеся информационные структуры 13
- •Глава 2. Самовозрождающиеся информационные структуры 27
- •Глава 3. Алгоритмы самозарождения знания (опыт построения практической системы) 30
- •Вопрос 1. Можно ли для каждой информационной самообучающейся системы предложить такую стратегию обучения («жизни»), которая переведет абсолютно невидимый для нее факт в разряд тривиальных?
- •Самозарождающиеся и разрушающиеся структуры
- •Г.Л.Олди
- •Глава 1. Саморазрушающиеся информационные структуры
- •Н.Ф. Федоров
- •1.1. Исчисление высказываний и гибель формул
- •А.С.Пушкии
- •1.2. Обучение через уничтожение (саморазрушающиеся нейросети)
- •Ф.Ницше
- •1.3. Жизнь как плата за обучение
- •Глава 2. Самовозрождающиеся информационные структуры
- •2.1. Обучение через рождение (самозарождающиеся нейросети)
- •2.2. Жизнь как неизбежность
- •Глава 3. Алгоритмы самозарождения знания (опыт построения практической системы)
- •3.1. Жизненная сила элемента
- •3.2. Человечество как ср-сеть
- •3.3. Проблема останова для человека
- •3.4. Пример познания через рождение и гибель
- •3.5. Обучение без учителя
- •Глава 4. Эвм, ср-сети и эмоции как
- •Глава 5. Возможности самозарождающихся и разрушающихся структур
- •Информационное оружие и проблема алгоритмической неразрешимости перспективности для информационных самообучающихся систем
- •Глава 6(1). «Информационная война» в материалах прессы
- •Глава 7(2). Информационная война как целенаправленное информационное воздействие информационных систем
- •Глава 8(3). Проблема выигрыша информационной войны в человеческом обществе
- •Глава 9(4). Обучение как процесс информационного воздействия (толкование теорем о возможностях р-,ср-сетей )
- •Глава 10(5). Приемы информационного воздействия
- •Глава 11(6). Проблема начала информационной войны
- •Глава 12(7). Типовая стратегия информационной войны
- •Глава 13(8). Последствия информационной войны
- •Глава 14(9). Источники цели или кто дергает за веревочку.
- •Самоуничтожение как неотъемлемое свойство самообучаемой системы
- •Глава 15(1). Проблема бессмертья информационных систем
- •Программирование осуществляют входные данные.
- •Глава 16(2). Распространение информационных волн в социальном пространстве
- •Глава 17(3). Психические программы самоуничтожения
- •Глава 18(4). Самоуничтожение в мире программного обеспечения
- •Глава 19(5). Самоуничтожение цивилизаций
- •Проблема невидимости
- •Глава 20(1). Информационные угрозы
- •20(1 ).1. Явные угрозы
- •20(1).2. Защита от явных угроз
- •Глава 21(2). Понятие скрытой угрозы
- •Глава 22 (3). Уровень суггестивных шумов
- •Глава 23 (4). Генерация скрытых программ
- •Глава 24 (5). Моделирование процесса целеобразования
- •24 (5).1. Пространство целей как множество знаний суггестивной угрозы
- •24 (5).2. Проблема невидимости
- •Часть 1. Можно ли для каждой информационной самообучающейся системы предложить такую стратегию обучения («жизни»), которая переведет абсолютно невидимый факт в разряд тривиальных?
- •Суггестия и безопасность
- •Глава 25. Признаки информационного поражения 138
- •Глава 26. Защита от скрытых угроз 141
- •Глава 27. Суггестия и безопасность 158
- •Глава 28. Хроника одной информационной войны 169
- •Глава 25 (1). Признаки информационного поражения
- •Глава 26 (2). Защита от скрытых угроз
- •26 (2).1. Понятие информационной мишени
- •26(2).2. Логика вопросов и защита от них
- •26 (2).3. Выявление скрытых образований
- •26 (2).5. Защита информации в защищенной системе
- •Глава 27 (3). Суггестия и безопасность
- •27 (3).1. Управление суггестивным шумом
- •27.2 «Структура магии» и проблема останова
- •27 (3).3. Убийство целей как задача системы безопасности
- •Глава 28 (4). Хроника одной информационной войны
- •Проектирование знания
- •Глава 29 (1). Прогнозирование поведения информационных систем
- •Глава 30(2). Текущее знание как структура процесса
- •Глава 31 (3). Мир подобных структур
- •Глава 32 (4). Преобразование структур
- •Глава 33 (5). Хаос в принятии решения
- •Глава 34 (6). Устойчивость знания
- •Глава 35 (7). Проблема проектирования устойчивых информационных систем
- •35 (7).1. Эволюция знания
- •35 (7).2. Возможности системы через возможности по преобразованию ее структуры
- •35 (7).3. Постановка задачи на проектирование структуры информационной системы
- •Глава 36 (8). О том, что осталось за кадром или по чуть-чуть обо всем
- •Часть 1. Можно ли для каждой информационной самообучающейся системы предложить такую стратегию обучения («жизни»), которая переведет абсолютно невидимый факт в разряд тривиальных.
3.3. Проблема останова для человека
Мы семена живущего растения, и, как только мы достаем зрелости и сердца наши переполняются, ветер подхватывает час и рассеивает.
К.Дхебраи
Предполагая в основе базового принципа обучения человека гибель нейронов и/или безвозвратную потерю ими отдельных функций (Р-сети), человек по умолчанию ставится на ступень ниже придуманного им самим интуитивного понятия алгоритма, более того, он потенциально всегда будет уступать созданным им же самим телекоммуникационным вычислительным средам. Почему это так? Хотя бы потому, что из всего возможного множества схем обучения самому человеку природой выделено лишь небольшое подмножество, в рамках которого ему и позволено резвиться. Причем заранее известно, что смогут «натворить» системы, работающим по этим алгоритмам, а что нет.
Так может быть на основании знания о возможностях системы и следует судить о ее предназначении?
Для проверки сказанного предлагается взглянуть на ту часть информационной самообучающейся системы под названием Человек, которая интуитивно соответствует понятию алгоритма, т.е. машине Тьюринга.
Кратко напомним основные термины и определения. Неформально машина Тьюринга представляет собой:
1) ленту— бесконечную последовательность элементарных ячеек, в каждой из которых может быть записан символ из некоторого фиксированного конечного алфавита;
2) головку, способную перемещаться по ленте влево и право, а также выполнять операции чтения и записи в ячейки ленты;
3) программу, состоящую из конечного числа состояний, одно из которых выделено как начальное, а другое или несколько специально оговоренных состояний выделены как заключительные каждому незаключительному состоянию ставится в соответствие определенная инструкция, т.е. что надо делать головке, если она наблюдает соответствующий символ, а программа находится в соответствующем состоянии.
В результате выполнения инструкции могут измениться состояние программы, месторасположение головки и наблюдаемый головкой символ на ленте.
Проблема останова допускает несколько формулировок [92]:
1) завершится ли выполнение программы, если отсутствуют данные?
2) завершится ли выполнение программы, когда в качестве входных данных выступают программы?
3) завершится ли выполнение программы для данных X?
Кроме сформулированной выше проблемы остановки для машины Тьюринга существуют и другие проблемы, являющиеся неразрешимыми, в частности, проблема эквивалентности программ, т.е. невозможно в полной общности решить, эквивалентна ли программа Р программе Q.
Никто, наверное, не будет спорить, что подобная алгоритмическая часть имеет место быть у системы Человек. Глядя в свое прошлое, любой из нас, как правило, способен формализовать совершенные им поступки в виде некоторого алгоритма: на вход подана сырая, холодная погода и еще что-то, внутренне состояние системы было тоскливым и еще каким-то, в результате всего этого было сделано то-то и то-то. Здесь и далее предполагается, что и не только интеллектуальная деятельность человека, но и физическая его составляющая, включающая в себя замену клеток, их функционирование и т.п., базируется на понятии алгоритма.
Проблема останова машины Тьюринга в общем виде неразрешима, т.е. проще говоря, нельзя для любой программы (алгоритма), поданной на вход машины Тьюринга, сказать, остановится она или нет.
Но если человек сложнее создаваемых им самим алгоритмов, то почему проблема останова для человека разрешима?
Все люди смертны, все люди останавливаются в своей работе над бесконечной лентой жизни. А для машины Тьюринга эта проблема неразрешима! Как же так?
Если придерживаться математической логики и того факта, что все люди смертны, то получится, что алгоритмическая часть человека являет собой лишь конкретное подмножество из всего возможного множества алгоритмов, на которое рассчитана машина Тьюринга, т.е. человек — жалкий частный случай в мире информационных самообучающихся систем.
Действительно, если процесс обучения человека организован на принципе гибели избыточных элементов (принцип Р-сети), то тогда алгоритмическая часть системы Человек представляет собой ограниченное подмножество из всего возможного множества обучающих алгоритмов. При этом, так как множество избыточных элементов, используемое для алгоритмической деятельности, постоянно сокращается, то проблема останова для человека становится разрешимой. Отсюда вывод — все люди смертны.
Понятно, что этот вывод сделан при соответствующих исходных данных, заключающихся в том, что нейроны головного мозга при жизни человека не способны восстанавливаться в таком же объеме, в каком они гибнут.
Если же попытаться посмотреть на Человечество, как на информационную самообучающуюся систему, и, в частности, на применимость к нему проблемы останова, то здесь будет более богатое множество обучающих алгоритмов (обучение осуществляется на принципах рождения, гибели, изменения связей между элементами), т.е. можно предположить, что алгоритмическая часть системы Человечество совпадает с интуитивным пониманием алгоритма машины Тьюринга, а это значит, что проблема гибели Человечества относится к алгоритмически неразрешимым проблемам.
Решая поставленную задачу в общем виде, можно только констатировать, что Человечество может погибнуть, а может и не погибнуть — ответить на этот вопрос, исходя из истории Человечества, невозможно!
Для астрологов и всевозможных предсказателей вывод об алгоритмической неразрешимости проблемы предсказания судьбы человечества не столь опасен и не может отразиться на их доходах и славе. У них есть неубиенный аргумент, заключающийся в том, что любое предсказание нелогично по самой своей природе, а слова приходят в уста пророка сами собой, не опираясь на известные науке причинно-следственные связи — в этом нет нужды.
И это правильно.
Вполне допустимо, что некто интуитивно видит весь завтрашний день. Проблема для этого некто заключается в том, что свое видение он не в состоянии переложить на язык, доступный окружающим его лицам.
Из непрерывного медитационного пространства в мир дискретных естественных языков никогда не было и не будет однозначного взаимосоответствия.
Кроме того, даже теоретически совершенно не понятно, насколько полно взаимоотношение двух информационных самообучающихся систем, обладающих разными знаниями. При этом знания у них постоянно меняются. Одна познает квантовую механику, а другая — систему экономических взаимоотношений производителей товаров.
Как утверждал Д.Дидро: «Разве тот, кто вас слушает, обладает лучшими данными, чем тот, кто говорит? Отнюдь нет. А потому едва ли и два раза на день во всем большом городе вас понимают так, как вы говорите».
А В.Гете добавил к сказанному: «Я утверждаю, что человек не может познать даже самого себя. Никто и никогда не сможет смотреть на себя только как на чистый объект познания; самопознание ни к чему путному не приводило».
Говоря техническим языком, Дидро утверждает, что все информационные самообучающиеся системы не могут быть одинаковыми, поэтому между ними не может быть 100% понимания, а Гете заявляет, что и 100% самопознания быть не может, ибо то, что система пыталась познать мгновение назад, сейчас уже успело претерпеть изменение.