- •Глава 1. Саморазрушающиеся информационные структуры 13
- •Глава 2. Самовозрождающиеся информационные структуры 27
- •Глава 3. Алгоритмы самозарождения знания (опыт построения практической системы) 30
- •Вопрос 1. Можно ли для каждой информационной самообучающейся системы предложить такую стратегию обучения («жизни»), которая переведет абсолютно невидимый для нее факт в разряд тривиальных?
- •Самозарождающиеся и разрушающиеся структуры
- •Г.Л.Олди
- •Глава 1. Саморазрушающиеся информационные структуры
- •Н.Ф. Федоров
- •1.1. Исчисление высказываний и гибель формул
- •А.С.Пушкии
- •1.2. Обучение через уничтожение (саморазрушающиеся нейросети)
- •Ф.Ницше
- •1.3. Жизнь как плата за обучение
- •Глава 2. Самовозрождающиеся информационные структуры
- •2.1. Обучение через рождение (самозарождающиеся нейросети)
- •2.2. Жизнь как неизбежность
- •Глава 3. Алгоритмы самозарождения знания (опыт построения практической системы)
- •3.1. Жизненная сила элемента
- •3.2. Человечество как ср-сеть
- •3.3. Проблема останова для человека
- •3.4. Пример познания через рождение и гибель
- •3.5. Обучение без учителя
- •Глава 4. Эвм, ср-сети и эмоции как
- •Глава 5. Возможности самозарождающихся и разрушающихся структур
- •Информационное оружие и проблема алгоритмической неразрешимости перспективности для информационных самообучающихся систем
- •Глава 6(1). «Информационная война» в материалах прессы
- •Глава 7(2). Информационная война как целенаправленное информационное воздействие информационных систем
- •Глава 8(3). Проблема выигрыша информационной войны в человеческом обществе
- •Глава 9(4). Обучение как процесс информационного воздействия (толкование теорем о возможностях р-,ср-сетей )
- •Глава 10(5). Приемы информационного воздействия
- •Глава 11(6). Проблема начала информационной войны
- •Глава 12(7). Типовая стратегия информационной войны
- •Глава 13(8). Последствия информационной войны
- •Глава 14(9). Источники цели или кто дергает за веревочку.
- •Самоуничтожение как неотъемлемое свойство самообучаемой системы
- •Глава 15(1). Проблема бессмертья информационных систем
- •Программирование осуществляют входные данные.
- •Глава 16(2). Распространение информационных волн в социальном пространстве
- •Глава 17(3). Психические программы самоуничтожения
- •Глава 18(4). Самоуничтожение в мире программного обеспечения
- •Глава 19(5). Самоуничтожение цивилизаций
- •Проблема невидимости
- •Глава 20(1). Информационные угрозы
- •20(1 ).1. Явные угрозы
- •20(1).2. Защита от явных угроз
- •Глава 21(2). Понятие скрытой угрозы
- •Глава 22 (3). Уровень суггестивных шумов
- •Глава 23 (4). Генерация скрытых программ
- •Глава 24 (5). Моделирование процесса целеобразования
- •24 (5).1. Пространство целей как множество знаний суггестивной угрозы
- •24 (5).2. Проблема невидимости
- •Часть 1. Можно ли для каждой информационной самообучающейся системы предложить такую стратегию обучения («жизни»), которая переведет абсолютно невидимый факт в разряд тривиальных?
- •Суггестия и безопасность
- •Глава 25. Признаки информационного поражения 138
- •Глава 26. Защита от скрытых угроз 141
- •Глава 27. Суггестия и безопасность 158
- •Глава 28. Хроника одной информационной войны 169
- •Глава 25 (1). Признаки информационного поражения
- •Глава 26 (2). Защита от скрытых угроз
- •26 (2).1. Понятие информационной мишени
- •26(2).2. Логика вопросов и защита от них
- •26 (2).3. Выявление скрытых образований
- •26 (2).5. Защита информации в защищенной системе
- •Глава 27 (3). Суггестия и безопасность
- •27 (3).1. Управление суггестивным шумом
- •27.2 «Структура магии» и проблема останова
- •27 (3).3. Убийство целей как задача системы безопасности
- •Глава 28 (4). Хроника одной информационной войны
- •Проектирование знания
- •Глава 29 (1). Прогнозирование поведения информационных систем
- •Глава 30(2). Текущее знание как структура процесса
- •Глава 31 (3). Мир подобных структур
- •Глава 32 (4). Преобразование структур
- •Глава 33 (5). Хаос в принятии решения
- •Глава 34 (6). Устойчивость знания
- •Глава 35 (7). Проблема проектирования устойчивых информационных систем
- •35 (7).1. Эволюция знания
- •35 (7).2. Возможности системы через возможности по преобразованию ее структуры
- •35 (7).3. Постановка задачи на проектирование структуры информационной системы
- •Глава 36 (8). О том, что осталось за кадром или по чуть-чуть обо всем
- •Часть 1. Можно ли для каждой информационной самообучающейся системы предложить такую стратегию обучения («жизни»), которая переведет абсолютно невидимый факт в разряд тривиальных.
Глава 11(6). Проблема начала информационной войны
В начале было слово...
Вернемся к проверенной классической логике.
Одним из ключевых вопросов, выводящих на неразрешимость проблемы выигрыша информационной войны, заключается в следующем: «Способна ли информационная система определить, что против нее начата информационная война?»
Исследуем эту проблему подробнее.
Пусть существуют две противоборствующие информационные системы — ИС1 и ИС2 системы защиты у которых функционально похожи и работают по следующему алгоритму:
1) получение входной информации;
2) анализ входной информации в течение времени t:
* определение источника информации;
* определение целей информатора;
* оценка правдоподобности, если поступившая информация оценена как факт агрессии, то к п.З;
иначе к п. 1;
3) выдача на вход агрессора адекватной информации, что подразумевает ответный удар, т.е. информационную войну.
Теперь посмотрим, что может произойти при взаимодействии подобных систем. У этого простого алгоритма оказывается достаточное число вариантов развития:
1) ИС1 оценила неопасную информацию как факт агрессии и применила ответные меры;
2) ИС1 оценила начало войны как неопасную информацию и соответственно проиграла войну;
3) ИС1 не успела оценить информацию за время, которого достаточно для адекватного реагирования, и в этом случае она либо не пострадала, если информация действительно неопасная, либо проиграла.
Предположим, что обе системы не желают выступать в роли агрессора. Тогда для любой из них главной задачей является идентификация сигналов, поступающих на вход, именно от системы защиты противной стороны. И задача сводится к следующему:
1) если входная информация поступила на вход ИС1 от системы защиты ИС2, то это означает начало войны;
2) если входная информация поступила на вход ИС2 от системы защиты ИС1 то это означает начало войны.
По сути дела мы рассматриваем ситуацию о применимости любого из названных алгоритмов к самому себе (в силу их функциональной идентичности). Получилось, что в общем случае задача любой из информационных систем заключается в том. чтобы понять — результат работы какого алгоритма она исследует, т.е. какой алгоритм она исследует, алгоритм ли вообще подан на вход?
Мы исходим из того, что за любой входной информацией либо стоит умысел (алгоритм), либо ничего не стоит, в этом случае входная информация неопасна с точки зрения начала информационной войны (хотя на самом деле эта информация может иметь еще более разрушительный для системы характер, но это за пределами данного исследования).
Покажем, что данная проблема относится к алгоритмически неразрешимым.
По аналогии с исследованием проблемы «Является ли частичный алгоритм всюду определенным алгоритмом»[3] попробуем предложить метод определения начала информационной войны. Но предварительно предположим, что существует некий алгоритм ИСa который позволяет определить, что подано ему для анализа (на его вход) — алгоритм или нет. Понятно, что если подобный ИСa существует, то на его основе можно построить совершенно различные алгоритмы и в том числе алгоритм, позволяющий осуществлять классификацию алгоритмов по их принадлежности тому или иному классу равносильных алгоритмов, в частности к классу алгоритмов, ответственных за выявление начала информационной войны. Например, пусть предложен некий алгоритм ИС.
Алгоритм ИС:
Вход:
защитный алгоритм любой из возможных информационных систем ИСi.
Выход:
«0» если ИСi не является алгоритмом системы защиты;
«1» если ИСi является алгоритмом системы защиты и в том числе ИС(ИС)="1".
Метод:
1)если ИСa,(ИСi)=''1" является алгоритмом, то перейти к п.2, в противном случае выдать «0» и остановиться;
2) если ИСi — алгоритм системы защиты, то его входом может быть алгоритм системы защиты, а выходом— «0» или «1». В этом случае (для проверки) алгоритм ИС применяет алгоритм ИСi к самому себе;
3)ИС выдает на выход «0» или «1», если ИСi выдает «1» или «0» соответственно.
Рассмотрим результаты работы этого метода. Предположим, что алгоритм ИС определил, что на вход поступила «опасная» информация, т.е. ИСi — алгоритм. После этого ИС моделирует себя на себе. Но если ИС функционально эквивалентен ИСi, то в этом случае он не может дать непротиворечивый результат. Если результат моделирования «1», то ИС дает на выходе результат «0». Но по определению, в случае применения к самому себе он должен давать ответ «1». Аналогичная ситуация возникает, если ИС обнаруживает, что результат моделирования «0».
Вывод. Проблема построения алгоритма для определения начала информационной войны в общем случае является алгоритмически неразрешимой, а причина кроется в невозможности создания алгоритма ИСa , положенного в основу предложенного формального метода.
Данный результат понятен, ненов и полностью определяется результатами исследования классической проблемы: «Является ли частичный алгоритм всюду определенным алгоритмом?»
В этой ситуации грозить адекватным ответом, например в виде «термоядерной дубины», бессмысленно, так как объективно невозможно доказать факт информационной атаки. Получается, что начало информационной войны определить невозможно, и это дает определенные преимущества агрессору. Но парадокс заключается в том, что если жертва нападения успеет осознать, что против нее ведется информационная война, то полученное агрессором преимущество на начальном этапе в подобного типа войнах совсем не коррелирует с мелодией гимна победителя.
После того, как информационная война начата, в дело включаются нелинейные функциональные зависимости с обратными связями и факт алгоритмической неразрешимости проблемы в общем виде дает шанс на победу даже самому-самому захудалому противнику.
Однако алгоритмическая неразрешимость исследуемой проблемы в общем виде не означает, что в конкретном случае не существует решения. Более того, в большинстве ситуаций всегда найдется такой интервал времени или такое состояние информационной системы, когда к системе можно применить конкретный побеждающий алгоритм. Если нельзя в данный момент применить конкретный побеждающий алгоритм. Если нельзя в данный момент применить подготовленную схему действий, то можно подождать, пока придет для нее время!
Я.А. Пономарев, исследуя психологический механизм принятия решения в условиях творческих задач, отмечал, что в случае, когда логика не подтверждается практикой, задача превращается в творческую. Решение же творческой задачи возможно только с помощью интуиции. А это значит, что решение могут подсказать лишь сами вещи!
В реальной жизни так оно и бывает. Дождь за окном намекает на необходимость взять зонт, выходя на улицу. Футбольный мяч, закатившийся на тротуар, требует удара по себе. Автобус, неожиданно подъехавший к остановке, когда уже принято решение никуда не ходить и вернуться домой, отменяет это решение.
Яблоко, упавшее на голову мыслителя в нужное время, заставило проявиться в нашей жизни закон всемирного тяготения.
Важно, что эти «вещи» заставляют систему выйти из состояния, в котором ее поведение практически не предсказуемо, и перейти к выполнению того сценария, который навязывается «этими вещами». Действительно, как можно не ударить по мячу, когда он выкатился под ноги?
Хорошо продуманная последовательность подобных «вещей» и образует ту обучающую выборку, с помощью которой осуществляется целенаправленное управление информационной системой.