
- •Г. Г. Малинецкий1. Размышления о немыслимом
- •Глобальная неустойчивость
- •Психологический дискурс
- •Проблема инструмента
- •В погоне за предвестниками
- •4.1. Анализ и предупреждение о глобальных рисках способны парировать или отодвинуть опасности планетарного масштаба.
- •4.2. Анализ глобальных последствий деятельности человека позволяет более адекватно оценивать те риски, которые недооцениваются.
- •4.4. На обсуждении многих глобальных угроз, основ бытия отдельных цивилизаций, будущего человечества, фактически наложено табу, что весьма опасно.
- •4.5. Большого внимания заслуживают предвестники катастроф невиданного ранее масштаба.
- •Н. Бостром. Вводное слово
- •Предисловие
- •Термины
- •Введение
- •Часть 1. Анализ Рисков Глава 1. Общие замечания
- •1.1 Пространство возможностей
- •1.2 Рассматриваемый промежуток времени: XXI век
- •1.3 Проблемы вычисления вероятностей различных сценариев
- •1.4 Количественные оценки вероятности глобальной катастрофы, даваемые различными авторами
- •1.5 Глобальные катастрофы и горизонт прогнозирования
- •1.6 Краткая история исследований вопроса
- •1.7 Угрозы менее масштабных катастроф: уровни возможной деградации
- •1.8 Однофакторные сценарии глобальной катастрофы
- •1.9 Принципы классификации глобальных рисков
- •Глава 2. Атомное оружие
- •2.1 «Ядерная зима»
- •2.2 Полное радиоактивное заражение
- •2.3 Иные опасности атомного оружия Сверхбомба
- •Накопление антиматерии
- •Дешёвая бомба
- •Атака на радиационные объекты
- •Взрыв мощных бомб в космосе
- •2.4 Интеграция поражающих факторов ядерного оружия
- •2.5 Стоимость создания ядерного потенциала, могущего угрожать выживанию человеческой цивилизации
- •2.6 Вероятность глобальной катастрофы, вызванной ядерным оружием
- •2.7 Изменение вероятности глобальной катастрофы, вызванной ядерным оружием, с течением времени
- •2.8 Стратегия сдерживания под вопросом
- •2.9 Ядерный терроризм как фактор глобальной катастрофы
- •2.10. Выводы по рискам применения ядерного оружия
- •Глава 3. Глобальное химическое заражение
- •Глава 4. Биологическое оружие
- •4.1 Общие соображения и основные сценарии
- •4.2 Структура биологической катастрофы
- •4.3 «Саморазмножающейся» синтезатор днк
- •4.4 Множественный биологический удар
- •4.5 Биологические средства доставки
- •4.6 Вероятность применения биологического оружия и её распределение во времени
- •Глава 5. Супернаркотик и другие риски, связанные с воздействием на человека
- •5.1. Воздействие на центр удовольствия и новые технологии
- •5.2 Риски, связанные с самокопирующимися идеями (мемами)
- •5.3. Риски, связанные с размыванием границ между человеческим и нечеловеческим
- •5.4. Риски, связанные с проблемой «философского зомби»84
- •Глава 6. Искусственный интеллект
- •6.1. Общее описание проблемы
- •6.2 Ии как универсальное абсолютное оружие
- •6.3 Система целей
- •6.4 Борьба ии-проектов между собой
- •6.5 «Усовершенствованный человек»
- •6.6 Ии и его отдельные экземпляры
- •6.7 «Бунт» ии
- •6.8 Скорость старта
- •6.9 Сценарии «быстрого старта»
- •6.10 Медленный старт и борьба разных ии между собой
- •6.11 Плавный переход. Превращение государства тотального контроля в ии
- •6.12 «Восстание» роботов
- •6.13 Контроль и возможность истребления
- •6.14 Ии и государства
- •6.15 Вероятность катастрофы, связанной с ии
- •6.16 Другие риски, связанные с компьютерами
- •6.17 Время возникновения ии
- •Глава 7. Риски, связанные с роботами и нанотехнологиями
- •7.1 Проблема создания микроскопических роботов и нанотехнологии
- •7.2 Робот-распылитель
- •7.3 Самовоспроизводящийся робот
- •7.4 Стая микророботов
- •Армии крупных боевых роботов, выходящие из-под контроля
- •7.6 Миниатюризация роботов – путь к нанотехнологическому оружию
- •7.7 Неограниченное распространение самовоспроизводящихся нанороботов
- •7.8 Вероятность возникновения нанороботов и возможное время для этого события
- •Глава 8. Технологические способы провоцирования природных катастроф
- •8.1 Искусственная инициация термоядерной детонации Земли и других небесных тел
- •8.2 Отклонение астероидов
- •8.3 Создание искусственного сверхвулкана
- •8.4 Намеренное разрушение озонового слоя
- •Глава 9. Технологические риски, связанные с принципиально новыми открытиями
- •9.1 Неудачный физический эксперимент
- •9.2 Новые виды оружия, новые источники энергии, новые среды распространения и способы дальнодействия
- •Глава 10. Риски, создаваемые космическими технологиями
- •10.1 Атака на землю с помощью космического оружия
- •10.2 Ксенобиологические риски
- •10.3 Столкновение с превосходящими нас разумными силами во Вселенной
- •Глава 11. Риски, связанные с программой seti
- •11.1 История вопроса
- •11.2 Сценарий возможной атаки
- •11.3 Анализ возможных целей атаки
- •11.4 Анализ возможных возражений
- •11.5 Выводы о рисках seti -атаки
- •Глава 12. Риски, связанные с природными катастрофами
- •12.1 Вселенские катастрофы
- •12.2 Геологические катастрофы
- •12.3 Извержения сверхвулканов
- •12.4 Падение астероидов
- •12.5 Зона поражения в зависимости от силы взрыва
- •12.6 Солнечные вспышки и увеличение светимости
- •12.7 Гамма-всплески
- •12.8 Сверхновые звёзды
- •12.9 Сверх-цунами
- •12.10 Сверх-землетрясение
- •12.11 Переполюсовка магнитного поля Земли
- •12.12 Возникновение новой болезни в природе
- •Глава 13. Крайне маловероятные природные риски
- •13.1. Неизвестные процессы в ядре Земли
- •13.2. Внезапная дегазация растворённых в мировом океане газов
- •13.3. Нарушение стабильности Земной атмосферы
- •13.4. Взрывы других планет солнечной системы
- •13.5. Немезида
- •13.6 Ложные и опровергнутые теории глобальных катастроф.
- •Глава 14. Природные катастрофы и эффект наблюдательной селекции
- •14.1. Прекращение действия «защиты», которую нам обеспечивал антропный принцип
- •14.2. Ослабление устойчивости природных процессов и человеческие вмешательства
- •Глава 15. Глобальное потепление
- •Глава 16. Антропогенные риски, не связанные с новыми технологиями
- •16.1 Исчерпание ресурсов
- •16.2 Перенаселение
- •16.3 Крах биосферы
- •16.4 Социально-экономический кризис. Война
- •16.5 Генетическая деградация и ослабление фертильности (способности к размножению)
- •16.6 Старение вида
- •16.7 Вытеснение другим биологическим видом
- •16.8 Неизвестные нам сейчас причины катастроф
- •Глава 17. Способы обнаружения однофакторных сценариев глобальной катастрофы
- •17.1. Общие признаки любого опасного агента
- •17.2. Способы возникновения
- •17.3. Выход из точки и начало распространения
- •17.4. Распространение важнее разрушения
- •17.5. Способ распространения
- •17.6. Способ причинения смерти
- •17.7. Типичные виды разрушающего воздействия
- •17.8. Временная структура события
- •17.9. Предаварийные ситуации
- •17.10. Намеренная и случайная глобальная катастрофа
- •17.11. Машина судного дня
- •Глава 18. Многофакторные сценарии
- •18.1. Интеграция различных технологий, создающие ситуации риска
- •18.2. Парные сценарии
- •18.3. Изучение глобальных катастроф с помощью моделей и аналогий
- •18.4. Неизбежность достижения устойчивого состояния
- •18.5. Рекуррентные риски
- •18.6. Глобальные риски и проблема темпа их нарастания
- •18.7. Сравнительная сила разных опасных технологий
- •18.8. Последовательность возникновения различных технологий во времени
- •18.9. Сопоставление различных технологических рисков
- •18.10. Цели создания оружия судного дня
- •18.11 Социальные группы, готовые рискнуть судьбой планеты
- •18.12. Обобщающий коэффициент, связанный с человеческим фактором
- •18.13. Принятие решения о ядерном ударе
- •18.14. Цена вопроса
- •18.15 Универсальные причины вымирания цивилизаций.
- •Глава 19. События, изменяющие вероятность глобальной катастрофы.
- •19.1. Определение и общие соображения
- •19.2. События, которые могут открыть окно уязвимости
- •19.3. Системные кризисы
- •19.4. Кризис кризисов
- •19.5. Технологическая Сингулярность
- •19.6. Перепотребление приводит к одновременному исчерпанию всех ресурсов
- •19.7. Системный кризис и технологические риски
- •19.8. Системный технологический кризис – наиболее вероятный сценарий глобальной катастрофы
- •19.9. Криптовойна
- •19.10. Уязвимость к сверхмалым воздействиям
- •19.11. Гонка вооружений
- •19.12. Моральная деградация
- •19.13. Враждебность в обществе как сценарный фактор
- •19.14. Месть как сценарный фактор
- •19.15. Война как сценарный фактор
- •19.16. Деградация биосферы
- •19.17. Глобальная дезинфекция
- •19.18. «Раскачивающее» управление
- •19.19. Контролируемый и неконтролируемый глобальный риск. Проблемы понимания глобального риска
- •19.20. Общие модели поведения систем на грани устойчивости
- •19.21. Гипотеза техногуманитарного баланса
- •19.22. Схемы сценариев
- •19.23. Степень мотивации и осведомленности лиц, принимающих решения, как факторы глобального риска
- •19.24 Означает ли крах технологической цивилизации вымирание людей.
- •Глава 20. Факторы, влияющие на скорость прогресса
- •20.2. Закон Мура
- •Глава 21. Защита от глобальных рисков
- •21.1. Общее понятие о предотвратимости глобальных рисков
- •21.2. Активные щиты
- •21.3. Действующие и будущие щиты
- •21.4. Сохранение мирового баланса сил
- •21.5. Возможная система контроля над глобальными рисками
- •21.6. Сознательная остановка технологического прогресса
- •21.7. Средства превентивного удара
- •21.8. Удаление источников рисков на значительное расстояние от Земли
- •21.9. Создание автономных поселений в отдалённых уголках Земли
- •21.10. Создание досье на глобальные риски и рост общественного понимания связанной с ними проблематики
- •21.11. Убежища и бункеры
- •21.12. Опережающее расселение в космосе
- •21.13 «Всё как-нибудь обойдётся»
- •21.14 Деградация цивилизации до уровня устойчивого состояния
- •21.15 Предотвращение одной катастрофы с помощью другой
- •21.16 Опережающая эволюция человека
- •21.17 Возможная роль международных организаций в предотвращении глобальной катастрофы
- •21.18 Бесконечность Вселенной и вопрос об окончательности человеческого вымирания
- •21.19 Предположения о том, что мы живём в «Матрице».
- •21.20 Глобальные катастрофы и устройство общества
- •21.21 Глобальные катастрофы и текущая ситуация в мире
- •21.22 Мир после глобальной катастрофы
- •21.23 Мир без глобальной катастрофы: наилучший реалистичный вариант предотвращения глобальных катастроф
- •Максимализация функции удовольствия.
- •Глава 22. Непрямые способы оценки вероятности глобальной катастрофы
- •22.1. Закон Парето
- •22.2. Гипотеза о «Чёрной королеве»
- •22.3. Парадокс Ферми
- •22.4. Теорема о Конце света - «Doomsday argument». Формула Готта
- •22.5. Рассуждение о конце света Картера-Лесли
- •22.6. Непрямая оценка вероятности природных катастроф
- •22.7 Рассуждение о Симуляции
- •22.8. Интеграция различных непрямых оценок
- •Глава 23. Наиболее вероятный сценарий глобальной катастрофы
- •Часть 2. Методология анализа глобальных рисков Глава 1. Общие замечания. Ошибка как интеллектуальная катастрофа
- •Глава 2. Ошибки, возможные только относительно угроз существованию человечества
- •1. Путаница относительно глобальных катастроф и просто очень больших катастроф
- •2. Недооценка неочевидных рисков
- •3. Глобальные риски нетождественны национальной безопасности
- •4. Ошибка, связанная с психологизацией проблемы
- •5. Отождествление глобальной катастрофы со смертью всех людей и наоборот
- •6. Стереотип восприятия катастроф, который сложился в результате работы сми
- •7. Возможные ошибки, связанные с тем, что глобальная катастрофа ещё ни разу с нами не происходила
- •8. Когнитивное искажение, состоящее в том, что размышления о глобальных рисках автоматически включают некий архетип «спасателя мира»
- •9. Недооценка глобальных рисков из-за психологических механизмов игнорирования мыслей о собственной смерти
- •10. Ошибки, связанные с тем, что тот, кто исследует глобальные катастрофы в целом, вынужден полагаться на мнения экспертов в разных областях знания
- •11. Ошибка, связанная с тем, что глобальным рискам как целому уделяют меньше внимания, чем рискам катастрофы отдельных объектов
- •12. Ошибка, связанная с тем, что риск, приемлемый для одного человека или проекта, распространяется на всё человечество
- •13. Отсутствие ясного понимания того, к кому обращены указания на глобальные риски
- •14. Особенность связи теоретического и практического в отношении глобальных рисков
- •15. Ошибочные модели поведения, связанные с эволюционно сложившимися особенностями человеческого поведения
- •16. Ошибочное представление о том, что глобальные риски есть что-то отдалённое и не имеющее отношение к ближайшему будущему
- •17. Легкомысленное отношение к глобальным рискам, связанное с представлениями о мгновенности смерти
- •18. Представление о том, что книги и статьи о глобальных рисках могут значительно изменить ситуацию
- •19. Ошибочность мнения о том, что глобальные риски либо неизбежны, либо зависят от случайных, неподвластных человеку факторов, либо зависят от далёких правителей, повлиять на которых невозможно
- •20. Гордыня исследователя
- •21. Интуиция как источник ошибок в мышлении о глобальных рисках
- •22. Научное исследование глобальных рисков также сталкивается с рядом проблем
- •23. Ошибки, связанные с неучётом малоизвестных логических следствий абсолютности глобального риска
- •24. Методы, применимые к управлению экономическими и прочими рисками, не применимы к глобальным рискам
- •25. Трудности в определении понятия глобального риска в связи с нечёткостью его объекта
- •26 Ошибочное представление о том, что глобальные риски угрожают людям, только пока люди замкнуты на Земле, и переселение в космос автоматически снимет проблему
- •27. Психологическая особенность восприятия рисков человеком, называемая «пренебрежение масштабом»
- •28. Преувеличение прогностической ценности экстраполяции
- •29. Ошибочное представление о том, что люди в целом не хотят катастрофы и конца света
- •30. Смутность представлений о том, что именно является «поражающим фактором» в разных сценариях глобального риска
- •31. «Шок будущего»: когнитивные искажения, связанные с разными горизонтами возможного будущего в представлении разных людей
- •32. Представление о том, что глобальная катастрофа будет вызвана какой-то одной причиной
- •33. Недооценка системных факторов глобального риска
- •34. Призыва типа: «Мы все должны бороться за мир»
- •35. Недооценка предкризисных событий как элементов наступающей глобальной катастрофы
- •36. Когнитивное искажение, основанное на идее: «Это слишком плохо, чтобы быть правдой»
- •41. Неспособность человека представить свою собственную смерть
- •42. Подход к жизни в духе: «После нас хоть потоп»
- •43. Любая этическая позиция, которая не рассматривает выживание людей в качестве главной цели, более важной, чем любые другие цели
- •44. Религиозные мировоззрения и эсхатологические культы
- •45. Неопределённость значений новых терминов
- •Глава 3. Как когнитивные искажения, могущие касаться любых рисков, влияют на оценку глобальных рисков
- •1. Основной причиной человеческих ошибок является сверхуверенность
- •2. Чрезмерное внимание к медленно развивающимся процессам и недооценка быстрых
- •7. Консервативность мышления, связанная с естественным отбором наиболее устойчивых систем мировоззрения
- •8. Обнаружение ошибок в рассуждении о возможности некой конкретной катастрофы не является способом укрепления безопасности
- •9. Ни одно из направлений исследований в новых технологиях не может обеспечивать свою безопасность само по себе
- •10. Ошибочное представление о том, что когда проблема назреет, тогда к ней можно начать готовиться
- •11. Конкретные риски воспринимаются как более опасные, чем описанные в общих словах
- •12. Представления о том, что мышление о глобальных рисках – пессимистично
- •13. «Теории заговора» как препятствие для научного анализа глобальных рисков
- •14. Ошибки, связанные с путаницей краткосрочных, среднесрочных и долгосрочных прогнозов
- •15. Особенности человеческой эмоции страха
- •16. Недооценка значения удалённых событий (discount rate)
- •17. Сознательное нежелание знать неприятные факты
- •18. Эффект смещения внимания.
- •19. Интернет как источник возможных ошибок
- •20. Верования
- •21. Врождённые страхи
- •22. Ошибка, проистекающая из-за борьбы не с самим источником риска, а с сообщениями о риске
- •23. Трудность в определении границ собственного знания
- •24. Юмор как фактор возможных ошибок
- •25. Паника
- •26. Сонливость и другие факторы естественной неустойчивости человеческого сознания, влияющие на появление ошибок
- •27. Склонность людей бороться с опасностями, которые уже были в прошлом
- •28. Усталость от ожидания катастрофы
- •29. Экспертные оценки, не основанные на строгих вычислениях, не могут служить в качестве меры реальной вероятности
- •30. Игнорирование какого-либо из рисков по причине его незначительности по мнению эксперта
- •31. Недооценка или переоценка нашей способности противостоять глобальным рискам
- •32. Стокгольмский синдром
- •33. За ошибками оператора стоит неправильная подготовка
- •34. Группа людей может принимать худшие решения, чем каждый человек в отдельности
- •35. Ограниченность числа свободных регистров в уме человека и модель мышления, отражающаяся в каждом предложении: субъект-объект-действие – как возможные источники ошибок
- •36. Раскол футурологии по разным дисциплинам, как если бы эти процессы происходили независимо
- •37. Ситуация, когда вслед за меньшей проблемой следует большая, но мы неспособны этого заметить («Беда не приходит одна»)
- •38. Эффект избирательности внимания
- •39. Подсознательное желание катастрофы
- •40. Использование сообщений о рисках для привлечения внимания к себе, выбивания денег и повышения своего социального статуса
- •41. Использование темы глобальных рисков в качестве сюжета для развлекательных масс-медиа
- •42. Логическая ошибка генерализации на основании художественного вымысла
- •43. Идеи о противостоянии глобальным рискам с помощью организации единомышленников, связанных общей целью – обеспечить благо человечества
- •44. Секретность как источник ошибок в управлении рисками
- •45. Интеллектуальная установка на острую критику мешает обнаруживать опасные катастрофические сценарии
- •46. Ошибочность идеи о том, что безопасность чего-либо можно доказать теоретически
- •47. Недооценка человеческого фактора
- •48. Ошибочность идеи о том, что можно создать безошибочную систему, многократно проверив её проект и исходный код
- •49. Статистика как источник возможных ошибок
- •50. Ошибка, связанная со склонностью людей в большей мере учитывать широкоизвестные или легко доступные для вспоминания факты
- •51. Двойная ошибка
- •52. Анализ глобальных рисков не есть создание прогнозов
- •53. Иллюзия знания задним числом
- •54. Эффект настройки на источники информации
- •55. Принятие малого процесса за начало большой катастрофы
- •56. Более простое объяснение катастрофы подменяет более сложное
- •57. Использование апокалиптических сценариев, чтобы привлечь внимание к своим проектам и добиться их финансирования
- •58. Стремление людей установить некий приемлемый для них уровень риска
- •59. Эффект «сверхуверенности молодого профессионала»
- •60. Ощущение неуязвимости у выживших
- •61. Переоценка собственных профессиональных навыков.
- •62. Ошибка, связанная с концентрацией на мерах по предотвращению небольшой катастрофы вместо мер по предотвращения максимально возможной
- •63. Усталость исследователя
- •64. Страх потери социального статуса исследователями
- •65. Количество внимания, которое общество может уделить рискам, конечно
- •66. Пренебрежение экономикой
- •67. Ошибки, связанные с переоценкой или недооценкой значения морального состояния общества и его элит
- •68. Ошибка, связанная с тем, что вместе того, чтобы исследовать истинность или ложность некого сообщения о риске, человек стремится доказать эту идею как можно большему числу людей
- •69. Склонность людей предлагать «простые» и «очевидные» решения в сложных ситуациях – не подумав
- •70. Общественная дискуссия о рисках разных исследований может привести к тому, что учёные будут скрывать возможные риски, чтобы их проекты не закрыли
- •71. Ошибка, связанная с неправильной корреляцией силы и безопасности
- •72. Преждевременные инвестиции
- •73. Склонность людей смешивать свои ожидания того, вероятного и наилучшего исходов
- •74. Апатия прохожего
- •75. Потребность в завершении
- •76. Влияние авторитета и социальное давление группы
- •77. Разрыв между обзорными и точечными исследованиями, между «деревом и лесом»
- •78. Ошибка, связанная с интеллектуальной проекцией
- •79. Представление о том, что изменять обстоятельства следует, уничтожая их причины
- •80. Забвение основного принципа медицины – «Не навреди!»
- •81. Путаница между объективными и субъективными врагами
- •86. Верхняя граница возможной катастрофы формируется на основании прошлого опыта
- •87. Ошибка, связанная с неверным переносом закономерностей одной системы на другую
- •88. Двусмысленность и многозначность любого высказывания как источник возможной ошибки
- •89. Отказ рассматривать некий сценарий по причине его «невероятности»
- •90. Переход от обмана к самообману
- •91. Переоценка собственных возможностей вообще и выживаемости в частности
- •92. Стремление к прекрасному будущему, заслоняющее восприятие рисков
- •93. Фильтры, мешающие поступлению информации к руководству
- •94. Любопытство может оказаться сильнее страха смерти
- •95. Система и регламент
- •96. Эффект «стрелочника»
- •97. Минимальный воспринимаемый риск
- •98. Отвержение новых идей
- •99. Воздействие эмоциональной реакции шока
- •100. Проблемы отбора экспертов
- •101. Вина и ответственность как факторы предотвращения рисков
- •102. Недооценка сил инерции как фактора устойчивости систем
- •103. Мнения, обусловленные мировоззрением
- •104. Борьба за научный приоритет
- •105. Ошибка, связанная с сознательным и бессознательным нежеланием людей признать свою вину и масштаб катастрофы
- •106. Систематическая ошибка, связанная с эгоцентричностью
- •107. Систематическая ошибка, возникающая в связи с наличием или отсутствием явной причины событий
- •107. Зависимость реакции от скорости изменения величины
- •Глава 4. Общелогические ошибки, могущие проявиться в рассуждениях о глобальных рисках
- •1. Путаница между вероятностью, как мерой изменчивости объекта, и степенью уверенности, как мерой информации об объекте
- •2. Подмена анализа возможностей анализом целей
- •3. Неверное употребление индуктивной логики следующего вида: раз нечто очень давно не происходило, то это не будет происходить ещё очень долго
- •4. Мышление, обусловленное желанием нечто доказать
- •5. Логическая ошибка, возникающая при попытках доказать, что нужно делать, исходя только из описания фактов
- •6. Ошибки, связанные с подменой анализа рисков анализом коммерческих мотивов тех, кто о них говорит
- •7. Использование так называемого «авторитетного знания»
- •8. Неправильное применение идеи о том, что теория должна считаться истинной, только если она доказана
- •9. Восприятие новой информации через призму старой
- •10. Ошибка в выборе нейтральной позиции
- •11. Уверенность как источник ошибок
- •12. Использование полностью ошибочной логики
- •13. Смешение преднауки и псевдонауки
- •14. Ошибка, связанная с неправильным определением статуса «универсалий»
- •15. Утверждения о возможности чего-то и невозможности неравносильны
- •16. Очевидности как источник ошибок
- •17. Недооценка собственной ошибочности
- •18. Ошибка, связанная с представлением о том, что каждое событие имеет одну причину
- •24. Санкт-Петербургский парадокс
- •Глава 5. Специфические ошибки, возникающие в дискуссиях об опасности неконтролируемого развития искусственного интеллекта
- •1. Разброс мнений по вопросу о безопасности ии означает отсутствие реальных доказательств безопасности
- •2. Ошибочной является идея о том, что можно создать безошибочную систему, многократно проверив её проект и исходный код
- •3. Ошибки в критике ии Пенроузом
- •4. Представление о том, что 3-х законов робототехники а.Азимова достаточно, чтобы решить все проблемы с безопасностью ии
- •5. Ошибочные представления о том, что прогресс в области программного обеспечения отсутствует
- •6. Ошибочные представления о том, что никто в мире не занимается такой «малоперспективной» темой как ии
- •7. Ошибочные представления о том, что ии – это разные конкретные приложения, вроде техники распознания образов
- •14. Ошибочное представление о том, что современные компьютеры очень ограничены в своих возможностях, поэтому Ии будет только в отдалённом будущем
- •15. Ошибочное представление о том, что прогресс в понимании работы мозга идёт очень медленно, поэтому ии будет работать очень медленно
- •16. Ошибочное представление о том, что человек способен делать X (подставить нужное), что никогда не сможет делать ии, и поэтому Ии не представляет никакой угрозы
- •17. Ошибочное представление о том, что ии невозможен, потому что он мыслит алгоритмически, а человек – неалгоритмически
- •18. Ошибочное представление о том, что ии будет примерно такой же умный, как и человек
- •19. Ошибочное представление о том, что ии будет равноправным сотрудником человека с теми же возможностями и правами
- •20. Ошибочное представление о том, что ии будет много
- •21. Различия в понимании того, что, собственно, является интеллектом
- •22. Ошибочное однозначное отождествление ии с отдельным объектом
- •23. Ошибочное представление о том, что достаточно спрятать ии в «чёрный ящик», чтобы он стал безопасен
- •24. Ошибочное возражение следующего рода: «в Японии уже был проект по созданию Ии в 80-е годы, и он потерпел неудачу, поэтому ии невозможен»
- •25. Ошибочное представление о том, что ии надо дать команду X (подставить нужное), и всё будет в порядке
- •26. Ошибочное представление в духе: «Когда я достигну эффективности в реализации Ии, я подумаю о его безопасности»
- •12. Э. Дрекслер о возможных возражениях реализуемости нанотехнологий
- •13. Наша склонность ожидать грандиозных результатов только от грандиозных причин
- •14. Ошибочное представление о том, что детали наномашин будут слипаться в силу квантовых, вандерваальсовых и прочих сил
- •15. Ошибочное представление о том, что активный нанотехнологический щит, подобный иммунной системе, будет идеальной защитой от опасных нанороботов
- •16. Ошибочное представление о том, что Дрекслер – фантазёр, а настоящие нанотехнологии состоят в чём-то другом
- •Глава 7. Выводы из анализа когнитивных искажений в оценке глобальных рисков и возможные правила для эффективной оценки глобальных рисков
- •Открытая дискуссия как точка отсчёта
- •2. Принцип предосторожности
- •Заключение. Перспективы предотвращения глобальных катастроф
- •Литература
- •Приложение. Таблица катастроф
- •Примечания:
Примечания:
1 Малинецкий Георгий Геннадиевич (род. 1956, Уфа) — российский математик. Доктор физико-математических наук, профессор, заместитель директора Института прикладной математики им. М. В. Келдыша РАН (ИПМ).
1 Более подробно обо всём рассказано в книге С.П. Капицы, С.П. Курдюмова, Г.Г. Малинецкого. Синергетика и прогнозы будущего. 3-е издание. М.: Едиториал УРСС, 2003.-288с.
1 Математическая теория режимов с обострением создавалась с начала 1980-х годов в научной школе чл.-корр РАН Сергея Павловича Курдюмова в Институте прикладной математики им. М.В. Келдыша РАН. В своих статьях, книгах, выступлениях С.П. Курдюмов порой сетовал, что главные для развития человечества вопросы пока не вызывают интереса и внимания. Но будущее уже на пороге и закрывать на него глаза уже нельзя.
1 Этот текст принадлежит перу талантливого журналиста. Ваннах М. Грозовые ожидания. Рейтинг популярных страшилок XXI века // Компьютерра, 2008, №19, с.34-36.
2 Сигида А. Мертвое дело. Пора привыкать к заморозкам – Русский репортер, 5-12 июня, 2008, с.38-39
1 Лем С. Сумма технологии. Собрание сочинений, том тринадцатый, дополнительный. М.: Текст, 1996.-463с.
1 Степанов С. А. Страх и трепет в кн. Азимова А. Выбор катастроф. -Спб.: Амфора, 2001, с.5-10
2 Кросс Л., Шеррер Р. Наступит ли конец космологии? Ускоряющаяся вселенная уничтожает следы собственного прошлого // В мире науки, 2008, №6, с.31-37.
1 Подробности есть в книге. В. А. Владимирова, Ю. Л. Воробьёва, Г Г. Малинецкого и др. Управление риском. Риск. Устойчивое развитие. Синергетика. М.: наука, 2000, -431с.
1 Хитгенс Т. Звездные войны // В мире науки, 2008, №6, с.63-69
1 Малинецкий Г Г., Подлазов А. В., Кузнецов И. В. О национальной системе научного мониторинга// Вестник РАН. 2005. Т.75, №7, с.1‑16.
1 Более ранняя версия этой части исследования вышла в сборнике Института системного анализа РАН в виде статьи «О возможных причинах недооценки рисков гибели человеческой цивилизации».2
1 То есть, представлением о том, что будущее описывается как несколько гипотез, вначале равноправных, но затем их вероятности, или точнее, степени достоверности, уменьшаются или увеличиваются по мере поступления новой информации по формуле Байеса.
1 Очевидно, что по мере того, как проблема будет приближаться к нам по времени и конкретизироваться, мы сможем получить более точные оценки в некоторых конкретных случаях, особенно, в легко формализуемых задачах типа пролёта астероидов и последствий ядерной войны.
1 Sir Martin Rees. Our final hour. 2003.
2 сборнике Института системного анализа РАН в виде статьи «О возможных причинах недооценки рисков гибели человеческой цивилизации»
3 John Leslie. The End of the World: The Science and Ethics of Human Extinction. 1996
4 Sir Martin Rees. Our final hour.
5 R.Posner. Catastrophe. Risk and reaction. NY, 2004
6 Bostrom, N. and M. Cirkovic eds. Global Catastrophic Risks. Oxford University Press. 2008
7 Yudkowsky E. Cognitive biases potentially affecting judgment of global risks.
8 Ник Бостром. Угрозы существованию. Анализ сценариев человеческого вымирания и подобных опасностей.
9 Там же.
10 Станислав Лем. "О невозможности прогнозирования".
11 Yudkowsky E. Cognitive biases potentially affecting judgment of global risks.
12 Там же.
13 http://www.krugosvet.ru/articles/101/1010143/1010143a1.htm
14 http://neo.jpl.nasa.gov/risk/doc/palermo.html
15 Yudkowsky E. Cognitive biases potentially affecting judgment of global risks
16 Эти люди публиковали специальные исследования на тему рисков человеческого вымирания.
17 John Leslie. The End of the World: The Science and Ethics of Human Extinction. 1996
18 Ник Бостром. Угрозы существованию. Анализ сценариев человеческого вымирания и подобных опасностей.
19 Sir Martin Rees. Our final hour.
20 О чём пишел С,Лем в «Фантастике и футурологии».
21 Об этом пишет Бостром в «Анализе сценариев вымирания».
22 А. П. Назаретяна. «Цивилизационные кризисы в контексте Универсальной истории», М., УРСС, 2001.
23 Е.А.Абрамян. Долго ли осталось нам жить? Судьба цивилизации: Анализ обстановки в мире и перспектив будущего. http://savefuture.ru/index.php?option=com_content&task=category§ionid=2&id=2&Itemid=4
24 http://www.mirozdanie.narod.ru/
25 http://www.poteplenie.ru/
26 Новые технологии и продолжение эволюции человека. Диалоги о будущем. Т.1., М., УРСС 2008.
27 Ник Бостром. Угрозы существованию. Анализ сценариев человеческого вымирания и подобных опасностей. http://www.proza.ru/texts/2007/04/04-210.html
28 Согласно Н.Бострому «Анализ сценариев вымирания».
29 . Reactor-Grade Plutonium Can be Used to Make Powerful and Reliable Nuclear Weapons: Separated plutonium in the fuel cycle must be protected as if it were nuclear weapons.http://www.fas.org/rlg/980826-pu.htm
30 The Effects of a Global Thermonuclear War 4th edition: escalation in 1988. by Wm. Robert Johnston http://www.johnstonsarchive.net/nuclear/nuclearwar1.html
31 "Nuclear autumn - new research on the nuclear winter theory". Discover. Sept 1986.
32 Н.Н. Моисеев, В.В. Александров, А.М. Тарко. Человек и биосфера. М., 1985
33 И.М. Абдурагимов. «О несостоятельности концепции «ядерной ночи» и «ядерной зимы» вследствие пожаров после ядерного поражения». http://www.pojar01.ru/11/PROCESS_GOR/ST/ST_ABDURAG_YADERN/text2.html
34 Р. Фрейтас. Проблема серой слизи.
35 А.Робок. Ядерная зима в современной модели климата при существующих ядерных арсеналах: последствия по-прежнему катастрофичны». http://climate.envsci.rutgers.edu/pdf/RobockNW2006JD008235Russian.pdf
36 Об этом сказано в статье С.Г. Геворкян, И.С. Геворкян «Преднамеренные антропогенные экологические катастрофы», «Эволюция», 2006, N3. со ссылкой на работу Ю.А Израэля «Экологические последствия возможной ядерной войны» // Метеорология и гидрология, 1983, N10.
37 С.С. Бекенов Критерии и оценки продовольственной безопасности http://www.krsu.edu.kg/vestnik/2003/v2/a03.html)
38 Robock, Alan, Luke Oman, and Georgiy L. Stenchikov, 2007: Nuclear winter revisited with a modern climate model and current nuclear arsenals: Still catastrophic consequences. J. Geophys. Res., 112, D13107, doi:2006JD008235. русский перевод: http://climate.envsci.rutgers.edu/pdf/RobockNW2006JD008235Russian.pdf
39 См. статью из «Знания сила» с обзором этих событий: Александр волков. Природа скрывает "бомбы с часовым механизмом" http://64.233.183.104/search?q=cache:4q1iD_1SW4MJ:www.inauka.ru/analysis/article75841.html+%D0%B8%D0%B7%D0%B2%D0%B5%D1%80%D0%B6%D0%B5%D0%BD%D0%B8%D0%B9+%D0%B2%D1%83%D0%BB%D0%BA%D0%B0%D0%BD%D0%BE%D0%B2+%D0%B2+VI+%D0%B2%D0%B5%D0%BA%D0%B5+535&hl=ru&ct=clnk&cd=2&client=opera
40 См. подробно http://www-eps.harvard.edu/people/faculty/hoffman/snowball_paper.html
41 Как предлагает Jon Roland. Nuclear Winter and Other Scenarios. http://www.pynthan.com/vri/nwaos.htm#HIMH
42 ,Jon Roland. Nuclear Winter and Other Scenarios. http://www.pynthan.com/vri/nwaos.htm#HIMH
43 Jon Roland. Nuclear Winter and Other Scenarios, 1984. рукопись. http://www.pynthan.com/vri/nwaos.htm
44 Подробнее можно посмотреть, например, здесь: http://www.nuclear-weapons.nm.ru/theory/dirty_bombs.htm
45 Данные отсюда: http://www.tls.timesonline.co.uk/article/0,,25350-2648363,00.html
46 Или 1-2 миликюри, как говорил Жуйков, заведующий радиоизотопной лабораторией Института ядерных исследований РАН, на радиостанции «Эхо Москвы». (http://64.233.183.104/search?q=cache:on4goP1QV3kJ:www.troitsk.ru/parser.php%3Fp_id%3D11%26r_id%3D58%26c_id%3D198%26an_cur_part%3D1%26a_id%3D2531%26view_msg%3D1+%D0%BB%D0%B8%D1%82%D0%B2%D0%B8%D0%BD%D0%B5%D0%BD%D0%BA%D0%BE+%D0%BA%D1%8E%D1%80%D0%B8&hl=ru&ct=clnk&cd=15&client=opera)
47 Александр Колдобский. Осторожно – термояд! http://www.geocities.com/barga44/protiv1.rtf
48 В. Б. Адамский, Ю. Н. Смирнов. 50-мегатонный взрыв над Новой Землей. Вtp://vivovoco.rsl.ru/VV/PAPERS/HISTORY/SAKHAROV.HTM.
49 «Астероид лишил Америку нефти». http://www.gazeta.ru/science/2008/04/29_a_2710258.shtml, Combustion of fossil organic matter at the Cretaceous-Paleogene (K-P) boundary http://www.gsajournals.org/perlserv/?request=get-abstract&doi=10.1130%2FG24646A.1&ct=1)
50 LA-602 Ignaition of atmosphere with nuclear bomb http://www.sciencemadness.org/lanl1_a/lib-www/la-pubs/00329010.pdf
51 Шкловский. Звёзды, их рождение, жизнь и смерть. М. Наука, 1984.
52 http://www.proza.ru/texts/2008/07/19/466.html
53 Andre Gsponer and Jean-Pierre Hurni Antimatter weapons. http://cui.unige.ch/isi/sscr/phys/antim-BPP.html
54 Л.П. Феоктистов. Термоядерная детонация. УФН 168 1247 (1998) http://www.ufn.ru/ru/articles/1998/11/f/
55 Чак Хансен «Ядерное оружие США». "Урановая пушка", включенная в состав устройства, не была первым решением, рассмотренным разработчиками Лос-Аламоса; первоначальная бомба пушечного типа имела длину 17 футов (512 см.) и являлась оружием с плутониевым наполнением, которой для предотвращения преждевременной детонации требовалось сдвижение системы "мишень-снаряд" со скоростью 3000 футов в секунду (903 м/с). Цит. по "Давайте обсудим физику ядерного терроризма, г-н Колдобский!" http://www.nasledie.ru/terror/25_7/7_1/article.php?art=0
56 Arjun Makhijani and Hisham Zerriffi. Dangerous Thermonuclear Quest http://www.ieer.org/reports/fusion/chap4.html.
57 Николай Карпан. Атомной энергетике не отмыться от Чернобыля. // Зеркало недели. № 13 (592) 8 — 14 апреля 2006 http://pripyat.com/ru/publications/2006/04/08/750.html
58 «Зона отчуждения, режим присвоения» http://www.expert.ru/printissues/ukraine/2007/48/zona_otchyzhdeniya/ - например, в Белоруссии разрешается вести сельское хозяйство и при 40 кюри на кв. км., что не сильно отличается от уровней в 300 кюри, а значит, уровни в 300 кюри не могут дать гарантированного вымирания
59Александр Анисимов. Развитие стратегических сил Китая и проблема адекватности ситуации внешней политики США // «Россия XXI». 2002. № 4. С. 28,. № 5 С.66 http://ecc.ru/XXI/RUS_21/ARXIV/2002/anisimov_2002_4.htm
60 Bruce Blair. Logic of accidental nuclear war.
61 Хелманн : "Гуру" криптографии оценил риск ядерной войны http://rnd.cnews.ru/liberal_arts/news/top/index_science.shtml?2008/04/07/295802, его страница со статьёй Martin Hellman "Risk Analysis of Nuclear Deterrence». http://nuclearrisk.org/index.php
62 Nevil Shute. On the Beach (1957). Пер. - Н.Галь. М., "Художественная литература", 1991http://www.lib.ru/INPROZ/SHUT/on_beach.txt.)
63 «Ядерное нераспространение в эпоху глобализации», под редакцией Алексея Арбатова и Василия Михеева. М, фонд Карнеги, 2007, http://www.knogg.net/n/3_12.htm
64 John Leslie. The End of the World.
65 http://www.ieer.org/russian/pubs/dlrtbk-r.html
66 В книге «Развитие Земли». Сорохтин Олег Георгиевич, Ушаков Сергей Александрович. Глава «происхождение и эволюция атмосферы на Земле». Текст доступен здесь: http://astro-world.narod.ru/archive/books/geo/book2/ch10.pdf
67 «Обнаружен огромный подземный океан». http://geoman.ru/news/item/f00/s02/n0000244/index.shtml
68 «Газовые гидраты и климат земли». http://geo.web.ru/db/msg.html?uri=page3.htm&mid=1161561
69 Сывороткин Владимир Леонидович. «Экологические аспекты дегазации Земли». http://geo.web.ru/db/msg.html?mid=1172931&uri=part22.htm
70 А. Портнов. «Как погибла жизнь на Марсе» http://www.meteorite.narod.ru/proba/stati/stati107.htm
71 John Leslie. The End of the World.
72 А. Портнов. «Как погибла жизнь на Марсе».
73 http://www.wired.com/science/discoveries/news/2007/11/igem_winner сообщение об этом прокомментировано следующей шуткой: «Осторожно, это продукт содержит маленькие части, которые могут истребить нашу цивилизацию. Использовать под наблюдением взрослых».
74 Адина А. Новые творцы. Игры, в которые играют боги. Популярная механика, Июль 2005. http://www.popmech.ru/part/print.php?articleid=259&rubricid=3
75 По этой ссылке можно посмотреть цены на подержанные ДНК-синтезаторы: http://www.labx.com/v2/newad.cfm?catID=14
76 Ю. Чирков. Ожившие химеры. Стр. 106.
77 Там же, стр. 109.
78 http://www.homeoint.org/kotok/vaccines/news12.02.htm
79 «Генетический хакер может создать биологическое оружие у себя дома». Перевод статьи «Биовойна для чайников» - «Biowar for Dummies» by Paul Boutin http://www.membrana.ru/articles/global/2006/02/22/220500.html
80 ‘Our final hour’ – стр. 74.
81 Green Goo: The New Nano-Threat. http://www.wired.com/medtech/health/news/2004/07/64235
82 http://news.yahoo.com/s/time/20080915/us_time/thearmystotallyseriousmindcontrolproject;_ylt=Ag6k7VZPDxl_X5rtgfYDzkWs0NUE
83 Р.Докинз. Эгоистичный ген. http://warrax.net/51/dawkins/cover_dawkins.html
84 Это реальный термин в современной философии сознания. Большую подборку статей по-английски можно найти здесь: http://consc.net/online/1/all#zombies Краткое изложение проблемы по-русски: «Зомби и искусственный интеллект» http://philos.miem.edu.ru/6/257.htm
85 Хорошее введение в проблему квалиа есть в английской Википедии. http://en.wikipedia.org/wiki/Qualia Специальные работы по проблеме можно найти здесь: http://consc.net/online/1/all#qualia
86 «By demonstrating that their simulation is realistic, the researchers say, these results suggest that an entire mammal brain could be completely modeled within three years, and a human brain within the next decade». http://www.technologyreview.com/Biotech/19767/
87 Русский перевод статьи доступен здесь: http://mikeai.nm.ru/russian/superint.html опубликовано здесь: Int. Jour. of Future Studies, 1998, vol. 2.
88 'Larry Page, Google Look Into AI:'
http://www.webpronews.com/topnews/2007/02/19/larry-page-google-look-into-ai
89 http://www.agiri.org/wiki/index.php?title=Novamente_Cognition_Engine
90 http://www.singinst.org/blog/2007/07/31/siai-why-we-exist-and-our-short-term-research-program/
91 http://www.numenta.com/about-numenta/numenta-technology.php
92 http://www.opencyc.org/
93 Eurisko, The Computer With A Mind Of Its Own http://www.aliciapatterson.org/APF0704/Johnson/Johnson.html
94 http://www.adaptiveai.com/
95 http://www.genetic-programming.com/humancompetitive.html
По-русски можно почитать в журнале «В мире науки» 2003 N 6. Пересказ статьи в Интернете: http://www.cirota.ru/forum/view.php?subj=58515
96 А. Л. Шамис. Пути моделирования мышления. М. УРСС, 2006.
97 Stephen M. Omohundro. The Basic AI Drives. http://selfawaresystems.files.wordpress.com/2007/12/ai_drives_final.pdf
98 'Кило процессоров на кончике пальца в разы обгоняет классические камни' http://www.membrana.ru/articles/technic/2006/04/05/190100.html
99 Как утверждает Юдковски в дискуссионном листе SL4.
100 См. Е. Юдковски. Таблица критических ошибок Дружественного ИИ. http://www.proza.ru/texts/2007/07/09-228.html
101 Мною выполнен перевод их на русский язык: «Siai рекомендации по созданию дружественного ИИ». http://www.proza.ru/texts/2007/07/13-272.html
102 В отношении шахмат этот принцип сформулировал Стейниц.
103 А именно, упоминавшихся уже работ Юдковски и Ономудро.
104 Р. Пенроуз. Новый ум короля.
105 Андрей Лазарчук, Петр Лелик «Голем хочет жить». http://www.tigerschool.org/item_31.html
106Ethanol bill fuels food Costs http://money.cnn.com/2007/12/07/news/economy/biofuels/index.htm?postversion=2007120712
107 Перевод опубликован в журнале «Компьютере». http://old.computerra.ru/online/firstpage/14084/for_print.html
108 Краткие сведения о проекте есть в Википедии. http://en.wikipedia.org/wiki/Eurisko
109 http://www.darpa.mil/ipto/programs/bica/ Доступ с российских компьютеров закрыт.
110 См. Е. Юдковски. Таблица критических ошибок Дружественного ИИ. http://www.proza.ru/texts/2007/07/09-228.html
111 М.К. Бакулин. "ГОЛУБАЯ КРОВЬ" НУЖНА МИКРООРГАНИЗМАМ И БИОТЕХНОЛОГАМ
РОССИЙСКИЙ БИОМЕДИЦИНСКИЙ ЖУРНАл ТОМ 5, СТ. 81 (стр. 240-241) // Июнь 2004. Здесь дана оценка времени деления в 20 минут. http://www.medline.ru/public/art/tom5/art8-perf68.phtml А здесь оценка дана в 15-30 минут http://ggau.info/moodle/mod/resource/view.php?id=481
112 Э.Дрекслер, Машины созидания, 1986.
113 Христиан Шафмейстер «Молекулярный конструктор», в мире науки», 2007 N 9., стр. 55.
114 http://e-drexler.com/p/07/00/1204TechnologyRoadmap.html
115 Р.Фрейтас. «Проблема Серой слизи» http://www.proza.ru/texts/2007/11/07/59.html Полное название: "Some Limits to Global Ecophagy by Biovorous Nanoreplicators, with Public Policy Recommendations» . http://www.rfreitas.com/Nano/Ecophagy.htm
116 Dangers of Molecular Manufacturing http://www.crnano.org/dangers.htm, русский перевод http://www.proza.ru/texts/2008/04/08/430.html
117 http://www.darpa.mil/dso/thrusts/materials/multfunmat/nav/index.htm
118 http://reprap.org/bin/view/Main/WebHome
119 Robert A. Freitas Jr. Michael Vassar. Lifeboat Foundation Nanoshield
http://www.kurzweilai.net/meme/frame.html?main=/articles/art0685.html?m%3D2
120 С.Лем. Непобедимый, 1964
121 Я перевёл её на русский: http://www.proza.ru/texts/2007/11/07/59.html
122 Болонкин А. «Искусственный взрыв Солнца: реальная угроза человечеству»
http://lasthot.ru/forum/news/3645-iskusstvennyjj-vzryv-solnca-realnaja-ugroza-chelovechestvu.html
123 Richard C. Hoagland. Did NASA Accidentally “Nuke” Jupiter?
http://www.enterprisemission.com/NukingJupiter.html
124 О возможности искусственной инициации взрыва планет-гигантов и других объектов Солнечной системы. http://www.proza.ru/texts/2008/07/19/466.html
125 Tomas Weaver and A. Wood Necessary conditions for the initiation and propagation of nuclear detonation waves in plane atmospheras., Physical review 20 – 1 Jule 1979, http://www.lhcdefense.org/pdf/LHC%20-%20Sancho%20v.%20Doe%20-%20Atmosphere%20Ignition%20-%202%20-%20Wood_AtmIgnition-1.pdf
126 М. АДЖИЕВ Осторожно, тяжелая вода! Мttp://n-t.ru/tp/mr/otv.htm
127 «Буровые разведчики навсегда включили грязный вулкан».
http://www.membrana.ru/print.html?1169755080
128 Статья опубликована в Nature в 2003 г.: David Stevenson «A Modest Proposal: Mission to Earth’s Core». http://web.gps.caltech.edu/faculty/stevenson/coremission/mission_to_core_(annot).pdf
129 Милан Чиркович, Ричард Каткарт, «Гео-инженерия, пошедшая насмарку: новое частное решение парадокса Ферми». Мой перевод на русский язык здесь: http://www.proza.ru/texts/2007/11/10/290.html
130 Личное сообщение Л.Я. Арановича. Работа выполнена на грант РФФИ.
131 Six Places to Nuke When You’re Serious
http://www.acceleratingfuture.com/michael/blog/?p=120
132 http://www.oko-planet.spb.ru/?open&h=1&p=6_2&type=viewmes&site=235C6
133 study of potentially dangerous events during heavy-ion collisions at the lhc: Report of the lhc safety study group. http://doc.cern.ch/yellowrep/2003/2003-001/p1.pdf
134 The Potential for Danger in Particle Collider Experiments.
http://www.risk-evaluation-forum.org/anon1.htm
135 Adrian Kent. A critical look at risk assessments for global catastrophes.
http://arxiv.org/pdf/hep-ph/0009204
136 Краткий обзор и дополнительную литературу можно найти здесь: Макс Тегмарк и Ник Бостром. «Насколько невероятна катастрофа судного дня?» arXiv:astro-ph/0512204v2 Мой перевод на русский язык: http://www.proza.ru/texts/2007/04/11-348.html
137 См. там же.
138 High Energy Colliders as Black Hole Factories: The End of Short Distance Physics
Steven B. Giddings, Scott Thomas http://xxx.lanl.gov/abs/hep-ph/0106219
139 Do black holes radiate? Adam D. Helfer http://xxx.lanl.gov/abs/gr-qc/0304042
140 John Leslie. The End of the World: The Science and Ethics of Human Extinction. 1996.
141 The Late Time Behavior of False Vacuum Decay: Possible Implications for Cosmology and Metastable Inflating States http://arxiv.org/abs/0711.1821
142 http://www.gazeta.ru/science/2007/11/23_a_2333388.shtml
143 Архипов А.В. Археологический аспект исследований Луны // Астрономический вестник.- 1994.- Т.28.- N4-5.- С.211-214. см. http://www.arracis.com.ua/moon/m312.html
144 См. статью А.Зайцева «sending and searching for interstellar messages» http://fire.relarn.ru/126/docs/iac_07_a4_2.02.pdf.
145 D. Brin. SHOUTING AT THE COSMOS. ...Or How SETI has Taken a Worrisome Turn Into Dangerous Territory. http://lifeboat.com/ex/shouting.at.the.cosmos
146G. Cocconi and P. Morrison. Searching for Interstellar Communications. Nature, Vol. 184, Number 4690, pp. 844-846, September 19, 1959.
147 См. по-русски обзор А. Торгашов «Избранные места из переписки с инопланетянами». Русский репортёр 20 марта 2008 г. .http://www.expert.ru/printissues/russian_reporter/2008/10/obschenie_s_vselennoy/
148 Такого мнения придерживался под конец жизни И.С. Шкловский, автор знаменитой книги «Вселенная, жизнь, разум», отметим также исследование P. Ward. Rare Earth, 2002.
149 А.Д. Панов. Универсальная эволюция и проблема поиска внеземного разума (SETI). М., УРСС, 2007.
150 Ф. Хойл, Дж. Эллиот. Андромеда. М., 1966.
151 H. Moravec. Mind Children: The Future of Robot and Human Intelligence, 1988.
152 R. A. Carrigan Jr. Do potential SETI signals need to be decontaminated? Acta Astronautica. Volume 58, Issue 2, January 2006, Pages 112-117. http://home.fnal.gov/~carrigan/SETI/SETI_Hacker_AC-03-IAA-8-3-06.pdf, русский перевод: Р. Кэрриген. Следует ли обеззараживать сигналы SETI? http://www.proza.ru/texts/2007/11/20/582.html
153 http://cosmicos.sourceforge.net/
154 E Yudkowsky. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Forthcoming in Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic, - UK, Oxford University Press, to appear 2008. (Русский перевод: Е. Юдковски. Искусственный интеллект как позитивный и негативный фактор глобального риска. http://www.proza.ru/texts/2007/03/22-285.html)
155 В. Виндж. Пламя над бездной, 1991.
156 B. Joy. Why the future doesn't need us. Wired. 2000. http://www.wired.com/wired/archive/8.04/joy_pr.html
157 Declaration Of Principles Concerning Activities Following The Detection Of Extraterrestrial Intelligence http://www.davidbrin.com/firstsetiprotocol.html
158 Max Tegmark (MIT), Nick Bostrom. How unlikely is a doomsday catastrophe? Nature, Vol. 438 (2005): p. 754; Макс Тегмарк и Ник Бостром. Насколько невероятна катастрофа судного дня? http://www.proza.ru/texts/2007/04/11-348.html
159 См. например: http://www.inopressa.ru/telegraph/2007/12/27/15:25:17/universe
160 Phantom Energy and Cosmic Doomsday. Robert R. Caldwell, Marc Kamionkowski, Nevin N. Weinberg. http://xxx.itep.ru/abs/astro-ph/0302506
161 Ученые предсказывают второй Большой взрыв.
http://www.inauka.ru/news/article79929.html %20
162 Декан выбросил в 10 раз больше газов, чем астероид, и убил динозавров
http://www.podrobnosti.ua/history/2007/10/30/469305.html
163 http://www.oko-planet.spb.ru/?open&h=1&p=1_2&type=viewmes&site=18ADFA
164 взрывы пара в земле. Некая теория. http://king-of-vulcans.narod.ru/work.htm
165 А.Азимов. «Выбор катастроф».
166 Владислав Пустынский. «Последствия падения на Землю крупных астероидов». http://www.meteorite.narod.ru/proba/stati/stati58.htm
167 С.А.Вишневский (Институт минералогии и петрографии СО РАН)
«Импактные события и вымирания организмов».
http://www.meteorite.narod.ru/proba/stati/stati57.htm
168 Морская астроблема вблизи Антарктиды http://vivovoco.rsl.ru/VV/NEWS/PRIRODA/PR_08_98.HTM
169 W. M. Napier,1,2_ J. T. Wickramasinghe and N. C. Wickramasinghe_Extreme albedo comets and the impact hazard. Mon. Not. R. Astron. Soc. 355, 191–195 (2004)
170 William Napier. Hazards from comets and asteroids. Опубликовано: Global Catastrophic Risks, Edited by Nick Bostrom и Milan M. Cirkovic OXPORD UNIVERSITY PRESS, 2008, русский перевод: http://www.scribd.com/doc/9726345/-
171 «Динозавров погубило столкновение астероидов в 400 млн. км от Земли».
http://www.rambler.ru/news/science/0/11116242.html
172 http://www.john-daly.com/solar.htm
173 Р.Киппенхан. «100 миллиардов СОЛНЦ». http://www.universe.boom.ru/100.html
«Что же будет дальше? Что произойдет, когда все больше водорода будет выгорать и в центре Солнца будет накапливаться гелий? Модельные расчеты показывают прежде всего, что в ближайшие 5 миллиардов лет практически ничего не изменится. Солнце будет медленно (как показано на рис. 5.1) перемещаться вверх по своему пути развития на диаграмме Г-Р. Светимость Солнца при этом будет постепенно повышаться, а температура на его поверхности вначале станет чуть выше, а затем начнет медленно снижаться. Но все эти изменения будут невелики. Через 10 миллиардов лет после начала горения водорода светимость Солнца будет всего в два раза выше нынешней».
174 График продуктивности жизни и светимости солнца, где ноль – через 800 млн. лет - г. Александровский. бегство от умирающего солнца. – наука и жизнь, 08, 2001г. http://nauka.relis.ru/05/0108/05108042.htm
175 Шкловский «Звёзды: их рождение, жизнь и смерть».
«Возраст Солнца известен – около 5 миллиардов лет. За такой огромный срок уже можно ожидать некоторого уменьшения содержания водорода в центральной части нашего светила, так как заметная часть первоначального запаса водородного горючего Солнца уже израсходована – все-таки Солнце светит очень долго... Тут-то и кроется известная неопределенность в расчете модели Солнца, которая должна быть неоднородной. Какой процент солнечного водорода выгорел и в каком объеме?».
176 Там же, c. 169.
177 Arnon Dar. Influence of Supernovae, gamma-ray bursts, solar flares, and cosmic rays on the terrestrial environment в книге Global catastrophic risks, 2008 русский перевод: См. Арнон Дар. Влияние сверхновых, гамма-всплесков, солнечных вспышек и космических лучей на земную окружающую среду.http://www.scribd.com/doc/10310965/-
178 Arnon Dar, Ibid.
179 См. обзор теории и рисков гамма всплесков: Б.Штерн «Гамма-всплески: секундные катастрофы галактического масштаба». http://www.scientific.ru/journal/burst2.html
180 Binary 'deathstar' has Earth in its sights, Cosmos magazine 1.03.2008. http://www.cosmosmagazine.com/node/1878
181 WR 104: Technical Questions. http://www.physics.usyd.edu.au/~gekko/pinwheel/tech_faq.html
182 Штерн, там же.
183 A. Melott, B. Lieberman, C. Laird, L. Martin, M. Medvedev, B. Thomas Did a gamma-ray burst initiate the late Ordovician mass extinction? arxiv.org/abs/astro-ph/0309415, по-русски: Гамма-лучи могли вызвать на Земле ледниковый период. http://www.membrana.ru/articles/global/2003/09/25/200500.html
184 J.I.Collar. Biological Effects of Stellar Collapse Neutrinos. Phys.Rev.Lett. 76 (1996) 999-1002 http://arxiv.org/abs/astro-ph/9505028
185 А.В.Турчин «Природные катастрофы и антропный принцип».
186 Neil Gehrels, Claude M. Laird, Charles H. Jackman, John K. Cannizzo, Barbara J. Mattson, Wan Chen. Ozone Depletion from Nearby Supernovae Astrophysical Journal 585: 1169–1176. Retrieved on 2007-02-01. http://xxx.lanl.gov/abs/astro-ph/0211361
187 Michael Richmond. Will a Nearby Supernova Endanger Life on Earth?
http://www.tass-survey.org/richmond/answers/snrisks.txt
188 Nearby Supernova May Have Caused Mini-Extinction, Scientists Say
http://www.sciencedaily.com/releases/1999/08/990803073658.htm
189 «Обнаружен огромный подземный океан».
http://geoman.ru/news/item/f00/s02/n0000244/index.shtml
190 М.Г.Савин, Кувырок магнитного поля. http://www.inauka.ru/analysis/article72812.html
191 http://www.rian.ru/science/20080828/150747064.html
192 Evidence for a very-long-term trend in geomagnetic secular variation.
Andrew J. Biggin, Geert H. M. A. Strik & Cor G. Langereis, Увеличение размеров ядра Земли сделало её магнитное поле лишь менее стабильнымhttp://www.gazeta.ru/news/science/2008/05/05/n_1215200.shtml,
193 http://en.wikipedia.org/wiki/Colony_Collapse_Disorder
194 http://environment.newscientist.com/channel/earth/mg19425983.700-billions-at-risk-from-wheat-superblight.html
195 Супотинский о СПИД http://supotnitskiy.webspecialist.ru/stat/stat3.html
196 «Воссоздан вирус, убивший 50 млн. людей» http://news.bbc.co.uk/hi/russian/sci/tech/newsid_4314000/4314344.stm
197 Анисичкин В. О взрывах планет. // 1998. Труды V Забабахинских чтений, Снежинск. http://www.vniitf.ru/rig/konfer/5zst/Section2/2-4r.pdf
198 Detecting a Nuclear Fission Reactor at the Center of the Earth http://arxiv.org/pdf/hep-ex/0208038
199 Красилов В.А. Модель биосферных кризисов. Экосистемные перестройки и эволюция биосферы. Вып. 4. М.: Издание Палеонтологического института, 2001. С. 9-16. http://macroevolution.narod.ru/krmodelcrisis.htm
200 А.Г.Пархомов. «О возможных эффектах, связанных с малыми чёрными дырами». http://www.chronos.msu.ru/RREPORTS/parkhomov_o_vozmozhnykh.pdf
201 http://en.wikipedia.org/wiki/Hawking_radiation
202 Gregory Ryskin. Methane-driven oceanic eruptions and mass extinctions. Geology 31, 741 - 744 2003. http://pangea.stanford.edu/Oceans/GES205/methaneGeology.pdf
203 Orlando Férez (1970). "Notes on the Tropical Cyclones of Puerto Rico". San Juan, Puerto Rico National Weather Servicehttp://www.aoml.noaa.gov/hrd/data_sub/perez_11_20.pdf, http://en.wikipedia.org/wiki/Great_Hurricane_of_1780
204 Emanuel, Kerry (1996-09-16). "Limits on Hurricane Intensity". Center for Meteorology and Physical Oceanography , MIT, http://wind.mit.edu/~emanuel/holem/holem.html, популярное изложение http://en.wikipedia.org/wiki/Hypercane
205 Дробышевский Э.М. Опасность взрыва Каллисто и приоритетность космических миссий // 1999. Журнал технической физики, том 69, вып. 9. http://www.ioffe.ru/journals/jtf/1999/09/p10-14.pdf
206 http://www.rambler.ru/news/science/0/11116242.html
207 Турчин А.В. Природные катастрофы и антропный принцип.
208 Макс Тегмарк и Ник Бостром. Насколько невероятна катастрофа судного дня? arXiv:astro-ph/0512204v2. http://www.proza.ru/texts/2007/04/11-348.html
209 Rohde Robert A. & Muller Richard A. Cycles in fossil diversity. NATURE, VOL 434, 10 MARCH 2005 http://muller.lbl.gov/papers/Rohde-Muller-Nature.pdf
210 А.В.Карнаухов «К вопросу об устойчивости химического баланса атмосферы и теплового баланса земли». Биофизика, том 39, вып. 1. 1994 http://poteplenie.ru/doc/Biophysics_1994_Greenhouse_rus.pdf
211 http://www.pereplet.ru/text/karnauhov1.html
212 http://www.poteplenie.ru/news/news170905.htm
213 Андрей Ваганов. «сценарии парниковой катастрофы». http://science.ng.ru/policy/2001-04-18/1_accident.html
214 Arctic Clathrates Contain 3,000 Times More Methane Than in Atmosphere
Methane Burps: Ticking Time Bomb JOHN ATCHESON / Baltimore Sun 16dec04
http://www.mindfully.org/Air/2004/Methane-Arctic-Warming16dec04.htm
215 См. например Ю. А. Дядин, А. Л. Гущин. Газовые гидраты и климат земли. Соросовский Образовательный Журнал, N3, 1998, cтр.55-64 http://geo.web.ru/db/msg.html?uri=page3.htm&mid=1161561 и Иващенко О.В. «Изменение климата и изменение циклов обращения парниковых газов в системе атмосфера-литосфера-гидросфера - обратные связи могут значительно усилить парниковый эффект». http://www.poteplenie.ru/news/news170905.htm
216 http://www.polit.ru/news/2006/01/17/independent.html
217 Start-Up Sells Solar Panels at Lower-Than-Usual Costhttp://www.nytimes.com/2007/12/18/technology/18solar.html?_r=1&oref=slogin
218 A Framework for Offshore Wind Energy Development in the United States
http://www.mtpc.org/offshore/final_09_20.pdf
219 http://wdstudio.net/gulfstreamturbine/index.htm
220 Гидраты метана – энергоресурс будущего? http://www.dw-world.de/dw/article/0,2144,2331483,00.html
221 Дмитрий Верхотуров, Илья Кирилловский. Агротехнологии будущего: от пашни к заводу. Конец крестьянства. http://www.apn.ru/publications/article18767.htm
222 Капица С.П. Об ускорении исторического времени. http://vivovoco.rsl.ru/VV/JOURNAL/NEWHIST/KAPTIME.HTM
223 Michael Foote, James S. Crampton, Alan G. Beu, Bruce A. Marshall, Roger A. Cooper, Phillip A. Maxwell, Iain Matcham. Rise and Fall of Species Occupancy in Cenozoic Fossil Mollusks // Science. 2007. V. 318. P. 1131–1134.)) Русский пересказ здесь: http://elementy.ru/news/430634
224 См. здесь http://entomology.ifas.ufl.edu/creatures/misc/bees/ahb.htm
225 Медведев Данила. Конвергенция технологий как фактор эволюции. http://www.transhumanism-russia.ru/content/view/317/116/ вышла в первом сборнике РТД «Диалоги о будущем».
226Arthur J. Olson, Yunfeng H. E. Hu, and Ehud Keinan. Chemical mimicry of viral capsid assembly. self- http://tc2tc.mojolingo.xuite.net/m2m-0000/www.pnas.org/cgi/reprint/0709489104v1
227 Heidi Ledford. The power of a single neuron. http://www.nature.com/news/2007/071219/full/news.2007.392.html
228 пересказ документа в газете «Коммерсант» http://kommersant.ru/doc.aspx?DocsID=803524
229 Jared Diamond Collapse: How Societies Choose to Fail or Succeed. Viking Adult, 2004. Русская рецензия: http://elementy.ru/lib/164676
230 К.Еськова «История Земли и жизни на ней». М., МИРОС — МАИК «Наука/Интерпериодика», 2000. http://warrax.net/51/eskov/cover_eskov.html
231 А.И.Солженицын. «Красное колесо».
232 Банкротство "Леман Бразерс" похоронило американский фондовый рынок http://russianews.ru/news/17698
233 http://www.vhemt.org/
234 Dangers of Molecular Manufacturing. http://www.crnano.org/dangers.htm
235 Anthrax Case Renews Questions on Bioterror
http://www.nytimes.com/2008/08/03/us/03anthrax.html?_r=1&hp&oref=slogin
236 Берд Киви. Следствие окончено, забудьте. http://offline.computerra.ru/2008/747/370384/
237 Об этом сообщает Блейр в своей книге Bruce G. Blair. The Logic of Accidental Nuclear War, доступной здесь: http://books.google.com/books?id=cs1J3h_28AUC&pg=PA1&ots=Vbd63DAJxg&dq=,+ACCIDENTAL+NUCLEAR+WAR&sig=ZyWYztlA8gKpm1sWeCWBx0XvZig
238 Sir Martin Rees, Our final hour, с 71.
239Джордж Сорос. Кризис мирового капитализма. Открытое общество в опасности. Пер. с англ. - М.: ИНФРА-М, 1999. - XXVI, 262 с. http://capitalizm.narod.ru/
240 Розмаинский И.В. «Гипотеза финансовой нестабильности» Мински: теория делового цикла XXI века». http://ie.boom.ru/Rozmainsky/fragilation.htm
241 Charles Perrow. Normal Accidents: Living with High-Risk Technologies. Princeton University Press. 1999.
242 Charles Perrow. Normal Accidents: Living with High-Risk Technologies. Princeton University Press. 1999.
243 А.Д.Панов. «Кризис планетарного цикла Универсальной истории и возможная роль программы SETI в посткризисном развитии». http://lnfm1.sai.msu.ru/SETI/koi/articles/krizis.html
244 Вернор Виндж. Технологическая Сингулярность. http://www.computerra.ru/Authors/2922/
245 http://www.computerra.ru/Authors/2922/
246 http://www.proza.ru/texts/2007/07/08-42.html
247 http://www.proza.ru/texts/2007/05/14-31.html
248 http://transhumanism.org/languages/russian/dawnofsingularity/Deering.htm
249 Станислав Лем. Системы оружия двадцать первого века или эволюция вверх ногами. http://bio.fizteh.ru/student/diff_articles/weapon_xxi.html
250 Эрик Дрекслер. «Машины созидания», гл.13. http://mikeai.nm.ru/russian/eoc/eoc.html
251 Владимиров В.А., Малинецкий Г.Г., Потапов А.Б. и др. Управление риском. Риск, устойчивое развитие, синергетика.
252 А.Назаретян. Цивилизационные кризисы в контексте Универсальной истории.
М., 2001. http://macroevolution.narod.ru/nazaretyan03.htm
253 Во всяком случае, такую интерпретацию причин войны предлагает Дэниел Ергин в книге «Добыча. Всемирная история борьбы за нефть, деньги и власть».
254 Если исходить из объёмов финансирования Lifeboat Foundation, которые tсть на их сайте, а также нескольких других подобных организаций с соизмеримыми бюджетами – таких как Future of Humanity Institute и Centre for responsible nanotechnology.
255 Ray Kurzweil. ‘The law of acceleration returns’. http://www.kurzweilai.net/articles/art0134.html?printable=1
256 Kurzweil, Ray 2001, Essay: The Law of Accelerating Returns
257 А.Д. Панов. Универсальная эволюция и проблема поиска внеземного разума (SETI). М., УРСС, 2007
258 http://www.electronics.ru/issue/1998/1/17
259 Cм. Сайт фонда Lifeboat Foundation www.lifeboat.com
260 Три «трещины» ДНЯО. http://www.bellona.ru/reports/1174945172.33/htmlreport_view
261 Michael M. Wagner. Handbook of Biosurveillance. Academic Press, 2006.
262 См. подробнее на эту тему на сайте Lifeboat http://lifeboat.com/ex/bio.shield
263 Center of responsible nanotechnology (CRN). Dangers of Molecular Manufacturing. http://www.crnano.org/dangers.htm
264 SIAI рекомендации по созданию дружественного ИИ. http://www.proza.ru/texts/2007/07/13-272.html
265 «Машины созидания», глава 12.
266 Дмитрий Глуховский. Метро 2033. М., 2007. http://www.metro2033.ru
267 http://www.membrana.ru/lenta/?6009
268 Brin D. Singularities and Nightmares. Nanotechnology Perceptions: A Review of Ultraprecision. Engineering and Nanotechnology, Volume 2, No. 1, March 27 2006. Русский перевод: Дэвид Брин. Сингулярность и кошмары. http://www.proza.ru/texts/2007/05/14-31.html
269 Тегмарк Макс. Параллельные Вселенные. http://www.everettica.org/article.php3?ind=126
270 Joshua Knobe, Ken D. Olum and Alexander Vilenkin. Philosophical Implications of Inflationary Cosmology. http://philsci-archive.pitt.edu/archive/00001149/00/cosmology.pdf
271 M. Tegmark. The interpretation of quantum mechanics: many worlds or many words? 1998, Fortschr. Phys. 46, 855-862. http://arxiv.org/pdf/quant-ph/9709032
272 Джеймс Хигго. «Означает ли многомирная интерпретация квантовой механики бессмертие?» Русский перевод здесь: http://www.proza.ru/texts/2007/05/22-04.html
273 Are You Living In a Computer Simulation? Nick Bostrom. Philosophical Quarterly, 2003, Vol. 53, No. 211, pp. 243-255., http://www.simulation-argument.com/, русский сокращённый перевод здесь: http://alt-future.narod.ru/Future/bostrom3.htm
274 Robin Hanson. Catastrophe, Social Collapse, and Human Extinction \\ August 2007 Global Catastrophic Risks, ed. Nick Bostrom. http://hanson.gmu.edu/collapse.pdf
275 а.в. марков. Возвращение черной королевы, или закон роста средней продолжительности существования родов в процессе эволюции. Журн. Общей Биологии, 2000. Т.61. № 4. С. 357-369. http://macroevolution.narod.ru/redqueen.htm.
276 См. например: Алексеев Александр Сергеевич. Массовые вымирания в фанерозое. Диссертация на соискание ученой степени доктор геолого-минералогических наук по специальности 04.00.09 палеонтология и стратиграфии. http://macroevolution.narod.ru/alekseev.htm
277 http://www.amazon.com/gp/product/0387955011/ref=wl_it_dp?ie=UTF8&coliid=I10HTWX6ORKBSZ&colid=3KJUU5O04VUIZ
278 Carlton M. Caves. Predicting Future Duration from Present Age:A Critical Assessment.
http://info.phys.unm.edu/papers/2000/Caves2000a.pdf
279 John Leslie. The End of the World: The Science and Ethics of Human Extinction, L., 2003.
280 Ник Бостром. Doomsday Argument жив и брыкается. http://www.proza.ru/texts/2007/05/20-267.html
281 Carlton M. Caves. Predicting Future Duration from Present Age: A Critical Assessment. http://info.phys.unm.edu/papers/2000/Caves2000a.pdf
282 J. R. Gott III, “Implications of the Copernican principle for our future prospects,” Nature, 363, 315–319 (1993).
283 Max Tegmark & Nick Bostrom. How Unlikely is a Doomsday Catastrophe? Nature, 438, 754, 2005, arXiv: astro-ph/0512204v2. Макс Тегмарк и Ник Бостром. Насколько невероятна катастрофа судного дня? http://www.proza.ru/texts/2007/04/11-348.html
284 Are You Living In a Computer Simulation? Nick Bostrom. Philosophical Quarterly, 2003, Vol. 53, No. 211, pp. 243-255, http://www.simulation-argument.com/, русский сокращённый перевод здесь: http://alt-future.narod.ru/Future/bostrom3.htm
285 Данила Медведев «Живём ли мы в спекуляции Ника Бострома?» http://danila.spb.ru/papers/antisim/russim.html
286 istván a. Aranyosi. The doomsday simulation argument. http://www.personal.ceu.hu/students/03/Istvan_Aranyosi/Doomsday%%20Simulation/The%%20Doomsday%%20Simulation%%20Argument%%20by%%20I.A.%%20Aranyosi.pdf
287 Joshua Knobe, Ken D. Olum and Alexander Vilenkin. Philosophical Implications of Inflationary Cosmology. British Journal for the Philosophy of Science Volume 57, Number 1, March 2006 , pp. 47-67(21) http://philsci-archive.pitt.edu/archive/00001149/00/cosmology.pdf
288 См. например: http://ru.wikipedia.org/wiki/Квалиа
289 А именно, это рефлексивное применение используется для его опровержения. Lansberg и Dewynne. «A probable paradox», Nature from 23 October 1997. Краткое изложение дискуссии см. в http://en.wikipedia.org/wiki/Self-referencing_doomsday_argument_rebuttal
290 Nick Bostrom. Technological Revolutions: Ethics and Policy in the Dark. http://www.nickbostrom.com/revolutions.pdf
291 Е. Юдковски. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков. http://www.proza.ru/texts/2007/03/08-62.html
292 Nate Hagens. Peak Oil - Believe it or Not? http://www.theoildrum.com/node/3178#more
293 Алексей Турчин. Природные катастрофы и антропный принцип.
294 Ник Бостром. Угрозы существованию. Анализ сценариев человеческого вымирания и подобных опасностей. http://www.proza.ru/texts/2007/04/04-210.html
295 Е. Юдковски. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков. http://www.proza.ru/texts/2007/03/08-62.html
296 Об этой кочующей футурологической легенде упоминает С.Лем http://mars-x.ru/san/10/80_1.shtml
297 А.П. Назаретян, Цивилизационные кризисы в контексте Универсальной истории, М., 2001.
298 «Бумажный тигр биотерроризма». Часть 1. Не кричи «волки»! http://www.cbio.ru/modules/news/article.php?storyid=261
299 Е. Юдковски. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков. http://www.proza.ru/texts/2007/03/08-62.html
300 См. статью об ошибках в оценке пика нефти. http://www.theoildrum.com/node/3178#more
301 Sir Martin Rees. Our final hour, с.65.
302 Там же, с.65.
303 А.Камю. «Миф о Сизифе. Эссе об абсурде», в сб. Сумерки богов, М., 1990.
304 "Pentagon confirms Soviets were on war alert", Pacific Stars and Stripes, October 14, 1984, p4.
305 Как пишет сэр Мартин Рис.
306 Е. Юдковски. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков.
307 Там же.
308 В статье «Угрозы существованию. Анализ сценариев человеческого вымирания и подобных опасностей».
309 См. Kruglanski A. W. Lay Epistemics and Human Knowledge: Cognitive and Motivational Bases. 1989.
310 Л. Росс, Р. Нисбетт. Человек и ситуация: Уроки социальной психологии. http://evolkov.iatp.ru/social_psychology/Ross_L_Nisbett_R/index.html
311 На самом Оккам имел в виду вовсе не это, см. http://ivanov-petrov.livejournal.com/19980.html#cutid1
312 С. Капица, С. Курдюмов, Г. Малинецкий. Синергетика и прогнозы будущего, 2001
313 http://balancer.ru/community/viewtopic.php?id=24539&p=6
314 С. Капица, С. Курдюмов, Г. Малинецкий. Синергетика и прогнозы будущего, 2001
315 Ю.А. Александровский и др. Психогении в экстремальных условиях, М.1991. стр. 17.
316 С. Капица, С. Курдюмов, Г. Малинецкий. Синергетика и прогнозы будущего, 2001
317 Ross, M. & Sicoly, F. (1979). Egocentric biases in availability and attribution. Journal of Personality and Social Psychology 37, 322-336.
318 http://www.acceleratingfuture.com/michael/blog/?p=539
319 Турчин А.В. Природные катастрофы и антропный принцип.
320 Nick Bostrom. Antropic principle in science and philosophy. L. 2003
321 «No trade theorem» гласит: Вы не должны торговать на рынке, даже если имеете для этого возможность, так как тот факт, что кто-то другой желает занять противоположную вам сторону в сделке, является наилучшим доказательством того, что его информация о ситуации так же хороша, как и ваша. См. подробнее http://www.overcomingbias.com/2008/02/buy-now-or-fore.html#comments или оригинальную статью здесь: Paul Milgrom, Nancy Stokey, "Information, trade and common knowledge", Journal of Economic Theory, Volume 26:1, pp. 17-27. 1982 http://www.stanford.edu/~milgrom/publishedarticles/Information%%20Trade%%20and%%20Common%%20Knowledge.pdf
322 Matthew R. Simmons. Twilight in the Desert: The Coming Saudi Oil Shock and the World Economy. NY, 2005.
323 http://forum.aicommunity.org/viewtopic.php?t=2206
324 Роджер Пенроуз. Новый ум короля. О компьютерах, мышлении и законах физики. УРСС, 2005 г.
325 Интересную критику и дискуссию по Пенроузу можно найти здесь: http://fregimus.livejournal.com/8524.html
326 Джон фон Нейман. Теория самовоспроизводящихся автоматов. М., Мир, 1971.
327 См. сайт «3 Laws Unsafe», где собраны разные критические статьи на эту тему http://www.asimovlaws.com/
328 Как утверждает Юдковски в дискуссионном листе SL4.
329 AI box experiment. http://www.yudkowsky.net/essays/aibox.html
330 См. http://www.memsnet.org/mems/what-is.html
331 Э.Дрекслер. Машины созидания. http://www.mikeai.nm.ru/russian/eoc/eoc.html
332 Там же.
333 http://www.crnano.org/
334 Raffensberger C, Tickner J (eds.) Protecting Public Health and the Environment: Implementing the Precautionary Principle. Island Press, Washington, DC, 1999.
335 Роджер Хайфилд. На Луне планируется устроить "ковчег на случай апокалипсиса". http://inopressa.ru/telegraph/2008/03/11/16:42:15/moon