- •Препринт
- •Часть 1. Общие обзоры темы 6
- •Часть 2. Оценка вероятности глобальной катастрофы 201
- •Часть 3. Глобальные риски и новые технологии 374
- •Часть 4. Глобальные риски, связанные с природными катастрофами 545
- •Предисловие
- •Часть 1. Общие обзоры темы глобальных рисков Билл Джой. Почему мы не нужны будущему
- •Вернор Виндж. Технологическая Сингулярность
- •Ник Бостром. Угрозы существованию: Анализ сценариев человеческого вымирания и других подобных опасностей.
- •Введение
- •Типология рисков
- •Риски существованию
- •Уникальность проблемы угроз существованию
- •4. Классификация рисков существованию
- •5. Взрывы
- •5.1. Преднамеренное злоупотребление нанотехнологиями
- •5.2. Ядерный холокост
- •5.3. Мы живем в симуляции, и она выключается
- •5.5. Генетически сконструированный биологический объект
- •5.6. Ошибочное применение опасных нанотехнологий («серая слизь»).
- •5.7. Нечто непредвиденное
- •5.8. Катастрофы в результате физических экспериментов
- •5.9. Естественно возникшее заболевание
- •5.10. Столкновение с астероидом или кометой
- •5.11. Неудержимое глобальное потепление
- •6. Сужения
- •6.1. Истощение ресурсов или разрушение экологии
- •6.2. Сбившееся с курса мировое правительство или другое неподвижное социальное равновесие остановит технологический прогресс
- •6.3. Давление «вырождения»
- •6.4. Технологическая остановка
- •7. Скрипы
- •7.2. Сверхинтеллект с ошибкой
- •7.3. Глобальный репрессивный тоталитарный режим
- •7.4. Нечто непредвиденное1
- •8. Всхлипы
- •8.1. Наш потенциал и даже наши базовые ценности разъедаются развитием в ходе эволюции
- •8.2 Уничтожение внеземной цивилизацией
- •9.2 Парадокс Ферми
- •9.3 Эффекты наблюдательной селекции
- •9.4 Рассуждение о Симуляции
- •9.5 Когнитивные искажения
- •9.6 Оценка собранных данных
- •10. Рекомендации, касающиеся стратегии и этики
- •10.1. Поднимать известность проблемы рисков существованию
- •10.2 Создать структуру для международных действий
- •10.3 Сохранять готовность к превентивному действию в качестве последнего средства
- •10.4 Регулирование скорости развития технологий
- •10.5 Программы, направленные на прямое уменьшение конкретных угроз существованию
- •10.6. Максипок: эмпирическое правило для этичных поступков
- •Выражения признательности
- •Приложение: очерк эволюционного «всхлипа»
- •Библиография
- •Елиезер Юдковски. Когнитивные искажения, влияющие на оценку глобальных рисков
- •Введение
- •1. Доступность информации
- •2. Когнитивные искажения, связанная со знанием «задним числом».
- •3. Черные лебеди
- •4. Ошибочное включение лишнего элемента
- •5. Ошибочность рассуждений, вызванная эффектом подтверждения
- •6. Якорение, настройка и загрязнение
- •7. Рассуждения, обусловленные аффектом
- •8. Пренебрежение масштабом
- •9. Калибровка и сверхуверенность
- •10. Апатия прохожего
- •Последнее предупреждение
- •Заключение
- •Рекомендуемое чтение
- •Библиография
- •Дэвид Брин. Сингулярность и кошмары
- •А.А. Кононов.Идеологические начала общей теории неуничтожимости человечества
- •Угрозы уничтожения человечества
- •Неуничтожимость как главная сверхзадача цивилизации
- •Качества неуничтожимой цивилизации
- •О необходимости разработки теоретических основ решения задач неуничтожимости человечества
- •Робин Хансен. Катастрофа, социальный коллапс и человеческое вымирание
- •Алексей Турчин. Процессы с положительной обратной связью как основной механизм глобальных катастроф
- •Часть 2. Оценка вероятности глобальной катастрофы Ник Бостром1, Макс Тегмарк2. Насколько невероятна катастрофа судного дня?
- •Ник Бостром. Рассуждение о Конце Света для начинающих
- •Ник Бостром. Doomsday Argument жив и брыкается
- •Ник Бостром Доказательство симуляции
- •1.Введение
- •2. Предположение о независимости от носителя
- •3.Технологические пределы вычислений
- •4. Ядро доказательства о симуляции
- •5. Мягкий принцип равнозначности
- •6. Интепретация
- •7. Заключение
- •Введение: угрозы существованию и эффекты наблюдательной селекции
- •«Карманная» модель антропного искажения1
- •Обобщение модели
- •Антропное искажение: недооценка естественных угроз
- •Какие угрозы существованию подвержены антропной тени?
- •Антропные тени и риски физических экспериментов
- •Заключение
- •Приложение: словарь
- •Благодарности
- •Алексей Турчин. Природные катастрофы и антропный принцип
- •Введение
- •1. Антропный принцип. Эффект наблюдательной селекции. Результаты Бострома и Тегмарка
- •2. Природные катастрофы
- •3. Применение антропного принципа для анализа частоты природных катастроф
- •4. Нарушение устойчивости природных систем, находящихся на грани равновесия, в связи с человеческой деятельностью
- •5. Быстрая эволюция разума в периоды высокой интенсивности природных катастроф
- •6. Заключение
- •Приложение a. Плотность наблюдателей во вселенной, частота катастроф и антропный принцип
- •Литература:
- •Тоби Орд, Рафаела Хиллербранд, Андрес Сандберг. Проверяя непроверяемое: методологические вызовы в оценке рисков с низкой вероятностью и высокими ставками
- •Введение
- •Оценка вероятностей
- •3. Теории, модели и вычисления
- •4. Применение нашего анализа к рискам экспериментов на ускорителях
- •5. Заключение
- •Эдриан Кент. Критический обзор оценок рисков глобальных катастроф
- •Часть 3. Глобальные риски и новые технологии Eлиезер Юдковски. Искусственный интеллект как позитивный и негативный фактор глобального риска
- •1. Систематическая ошибка, связанная с антропоморфизмом
- •1.1: Широта пространства возможных устройств ума
- •2: Предсказание и устройство
- •4: Способности и мотивы
- •4.1: Процессы оптимизации
- •4.2: Наведение на цель
- •5: Дружественный ии
- •6: Техническая неудача и философская неудача
- •6.1: Пример философской ошибки
- •6.2: Пример технической неудачи
- •7: Темпы усиления интеллекта
- •8: Оборудование
- •9: Угрозы и перспективы
- •10: Локальные стратегии и стратегии большинства
- •11: Ии и усиление человеческого интеллекта
- •12: Взаимодействие ии и других технологий
- •13: Ход прогресса в области Дружественного ии
- •Роберт Фрейтас. Проблема Серой Слизи
- •Crn. Опасности молекулярного производства
- •М. Вассер, р.Фрайтас. Проект «Нанощит»
- •Алексей Карнаухов. Парниковая катастрофа.
- •Милан Чиркович, Ричард Каткарт. Гео-инженерия, пошедшая насмарку: новое частное решение парадокса Ферми
- •1. Введение
- •2. Макроинженерия и сценарий катастрофы
- •3. Миссия к центру Земли
- •4.Начало процесса вымирания
- •5.Применение сказанного к проблемам астробиологии
- •6. Культурологические и климатологические аспекты
- •7.Заключение
- •Ричард Керригэн. Следует ли обеззараживать сигналы seti?
- •А.В.Турчин. Глобальные риски, связанные с программой seti
- •1. История вопроса
- •2. Сценарий возможной атаки
- •3. Анализ возможных целей атаки
- •4. Возражения
- •П.Д. Смит. Кобальтовая бомба (отрывок из книги «Люди судного дня»)
- •Часть 4. Глобальные риски, связанные с природными катастрофами Владислав Пустынский. Последствия падения на Землю крупных астероидов
- •Уильям Нейпьер. Опасность комет и астероидов
- •1. Нечто вроде огромной горы
- •2.Как часто по нам бьют?
- •2.1 Ударные кратеры
- •2.2. Поиск околоземных объектов
- •2.3. Динамический анализ
- •3. Эффекты столкновения
- •4. Роль пыли
- •5. Наземная проверка?
- •6. Неопределённости
- •Майкл Рампино. Супервулканизм и другие катастрофические геофизические процессы
- •3. Вулканическая зима
- •4. Возможные последствия сверхизвержения для окружающей среды
- •5. Сверх-извержения и человеческая популяция
- •6. Частота сверхизвержений
- •7. Влияние сверхизвержения на цивилизацию
- •8. Сверхизвержения и жизнь во Вселенной
- •Арнон Дар. Влияние сверхновых, гамма-всплесков, солнечных вспышек и космических лучей на земную окружающую среду
- •1. Введение
- •2. Радиационные угрозы
- •2.1 Достоверные угрозы
- •2.2. Солнечные вспышки
- •2.3. Солнечная активность и глобальное потепление
- •2.4 Вымирание в результате солнечной активности
- •2.5 Излучение от взрывов сверхновых
- •2.6 Гамма-всплески
- •3. Угрозы от космических лучей.
- •3.1 Изменения магнитного поля Земли
- •3.2 Солнечная активность, космические лучи и глобальное потепление
- •3.3 Прохождение через галактические спиральные рукава
- •3.4 Космические лучи от недалёкой сверхновой
- •3.5. Космические лучи от гамма-всплесков.
- •4. Причины крупнейших массовых вымираний
- •5. Парадокс Ферми и массовые вымирания
5. Заключение
При оценке вероятностей катастрофы недостаточно сделать консервативные оценки (используя наиболее экстремальные значения или предположения в моделях, совместимые с известными данными). Скорее, мы нуждаемся в мощных оценках, которые могут учитывать ошибки в теории, модели и вычислениях. Потребность в этом становится особенно большой при оценке событий с высокими ставками и низкой вероятностью, хотя мы не утверждаем, что низкие вероятности не могут учитываться систематически. В действительности, как указал (Yudkowsky 2008), если бы люди не могли точно предсказывать вероятности менее, чем 10-6, то организаторы лотереи не могли бы получать доходы от неё.
Некоторые люди высказали озабоченность о том, что наше доказательство может быть слишком сильным: согласно ему невозможно опровергнуть риск чего-либо даже самого простого, как падение карандаша, и поэтому из наших аргументов должна следовать необходимость запретить всё. Это верно, что мы не можем полностью исключить какую-либо вероятность того, что с виду безобидные действия могут иметь ужасающий эффект, но есть ряд причин, по которым мы не должны заботится о всемирном запрете. Основная причина того, что мы не должны заботится о всемирном запрете событий в духе падения карандаша, у которых нет убедительного механизма уничтожения мира, состоит в том, что выглядит в той же мере вероятным, что мир будет уничтожен из-за не бросания карандаша. Ожидаемые потери уравновешивают друг друга. Также следует отметить, что наше доказательство – это просто обращение к мягкой форме теории принятия решений для анализа необычной концепции: для того, чтобы наш метод оказался неверен, должна быть ошибка в самой теории принятия решений, что само по себе было бы большим откровением.
Некоторым читателям может показаться, что наше доказательство полностью применимо к самой этой статье: есть шанс, что мы сделали ошибку в самом нашем доказательстве. Мы полностью согласны, но должны отметить, что эта возможность не сильно изменяет нашего вывода. Предположим, очень пессимистично, что есть 90% шансы, что наше доказательство содержит существенную ошибку и что правильным подходом является принимать выводы отчётов о безопасности без коррекции. Даже если так, наше рассуждение значительно изменит то, как мы рассматриваем эти выводы. Вспомните, например, раздел 2, где отчёт давал вероятность в 10-9, и мы изменили ее на 10-6. Если есть хотя бы 10% шанс, что мы были правы в этом, то тогда полная оценка вероятности должна быть изменена на 0.9*10-9 + 0.1*10-6 =10-7, что всё равно представляет весьма значительный сдвиг от исходной оценки, данной в отчёте. Говоря вкратце, даже серьёзные сомнения в достоверности нашего метода не должны сдвинуть оценки больше чем на порядок от тех, кто наш метод предлагает. Более умеренные сомнения будут иметь ещё меньший эффект. (Некоторые ошибки возможны и при переводе это статьи, но они не должны изменить основной вывод – прим.пер.) Основная идея нашей статьи состоит в том, что любая научная оценка риска может дать нам только вероятность опасного события при условии верности основного аргумента. Необходимость оценить надёжность данного доказательства для того, чтобы адекватно взаимодействовать с риском, является особенно необходимой, как было нами показано, в отношении событий с высокими ставками и низкой вероятностью. Мы вывели трёхуровневое разделение между теорией, моделью и вычислениями, и показали, как она может быть более удобна, чем классическое разделение между неопределённостью модели и параметров. Дав исторические примеры ошибок на всех трёх уровнях, мы прояснили это трёхуровневое различие и показали, где могут случаться ошибки в оценке рисков.
Наш анализ рисков был применён к недавним оценкам рисков, которые могут возникнуть в области физики элементарных частиц. В заключении этой статьи мы хотели бы дать несколько самых общих советов о том, как избегать ошибок в доказательствах при оценках рисков с высокими ставками. Во-первых, проверяемость предсказаний может помочь обнаружить ошибочные аргументы. Если оценка риска даёт распределение вероятности для меньших и более обычных катастроф, то это может быть использовано для того, чтобы судить о том, согласуются ли наблюдаемые катастрофы с теорией. Во-вторых, повторяемость результатов выглядит наиболее эффективным способом удалить многие ошибки. Мы можем значительно увеличить достоверность вычислений, если другие люди независимо их повторят. Если другие теории и модели независимо предсказывают тот уже уровень риска, то наша уверенность в этих результатах должна возрасти, даже если один из результатов ложен, другие сохраняют свою силу. Наконец, мы можем уменьшить вероятность бессознательной предубёждённости, разделив работу по оценке риска на две группы экспертов: на «синюю» группу, которые будут пытаться дать объективный анализ, и «красную группу» «адвокатов дьявола», которые будут стремиться продемонстрировать риск, и эти группы будут подвергать друг друга взаимному критицизму, что приведёт к усовершенствованию моделей и оценок (Calogero 2000). Применение таких методов может уменьшить вероятность ошибки на несколько порядков.
References
Bloch, J. (2006). "Extra, Extra – Read All About It: Nearly All Binary Searches and M e r g e s o r t s a r e B r o k e n . " f r o m http://googleresearch.blogspot.com/2006/06/extra-extra-read-all-about-itnearly.html.
Burchfield, J. D. (1975). Lord Kelvin and the Age of the Earth. New York, Science History Publications.
Calogero, F. (2000). "Might a laboratory experiment destroy planet earth?"
Interdisciplinary Science Reviews 25(3): 191-202.
Cartwright, N. (1999). Dappled World: A Study of the Boundaries of Science. Cambridge, Cambridge University Press.
Cokol, M., I. Iossifov, et al. (2007). "How many scientific papers should be retracted?" Embo Reports 8(5): 422-423.
Dar, A., A. De Rujula, et al. (1999). "Will relativistic heavy-ion colliders destroy our planet?" Physics Letters B 470(1-4): 142-148.
Dimopoulos, S. and G. Landsberg (2001). "Black holes at the large hadron collider." Physical Review Letters 8716(16): art. no.-161602.
ESA (1996). ARIANE 5 Flight 501 Failure: Report by the Inquiry Board.
García-Berthou, E. and C. Alcaraz (2004). "Incongruence between test statistics and P values in medical papers." BMC Medical Research Methodology 4(13).
Gartler, S. M. (2006). "The chromosome number in humans: a brief history." Nature Reviews Genetics 7(8): 655-U1.
Giddings, S. B. and M. M. Mangano. (2008). "Astrophysical implications of hypothetical stable TeV-scale black holes." arXiv:0806.3381
Giere, R. N. (1999). Science without Laws. Chicago, University of Chicago Press.
Hansson, S. O. (1996). "Decision making under great uncertainty." Philosophy of the Social Sciences 26: 369-386.
Hempel, C. G. (1950). "Problems and Changes in the Empiricist Criterion of Meaning." /Rev. Intern. de Philos 11(41): 41-63.
Hillerbrand, R. C. and M. Ghil (2008). "Anthropogenic climate change: Scientific uncertainties and moral dilemmas." Physica D 237: 2132-2138.
Hut, P. and M. J. Rees (1983). "How Stable Is Our Vacuum." Nature 302(5908): 508-509.
Jaffe, R. L., W. Busza, et al. (2000). "Review of speculative "disaster scenarios" at RHIC." Reviews of Modern Physics 72(4): 1125-1140.
Jeng, M. (2006). "A selected history of expectation bias in physics." Am. J. Phys. 74(7): 578-583.
Kent, A. (2004). "A critical look at risk assessments for global catastrophes." Risk Analysis 24(1): 157-168.
Lineweaver, C. H., Y. Fenner, et al. (2004). "The Galactic habitable zone and the age distribution of complex life in the Milky Way." Science 303(5654): 59-62.
Miller, G. (2006). "A Scientist’s Nightmare: Software Problem Leads to Five Retractions." Science 314: 1856-1857.
Morawetz, K. and R. Walke (2003). "Consequences of coarse-grained Vlasov equations." Physica a-Statistical Mechanics and Its Applications 330(3-4): 469-495.
Morrison, M. C. (1998). "Modelling nature: Between physics and the physical world."Philosophia Naturalis 35: 65-85.
NASA (1999). Mars Climate Orbiter Mishap Investigation Board Phase I Report.
Nath, S. B., S. C. Marcus, et al. (2006). "Retractions in the research literature:misconduct or mistakes?" Medical Journal of Australia 185(3): 152-154.
Nicely, T. R. (2008). "Pentium FDIV Flaw FAQ." From http://www.trnicely.net/pentbug/pentbug.html.
Nuclear Weapon Archive. (2006). "Operat ion Cas t le. " from http://nuclearweaponarchive.org/Usa/Tests/Castle.html.
Panko, R. R. (1998). "What We Know About Spreadsheet Errors." Journal of End UserComputing 10(2): 15-21.
Popper, K. (1959). The logic of Scientific Discovery, Harper & Row.
Posner, R. A. (2004). Catastrophe: Risk and Response. Oxford, Oxford UniversityPress.
Prot, S., J. E. Fontan, et al. (2005). "Drug administration errors and their determinants in pediatric in-patients." International Journal for Quality in Health Care. 17(5): 381-389.
Reichenbach, H. (1938). Experience and prediction. Chicago, University of Chicago Press.
Stubbs, J., C. Haw, et al. (2006). "Prescription errors in psychiatry – a multi-centre study." Journal of Psychopharmacology 20(4): 553-561.
Suppes, P. (1957). Introduction to Logic.
Tegmark, M. and N. Bostrom (2005). "Is a doomsday catastrophe likely?" Nature 438(7069): 754-754.
Turner, M. S. and F. Wilczek (1982). "Is Our Vacuum Metastable." Nature 298(5875): 635-636.
Walsh, K. E., C. P. Landrigan, et al. (2008). "Effect of computer order entry on prevention of serious medication errors in hospitalized children." Pediatrics 121(3): E421-E427.
Witten, E. (1984). "Cosmic Separation of Phases." Physical Review D 30(2): 272-285.
Yudkowsky, E. (2008). Cognitive biases potentially affecting judgement of global risks. Global Catastrophic Risks. N. Bostrom and M. M. Cirkovic. Oxford, Oxford University Press.