|
|||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Восприятие новой информации через призму старойВ процессе восприятия внешнего мира человек только часть информации берёт из него, а остальное достраивает, используя свою память, ожидания и ассоциации. Увы, то же касается и восприятия текстов, в том числе и по глобальным рискам. Читая рецензии разных людей на один и тот же текст, нетрудно убедиться, что они восприняли его совершенно по-разному. Вряд ли это связано с принципиально разным уровнем интеллекта рецензентов, скорее, с тем, что они применяли разные фильтры восприятия. Более того, если человек придерживается определённой точки зрения, то он подписывается на те издания и выбирает те статьи, которые её подтверждают. Таким образом, у него создаётся иллюзия, что статистика по данным, подтверждающим его точку зрения, растёт. Это ещё больше укрепляет и его фильтр, и его уверенность в этих данных. 10. Ошибка в выборе нейтральной позиции. Каждый человек со временем понимает, что он не вполне объективен, и его точка зрения имеет некоторую тенденциозность. Чтобы компенсировать это отклонение, он может выбрать некий нейтральный источник информации. Ошибка состоит в том, что люди, придерживающиеся противоположных взглядов, выберут разные нейтральные точки зрения, каждая из которых будет ближе к позиции того, кто её выбрал. Похожую ошибку мы описывали выше, когда приводили результаты опытов, в которых испытуемые были предупреждены о возможной ошибке и делали на неё поправку – и, тем не менее, всё равно недооценивали. Вероятно, поправку в таком случае нужно давать не только к основному параметру, но и к самой поправке. 11. Уверенность как источник ошибок. Чем больше человек сомневается в своей точке зрения, тем чаще он меняет её под влиянием новых фактов, и тем больше шансов, что он обретёт достоверное знание. Если человек слишком уверен в своём мнении, ему трудно это мнение изменить. Если же человек слишком часто меняет точку зрения, то он не приближается к истине, а ходит по кругу. 12. Использование полностью ошибочной логики. Увы, возможна ситуация, когда человек в своих рассуждениях совершает ошибки буквально «в каждой строчке». Как правило, он не способен обнаружить это даже при желании. Здесь может возникнуть или одна повторяющаяся систематическая ошибка, или такая плотность разных ошибок, которая делает невозможным правильное рассуждение. Я тоже не могу знать наверняка, не делаю ли каких-то систематических логических ошибок в настоящий момент. Появление таких ошибок может происходить чаще, чем мы думаем: анализ научных текстов показал, что обычно люди пользуются сокращёнными умозаключениями и приёмами эвристики, не осознавая этого. 13. Смешение преднауки и псевдонауки. В тот момент, когда гипотеза находится в процессе формулирования, она ещё не имеет под собой устойчивого научного фундамента и является, скорее, продуктом мозгового штурма на некую тему, возможно, осуществляемого коллективно путём обмена мнениями в печатных изданиях. И в этот момент гипотеза, являясь по сути преднаукой, нацелена на то, чтобы стать частью науки, то есть готова пройти соответствующий отбор и быть принятой или отвергнутой. Псевдонаука может имитировать все атрибуты научности – звания, ссылки, математический аппарат, тем не менее, её цель – не поиск достоверного знания, а создание видимости достоверности. Все высказывания о глобальных рисках являются гипотезами, которые мы вряд ли когда-нибудь сможем проверить. Однако мы не должны отбрасывать их на ранних фазах созревания. Иначе говоря, фаза мозгового штурма и фаза критического отсева должны существовать наравне, не смешиваясь. 14. Ошибка, связанная с неправильным определением статуса «универсалий». Проблема реальности универсалий (то есть обобщений) была основной в средневековой философии, и состояла она в вопросе, какие объекты существуют на самом деле. Существуют ли, например, птицы вообще, или есть только отдельные экземпляры птиц, а все виды, рода и семейства птиц – не более чем условная классификация, порождённая человеческим разумом? Одним из возможных ответов является то, что объективно существует лишь наша способность различать птиц и не-птиц. Более того, каждая птица тоже обладает такой способностью, и в силу этого универсалии существуют объективно. В рассуждения о рисках неясность по поводу универсалий закрадывается следующим образом: свойства одного объекта переносятся на класс в целом, и возникают формулировки вроде «Америка хочет…» или «русским свойственно…», за которыми стоит не единичный объект, а множество их, и точное определение этого множества объектов зависит от самого наблюдателя. Любые дискуссии о политике отравлены такого рода сдвигом. Рассуждая об искусственном интеллекте, легко совершить подобную ошибку, так как непонятно, идёт ли речь об одном устройстве или о классе объектов. 15. Неравносильность утверждений о возможности и невозможности. Утверждение о невозможности чего-либо гораздо сильнее, ибо относится ко всему множеству потенциальных объектов, а для доказательства истинности утверждения о возможности достаточно одного объекта. Поэтому утверждения о невозможности чего-либо являются ложными гораздо чаще. Считая какое-то событие или стечение обстоятельств невозможным, мы наносим ущерб собственной безопасности. В определённых обстоятельствах возможно всё. При этом, любые дискуссии о будущих катастрофах – это всегда дискуссии о возможностях. Иными словами, когда мне говорят, что нечто невозможно, я требую доказательств. 16. Очевидности как источник ошибок. Правильное умозаключение всегда опирается на две посылки, два истинных суждения. Однако анализ текстов показывает, что люди очень часто употребляют не полную форму умозаключений, а сокращённую, где явно называется только одна посылка, а другая подразумевается по умолчанию. Умалчиваются обычно очевидности – суждения, которые кажутся настолько истинными и несомненными, что нет нужды их озвучивать. Более того, часто они настолько очевидны, что не осознаются. Понятно, что такое положение дел является причиной многочисленных ошибок, потому что очевидность – не обязательно истинность, и то, что очевидно одному, не очевидно другому. 17. Недооценка собственной склонности к ошибкам. Как и любой человек, я склонен ошибаться, это зависит как от принципиальной ненадёжности человеческого мозга, связанной с вероятностной природой его работы, так и от неполноты моих знаний о мире и недостаточности навыков устранения ошибок. Я ничего не могу знать на 100 %, потому что надёжность моего мозга не равна 100 %. Я, например, могу установить степень этой надёжности, решив серию логических задач средней сложности, и затем посчитав количество ошибок. Однако обычно этого никто не делает, и собственная склонность к ошибкам оценивается интуитивно. Точно так же человек обычно не измеряет характерную ошибочность своих суждений о будущем, хотя это возможно сделать экспериментально: например, написать прогноз своей и общественной жизни на год или пять лет, а затем оценить степень его достоверности. 18. Ошибки, связанные с представлением о том, что каждое событие имеет одну причину. В действительности подобное представление ложно, так как: а) Есть совершенно случайные события. б) Каждое событие имеет много причин (стакан упал и разбился, потому что его поставили на край стола, потому что он сделан из стекла, потому что есть сила тяжести, потому что пол твёрдый, потому что кошка непослушная, потому что это рано или поздно должно было случиться). в) Каждая причина имеет свою причину, в результате чего мы имеем разрастающееся в прошлое древо причин. Человеческий ум неспособен целиком охватить это древо причин и вынужден упрощать. Но понятие причины необходимо обществу, потому что связано с понятиями вины, наказания и свободы воли. То есть в данном случае под «причиной» подразумевается принятие свободным вменяемым человеком решения о совершении преступления. Нет нужды говорить о том, сколько здесь неочевидных моментов. Понятие причины менее всего применимо к анализу сложных уникальных явлений, таких как человеческое поведение и история. Пример тому – масса запутанных дискуссий о причинах тех или иных исторических событий. Именно поэтому рассуждения в духе «причиной глобальной катастрофы будет Х», мягко говоря, несовершенны. 19. Необходимость выбора на основе веры. Если руководитель получает несколько противоречащих друг другу заключений о безопасности того или иного решения, то он делает выбор между ними, просто веря в одно из них – по причинам, не связанным с самой логикой. Здесь также можно вспомнить уже упоминавшийся термин «экзистенциальный выбор», когда человек должен сделать выбор в неформализуемой ситуации. Например, между любовью и долгом. 20. Эффект первой и последней прочитанной книги. Как правило, прядок поступления информации влияет на оценку её субъектом, при этом особенно сильное влияние оказывают первый и последний источники. Это тоже одна из форм возникновения ошибок, связанная с доступностью информации. 21. Преувеличение роли компьютерного моделирования. Две наиболее проработанные компьютерные модели – это метеорологическая и модель атомного взрыва. Обе созданы на основе обширного фактического материала, с учётом сотен испытаний, которые вносили поправки к прогнозам, и обе регулярно давали ошибки. Даже самая точная модель остаётся моделью. Поэтому мы не можем абсолютно полагаться на компьютерное моделирование уникальных событий, к каковым относится глобальная катастрофа. 22. Доказательство по аналогии как источник возможных ошибок. Дело не только в том, что аналогий уникального события, которое ещё никогда не случалось (необратимой глобальной катастрофы), не может быть в принципе, но и в том, что мы не знаем, как проводить такие аналогии. В любом случае, аналогии могут только иллюстрировать событие. Вероятно, полезно принимать аналогии во внимание, когда они говорят о реальности некой угрозы, но в случае оценки безопасности какого-либо события они неуместны. 23. Ошибка, связанная с неточностью экстраполяции экспоненциальной вероятностной функции с помощью линейной вероятностной функции с помощью линейной. Вероятностную функцию гибели цивилизации – если считать этот процесс гладким в смысле вероятности, что, конечно, неверно, – можно уподобить функции распада радиоактивного атома, которая, как известно, описывается экспонентой. Например, если вероятность гибели цивилизации в течение XXI века равна 50 %, как это предполагает сэр Мартин Рис в книге «Наш последний час», то через 200 лет шанс выживания цивилизации будет 25 %, а через тысячу лет – только 0,1 % – при равномерном сохранении тех же тенденций. Отсюда следует, что заключение в духе «если шансы выживания в течение тысячелетия составляют 0,1 %, то для одного столетия оно будет только в десять раз больше, то есть 1 %» неверно. Эта же ошибка в менее явном виде возникает, если нам нужно экстраполировать те же 50 % выживания в течение 100 лет на погодовую вероятность гибели. Линейная аппроксимация дала бы 0,5 % на год. Однако точное значение погодовой вероятности, вычисленное по формуле , составляет примерно 0,7 %, то есть в 1,4 раза выше, чем даёт интуитивная линейная аппроксимация. 24. Санкт-Петербургский парадокс. Этот парадокс, названный так по месту открытия, имеет прямое отношение к глобальным катастрофам, поскольку показывает то, что бесконечно большой ущерб от крайне редких событий имеет больший вес, чем все остальные события, однако психологически люди не готовы это воспринять. Г.Г. Малинецкий так описывает этот парадокс в книге «Риск. Устойчивое развитие. Синергетика»: «Рассмотрим следующую игру. Подбрасывается монета до тех пор, пока в первый раз не выпадет орел. Если потребовалось n бросков, то выигрыш составит 2 n единиц. То есть выигрыши 2,4,8,…2 n будут происходить с вероятностью 1/2,1/4,1/8,…1/2 n. Ожидаемый выигрыш в этой игре бесконечен:
Спрашивается, сколько человек готов заплатить за право войти в такую игру. Парадокс состоит в том, что большинство людей готово заплатить за это право не более 100, а иногда и 20 единиц» [Капица, Курдюмов, Малинецкий 2001]. 25. Различия между опасностью и риском. Риск создаётся принимаемыми решениями, а опасность – обстоятельствами. Поскольку основным источником риска глобальных катастроф являются новые технологии, то именно решения об их развитии и применении определяют его. Однако если технологии развиваются стихийно и неосознанно, то они становятся подобны природным опасностям. 26. Ошибка, связанная с тем, что если вероятность некого события является невычислимой, ей считают нулевой. В данном случае принцип предосторожности требует, чтобы мы приписывали таким событиям стопроцентную вероятность. Однако это привело бы к абсурдным выводам в духе: вероятность высадки инопланетян завтра неизвестна, поэтому мы должны к ней готовиться так, как если бы она была равна 100 процентам. В этом случае можно пользоваться непрямыми способами оценки вероятности, например, формулой Готта. 27. Упущение того факта, что безопасность системы определяется наиболее слабым её звеном. Если в помещение ведут три параллельных двери, одна из которых заперта тремя замками, вторая – двумя, а третья – одним, то помещение заперто на один замок. Как не укрепляй две самые прочные двери, это ничего не изменит. 28. Отвергание гипотез без рассмотрения. Для того, чтобы отвергнуть некую гипотезу, её надо вначале рассмотреть. Но часто эта последовательность нарушается. Люди отказываются рассматривать те или иные предположения, потому что считают их слишком невероятными. Однако окончательно отвергнуть некое предположение можно, только тщательно его рассмотрев, а для этого его необходимо хотя бы на некоторое время принять всерьёз. 29. Невычислимость. Целый ряд принципиально важных для нас процессов настолько сложен, что предсказать их невозможно, поскольку они невычислимы. Невычислимость может иметь разные причины. Она может быть связана с непостижимостью процесса (например, непостижимость Технологической Сингулярности, или непостижимость теоремы Ферма для собаки), то есть с принципиальной качественной ограниченностью человеческого мозга. Такова наша ситуация с предвидением поведения суперинтеллекта в виде ИИ. Она может быть связана с квантовыми процессами, которые делают возможным только вероятностное предсказание, то есть с недетерминированностью систем (погоды, мозга). Она может быть связана со сверхсложностью систем, в силу которой каждый новый фактор полностью меняет наше представление об окончательном исходе событий. К таковым относятся модели глобального потепления, ядерной зимы, глобальной экономики, модели исчерпания ресурсов. Четыре последние области знаний объединяются тем, что каждая изучает уникальное событие, которое ещё ни разу не происходило, то есть является опережающей моделью. Невычислимость может быть связана с тем, что подразумеваемый объём вычислений хотя и конечен, но настолько велик, что ни один мыслимый компьютер не сможет его выполнить за время существования вселенной (такая невычислимость используется в криптографии). Этот вид невычислимости проявляется в виде хаотической детерминированной системы. Невычислимость связана также с тем, что хотя мы можем думать, что нам известна правильная теория (наряду со многими другими), мы не можем знать, какая именно теория правильна. То есть теория, помимо правильности, должна быть легко доказуемой для всех, а это не одно и то же в условиях, когда экспериментальная проверка невозможна. В некотором смысле способом вычисления правильности теории, а точнее – меры уверенности в этой правильности, является рынок, где делаются прямые ставки или на некий исход событий, или на цену некого товара, связанного с прогнозом, например, цену на нефть. Однако на рыночную цену влияет много других факторов: спекуляции, эмоции или нерыночная природа самого объекта. (Бессмысленно страховаться от глобальной катастрофы, так как некому и некем будет выплачивать страховку, то есть в силу этого можно сказать, что страховая цена равна нулю.) Ещё один вид невычислимости связан с возможностью осуществления самосбывающихся или самоотрицающих прогнозов, которые делают систему принципиально нестабильной и непредсказуемой. Невычислимость, связанная с предположением о собственном положении в выборке (self-sampling assumption – см. об этом книгу Н. Бострома [Bostrom 2003a]). Суть этого предположения состоит в том, что в некоторых ситуациях я должен рассматривать самого себя как случайного представителя из некоторого множества людей. Например, рассматривая самого себя как обычного человека, я могу заключить, что я с вероятностью в 1/12 имел шансы родиться в сентябре. Или с вероятностью, допустим, 1 к 1000 я мог бы родиться карликом. Это иногда позволяет делать предсказания на будущее: а именно, если в России 100 миллиардеров, то шансы, что я стану миллиардером, составляют один к 1,5 миллионам, в предположении, что эта пропорция будет сохраняться. К невычислимости это приводит, когда я пытаюсь применить предположение о собственном положении в выборке к своим знаниям. Например, если я знаю, что только 10 % футурологов дают правильные предсказания, то я должен заключить, что с вероятностью 90% любые мои предсказания неправильные. Большинство людей не замечают этого, поскольку за счёт сверхуверенности и повышенной самооценки рассматривают себя не как одного из представителей множества, а как «элиту» этого множества, обладающую повышенной способностью к предсказаниям. Это особенно проявляется в азартных играх и игре на рынке, где люди не следуют очевидной мысли: «Большинство людей проигрывает в рулетку, следовательно, я, скорее всего, проиграю». Похожая форма невычислимости связана с информационной нейтральностью рынка. (Сказанное далее является значительным упрощением теории рынка и проблем информационной ценности даваемых им показателей. Однако более подробное рассмотрение не снимает названную проблему, а только усложняет её, создавая ещё один уровень невычислимости, – а именно невозможность для обычного человека охватить всю полноту знаний, связанную с теорией предсказаний, а также неопределённость в том, какая именно из теорий предсказаний истинна. См. об информационной ценности рынка так называемую «no trade theorem»[130].) Идеальный рынок находится в равновесии, когда половина игроков считает, что товар будет дорожать, а половина – что дешеветь. Иначе говоря, выиграть в игре с нулевой суммой может только более умный или осведомленный, чем большинство людей, человек. Однако большинство людей не являются более умными, чем все, по определению, хотя и не способны осознать это по причине психологической предвзятости. В результате чего, например, большинство водителей считают себя более аккуратными, чем среднестатистический водитель. Или другой пример: цена на нефть находится на таком уровне, что не даёт явных подтверждений ни предположению о неизбежности кризиса, связанного с исчерпанием нефти, ни предположению о неограниченности нефтяных запасов. В результате рациональный игрок не получает никакой информации о том, к какому сценарию ему готовится. Та же самая ситуация относится и к спорам: если некий человек начал доказывать точку зрения, противоположную вашей, и вам ничего неизвестно о его интеллекте, образованности и источниках информации, – и при этом вы полагаете, что также являетесь средним, человеком, а не особенным (что особенно трудно), а также о своём объективном рейтинге интеллекта, то есть шанс 50 на 50, что прав он, а не вы. Поскольку объективно измерить свой интеллект и осведомлённость крайне трудно из-за неосознанного желания их переоценить, то следует считать их находящимися в середине спектра. Поскольку в современном обществе действуют механизмы превращения любых параметров будущих событий в рыночные индексы (например, торговля квотами по Киотскому протоколу на выбросы углекислого газа или ставки на выборы, войну и т. п., фьючерсы на погоду), то это вносит дополнительный элемент принципиальной непредсказуемости во все виды деятельности. В силу такой торговли фактами мы не можем узнать наверняка, будет ли глобальное потепление, когда произойдёт исчерпание нефти, или какова реальная угроза птичьего гриппа. Ещё одна причина невычислимости – секретность. Если мы пытаемся учесть эту секретность с помощью разных «теорий заговора» в духе книги Симмонса «Сумерки в пустыне» [Simmons 2005] о преувеличенности оценок запасов Саудовской нефти, то мы получаем расходящиеся в пространстве интерпретации. То есть, в отличие от обычного случая, когда точность повышается с числом измерений, здесь каждый новый факт только увеличивает раскол между противоположными интерпретациями. Ни один человек на Земле не обладает всей полнотой секретной информации, поскольку у разных организаций разные секреты. Рыночные механизмы побуждают людей лгать о качестве их товаров и о прогнозах своих фирм, с тем, чтобы получить б о льшую выгоду за интересующий их промежуток времени. Яркий пример этого мы видим в последствиях так называемой «революции менеджеров», когда управленцы сменили собственников в директорате фирм в 70-е годы. В результате они стали более заинтересованы получать краткосрочные прибыли в течение срока своей работы в компании, не рассматривая риски для компании за пределами этого срока. Психологический аспект этой проблемы заключается в том, что люди рассуждают таким образом, будто бы никакой невычислимости нет. Другими словами, можно обнаружить сколько угодно мнений и рассуждений о будущем, в которых его принципиальная и многосторонняя непредсказуемость вовсе не учитывается, равно как не принимается во внимание ограниченность человеческой способности рассуждать о нём достоверно.
Заключение. Перспективы предотвращения глобальных катастроф Человечество не обречено на вымирание. Даже если у нас мало шансов, то обязательно стоит бороться за бесконечно большое будущее. Позитивным фактом является то, что, начиная с 2000 года резко возросло число публикаций, посвященных глобальным катастрофам общего характера. Начинает формироваться единое понимание проблемы. Надеюсь, что в ближайшее десятилетия проблема глобальных рисков станет общепризнанной. А люди, осознающие важность этого, окажутся у власти. Вероятно, это случится не плавно, а после жестоких потрясений (как 11 сентября), которые повысят интерес и читаемость литературы по теме, подхлестнут дискуссию. Можно надеяться, что некоторые обеспокоенные люди и группы поспособствуют реализации перспективной стратегии дифференциального развития технологий. А именно, Дружественный ИИ должен развиваться опережающими темпами, быстрее, чем, например, загрузка сознания в компьютер, которое в результате может обрести огромные силы и стать неконтролируемым. Очень важно, чтобы мощный ИИ возник раньше, чем сильные нанотехнологии – для того, чтобы помочь их контролировать. Возможно, придётся смириться с избыточным или тоталитарным контролем над человеческой деятельностью в период, когда риск будет максимален, а понимание реальных угроз – минимально. В этот момент будет не ясно, какое знание действительно является знанием массового поражения, а какое – безобидной игрушкой. Возможно, что нам просто повезёт, и ни один риск не сбудется. С другой стороны, возможно, что повезёт меньше, и череда крупных катастроф отбросит цивилизацию в развитии далеко назад, но человек сохранится и обретёт более мудрый подход к реализации технологических достижений. Возможно, что на этом пути предстоит трудный выбор: остаться навсегда на средневековом уровне, отказавшись от компьютеров, полётов к звёздам; или рискнуть, и попытаться стать чем-то большим. Несмотря на риск, второй сценарий выглядит для меня более привлекательным, т. к. замкнутое на Земле человечество обречено рано или поздно на вымирание по естественным причинам. Наблюдается также усилия в создании убежищ разного рода: в Норвегии построено хранилище для семян в случай глобальной катастрофы. Хотя такое хранилище не спасёт людей, похвально желание вкладывать деньги и реальные ресурсы в проекты, отдача от которых возможна только через столетия. Активно обсуждается проект создания похожего убежища на Луне, который называют "запасной диск для цивилизации"[131]. В нем предполагается сохранить не только все знания цивилизации, но и замороженные человеческие эмбрионы, в надежде на то, что кто-нибудь (инопланетяне?) восстановит потом по ним людей. Вместе с тем, в книге я пытался показать, что непродуманные действия по предотвращению катастроф могут быть не менее опасны, чем сами катастрофы. Следовательно, в настоящий момент основные усилия должны сосредотачиваться не на конкретных проектах, не на пропаганде "зелёного" образа жизни, а на возрастании понимания природы возможных рисков, на формирование научного консенсуса о том, что на самом деле опасно и какие уровни риска приемлемы. При этом дискуссия не может быть бесконечной, как в неких более абстрактных областях. Тогда мы рискуем "проспать" реально надвигающуюся катастрофу. Это значит, что мы ограничены во времени.
Литература
Абдурагимов И.М. 2009. О несостоятельности концепции «ядерной ночи» и «ядерной зимы» вследствие пожаров после ядерного поражения. Электронный журнал «Пожарное дело», http://www.pozhdelo.ru/stati/Pojar_Process_gor/pg/pg.html Абрамян Е.А. 2006. Долго ли осталось нам жить? Судьба цивилизации: Анализ обстановки в мире и перспектив будущего. М.: Терика. Адамский В.Б., Смирнов Ю.Н. 1995. 50-мегатонный взрыв над Новой Землей. Вопросы истории естествознания и техники, 3: 35. http://vivovoco.rsl.ru/VV/PAPERS/HISTORY/SAKHAROV.HTM Азаров И. 1998. Венчурный капитал в электронной промышленности США. Электроника: Наука, Технология, Бизнес, 1: 52. http://www.electronics.ru/issue/1998/1/17 Азимов А. 2002. Выбор катастроф. М.: Амфора. Александровский г. 2001. бегство от умирающего солнца. наука и жизнь, 8: 53–70. http://nauka.relis.ru/05/0108/05108042.htm Александровский Ю.А. и др. 1991. Психогении в экстремальных условиях. М.: Медицина. Алексеев А.С. 1998. Массовые вымирания в фанерозое. Диссертация на соискание ученой степени доктор геолого-минералогических наук по специальности 04.00.09 палеонтология и стратиграфии. http://macroevolution.narod.ru/alekseev.htm Анисимов А. 2002. Развитие стратегических сил Китая и проблема адекватности ситуации внешней политики США. Россия XXI, 4:28., 5:66. http://ecc.ru/XXI/RUS_21/ARXIV/2002/anisimov_2002_4.htm Анисичкин В. 1998. О взрывах планет. Труды V Забабахинских чтений, Снежинск: РФЯЦ – ВНИИТФ. Арбатов А., Михеев В., ред. 2007. Ядерное нераспространение в эпоху глобализации. М.: Фонд Карнеги. http://www.knogg.net/n/3_12.htm Архипов А.В. 1994. Археологический аспект исследований Луны. Астрономический вестник. Т. 28. 4–5: 41. http://www.arracis.com.ua/moon/m312.html Бекенов С.С. 2003. Критерии и оценки продовольственной безопасности. Вестник КРСУ, 2:39. http://www.krsu.edu.kg/vestnik/2003/v2/a03.html Бестужев-Лада И. 2006. Человечество обречено на вымирание. Московский комсомолец, Май. Биндеман И. 2006. тайная жизнь супервулканов. В мире науки, 10: 66–86. Бобылов Ю. 2006. Генетическая бомба. Тайные сценарии биотерроризма. М.: Белые Альвы. Будыко М.М., Ранов А.Б., Яншин В. 1985. История атмосферы. Л.: Гидрометеоиздат. Вайсфлог Л. И др. 2009. Доклады Академии Наук – том 424, № 6, Февраль, С. 818-823. О возможной роли галогенсодержащих газов в изменении состояния атмосферы и природной среды в поздний пермский период http://www.maikonline.com/maik/showArticle.do?auid=VAFR1OI7XN&lang=ru, http://lenta.ru/news/2009/03/31/lakes/ Виндж В. 1999. Пламя над бездной. М.: Аст. Вишневский С.А. 1992. Импактные события и вымирания организмов. Рукопись. http://www.meteorite.narod.ru/proba/stati/stati57.htm Волков А. 2007. Природа скрывает "бомбы с часовым механизмом". Знание–сила, 6: 53–60. http://www.inauka.ru/analysis/article75841.html Воробьёв, Ю.Л, Малинецкий Г.Г., Махутов H.A. 2000. Управление риском и устойчивое развитие. Человеческое измерение. Общественные Науки и Современность, 6: 120–131. Владимиров В.А., Малинецкий Г.Г., Потапов А.Б. и др. 2000. Управление риском. Риск, устойчивое развитие, синергетика. М.: Наука. Геворкян С.Г., Геворкян И.С. 2006. Преднамеренные антропогенные экологические катастрофы. Эволюция, 3: 181. Глуховский Д. 2007. Метро 2033. М.: Аст. Горный В.И и др., 2006. Камуфлетные взрывы как причина формирования структур, индицирующих алмазоносные районы (по материалам дистанционных и геофизических методов)» Современные проблемы дистанционного зондирования Земли из космоса,, т3, N 2, стр. 225- 214. Данилов-Данильян В.И., Лосев К.С., Рейф И.Е. 2005. Перед главным вызовом цивилизации. Взгляд из России. М.: Инфра-М. Камю А. 1990. Миф о Сизифе. Эссе об абсурде. Сумерки богов. М.: Политиздат. Докинз Р. 1993. Эгоистичный ген. М.: Мир. Дробышевский Э.М. 1999. Опасность взрыва Каллисто и приоритетность космических миссий. Журнал технической физики, 69(9): 153. Дядин Ю. А., Гущин А. Л. 1998. Газовые гидраты и климат земли. Соросовский Образовательный журнал, 3: 102. Ергин Д. 2003. Добыча. Всемирная история борьбы за нефть, деньги и власть. М.: ДеНово. Еськов К.Ю. 2004. История Земли и жизни на ней. М.: НЦ ЭНАС. Израэль Ю.А. 1983. Экологические последствия возможной ядерной войны. Метеорология и гидрология, 10: 56. Капица С.П., Курдюмов С., Малинецкий Г.Г. 2001. Синергетика и прогнозы будущего. М.: УРСС. Капица С.П. 2004. Об ускорении исторического времени. Новая и новейшая история, 6: 98. http://vivovoco.rsl.ru/VV/JOURNAL/NEWHIST/KAPTIME.HTM Карнаухов А.В. 1994. К вопросу об устойчивости химического баланса атмосферы и теплового баланса земли. Биофизика, 39(1): 148–152. Карпан Н. 2006. Атомной энергетике не отмыться от Чернобыля. Зеркало недели, 13 (592): 4 http://pripyat.com/ru/publications/2006/04/08/750.html Коза Дж., Кин М., Стритер М. 2003. Эволюция в мире изобретений. В мире науки, 6: 50–54. Киппенхан Р. 1990. 100 миллиардов солнц. Жизнь и смерть звезд. М.: Мир. Кононов А.А. 2007. Задача неуничтожимости цивилизации в катастрофически нестабильной среде. Проблемы управления рисками и безопасностью: Труды Института системного анализа Российской академии наук. Т. 31: 272 – 284. Корнилова Т.В. 1998. Многомерность фактора субъективного риска (в вербальных ситуациях принятия решений). Психологический журнал, 6: 90–97. Корнилова Т.В. 2006. Мотивация и интуиция в регуляции вербальных прогнозов при принятии решений. Психологический журнал, 2: 114–123. Корнилова Т.В. 2003. Психология риска и принятия решений. М.: Аспект Пресс. Красилов В.А. 2001. Модель биосферных кризисов. Экосистемные перестройки и эволюция биосферы, 4: 9–16. http://macroevolution.narod.ru/krmodelcrisis.htm Куркина Е.С. 2007. Конец режимов с обострением. Коллапс цивилизации. Доклад на международной конференции "Путь в будущее – наука, глобальные проблемы, мечты и надежды". http://spkurdyumov.narod.ru/kurkinaes.htm Лазарчук А., Лелик П. 1987. Голем хочет жить. Рукопись. http://lazandr.lib.ru/web/books027.html Лем С. 1990. Системы оружия двадцать первого века или Эволюция вверх ногами. Маска. Не только фантастика, М.: Наука. Лем С. 1995. О невозможности прогнозирования. Собрание сочинений, т.10. М.: Текст. Лем С. 1964. Непобедимый. М.: Мир. Лем С. 1963. Сумма технологий. М.: Мир. Лем С. 2007. Фантастика и футурология. М.: Аст. МакМаллин Р. 2001. Практикум по когнитивной терапии. СПб.: Речь. марков а.в. 2000. Возвращение черной королевы, или закон роста средней продолжительности существования родов в процессе эволюции. Журн. Общей Биологии, 61(4): 99–112. http://macroevolution.narod.ru/redqueen.htm. Медведев Д.А. 2008. Конвергенция технологий как фактор эволюции. в сб. Диалоги о будущем, М.: УРСС. http://www.transhumanism-russia.ru/content/view/317/116/ Медоуз Д. и др. 1991. Пределы роста. М.: Прогресс. Моисеев Н.Н., Александров В.В., Тарко А.М. 1985. Человек и биосфера. М.: Наука. Моисеев Н.H. 1998. Судьба цивилизации. М.: Путь разума. Назаретян А.П. 2001. Цивилизационные кризисы в контексте Универсальной истории. М.: УРСС. фон Нейман Дж. 1971. Теория самовоспроизводящихся автоматов. М.: Мир. Нефф О. 1985. Белая трость калибра 7,62. М.: Мир. http://lib.ru/SOCFANT/NEFF/trost.txt Онищенко Г. 2003. Биотерроризм. Вестник Академии Наук, т. 73, 3: 25–50. Панов А.Д. 2004. Кризис планетарного цикла Универсальной истории и возможная роль программы SETI в посткризисном развитии. Вселенная, пространство, время. 2: 251–270. http://lnfm1.sai.msu.ru/ SETI /koi/articles/krizis.html Панов А.Д. 2007. Универсальная эволюция и проблема поиска внеземного разума (SETI). М.: УРСС. Пенроуз Р. 2005. Новый ум короля. О компьютерах, мышлении и законах физики. М.: УРСС. Платонов А.В. 1996. Восприятие риска в ситуациях, требующих принятия решения. Доклад на конференции «Lomonosov», МГУ. Полищук Л.В. 2003. Скорость размножения и угроза вымирания вида. Природа, 7, http://vivovoco.rsl.ru/VV/JOURNAL/NATURE/07_03/ZVERI.HTM Портнов А. 1999. Как погибла жизнь на Марсе. Наука и жизнь, 4: 120–129. http://www.meteorite.narod.ru/proba/stati/stati107.htm Прайд В., Коротаев А.В. ред. 2008. Сб. статей «Диалоги о будущем. Новые технологии и продолжение эволюции человека». М.: УРСС. Пустынский В. 1999. Последствия падения на Землю крупных астероидов. Рукопись. http://www.meteorite.narod.ru/proba/stati/stati58.htm Розмаинский И.В. 2009. Вклад Х.Ф. Мински в экономическую теорию и основные причины кризисов в позднеиндустриальной денежной экономике. Экономический вестник Ростовского государственного универси тета, 7(1): 31–42. Росс Л., Нисбетт Р. 1999. Человек и ситуация: Уроки социальной психологии. М.: Аспект Пресс. http://evolkov.iatp.ru/social_psychology/Ross_L_Nisbett_R/index.html Савин М.Г. 2007. Кувырок магнитного поля. Химия и жизнь, 2: 81–90. Солженицын А.И. 1983—1991. Красное колесо. тт. 11–20. Вермонт-Париж: YMCA-PRESS. Сорос Дж. 1999. Кризис мирового капитализма. Открытое общество в опасности. М.: ИНФРА-М. Сорохтин О.Г., Ушаков С.А. 2002. Развитие Земли. М.: Изд-во МГУ. Сурдин В. Туринская шкала астероидной опасности. http://www.krugosvet.ru/enc/nauka_i_tehnika/astronomiya/TURINSKAYA_SHKALA_ASTEROIDNO_OPASNOSTI.html Сывороткин В.Л. 2001. Экологические аспекты дегазации Земли. Диссертация на соискание степени доктора геологических наук: М. Тегмарк М. 2003. Параллельные Вселенные. В мире науки, 8: 51–61. http://www.everettica.org/article.php3?ind=126 Торгашов А. 2008. Избранные места из переписки с инопланетянами. Русский репортёр, 20 марта: 36–40. http://www.expert.ru/printissues/russian_reporter/2008/10/obschenie_s_vselennoy/ Тофлер Э. 2002. Шок будущего. М.: АСТ. Турчин А.В. 2007. О возможных причинах недооценки рисков гибели человеческой цивилизации. Проблемы управления рисками и безопасностью: Труды Института системного анализа Российской академии наук: Т. 31. М.: КомКнига. C. 266–305. Турчин А.В. 2007. Природные катастрофы и антропный принцип. Проблемы управления рисками и безопасностью: Труды Института системного анализа Российской академии наук: Т. 31. М.: КомКнига. C. 306–332. Турчин А.В. 2010. Проблема стабильного развития и перспективы глобальных катастроф. Общественные науки и современность. № 1. С. 156–163. Турчин А.В. 2008. Война и ещё 25 сценариев конца света. М.: Европа. Феоктистов Л.П. 1998. Термоядерная детонация. УФН, 168: 1247 http://www.ufn.ru/ru/articles/1998/11/f/ Фукуяма Ф. 2002. Наше постчеловеческое будущее. Последствия биотехнологической революции, М.: Аст. Хаин В.Е. 2004. Разгадка, возможно, близка. О причинах великих вымираний и обновлений органического мира. Природа, 6: 79–91. Хойл Ф., Эллиот Дж. 1966. Андромеда. М.: Мир. Чирков Ю. 1991. Ожившие химеры. М.: Дет. литература. Шамис А.Л. 2006. Пути моделирования мышления. М.: УРСС. Шафмейстер Х. 2007. Молекулярный конструктор. В мире науки, 9: 113–125. Шкловский и.с. 1984. звёзды. Их рождение, жизнь и смерть. М.: Наука. Шкловский и.с. 1987. Вселенная, жизнь, разум. М.: Наука. Юдина А. 2005. Новые творцы. Игры, в которые играют боги. Популярная механика, 6: 57–70. http://www.popmech.ru/part/print.php?articleid=259&rubricid=3 Яблоков А. 2005. Неизбежная связь ядерной энергетики с атомным оружием. Доклад Bellona Foundation. http://www.bellona.ru/reports/yablokov Aranyosi I.A. 2004. The Doomsday Simulation Argument. Or Why Isn't the End Nigh and You're Not Living in a Simulation. Manuscript. http://philsci-archive.pitt.edu/archive/00001590/ Biggin A.J., Strik G.H.M.A. & Langereis C.G. 2008. Evidence for a Very-Long-Term Trend in Geomagnetic Secular Variation. Nature Geoscience, 1(6): 395–398. Blair B.G. 1993. The Logic of Accidental Nuclear War. Washington, D.C: Brookings Institution Press. de Blank P. 2009. Convergence of Expected Utility for Universal AI. arXiv:0907.5598v1. Bostrom N. 1998. How Long Before Superintelligence? Jour. of Future Studies, 2: 213–235. Н. Бостром. Сколько осталось до суперинтеллекта? http://alt-future.narod.ru/Future/superint.htm Bostrom N. 1999. The Doomsday Argument is Alive and Kicking. Mind, 108 (431), 539–550. http://www.anthropic-principle.com/preprints/ali/alive.html Bostrom N. 2000. Observer-Relative Chances In Anthropic Reasoning? Erkenntnis, 52: 93–108. http://www.anthropic-principle.com/preprints.html Bostrom N. 2001. Existential Risks: Analyzing Human Extinction Scenarios. Journal of Evolution and Technology, vol. 9.: 113–150. Русский перевод: Ник Бостром. Угрозы существованию. Анализ сценариев человеческого вымирания и связанных опасностей. http://www.proza.ru/texts/2007/04/04-210.html Bostrom N. 2001. The Doomsday argument, Adam & Eve, UN++, and Quantum Joe. Synthese, 127(3): 359–387. http://www.anthropic-principle.com Bostrom N. 2002. Antropic Principle in Science and Philosophy. N.Y.: Routledge. Bostrom N. 2003. Are You Living in a Computer Simulation? Philosophical Quarterly, Vol. 53, 211: 243–255. http://www.simulation-argument.com/. Русский перевод: http://www.scribd.com/doc/13107082/- Bostrom N., Tegmark M. 2005. How Unlikely is a Doomsday Catastrophe? Nature, Vol. 438, 7069: 754. Русский перевод: Макс Тегмарк и Ник Бостром. Насколько невероятна катастрофа судного дня? http://www.proza.ru/texts/2007/04/11-348.html Bostrom N. 2007. Technological Revolutions: Ethics and Policy in the Dark. Nanoscale: Issues and Perspectives for the Nano Century, eds. Nigel M. de S. Cameron and M. Ellen Mitchell. Hoboken, NJ.: John Wiley. http://www.nickbostrom.com/revolutions.pdf Bostrom N., Cirkovic M. eds. 2008. Global Catastrophic Risks. N.Y.: Oxford University Press. Bottke W., Vokrouhlický D., Nesvorný D. 2007. An Asteroid Breakup 160 Myr Ago as the Probable Source of the K/T Impactor. Nature, 449: 48–53. http://astro.mff.cuni.cz/davok/papers/BAF_2007.pdf Brin D.2006. Singularity and Nightmares. Nanotechnology Perceptions: A Review of Ultraprecision Engineering and Nanotechnology, Volume 2, No. 1, March 27: 21–50. Русский перевод: Брин Д. Сингулярность и кошмары. http://www.proza.ru/texts/2007/05/14-31.html Brower D. 2009. Human uniqueness and the denial of death. Nature 460, 684 doi:10.1038/460684c. Caldwell R.R., Kamionkowski M., Weinberg N.N. 2003. Phantom Energy and Cosmic Doomsday. Phys. Rev. Lett., 91: 07301. http://arxiv.org/abs/astro-ph/0302506 Carrigan R. 2006. Do Potential SETI Signals Need To Be Decontaminated? Acta Astronautica, Volume 58, Issue 2, January:112–117. Русский перевод: Р. Кэрриган. Следует ли обеззараживать сигналы SETI? http://www.proza.ru/texts/2007/11/20/582.html Caves C.M. 2000. Predicting Future Duration from Present Age: A Critical Assessment. arXiv:0806.3538v1. http://info.phys.unm.edu/papers/2000/Caves2000a.pdf Center for Responsible Nanotechnology (CRN). 2003. Dangers of Molecular Manufacturing. http://www.crnano.org/dangers.htm Русский перевод: Опасности молекулярного производства. http://www.proza.ru/texts/2008/04/08/430.html Cirkovic M.M., Cathcart R.2004. Geo-engineering Gone Awry: A New Partial Solution of Fermi's Paradox. Journal of the British Interplanetary Society, vol. 57: 209–215. Cirkoviс M.M. 2004. The Anthropic Principle And The Duration Of The Cosmological Past. Astronomical and Astrophysical Transactions, Vol. 23, 6: 567–597. Cirkoviс M.M. 2007. Evolutionary Catastrophes and the Goldilocks Problem. International Journal of Astrobiology, vol. 6, pp. 325-329. Русский перевод: http://www.proza.ru/2008/11/29/541 Cocconi G. and Morrison P. 1959. Searching for Interstellar Communications. Nature, Vol. 184, Number 4690: 844–846, September 19. Collar J.I. 1996. Biological Effects of Stellar Collapse Neutrinos. Phys. Rev. Lett, 76: 999–1002. http://arxiv.org/abs/astro-ph/9505028 Dar A. et al. 1999. Will Relativistic Heavy-Ion Colliders Destroy Our Planet? Physics Letters, B 470: 142–148. Dar A. 2008. Influence Of Supernovae, Gamma-Ray Bursts, Solar Flares, and Cosmic Rays on the Terrestrial Environment. Global catastrophic risks, N.Y.: Oxford University Press. Русский перевод: Арнон Дар. Влияние сверхновых, гамма-всплесков, солнечных вспышек и космических лучей на земную окружающую среду. http://www.scribd.com/doc/10310965/- Dawes R.M. 1988. Rational Choice in an Uncertain World. San Diego, CA: Harcourt, Brace, Jovanovich. Diamond J. 2004. Collapse: How Societies Choose to Fail or Succeed. N.Y.: Viking Adult. Drexler K.E. 1988. Dialog on Dangers. Foresight Background 2, Rev. 1. http://www.foresight.org/Updates/Background3.html Drexler K.E. 1985. Engines of Creation: The Coming Era of Nanotechnology. L.: Forth Estate. http://www.foresight.org/EOC/index.html Férez O. 1970. Notes on the Tropical Cyclones of Puerto Rico. San Juan, Puerto Rico: National Weather Service. http://www.aoml.noaa.gov/hrd/data_sub/perez_11_20.pdf Fetherstonhaugh D., Slovic P., Johnson S. and Friedrich J.1997. Insensitivity to the Value Of Human Life: A Study of Psychophysical Numbing. Journal of Risk and Uncertainty, 14: 238–300. Feynman R. 1959. There's Plenty of Room at the Bottom. Lecture. http://www.its.caltech.edu/~feynman/plenty.html Foresight Institute. 2000. Foresight Guidelines on Molecular Nanotechnology, Version 3.7. http://www.foresight.org/guidelines/current.html Forrest D. 1989. Regulating Nanotechnology Development. http://www.foresight.org/NanoRev/Forrest1989.html. Foerster H. von, P. Mora and L. Amiot. 1960. Doomsday: Friday, 13 November, A.D. 2026. At this Date Human Population will Approach Infinity if it Grows as it has Grown in the Last Two Millennia. Science, 132: 1291–1295. Foote M., Crampton J.S., Beu A.G., Marshall B.A., Cooper R.A., Maxwell P.A., Matcham I. 2007. Rise and Fall of Species Occupancy in Cenozoic Fossil Mollusks. Science, V. 318: 1131–1134. Русский пересказ здесь: http://elementy.ru/news/430634 Freitas (Jr.) R.A. 1980. A Self-Reproducing Interstellar Probe. J. Brit. Interplanet. Soc., 33: 251–264. Freitas (Jr.) R.A. 2000. Some Limits to Global Ecophagy by Biovorous Nanoreplicators, with Public Policy Recommendations. Zyvex preprint, April. http://www.foresight.org/NanoRev/Ecophagy.html. Русский перевод: Р. Фрейтас. Проблема серой слизи. http://www.proza.ru/texts/2007/11/07/59.html Garwin R.L. 1998. Reactor-Grade Plutonium can be Used to Make Powerful and Reliable Nuclear Weapons: Separated Plutonium in the Fuel Cycle must be Protected as if it were Nuclear Weapons. Federation of American Scientists, August 26. www.fas.org/rlg/980826-pu.htm Gehrels N., Laird C.M., Jackman C.H., Cannizzo J.K., Mattson B.J., Chen W. 2003. Ozone Depletion from Nearby Supernovae. The Astrophysical Journal, March 10, vol. 585. Johnston Wm.R. 2003. The Effects of a Global Thermonuclear War 4th edition: Escalation in 1988. Manuscript, http://www.johnstonsarchive.net/nuclear/nuclearwar1.html 2003. Giddings S.B., Thomas S. 2002. High Energy Colliders as Black Hole Factories: The End of Short Distance Physics. Phys. Rev. D65: 056010. Gold R.E. 1999. SHIELD: A Comprehensive Earth Protection System. A Phase I Report on the NASA Institute for Advanced Concepts, May 28. Good I.J. 1965. Speculations Concerning the First Ultraintelligent Machine. Advances in Computers, Vol. 6: 31–88. Gott J. R. III. 1993. Implications of the Copernican Principle for Our Future Prospects. Nature, 363: 315–319. Gubrud M. 2000. Nanotechnology and International Security. Fifth Foresight Conference on Molecular Nanotechnology. http://www.foresight.org/Conferences/MNT05/Papers/Gubrud/index.html Hanson R. 2008. Catastrophe, Social Collapse, and Human Extinction. Global Catastrophic Risks, ed. Nick Bostrom and M. Circovic, N.Y.: Oxford University Press. http://hanson.gmu.edu/collapse.pdf Hanson R. 1998. Burning the Cosmic Commons: Evolutionary Strategies for Interstellar Colonization. Working paper. http://hanson.gmu.edu/workingpapers.html Hanson R. et al. 1998. A Critical Discussion of Vinge's Singularity Concept. Extropy Online. http://www.extropy.org/eo/articles/vi.html Hanson R. 1994. What If Uploads Come First: The Crack of a Future Dawn. Extropy, 6:2. http://hanson.gmu.edu/uploads.html. Harvey M.C., Brassell S.C., Belcher C.M. and Montanari A. 2008. Combustion of Fossil Organic Matter at the Cretaceous-Paleogene (K-P) Boundary. Geology, v. 36; May, 5: 251–284. Helfer A.D. 2003. Do Black Holes Radiate? Rept.Prog.Phys., 66: 943–1008 http://arxiv.org/abs/gr-qc/0304042 Higgo J. 1998. Does The 'Many-Worlds' Interpretation of Quantum Mechanics Imply Immortality? Manuscript, Русский перевод: Джеймс Хигго. «Означает ли многомирная интерпретация квантовой механики бессмертие?» http://www.proza.ru/texts/2007/05/22-04.html Hoffman P.F. and Schrag D.P. 2000. The Snowball Earth. Scientific American, January 21: 68–75. Jackson R.J. et al. 2001. Expression of Mouse Interleukin-4 by a Recombinant Ectromelia Virus Suppresses Cytolytic Lymphocyte Responses and Overcomes Genetic Resistance to Mousepox. Journal of Virology, 73: 1479–1491. Joy B. 2000. Why the Future Doesn't Need Us. Wired, 8.04: 238–262. http://www.wired.com/wired/archive/8.04/joy_pr.html. Русский перевод: Билл Джой. Почему мы не нужны будущему. http://www.scribd.com/doc/12714710/- Kahneman D. and Tversky A. eds. 2000. Choices, Values, and Frames. Cambridge.: Cambridge University Press. Kahneman D., Slovic P., and Tversky A. eds. 1982. Judgment Under Uncertainty: Heuristics and Biases. N.Y.: Cambridge University Press. Kahneman D., Lovallo D. 1993. Timid Choices and Bold Forecasts: A Cognitive Perspective on Risk Taking. Management Science. Volume 39, Issue 1: 17–31, Перевод отрывка: http://www.proza.ru/2009/05/29/499 Kent A. 2004. A Critical Look at Risk Assessments for Global Catastrophes. Risk Anal. 24: 157–168. http://arxiv.org/abs/hep-ph/0009204 Русский перевод: Эдриан Кент. Критический обзор оценок рисков глобальных катастроф. http://www.proza.ru/2008/05/23/67 Kerry E. 1996. Limits on Hurricane Intensity. Center for Meteorology and Physical Oceanography, MIT. http://wind.mit.edu/~emanuel/holem/holem.html, популярное изложение http://en.wikipedia.org/wiki/Hypercane Khan H.1960. On Thermonuclear War. L.: Princeton University Press. Knight L.U. 2001. The Voluntary Human Extinction Movement. http://www.vhemt.org/ Knobe J., Olum K.D. and Vilenkin A. 2006. Philosophical Implications of Inflationary Cosmology. British Journal for the Philosophy of Science, Volume 57, Number 1, March: 313–323. http://philsci-archive.pitt.edu/archive/00001149/00/cosmology.pdf Krauss L.M., Dent J.2008. The Late Time Behavior of False Vacuum Decay: Possible Implications for Cosmology and Metastable Inflating States. Phys. Rev. Lett., 100: 171301, http://arxiv.org/abs/0711.1821 Kruglanski A.W. 1989. Lay Epistemics and Human Knowledge: Cognitive and Motivational Bases. N.Y.: Plenum. Kurzweil R. 1999. The Age of Spiritual Machines: When Computers Exceed Human Intelligence. N.Y.: Viking. Kurzweil R. 2001. The Law of Accelerating Returns. http://www.kurzweilai.net/articles/art0134.html?printable=1 LA-602. 1945. Ignition of the Atmosphere with Nuclear Bombs. Report http://www.sciencemadness.org/lanl1_a/lib-www/la-pubs/00329010.pdf Lansberg P.T., Dewynne J.N. 1997. A Probable Paradox. Nature, 389: 779. Ledford H. 2007. The Power of a Single Neuron. Nature-on-line, 19 December http://www.nature.com/news/2007/071219/full/news.2007.392.html Leslie J. 1996. The End of the World: The Science and Ethics of Human Extinction. L.: Routledge. Leslie J. 1989. Risking the World's End. Bulletin of the Canadian Nuclear Society, May: 10–15. Lovelock J. 2006. The Revenge of Gaia: Why the Earth Is Fighting Back – and How We Can Still Save Humanity. Santa Barbara (California): Allen Lane. Mason C. 2003. The 2030 Spike: Countdown to Global Catastrophe. L.: Earthscan Publications. Melott B., Lieberman C., Laird L. Martin M., Medvedev B. Thomas. 2004. Did a gamma-ray burst initiate the late Ordovician mass extinction? Int. J. Astrobiol., 3: 55 arxiv.org/abs/astro-ph/0309415 Русский перевод: Гамма-лучи могли вызвать на Земле ледниковый период. http://www.membrana.ru/articles/global/2003/09/25/200500.html Merkle R. 1994. The Molecular Repair of the Brain. Cryonics, 15: 16–31. Foote M., Crampton J.S., Beu A.G,. Marshall B.A, Cooper R.A., Maxwell P.A, Matcham I. 2007. Rise and Fall of Species Occupancy in Cenozoic Fossil Mollusks. Science. V. 318: 1131–1134. Milgrom P., Stokey N. 1982. Information, Trade and Common Knowledge. Journal of Economic Theory, Volume 26,1:17–27. Moravec H. 1988. Mind Children: The Future of Robot and Human Intelligence, N.Y.: Harvard University Press. Moravec H. 1999. Robot: Mere Machine to Transcendent Mind. N.Y.:. Oxford University Press. Moravec H. 1998. When Will Computer Hardware Match the Human Brain? Journal of Transhumanism, 1. http://www.transhumanist.com/volume1/moravec.htm Morgan M.G. 2000. Categorizing Risks for Risk Ranking. Risk Analysis, 20(1): 49–58. Gehrels N., Laird C.M., Jackman Ch.H., Cannizzo J.K., Mattson B.J., Chen W. 2003. Ozone Depletion from Nearby Supernovae. Astrophysical Journal, 585: 1169–1176. http://xxx.lanl.gov/abs/astro-ph/0211361 NASA. The Palermo Technical Impact Hazard Scale. http://neo.jpl.nasa.gov/risk/doc/palermo.html Napier W.M., Wickramasinghe, J.T. and Wickramasinghe, N.C. Extreme. 2004. Albedo Comets and the Impact Hazard. Mon. Not. R. Astron. Soc., 355. Issue 1: 191–195. Napier W.M., 2008. Hazards from Comets and Asteroids. Global Catastrophic Risks, Edited by Nick Bostrom и Milan M. Cirkovic, N.Y.: Oxford University Press. Русский перевод: Уильям Нейпьер. Опасность комет и астероидов. http://www.scribd.com/doc/9726345/- Nowak R. 2001. Disaster In The Making. New Scientist, 13 January 2001: 109–120. http://www.newscientist.com/nsplus/insight/bioterrorism/disasterin.html. Omohundro S.M. 2008. The Basic AI Drives. Artificial General Intelligence. Proceedings of the First AGI Conference. Volume 171. http://selfawaresystems.com/2007/11/30/paper-on-the-basic-ai-drives/ Olson A.J., Hu Y.H., Keinan E. 2007. Chemical Mimicry of Viral Capsid Self-Assembly. Proceedings of the National Academy of Sciences, Vol. 104, No. 52: 20731-20736. Orwell G. 1949. 1984. L.: Secker and Warburg. Perrow Ch. 1999. Normal Accidents: Living with High-Risk Technologies. Princeton, NJ: Princeton University Press. Posner R.A.2004. Catastrophe: Risk and Response. N.Y.: Oxford University Press. Powell C. 2000. 20 Ways the World Could End. Discover, 21(10). http://www.discover.com/oct_00/featworld.html Raffensberge C., Tickner J. eds. 1999. Protecting Public Health and the Environment: Implementing the Precautionary Principle. Washington, DC: Island Press. Raghavan R.S. 2002. Detecting a Nuclear Fission Reactor at the Center of the Earth. arXiv:hep-ex/0208038v2. Robock A., Oman L., Stenchikov G.L. 2007. Nuclear Winter Revisited with a Modern Climate Model and Current Nuclear Arsenals: Still Catastrophic Consequences. J. Geophys. Res., 112, D13107, doi:2006JD008235. русский перевод: http://climate.envsci.rutgers.edu/pdf/RobockNW2006JD008235Russian.pdf Rohde R.A., Muller R.A. 2005. Cycles in Fossil Diversity. Nature, vol. 434, 10 March: 208–209.http://muller.lbl.gov/papers/Rohde-Muller-Nature.pdf Roland J. 1984. Nuclear Winter and Other Scenarios, рукопись. http://www.pynthan.com/vri/nwaos.htm Ross M., Sicoly F. 1979. Egocentric Biases in Availability and Attribution. Journal of Personality and Social Psychology, 37: 322–336. Ryskin G. 2003. Methane-Driven Oceanic Eruptions and Mass Extinctions. Geology, 31: 741–744. http://pangea.stanford.edu/Oceans/GES205/methaneGeology.pdf Shute N. 1957. On the Beach. L.: Ballantine Books. Simmons M.R. 2005. Twilight in the Desert: The Coming Saudi Oil Shock and the World Economy. N.Y.: John Wiley and sons, Inc. Rees M. 2003. Our Final Hour. N.Y.: Basic Books. Ross M., Sicoly F. 1979. Egocentric biases in availability and attribution. Journal of Personality and Social Psychology, 37, 322-336. SmithP.D.2007. Doomsday Men: The Real Dr. Strangelove and the Dream of the Superweapon. N.Y.: St. Martin's Press. Stevenson D. 2003. A Modest Proposal: Mission to Earth’s Core. Nature, 423: 239–240. Svenson O. 1981. Are We Less Risky and More Skillful That Our Fellow Drivers? Acta Psychologica, 47: 143–148. Taleb N. 2005. The Black Swan: Why Don't We Learn that We Don't Learn? N.Y.: Random House. Tegmark M. 1998. The Interpretation of Quantum Mechanics: Many Worlds or Many Words? Fortschr. Phys, 46: 855–862. http://arxiv.org/pdf/quant-ph/9709032 Tickner J. et al. 2000. The Precautionary Principle. http://www.biotech-info.net/handbook.pdf Turner M.S., Wilczek, F. 1982. Is Our Vacuum Metastable? Nature, August 12: 633–634. Vinge V. 1993. The Coming Technological Singularity. Whole Earth Review, Winter issue, 81: 88–95. Wagner M.M. 2006. Handbook of Biosurveillance. L.: Academic Press. Ward P.D., Brownlee, D.2000. Rare Earth: Why Complex Life is Uncommon in the Universe. N.Y.: Springer. Warwick K. 1997. March of the Machines, L: Century. Weaver T., Wood A. 1979. Necessary Conditions for the Initiation and Propagation of Nuclear Detonation Waves in Plane Atmospheres. Physical review 20, 1 July: 316–338. http://www.lhcdefense.org/pdf/LHC%20-%20Sancho%20v.%20Doe%20-%20Atmosphere%20Ignition%20-%202%20-%20Wood_AtmIgnition-1.pdf Webb S. 2002. If the Universe Is Teeming with Aliens... Where Is Everybody? Fifty Solutions to Fermi's Paradox and the Problem of Extraterrestrial Life. N.Y.: Springer. Wells W. 2009. Apocalypse When?: Calculating How Long the Human Race Will Survive. NY:Springer. Whitby B. et al. 2000. How To Avoid a Robot Takeover: Political and Ethical Choices in the Design and Introduction of Intelligent Artifacts. Presented at AISB-00 Symposium on Artificial Intelligence, Ethics an (Quasi-) Human Rights. http://www.informatics.sussex.ac.uk/users/blayw/BlayAISB00.html Yudkowsky E. 2008. Artificial Intelligence as a Positive and Negative Factor in Global Risk. Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic. N.Y.: Oxford University Press, Русский перевод: Е. Юдковски. Искусственный интеллект как позитивный и негативный фактор глобального риска. http://www.proza.ru/texts/2007/03/22-285.html Yudkowsky E.2008. Cognitive Biases Potentially Affecting Judgment of Global Risks. Global Catastrophic Risks, eds. Nick Bostrom and Milan Cirkovic, N.Y.: Oxford University Press, Русский перевод: Е. Юдковски. Систематические ошибки в рассуждениях, потенциально влияющие на оценку глобальных рисков. http://www.proza.ru/texts/2007/03/08-62.html Yudkowsky E. 2001. Creating Friendly AI 1.0. http://www.singinst.org/upload/CFAI.html. Zaitsev A. 2007. Sending and Searching for Interstellar Messages. To appear in the proceedings of "International Aeronautical Congress 2007", Hyderabad: University Press. http://arxiv.org/abs/0711.2368
Полное содержание Г. Г. Малинецкий. Размышления о немыслимом... 7 1. Глобальная неустойчивость. 8 2. Психологический дискурс. 12 3. Проблема инструмента. 16 4. В погоне за предвестниками. 21 Н. Бостром. Вводное слово.. 27 Предисловие. 28 Термины.. 35 Введение. 37 Часть 1. Анализ Рисков. 39 Глава 1. Общие замечания. 39 1.1 Пространство возможностей. 39 1.2 Рассматриваемый промежуток времени: XXI век. 40 1.3 Проблемы вычисления вероятностей различных сценариев. 42 1.4 Количественные оценки вероятности глобальной катастрофы, даваемые различными авторами 61 1.5 Глобальные катастрофы и горизонт прогнозирования. 63 1.6 Краткая история исследований вопроса. 65 1.7 Угрозы менее масштабных катастроф: уровни возможной деградации 74 1.8 Одн Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.085 сек.) |