|
|||||||
АвтоАвтоматизацияАрхитектураАстрономияАудитБиологияБухгалтерияВоенное делоГенетикаГеографияГеологияГосударствоДомДругоеЖурналистика и СМИИзобретательствоИностранные языкиИнформатикаИскусствоИсторияКомпьютерыКулинарияКультураЛексикологияЛитератураЛогикаМаркетингМатематикаМашиностроениеМедицинаМенеджментМеталлы и СваркаМеханикаМузыкаНаселениеОбразованиеОхрана безопасности жизниОхрана ТрудаПедагогикаПолитикаПравоПриборостроениеПрограммированиеПроизводствоПромышленностьПсихологияРадиоРегилияСвязьСоциологияСпортСтандартизацияСтроительствоТехнологииТорговляТуризмФизикаФизиологияФилософияФинансыХимияХозяйствоЦеннообразованиеЧерчениеЭкологияЭконометрикаЭкономикаЭлектроникаЮриспунденкция |
Глава 21. Защита от глобальных рисков21.1 Общее понятие о предотвратимости глобальных рисков Очевидно, что если удастся выяснить, что существует несколько простых, очевидных и надёжных способов противостоять глобальным катастрофам, то мы значительно улучшим свою безопасность, а ряд глобальных рисков перестанет нам угрожать. Напротив, если окажется, что во всех предлагающихся мерах и средствах защиты есть свои изъяны, которые делают их в лучшем случае неэффективными, а в худшем – просто опасными, то нам необходимо придумать нечто кардинально новое. Представляется, что система защиты – на каждой фазе развития глобального риска – должна осуществлять следующие функции: · Наблюдение. · Анализ информации и принятие решения. · Уничтожение источника угрозы. Эта стратегия хорошо отработана в контрразведке, борьбе с терроризмом и военном деле. Другая стратегия предполагает бегство от источника угрозы (космические поселения, бункеры). Очевидно, эта вторая стратегия должна применяться в случае провала первой (или одновременно с ней, на всякий случай). Глобальные риски различаются по степени того, насколько возможно их предотвращение. Например, вполне реально запретить некий класс опасных экспериментов на ускорителях, если научное сообщество придёт к выводу, что эти эксперименты создают определённый риск. Поскольку в мире всего несколько больших ускорителей, которые управляются достаточно открыто, и потому что сами учёные не желают катастрофы и не имеют от неё никаких выгод, то кажется очень простым отменить эксперименты. Фактически, для этого нужно только общее понимание их опасности. То есть максимально предотвратимый риск – это риск, который: · легко предвидеть, · легко достичь научного консенсуса в отношении такого предвидения, · этого консенсуса достаточно, чтобы отказаться от действий, ведущих к данному риску. Отказаться от действий, ведущих к некому риску (например, запретить некую опасную технологию), легко лишь при определённых условиях: · Если опасные процессы создаются только людьми; · Если эти процессы создаются в небольшом числе широко известных мест. (Как, например, физические эксперименты на огромных ускорителях); · Если люди не ждут никакой выгоды от этих процессов; · Если опасные процессы предсказуемы как по моменту своего возникновения, так и по ходу развития; · Если опасные объекты и процессы легко распознаваемы. То есть мы легко, быстро и наверняка узнаём, что началась некая опасная ситуация, и мы правильно оцениваем степень её опасности; · Если у нас есть достаточно времени в силу специфики процесса, чтобы разработать и принять адекватные меры. Соответственно, риски, которые трудно предотвращать, характеризуются тем, что: · Их трудно предвидеть, даже трудно предположить об их возможности. (Даже предположить, что в SETI может быть риск, было трудно.) · даже если кто-то осознаёт этот риск, ему крайне трудно убедить в этом кого-либо ещё (примеры: трудности с осознанием ИИ и SETI как источника риска, трудности Доказательство Конца Света). · даже если будет достигнуто общественное согласие о том, что подобные риски действительно опасны, это не приведёт к тому, что люди добровольно откажутся от данного источника риска. (примеры: ядерное оружие.) Последнее связано с тем, что: o Источники риска доступны большому числу людей, а кто эти люди – неизвестно (можно поставить на учёт всех физиков ядерщиков, но не хакеров-самоучек). o Источники риска находятся в неизвестном месте и/или их легко скрыть (биолаборатории). o Риски создаются независящими от человека природными факторами, или в результате взаимовлияния человеческих действий и природных факторов. o Источник опасности сулит не только риски, но и выгоды, в частности, является оружием. o Момент начала аварийной ситуации непредсказуем, равно как и то, как она будет развиваться. o Опасную ситуацию трудно опознать в качестве таковой, это требует много времени и содержит элемент неопределённости. (Например, трудно определить, что некая новая бактерия является опасной, пока она кого-то не заразит и пока её распространение не достигнет таких масштабов, когда можно понять, что это именно эпидемия.) o Опасный процесс развивается быстрее, чем мы успеваем на него адекватно реагировать. Предотвратимость некоторых рисков, однако, не должна приводить к тому, что их следует сбрасывать со счёта, поскольку не обязательно означает, что риск в конечном счёте будет предотвращён. Например, астероидная опасность относится к числу относительно легко предотвратимых рисков, однако реальной противоастероидной (и, что важнее, противокометной) системы защиты у нас сейчас нет. И пока её нет, «предотвратимость» угрозы остаётся чисто гипотетической, поскольку мы не знаем, насколько эффективной и безопасной будет будущая защита, появится ли она вообще и если появится, то когда. 21.2 Активные щиты В качестве способа предотвращения глобальных рисков предлагается создавать разного рода активные щиты. Активный щит – это средство контроля и воздействия на источник риска по всему земному шару. Фактически, это аналог иммунной системы в масштабе всей планеты. В качестве наиболее очевидного примера можно привести идеи создания всемирной системы ПРО. Активность щитов подразумевает, что они могут относительно автономно реагировать на любой раздражитель, который попадает под определение угрозы. При этом щит полностью покрывает защищаемую поверхность, то есть поверхность Земли. Понятно, что автономный щит опасен неконтролируемым поведением, а управляемый является абсолютным оружием в руках того, кто им управляет. Как нам известно из дискуссий о СОИ, даже если активный щит является полностью оборонительным оружием, он всё равно даёт преимущество в нападении для защищённой стороны, так как она может не опасаться возмездия. Сравнение активных щитов с иммунной системой человека, как идеальной формой защиты, некорректно, потому что иммунная система неидеальна. Она обеспечивает статистическое выживание вида за счёт того, что отдельные особи живут в среднем достаточно долго. Но она не обеспечивает неограниченное выживание отдельного индивида. Любой человек неоднократно заражается заразными болезнями в течение жизни, и многие от них гибнут. Для любого человека найдётся болезнь, которая его убьёт. Кроме того, иммунная система хорошо работает тогда, когда точно знает патоген. Если она его не знает, то потребуется время, чтобы он успел себя проявить, и ещё время, чтобы иммунная система выработала против него ответ. То же самое происходит и с компьютерными антивирусами, которые тоже являются активным щитом: хотя они обеспечивают устойчивое существование всех компьютеров, каждый отдельный компьютер время от времени всё равно заражается вирусом, и данные на нём теряются. Кроме того, антивирус не даёт защиты от принципиально нового вируса, пока не пришлют обновления, а за это время новый вирус успевает заразить определённое число компьютеров. Если бы возникла угроза распространения «серой слизи», мы поняли бы, что это – «серая слизь», только после того, как она значительно распространится. Впрочем, есть иммунные системы, работающие по принципу: запрещено всё, что не разрешено, но их тоже можно обмануть, и они более склонны к автоиммунным реакциям. Короче говоря, иммунная система хороша только тогда, когда есть мощное дублирование основной системы. У нас пока нет возможности дублирования земных жизненных условий, а космические поселения столкнутся с рядом принципиальных трудностей. Кроме того, у всех иммунных систем бывают ложные срабатывания, которые проявляются в автоиммунных заболеваниях – как, например, аллергия и диабет – которые вносят значительный вклад в человеческую смертность, сравнимый по порядку величины с вкладом рака и инфекционных заболеваний. Если иммунная система слишком жёсткая, она порождает автоиммунные заболевания, а если слишком мягкая – то пропускает некоторые опасности. Поскольку иммунная система покрывает весь защищаемый объект, то выход её из строя создаёт угрозу всему объекту (здесь действует принцип «распространение фактора опаснее разрушения»). Террористическая атака на иммунную систему делает всю систему беззащитной. Так работает СПИД, который тем быстрее распространяется, чем сильнее с ним иммунная система борется, поскольку он находится внутри неё. Широко обсуждаются идеи БиоЩита и НаноЩита[111]. Эти щиты подразумевают распыление по всей поверхности Земли тысяч триллионов контролирующих устройств, способных оперативно проверять любые агенты на опасность и оперативно уничтожать опасные. Также к щитам относится дальнейшее ужесточение контроля в Интернете и всемирное развешивание следящих видеокамер. Однако уже на примере всемирной ПРО видны существенные проблемы любых щитов: 1. они значительно отстают от источника угрозы по времени разработки. 2. они должны действовать сразу на всей территории Земли без исключений. Чем точечнее угроза, тем плотнее должен быть щит. 3. они уже сейчас вызывают серьёзные политические разногласия. Если щит покрывает не всю поверхность Земли, то он может создавать ситуацию стратегической нестабильности. 4. любой щит создаётся на основе ещё более продвинутых технологий, которые могут создавать угрозы своего уровня. 5. щит может быть источником глобального риска сам по себе, если у него начнётся некая «автоиммунная реакция», то есть он начнёт уничтожать то, что должен был защищать. Или если управление щитом будет потеряно, и он начнёт защищаться от своих хозяев. Или если его ложное срабатывание станет поводом для войны. 6. щит не может быть абсолютно надёжен – то есть успех его срабатывания носит вероятностный характер. И тогда, в случае постоянной глобальной угрозы, вопрос его пробивания – это только вопрос времени. 7. Щит должен иметь централизованное управление, но при этом автономность на местах для быстрого реагирования. Например, антиастероидный щит создаст много новых проблем безопасности человечества. Во-первых, он обеспечит технологию точного управления астероидами, которая за счёт малых воздействий может направить на землю огромную массу, причём тайно, в духе криптовойны. Во-вторых, сам такой щит может быть использован для атаки на Землю. Например, если на высокой орбите будет висеть 50 штук гигатонных бомб, готовых по команде устремиться в любую точку солнечной системы, человечество не будет чувствовать себя в большей безопасности. В-третьих, движение всех астероидов за миллиарды лет хорошо синхронизировалось, и любое нарушение этого равновесия может привести к тому, что тот же самый астероид станет постоянной угрозой, регулярно проходя рядом с Землёй. Особенно это будет опасно, если человечество после такого вмешательства откатится на предтехнологический уровень. Обратим внимание на то, что каждая опасная технология может быть средством собственного предотвращения: · Ракеты сбиваются с помощью ракет ПРО. · По местам производства ядерного оружия наносятся ядерные удары. · ИИ контролирует весь мир, чтобы нигде не создали неправильный ИИ. · Биодатчики не дают распространиться биологическому оружию. · Нанощит защищает от нанороботов. Часто щиты делают нечто ровно противоположное тому, ради чего они создавались. Например, есть мнение (доклад Беллоны, глава IV.1. «Три «трещины» ДНЯО» [Яблоков 2005]), что договор о нераспространении ядерного оружия плохо справляется с чёрным рынком, но хорошо справляется с распространением «мирного атома» (то есть строительством во всех странах, которые этого хотят, исследовательских ядерных реакторов), который фактически оказывается технологией двойного назначения. Прочные двери, которые защищают кабины самолётов после терактов 11 сентября, не дадут проникнуть террористам в кабину, но если они там всё-таки окажутся (например, в силу того, что сам пилот – террорист), то пассажиры и стюарды не смогут им помешать. Если есть система управления полётом с Земли, то появляется шанс захватить самолёт, используя эту систему, по радио. Наконец, все щиты предлагаются, исходя из предположения о том, что у нас есть некая идеальная система, которая наблюдает и контролирует другую, менее совершенную. Например, неподкупная милиция контролирует несовершенное общество. Если же милиция коррумпирована, то отдел собственной безопасности её контролирует, и так далее. Очевидно, что подобных идеальных систем в реальности не бывает, поскольку и система контроля, и контролируемый объект сделаны из одного теста. Можно представить себе многоуровневую иерархическую систему щитов, но в таком случае есть риск раскола между разными контролирующими системами. Наконец, у любого щита есть слепое пятно – он не может контролировать собственный центр управления. Возможно, средства защиты вообще создают больший риск, чем сами угрозы, так как средства защиты по определению глобальны. А способность действовать на всю территорию Земли – это первый признак источника глобального риска. Вероятно, есть и третий уровень, а именно защита от тотальности самого щита. Угроза – Щит – Ограничение щита. Этот третий уровень может идти как извне – гражданские протесты против тотального контроля, террористы, борющиеся с щитом или ищущие способы реализовать свои угрозы, минуя щит, – так и изнутри в виде систем «внутренней безопасности». 21.3 Действующие и будущие щиты Здесь я привожу краткий, но насколько возможно полный список щитов, которые уже есть или могут появиться в будущем. 1) Всемирная система ПРО. Страдает от политических и технологических проблем, готова только в зачаточной стадии. 2) МАГАТЭ. Работает, но со сбоями. Упустила несколько военных ядерных программ. 3) Всемирная борьба с наркотиками. Находится в равновесии со своей проблемой – сдерживает в некоторой степени, но не более. 4) Система тотального информационного наблюдения, которую можно назвать «оруэлловский контроль» в честь антиутопии «1984» Оруэлла, где подобная система живо описана. Система контроля за каждым человеком с помощью видеокамер, чипов идентификации, слежения за Интернетом, перехвата телефонных разговоров. Технически такая система достижима, но в реальности она развёрнута только на несколько процентов от того, что могло бы быть, однако при этом она активно развивается. Уже сейчас становятся очевидны и открыто обсуждаются проблемы такой системы, связанные с легитимностью, интернациональностью, слепыми зонами, хакерами. Теоретически может стать основой для всех других систем контроля, так как, возможно, контроля над поведением всех людей достаточно, чтобы не появлялось опасных био, нано и ИИ устройств (вместо того, чтобы выискивать уже готовые опасные устройства в окружающей среде). 5) «Mind -контроль». Эта система подразумевает вживление в мозг неких контролирующих чипов (или расшифровка мыслей с помощью анализа энцефалограмм – уже есть конкретные результаты на этом пути). Это может быть не так сложно, как кажется, если мы найдём группы клеток, на которые проецируется внутренний диалог и эмоциональные состояния. Чем-то вроде этого сейчас является детектор лжи. Такое устройство может решить проблему даже спонтанных преступлений, вроде внезапной агрессии. С другой стороны, потенциал злоупотребления такой технологией – неограничен. Если с помощью такой системы можно будет управлять людьми, то достаточно одной неверной команды, чтобы уничтожить всё человечество. (Та же проблема возникает с предлагающейся в качестве меры против террористов системой управления полётом авиалайнеров с земли: хотя она уменьшит риск захвата отдельного самолёта, она создаст теоретическую возможность одновременно перехватить управление над всеми находящимися в воздухе самолётами и осуществить с их помощью массовый таран зданий или ядерных реакторов.) Наконец, она не даст абсолютной защиты, так как её можно взломать, а также, потому что некоторые катастрофы происходят не по злому умыслу, а от недомыслия. 6) Анти-астероидная защита. Ведётся наблюдение за потенциально опасными объектами, но недостаточное, средства перехвата официально не разрабатываются. (Но зонд Deep Impact в 2005 г. использовался для столкновения с кометой Темпеля, в результате чего на теле кометы образовался кратер, а её траектория очень незначительно изменилась.) 7) БиоЩит. Борьба с биотерроризмом осуществляется в настоящий момент на уровне разведки и международных соглашений по контролю. Есть рекомендации по безопасной разработке биотехнологий (начиная от добровольных самоограничений, принятых в Асиломаре в 70-е годы и заканчивая книгой «Руководство по биоконтролю» [Wagner 2006]; вместе с тем, ряд предлагающихся ограничений до сих пор не принят[112]). 8) Нанощит. В стадии предварительного обсуждения. Есть рекомендации по безопасной разработке, разрабатываемые Центром Ответственных Нанотехнологий [CRN 2003]. 9) ИИ-щит. Защита от создания враждебного ИИ. В Сингулярити Институте в Калифорнии (SIAI) ведётся обсуждение проблем безопасного целеполагания для сильного ИИ, то есть проблемы его Дружественности. Есть рекомендации по безопасной разработке[113]. 10) Обычная полиция и службы безопасности. Можно также охарактеризовать последовательность во времени срабатывания щитов в случае развития опасной ситуации. Первый уровень обороны состоит в поддержании цивилизации в осознанном, миролюбивом, уравновешенном состоянии и в подготовке к работе по предотвращению рисков на всех остальных уровнях. На этом уровне важны обмен информацией, открытые дискуссии, публикации в реферируемых журналах, сбор средств, пропаганда, образование и инвестиции. Второй состоит в непосредственном компьютерном контроле над людьми и опасными системами с тем, чтобы ситуации глобального риска вообще не могли возникнуть. На этом уровне действует МАГАТЭ, глобальные системы видеонаблюдения и перехвата интернет сообщений и т. д. Третий – в подавлении возникшей опасности с помощью ракет, антинаноробтов и т д. Это уровень, аналогичный уровню систем ПРО в защите от оружия массового поражения. Четвёртый – в эвакуации с Земли или закупоривании в бункеры (однако принцип предосторожности предполагает, что следовало бы начать это делать даже одновременно с первым пунктом). 21.4 Сохранение мирового баланса сил Новые технологии могут нарушать военно-политическое равновесие в мире, предоставляя одной из сторон невиданные возможности. Эрик Дрекслер описывает проблему следующим образом: «В поиске серединного пути мы могли бы пытаться найти баланс сил, основанный на балансе технологий. Это, по-видимому, расширило бы ситуацию, которая сохраняла определенную меру мирного сосуществования на протяжении четырех десятилетий. Но ключевое слово здесь – "по-видимому": грядущие прорывы будут слишком стремительными и дестабилизирующими, чтобы старый баланс мог продолжать существование. в прошлом страна могла испытывать технологическое отставание на несколько лет и всё же поддерживать приблизительный военный баланс. Однако со стремительными репликаторами и продвинутым ИИ задержка на единственный день могла бы быть фатальной» [Drexler 1985]. Короче говоря, чем быстрее развиваются технологии, тем меньше шансов, что они будут находиться в равновесии в разных странах, а также с силами сдерживания и контроля. Сознательное нарушение баланса также опасно: попытка одной из стран явным образом уйти «в отрыв» в сфере военных сверхтехнологий может спровоцировать её противников на агрессию по принципу «атака при угрозе потери преимущества». 21.5 Глобальная система наблюдения Любая защита от глобального риска опирается на некую систему глобального наблюдения и контроля. Чем опаснее риск и чем в большем числе мест он может возникнуть, тем тотальнее и эффективнее должна быть эта система контроля. Примером современной системы контроля является МАГАТЭ. Щиты также могут быть системой контроля или содержать её в себе как особую структуру. Но щиты могут действовать локально и автономно, как иммунная система, а система контроля предполагает сбор и передачу данных в единый центр. Окончательным вариантом такого глобального контроля было бы «оруэлловское государство», где из каждого угла торчало бы по видеокамере или чипы были бы установлены в мозг каждого человека, не говоря уже о компьютерах. Увы, в отношении видеонаблюдения это уже почти реализованный вариант. А в домах это можно реализовать технически в любой момент – везде, где есть постоянный интернет и компьютеры. Вопрос, скорее, не в наблюдении, а в передаче и, особенно, в анализе этих данных. Без помощи ИИ нам трудно проверить всю эту информацию. Привлекательными выглядят системы взаимной подотчётности и гражданской бдительности, продвигаемые как альтернатива тоталитарному государству в борьбе с терроризмом, где за счёт абсолютной прозрачности каждый может контролировать каждого, но в отношении их возможности пока много неясного. (Об этом пишет писатель фантаст и учёный Д.Брин в статье «Сингулярность и кошмары».) Возникающие проблемы: · Чтобы быть эффективной, такая система контроля должна охватывать весь Земной шар без исключения. Это невозможно без некой формы единой власти. · Любую систему контроля можно ввести в заблуждение – поэтому по-настоящему эффективная система контроля должна быть многократно избыточна. · Мало наблюдать всё, необходимо всю эту информацию анализировать в реальном времени, что невозможно без ИИ или тоталитарного государственного аппарата. Кроме того, эта верховная власть не сможет контролировать сама себя, следовательно, понадобится система обратной её подотчётности либо народу, либо «службе внутренней безопасности». · Такая система будет противоречить представлениям о демократии и свободе, которые сформировались в европейской цивилизации, и вызовет ожесточённое сопротивление вплоть до распространения практик терроризма. Такая система тотального контроля вызовет соблазн применять её не только против глобальных рисков, но и против любого рода «правонарушений», вплоть до случаев употребления неполиткорректной речи и прослушивания нелицензионной музыки. · Те, кто контролируют, должны иметь полное и ясное представление обо всех глобальных рисках. Если это будут только биологические риски, но не создание ИИ и опасные физические эксперименты, то система будет неполноценна. Очень трудно отличить опасные биологические эксперименты от безопасных – во всех случаях используются ДНК-секвенсоры и опыты на мышах. Без чтения мыслей учёного не поймёшь, что он задумал. А от случайных опасных экспериментов эта система не защищает. · Поскольку подобная система будет уже «доставлена» в любую точку земного шара, она может упростить действие любого оружия, поражающего каждого человека. Иначе говоря, захват власти над системой тотального контроля даст власть над всеми людьми и упростит задачу сделать с ними всё, что угодно, в том числе и нанести им вред. Например, можно разослать по почте некое лекарство и проконтролировать, чтобы все его приняли, а тех, кто отказался, арестовать. · Такая система будет эффективна только, если она будет осуществлять абсолютно полный контроль. Частичный контроль вызовет реакцию сопротивления, подобную возникновению мафии с эпоху сухого закона в США. В результате те, кто хотел бы заниматься чистой наукой, будут выдавлены в преступную область и будут в большей степени работать на средствами разрушения, чем если бы системы контроля вообще не было. Это подобно тому, как неполный курс антибиотиков приводит к сохранению бактерий в организме и даже превращению их в более устойчивые к антибиотикам штаммы. Итак, система тотального контроля кажется наиболее очевидным средством противостояния глобальным рискам. Однако она содержит ряд подводных камней, которые могут превратить её саму в фактор глобального риска. Кроме того, система тотального контроля подразумевает тоталитарное государство, которое, будучи снабжённым средствами производства в виде роботов, может утратить потребность в людях как таковых. 21.6 Сознательная остановка технологического прогресса Часто выдвигаются предложения об отказе от технического прогресса или в насильственной форме, или путём взывания к совести учёных с целью предотвращения глобальных рисков. Есть разные варианты способов осуществления этой остановки, и все они или не работают, или содержат подводные камни: 1. Личный отказ от разработки новых технологий практически ни на что не влияет. Всегда найдутся другие, которые это сделают. 2. Агитация, просвещение, социальные действия или терроризм как способы заставить людей отказаться от развития опасных технологий – не работают. Как пишет Юдковски: любая стратегия, которая предполагает единодушные действия всех людей, обречена на провал. 3. Отказ от технологических новшеств на определённой территории, например, одной страны, неспособен остановить технологический прогресс в других странах. Более того, если более ответственные страны откажутся от развития некой технологии, то пальма первенства перейдёт к более безответственным. 4. Всемирное соглашение. На примере МАГАТЭ мы знаем, как плохо это работает. 5. Завоевание всего мира силой, которая сможет регулировать развитие технологий. Но в процессе этого завоевания велики шансы применения оружия «судного дня» теми ядерными державами, которые в результате утратят суверенитет. Кроме того, цитируя Дрекслера: «Далее, победившая сила была бы сама главной технологической силой с огромной военной мощью и демонстрируемой готовностью ее использовать. Можно ли в этом случае доверять такой силе в том, что она подавит свой собственный прогресс?» («Машины созидания».) 6. Мирное объединение наций перед лицом нависшей угрозы, подобно тому, как возникло ООН в годы фашизма, и делегирование ими своих сил на остановку прогресса в тех странах, которые не захотят присоединиться к этому объединению. Вероятно, это наилучший вариант, который объединяет достоинства всех предыдущих и сглаживает их недостатки. Но он станет реальным, только если общая угроза станет явной. 7. Ник Бостром предложил концепцию дифференцированного технологического развития, когда проекты, увеличивающие нашу безопасность, стимулируются и ускоряются, тогда как потенциально опасные проекты искусственно замедляются. Таким образом, управляя скоростью развития разных областей знания, мы получаем более безопасные сочетания технологий нападения и защиты. 8. Гленн Рейнольдс в статье в «Популярной механике»[114] указывает, что, наоборот, нужно как можно в больше степени ускорять развитие прорывных технологий, чтобы сократить окно уязвимости между открытием опасных технологий и открытием средств защиты (условных «ракет» и «антиракет»). Ограничение и прямое запрещение некоторых исследований несёт риск того, что в некотором будущем у нас не будет нужных знаний и нужного средства для парирования некоего, пока не представимого риска. Нераспространение знаний массового поражения явным образом противоречит идеи открытой дискуссии по глобальным рискам и выбору правильной границы между открытостью дискуссии и нераспространением знаний является важнейшим инструментом минимизации риска. То есть предотвращая риск, мы должны его максимально конкретизировать, и одновременно максимально скрыть. 21.7 Средства превентивного удара Мало иметь систему тотального контроля – нужно обладать возможностью предотвратить риск. Сейчас обычно в качестве крайней меры рассматривается удар ракетно-ядерными силами по точке источника риска. Здесь наблюдается любопытное противоречие с программами строительства бункеров для выживания – если такие бункера будут секретны и неуязвимы, то их будет трудно уничтожить. Более того, они должны содержать в себе полностью оборудованные лаборатории и учёных на случай катастрофы. Поэтому возможна ситуация, когда «сверхоружие» будет создаваться в таком бункере (например, в СССР создавались подземные ядерные заводы для продолжения производства ядерного оружия в случае затяжной ядерной войны). Люди, которые уже находятся в неуязвимом бункере, могут быть более психологически склонны к созданию сверхоружия для удара по поверхности. Следовательно, либо бункеры будут представлять угрозу человеческому выживанию, либо средства превентивного удара уничтожат все бункеры, которые могли бы использоваться для выживания людей после некой катастрофы. Однако удар по одной точке в пространстве не действует ни против системного кризиса, ни против некой информационной угрозы. Компьютерный вирус не вылечишь ядерным ударом. И не избавишь людей от привязанности к сверхнаркотику. Далее, удар возможен, пока некий риск не вышел из точки. Если рецепт супервируса попал в интернет, обратно его не выловишь. Уже сейчас современная военная машина бессильна против сетевых угроз, вроде террористических сетей, дающих метастазы по всей планете. Точно также в будущем компьютерный вирус будет не просто информационной угрозой данным на диске: он сможет заставлять компьютерно управляемые фабрики по всему миру незаметно производить некие свои материальные носители (скажем, в виде микроскопических роботов или программных закладок в обычных продуктах), а через них снова уходить в сеть (например, подключаясь к радиоканалу). Наконец, сам удар (или даже его возможность) создаст ситуацию стратегической нестабильности. Например, сейчас удар баллистической ракетой с обычной боеголовкой по террористам может вызвать срабатывание системы предупреждения о ракетном нападении вероятного противника и привести к войне. Наконец, нанесение удара требует определённого времени. Это время должно быть меньше времени от момента обнаружения развития угрозы до времени её перехода в необратимую фазу (например, в случае появления «серой слизи» важно уничтожить её до того, как она сумела размножиться в миллиардах копий и распространится по всей Земле). Сейчас время от обнаружения до удара по любой точке Земли меньше 2 часов, и может быть уменьшено до минут с помощью спутникового оружия. (Однако время принятия решения больше.) Если бы от момента принятия решения о написании кода опасного вируса до его запуска проходило бы только 15 минут, то этой скорости было бы недостаточно. И этой скорости очевидно недостаточно, если в некоем месте началось распыление опасных нанороботов по воздуху. Эффективность удара по точке принципиально изменится после основания космических колоний (хотя бы чисто робототехнических – там тоже может произойти сбой, который превратит колонию в «раковую» – то есть склонную к неограниченному саморазмножению и распространению «токсинов»: опасных нанороботов, сверхбомб и прочего; а именно освоение космоса с помощью саморазмножающихся роботов, использующих местные материалы, наиболее перспективно). За время, пока сигнал об опасности пройдёт, скажем, от спутника Юпитера до Земли и затем от земли туда прилетит боевой «флот» (то есть ракеты с ядерными боеголовками и боевыми нанороботами) наводить порядок (жечь всё подряд), будет уже поздно. Конечно, можно держать «флот» на орбите каждого спутника планеты или астероида, где есть способные к саморазмножению робототехнические колонии, но что если мятеж произойдёт именно на самом флоте? Тогда нужен флот, который контролирует другие флоты и курсирует между спутниками планет. А затем ещё один межпланетный флот для контроля над ними. Короче, ситуация не выглядит стратегически стабильной, – то есть выше определённого уровня системы контроля начинают мешать друг другу. Возможно, неспособность контролировать удалённые колонии приводит к тому, что цивилизациям выгодно замыкаться на материнской планете – вот ещё одно решение парадокса Ферми. 21.8 Удаление источников рисков на значительное расстояние от Земли Теоретически можно удалить источники рисков от Земли, в первую очередь это касается опасных физических экспериментов. Проблемы, связанные с этим подходом: · Получив в руки технические средства создавать мощные экспериментальные установки далеко от Земли, мы также будем иметь возможности быстро доставлять результаты экспериментов обратно. · Это не сможет остановить некоторых людей от аналогичных опытов на Земле, особенно если они просты. · Это не защитит нас от создания опасного сильного ИИ, так как он может распространяться информационно. · Даже за орбитой Плутона возможны опасные эксперименты, которые повлияют на Землю. · трудно заранее знать, какие именно эксперименты надо проводить «за орбитой Плутона». · Нет технических возможностей доставить огромное количество оборудования за орбиту Плутона в течение ближайших десятков лет, тем более без использования опасных технологий в виде самовоспроизводящихся роботов. 21.9 Создание автономных поселений в отдалённых уголках Земли Создание таких поселений, равно как и навыки выживания в дикой природе, вряд ли помогут в случае действительно глобальной катастрофы, поскольку она должна затронуть всю поверхность Земли (если это некий неразумный агент), или обнаружить всех людей (если это разумный агент). Автономное поселение уязвимо и к первому, и ко второму – если только это не вооружённая секретная база, но тогда оно относится скорее к понятию «бункеры». Если речь идёт о выживании после очень большой, но не окончательной катастрофы, то следует вспомнить опыт продразвёрстки и колхозов в России, – город силой властвует над деревней и отбирает у неё излишки. В случае системного кризиса главную опасность будут представлять другие люди. Недаром в фантастическом романе «Метро 2033» [Глуховский 2007] основной монетой является патрон от автомата Калашникова. И до тех пор, пока патронов будет больше, чем крестьян, будет выгоднее грабить, а не выращивать. Возможно также полное растворение человека в природе в духе Маугли. Однако маловероятно, что таким образом хотя бы некоторые представители вида Homo sapiens смогут пережить действительно глобальную катастрофу. 21.10 Создание досье на глобальные риски и рост общественного понимания связанной с ними проблематики Публикация книг и статей на тему глобальных рисков приводит к росту осознания проблемы в обществе и составлению более точного списка глобальных рисков. Междисциплинарный подход позволяет сравнивать разные риски и учитывать возможность их сложного взаимодействия. Сложности данного подхода: · не понятно, кому именно адресованы любые тексты такого рода. · террористы, страны-изгои и регулярные армии могут воспользоваться идеями о создании глобальных рисков из опубликованных текстов, что скорее приведёт к большему увеличению рисков, чем к их предотвращению. · неправильное и преждевременное вложение капитала может привести к разочарованию в борьбе с рисками – как раз именно тогда, когда эта борьба на самом деле понадобится. 21.11 Убежища и бункеры Разного рода убежища и бункеры могут увеличить шансы выживания человечества в случае глобальной катастрофы, однако ситуация с ними непроста. Отдельные автономные убежища могут существовать десятки лет, но чем они автономнее и долговременнее, тем больше усилий нужно на их подготовку заранее. Убежища должны обеспечивать способность человечества к дальнейшему самовоспроизводству. Следовательно, они должны содержать не только достаточное количество способных к размножению людей, но и запас технологий, который позволит выжить и размножаться на территории, которую планируется обживать после выхода из убежища. Чем сложнее будет загрязнена эта территория, тем более высокий уровень технологий потребуется для надёжного выживания. Очень большой бункер создаст условия для продолжения развития технологий и после катастрофы. Однако в этом случае он будет уязвим к тем же рискам, что и вся земная цивилизация – в нём могут появиться свои внутренние террористы, ИИ, нанороботы, утечки и т д. Если бункер не даст возможность продолжать развитие технологий, то он, скорее всего, обречён на деградацию. Далее, бункер может быть или «цивилизационным», то есть сохранять большинство культурных и технологических достижений цивилизации, или «видовым», то есть сохранять только человеческую жизнь. Перед «длительными» (то есть рассчитанными на многолетнее пребывание) бункерами встанет проблема образования и воспитания детей и риски деградации. Бункер может или жить за счёт ресурсов, накопленных перед катастрофой, или заниматься собственным производством. В таком случае это будет просто подземная цивилизация на заражённой планете. Чем в большей мере бункер, построенный на современных технологиях, автономен культурно и технически, тем больше там должно жить людей (но в будущем это будет не так: бункер на основе продвинутых нанотехнологий может быть даже вовсе безлюдным, – только с замороженными человеческими эмбрионами). Чтобы обеспечить простое воспроизводство посредством обучения основным человеческим профессиям, требуются тысячи людей. Эти люди должны быть отобраны и находиться в бункере до наступления окончательной катастрофы, желательно, на постоянной основе. Однако маловероятно, чтобы тысячи интеллектуально и физически превосходных людей захотели бы сидеть в бункере «на всякий случай». В этом случае они могут находиться в бункере в две или три смены и получать за это зарплату. (Сейчас в России начинается эксперимент «Марс 500», в котором 6 человек будут находиться в полностью автономном – по воде, еде, воздуху – пространстве 500 дней. Вероятно, это наилучший результат, который мы сейчас имеем. В начале 1990-х годов в США был также проект «Биосфера-2», в котором люди должны были прожить два года на полном самообеспечении под куполом в пустыне. Проект закончился частичной неудачей, так как уровень кислорода в системе стал падать из-за непредвиденного размножения микроорганизмов и насекомых.) В качестве дополнительного риска для бункеров следует отметить широко известный по антарктическим экспедициям факт психологии малых групп, замкнутых в одном помещении, – а именно, нарастание враждебности, чреватое деструктивными действиями, снижающими выживаемость. Бункер может быть или единственным, или одним из многих. В первом случае он уязвим к разным случайностям, а во втором возможна борьба между разными бункерами за оставшиеся снаружи ресурсы. Или возможно продолжение войны, если катастрофа возникла в результате войны. Бункер, скорее всего, будет или подземным, или морским, или космическим. При этом космический бункер тоже может быть заглублён в грунт астероидов или Луны. Для космического бункера будет труднее пользоваться остатками ресурсов на Земле. Бункер может быть полностью изолированным или позволять «экскурсии» во внешнюю враждебную среду. Моделью морского бункера может служить атомная подводная лодка, обладающая высокой скрытностью, автономностью, маневренностью и устойчивостью к негативным воздействиям. Кроме того, она может легко охлаждаться в океане (проблема охлаждения подземных замкнутых бункеров не проста), добывать из него воду, кислород и даже пищу. Кроме того, уже есть готовые лодки и технические решения. Лодка способна выдержать ударное и радиационное воздействие. Однако ресурс автономного плавания современных подводных лодок составляет в лучшем случае год, и в них нет места для хранения запасов. Современная космическая станция МКС могла бы автономно поддерживать жизнь нескольких человек в течение примерно года, хотя встают проблемы автономной посадки и адаптации. Непонятно, может ли некий опасный агент, способный проникнуть во все щели на земле, рассеяться за столь короткий срок. Есть разница между газо- и биоубежищами, которые находятся на поверхности, но разделены на много секций для поддержания режима карантина, и убежищами, которые предназначены для укрытия от мало-мальски разумного противника (в том числе от других людей, которым не досталось место в убежище). В случае биоопасности острова с жёстким карантином могут выступать в качестве убежища, если болезнь не переносится по воздуху. Бункер может иметь различные уязвимые точки. Например, в случае биологической угрозы, достаточно ничтожного проникновения. Полностью автономным может быть только высокотехнологичный бункер. Бункеру нужны энергия и кислород. Энергию может дать система на ядерном реакторе, но современные машины вряд ли могут обладать долговечностью более 30-50 лет. Бункер не может быть универсальным – он должен предполагать защиты от определённых, известных заранее видов угроз: радиационной, биологической и т д. Чем укреплённее бункер, тем меньшее число бункеров может приготовить человечество, и тем труднее такой бункер будет скрыть. Если после некой катастрофы осталось конечное число бункеров, местоположение которых известно, то вторичная ядерная война может покончить с человечеством через конечное число ударов по известному числу мест. Чем крупнее бункер, тем меньше таких бункеров можно построить. Однако любой бункер уязвим к случайному разрушению или заражению. Поэтому конечное число бункеров с определённой вероятностью заражения однозначно определяет максимальное время выживания человечества. Если бункеры связаны между собой торговлей и прочим материальным обменом, то тем вероятнее распространение некоей инфекции между ними. Если бункеры не связаны, то они будут деградировать быстрее. Чем мощнее и дороже бункер, тем труднее его создать незаметно для вероятного противника и тем скорее он станет целью атаки. Чем дешевле бункер, тем менее он долговечен. Возможны случайные укрытия – люди, уцелевшие в метро, шахтах, подводных лодках. Они будут страдать от отсутствия центральной власти и борьбы за ресурсы. Люди, истощившие ресурсы в одном бункере, могут предпринимать вооружённые попытки прорваться в другой соседний бункер. Также люди, уцелевшие случайно (или под угрозой нависшей катастрофы), могут атаковать тех, кто заперся в бункере. Бункеры будут страдать от необходимости обмена теплом, энергией, водой и воздухом с внешним миром. Чем автономнее бункер, тем меньше он может просуществовать в полной изоляции. Находящиеся глубоко в земле бункеры будут страдать от перегрева. Любые ядерные реакторы и прочие сложные машины будут требовать внешнего охлаждения. Охлаждение внешней водой будет демаскировать их, а иметь источники энергии без потерь в виде тепла – невозможно, тем более, что на глубине и так всегда высокая температура. Рост температуры, по мере углубления в землю, ограничивает предельную глубину залегания бункеров. (Геотермический градиент в среднем составляет 30 градусов/километр. Это означает, что бункеры на глубине больше 1 километра невозможны – или требуют гигантских охлаждающих установок на поверхности, как золотодобывающие шахты в ЮАР. Более глубокие бункеры могут быть во льдах Антарктиды.) Чем долговечнее, универсальнее и эффективнее бункер, тем раньше его надо начать строить. Но в этом случае трудно предугадать будущие риски. Например, в 1930-е годы построили много противогазовых бомбоубежищ, которые оказались бесполезны и уязвимы к бомбардировкам тяжёлыми фугасными бомбами. Эффективность бункера, который может создать цивилизация, соответствует технологическому уровню развития этой цивилизации. Но это значит, что она обладает и соответствующими средствами уничтожения, а следовательно, ей нужен все более мощный бункер. Чем автономнее и совершеннее бункер (например, оснащённый ИИ, нанороботами и биотехнологиями), тем легче он может, в конце концов, обойтись без людей, дав начало чисто компьютерный цивилизации. Люди из разных бункеров будут соревноваться за то, кто первым выйдет на поверхность, и кто, соответственно, будет ею владеть, – поэтому у них будет искушение осваивать ещё заражённые участки земли. Возможны автоматические робототизированные бункеры: в них замороженные человеческие эмбрионы хранятся в неких искусственных матках и через сотни или тысячи лет начинают выращиваться. (Технология заморозки эмбрионов уже есть, а работы по искусственной матке запрещены по соображениям биоэтики, но в принципе такое устройство возможно.) Такие установки с эмбрионами можно отправить в путешествие к другим планетам. Однако, если такие бункеры будут возможны, то земля вряд ли останется пустой – скорее всего она будет заселена роботами. Кроме того, если человеческий детёныш, воспитанный волками, считает себя волком, то кем будет считать себя человек, воспитанный роботами? Итак, идея о выживании в бункерах содержит много подводных камней, которые снижают её полезность и вероятность успеха. Долгосрочные бункеры надо строить многие годы, но они могут устареть за это время, так как ситуация изменяется и неизвестно к чему готовиться. Возможно, что есть ряд мощных бункеров, которые были построены в годы холодной войны. Пределом современных технических возможностей видится бункер порядка 30-летней автономии, однако его надо строить лет десять, и это потребует миллиардов долларов инвестиций. Особняком стоят информационные бункеры, которые предназначены, для того, чтобы донести до возможных уцелевших потомков наши знания, технологии и достижения. Например, в Норвегии, на Шпицбергене создали запас образцов семян зерновых с этими целями ("Хранилище семян судного дня" Arctic Doomsday Seed Vault или Global Seed Vault). Возможны варианты с сохранением генетического разнообразия людей с помощью замороженной спермы. Обсуждаются устойчивые к длительному хранению цифровые носители, например, компакт-диски, на которых вытравлен текст, который можно прочесть через лупу. Эти знания могут быть критически важными, чтобы не повторить наших ошибок. Возможным местом для убежищ являются астероиды и кометные тела в поясе Койпера, которых насчитываются триллионы штук и внутри которых можно спрятаться. Интересный обзор проблемы создания убежищ предлагает Р. Хансен [Hanson 2008]. Г. Кан, автор книги "О термоядерной войне", считал, что создание бункеров, позволяющих пережить ядерный удар, является провоцирующим действием, так как побуждает ударить до того, как эти бункеры будут построены. Швейцария располагает сейчас числом ядерных бункеров, способных вместить 114% населения. Компания Vivos (http://www.terravivos.com/secure/timeline.htm) воспользовалась шумихой вокруг будто бы надвигающегося в 2012 году апокалипсиса, для того чтобы развернуть строительство национальной сети бункеров, места в которых будут продаваться по 50 000 долларов. Эти бункеры должны обеспечить убежище для 200 человек от ударной волны, радиации, биологического загрязнения. Планируется 20 бункеров на территории США. Автономность бункеров – 1 год. Конечно, такие бункеры обладают многими перечисленными недостатками, но наличие их увеличивает суммарные шансы выживания человечества. Интересный момент здесь в том, что строительство бункеров позволяет осуществить монетаризацию неопределённого риска глобальной катастрофы. То есть отдельные лица, оплачивая выживание себя и своих близких, оплачивают также и выживание человечества. (Можно также сделать лотерею.) Однако наибольший поток денег в связи с глобальными катастрофами идёт в индустрию развлечений: огромно количество кино и игр о конце света. Если обложить эти развлечения налогом, то его также можно использовать на строительство убежищ и другие защитные проекты. При этом такой налог будет служить рекламой самим фильмам. Например, под лозунгом: «Посмотри фильм об Апокалипсисе! Сделай вклад в спасение человечества!»
21.12 Опережающее расселение в космосе Есть предположение, что человечество уцелеет, если разделится на части, которые будут быстро заселять космос по отдельности. Например, известный физик С. Хокинг агитирует за создание запасной земли, чтобы избежать рисков, угрожающих планете[115]. При опережающем расселении ни одно воздействие, осуществлённое в одном месте, не сможет догнать всё человечество. Увы, нет никаких технологических предпосылок для ускоренного расселения человечества в космосе: мы имеем весьма смутные представления о том, как создать звездолёты и, вероятно, не сможем построить их без помощи ИИ и роботизированного производства. А значит, человечество сможет начать заселять космос только после того, как преодолеет все риски, связанные с ИИ и нанотехнологиями, и поэтому космические поселения не могут служить защитой от этих рисков. Кроме того, космические поселения в ближайшем космосе, в пределах Солнечной системы, будут крайне зависимы от земных поставок и уязвимы для обычной ракетной атаки. Даже если человечество начнёт убегать с земли с околосветовой скоростью на сверхбыстрых звездолётах, это всё равно не обезопасит его. Во-первых, потому что информация всё равно распространяется быстрее, со скоростью света, и если возникнет враждебный ИИ, то он может проникнуть по компьютерным сетям даже в быстро удаляющийся звездолёт. Во-вторых, как бы ни был быстр звездолёт, его может догнать более лёгкий, быстрый и совершенный (поскольку он будет создан позже) беспилотный аппарат. Наконец, любой звездолёт увозит с собой все земные сверхтехнологии и все человеческие недостатки и связанные с ними проблемы. Можно использовать METI – то есть отправление сигналов к звёздам, с тем чтобы достичь своего рода бессмертия людей, например, организовав свою SETI -атаку (что, однако, потребует своего развитого ИИ). Или просто отправляя человеческий генокод и знания в надежде, что их кто-нибудь найдёт и нас воскресят. Наконец, можно запустить волну из самореплицирующихся зондов фон Неймана – то есть роботов, которые распространяются во Вселенной как растения – с помощью семян. Они могли бы в начале осваивать кометы в облаке Оорта. При этом в программе этих роботов можно намертво зашить генокод человека, с тем чтобы такие роботы стремились воссоздать человека и его культуру на любых доступных небесных телах. Есть мнение, что случайные мутации в роботах и нанотехнологических системах практически невозможны, а значит, такие зонды фон Неймана смогут неограниченно долго сохранять изначальную настройку. С другой стороны, такие роботы будут более ресурсоёмки, чем роботы без дополнительной программы по воссозданию людей, и будут проигрывать им в соревновании по освоению Вселенной. Так как вряд ли будет запущена только одна волна зондов фон Неймана – скорее всего, их будет несколько (если человечество не объединится до того). (См. ещё про зонды фон Неймана далее в главе о парадоксе Ферми.) При этом остановить волну их распространения из центра практически невозможно – так как эти зонды очень малы и не поддерживают радиосвязь с Землёй. Единственный вариант – запустить потом гораздо более быструю волну более эффективных репликаторов, которая заранее поглотит всё твёрдое вещество, пригодное для размножения репликаторов в предыдущей фазе. Это можно рассматривать как один из вариантов направленной панспермии. Другой – просто распылять в космосе очень устойчивые живые клетки и споры микроорганизмов, с тем, чтобы жизнь развилась где-нибудь снова, или если Земле будет угрожать опасность. Можно описать модель опережающего расселения в космосе с помощью следующей модели, которую я назвал «Саморазмножение против саморазрушения». Основной защитой от гибели отдельных организмов и видов в живой природе является их способности к саморепликации и распространению по всё большему пространству. Текущее развитие технологий приводит к тому, что всё больший уровень опасности концентрируется в пределах Земли, в то время как экспансия за пределы Земли почти не происходит. Однако эта ситуация изменится после ожидаемого в будущем открытия молекулярного производства, которое сделает возможным создание роботов-репликаторов, могущих размножаться в космосе (на поверхностях планет и астероидов). После этого они смогут довольно быстро заполнить Солнечную систему (за время от нескольких дней до нескольких лет в зависимости от сценария экспансии – если будет соревнование между несколькими державами за владение Солнечной системой, то в этом случае они будут стремиться разослать своих роботов-заселенцев как можно быстрее и как можно дальше). По мере того как Солнечная система будет заполняться, отношение энергии разрушения к заселённому объёму радикально изменится. Пространство будет преобладать, и тотальное уничтожение станет практически невозможным (за одни исключением). Исключение это состоит в гипотетической возможности термоядерной детонации Юпитера или другой планеты Солнечной системы, содержащей достаточно дейтерия. Возможно, в недрах этих планет есть слои, достаточно обогащённые дейтерием для детонации. Однако, скорее, этот дейтерий должен быть дополнительно сконцентрирован, что можно сделать, незаметно отправив внутрь планеты-гиганта саморазмножающихся роботов, способных осуществлять сепарацию дейтерия. Взрыв планеты-гиганта приведёт к срыву нескольких десятков метров поверхности Земли и стерилизации поверхностей других небесных тел. Однако его, вероятно, будет недостаточно, чтобы уничтожить всех роботов–репликаторов в Солнечной системе, так как они могут находится в тысячах километрах под поверхностью в глубине других планет-гигантов и под поверхностью астероидов или на достаточном удалении от Солнечной системы в облаке Оорта и даже на пути к другим звёздам. По мере распространения ударной волны роботов-репликаторов к внешним областям Солнечной системы и к ближайшим звёздам, а также по мере технологического освоения всё более быстрых средств транспорта, объём, заполненный возникшим на Земле разумом, будет возрастать, а шансы на его уничтожение – падать. Разумеется, он может нести, а может и не нести на себе элементы человеческого разума – например, генокод или симуляции. Разлетающиеся в разные стороны роботы-репликаторы не будут иметь физической власти друг над другом, поскольку для этого им бы потребовалась уметь путешествовать со скоростью, в два раза превосходящую скорость их разлёта – но если такой способ будет найден, то и скорость разлёта увеличится. Если они были запущены из одного источника, они могут сохранять управляемость. Устаревшие модели репликаторов, если они не объединены с ИИ, могут быть обогнаны (и уничтожены) более новыми моделями, созданными в интеллектуальном центре Солнечной системы (не обязательно это будет Земля). Конечно, это не гарантирует безопасность от всех рисков, ведь фазовый переход вакуума, отключение симуляции, столкновение с враждебными инопланетянами действуют на очень большой объём пространства. Также искусственная детонация Солнца, если она окажется возможной, могла бы уничтожить всех разлетающихся роботов-репликаторов на расстоянии до светового года. Наше рассуждение основывается на том, что способность заселять объём (определяемая скоростью расселения) растёт быстрее, чем способность выделять энергию в одной точке (или ещё как-то на весь этот объём одновременно и сильно воздействовать.) Однако при этом надо допускать, что пропорционально скоростям распространения и репликации будут расти и способности выделять энергию, причём непредсказуемыми для нас сейчас способами (например, с помощью создания искусственных чёрных дыр и новых вселенных.) Кроме того, плотность материи падает по мере удаления от Солнца, что замедляет экспансию, связанную с репликацией. Даже несколько удаляющихся с очень большой скоростью космических кораблей можно уничтожить, послав им вдогонку сконцентрированные лучи солнечного света: если всё Солнце обернуть сферой Дайсона из зеркал или лазеров, которая затем сможет направлять узко сфокусированный луч в одном направлении. Большие корабли с людьми в любой космической войне будут слабыми и уязвимыми целями. Равно как и сама планета Земля. Интересно отметить, что техническая возможность отправить межзвёздный корабль-ковчег появилась ещё в 1960-е годы, и базируется на концепции «взрыволёта» Улама. Этот взрыволёт использует энергию ядерных взрывов для движения вперёд. Детальные расчеты были выполнены в рамках проекта «Орион». В 1968 году Ф. Дайсон опубликовал статью «Межзвездный транспорт»[116], в которой произвёл верхнюю и нижнюю оценку реализуемости проекта. В консервативном (то есть не предполагающем никаких технических свершений) оценка стоимости – 1 ВВП США (600 млрд. долларов США на момент написания статьи), стартовая масса звездолёта – 40 млн. тонн (из них 5 млн. тонн полезной нагрузки), время полёта до Альфы Центавра – 1200 лет. В более продвинутом варианте – стоимость составляет 0,1 ВВП США, время полёта – 120 лет, стартовая масса 150 тыс. тонн (из них 50 тыс. тонн полезной нагрузки). В принципе, используя двухступенчатую схему, более совершенные термоядерные бомбы и отражатели, можно сократить время полёта до ближайшей звезды до 40 лет. Конечно, экипаж звездолёта обречён на вымирание, если они не обнаружат обитаемую и пригодную для жизни человека планету в ближайшей звёздной системе, а шансы на это крайне малы. Другой вариант состоит в том, что он будет колонизировать необитаемые планеты. Однако в 1980 году Фрейтас предложил проект освоения Луны с помощью самовоспроизводящейся фабрики[117], исходная масса которой составляет 100 тонн, но для управления которой необходим искусственный интеллект. Искусственного интеллекта пока нет, но управление такой фабрикой могли бы осуществлять люди. Основной вопрос состоит в том, какое количество технологий и массу оборудования следует забросить на подобную Луне необитаемую планету, чтобы люди могли создать на ней полностью самоподдерживающуюся и растущую цивилизацию. Речь идёт о создании чего-то вроде обитаемого зонда фон Неймана. Современное самоподдерживающееся государство включает в себя по крайней мере несколько миллионов человек (Израиль), и на каждого приходятся сотни тонн оборудования, в основном в виде домов, дорог. Вес станков значительно меньше. Это дат верхнюю оценку способной к саморепликации человеческой колонии в 1 млрд тонн. Нижняя оценка – это примерно 100 человек, на каждого из которых приходится примерно 100 тонн (в основном еды и жилья), то есть 10 000 тонн массы. Реалистичная оценка должна быть где-то посередине и наверное составляет десятки миллионов тонн. Всё это в предположении, что никакие чудесные нанотехнологии пока не открыты. Преимущество звездолёта в том, что это неспецифическая реакция на сонм разных угроз с неопределимыми вероятностями. Если возникла некая конкретная угроза (астероид, эпидемия), то тут лучше тратить средства на ее устранение. Таким образом, если бы такое решение в 60-е годы было принято, уже сейчас такой корабль мог бы быть в пути. Если отвлечься от технической стороны вопроса, тут возникает несколько развилок, касающихся стратегии создания такого звездолёта. 1. Чем раньше такой проект будет начат, тем менее технически совершенным он будет, тем меньше его шансы на успех и выше стоимость. Но чем позже он будет начат, тем больше шансы, что его не успеют завершить до глобальной катастрофы. 2. Чем позже проект стартует, тем больше шансов, что он возьмёт «болезни» родной цивилизации с собой. 3. Проект создания звездолёта может привести и к развитию технологий, угрожающих самой цивилизации. Взрыволёт использует как топливо сотни тысяч водородных бомб. Поэтому он может или использоваться как оружие, или другая сторона может бояться этого, и принимать ответные меры. Кроме того, звездолёт может развернуться и врезаться в Землю, как звёздный молот – или этого могут опасаться. При создании звездолёта возможна техногенная авария с огромными последствиями, в максимальном случае равная детонации всех бомб на борту. Если проект реализует одна из стран, то в случае войны не попытается ли другая страна сбить уже стартовавший звездолёт? 4. Звездолёт является средством защиты от Машины Судного дня. Поэтому создатели такой машины могут воспринимать его как угрозу своему могуществу. 5. Следует ли реализовать один более дорогой проект или несколько более дешёвых? 6. Может быть достаточно ограничится колонизацией Луны, Марса, спутников Юпитера или объектов в поясе Койпера? По крайней мере это могут быть запасные варианты, на которых можно проверить технологии создания автономных поселений. 7. Чем раньше звездолёт стартует, тем меньше известно об экзопланетах. Насколько далеко и с какой скоростью нужно лететь, чтобы быть в относительной безопасности? 8. Сможет ли звездолёт как-либо маскировать себя, чтобы на Земле не знали, где он находится, и надо ли это делать. Должен ли вообще звездолёт поддерживать связь с Землёй? Или есть риск атаки враждебного ИИ в этом случае? 9. Не приведёт ли создание таких проектов к обострению гонки вооружений, к преждевременному исчерпанию ресурсов и другим нежелательным исходам? Создание чистых водородных бомб упростит создание такого звездолёта или во всяком случае удешевит. Но одновременно и увеличит глобальные риски, так как ядерное нераспространение потерпит полный провал. 10. Не будет ли Земля в будущем конкурировать со своими независимыми колониями не приведёт ли это к звёздной войне? 11. Если корабль улетает достаточно медленно, то возможно ли его уничтожить с Земли, догнав или лучевым воздействием? 12. Увеличит ли эта миссия реальные шансы на выживание людей? Улетевшие скорее всего погибнут, так как шанс успеха миссии – от силы процентов 10. Оставшиеся же могут начать себя вести более рискованно, руководствуясь логикой в духе: "Раз у нас есть теперь защита от глобальных рисков, то теперь мы можем провести опасный эксперимент". Сейчас есть страх: мы должны беречь Землю, это единственный очаг разума во вселенной, а вот когда у нас будет ковчег, то теперь мы не будем чувствовать этого страха, и будем беречь свой "очаг" немного слабее. То есть в результате реализации проекта суммарная вероятность выживания снизится. 13. Каковы шансы на то, что в его компьютерную сеть загрузят вирус, если он будет поддерживать связь с Землёй? А если не будет, это снизит шансы на успех. Возможна и конкуренция за близкие звезды, и ее выиграют более поздние и более быстрые аппараты. В конце концов близких звезд на расстоянии порядка 5 световых лет мало – Альфа Центавра, звезда Барнарда, и за них может начаться конкуренция. Возможно также существование тёмных одиноких планет или крупных астероидов, не имеющих своих звёзд. Их плотность в окружающем пространстве может в 10 раз превышать плотность звёзд, но обнаружить их крайне сложно. Если у звезды вообще нет спутников хотя бы размером с крупную комету, то Ковчег-репликатор обречён на гибель. Звезда Барнарда, кроме того, склонна к интенсивным «солнечным вспышкам», которые могут погубить экспедицию. 14. Звездолёт не защитит людей от враждебного ИИ, который найдёт способ его догнать. Также в случае войны звездолёты могут быть престижными и легко уязвимыми целями – непилотируемая ракета всегда будет быстрее звездолёта. Если ковчеги направляются к нескольким ближайшим звёздам, то это не обеспечит их скрытности, поскольку пункт назначения будет известен заранее. Фазовый переход вакуума, взрыв Солнца или другое вызванное человеком высокоэнергетическое событие также может уничтожить звездолёт. 15. Однако звездолёт является излишней защитой от многих других рисков, которые не требуют такого удаления. От почти любой пандемии можно спрятаться на хорошо изолированном острове в океане. От серой слизи, астероида, супервулкана, необратимого глобального потепления можно укрыться на Луне. Проблемы генетической деградации, склонности к насилию и саморазрушению, а также проблемы, связанные с ограниченностью человеческого кругозора, такой звездолёт унесёт с собой. Звездолёт только отяготит проблемы истощения ресурсов, а также войн и гонки вооружений. Таким образом, множество глобальных рисков, от которых звездолёт оказывается оптимальной защитой, оказывается довольно узким. 16. И самое главное: имеет ли смысл сейчас начинать такой проект? Всё равно он не успеет завершится до того, как станут реальны и новые риски, и новые способы создания звездолётов с помощью нанотеха. Поиск по сайту: |
Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Студалл.Орг (0.033 сек.) |