Могут быть и другие, даже более крупные сюрпризы. Вторжение пришельцев, столь любимое сторонниками теорий заговоров и писателями-фантастами, – это самый маловероятный сценарий[1568]. Космические расстояния кажутся слишком большими. Из внеземных угроз куда более вероятны те, что вызваны флуктуациями солнечной или звездной активности, скажем корональные выбросы массы или вспышка гамма-излучения от сверхновой или «гиперновой»[1569]. Можно представить новый удар астероида, меняющий климат планеты[1570]. Или ее поглощение крошечной черной дырой. Страпельки, или «странглеты» (strangelets) – гипотетические частицы, состоящие из субатомных кварков, – могли бы запустить превращение всей обычной материи на Земле в «странную материю». А фазовый переход вакуума способен привести к экспоненциальному расширению Вселенной[1571].

Помимо этих экзогенных угроз есть и разнообразные технологии, созданные или создаваемые нами как видом – и способные уничтожить нас как вид. Мир всегда был уязвим, а мы только усилили его уязвимость[1572]. С конца 1950-х годов человеческая раса получила возможность совершить самоубийство – или по меньшей мере причинить себе катастрофический вред – с помощью ядерного оружия. Ядерная война между двумя крупными державами или масштабный теракт с применением ядерной бомбы могли бы за несколько часов унести больше жизней, чем COVID-19 за восемь месяцев, причем без какой-либо скидки на молодость. Вслед за ядерной войной наступит ядерная зима, из-за которой большая часть планеты станет непригодной для жизни[1573]. Биологическое оружие, подобное тому, которое намеревался создать СССР, вызвало бы такие же катастрофические последствия, если бы его намеренно или случайно применили[1574]. Генная инженерия – более современная инновация, но и ее, как и ядерную энергию, можно обратить во зло. Человек совершил революционное открытие, поняв, что гены можно редактировать при помощи белка Cas9 и «коротких палиндромных повторов, регулярно расположенных группами» (CRISPR), которые определяют ДНК[1575]. Но у редактирования генома есть огромный недостаток: в отличие от расщепления атома, он очень дешево обходится. «Домашняя лаборатория генного инженера» в 2020 году стоила всего 1845 долларов[1576]. Нет, не стоит бояться, что кто-то создаст «высшую расу», – просто по ошибке можно произвести нежеланную модификацию, которая будет тут же готова к воспроизводству[1577].

В сфере компьютерных технологий новые опасности тоже или уже возникли, или могут возникнуть в самом ближайшем времени. «Интернет вещей» создал множество уязвимостей, и если вдруг разразится тотальная кибервойна, то важнейшая инфраструктура, объединяющая энергетику, командование, руководство и коммуникации страны, может выйти из строя – полностью или отчасти[1578]. Системы искусственного интеллекта уже свободно учатся обыгрывать чемпионов-людей в шахматы или го. Впрочем, появления общего искусственного интеллекта – компьютера, не уступающего человеку в разумности, – вероятно, не стоит ждать еще лет пятьдесят. Элиезер Юдковский, глава Исследовательского института машинного интеллекта (MIRI) в Беркли, утверждает, что мы можем непреднамеренно создать недружественный или аморальный ИИ, который восстанет против нас: например, мы велим ему остановить изменение климата, а он придет к выводу, что оптимальное решение – это уничтожить Homo sapiens. Юдковский предупреждает о видоизмененном законе Мура: каждые полтора года минимальный IQ, необходимый для уничтожения человечества, снижается на один пункт[1579]. А самый свежий из кошмарных сценариев такой: нанотехнология (производство на молекулярном уровне) приводит к какому-нибудь самовозобновляющемуся и неостановимому процессу, из-за которого мы все тонем в море вязкой жижи[1580]. Одна смелая попытка установить вероятность всех этих катастроф, потенциально гибельных для человечества, расценивает возможность последнего исхода как 1 к 6[1581]. Вся наша жизнь оказывается «русской рулеткой», причем на курок случайным образом жмут самые разные пальцы.

Многие предлагали способы, как уберечь человечество от гибели и саморазрушения, признавали, что в своем нынешнем виде лишь считаные национальные правительства готовы выделять значимые ресурсы на то, чтобы обезопасить людей от катастроф с неопределенной вероятностью и сроком, – а может, делать это не готов и вовсе никто[1582]. Одно из предложений заключалось в том, чтобы внедрять «официальных Кассандр» в правительства, международные организации, университеты и корпорации, а также учредить «Национальную службу предупреждений», которая определяла бы наихудшие сценарии, оценивала риски и разрабатывала стратегии их снижения, предотвращения или смягчения последствий катастроф[1583]. Было и другое предложение: «…замедлить темпы развития опасных технологий относительно темпов развития защитных технологий» – при этом еще и следовало убедиться, что люди, задействованные в разработке новой технологии, обязуются использовать ее во благо, а не во зло, – и «улучшать возможности внутригосударственного управления, необходимые для того, чтобы с чрезвычайно высокой надежностью предотвращать любые попытки отдельных личностей или небольших групп… совершить серьезное противоправное деяние»[1584].

Но если задуматься, какой ценой удастся этого достичь, она сама по себе окажется экзистенциальной угрозой: придется создать «высокотехнологичную тюрьму» в комплекте с беспрерывной «охраной порядка, осуществляемой путем вездесущего надзора… эффективное глобальное управление [и] некий механизм наблюдения и принуждения, который позволит пресекать попытки совершения каких-либо деструктивных действий»[1585]. Это дорога в тоталитарный мир – причем технологии, позволяющие создать глобальное полицейское государство, существуют уже сейчас. Экономист Брайан Каплан сказал об этом так: «У будущего есть один особенно страшный сценарий, в котором чрезмерный страх Судного дня, став основополагающим принципом мирового правительства, мостит дорогу к непредвиденной мировой катастрофе: тоталитаризму. Те, кто призывает страны всего мира объединиться против опасностей, грозящих человечеству, должны рассмотреть возможность того, что само это объединение представляет собой еще более опасную угрозу»[1586]. А вот что говорит израильский историк Юваль Ной Харари: «…как только мы начнем полагаться на искусственный интеллект в выборе образования, места работы и супруга, человеческая жизнь перестанет быть драмой принятия решений… Теперь мы создаем прирученных людей, которые производят огромное количество данных и функционируют как высокопроизводительные чипы в машине обработки информации»[1587]. По его словам, развитие искусственного интеллекта обрекает человечество на новый тоталитаризм, делая «устаревшими» и либеральную демократию, и экономику свободного рынка. Скоро мы станем дойными коровами для данных[1588]. Но даже эта безрадостная перспектива, возможно, слишком оптимистична. Послужной список тоталитарных режимов свидетельствует, что те не только доят своих илотов, но и убивают их.

Миры-антиутопии

Всем этим потенциальным катастрофам мы можем приписать лишь нами же придуманную степень вероятности. Но как тогда их предвидеть? Лучший ответ, видимо, такой: их нужно вообразить. В течение последних двухсот лет, со времен Мэри Шелли, этим занимались писатели-фантасты. И смертоносная эпидемия – лишь одна из многих форм, которую обретал в их фантазиях конец человечества.

Антиутопии читаются как история будущего. И в этом есть явное противоречие. На самом деле независимо от того, к чему стремились авторы – высмеять, бросить вызов, высказать предостережение или просто развлечь, – воображаемые антиутопии отражали страхи своего времени, а если точнее, опасения литературной элиты. И мы, изучая научную фантастику, можем понять тревоги прошлого, которые порой сами сыграли немалую роль в истории. Рэй Брэдбери как-то сказал: «Я не предсказываю будущее. Я его предотвращаю»[1589]. Но на многие ли политические решения повлияли антиутопические фантазии? И часто ли эти решения оказывались мудрыми? Скажем, в основе политики умиротворения отчасти таился преувеличенный страх: англичане боялись, что люфтваффе может учинить в Лондоне такие же разрушения, как марсиане в романе Уэллса. Конечно, в большинстве случаев никакие кошмарные видения не склоняли политиков к принятию превентивных мер. Однако научная фантастика иногда становилась источником вдохновения. Когда пионеры Кремниевой долины пытались представить, для чего может пригодиться интернет, они часто обращались за идеями к таким писателям, как Уильям Гибсон и Нил Стивенсон. Ни одна современная дискуссия о последствиях использования искусственного интеллекта не обходится без хотя бы одной отсылки к фильмам «Космическая одиссея 2001 года» и «Терминатор». И почти в любой беседе о робототехнике упоминают рассказ Филипа Дика «Мечтают ли андроиды об электроовцах?» – или снятый по мотивам этого рассказа фильм «Бегущий по лезвию».