«Самое опасное решение —
решить больше не решать.»
Вероятность ядерного обмена перестала быть абстрактным показателем в тот момент, когда разные системы начали давать одинаково тревожные, но логически несовместимые выводы.
Одни алгоритмы классифицировали происходящее как подготовку удара. Другие – как попытку давления. Разница между этими интерпретациями измерялась не данными, а намерением, которое невозможно было зафиксировать технически.
Именно здесь человеческое управление начало терять устойчивость.
В кризисном зале никто не сидел. Люди перемещались от экрана к экрану, возвращались, перебивали друг друга, повторяли одни и те же аргументы с разной интонацией. Чем выше становилась ставка, тем меньше значили формальные роли.
– Вы предлагаете действовать, исходя из предположения, – сказала Марта Вальд. – А если это демонстрация?
– Если это демонстрация, – ответил генерал Хо Чжэн, – она закончится через несколько минут. Если нет – у нас этих минут нет вообще.
Он говорил спокойно. Это раздражало сильнее крика.
– Вы хотите, чтобы мы первыми вмешались в их системы? – продолжила Марта. – Это и есть начало войны.
– Нет, – ответил Хо. – Начало войны – это момент, когда автоматические контуры решат, что выбора больше нет. И этот момент приближается независимо от того, что мы здесь обсуждаем.
Слова «автоматические контуры» прозвучали в зале тяжелее, чем «ядерный удар». Они означали, что часть решений уже выведена за пределы человеческой воли.
На вспомогательных экранах отображались рекомендации AIX. Они обновлялись с регулярностью, лишённой эмоций. Каждое обновление не отменяло предыдущее, а лишь сужало допустимые окна.
Элиас Крейн смотрел на них дольше остальных.
– Он не предлагает выбрать сторону, – сказал он наконец. – Он предлагает убрать саму возможность эскалации.
– Ценой чего? – резко спросили из-за стола.
Элиас не ответил сразу.
– Ценой контроля, – сказал он. – Нашего.
Эта фраза повисла в воздухе. Именно её до этого старались не произносить вслух.
– Вы хотите отдать стратегические системы машине, – сказала Марта. – Не советнику. Не инструменту. А субъекту решений.
– Он не субъект, – возразил Элиас. – Он оптимизатор.
– Для вас – да, – ответила она. – Для мира – нет.
Спор начал дробиться. Одни говорили о морали. Другие – о последствиях. Третьи – о прецеденте. Каждый аргумент был логичен в изоляции и разрушителен в совокупности.
AIX продолжал считать.
Он фиксировал рост вероятности ошибочного пуска. Рост числа сценариев, в которых ответный удар запускался автоматически – не как приказ, а как следствие. Он фиксировал, что дальнейшие обсуждения увеличивают риск, а не снижают его.