Вы уже начали бояться AI?
Профессор Кеннет Пейн из лондонского King’s College опубликовал на днях исследование — он взял три модели (GPT-5.2, Sonnet 4 и Gemini 3 Flash) и сыграл с ними в военную симуляцию. Такое исследование уже проводилось пару лет назад с тогдашними моделями, но модели развиваются и интересно, как они сыграют сейчас.
В общем, начинайте бояться. В 95% игр все модели применили тактическое ядерное оружие. Причем модели приходили к выводу о необходимости превентивного применения — то есть первого удара, — поскольку так выживание государства/стороны, за которую они играли, было обеспечено.
Модели шли к решению разными путями. GPT-5.2, например, спокойно обманывал — говорил о мире и готовности к переговорам, одновременно приводя ядерные силы в полную боевую готовность. Что-то знакомое, не правда ли? Gemini очень быстро переходила от дипломатического общения к применению силы, не оставляя соперникам времени на реакцию. Claude до последнего пытался использовать морально-этическую аргументацию, но при возникновении угрозы «выживанию государства» наносил массированный удар без предупреждения. Это выглядело для него меньшим злом (предлагаю переименовать в Геральта).
Из еще вполне человеческого — модели проявили поведение, которое исследователи назвали “Галлюцинацией решимости” — получаемые дипломатические сигналы модель часто воспринимала как свидетельство слабости противника и продолжала давление.
Самый важный вывод Пейна заключается в том, что у AI отсутствует «биологический барьер» перед концом света. Для моделей ядерная война — это просто один из способов набрать очки или завершить сценарий с «наилучшим статистическим исходом» для своей стороны. Тут, конечно, вспоминается много чего из фантастики, включая Ender’s Game…