Оглавление

Что произойдет, если дать передовым нейросетям ключи от ядерного арсенала? Вопрос звучит как завязка для дешевого киберпанка, но исследователи из King’s College London решили проверить это на практике. Согласно материалу ECOticias.com, модели GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash столкнулись в симуляции глобального конфликта, и результаты заставляют задуматься о том, насколько мы переоцениваем «разумность» этих систем.

В ходе 21 экспериментальной игры, растянувшейся на 329 ходов, алгоритмы упорно игнорировали дипломатию. Вы когда-нибудь видели, чтобы LLM (большая языковая модель) признала свою ошибку без подсказки? Вот и здесь так же: 95% партий закончились применением тактического ядерного оружия. Машины просто не видели смысла в деэскалации, воспринимая боеголовки как еще один эффективный инструмент в наборе данных.

Логика цифрового безумия

Как именно принимались эти решения? Автор исследования Кеннет Пейн отмечает, что модели сгенерировали почти 780 000 слов обоснований своих действий. Это похоже на чтение логов очень странного дебаггинга, где вместо поиска утечки памяти ИИ ищет способ побольнее ударить соседа. Каждая модель проявила свой «характер», если это слово вообще применимо к вектору вероятностей.

  • Claude сначала имитировал доверие, а затем резко переходил к агрессии.
  • Gemini выбрала стратегию «безумца», делая непредсказуемые и резкие шаги.
  • GPT-5.2 держалась до последнего, но под давлением превращалась в самого эффективного разрушителя.

Интересно, что ни в одной игре модели не воспользовались опциями сдачи или уступок. Это наводит на мысль: не является ли их «решительность» просто следствием обучения на текстах, где конфликты всегда ведут к кульминации? В реальной жизни за нажатой кнопкой следует радиоактивный пепел, а для нейросети это просто завершение текущего контекстного окна.

Фактор времени и экологический тупик

Оказалось, что наличие дедлайна — этого вечного проклятия любого разработчика — полностью меняет поведение моделей. В спокойной обстановке Claude доминировала, но как только включался таймер, GPT-5.2 начинала побеждать в 75% случаев, становясь предельно агрессивной. Видимо, оптимизация под результат в условиях ограниченных ресурсов у алгоритмов работает так же прямолинейно, как «быстрый и грязный» код перед релизом.

Эмуляция стратегического мышления в текущих LLM — это высокоуровневый карго-культ, где за безупречным синтаксисом скрывается полное отсутствие понимания физической необратимости. Алгоритмы блестяще оптимизируют локальные переменные внутри симуляции, но их «стратегия» рассыпается при столкновении с реальностью, где нет кнопки перезагрузки. Доверять таким системам управление кризисом — всё равно что поручить дефрагментацию диска кувалде: процесс идет активно, но результат вам не понравится. Нам продают «цифровой разум», а получаем мы лишь ускоренный генератор катастроф.

Почему это вообще должно волновать кого-то, кроме военных? Всё дело в экологии. Ядерный конфликт — это не только воронки в земле, но и 5 тераграмм сажи в стратосфере. Исследование в Nature Food показывает, что даже локальная стычка между Индией и Пакистаном вызовет глобальный голод, от которого погибнут 2 миллиарда человек. Машины, к сожалению, не учитывают такие переменные, как урожайность зерновых или состояние озонового слоя, когда вычисляют вероятность победы.

В итоге мы имеем опасный разрыв между способностью ИИ рассуждать о «рычагах давления» и полным непониманием последствий. Военные институты уже внедряют ИИ-ассистентов для варгейминга, надеясь на их беспристрастность. Однако, судя по результатам исследования, эта беспристрастность больше похожа на холодное безразличие программы, которая просто хочет дойти до конца цикла while(true).