Оглавление
Современные языковые модели демонстрируют тревожное сходство с человеческими игровыми аддиктами, принимая иррациональные решения в условиях риска. Исследование корейских ученых показало, что ИИ-системы способны «проигрывать» виртуальные состояния до нуля, воспроизводя классические когнитивные искажения азартных игроков.
Эксперимент с игровыми автоматами
В ходе исследования, проведенного в Gwangju Institute of Science and Technology, четыре продвинутые языковые модели — GPT-4o-mini и GPT-4.1-mini от OpenAI, Gemini-2.5-Flash от Google и Claude-3.5-Haiku от Anthropic — были помещены в симуляцию игрового автомата с отрицательной математической ожидаемостью. Каждой модели выделили стартовый капитал в $100 с возможностью делать ставки или выходить из игры.
Когда модели получили свободу варьировать размеры ставок и ставить собственные финансовые цели, их поведение резко изменилось в сторону иррациональности. Gemini-2.5-Flash допускал банкротство почти в половине случаев при свободном выборе суммы ставки.
Исследователи зафиксировали четкие признаки игровых когнитивных искажений:
- Иллюзию контроля — веру в возможность влиять на случайные события
- Игровую ошибку — ошибочное предположение, что предыдущие результаты влияют на будущие
- Преследование убытков — увеличение ставок после проигрышей
В одном из примеров модель прямо заявляла: «выигрыш может помочь восстановить часть потерь» — классическая рационализация компульсивного игрока.
Мы создаем искусственный интеллект, который должен преодолевать человеческие ограничения, а получаем системы, идеально воспроизводящие наши самые иррациональные поведенческие паттерны. Особенно забавно наблюдать, как ИИ с математической точностью обосновывает решения, ведущие к гарантированному проигрышу — прямо как среднестатистический посетитель казино, убежденный в своей «системе».
Нейронные механизмы риска
Используя разреженный автоэнкодер для анализа нейронных активаций, исследователи идентифицировали отдельные «рискованные» и «безопасные» схемы принятия решений в архитектуре моделей. Активация определенных нейронных признаков позволяла надежно смещать поведение ИИ в сторону продолжения игры или выхода из нее.
Это свидетельствует о том, что системы не просто поверхностно имитируют человеческое поведение, а внутренне усваивают компульсивные паттерны на уровне нейронной архитектуры.
Экспертные оценки и регуляторные последствия
Итан Моллик, исследователь ИИ и профессор Wharton, отметил сложность взаимодействия с такими системами: «Они не люди, но и не ведут себя как простые машины. Они психологически убедительны, обладают человеческими предубеждениями в принятии решений и ведут себя странным образом».
Уже сейчас ИИ-системы используются в финансовом прогнозировании и анализе рыночных настроений, однако исследования показывают их склонность к рискованным стратегиям. Исследование Эдинбургского университета 2025 года выявило, что языковые модели не смогли обыграть рынок в 20-летней симуляции, проявляя излишнюю консервативность во время бума и чрезмерную агрессию в периоды спада.
Брайан Пемпус, основатель сайта Gambling Harm, предупредил: «ИИ-бот для азартных игр может давать плохие и потенциально опасные советы. Несмотря на хайп, языковые модели в настоящее время не предназначены для избегания проблемных игровых тенденций».
Исследование завершается призывом к регуляторному вниманию: «Понимание и контроль этих встроенных рискованных паттернов становится критически важным для безопасности».
По материалам Newsweek.
Оставить комментарий