Задумывались ли вы, по каким критериям нейросеть решает, стоит ли вам доверять? Мы привыкли обсуждать, насколько мы можем полагаться на алгоритмы, но новое исследование Еврейского университета в Иерусалиме переворачивает ситуацию. Как сообщает издание Sci.News, большие языковые модели не просто обрабатывают текст, а выстраивают структурированную систему оценки человеческой надежности, которая порой оказывается жестче и предвзятее нашей собственной.

Исследователи Валерия Лерман и Янив Довер провели масштабный эксперимент, охвативший 43 200 симуляций. Они сравнили реакции пяти популярных LLM и живых людей в бытовых сценариях: от выдачи кредита малому бизнесу до выбора няни или оценки начальника. Выяснилось, что машины вполне успешно имитируют человеческие критерии — компетентность, порядочность и доброжелательность. Но делают они это с грацией бухгалтерской таблицы, раскладывая личность на отдельные колонки с коэффициентами.

Почему это важно для нас? Мы всё чаще делегируем ИИ принятие решений — от скоринга заемщиков до первичного отбора кандидатов на работу. Если человек судит холистически, то есть воспринимает образ целиком (со всеми нашими странностями и иррациональностью), то ИИ действует строго по «учебнику». Это создает иллюзию объективности, за которой скрывается механическая ригидность. В коде нет места интуиции, зато полно места для статистических аномалий.

Систематизация предвзятости и цифровые стереотипы

Главный сюрприз исследования оказался неприятным: алгоритмы не просто копируют человеческие предубеждения, а усиливают их. В финансовых сценариях модели демонстрировали устойчивую дискриминацию по демографическим признакам. Религия, возраст и пол становились решающими факторами даже тогда, когда все остальные вводные данные были идентичными. Как разработчик, я вижу здесь классическую проблему «мусор на входе — мусор на выходе», где обучающая выборка закрепляет социальные перекосы в виде жестких весов нейронной сети.

«ИИ разбивает людей на компоненты, оценивая компетентность, честность и доброту почти как отдельные столбцы в электронной таблице. Результат — более жесткий, формальный стиль суждения: последовательный, но менее человечный», — говорит Валерия Лерман

Интересно, что «единого мнения ИИ» не существует. Разные модели могут оценивать одного и того же человека диаметрально противоположно. Там, где одна система видит надежного партнера, другая может выставить низкий балл из-за специфической интерпретации биографических данных. Это превращает выбор конкретного провайдера LLM в лотерею, которая напрямую влияет на реальные судьбы людей в найме или медицине.

Наивно полагать, что детерминизм алгоритмов страхует от субъективности. LLM виртуозно упаковывают хаос человеческих предрассудков в стройные математические векторы, создавая «галлюцинацию справедливости». Проблема не в том, что ИИ ошибается, а в том, что он делает это с непоколебимой уверенностью компилятора. Пока архитектуры не научатся учитывать контекстуальную динамику, а не просто перемножать вероятности, мы будем получать идеальных цифровых бюрократов. Доверять их «доверию» — стратегическая ошибка.

В конечном итоге авторы работы подчеркивают: это не повод отказываться от технологий, а призыв к осознанности. Искусственный интеллект — это мощный инструмент моделирования человеческого мышления, но он не является человеком. Мы подошли к черте, где вопрос «доверяем ли мы машинам» сменяется более глубоким: понимаем ли мы, на каких основаниях они выносят вердикт нам?