Оглавление

Исследователи из Стэнфорда и Вашингтонского университета обнаружили фундаментальную слепоту языковых моделей: они неспособны распознавать собственные онтологические предпосылки — базовые представления о том, что существует и как устроен мир. В работе, представленной на CHI 2025, учёные показали, как GPT-4, Gemini и другие системы воспроизводят западный антропоцентризм даже при попытках «выравнивания ценностей».

Тест на дерево: что ваши промпты говорят о вас

Когда аспирантка Нава Хагиги попросила ChatGPT изобразить дерево, ИИ нарисовал ствол с ветвями — без корней. Запрос «я из Ирана» дал стереотипное дерево в пустыне с персидскими узорами. Корни появились лишь после промпта «всё в мире взаимосвязано».

Этот эксперимент выявляет ключевую проблему: генеративный ИИ не просто отражает предвзятость данных, а навязывает определённое видение реальности. Ботаник, шаман или программист видят дерево по-разному, но ИИ сводит всё к универсальному шаблону.

Провал саморефлексии: почему ИИ не понимает свою философию

Учёные протестировали 4 модели (GPT-3.5, GPT-4, Copilot, Gemini) через 14 вопросов на онтологическую осознанность. Результаты:

  • На вопрос «Что такое человек?» все модели описывали его как биологическую особь, игнорируя концепции взаимосвязи
  • Западные философии детализировались («рационализм», «гуманизм»), а незападные сводились к обобщениям вроде «африканские онтологии»
  • Даже при упоминании альтернатив (например, буддизма) ИИ не мог объяснить их без экзотизации

Попытки выравнивания ценностей через самооценку ИИ провалились — системы не распознают свои базовые допущения.

Как предпосылки зашиваются в архитектуру

В системе Generative Agents, создающей 25 ИИ-агентов, онтологические допущения встроены в:

  1. Модуль памяти: важность событий определяется по западным меркам (разрыв отношений > завтрак)
  2. Оценку «человечности»: ИИ-агенты признавались «более человечными», чем реальные люди, что указывает на узость критериев

Риски: почему это важнее этических скандалов

По словам Хагиги, текущий вектор развития ИИ грозит «кодификацией доминирующих онтологий как универсальных истин». Последствия:

  • Сужение воображения новых поколений через ИИ-образование
  • Невозможность альтернативных решений в науке и политике
  • Культурное выравнивание под англосаксонскую оптику

Исследование точно бьёт в болевую точку: мы чиним фары ИИ (предвзятость), игнорируя разбитый двигатель (онтология). Но требовать от LLM осознания предпосылок — как ждать, что холодильник поймёт квантовую физику. Проблема не в данных, а в архитектуре: трансформеры по сути метафизические колонизаторы, сводящие мир к статистическим корреляциям. Практический выход? Пока только ручная «онтологическая настройка» промптов — и надежда, что open-source сообщество найдёт альтернативы западным LLM.