Оглавление

Индустрия искусственного интеллекта демонстрирует тревожную тенденцию: чем больше влияния получают компании, тем меньше информации они раскрывают о своих разработках. Новое исследование показывает системное снижение прозрачности среди ведущих игроков рынка.

Индекс прозрачности 2025 года

Исследователи из Стэнфорда, Беркли, Принстона и Массачусетского технологического института опубликовали третье издание Индекса прозрачности базовых моделей, который оценивает 13 крупнейших компаний ИИ. Результаты показали средний балл всего 40 из 100, что свидетельствует о значительном снижении открытости по сравнению с прошлым годом.

Ранжированный график 13 компаний из Индекса прозрачности моделей ИИ
Источник: hai.stanford.edu

Разброс между компаниями оказался огромным. Лидером стала IBM с рекордными 95 баллами, тогда как xAI и Midjourney набрали всего по 14 баллов. IBM стала единственной компанией, предоставляющей достаточную информацию для воспроизведения тренировочных данных и предоставляющей доступ к этим данным внешним аудиторам.

Динамика прозрачности

Средний балл прозрачности упал с 58 в 2024 году до 40 в 2025. При этом произошла существенная перетасовка позиций: Meta и OpenAI, занимавшие первые места в 2023 году, теперь оказались на последних позициях.

Диаграмма: показатели прозрачности и оценки компаний в индустрии ИИ за 2025 год
Источник: hai.stanford.edu

Meta не опубликовала технический отчет для своей флагманской модели Llama 4, а Google значительно задержал выпуск документации для Gemini 2.5, что вызвало вопросы от британских законодателей относительно выполнения публичных обязательств.

Парадокс современного ИИ: чем мощнее становятся модели, тем больше они напоминают черные ящики. Компании предпочитают скрывать не только архитектуру, но и базовые данные, экологическое влияние и методы оценки рисков. Это создает ситуацию, когда общество должно доверять технологиям, о которых знает все меньше.

Ключевые области непрозрачности

Индекс оценивает компании по 15 основным направлениям, включая сбор данных, доступ к моделям и мониторинг после развертывания.

Индекс прозрачности базовых моделей ИИ с 2023 по 2025 год по компаниям
Источник: hai.stanford.edu

Вся индустрия системно непрозрачна в четырех критических областях:

  • Тренировочные данные
  • Вычислительные ресурсы для обучения
  • Способы использования моделей
  • Влияние на общество

Экологическое воздействие

Десять компаний полностью скрывают информацию об экологическом воздействии своих разработок: AI21 Labs, Alibaba, Amazon, Anthropic, DeepSeek, Google, Midjourney, Mistral, OpenAI и xAI. Это включает данные об энергопотреблении, углеродных выбросах и использовании воды.

Сокрытие этой информации особенно значимо на фоне массовых инвестиций в дата-центры, которые создают нагрузку на энергосистемы и способствуют росту цен на электроэнергию.

Открытость против прозрачности

Важно различать открытость моделей и прозрачность компаний. Открытая публикация весов модели не гарантирует прозрачности в таких вопросах, как вычислительные ресурсы, оценка рисков и использование после развертывания.

Показатели индекса прозрачности базовых моделей по стратегии выпуска (открытая или закрытая)
Источник: hai.stanford.edu

Хотя разработчики открытых моделей в целом более прозрачны, три влиятельных игрока — DeepSeek, Meta и Alibaba — остаются весьма закрытыми. Это опровергает предположение, что открытая публикация моделей автоматически приводит к большей прозрачности практик компании.

Регуляторный контекст

Необходимость большей прозрачности становится приоритетом для политики ИИ во многих юрисдикциях. Калифорния и Европейский союз уже приняли законы, требующие раскрытия информации о рисках передовых систем ИИ.

Бывший советник по ИИ в Белом доме Дин Болл предложил меры прозрачности как разумный компонент регулирования ИИ. Индекс прозрачности базовых моделей может служить ориентиром для политиков, выявляя как текущее состояние информационной открытости в индустрии, так и области, наиболее устойчивые к улучшениям.

По материалам Stanford HAI.