Оглавление
Индустрия искусственного интеллекта демонстрирует тревожную тенденцию: чем больше влияния получают компании, тем меньше информации они раскрывают о своих разработках. Новое исследование показывает системное снижение прозрачности среди ведущих игроков рынка.
Индекс прозрачности 2025 года
Исследователи из Стэнфорда, Беркли, Принстона и Массачусетского технологического института опубликовали третье издание Индекса прозрачности базовых моделей, который оценивает 13 крупнейших компаний ИИ. Результаты показали средний балл всего 40 из 100, что свидетельствует о значительном снижении открытости по сравнению с прошлым годом.

Разброс между компаниями оказался огромным. Лидером стала IBM с рекордными 95 баллами, тогда как xAI и Midjourney набрали всего по 14 баллов. IBM стала единственной компанией, предоставляющей достаточную информацию для воспроизведения тренировочных данных и предоставляющей доступ к этим данным внешним аудиторам.
Динамика прозрачности
Средний балл прозрачности упал с 58 в 2024 году до 40 в 2025. При этом произошла существенная перетасовка позиций: Meta и OpenAI, занимавшие первые места в 2023 году, теперь оказались на последних позициях.

Meta не опубликовала технический отчет для своей флагманской модели Llama 4, а Google значительно задержал выпуск документации для Gemini 2.5, что вызвало вопросы от британских законодателей относительно выполнения публичных обязательств.
Парадокс современного ИИ: чем мощнее становятся модели, тем больше они напоминают черные ящики. Компании предпочитают скрывать не только архитектуру, но и базовые данные, экологическое влияние и методы оценки рисков. Это создает ситуацию, когда общество должно доверять технологиям, о которых знает все меньше.
Ключевые области непрозрачности
Индекс оценивает компании по 15 основным направлениям, включая сбор данных, доступ к моделям и мониторинг после развертывания.

Вся индустрия системно непрозрачна в четырех критических областях:
- Тренировочные данные
- Вычислительные ресурсы для обучения
- Способы использования моделей
- Влияние на общество
Экологическое воздействие
Десять компаний полностью скрывают информацию об экологическом воздействии своих разработок: AI21 Labs, Alibaba, Amazon, Anthropic, DeepSeek, Google, Midjourney, Mistral, OpenAI и xAI. Это включает данные об энергопотреблении, углеродных выбросах и использовании воды.
Сокрытие этой информации особенно значимо на фоне массовых инвестиций в дата-центры, которые создают нагрузку на энергосистемы и способствуют росту цен на электроэнергию.
Открытость против прозрачности
Важно различать открытость моделей и прозрачность компаний. Открытая публикация весов модели не гарантирует прозрачности в таких вопросах, как вычислительные ресурсы, оценка рисков и использование после развертывания.

Хотя разработчики открытых моделей в целом более прозрачны, три влиятельных игрока — DeepSeek, Meta и Alibaba — остаются весьма закрытыми. Это опровергает предположение, что открытая публикация моделей автоматически приводит к большей прозрачности практик компании.
Регуляторный контекст
Необходимость большей прозрачности становится приоритетом для политики ИИ во многих юрисдикциях. Калифорния и Европейский союз уже приняли законы, требующие раскрытия информации о рисках передовых систем ИИ.
Бывший советник по ИИ в Белом доме Дин Болл предложил меры прозрачности как разумный компонент регулирования ИИ. Индекс прозрачности базовых моделей может служить ориентиром для политиков, выявляя как текущее состояние информационной открытости в индустрии, так и области, наиболее устойчивые к улучшениям.
По материалам Stanford HAI.
Оставить комментарий