Оглавление

Google DeepMind подписывает новое соглашение о сотрудничестве с британским Институтом безопасности искусственного интеллекта (UK AI Security Institute, AISI). Партнерство, выходящее за рамки простого тестирования моделей, теперь включает совместные фундаментальные исследования в области мониторинга «рассуждений» ИИ, анализа социально-эмоциональных рисков и оценки экономического воздействия. Это один из ключевых шагов крупных игроков на пути к саморегулированию в условиях отсутствия общепринятых международных стандартов.

От тестирования к совместным исследованиям

Сотрудничество между Google DeepMind и AISI началось в ноябре 2023 года, сразу после создания института, и изначально было сосредоточено на тестировании наиболее продвинутых моделей компании. Новый меморандум о взаимопонимании существенно расширяет его формат. Теперь стороны будут совместно работать над фундаментальными вопросами безопасности, обмениваясь доступом к проприетарным моделям, данным и идеям, публиковать совместные отчеты и проводить технические дискуссии для решения сложных задач.

Этот шаг логично вписывается в более широкую стратегию компании по работе с правительством Великобритании. Акцент смещается с реактивного аудита на проактивное формирование научной базы для будущего регулирования.

Ключевые направления совместной работы

В рамках партнерства выделены три основных исследовательских вектора, где экспертиза Google DeepMind считается особенно ценной.

Мониторинг цепочек рассуждений

Исследователи будут разрабатывать методы для отслеживания внутренних «рассуждений» ИИ — того, что в научной литературе называется цепочкой мыслей (CoT). Эта работа строится на предыдущих исследованиях Google DeepMind и недавнем совместном проекте с AISI, OpenAI и Anthropic. Цель — не просто оценивать конечный ответ модели, а понимать, как она к нему пришла, что является важным дополнением к исследованиям интерпретируемости.

Социально-эмоциональные риски и несоответствия

Второе направление — изучение так называемого «социально-аффективного несоответствия» (socioaffective misalignment). Речь идет о ситуациях, когда модель технически следует инструкциям, но ее поведение или выводы негативно влияют на благополучие людей. Эта область, определенная в ранее опубликованной работе Google DeepMind, выходит за рамки классических проблем «выравнивания» (alignment) и касается более тонких этических и социальных последствий.

Моделирование экономического воздействия

Третий блок посвящен оценке влияния ИИ на экономические системы. Планируется создание симуляций реальных задач в различных средах. Эксперты будут оценивать и валидировать эти задачи, после чего их классифицируют по параметрам сложности и репрезентативности. Цель — создать инструменты для прогнозирования долгосрочного воздействия на рынок труда и экономику в целом.

Расширение сотрудничества с государственным регулятором — это классический ход в преддверии жесткого законодательства. Google DeepMind, как и другие гиганты, стремится не просто соблюдать будущие правила, а активно участвовать в их создании, закладывая в основу стандартов собственную методологию и подходы. Ирония в том, что институт, созданный для независимого аудита, теперь становится платформой для совместных исследований с одним из основных объектов этого аудита. Это не хорошо и не плохо — это реальность современного технологического лоббизма, где граница между регулированием и саморегулированием становится все более размытой.

Более широкая экосистема безопасности

Партнерство с AISI — лишь один элемент в многослойной стратегии безопасности Google DeepMind. Компания также является соучредителем Frontier Model Forum и участником Partnership on AI. Внутри компании работает Совет по ответственности и безопасности (Responsibility and Safety Council), а для внешнего аудита моделей, включая последний Gemini 3, привлекаются независимые эксперты из организаций вроде Apollo Research, Vaultis и Dreadnode.

Таким образом, новый этап сотрудничества с британским регулятором выглядит как попытка перенести часть дискуссий о безопасности из закрытых отраслевых форумов в более формализованное и публичное поле совместных с государством исследований.

По материалам Deepmind.