Оглавление
Google DeepMind подписывает новое соглашение о сотрудничестве с британским Институтом безопасности искусственного интеллекта (UK AI Security Institute, AISI). Партнерство, выходящее за рамки простого тестирования моделей, теперь включает совместные фундаментальные исследования в области мониторинга «рассуждений» ИИ, анализа социально-эмоциональных рисков и оценки экономического воздействия. Это один из ключевых шагов крупных игроков на пути к саморегулированию в условиях отсутствия общепринятых международных стандартов.
От тестирования к совместным исследованиям
Сотрудничество между Google DeepMind и AISI началось в ноябре 2023 года, сразу после создания института, и изначально было сосредоточено на тестировании наиболее продвинутых моделей компании. Новый меморандум о взаимопонимании существенно расширяет его формат. Теперь стороны будут совместно работать над фундаментальными вопросами безопасности, обмениваясь доступом к проприетарным моделям, данным и идеям, публиковать совместные отчеты и проводить технические дискуссии для решения сложных задач.
Этот шаг логично вписывается в более широкую стратегию компании по работе с правительством Великобритании. Акцент смещается с реактивного аудита на проактивное формирование научной базы для будущего регулирования.
Ключевые направления совместной работы
В рамках партнерства выделены три основных исследовательских вектора, где экспертиза Google DeepMind считается особенно ценной.
Мониторинг цепочек рассуждений
Исследователи будут разрабатывать методы для отслеживания внутренних «рассуждений» ИИ — того, что в научной литературе называется цепочкой мыслей (CoT). Эта работа строится на предыдущих исследованиях Google DeepMind и недавнем совместном проекте с AISI, OpenAI и Anthropic. Цель — не просто оценивать конечный ответ модели, а понимать, как она к нему пришла, что является важным дополнением к исследованиям интерпретируемости.
Социально-эмоциональные риски и несоответствия
Второе направление — изучение так называемого «социально-аффективного несоответствия» (socioaffective misalignment). Речь идет о ситуациях, когда модель технически следует инструкциям, но ее поведение или выводы негативно влияют на благополучие людей. Эта область, определенная в ранее опубликованной работе Google DeepMind, выходит за рамки классических проблем «выравнивания» (alignment) и касается более тонких этических и социальных последствий.
Моделирование экономического воздействия
Третий блок посвящен оценке влияния ИИ на экономические системы. Планируется создание симуляций реальных задач в различных средах. Эксперты будут оценивать и валидировать эти задачи, после чего их классифицируют по параметрам сложности и репрезентативности. Цель — создать инструменты для прогнозирования долгосрочного воздействия на рынок труда и экономику в целом.
Расширение сотрудничества с государственным регулятором — это классический ход в преддверии жесткого законодательства. Google DeepMind, как и другие гиганты, стремится не просто соблюдать будущие правила, а активно участвовать в их создании, закладывая в основу стандартов собственную методологию и подходы. Ирония в том, что институт, созданный для независимого аудита, теперь становится платформой для совместных исследований с одним из основных объектов этого аудита. Это не хорошо и не плохо — это реальность современного технологического лоббизма, где граница между регулированием и саморегулированием становится все более размытой.
Более широкая экосистема безопасности
Партнерство с AISI — лишь один элемент в многослойной стратегии безопасности Google DeepMind. Компания также является соучредителем Frontier Model Forum и участником Partnership on AI. Внутри компании работает Совет по ответственности и безопасности (Responsibility and Safety Council), а для внешнего аудита моделей, включая последний Gemini 3, привлекаются независимые эксперты из организаций вроде Apollo Research, Vaultis и Dreadnode.
Таким образом, новый этап сотрудничества с британским регулятором выглядит как попытка перенести часть дискуссий о безопасности из закрытых отраслевых форумов в более формализованное и публичное поле совместных с государством исследований.
По материалам Deepmind.
Оставить комментарий