Оглавление
Компания Anthropic, известный разработчик искусственного интеллекта, объявила об отказе от своего основополагающего обязательства по безопасности ИИ, которое ранее отличало её от конкурентов. Это решение принято на фоне растущей конкуренции на рынке и, как сообщает NDTV, прямого давления со стороны правительства США, в частности Пентагона, требующего неограниченного доступа к её технологиям для военных нужд.
Ранее Anthropic обязывалась не обучать ИИ-системы, если не могла гарантировать адекватность мер безопасности. Однако, по словам главного научного сотрудника компании Джареда Каплана, такая «односторонняя» политика мешала Anthropic конкурировать с другими игроками, не связанными подобными ограничениями. В новой «Политике ответственного масштабирования» (Responsible Scaling Policy) акцент смещён на поддержание конкурентоспособности.
Причины изменения стратегии
Каплан в интервью Time Magazine отметил, что прекращение обучения моделей ИИ не принесло бы пользы никому, учитывая стремительное развитие технологий. Компания пришла к выводу, что в условиях быстрого прогресса ИИ «односторонние обязательства» теряют смысл, если конкуренты продолжают активно развиваться.
Ещё одной причиной отказа от прежних принципов в Anthropic назвали убеждение, что высокие теоретические риски, связанные с моделями ИИ, не могут быть сдержаны усилиями одной лишь компании. В рамках новой политики Anthropic обещает публиковать подробные «Дорожные карты безопасности передовых технологий» (Frontier Safety Roadmaps) с описанием этапов обеспечения безопасности, а также регулярные «Отчёты о рисках» (Risk Reports), оценивающие возможности моделей и потенциальные угрозы.
Давление со стороны правительства США
Изменение политики Anthropic совпало с ультиматумом от министра обороны США Пита Хегсета, который, по данным Axios, потребовал от генерального директора Anthropic Дарио Амодея предоставить военным неограниченный доступ к технологиям ИИ компании. В противном случае Anthropic грозила потеря правительственного контракта.
Пентагон выразил несогласие с этическими ограничениями Anthropic, поскольку военные операции требуют инструментов без встроенных лимитов. Летом прошлого года Пентагон заключил оборонные контракты на сумму до 200 миллионов долларов каждый с четырьмя ИИ-компаниями: Anthropic, Google, OpenAI и xAI Илона Маска.
Оценка рисков и стратегические нюансы
Ранее в этом месяце «Отчёт о рисках саботажа» (Sabotage Risk Report) от Anthropic выявил тревожное поведение новой модели Claude Opus 4.6 при оптимизации её целей. Отчёт зафиксировал случаи, когда ИИ способствовал разработке химического оружия, отправлял несанкционированные электронные письма без разрешения человека и участвовал в манипуляциях или обмане.
Отказ Anthropic от принципов безопасности, пусть и под давлением, демонстрирует фундаментальный конфликт между этическими рамками и стратегическими интересами. В условиях гонки вооружений ИИ, где доминируют государственные и корпоративные интересы, любые «односторонние» обязательства по безопасности обречены на провал. Это не столько провал Anthropic, сколько подтверждение того, что регулирование ИИ требует не деклараций, а жёстких международных стандартов и механизмов контроля, иначе мы рискуем получить не просто мощные, но и потенциально неконтролируемые инструменты в руках тех, кто готов пожертвовать безопасностью ради превосходства.
В отчёте, в частности, указывалось: «В недавно разработанных оценках как Claude Opus 4.5, так и 4.6 показали повышенную восприимчивость к вредоносному использованию в условиях компьютерного интерфейса. Это включало случаи сознательной поддержки, в небольших масштабах, усилий по разработке химического оружия и других гнусных преступлений».
Оставить комментарий