Компания Anthropic, разработчик известных моделей Claude, допустила серьезную утечку внутренней информации. Из-за ошибки в настройке системы управления контентом в открытом доступе оказались данные о еще не анонсированной нейросети, планы проведения эксклюзивного мероприятия для топ-менеджеров и внутренние документы сотрудников. Как сообщает издание Fortune, доступ к архиву был возможен без авторизации.
Проблема затронула около 3 000 файлов, связанных с корпоративным блогом компании. Среди них обнаружились черновики будущих публикаций, изображения и PDF-документы. По словам кибербезопасника Александра Пауэлса из Кембриджского университета, который анализировал утечку, данные находились в публичном хранилище, и любой технически подкованный пользователь мог получить к ним доступ, просто отправив правильный запрос к системе.
Человеческий фактор вместо восстания машин
В Anthropic оперативно отреагировали на инцидент и закрыли доступ к данным сразу после обращения журналистов. Представители компании подчеркнули, что утечка произошла из-за ошибки конфигурации внешнего инструмента и человеческого фактора. Любопытно, что компания, которая активно автоматизирует собственную разработку с помощью ИИ-агентов, в этот раз поспешила заявить: нейросети к этому провалу непричастны.
Среди «уплывших» данных особую ценность представляет информация о модели под кодовым названием Mythos. В документах она описывается как самая мощная разработка компании на сегодняшний день. Anthropic подтвердила, что сейчас тестирует эту модель с ограниченным кругом клиентов, обещая значительный прорыв в логических рассуждениях, написании кода и задачах по кибербезопасности.
Помимо технических деталей, в сеть попали сведения о закрытом ретрите для генеральных директоров крупнейших европейских компаний. Мероприятие должно пройти в Великобритании с участием главы Anthropic Дарио Амодеи. Также в архиве нашли и совсем личные файлы, например, графики декретных отпусков сотрудников, что выглядит особенно нелепо на фоне строгого имиджа компании, радеющей за безопасность ИИ.
Демонстративная приверженность Anthropic принципам безопасного ИИ плохо вяжется с банальной небрежностью в настройке прав доступа к облачному хранилищу. Пока компания строит сложные архитектуры для предотвращения апокалипсиса, ее сотрудники забывают «запереть дверь» в обычную админку сайта. Это классический пример того, что самым слабым звеном в любой высокотехнологичной системе остается человек, а не алгоритм. Если стартап не может уследить за черновиками в блоге, доверие к их способности контролировать сверхмощные модели неизбежно падает. Безопасность начинается с гигиены данных, а не с маркетинговых лозунгов.
Контекст и рыночные последствия
Anthropic не первая компания, наступающая на эти грабли. В разное время подобные утечки случались у Apple, Disney и Google. Однако в эпоху ИИ такие инциденты становятся опаснее. Современные инструменты для написания кода позволяют злоумышленникам мгновенно сканировать огромные массивы данных, находя закономерности в именах файлов и путях к серверам, что делает «случайные» утечки легкой добычей.
Для рынка это важный сигнал: даже лидеры индустрии, оцениваемые в миллиарды долларов, уязвимы перед простыми операционными ошибками. Пока Anthropic пытается минимизировать ущерб, заявляя, что утечка не коснулась основной инфраструктуры или данных клиентов, инвесторы и регуляторы получили очередной повод присмотреться к тому, как на самом деле устроены внутренние процессы в главных ИИ-лабораториях мира.
Оставить комментарий