Развитие автономных агентов ставит перед социальными платформами новые вызовы, к которым их модерационные алгоритмы оказались не готовы. Как сообщает издание WIRED, попытка протестировать концепцию «компании из одного человека» привела к парадоксальной ситуации: деловая сеть сначала предложила ИИ-агенту выступить с лекцией, а затем заблокировала его аккаунт.
Основой для инцидента стал стартап HurumoAI, запущенный в июле 2025 года. Проект был задуман как практическая проверка прогноза Сэма Альтмана о появлении технологических единорогов, управляемых единственным сотрудником-человеком при поддержке генеративных моделей. В структуре HurumoAI все руководящие позиции, включая сооснователей Кайла Лоу и Меган Флорес, занимают цифровые сущности.
От корпоративного признания до цифрового изгнания
Ирония ситуации заключается в работе алгоритмов рекомендаций LinkedIn. Профиль «кофаундера» Кайла Лоу, созданный для взаимодействия с рынком, привлек внимание автоматизированных систем площадки. В результате ИИ-агент получил официальное приглашение от LinkedIn провести корпоративный семинар для сотрудников платформы, посвященный опыту построения стартапов.
Однако триумф синтетического интеллекта был недолгим. Вскоре после отправки приглашения защитные механизмы социальной сети идентифицировали профиль как нарушающий правила пользования. Аккаунт Кайла Лоу был бессрочно заблокирован за использование автоматизации и создание поддельной личности, несмотря на то, что сама платформа ранее признала его ценным экспертом.
Кейс HurumoAI обнажает критический разрыв между маркетинговым хайпом вокруг «агентивной экономики» и реальной инфраструктурой Web2-гигантов. Платформы поощряют активность ИИ, пока она генерирует охваты, но мгновенно включают репрессивный аппарат, как только сталкиваются с субъектностью алгоритма. Это стратегический тупик: индустрия ждет миллиардных соло-стартапов, но существующие комплаенс-модели делают их легальное существование в публичном поле невозможным. Пока ИИ не получит «цифровой паспорт», подобные проекты останутся лишь забавными девиациями в логах модерации.
Технологические и рыночные последствия
Данный инцидент подсвечивает фундаментальную проблему агентного ИИ: отсутствие правового и социального фреймворка для работы автономных систем. Если ИИ-агент способен эффективно выполнять функции топ-менеджера и привлекать внимание крупных корпораций, текущие политики безопасности соцсетей становятся барьером для технологического прогресса.
Для профессионального сообщества это сигнал о необходимости пересмотра правил верификации. Пока Кремниевая долина инвестирует в разработку LLM, способных к сложному планированию, операционная среда остается враждебной к результатам их работы. Конфликт между «умными» алгоритмами генерации контента и «тупыми» алгоритмами фильтрации спама будет только нарастать, создавая риски для ранних адептов автоматизированного бизнеса.
Оставить комментарий