Оглавление

Бывший директор по ИИ Tesla и сооснователь OpenAI Андрей Карпати представил результаты эксперимента по созданию автономного исследовательского агента, способного самостоятельно оптимизировать обучение нейросетей. Система, получившая в индустрии неофициальное название «петля Карпати», за двое суток провела 700 экспериментов, обнаружив 20 низкоуровневых оптимизаций кода. Как сообщает Fortune, применение этих находок позволило ускорить обучение компактных языковых моделей на 11% без вмешательства человека.

Технологический стек проекта, названного автором autoresearch, представляет собой связку LLM-агента с доступом к среде исполнения Python и интернету. В отличие от классических методов AutoML, которые полагаются на перебор параметров или эволюционные алгоритмы, агент Карпати анализирует результаты предыдущих итераций, выдвигает гипотезы и правит код в едином файле, стремясь максимизировать заданную метрику производительности.

Масштабируемость и корпоративные тесты

Практическую применимость подхода подтвердил CEO Shopify Тобиас Лютке. Он сообщил, что использование аналогичного агента для настройки внутренних моделей компании дало 19% прироста производительности всего за одну ночь работы. Система самостоятельно провела 37 циклов тестирования, оперируя инструкциями, заданными на естественном языке в обычном текстовом файле.

Сам Карпати утверждает, что «битва за финального босса» в индустрии ИИ будет заключаться именно в массовом внедрении таких агентов в лабораториях frontier-уровня. По его прогнозам, исследовательские отделы перейдут от работы отдельных ученых к управлению «роями» агентов, которые будут асинхронно тестировать тысячи гипотез параллельно, оставляя людям лишь роль высокоуровневых кураторов процесса.

«Любую метрику, которую можно эффективно оценить, агентский рой способен подвергнуть автоисследованию. Стоит задуматься, не относится ли и ваша проблема к этой категории», — утверждает Андрей Карпати

Скептицизм экспертов и технические ограничения

Критически настроенные участники сообщества отмечают, что концепция во многом дублирует наработки в области Neural Architecture Search (NAS), которыми Google и Microsoft занимаются годами. Однако Карпати парирует: старые методы NAS были «бесполезны» из-за своей жесткой структуры, тогда как современные LLM-агенты способны писать произвольный код и учиться на своих ошибках в режиме реального времени.

Автоматизация подбора гиперпараметров и микрооптимизаций через LLM-агентов — это эффективный инженерный инструмент, избавляющий дата-сайентистов от рутины, но не стоит путать его с «интеллектуальным взрывом». Мы видим не рождение сверхразума, а очень дорогую итеративную обертку над компилятором. Без принципиально новых архитектур такие агенты быстро упрутся в потолок локальных максимумов, бесконечно переставляя слои в рамках одних и тех же 600 строк кода.

Несмотря на успех в оптимизации малых моделей, перенос autoresearch на уровень крупных систем остается сложной инженерной задачей. Кодовые базы современных флагманских моделей на порядки сложнее 630 строк Python-кода, использованных в эксперименте. Тем не менее, Карпати настаивает, что масштабирование системы — это «всего лишь вопрос инженерии», который будет решен в ближайшее время.

Для профессионального сообщества этот кейс важен не столько ускорением обучения на 11%, сколько демонстрацией того, что agentic workflows становятся стандартом в разработке самого ИИ. Стратегическое преимущество получат те компании, которые смогут превратить свои исследовательские процессы в замкнутые циклы самооптимизации, минимизируя участие дорогостоящих человеческих кадров в рутинных проверках гипотез.