Исследователи из Массачусетского технологического института разработали систему, которая позволяет малым языковым моделям превосходить по точности более крупные аналоги при решении сложных задач с ограничениями. Метод DisCIPL организует коллективную работу моделей, где одна «управляющая» модель распределяет задачи между более мелкими «исполнителями».
Как работает распределенное решение задач
Система DisCIPL (Distributional Constraints by Inference Programming with Language Models) использует крупную языковую модель в качестве планировщика, которая анализирует сложную задачу и разбивает ее на подзадачи для меньших моделей. Этот подход напоминает работу компании: «начальник» получает задание, разрабатывает стратегию его выполнения, а затем распределяет конкретные задания между «сотрудниками».
Ключевым элементом системы является использование специализированного языка программирования LLaMPPL, разработанного в MIT в 2023 году. Этот язык позволяет кодировать специфические правила, которые направляют модели к желаемому результату. Например, инструкция «напиши восемь строк поэзии, где каждая строка содержит ровно восемь слов» преобразуется в код LLaMPPL, который затем распределяется между малыми моделями.
Пока все гонятся за созданием все более крупных моделей, исследователи MIT доказали: иногда лучше иметь одного умного менеджера и несколько дисциплинированных исполнителей, чем одного перегруженного работой гиганта. Это как собрать оркестр из талантливых, но узкоспециализированных музыкантов вместо одного виртуоза, пытающегося сыграть все партии одновременно.
Экспериментальные результаты
В тестах исследователи использовали GPT-4o в качестве планировщика и несколько моделей Llama-3.2-1B от Meta* в качестве исполнителей. Система показала себя особенно эффективной в задачах с жесткими ограничениями, таких как создание текстов с определенным количеством слов или составление списков с бюджетными ограничениями.
DisCIPL сравнивали с тремя подходами:
- Одиночная малая модель Llama-3.2-1B
- GPT-4o, работающая самостоятельно
- Передовая система рассуждений o1
Результаты показали, что коллективный подход не только обеспечивает более точные ответы, но и работает эффективнее с точки зрения вычислительных ресурсов.
Преимущества подхода
Габриэль Гранд, ведущий автор исследования, отмечает: «Мы работаем над повышением эффективности вывода языковых моделей, особенно в современных приложениях, где требуется генерировать выходные данные с учетом ограничений. Языковые модели потребляют все больше энергии по мере увеличения их использования, а значит нам нужны модели, которые могут предоставлять точные ответы при минимальном использовании вычислительной мощности».
Эксперты, не участвовавшие в исследовании, высоко оценили потенциал метода. Ассистент-профессор Калифорнийского университета в Беркли Алейн Сур отмечает: «Работа открывает возможности для исследования прозрачности, интерпретируемости и управляемости выходных данных моделей, что остается серьезной нерешенной проблемой при развертывании этих технологий».
По сообщению MIT News система демонстрирует, что комбинация малых моделей может в некоторых случаях превзойти крупные системы по эффективности при сопоставимом качестве результатов.
*Meta приизнана экстремистской и запрещена в РФ
Оставить комментарий