Кто-нибудь пробовал использовать RL для переписывания подсказок для моделей рассуждений, чтобы улучшить результаты? Я предполагаю, что да, это кажется довольно очевидным, но если нет, я хочу попробовать это. Если вы знаете о какой-либо существующей работе в этой области, пожалуйста, дайте знать, чтобы я не повторял то, что уже сделали другие!
Под этим я имею в виду: - Взять уже обученную, замороженную модель рассуждений (т.е. o4-mini через API) - Добавить меньшую LLM, которая принимает запрос и переписывает его, чтобы улучшить работу замороженной модели - Обновить веса меньшей LLM, оставив большую LLM замороженной Надеемся, что маленькая LLM научится "направлять" CoT замороженной большой модели лучше, чем это может сделать человек, что повысит производительность.
@corbtt напомнил мне об этой работе @brendanh0gan... Брендан, как все прошло? Похоже, это довольно похоже на то, что я здесь думаю.
Brendan Hogan
Brendan Hogan3 июл., 08:26
big models are great agents but often too big, closed, or delicate to fine-tune idea: train a small model to craft context for a frozen big model, score the big model's outputs, use that as reward for the small one grpo for context tuning. more below
17,53K