Дослідники з Массачусетського технологічного інституту (MIT) розробили інноваційний асистент CodeSteer, що допомагає великим мовним моделям (LLM) покращити свої результати в задачах, які вимагають символічних обчислень. Цей підхід дозволяє моделі переключатися між текстовими та кодовими рішеннями для досягнення більшої точності.
Покращення точності за допомогою CodeSteer
Великі мовні моделі, такі як GPT-4, зазвичай використовують текстове міркування для відповідей, що не завжди є найефективнішим при вирішенні алгоритмічних задач. CodeSteer, створений на основі меншої мовної моделі, керує процесом, визначаючи, коли краще використовувати код, що підвищує точність на 30% у символічних задачах, таких як множення чисел або гра в Судоку.
Цей прогрес забезпечує значне підвищення можливостей LLM у вирішенні складних завдань, які важко вирішити лише за допомогою текстового міркування, таких як прокладання маршрутів для роботів або планування міжнародних поставок.









