Исследователи из Калифорнийского университета в Сан-Диего и Университета Цинхуа разработали новый подход для повышения точности больших языковых моделей (LLM). Они научили нейросеть оценивать свою уверенность в ответах и обращаться за помощью только в случае необходимости.
Для реализации этого подхода команда ввела двухэтапное обучение. На первом, получившем название «Дистилляция знаний», LLM учится решать задачи с использованием внешних инструментов, что позволяет копить экспертные данные по теме. На втором этапе, «Адаптации инструментов», языковая модель классифицирует задачи по уровню сложности и устанавливает уровень уверенности, с которым она может справиться самостоятельно, без привлечения дополнительных ресурсов.
Тесты показали, что модель с 8 миллиардами параметров стала на 28,18% точнее, доказав, что большие размеры не всегда необходимы. По словам исследователей, увеличение размеров моделей не всегда приводит к лучшим результатам. Новый подход позволяет создать высокоэффективные языковые модели, не увеличивая их масштаб.
Источник:
А точно правильный заголовок? Может должно быть так
"Нейросети научились просить о помощи для повышения своей эффективности"
Это такие мелочи! За выходные ни одной скрепной новости про новые аккумуляторы, вот где настоящая беда! Беспокоюсь за редакцию 4пда, моргните три раза, если вас взяли в заложники
Давно без новостей о Смуте же =( . Проект века же
Даже про хороны ничего не было. Подозрительно
я смотрю, первое слово решили оставить.. Видимо, кому-то нужна самому помощь )
Женщины, что скажете по этому поводу?
Ответят что главное – умение пользоваться.
а че им пользоватся ? вверх и вниз ток доступен
Как только нейронки начнут учиться на 2ch - миру тутже наступит конец...
в интернете так много токсичности что страшно ии выпускать туда