top of page

Архив

Новый алгоритм помогает улучшить сотрудничество LLM для более разумных и эффективных решений.

Обновлено: 19 июн.


ree

Вам когда-нибудь задавали вопрос, на который вы знали только часть ответа? Чтобы дать более обоснованный ответ, лучшим решением будет позвонить другу, который лучше разбирается в теме.


Алгоритм помогает улучшить сотрудничество LLM для более разумных и эффективных решений


«Co-LLM» использует большую языковую модель общего назначения, чтобы начать отвечать на подсказку, с «переключаемой переменной», вмешивающейся в определенные слова, чтобы вызвать более точный ответ от экспертной модели. Кредит: Алекс Шиппс/MIT CSAIL


Вам когда-нибудь задавали вопрос, на который вы знали только часть ответа? Чтобы дать более обоснованный ответ, лучшим решением будет позвонить другу, который лучше разбирается в теме.


Этот совместный процесс также может помочь крупным языковым моделям (LLM) повысить точность. Тем не менее, было трудно научить LLM распознавать, когда им следует сотрудничать с другой моделью для ответа. Вместо использования сложных формул или больших объемов маркированных данных для объяснения того, где модели должны работать вместе, исследователи из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) представили более органичный подход.


Их новый алгоритм , названный «Co-LLM», может объединить базовый LLM общего назначения с более специализированной моделью и помочь им работать вместе. Пока первый создает ответ, Co-LLM просматривает каждое слово (или токен) в своем ответе, чтобы увидеть, где он может призвать более точный ответ от экспертной модели. Этот процесс приводит к более точным ответам на такие вещи, как медицинские подсказки, математические и логические задачи. Поскольку экспертная модель не нужна на каждой итерации, это также приводит к более эффективной генерации ответа.


Чтобы решить, когда базовой модели нужна помощь экспертной модели, фреймворк использует машинное обучение для обучения «переключающей переменной» или инструмента, который может указывать на компетентность каждого слова в ответах двух LLM. Переключатель похож на менеджера проекта, находящего области, в которых следует вызвать специалиста.


Если бы вы попросили Co-LLM назвать несколько примеров вымерших видов медведей, например, две модели составили бы ответы вместе. LLM общего назначения начинает составлять ответ, а переменная switch вмешивается в те части, где она может вставить лучший токен из экспертной модели, например, добавить год, когда вид медведя вымер.


«С Co-LLM мы, по сути, обучаем LLM общего назначения «телефонировать» экспертную модель, когда это необходимо», — говорит Шеннон Шен, аспирант MIT по электротехнике и информатике и филиал CSAIL, ведущий автор новой статьи о подходе. Результаты опубликованы на сервере препринтов arXiv .


Алгоритм помогает улучшить сотрудничество LLM для более разумных и эффективных решений


«Co-LLM» использует большую языковую модель общего назначения, чтобы начать отвечать на подсказку, с «переключаемой переменной», вмешивающейся в определенные слова, чтобы вызвать более точный ответ от экспертной модели. Кредит: Алекс Шиппс/MIT CSAIL


Вам когда-нибудь задавали вопрос, на который вы знали только часть ответа? Чтобы дать более обоснованный ответ, лучшим решением будет позвонить другу, который лучше разбирается в теме.


Этот совместный процесс также может помочь крупным языковым моделям (LLM) повысить точность. Тем не менее, было трудно научить LLM распознавать, когда им следует сотрудничать с другой моделью для ответа. Вместо использования сложных формул или больших объемов маркированных данных для объяснения того, где модели должны работать вместе, исследователи из Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института (CSAIL) представили более органичный подход.

Комментарии


Счётчики

Чтобы общаться с участниками, войдите в аккаунт
Знакомьтесь и подписывайтесь на участников сообщества, оставляйте комментарии и т. д.

Старый Сайт

сайт.png

Аниме Радио

1479003_edited.png
bottom of page