OpenChat 3.5: дообученная Miatral-7B, которая бьёт ChatGPT по почти всем бенчмаркам и превосходит базовые 70B модели

Авторы использовали собственную технику обучения C-RLFT, смысл который в том, чтобы отдавать предпочтение при обучении более качественным данным (в частности, сгенерированных GPT-4) относительно всех остальных.

OpenChat 3.5: дообученная Miatral-7B, которая бьёт ChatGPT по почти всем бенчмаркам и превосходит базовые 70B модели
1010

кроме MMLU (фактические знания)А нахуя оно тогда надо?...

3
Ответить

Фактические знания намного лучше и приятнее искать в тырнетах, для этого даже есть некоторое количество инструментов. А языковые модели идеальны для работы с этими данными. Текст там на их основе сгенерировать, код написать, из одного формата в другой перевести.

Ещё, MMLU - это академические знания, вопросы с университетских экзаменов, короче. Обычно такие данные людям не нужны.

Ну и да, чуть хуже, зато бесплатно и доступно, а 7B модель можно даже на телефоне хостить. Не без боли, но можно.

2
Ответить