Инсайт по использованию GPT
44

«чем больше слов, тем дольше работает модель и тем больше времени есть на подумать» - я прекрасно понимаю что это звучит как объяснение, однако оно не верно!

реальная причина этого феномена, заключается в том что в изначальном тренировочном тексте для модели очень редко (или никогда) не встречается пары (длинный текст задачи - короткий ответ)

у LLM нет никаких «подумать - ответить» там сразу «ответить»

к тому же чем длиннее текст ответа тем вероятнее что модель начнет влиять сама на себя ( на свой ответ) и станет галлюцинировать.

по шагам идти должна не модель, а человек.

1
Ответить

Реальная причина в том, что GPT ленивая тварь и у него лень по дефолту всегда стоит в самом начале. Он буквально не хочет отвечать нормально, пока ты не начнешь его напрягать.

1
Ответить