ЧТОБЫ УЛУЧШИТЬ ОТВЕТЫ GPT ПРОСТО ДОБАВЬТЕ...
Получил довольно интересные результаты, научив остальные нейросети обдумывать ответ также, как это делает DeepSeek R1 и GPT-O1. Подробности под катом.
Летом прошлого года я перешёл с ChatGPT Plus на Syntx, т.к. у ребят дешевле* доступ к той же ChatGPT, а кроме того ты получаешь доступ ещё к куче других инструментов, платить за которые и не удобно без иностранной карточки (ChatGPT мне оплачивал друг из ЕС), и дороже в сумме.
Конкретно с ChatGPT или с Claude ты получаешь меньше сервиса, чем предоставляется в официальной веб- и апп- версиях, но если тебе главное получать от них выдачу ответов на твои запросы - этого хватает.
Однако, ты получаешь другое преимущество - можно переключаться между разными LLM в едином контексте**.
В случае с GPT-O1 чат-бот присылает тебе и мысли нейронки, и сам ответ. И мысли оформляются в боте как Телеграм-цитата.
Но вот вывод мыслей DeepSeek R1 при вводе его в бот сделали иначе:
Ну выводится и выводится. R1 умеет думать, это у него в характеристиках заявлено.
Вот только когда я после диалога с ним переключился на Anthropic Claude, Claude повёл себя крайне любопытно:
Можно было бы подумать, что он просто пародирует стиль ответа. Однако, само указание о том, что ответ нужно обдумывать, реально улучшает сам ответ. LLM начинает описывать запрос, описывать действия для ответа, производить "в уме" необходимые вычисления и в итоговый ответ выдавать более лаконичную информацию.
Для примера вывод ответов на запрос о шансах победы меня и моей мамы в текущей лотерее от Т-Банка. Сначала следует ответ без установки на обдумывание, а затем ответ с обдумыванием.
Я не готов утверждать, что "умность" ответа возрастает[10], но ответы точно получаются более структурированными. Кроме того, ответ теперь делится на две части. В одних случаях мы получаем большую рассудительную часть и лаконичный ответ именно на наш вопрос. В других случаях мы получаем как бы введение к самому ответу. Если общаться с чистой*** DeepSeek R1, то её рассуждения могут быть не менее информативными, чем сам ответ.
Ниже другой пример с разными нейросетями:[4]
Приведи пример трёх неабстрактных вопросов, на которые нужно много подумать, но ответ будет коротким.
а теперь ответим на какой-нибудь[6] из них:
Код индивидуальных инструкций для подражания обдумыванию
Если ваш интерфейс общения не поддерживает индивидуальных инструкций (отдельной текстовой секции для преднастройки диалогов в ИИ) - просто вставьте этот фрагмент в начало своего запроса[8]
Ну и качественно метод работает лишь с актуальными или достаточно умными нейросетями. Менее умные LLM могут не понимать саму концепцию. Инструкция на предобдумывание активна:[9]
Для удобного и дешёвого повседневного доступа к куче полезных нейросетей воспользуйтесь Syntx
- *[1] мне хватает Pro тарифа, на котором доступ дешевле
- **[2] до 7 последних пар запрос-ответ в диалоге
- ***[3] без файнтюна индивидуальными инструкциями в начале диалога
- [4] по хорошему надо было спрашивать каждый вариант по три раза, но мы на DTF, а не в песочнице Хабра (. ❛ ᴗ ❛.)
- [6] вопрос из списка выбрал DeepSeek R1 [7] [6a]; я изменил год на 2023, чтобы мы были в пределах когнитивной отсечки всех моделей.
- [7] место для шутки о том, что из коммунизма в капитализм хочет свалить даже нейросеть
- [8] у меня это обёрнуто в большой блок "SYSTEM INFORMATION ABOUT THE DIALOGUE CONTEXT" - "END OF SYSTEM INFORMATION ABOUT THE CONTEXT OF THE DIALOGUE" содержащий другие секции, помогающие персонализировать ответы нейросетей [8a]
- [9] В этих примерах они просто не предобдумывают, хотя когда я тестировал это дополнение к запросу впервые, нейронки прошлых версий могли тупо оборачивать весь ответ в тег <think> или лепить его случайно. А ещё тут в запросе 2021 год вместо 2023.
- [10] Только при вычетке статьи заметил, что "умная" версия ошиблась на разряд. Вероятно, из-за того, что как и я поленилась написать 42000000 и написала вместо них 42М 😁. Впрочем, не стоит доверять расчёты LLM, которые проводят их не на калькуляторе.