Сложную логику такие модели переваривают с Огромным трудом, за 1 запрос редко выдают хорошие ответы, думаю можно только через многоступенчатые последовательные запросы к модели.
Постоянные проблемы - то не могут вывести в нужном формате, теряют скобки и т д. То пишут абсолютную ерунду в части логики связывая иногда абсолютно несвязанные вещи.
Ллама 3.1 прям пока фаворит.
Хотя еще пробовал mistral 2407 12b и в моментах вроде как лучше, но в целом потупее все таки чем ллама показалась.
мистрал немо у меня вобще не могла ничего сделать - гораздо хуже ламы. Лама, да, если бы не редкие ошибки и норм пояснения когда ее просят - то сделал бы на ней а не ChatGPT
А мог играть с членами
я еще не гигачад!