В прошлом месяце тут кто-то спрашивал какую-то математическую хуйню (я вообще ни слова не понимаю), я спросил у нейросети, она всё расписала с объяснениями, но ответ "-0.6" исходя из того, что ответили математики в треде - оказался неправильным. Правильный ответ 0.6, то есть это же, но без минуса. При чем я спрашивал три раза, на разных пресетах, и в двух из трёх раз он дал верный ответ, но всё же, почему один раз неверно получилось то? Типа, калькулятор это же база, там даже искусственный интеллект не нужен. Как на него полагаться в других вопросах после такого. Ниже скриншот этого диалога с неправильным ответом. Может кто-нибудь человеческим (а не математическим) языком объяснить, как и почему он так обосрался?
да что он вообще умеет блять, только пиздеть. У азимова был рассказ "лжец", там по сюжету робота изобрели который якобы мог читать мысли. оказалось что он просто говорил то что хотели слышать люди, задающие ему вопрос. И я уверен что это тот же эффект что и с чатгпт этой
Это генератор текста, а не калькулятор. Ты же не будешь жаловаться на часы из-за того, что они не показывают атмосферное давление, правда?
Комментарий недоступен
сколько еще раз нужно написать что "нейронка не умеет думать"
Это языковая модель. Для нее вопрос "Сколько будет 2+2?" означает, что ей среди всего что она "знает" нужно найти _текст_, который по ее мнению ближе всего к вопросу.
Но, одновременно с тем, ее тоже можно "доучить" и более того "скрестить" с тем же wolfram'ом: https://writings.stephenwolfram.com/2023/03/chatgpt-gets-its-wolfram-superpowers/
потому что чатгпт никто не учил математике, он сам научился. ну и ошибается периодически. об этом есть интересная статья на хабре - https://habr.com/ru/companies/ods/articles/716918/
Четвертая версия лучше считает.
Алсо нужен паттерн в духе "веди себя как математик".
Без рамок она просто балаболит.