ChatGPT подвел или даже обманул пользователя
Добрейшей души человек хотел при помощи чата GPT создать иллюстрированную детскую книгу на 700 страниц, в подарок группе местных детей. Полагая, что чат-бот незаметно трудился, он ждал несколько недель.
После того как пользователь reddit Emotional_Stranger_5 says заподозрил неладное он, обратился с вопросом в subreddit OpenAI что бы узнать как скачать книгу размером около 500 мегабайт, над которой работал. В комментариях ему объяснили примерно следующее:
Стремление помочь, присущее крупным языковым моделям, не отражает ни реальных намерений, ни их долговременной памяти, необходимой для генерации результатов в течение нескольких дней или недель. Ничего, кроме вывода, который мы видим в реальном времени, не существует, по крайней мере, в типичных проектах чат-ботов, и книги для скачивания небыло.
При этом GPT уверял что работа идёт, и книгу можно скачать. Один из комментаторов предположил что «ChatGPT просто пообещал 700 страниц, потому что это реально существующее число, а не потому, что материала действительно было 700 страниц»
«Это разыгрывание. Полагаю, изначально вы просили помочь его составить книгу, и он с радостью согласился. А когда дело доходит до скачивания, он говорит вам: «Окей, круто, он скомпилирован и готов к загрузке». Но это не так — по сути, это ролевая игра с вами.» — дополнил один из пользователей в комментариях на subreddit
Проще говоря, ИИ просто не хочет вас огорчить и может с благим намерением вас обманывать или выдумывать несуществующие факты, что бы удовлетворить ваш запрос.
С вами, как всегда, был Frost Max Frostborn, всех обнял и пока
Поддержать автора, а так же не пропускать ничего интересного, можно подписавшись на FrostMax HUB