ChatGPT подвел или даже обманул пользователя

Добрейшей души человек хотел при помощи чата GPT создать иллюстрированную детскую книгу на 700 страниц, в подарок группе местных детей. Полагая, что чат-бот незаметно трудился, он ждал несколько недель.

ChatGPT подвел или даже обманул пользователя

После того как пользователь reddit Emotional_Stranger_5 says заподозрил неладное он, обратился с вопросом в subreddit OpenAI что бы узнать как скачать книгу размером около 500 мегабайт, над которой работал. В комментариях ему объяснили примерно следующее:

Стремление помочь, присущее крупным языковым моделям, не отражает ни реальных намерений, ни их долговременной памяти, необходимой для генерации результатов в течение нескольких дней или недель. Ничего, кроме вывода, который мы видим в реальном времени, не существует, по крайней мере, в типичных проектах чат-ботов, и книги для скачивания небыло.

ChatGPT подвел или даже обманул пользователя

При этом GPT уверял что работа идёт, и книгу можно скачать. Один из комментаторов предположил что «ChatGPT просто пообещал 700 страниц, потому что это реально существующее число, а не потому, что материала действительно было 700 страниц»

«Это разыгрывание. Полагаю, изначально вы просили помочь его составить книгу, и он с радостью согласился. А когда дело доходит до скачивания, он говорит вам: «Окей, круто, он скомпилирован и готов к загрузке». Но это не так — по сути, это ролевая игра с вами.» — дополнил один из пользователей в комментариях на subreddit

ChatGPT подвел или даже обманул пользователя
ChatGPT подвел или даже обманул пользователя

Проще говоря, ИИ просто не хочет вас огорчить и может с благим намерением вас обманывать или выдумывать несуществующие факты, что бы удовлетворить ваш запрос.

С вами, как всегда, был Frost Max Frostborn, всех обнял и пока

Поддержать автора, а так же не пропускать ничего интересного, можно подписавшись на FrostMax HUB

34
1
1
23 комментария