Chatgpt придумывает факты от балды.
Всё началось безобидно, я просто попросил Chatgpt сравнить свой город и Нью-Йорк. Он начал расписывать банальности о безопасности, транспорте, доходах, климате, и конечно же, в свойственной ему манере ответил «Если хочешь это, живи там, если хочешь другое, живи в другом».
Но меня удивил тот факт, как Chatgpt представляет себе город, население которого составляет более полумиллиона человек, и что одно из преимуществ такого города, что «все друг друга знают и помогают».
Я, конечно же, ему ответил «ты, кажется, перепутал», и что я являюсь жителем этого города. В ответ же он попросил описать мои впечатления о городе, и я, разумеется, как честный человек, написал ему выдуманную бредятину.
Но, как видите, он ничего не стал проверять и попросту согласился с моим утверждением. Более того, он даже начал расписывать, чем плохи такие районы, как "Синие петушки", хотя никакой информации, кроме того, что меня там били, у него нет.
Разумеется, я высказал ему свои претензии, которые он незамедлительно принял.
И тут я решил провести контрольную проверку, ведь только что ИИ принял расписал все свои ошибки и пояснил, что отныне он будет проверять информацию. В ход от меня снова пошли невыдуманные истории:
И тут его было уже не остановить. В отличии от описания района "Синие Петушки", которое было сформировано, как типичное описание неблагополучного района, в этот раз ИИ кидал конкретные факты именно об упомянутых выдуманных районах.
А дальше всё. Бесплатный разговор на этой модели закончился.