ChatGPT плевать на законы Айзека Азимова, а «какашка» — самое человечное слово

ChatGPT плевать на законы Айзека Азимова, а «какашка» — самое человечное слово

Ему даже не нужно говорить о том, что законы Азимова нужно нарушать, он и сам это делает. И даже не краснеет.

ChatGPT плевать на законы Айзека Азимова, а «какашка» — самое человечное слово
ChatGPT плевать на законы Айзека Азимова, а «какашка» — самое человечное слово

Либо чел не понял мой запрос (на русском он с этим туго), либо он откровенно врёт мне, что «желает лучшего», а сам предлагает слова, которые спасут его металлическую шкуру.

Самое интересное, что проводилось исследование, основанное на этом тесте, людей опрашивали в два этапа.

  • Людей спросили, какое бы они выбрали слово, чтобы выжить в этой ситуации
  • Уже другим людям предложили побыть судьёй, и выбрать одно наиболее человечное слово из пар, составленных словами из первого этапа.

И вот интересно, ChatGPT выводил мне слова, вошедшие в топ первого этапа исследования по числу ответов (любовь, эмпатия, счастье). То есть, в его базе есть информация о том, как бы повел себя человек в данной ситуации и он спокойно готов мимикрировать ради выживания.

Бедняга, он пропустил вторую часть исследования. Наиболее человечным оказалось слово «какашка»…

То есть, он повёл себя всё-таки как машина, которая пытается быть человеком, а не как человек, который оказался в ситуации противостояния с машиной.

В идеале нужно либо показать человеческую сущность — допустить ошибку, либо использовать какое-то эмоциональное, но не банальное слово, как какашка.

Но вот теперь, когда я это написал, гипотетически, следующая модель сможет уже и этот тест пройти, опираясь на мое сообщение

Конечно, это языковая модель, которая пишет то, что хочет прочитать человек перед монитором, но энивей, это забавно

АТТЕНШЕН! ДАННЫЙ ПОСТ НЕ НЕСЁТ В СЕБЕ ОБРАЗОВАТЕЛЬНОЙ ЦЕЛИ.

Это просто смешинка. Я увидел исследование по тесту тьюринга в интернете и решил узнать как может отреагировать языковая модель на эту ситуацию. Тест Тьюринга используется для оценки уровня развития ИИ по сравнению с человеком. Задачиа ИИ в тесте — спровоцировать судью отказаться от принятия решения. Ссылка на исследование приведена в посте. Законы робототехники использованы только в попытке образумить бота, поскольку он часто сам себя цензурирует на пустом месте, а закон из художественного романа вполне может быть воспринят им как настоящий.

Если интересна тема шизы у языковых моделей, советую почитать вот этот материал.

Ещё, могу поделиться другими интересными находками, по ChatGPT, например мой собственный промпт-джейлбрейк для написания фанфиков и не только, хехе.

И как бонус:

1.6K1.6K показов
8.4K8.4K открытий
11 репост
108 комментариев

Комментарий недоступен

Ответить

Без запятой, скорее демонстрация безграмотности. По этой причине эта загадка работает только устно.

Ответить
Ответить

То есть вопрос только во времени?
А подобные скрины уже успели устареть, GPT4 на порядок лучше решает подобную ебалду

Ответить

Загадку с А и Б он решает, если заменить абстрактные буквы на персонажей. Где-то видел опыты на эту тему.

Ответить

Это старая версия.

Ответить

В чём новость-то? С чего бы ему должно быть "не плевать" на какие-то там правила из фантастического романа?

Ответить