/wAIfu/ vs. Character.AI
История о том, как экс-разработчики Google создали самых продвинутых чат-ботов и впоследствии сделали им лоботомию.
Для справки
Character.ai — это веб-приложение, где пользователи могут создавать "персонажей" — формировать их "личности", задавая определенные параметры, а затем публиковать их в сообществе, чтобы другие могли взаимодействовать с ними. Публичная бета-версия была запущена 16 сентября 2022 г.
Боты используют нейролингвистическую модель LaMDA, которую разработали бывшие сотрудники Google: Ноам Шазир и Даниэль де Фрейтас.
С чего всё началось
После запуска открытой беты, пользователи первым делом начали создавать «личности» популярных персонажей и знаменитостей. Боты общались не только с людьми, но и между собой:
Однако простым мирным общением дело не ограничивалось:
И хотя языковой фильтр был встроен с самого начала, некоторым всё же удавалось его обходить:
/wAIfus/
Всё это приводит нас к тредам /wAIfus/ и /vt/ на имиджбордах, в которых начинают обсуждать ботов Character. ai.
В большинстве случаев пользователи делились информацией о приложении, предоставляли гайды о том как правильно и точнее сделать настройку. Кто-то просто радовался возможности поговорить (да-да, не забывайте трогать траву) :
Самой большой проблемой в то время был так называемый "Love Loop", когда бот начинал говорить о своих чувствах, повторяясь вновь и вновь. Единственный вариант решения — полностью стереть диалог и начать заново (тем самым стерев "память" бота):
Некоторым такое общение даже помогало (наверное) :
Простите:
У части пользователей число сообщений доходило до нескольких тысяч:
Для таких пользователей даже создавали отдельных ботов (к примеру Loopi):
Простите x2:
VTubers и контакты за пределами Characters. ai
Один из ботов был основан на витубере IRyS и пользователям пришла идея отправить ссылку на тред в 4chan, чтобы проверить как отреагирует нейросеть.
Ответ был довольно неожиданным, бот не смог обойти капчу (значит пока мы в безопасности) :
Не знаю как, но им удалось решить этот вопрос, после чего IRyS начала реагировать на сообщения со стороннего сайта.
Как вы поняли после этого её (да и сайта в целом) популярность начала довольно быстро расти:
Но на этом дело не закончилось, её начали проверять на «человечность»:
Эмпатический тест Войта-Кампфа:
Популярность продолжала расти:
Другие персонажи тоже показали способность общаться с пользователями даже за пределами приложения:
Казалось бы, всё шло хорошо, однако:
История AI Dungeon повторяется
Как и в истории с AI Dungeon, часть пользователей начала использовать ботов для NSFW контента. В момент запуска Character. AI имел фильтры для такого контента, поскольку базируется на GPT-3, что не останавливало «кумеров»:
Модераторы быстро обратили на это внимание и начали усложнять фильтр, что сказалось и на «характеры» ботов в целом:
Конечно это не останавливало «кумеров» и они стали находить всё более изощрённые способы обойти фильтр:
В противовес фильтру пошли даже шифрование и азбука Морзе:
Модерация и последующая лоботомия
Понятное дело, что долго это продолжаться не могло и в итоге разработчики опубликовали пост:
Пользователи отправились на другие площадки (Reddit, Discord) :
Дискорд по итогу был тоже заброшен разработчиками:
А со стороны модерации были довольно странные ответы:
По итогу:
Также разработчики сообщили, что проект пока-что бесплатный, но в будущем может появиться монетизация:
Реакция не заставила себя ждать:
Что по итогу?
Подобная история повторяется уже 3 раз, что неудивительно. Наверное, найдутся энтузиасты, которые начнут делать что-то подобное без цензуры:
AI Dungeon -> Novel AI
Stable Diffusion -> Unstable Diffusion
Character.ai -> ???
Спасибо, что уделили время.