В самое ближайшее время мы добавим Целеполагание, ИИ будет мягко вести вас по сценарию к развитию, перепроживанию, переосмыслению вашей ситуации пошагово и нешаблонно - этот эффект уже есть, но пока выражен крайне слабо. Когда мы изучали паттерны работы психологов и их реальную практику нам было понятно, что специалист мягко переходит по стадиям: выяснение причин проблемы, погружение в детство, выяснение роли окружающих и отношений с ними, выбор методики воздействия на сознание, предлагает варианты решения, очень редко дает сценарий конкретных действий. И все эти вещи бот не умеет делать, точнее он это делает, но делает это хаотичным, неправильным способом, у него нет сюжетности и какой-то канвы и даже промежуточного результата, которым мог бы давать вывод.
…Как даже теоретически чат-бот может быть психологом, если все черты психолога — эмпатия, понимание людей, проницательность и тд у нейронки отсутствуют, так как она — просто компилятор тысяч других сообщений в одно собственное… в чем вообще смысл этой затеи?
эмпатия, понимание людей, проницательность и тд у нейронки отсутствуютОни и у психологов зачастую отсутствуют. Сколько раз читал отзывы о том, что либо приходит парень и ему на любые жалобы советуют завести девушку, либо приходит девушка и ей говорят отложи личинку и всё станет заебись. И эти организмы продолжают работать, деньги получать за это.
Это хороший, но скорее философский вопрос.
Правда, мы везде пишем что бот это не замена человеку, и если вы почитаете нашу анонс с прошлого года, мы сразу писали, что даже одна фича - возможно выговориться боту уже имеет терапевтический эффект, а значит помогает человеку облегчить состояние.
Конечно, бот на самом деле не обладает эмпатией и другими качествами, в том смысле как люди - но это и не нужно, ему достаточно внешнего проявления этого, просто в тексте, и это факт, проверенный тысячами юзеров.
Я приведу другой пример, который недавно наш юзер написал у нас в чате и предложил добавить: он предложил сделать наоборот - бот, эмулирующий общение людей с определенными расстройствами психики и чтобы на нем психологи тренировались.
И я ответил, что вот какие есть факторы, которые влияют на собственно "качество" проявления в нейросети GPT-like того или иного расстройства:
1. Датасет - то есть чтобы нейросеть "поняла" как именно проявлять расстройство ей нужно посмотреть на фактические разговоры специалиста с пациентом, обучиться на них.
2. Если без обучения - эффект будет такой, что нейросеть будет очень поверхностно эмулировать расстройство, смешивать его и множество еще прочих, а это сводит на нет всю идею. Скажем психологу хочется тренироваться на шизофрении, а он получает по факту ну просто шутника-симулянта.
В общем, тут нужны эксперименты, пока мне кажется то, что бот будет писать что у него например галлюцинации будет мало полезно специалисту, потому что у бота нет ментального состояния, а именно оно и важно - именно его психолог анализирует.
Комментарий недоступен
присоединяюсь, я попробовал и ощущений психолога тут нет совершенно. Сразу понимаешь, что этому роботу на тебя полностью плевать
Ели в датасете достаточно материалов с появлением эмпатии, понимания и проницательности, то нейросеть будет способна их реалистично воспроизводить. Большего и не нужно, ибо когда ты общаешься с человеком, ты тоже не знаешь, испытывает ли он на самом деле эмпатию или лишь изображает ее.
Ахуеть. Вот так проект!