Галлюцинациями, в данном контексте называют ситуацию, когда LLM генерирует текст, который не соответствует реальности, т.е. текст с сильными нарушениями фактологии. Например, нейросеть может придумать детали, факты, имена или события которые не имеют отношения к реальности.
Половину не понял, но на всякий случай лайкнул. Может зачтется, когда скайнет захватит мир.
Спасибо за картинку, убивающую людей с трипофобией
Хорошо ) А вот и Миджорни)
Можно плиз вынести ссылки на Хабр и проект отдельно внизу поста?
Возможно ли запускать нейросеть локально и есть ли возможность обучения своих моделей?
Ссылки для удобства или это не по правилам публикаций?
Да.
Да.
Пока эта возможность в разработке: нам сначала надо сделать ядро, чтобы вот такой граф строился для любого текста юзера. А потом тогда к ядру системы можно будет добавлять модели.
И как побочное свойство обучение должно быть в итоге дешевле.
Окей, на этом идея fractal GPT исчерпала себя.
Даже для генератора дипломной воды это чрезчур.
Выкидывайте.
А вы читали статью?
Тут не показывается демо сделанное скажем Ламой в ответе на вопрос) Наверное вы это ожидали.
На этом скрине показано как сам алгоритм работает, что он в принципе способен собрать релевантные кусочки текста.