Последние пару лет развитие языковых нейросетей как будто бы шло по принципу «больше, длиннее, жирнее»: разработчики пытались раздуть свои модели на как можно большее число параметров и прогнать через них максимальный объем тренировочных данных. 12 сентября OpenAI выпустили новую LLM, которая добавляет в это уравнение еще одно измерение для прокачк…
ипать, обучать нейронки на данных нейронок? рили?
если хоть одна ошибка не распознается, то она станет базой рассуждений из которой будут ветвится новые ошибки рассуждений, а на эти ошибки будут опираться другие ветви моделей
понятно, что критические ошибки будут исправлены самой нейронкой
но если попадется редкая ошибка, на которой рассуждения строятся редко(или большинство задач с этой ошибкой решаются верно, но не все), то она может пройти через многие поколения нейронок и пальнуть неожиданно далеко в будущем в глобальной задаче
короче если я правильно понимаю это огромный потенциал для неверных предпосылок
Если эта нейронка будет только рассуждать в своей башке то ошибки будут плодиться несомненно.