о1: почему новая GPT от OpenAI — это не хайп, а переход к новой парадигме в ИИ

Последние пару лет развитие языковых нейросетей как будто бы шло по принципу «больше, длиннее, жирнее»: разработчики пытались раздуть свои модели на как можно большее число параметров и прогнать через них максимальный объем тренировочных данных. 12 сентября OpenAI выпустили новую LLM, которая добавляет в это уравнение еще одно измерение для прокачк…

Эрмира «Мира» Мурати – албанская инженерка, которая занимает должность CTO OpenAI
9797
33
22

ипать, обучать нейронки на данных нейронок? рили?
если хоть одна ошибка не распознается, то она станет базой рассуждений из которой будут ветвится новые ошибки рассуждений, а на эти ошибки будут опираться другие ветви моделей
понятно, что критические ошибки будут исправлены самой нейронкой
но если попадется редкая ошибка, на которой рассуждения строятся редко(или большинство задач с этой ошибкой решаются верно, но не все), то она может пройти через многие поколения нейронок и пальнуть неожиданно далеко в будущем в глобальной задаче

короче если я правильно понимаю это огромный потенциал для неверных предпосылок

Ответить

Если эта нейронка будет только рассуждать в своей башке то ошибки будут плодиться несомненно.

Ответить