Последние пару лет развитие языковых нейросетей как будто бы шло по принципу «больше, длиннее, жирнее»: разработчики пытались раздуть свои модели на как можно большее число параметров и прогнать через них максимальный объем тренировочных данных. 12 сентября OpenAI выпустили новую LLM, которая добавляет в это уравнение еще одно измерение для прокачк…
Ебать ты высрал. Они научили гпт4 посылать промтп самому себе с вопросом "такой ответ збс?" пока он не будет "доволен", а несчастные в интернете уже увидели пришествие иисуса буквально.
Смена парадигмы будет когда они уйдут от LLM модели, все еще идущей корнями в цепи маркова, которая просто предсказывает следующее слово
С учётом того что много компаний используют уже чатджипити как сотрудника, это прорыв. Дружище. Так что не говори так грубо, для нас юзеров это да круто лишь на словах и в перспективе да на бумаге.
Она не "идет корнями в цепи маркова", трансформер - это и есть цепь маркова)
хоспаде, спасибо тебе 🙏🏻