Последние пару лет развитие языковых нейросетей как будто бы шло по принципу «больше, длиннее, жирнее»: разработчики пытались раздуть свои модели на как можно большее число параметров и прогнать через них максимальный объем тренировочных данных. 12 сентября OpenAI выпустили новую LLM, которая добавляет в это уравнение еще одно измерение для прокачк…
У нас пока нет хорошего и точного ответа, почему так происходит в конкретном примере. Самые популярные гипотезы — это что модель воспринимает 9.11 как дату,
Это не аналогично загадке: "Скажи столько букв 'r' в слове 'Strawberry'"? Самое популярное объяснение этому заключалось в том, что нейросеть оперирует токенами, которые состоят из целых слов и их частей, но не отдельных букв. То есть нейросеть не видит букв, но, конечно, все может быть сложнее.
Я думаю, что это разные уровни проблем. С цифрами есть логичное объяснение, которое можно засчитать за валидное — то есть существует такая интерпретация вопроса (даты), когда ответ 9.11 > 9.9 не звучит безумно.
С двумя буквами.r такого нет, там более однозначная постановка.
А ошибка сама да, может происходить и скорее всего происходит из-за токенизации, и что токены не хранят в себе инфу "я такой-то и состою из таких-то букв".
нейросети не умеют считать, потому что они всего лишь предсказывают следующее слово на основе предыдущих. Они не эмулируют мозг или какую то способную принимать решения или мыслить машину
Ai dungeon кстати справляется с этой задачей. Там вроде как токен не целые слова, а отдельные буквы
Нейросеть в принципе считать не может. Так что она всегда будет на такогоьрода задачках ошибаться.