Игорь Котенков

+181
с 2020
2 подписчика
25 подписок

Так, тогда такой вопрос:
1) берем попугая или нейронку
2) берем все примеры сложения N-значных чисел (пусть N будет 4, то есть числа 1000-9999)
3) берем и откладываем треть примеров
4) на 2/3 тренируем попуга и модель
5) каковы твои ожидания, на отложенной трети примеров, которые модель и попугай никогда не видели — какое будет качество? ближе к 0 или к 100%?
6) почему?

Что значит заучивается? Ты имеешь в виду что во время тренировки модель где-то в интернете увидела такой же пример решённый и запомнила?

Да, в го, так и было, полностью убрали человека из цикла — даже первая большая фаза тренировки происходила без подсматривания в реальные партии.

мой скрин сделан в апреле 23го, когда даже гпт4 турбо не было, не то что о1 (которую ты тестируешь)

https://t.me/seeallochnaya/299

((но и к o1 не подключены никакие инстурменты, включая калькулятор, апи калькулятора, вольфрама или чего бы то ни было еще)

не внешний апи = внутренности модели, сама модель, и ничего кроме этого

нет, не дали — при использовании он отдельно ставит значок, если использовался интернет, питон или другой инструмент.

Для слегка другой задачи подсчёта букв во фразе — разбивает на слова и считает по отдельности, потом суммирует

1

В большинстве случаев может, просто не в 100%.
у меня сейчас отработало 4 из 4 раз
(для статьи мне пришлось специально искать скрин по чатам)

Я думаю, что это разные уровни проблем. С цифрами есть логичное объяснение, которое можно засчитать за валидное — то есть существует такая интерпретация вопроса (даты), когда ответ 9.11 > 9.9 не звучит безумно.
С двумя буквами.r такого нет, там более однозначная постановка.

А ошибка сама да, может происходить и скорее всего происходит из-за токенизации, и что токены не хранят в себе инфу "я такой-то и состою из таких-то букв".

1

Окей, я понял. Был не прав, думал, всех удалось обмануть, но нашёлся ппц шарящий чел. Жду от тебя лонг, лайк поставлю, так и быть.

Отвечу своим комментарием с Хабра)

Эх а мог бы не народ просвещать а работать на работке за $15k в месяц... где-то не туда свернул(

2

TLDR: Двое говорят что AI вот уже скоро будет и нам надо готовиться и думать про безопасность и методы контроля, а Великий Предсказатель Ян Лекун говорит что да всё норм че вы паникуете мы сможем управлять целями AI, а ещё он не появится скоро (не в течение 5 лет ахаххаха вот это утешил).

Как написано в начале, это моя статья, с которой Паша мне помог - в том числе распространил на сайтах, отличных от Хабра

Wall Street Journal как раз в новости с утечкой про 5-7Т писали, что эта сумма включает в себя развитие энергетики, в том числе термоядерной (лол). Вот как раз у себя писал - https://t.me/seeallochnaya/1055

1

графика кстати чет не оч, и оптимизон не завезли - нужен кластер RTX 4090 для рендеринга...

2

эти разработчики - не подписывали, а те кто подписывали - не понимают, что нельзя остановить все разработки. Но что можно - начать обсуждать регуляции наперёд, чтобы понимать, как лицензировать модели следующего поколения

1

This
Тем более 4ку ещё и дотренировывают всё время (хотя кто-то жалуется, что из-за этого она за полгода потупела)

1

"брали" это сильно сказано, пока это серая зона. Ведь формально человек не использовал это, и тем более код и картинки не использовались для извлечения выгоды напрямую. Конечно, это мнение не все разделяют, но суды пока не спешат поддерживать криэйторов в один голос.

3

Зачем? Он же сам с двух ног влетел, открыл xAI, и они уже даже аналог ChatGPT в твиттере запустили (бот Grok).

Думаю, нет, для обучения брали добрую часть всего интернета на всех языках, и даже если запарились, то всё равно где-то проскочило.

Правда OpenAI сейчас движутся в сторону лицензированных и партнерских/платных датасетов. Быть может, это к чему-то и приведёт.

Объясните почему 13 дней, если игра 6го сентября выходит?

1

ЗНАКОВ БЕЗ ПРОБЕЛОВ 63575если это русские символы, то тут больше 70 тыщ токенов - а окно в диалоговом режиме 8к токенов.