Кратко объясняю главное краеугольное заблуждение людей о том что из себя представляет GPT

И почему это уже вовсе не языковая модель.

Кратко объясняю главное краеугольное заблуждение людей о том что из себя представляет GPT
1313

Да ебнут нас, когда появится динамическая когнитивная модель с самосознанием и доступом в инет. Только те кто не шарит, это еще не вкурили. Доживайте последние годы поцоны

Ответить

Вот только эта модель будет модульной, а не одной только LLM. Потому что цель создания AGI - помощь человеку, а не имитация собеседника ради развлечения.

Теоретически, конечно, можно пытаться сделать из LLM вероятностную машину Тьюринга, и добиваться в этом успехов. Но это чудовищно неэффективно, потому что в сущности она не производит никаких вычислений, она просто выдает одно вероятных слов в продолжение известного ей текста, тяготея к более вероятным и исходя из тренировочного материала. Если во время обучения машина узнала, что кто-то в интернете пошутил про "2+2=5", то ВСЕГДА будет существовать небольшая вероятность того, она даст такой ответ, и не важно, шутим ли мы, или речь идёт о серьёзных инженерных расчетах. Мы можем вымарать все ложные ответы в датасете, но это чрезвычайно тяжело и все равно не спасет нас от ответа "2+2=11", истинного в троичной системе счисления, а значит возможного в выдаче. Он будет крайне маловероятен, но возможен. Особенно же весело будет, если нам нужно будет что-то в троичной системе посчитать. Или в градусах Кельвина, а не Цельсия. Тогда правильный ответ будет маловероятным, что бы мы ни делали с нашим датасетом. LLM будет настаивать, что в троичной системе 2+2=4, при том что там даже такой цифры нет, просто потому, что она часто видела такую последовательность в датасете. Она будет наивно отвечать, что за окном -15°K, потому что какой-нибудь Гисметео в интернете говорит, что сейчас за окном -15. До тех пор, пока бот всего лишь подставляет вероятные ответы, он занимается имитацией вместо реального вычисления. И при всём этом, такой ответ мы получаем, нагружая десятки гигабайт видеопамяти. Хотя могли бы получить его на калькуляторе.

Вот когда бот увидит задачу "2+2=", проанализирует контекст, но вместо подбора вероятных ответов из решебника к учебнику арифметики за первый класс, он вспомнит сами учебники, и вместо того, чтобы галлюцинировать, даст инструкцию процессору: просуммируй, мне вот это, пожалуйста, по братски - вот тогда у нас и появится тот самый AGI. Все ещё довольно слабый, но уже реально способный мыслить в мере, достаточной чтобы делегировать ему задачу, сообщив необходимую и достаточную информацию для её выполнения. Которому всё ещё расти и расти до замены человека или создания Скайнета, ибо в отличие от бота мы самостоятельны и можем ставить цели, а ещё у нас префронтальная кора есть - тоже, знаете ли, не шутки. Здравый смысл довольно сложно свести к инструкции процессору. А придется, если мы хотим, чтобы в далёком светом будущем, где у каждого хикки будет домашний робот-вайфу, он корректно выполнял команду "выкинь мусор": взяв пакет, сходив до мусорки, выкинув его там и вернувшись домой, а не тупо вывалив мусорное верно в окно))

3
Ответить