Kirill Pixaev

+124
с 2017
1 подписчик
28 подписок

Топекрыл мне тоже сперва показался сложным боссом пока я не догнал что это просто манекен для тренировки спама гарпуна

CPython это сложный инженерный продукт на сотни тысяч строк кода, в то же время все что я наблюдаю от текущих ИИ это помощь с написанием функций на уровне «Для дебилов» на пайтоне или подсказок что бы не лезть вручную на StackOverflow, на сложных вещах а уж тем более на языках по типу С все это начинает глубоко сосать.

10

Если грубо то это вес модели, насколько она большая, вот и все. B - это billions, есть и меньше которые в миллионах исчисляется.

Почему это не показатель требуемого объема памяти? Ну потому что есть еще размер контекста, 16к контекста на модели в 12B будет потреблять видеопамяти больше чем 2к контекста на 16B модели.

Контекст в… контексте (сорян за каламбур) текстовых моделей это окно которое отправляется модели для отработки и генерации нового текста.

Какая еще нахуй сколопендра, с мухоловкой не путаешь?)

2

Думаю что обозначении 1.5B – размерность требуемой VRAM видеокарты.

Нет, это количество параметров нейронных сетей которая хранит в себе модель

3

И еще день чистить

Мозг человека в тысячи раз сложнее чем другие органы, иногда достаточно что бы в десятках нейронов произошёл сбой и человек получает инвалидность а иногда от пули в голову человек даже не пострадает.

Тут относительно была новость что для расшифровки мозга мухи потребовалось почти десять лет, так что не удивительно что врачи иной раз сами не вдупляют что происходит с пациентом.

5

Это да, но хотелось бы что бы зашёл в новую локацию а там какой нибудь не обычный квест который в эту локацию погружает

Тоже играл в гамму, прошел далеко и ходил с выхлопом но так и не понял во что там играть.

Большое количество локаций на которых ничего нет кроме квестов иди убей мутантов и получи денег меньше чем ты потратил на патроны или подай принеси.

И это все. Я имею в виду это в самом деле все что есть на локациях кроме пустых домов и неписей-болванок.

1

Ну да, конечно, для фейсбучной модели на 105b параметров нужно было 960 видеокарт A100 на 80Gb VRAM каждая, а тут в 4 раза больше модель.