Ещё с первого шизопоста (извините, по другому назвать не могу) это выглядит как булщит. А теперь ещё и как просто откровенный фейк. Я, в отличие от обычного человека понимаю, что обучить LLM с таким уровнем мультимодальности без ну просто огромных вычислительных ресурсов просто невозможно. Ну вот нельзя и всё - сбер на своем суперкомпьютере и то максимум что обучил - GPT на 13B параметров, чисто text-generation модель, без всякой мультимодальности. С гитхаба посмеялся, вы же там просто картинки храните.
Раз вы читали 1й пост с анонсом то должны были видеть там и самый популярный комментарий (он там сверху с самым большим числом лайков) - и в нем вопрос был ровно этот, я там ответил на него. Если кратко то вот ответ: сейчас в текущей разработке нам НЕ нужно обучать свои модели, мы берем опенс-сорс модели и этого не скрываем, просто не говорим как мы их применяем. К тому же есть схемы обучения моделей типа Llama(Dolly2 или модели от Гусева) которые требуют очень небольших ресурсов, буквально 300-1000 долл, то же касается и мультимодальных (LoRa).
Поэтому ваше утверждение про фейк это и есть фейк. Если не согласны - покажите то утверждение в этой или другой нашей статье которое по-вашему является фейком. Если не сможете придется извиняться.
Кстати, если зайдете к нам в Тг там такие вопросы тоже задавались - мы отвечаем, что обучение своей LLM и даже своей архитектуры требует больших ресурсов и тут нет противоречия. Еще раз, что показано в демо: что мультимодальность работает и что маршрутизация по агентам работает. А не то что мы свою модель обучили, в этом ваша ошибка.
Я рад, что Вы признали нашу работу настолько качественной, что Вы даже не смогли поверить в ее существование. На гитхабе сейчас сделана карточка проекта. А вот код самого ядра там не планируем публиковать, позже, после окончательной сборки, опубликуем инструменты и примеры запросов. Вот еще скиншот из нашего чата.
Ещё с первого шизопоста (извините, по другому назвать не могу) это выглядит как булщит. А теперь ещё и как просто откровенный фейк. Я, в отличие от обычного человека понимаю, что обучить LLM с таким уровнем мультимодальности без ну просто огромных вычислительных ресурсов просто невозможно. Ну вот нельзя и всё - сбер на своем суперкомпьютере и то максимум что обучил - GPT на 13B параметров, чисто text-generation модель, без всякой мультимодальности. С гитхаба посмеялся, вы же там просто картинки храните.
Раз вы читали 1й пост с анонсом то должны были видеть там и самый популярный комментарий (он там сверху с самым большим числом лайков) - и в нем вопрос был ровно этот, я там ответил на него.
Если кратко то вот ответ: сейчас в текущей разработке нам НЕ нужно обучать свои модели, мы берем опенс-сорс модели и этого не скрываем, просто не говорим как мы их применяем. К тому же есть схемы обучения моделей типа Llama(Dolly2 или модели от Гусева) которые требуют очень небольших ресурсов, буквально 300-1000 долл, то же касается и мультимодальных (LoRa).
Поэтому ваше утверждение про фейк это и есть фейк.
Если не согласны - покажите то утверждение в этой или другой нашей статье которое по-вашему является фейком. Если не сможете придется извиняться.
Кстати, если зайдете к нам в Тг там такие вопросы тоже задавались - мы отвечаем, что обучение своей LLM и даже своей архитектуры требует больших ресурсов и тут нет противоречия.
Еще раз, что показано в демо: что мультимодальность работает и что маршрутизация по агентам работает. А не то что мы свою модель обучили, в этом ваша ошибка.
На гитхабе позже будет код.
Я рад, что Вы признали нашу работу настолько качественной, что Вы даже не смогли поверить в ее существование. На гитхабе сейчас сделана карточка проекта. А вот код самого ядра там не планируем публиковать, позже, после окончательной сборки, опубликуем инструменты и примеры запросов.
Вот еще скиншот из нашего чата.