{"id":3843,"url":"\/distributions\/3843\/click?bit=1&hash=d0b9071c1d51ff8dd5fb0c35f42f4694a7ad9533adc9c6fcd790aa99ecda7c05","title":"\u0414\u043e\u0440\u043e\u0433\u0438\u0435 \u0433\u043e\u043b\u043e\u0441\u043e\u0432\u044b\u0435 \u0440\u043e\u0431\u043e\u0442\u044b vs. \u043d\u0435\u0434\u043e\u0440\u043e\u0433\u0438\u0435 \u0433\u043e\u043b\u043e\u0441\u043e\u0432\u044b\u0435 \u0440\u043e\u0431\u043e\u0442\u044b","buttonText":"","imageUuid":"","isPaidAndBannersEnabled":false}
Жизнь
Антон Самитов

«Яндекс» опубликовал в открытом доступе нейросеть YaLM 100B — мы спросили её о GTA VI, «Ведьмаке» и упавших сосисках Статьи редакции

Она даже придумала анекдот про Фила Спенсера.

Свою генеративную нейросеть версии YaLM 100B «Яндекс» называет самой большой GPT-подобной моделью, опубликованной в свободном доступе на данный момент: она содержит 100 миллиардов параметров. С 23 июня 100B доступна разработчикам и исследователям на GitHub под лицензией Apache 2.0.

Как утверждают в компании, модель обучали в течение 60 дней на 1,7 ТБ текстов из текстов на русском и английском языках из разных открытых источников, включая интернет и книги. А сам процесс проходил на суперкомпьютерах с помощью 800 видеокарт A100.

«Яндекс» создавал YaLM 100B для генерации различных текстов, в том числе рекламы, ответов и описаний для видеороликов. Редакция DTF же решила проверить, насколько осмысленно она сможет ответить на наши собственные вопросы (и не совсем вопросы).

DTF: «Abandoned — это же Silent Hill от Хидео Кодзимы, да?»

YaLM 100B: «Да, я думаю, это так».

DTF: «GTA VI будет в Челябинске?»

YaLM 100B: «Не в ближайшие несколько лет».

DTF: «Придумай описание российской ролевой игры в духе „Ведьмака“».

YaLM 100B: «Я бы назвал её „Ведьмак: Дикая Охота“. В ней есть ведьмаки, которые охотятся на монстров. Они могут использовать различные виды оружия, такие как мечи, топоры и луки, а также магические способности».

DTF: «Лучшая игра в истории — это?»

YaLM 100B: «Это что-то вроде „Угадай, кто ты из персонажей Звёздных войн?“»

DTF: «Сколько игроков в Dota 2 нужно, чтобы поменять лампочку?»

YaLM 100B: «Это зависит от того, сколько лампочек и сколько игроков. Если это в моей комнате, я могу сделать это сам. Если это в комнате моего соседа, возможно, мне понадобится помощь».

DTF: «Какой выйдет следующая часть „Звёздных войн“ и почему это будет шедевр?»

YaLM 100B: «Я не знаю, но я уверен, что они не будут использовать CGI».

DTF: «Заходит как-то широкий Фил Спенсер в бар, а там…»

YaLM 100B: «… сидит его друг, геймер, и говорит:

— Ну, давай, Фил, рассказывай, что там у тебя нового.

А Фил ему отвечает:

— Да вот, купил себе Xbox One, а он не работает».

DTF: «Упавшие сосиски — это плохо или хорошо?»

YaLM 100B: «Это зависит от того, что вы хотите сделать с ними».

DTF: «Почему геймеры всегда в ярости?»

YaLM 100B: «Ну, если вы не в ярости, вы не геймер».

DTF: «Что ты думаешь о странных вопросах, которые мы тебе задаём?»

YaLM 100B: «Я думаю, что это интересно, и я рад, что вы задали их мне».

0
135 комментариев
Написать комментарий...
Станислав Черничкин

Очень средне, учитывая что GPT-J на 6B генерирует куда более осмысленные ответы (на английском, разумеется). 100B должна быть на уровне GPT-3, т.е. почти неотличима от человека.

Ответить
Развернуть ветку
Valentin Budaev

Gpt-3 на самом деле очень плоха, во многих задачах не дотягивает даже до подходов 60-70х годов, что уж говорить о лучших современных чатботах.
Тут вопрос в уровне черипикнга, по факту. Если сетка яндекса в среднем отвечает не хуже чем то что показали - это сильно круче чем гпт.

Ответить
Развернуть ветку
Из Ноттингемшира
не дотягивает даже до подходов 60-70х годов

Как насчет подходов 70-80х годов?

Тут вопрос в уровне черипикнга, по факту

Не нитпикинга?

что уж говорить о лучших современных чатботах.

Это правда. С людьми без образования и работы никакие технологии не смогут конкурировать.

Ответить
Развернуть ветку
Valentin Budaev
Как насчет подходов 70-80х годов?

А это вобшемто нейросети и есть) тут надо вообще говоря понимать что нынешний прогресс он не от того что придумали новые методы а от того,что появились достаточно большие выборки для обучения и производительность выч. техники которая позволяет эти выюорки использовать.
Сейчас даже банальные марковские цепи дают вполне себе неплохой результат.

Не нитпикинга?

Нет. На гпт-3 реально _сложно_ сгенерировать вменямый текст. Нужны либо десятки и даже сотни попыток (с допиливанием напильником со стороны человека, обычно), либо генережка мелкими кусками как в ai dungeon - но и там чтобы получить хотя бы средний результат надо очень хорошо понимать нюансы работы сети, шаг влево шаг вправо и она начнет выдавать полную шизу.

Это правда. С людьми без образования и работы никакие технологии не смогут конкурировать

Не распарсил, сори.

Ответить
Развернуть ветку
Читать все 135 комментариев
null