В нейросети Stable Diffusion 2.0 ограничили генерацию NSFW-изображений — пользователи назвали это «цензурой»

ИИ также не сможет копировать стили известных художников.

В нейросети Stable Diffusion 2.0 ограничили генерацию NSFW-изображений — пользователи назвали это «цензурой»
  • Stable Diffusion 2.0 выпустили 24 ноября 2022 года — создатели нейросети рассказали о ряде улучшений, включая внедрение отдельной модели для распознавания глубины в изображениях.
  • С выходом новой версии пользователи Stable Diffusion заметили, что нейросеть теперь намного хуже повторяет стили известных художников вроде Винсента ван Гога или студий Pixar и Ghibli.
  • Если Stable Diffusion 1.5 в большинстве случаев точно понимала текстовый запрос, то уже в Stable Diffusion 2.0 нейросеть выдаёт картинки, которые лишь отдалённо похожи на работы знаменитых авторов.
В нейросети Stable Diffusion 2.0 ограничили генерацию NSFW-изображений — пользователи назвали это «цензурой»
  • Вместе с этим в Stable Diffusion 2.0 сильно ограничили генерацию NSFW-изображений. Создатели нейросети приняли такое решение из-за распространения порно-картинок, в том числе с несовершеннолетними.
  • Некоторые пользователи раскритиковали такое решение, назвав это «актом цензуры». По их мнению, в программе с открытым исходным кодом принимать решение о создании NSFW-контента должен сам автор.
  • Другие художники подчеркнули, что подобные модели обучения можно легко внедрить в Stable Diffusion 2.0 с помощью сторонних утилит, так что это ограничение со стороны разработчиков не должно сильно сказаться на работах NSFW-авторов.
88 показов
44K44K открытий
33 репоста
146 комментариев
Ответить

Универсальная картинка, которую можно кинуть под любую новость последних лет

Ответить

Старческим голосом: "Мы живём прямо как в книжке 1984. Нет, я её не читал, но уверен, что там всё так же написано."

Ответить

Ну как мне теперь генерить такую красоту?

Ответить
Ответить

Я не буду это комментировать

Ответить