Сервис Gfycat начал массово удалять гифки, сделанные в FakeApp

Даже безобидные — про Николаса Кейджа.

Сервис Gfycat начал массово удалять гифки, сделанные в FakeApp

Своими экспериментами с «пересадкой лиц» с помощью нейросетей пользователи Reddit делились преимущественно с помощью сервиса Gfycat.

Однако владельцев хостинга, по-видимому, такая ситуация не устроила. 31 января реддиторы обратили внимание на то, что почти все их эксперименты с FakeApp были удалены с Gfycat — остались только самые свежие.

Причём пропали как гифки с порно, так и более безобидные — с Николасом Кейджем (но не все).

Сервис Gfycat начал массово удалять гифки, сделанные в FakeApp

Теперь пользователи Reddit занялись поиском новых хостингов для своих экспериментов. Часть из роликов доступна на PornHub, GIPHY и YouTube. Первый в итоге может оказаться главным пристанищем для подобных видео.

Ранее PornHub уже превратился в одно из главных хранилищ порно по мотивам Overwatch, несмотря на попытки Blizzard как-то повлиять на эту ситуацию.

Как отмечает The Verge, у борьбы с FakeApp пока нет каких-то чётких законных оснований. Более того, удаление таких гифок может теоретически считаться нарушением Первой поправки Конституции США.

Судебные иски так же вряд ли помогут знаменитостям — потому что формально в кадре присутствуют не их оголённые тела. Однако в перспективе ситуация может измениться — если будут внесены поправки к законам или какой-нибудь судья примет решение, создающее прецедент.

Пока что популярные хостинги не понимают, что им делать с проблемой FakeApp — настолько непривычен её характер. В конце января сервис Discord начал удалять сообщества, посвящённые порнофейкам, приравняв их к порномести.

Сами реддиторы считают, что технология мало чем отличается от замены голов в Photoshop и вряд ли может кому-то навредить — как и фотомонтаж.

Контент, создаваемый нашим сообществом не носит вредительский характер. Наоборот. Мы работаем с революционной, экспериментальной технологией, которая может изменить будущее медиа.

Gravity_Horse
11K11K открытий
29 комментариев

Когда уже нейросеть научат хентай расцензуривать?..

Ответить

Можно научить нейронку "дорисовывать". Жутко интересно попробовать, но что-то как-то грешновато.

Ответить

Есть готовые алгоритмы, китайцы уже давно понаделали. И научить тоже просто, накладываешь цензуру на талонные фотки, желательно в тех же местах

Ответить

Ну, это работает и в обратную сторону, кстати:
- Дорогая, я тут одно видео с тобой нашел...
- Это не я, это FakeApp

Ответить

вряд ли может кому-то навредить — как и фотомонтаж.Ну фотомонтажом много чего можно добиться, особенно качественным. Вот улучшится эта технология, и лет через 10 вполне могут применять для очернения какой-либо персоны. Фальшивка может быть и вскроется, но осадочек то останется.

Ответить

Уже одного твита хватает, чтобы многолетнюю карьеру в пыль стереть, какие уж тут фотомонтажи...

Ответить

вряд ли может кому-то навредить — как и фотомонтаж

Ответить