Facebook анонсировал конкурс по распознаванию DeepFake-видео с призовым фондом в 10 миллионов долларов

Компания намерена бороться с распространением фейковых роликов.

Facebook сообщил о конкурсе Deepfake Detection Challenge, в котором участникам предложат создать технологию распознавания DeepFake-видео. Призовой фонд составит 10 миллионов долларов.

Для разработки своей системы участники будут использовать специальную базу данных видео с актёрами, которых пригласит Facebook. Компания не намерена брать ролики и личные данные пользователей соцсети.

Фонд конкурса пойдёт на награды и гранты командам-победителям. В Facebook отметили, что стремятся бороться с распространением видео, созданных при помощи ИИ для того, чтобы вводить пользователей сети в заблуждение.

Итоги конкурса подведут в марте 2020 года, а старт намечен на конец 2019-го. Принять участие могут абсолютно все разработчики из любой страны.

В мае журналисты и политики всерьёз обсуждали на американском телевидении фейковый ролик с председателем Конгресса США Нэнси Пелоси, в котором она была якобы пьяной. Facebook в отличие от других площадок не стал удалять видео, однако уведомлял пользователей, что ролик фейковый.

2626 показов
3.4K3.4K открытий
34 комментария

ии против ии?
Так вот она - война 21 века.

Ответить

Есть даже такой способ обучения нейронных сетей - generative adversarial network (GAN), где две нейронки соревнуется: одна учится отличать сгенерированные второй примеры от настоящих данных, а вторая учится обманывать первую.

Ответить

Комментарий недоступен

Ответить

Фигня в том, что в современном мире очень сильные ИИ делается на основе соревнования двух ИИ, один например пытается рисовать банан, второй смотрит на реальные бананы и говорит - не, это пока не банан. Как это работает, можно посмотреть в любом видео по нейронным сетям на ютубе последнего года. Оба ИИ работают на большйо скорости пока люди спят, едят, греются на солнышке и успевают сделать за день то, на что у "обучателей ИИ обычным способом" ушел бы месяц.
То есть создание ИИ, определяющего дип-фейк видео только увеличит потенциальный рост способнойстей дипфейка, причем скорее всего лавинообразно.

Ответить

Комментарий недоступен

Ответить

Я понимаю, что нейросети сейчас сейчас в тренде, но не проще ли прикрутить к существующим форматам видео что-то типа электронных подписей?

Ответить

И как это поможет бороться с фейками?

Ответить