За дипфейк хотят начать наказывать строже. Даже если это «просто инструмент»

Пока мы делаем мемы с нейросетями и генерим видео, в УК могут появиться изменения:
если преступление совершено с использованием дипфейка, то наказание станет строже.

Не новая статья.
Не запрет нейросетей.
А именно отягчающее обстоятельство.

Проще говоря:

использовал AI-видео или клон голоса при мошенничестве - получишь больше.

Но есть нюансы.

Дипфейк это вообще что теперь?

Полная замена лица? Синтез голоса? AI-аватар? Сгенерированное видео «от лица начальника»?

Если завтра кто-то разведёт человека, показав ему видео «с директором», созданное в нейросети - это автоматом плюс к сроку?

А если это просто частично отредактированный ролик?

Грань очень тонкая.

Самое интересное - это доказывание

Чтобы суд признал использование дипфейка отягчающим, нужно:
1) доказать, что контент сгенерирован
2) доказать, что именно он использовался в преступлении
3) доказать, что это повлияло на результат при совершении деяния

Почему вообще это обсуждают?

Потому что AI-ролики, по мнению законотворцев, стали уже пугающе убедительны.

Мошенники могут клонировать голос, оживить лицо, сделать видеообращение от якобы руководителя, создать полностью правдоподобный фейк.

И если раньше был просто звонок «я из банка», то теперь это может быть видео с человеком, которому ты доверяешь.

Начать дискуссию