За дипфейк хотят начать наказывать строже. Даже если это «просто инструмент»
Пока мы делаем мемы с нейросетями и генерим видео, в УК могут появиться изменения:
если преступление совершено с использованием дипфейка, то наказание станет строже.
Не новая статья.
Не запрет нейросетей.
А именно отягчающее обстоятельство.
Проще говоря:
использовал AI-видео или клон голоса при мошенничестве - получишь больше.
Но есть нюансы.
Дипфейк это вообще что теперь?
Полная замена лица? Синтез голоса? AI-аватар? Сгенерированное видео «от лица начальника»?
Если завтра кто-то разведёт человека, показав ему видео «с директором», созданное в нейросети - это автоматом плюс к сроку?
А если это просто частично отредактированный ролик?
Грань очень тонкая.
Самое интересное - это доказывание
Чтобы суд признал использование дипфейка отягчающим, нужно:
1) доказать, что контент сгенерирован
2) доказать, что именно он использовался в преступлении
3) доказать, что это повлияло на результат при совершении деяния
Почему вообще это обсуждают?
Потому что AI-ролики, по мнению законотворцев, стали уже пугающе убедительны.
Мошенники могут клонировать голос, оживить лицо, сделать видеообращение от якобы руководителя, создать полностью правдоподобный фейк.
И если раньше был просто звонок «я из банка», то теперь это может быть видео с человеком, которому ты доверяешь.