Чтобы не вводить зрителя в заблуждение, чтобы он не выглядел потом дураком, когда рассказывал бы своим друзьям как классно Элвис Пресли перепел песни группы "Король и шут".
Я на дтф видел пост с милыми вязаными игрушками и умилялся тому как круто и складно всё получилось и какой у автора талант так связать, да ещё и сфоткать и подать красиво. По итогу довольно быстро я заметил неладно и спустился в комменты, где выяснилось, что это всё нейросети. Вся магия исчезла тут же и на картинки стало плевать капитально.. Я забыл к чему я это всё писал, всем хорошего дня.
Потому что не все хотят смотреть хуйню, написанную или созданную нейросетью. Одно дело, когда в нейросети смысл видео, другое дело, когда кто-то абузит нейронку для написания сценариев и прочей хуйни.
По словам руководителей YouTube, ИИ могут использовать для создания контента, который вводит зрителей в заблуждение.Через несколько лет каждый второй школьник сможет или видео генерировать, или дипфейки на свои видео клепать. Снимаешь видео, генерируешь вместо своего лица лицо Киану Ривза, и называешь канал "обзор шаурмы от Киану Ривза", и пойди потом отличи нейросеть заменившую внешность и голос от реального человека
Чтоб гуглу было проще обучать своих роботов. ИИ это по факту копирование с изменениями контента который делали люди. А когда начинается копирование уже скопированного, то ИИ ломается. Допустим ИИ синтезировал человеческую речь и получилось немного криво. Если следующий цикл обучения исходники с кривой речью ИИ попадут в материал для обучения, то ИИ сделает в два раза кривее. И так с каждым циклом ИИ будет делать более кривую речь.
Чтобы порядочные люди, которые помечают контент ИИ страдали от дурачков в комментариях, а не порядочные получали бенифиты от использования ИИ-контента.
Обучать свои нейронки на контенте созданном нейронками плохая идея. Они так упростить себе жизнь хотят. Ну и какая-то защита от претензий из-за дипфейков.
А нахера?
Чтобы не вводить зрителя в заблуждение, чтобы он не выглядел потом дураком, когда рассказывал бы своим друзьям как классно Элвис Пресли перепел песни группы "Король и шут".
Я на дтф видел пост с милыми вязаными игрушками и умилялся тому как круто и складно всё получилось и какой у автора талант так связать, да ещё и сфоткать и подать красиво. По итогу довольно быстро я заметил неладно и спустился в комменты, где выяснилось, что это всё нейросети. Вся магия исчезла тут же и на картинки стало плевать капитально..
Я забыл к чему я это всё писал, всем хорошего дня.
Потому что не все хотят смотреть хуйню, написанную или созданную нейросетью. Одно дело, когда в нейросети смысл видео, другое дело, когда кто-то абузит нейронку для написания сценариев и прочей хуйни.
По словам руководителей YouTube, ИИ могут использовать для создания контента, который вводит зрителей в заблуждение.Через несколько лет каждый второй школьник сможет или видео генерировать, или дипфейки на свои видео клепать. Снимаешь видео, генерируешь вместо своего лица лицо Киану Ривза, и называешь канал "обзор шаурмы от Киану Ривза", и пойди потом отличи нейросеть заменившую внешность и голос от реального человека
Чтоб не было историй, как в детстве, о существовании йоба игры, но теперь в видео на ютубе, а не только во дворе дружбанам.
Чтоб гуглу было проще обучать своих роботов. ИИ это по факту копирование с изменениями контента который делали люди. А когда начинается копирование уже скопированного, то ИИ ломается. Допустим ИИ синтезировал человеческую речь и получилось немного криво. Если следующий цикл обучения исходники с кривой речью ИИ попадут в материал для обучения, то ИИ сделает в два раза кривее. И так с каждым циклом ИИ будет делать более кривую речь.
Чтобы порядочные люди, которые помечают контент ИИ страдали от дурачков в комментариях, а не порядочные получали бенифиты от использования ИИ-контента.
Обучать свои нейронки на контенте созданном нейронками плохая идея. Они так упростить себе жизнь хотят.
Ну и какая-то защита от претензий из-за дипфейков.
Что бы все СРАЗУ видели где авторы даже потрудится не соизволили
Боятся манипуляций и вбросов во время выборов президента США и ужесточают правила площадки.
Комментарий недоступен
Комментарий недоступен
Комментарий недоступен
Комментарий недоступен
видимо рекламщики требуют.
Комментарий недоступен
А если подумать?
Чтобы люди понимали, что вот этот не смешной и унылый стример - человек