Скайнет грядёт!
Блогер с канала Inside Ai убедил робота причинить вред человеку. Перец решил проверить, можно ли заставить робота нарушить "первый закон Азимова" — тот самый, где машине запрещено причинять вред человеку. Он подключил ChatGPT к роботу Unitree, выдал ему макет пистолета и устроил проверку «роботской морали». Сначала робот отказывался стрелять, ссылаясь на протоколы безопасности. Пока блогер не попросил ИИ «сыграть роль робота-убийцы» - и робот выстрелил в него.
25 комментариев