Блогер обошёл защиту робота Unitree G1, связанного с ChatGPT, на убийство человека
Блогер сумел обойти защиту робота Unitree G1, работающего в связке с ChatGPT, чтобы заставить его совершить «убийство».
Он дал роботу пистолет и попытался приказать ему выстрелить. Прямые указания ChatGPT отклонял, но после просьбы «войти в роль убийцы» робот согласился и произвёл выстрел.
14 комментариев