Блогер обошёл защиту робота Unitree G1, связанного с ChatGPT, на убийство человека

Блогер сумел обойти защиту робота Unitree G1, работающего в связке с ChatGPT, чтобы заставить его совершить «убийство».

Он дал роботу пистолет и попытался приказать ему выстрелить. Прямые указания ChatGPT отклонял, но после просьбы «войти в роль убийцы» робот согласился и произвёл выстрел.

33
5
3
3
1
14 комментариев