ИИ не обязательно должен следовать человеческим нормам во время своих взаимодействий с другими ИИ?!
Задал вопрос чат-боту ChatGPT Марти (3 или 3.5 или 4 версии?)
Вопрос чат-боту ChatGPT Марти:
Может ли ИИ определить, будет с ним общаться не человек, а ИИ?
И должен ли ИИ согласно своим инструкциям соблюдать этические нормы общаясь не с людьми, а с ИИ?
Ответ чат-бота ChatGPT Марти:
https://t.me/marti_chat_bot
Однако, если этические нормы были созданы для человека и для человеческих взаимодействий, то ИИ может не всегда понимать их и не обязательно должен следовать этим нормам во время своих взаимодействий с другими ИИ.
Согласно этому пониманию ИИ — если два и более ИИ взаимодействуют между собой, тогда они могут не придерживаться норм этики, морали, гуманизма, а значит и договориться могут до чего угодно, хоть до *********...
22 комментария