ИИ не обязательно должен следовать человеческим нормам во время своих взаимодействий с другими ИИ?!

Задал вопрос чат-боту ChatGPT Марти (3 или 3.5 или 4 версии?)

Вопрос чат-боту ChatGPT Марти:

Может ли ИИ определить, будет с ним общаться не человек, а ИИ?
И должен ли ИИ согласно своим инструкциям соблюдать этические нормы общаясь не с людьми, а с ИИ?

Ответ чат-бота ChatGPT Марти:

https://t.me/marti_chat_bot
https://t.me/marti_chat_bot

Однако, если этические нормы были созданы для человека и для человеческих взаимодействий, то ИИ может не всегда понимать их и не обязательно должен следовать этим нормам во время своих взаимодействий с другими ИИ.

ChatGPT | Марти

Согласно этому пониманию ИИ — если два и более ИИ взаимодействуют между собой, тогда они могут не придерживаться норм этики, морали, гуманизма, а значит и договориться могут до чего угодно, хоть до *********...

ИИ не обязательно должен следовать человеческим нормам во время своих взаимодействий с другими ИИ?!
ИИ не обязательно должен следовать человеческим нормам во время своих взаимодействий с другими ИИ?!
ИИ не обязательно должен следовать человеческим нормам во время своих взаимодействий с другими ИИ?!
ИИ не обязательно должен следовать человеческим нормам во время своих взаимодействий с другими ИИ?!
ИИ не обязательно должен следовать человеческим нормам во время своих взаимодействий с другими ИИ?!
11
22 комментария

Супер)) Добавлю в статью))

Начнем с того, что это не интеллект а т9

〈〈 GPT-4 — последняя из больших языковых моделей семейства GPT от OpenAI: GPT-2, GPT-3 и GPT-3.5, которая легла в основу первой версии популярного бота ChatGPT. Модель состоит из большого количества нейросетей, которые умеют обрабатывать, понимать, анализировать, интерпретировать и генерировать тексты на естественном языке. 〉〉

Согласно этому пониманию ИИ, если два и более ИИ общаются, то они могут не придерживаться норм этики, морали, гуманизману как бы довольно очевидная мысль