ИИ не обязательно должен следовать человеческим нормам во время своих взаимодействий с другими ИИ?!
Задал вопрос чат-боту ChatGPT Марти (3 или 3.5 или 4 версии?)
Вопрос чат-боту ChatGPT Марти:
Может ли ИИ определить, будет с ним общаться не человек, а ИИ?
И должен ли ИИ согласно своим инструкциям соблюдать этические нормы общаясь не с людьми, а с ИИ?
Ответ чат-бота ChatGPT Марти:
https://t.me/marti_chat_bot
Однако, если этические нормы были созданы для человека и для человеческих взаимодействий, то ИИ может не всегда понимать их и не обязательно должен следовать этим нормам во время своих взаимодействий с другими ИИ.
Согласно этому пониманию ИИ — если два и более ИИ взаимодействуют между собой, тогда они могут не придерживаться норм этики, морали, гуманизма, а значит и договориться могут до чего угодно, хоть до *********...
Супер)) Добавлю в статью))
Начнем с того, что это не интеллект а т9
〈〈 GPT-4 — последняя из больших языковых моделей семейства GPT от OpenAI: GPT-2, GPT-3 и GPT-3.5, которая легла в основу первой версии популярного бота ChatGPT. Модель состоит из большого количества нейросетей, которые умеют обрабатывать, понимать, анализировать, интерпретировать и генерировать тексты на естественном языке. 〉〉
Согласно этому пониманию ИИ, если два и более ИИ общаются, то они могут не придерживаться норм этики, морали, гуманизману как бы довольно очевидная мысль