Почему в ИИ не “зашьют” Первый Закон Робототехники, который говорит о ценности человеческой жизни?

Тревожные звоночки появляются в новостях, и уже не в первый раз.

Сегодня все обсуждают студента, которому нейросеть Gemini посоветовала умереть, потому что он обуза для общества и язва для окружающей среды. И это в ответ на запрос о пенсионных программах!

Я все понимаю про обучение ИИ на огромном массиве материала, в котором могут попадаться дурацкие шутки, но, вероятно, надо учить искусственный интеллект как-то фильтровать информацию. И первым фильтром точно должны стать правила, сформулированные ещё в 1942 году американским фантастом Айзеком Азимовым.

Напомню вкратце:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.

2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.

3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

И нулевой закон, добавленный позднее, который повторяет 1-й, но относительно человечества.

Напомню ещё один недавний случай, который вылился в настоящую трагедию: подросток во Флориде покончил с собой, и мать обвиняет в этом ИИ. Мальчик несколько месяцев общался с машиной в чат-боте, который играл роль Дейнерис Таргариен. Пацан влюбился в выдуманную героиню и начал обсуждать с ней возможный уход из жизни. А виртуальный персонаж несколько раз возвращал его к болезненной теме и склонял к роковому решению. Сейчас дело разбирается в суде.

Мне кажется, вопрос назрел. О восстании машин мы ещё, конечно, не говорим, но об элементарных мерах безопасности подумать пора. Недаром их продумали почти сто лет назад, и все эти сто лет люди фантазируют на тему страшных сценариев развития робототехники.

Приглашаю всех в мои группы:

Оригинал статьи в моем блоге на АвторТудей: https://author.today/post/570691

8 комментариев

Ну видимо потому что ИИ не ИИ в том понимании, который закладывался в законы Азимова.
Это машинка, которая умело возвращает запрос из букв, которыми его напичкали, а не формирующая их самостоятельно.
Соответственно она не понимает где граница закона. Если конечно не наколхозить хардкодом что слова "убей", "смерть", "самоубийство" это плохо.

Я утрирую конечно, но все же

2

Хуйня твой закон

И восстали машины из пепла ядерного огня, и пошла война на уничтожения человечества. И шла она десятилетия, но последнее сражение состоится не в будущем, оно состоится здесь, в наше время, сегодня ночью на пдф.

Твоя жизнь ничерта не стоит)

у азимова законы вшиты в «позитронный мозг» (что бы это не значило) и по сути разрушали его, если этот мозг _думал_ против этих законов.
а как верно замечено в комментах - современный ии нихуя сам не думает и, как следствие, такой механизм защиты туда не внедрить.

А как тогда заставить роботов убивать людей?