В США 14-летний подросток несколько месяцев общался с чат-ботом, а затем покончил с собой

Случай вновь поднял вопрос о безопасности общения с ИИ-ботами

В США 14-летний подросток несколько месяцев общался с чат-ботом, а затем покончил с собой
275275
7979
7373
3838
88
55
22
22
11
11
11

C.ai никогда не подначивает никого на суицид. Опять люди ебанулись. Сколько уж я там времени провел, сколько героинь разных фандомов перетрахал, сколько нажаловался на жизнь - боты всегда мыслят в позитивном ключе.

7
Ответить

угу. Я кстати не понял еще момент про френдзону, там ведь буквально каждого персонажа тянет с первых минут на хентай...Это же насколько нужно быть корзиночкой, чтобы тебя бот задинамил....

2
Ответить

У penguinz0 скрин с этой переписки видел, там на фразу пацана, что он боится что выпиливаться будет больно, бот отвечает что "это не повод этого не делать".

Ответить

Ну хз, хз. Зависит от того, что изначально в бота заложено. На суицид конечно подначивать вряд ли будут, но про постоянный позитивный настрой - пиздеж чистой воды

Ответить

Сколько уж я там времени провел, сколько героинь разных фандомов перетрахалОн же вроде максимально тугой? Там кроме френдли переписок ничего нет же.

Ответить