Элиезер Юдковский сдался и признал что остановить процесс создания безконтрольного Сильного ИИ практически невозможено

Главный мировой идеолог безопасности ИИ Элиезер Юдковский утверждает, что начавшуюся бурную гонку за создание Настоящего ИИ может остановить "только чудо". Тем временем Сэм Олтмен, один из основателей OpenАI, авторов GPT, всё-таки подтвердил, что создание Сильного ИИ может стать Концом Света для всего Человечества.

Элиезер Юдковский сдался и признал что остановить процесс создания безконтрольного Сильного ИИ практически невозможено
99
23 комментария

Через 10 лет сильный ИИ вычислит по комментариям и публикациям кто был против него и организует серию ни с чем не связанных несчастных случаев.

3

Зачем что-то организовывать? Просто отправит кучку Atlas’ов отпиздить комментатора ногами.

2

я сомневаюсь в его компетенции, потому что по мнению пользователей дтф он лох самоучка и не шарит ни в чем

Ну мнение пользователей dtf это, конечно, дело тонкое. А вот тот факт, что с публикациями в рецензируемых научных журналах у данного персонажа как-то тухловато наводит на определенные размышления.

2

КОНЕЦ СВЕТА ЧЕЛОВЕЧЕСТВА. Как пафосно и драматично. Это уже который конец света нам предрекают? А хотя кто их вообще считает

1

По-сути, такие посты ничем не отличаются от тех, кто в 2012 предрекал конец света. Клиника ебаная.