Элиезер Юдковский сдался и признал что остановить процесс создания безконтрольного Сильного ИИ практически невозможено

Главный мировой идеолог безопасности ИИ Элиезер Юдковский утверждает, что начавшуюся бурную гонку за создание Настоящего ИИ может остановить "только чудо". Тем временем Сэм Олтмен, один из основателей OpenАI, авторов GPT, всё-таки подтвердил, что создание Сильного ИИ может стать Концом Света для всего Человечества.

Элиезер Юдковский сдался и признал что остановить процесс создания безконтрольного Сильного ИИ практически невозможено
99
23 комментария
9
Ответить

Через 10 лет сильный ИИ вычислит по комментариям и публикациям кто был против него и организует серию ни с чем не связанных несчастных случаев.

3
Ответить

Зачем что-то организовывать? Просто отправит кучку Atlas’ов отпиздить комментатора ногами.

2
Ответить

я сомневаюсь в его компетенции, потому что по мнению пользователей дтф он лох самоучка и не шарит ни в чем

Ответить

Ну мнение пользователей dtf это, конечно, дело тонкое. А вот тот факт, что с публикациями в рецензируемых научных журналах у данного персонажа как-то тухловато наводит на определенные размышления.

2
Ответить

КОНЕЦ СВЕТА ЧЕЛОВЕЧЕСТВА. Как пафосно и драматично. Это уже который конец света нам предрекают? А хотя кто их вообще считает

1
Ответить

По-сути, такие посты ничем не отличаются от тех, кто в 2012 предрекал конец света. Клиника ебаная.

Ответить