Элиезер Юдковский сдался и признал что остановить процесс создания безконтрольного Сильного ИИ практически невозможено

Главный мировой идеолог безопасности ИИ Элиезер Юдковский утверждает, что начавшуюся бурную гонку за создание Настоящего ИИ может остановить "только чудо". Тем временем Сэм Олтмен, один из основателей OpenАI, авторов GPT, всё-таки подтвердил, что создание Сильного ИИ может стать Концом Света для всего Человечества.

Элиезер Юдковский сдался и признал что остановить процесс создания безконтрольного Сильного ИИ практически невозможено
99

я сомневаюсь в его компетенции, потому что по мнению пользователей дтф он лох самоучка и не шарит ни в чем

Ну мнение пользователей dtf это, конечно, дело тонкое. А вот тот факт, что с публикациями в рецензируемых научных журналах у данного персонажа как-то тухловато наводит на определенные размышления.

2