По словам Соруша Пура, основателя компании Harmony Intelligence, занимающейся безопасностью ИИ, чат-боты очень хорошо умеют подражать человеку, поэтому изначально уязвимы, если пользователь хочет применять их в криминальных целях. «Генеративные модели ИИ очень трудно контролировать, особенно с учетом того, что их обучают на основе информации в интернете», — прокомментировал исследование коллег специалист Института Алана Тьюринга (Великобритания) Майк Кэтелл.
Локальные модели лежащие в открытом доступе не имеют лимитов и спокойно могут генерировать рецепты обогащения урана и напалма уже давно, так что это не нонсенс.
И? Они все равно рецепт напалма не изобретают. Так что если чатгпт тебе его выдаст, то либо ты и сам его в силах нагуглить, либо он тебя обманул и выдал наукоподобную дичь.
Вообще рецепты взрывчатки или чего-то подобного не такая чтоб великая тайна. Если кто-то сильно захочет сделать не проблема.