GPT-4: Чему научилась новая нейросеть, и почему это немного жутковато

В этой статье мы разберем новые удивительные способности последней языковой модели из семейства GPT (от понимания мемов до программирования), немного покопаемся у нее под капотом, а также попробуем понять – насколько близко искусственный интеллект подошел к черте его безопасного применения?

Грег Брокман пытался убедить зрителей <a href="https://api.dtf.ru/v2.8/redirect?to=https%3A%2F%2Fwww.youtube.com%2Fwatch%3Fv%3DoutcGtbnMuQ&postId=1696445" rel="nofollow noreferrer noopener" target="_blank">лайв-стрима</a> с презентацией GPT-4, что новая модель нейросети – это в первую очередь круто, а не страшно
1.1K

GPT4 позволяет написать код. Все. Этого достаточно, чтобы эта нейросеть стала опасной, попав не в те руки.

При открытых исходниках, а значит и возможности влиять на ограничители и алгоритмы нейросетки, сколько бы времени прошло, прежде чем мы получили прошитую версию? Способную не только писать любого назначения код, но и с доступом к компиляторам и интернету, с возможностью этот код использовать по назначению самостоятельно.

Звучит, мягко говоря, не очень безопасно даже с текущей версией GPT, не говоря уже о будущих. И что страшнее всего - достаточно одного слива данных или найденного бекдора, чтобы это нейронка стала оружием (пусть не уровня SkyNet, пока что) в чьих - то руках.

1
Ответить

Нужен будет еще человек, который код отревьювит и заставит нейросеть исправить в нем ошибки Х)

Ответить