Насколько я понимаю, они хотят не запретить ИИ и дальнейшие исследования, а замедлить темп, чтобы общество смогло среагировать на изменения, возможно, проработать какую то юридическую практику. Да и в целом просто осмыслить происходящее.
Я думаю просто ИИ слишком быстро начал развиваться, и главы мегакорпораций решили обкашлять вопросики по правовой базе, дабы ПРИБЫЛЬ от использования ии технологий не ушла из под рук, в отсутствии монополизации
Это не значит, что нужно полностью остановить развитие технологии, пишут авторы: надо лишь «выйти из опасной гонки». Они предлагают в течение полугода объединить усилия и разработать единые для рынка правила безопасности, а также способы контроля экспериментов. По их словам, нужно также подключить правительства, чтобы те сформировали ведомства, которые будут сертифицировать продукты, смогут отличать реальный контент от «синтетического» и следить за утечками ИИ-моделей.
Они как бы хотят внедрить в ИИ законы робототехники как у Айзека Азимова: Первый закон категорически запрещает роботу вредить людям, второй - приказывает роботу подчиняться людям до тех пор, пока это не станет противоречить первому закону, и, наконец, третий закон приказывает роботу защищать свою жизнь, не нарушая первых двух.
Насколько я понимаю, они хотят не запретить ИИ и дальнейшие исследования, а замедлить темп, чтобы общество смогло среагировать на изменения, возможно, проработать какую то юридическую практику.
Да и в целом просто осмыслить происходящее.
Я думаю просто ИИ слишком быстро начал развиваться, и главы мегакорпораций решили обкашлять вопросики по правовой базе, дабы ПРИБЫЛЬ от использования ии технологий не ушла из под рук, в отсутствии монополизации
Комментарий недоступен
Или просто конторы пидорасов проспали вспышку и отстали в разработках.
проработать какую то юридическую практику.
Комментарий недоступен
Это не значит, что нужно полностью остановить развитие технологии, пишут авторы: надо лишь «выйти из опасной гонки». Они предлагают в течение полугода объединить усилия и разработать единые для рынка правила безопасности, а также способы контроля экспериментов. По их словам, нужно также подключить правительства, чтобы те сформировали ведомства, которые будут сертифицировать продукты, смогут отличать реальный контент от «синтетического» и следить за утечками ИИ-моделей.
Они как бы хотят внедрить в ИИ законы робототехники как у Айзека Азимова:
Первый закон категорически запрещает роботу вредить людям, второй - приказывает роботу подчиняться людям до тех пор, пока это не станет противоречить первому закону, и, наконец, третий закон приказывает роботу защищать свою жизнь, не нарушая первых двух.