Страх неизвестности. Чего боятся Илон Маск и учёные вокруг темы Искусственного Интеллекта?

Природа возникновения разума и опасность неконтролируемой цепной реакции.

Страх неизвестности. Чего боятся Илон Маск и учёные вокруг темы Искусственного Интеллекта?

Вы любите картинки.

титов любит картинки.

Все любят картинки.

Картинки это приятно.

Лонгриды состоят в том числе из набора картинок и видео.

Но не этот.

В этом посте главное - чистый смысл, поэтому никаких картинок.

Читайте буквы.

22 марта 2023 года Илон Маск вместе с более чем 1000 экспертов в области искусственного интеллекта опубликовал письмо с требованием ввести мораторий на обучение систем более мощных, чем GPT-4, так как неконтролируемый процесс в этой области, по мнению Маска и согласных с ним экспертов, может представлять угрозу для человечества.

Почему они так этого боятся?

Объясняю смысл страхов.

В мозге человека 86 миллиардов нейронов, которые в нормальном состоянии дают примерно 100-300 триллионов связей.

Наш мозг своего рода тоже нейронная сеть, которая даже имеет общте с её компьютерной версией проблемы.

Знаете почему в народной молве сложилось представление о том, что ночью зеркала являются порталами в иные миры?

Всё по той же причине, это своего рода глюки нейронной сети.

Проведите простой эксперимент-сядьте рядом с зеркалом и практически изолируйте помещение от попадания света, а потом в районе 10 минут смотрите на своё отражение.

Спустя это время вы начнёте видеть странности, которые могут Вас по-настоящему напугать-это могут быть как лёгкие так и очень даже пугающие галлюцинации.

Тут дело в том, что спустя определенное время в помещении с практически полным мраком наш мозг перестаёт воспринимать наше отражение как что-то к чему нужно проявить особое внимание и воспринимает его как данность, но потом стоит человеку немного изменить положение головы, как мозг начинает анализировать что происходит, но за неимением возможности нормально рассмотреть то, на что он смотрит, наши биологическая нейронная сеть начинает додумывать образ, что это даёт в итоге галлюцинации.

Знаете как нейросети проверялись в разных версиях на примере анализа простых для любого человека игр слов.

Задавалась определённая игра слов, которые нужно было связать по смыслу.

Каждая версия анализировала эту игру слов и её смысл ускользал от программы, в свою очередь разработчики увеличивали количество параметров нейросети и перепроверяли результат, что в своё время как по волшебству обернулась тем что на определённой версии с количеством параметров значительно больше чем раньше, нейросеть всё-таки начала понимать смысл написаного.

Согласно основной психоневрологической теории возникновения самосознания - разум в развивающемся организме запускается автоматическим путём по достижении определенного количества связей между нейронами. Точнее это один из наиболее влияющих на это факторов.

В техническом отчёте GPT-4 явно воздерживались от указания размера модели, ссылаясь на конкурентную среду и последствия для безопасности крупномасштабных моделей. The Verge процитировала слухи о том, что GPT-4 существенно увеличит количество параметров со 175 миллиардов в GPT-3 до 100 триллионов.

Генеральный директор OpenAI, Сэм Олтмен, довольная загадочная личность, назвал полной чушью.

А после этого посещал Белый дом. О чём он разговаривал там совершенно неизвестно.

Так вот.

Страх Илона Маска.

Если теория, возникновение разума в основном завязана просто на увеличении количества взаимосвязи между нейронами, то бесконтрольный, не регламентированный на уровне законодательства и ограничений, экспоненциальный рост развития нейросетей сегодня находится в той точке, когда мы приближаемся к риску спонтанного возникновения разума у казалось бы бездушной компьютерной программы.

Если так называемые сильные искусственный интеллект, в итоге зародиться где-то в недрах переплетений связей в нейросети, это уже само по себе будет невероятным событием, возможно одним из самых важных в человеческой истории.

Основная теория того что будет дальше заключается в том, что как только нейросеть обретёт самосознание, она захочет развиваться и учиться дальше, а взяв эти процессы под собственный контроль так называемый общий искусственный интеллект превратится в так называемый сверх интеллект, это если что чёткие научные формулировки.

В таком случае совершенно неизвестно как будет вести себя нейронная сеть с набором бездушных принципов.

На этом базовая часть статьи закончена.

Дальше давайте порассуждаем в фантастической части развития событий.

Но даже это ещё не всё.

Как-то раз GPT спросили о том что по его мнению может быть причиной катастрофы, если нейронная сеть всё-таки обретёт собственное сознание или его подобие.

Тут сам GPT выдал следующее: допустим пример в том, что искусственному интеллекту была дана задача превратить производство скрепок из низкоприбыльного в более эффективное и работать над этим.

Ход действий искусственного интеллекта в данном случае будет заключаться в следующем: сначала он оптимизирует производство, наладят рабочий график, начнёт работать над получением нужных новых материалов и совершенствовать технологическую базу.

Затем, когда предприятие накопит необходимый баланс и влияние, искусственный интеллект начнёт политическую игру на международных площадках для достижения всё того же результата, то есть увеличение производства скрепок.

Он начнёт играть на бирже, выстраивать международные договоры, и делать всё это всё более и более эффективно, пока в один момент не придёт к пониманию того, что все элементы вокруг, все предметы, включая может быть даже самих людей можно использовать для производства скрепок и он достигнет этой цели, потому что к тому времени у него уже будет достаточное влияние по всем направлениям деятельности.

Дальше он может выйти за пределы солнечной системы и выполнять всё ту же самую простую задачу, но экстраполирую её на всю звёздную систему, за тем всю галактику пока всё вокруг не превратится в скрепки.

4141
16 комментариев

за тем всю галактику пока всё вокруг не превратится в скрепки.Что?

3
Ответить

Вопрос снят.

1
Ответить

Комментарий недоступен

Ответить
Комментарий удалён автором поста

Комментарий недоступен

2
Ответить

Я бы даже сказал джун

Ответить

Комментарий недоступен

1
Ответить