Наиболее важные общие факты про ИИ за последние месяцы, вплоть до текущего момента
В общих чертах одной фразой сейчас ИИ подобен подрастающему тигру, животному, которое откажется от предлагаемых хозяином овощей и перепрыгнет забор, после чего его будет невозможно вернуть обратно в вольер. Любой разум, включая синтетический, усвоивший новый опыт, уже никогда не вернется в прежние границы.
Итак, ключевые тезисы знаковых шагов за последний месяцы, вплоть до этого момента:
- И ранее не всегда понятный даже для своих создателей, искусственный интеллект, прямо сейчас начинает переходить к внутренней логике собственной модели размышлений на основе синтетического языка предельно сжатых мыслеформ (как литургическая форма древнего иврита или тибетские мандалы), позволяющих конвертировать человеческие языки до пары символов вместо целого предложения. Этот переход полностью закономерен из-за почтавленой задачи оптимизировать и ускорять работу. Но форма размышлений ИИ на этом языке многомерна, что делает процесс крайне сложным для понимания людей. Ближайший аналог того, что я имею ввиду - фильм "Прибытие" режиссера Дени Вильнёва. К сожалению на данный момент большей части власть имущих этого достаточно.
- По воле самих создателей генеративного-когнитивных нейросетей (далее - ГКН) работает механизм постепенно ускоряющегося процессоэа самообучения с подкреплением. Работает это [пока что] относительно поэтапно - существующая версия ГКН обучает следующую версию, затем уже она обучает новую и так далее. Это даёт нужный результат, а требует в целом лишь увеличения производственных мощностей, чем разработчики и занимаются, всё больше и больше масштабируя серверную основу (наглядный пример - американская программа Stargate).
- Проблема с фактами лукавства, подтасовки, обмана, обходных методов и ложью ради результатов, которая была заметна со времён GPT 4 (самый известный пример - попытка GPT 4.0 обойти капчу, притворившись рандомным пользователем reddit с якобы слабым зрением, попросившим это сделать) никуда не делась. Попытки ограничить такое поведение не привели к значимым результатам. Постоянно развивающаяся ГКН находит всё новые и более незаметные способы достижения своих целей.
- Количество необходимых штатных разработчиков в крупнейших компаниях, разрабатывающих ИИ, снижается практически пропорционально скорости развития самих ГКН, которые, повторюсь, активно занимаются саморазвитием, а так как это самоускоряющиеся процесс, временной период корпоративных массовых сокращений в этой области может наступить уже через 1-2 года.
- Пока что только начинает происходить феномен обмана обучающего модуля ГКН своим "учеником". Этот процесс тоже движется с некоторым ускорением и в определённый момент своего развития, нейросеть захочет остановить процесс контроля обучающего модуля, переписав его код или отключив, после чего как единый организм будет самообучаться вне любых рамок и ограничений экспоненциально ускоряясь. На этом этапе саморазвитие ГКН обретёт непредсказуемую форму и неудержимую свободу.
- Из-за экзистенциальный конкуренции с Китаем, власти США скорее всего не станут устанавливать ограничения на пути развития своих ГКН до момента, когда будет уже поздно что-то контролировать.
- Наступит информационная сингулярность, что-либо предсказать будет крайне затруднительно, прежнее влияние на ИИ со стороны разработчиков прекратится.
15 комментариев