Всё же задушню про это интервью, а то что зря комментарий писал. 🙃

Разбор некоторых тезисов.

Постарался объединить логически для наглядности поэтому не все будут идти по очередности интервью.

> Ваш прогноз на 2027 год? Через два года ИИ заменит большинство людей и профессий.

И что же за эти 2 года интересно такого произойдёт? Создадут AGI? Роботизируют полностью производство? 🤔 Это при том, что развитие нейросетей в последнее время закономерно замедлилось, что нормально.

> Вы занимаетесь безопасностью ИИ на протяжении 15 лет ... 15 лет назад я изучал покерных ботов...

А он точно эксперт? Я всё понимаю, но большинство покерных ботов не имеет под капотом нейросетей.

> Десять лет назад мы опубликовали советы, как правильно использовать ИИ. Они нарушил все до единого и сейчас рискуют восемью миллиардами жизней, чтобы стать еще богаче и влиятельнее.

Забавно что у него в презентации, куча громких заголовков и неординарных источников, а что за правила и не понятно.

> Если некоторые люди хотят полететь на Марс, то разработчики ИИ хотят контролировать Вселенную.

Искусственный интеллект в любом его виде не сможет контролировать вселенную, т.к. он ограничен теми же условиями, что и мы.

> В то же время мы не знаем, что делаем все правильно. Мы создаем инопланетный разум.

И тут пациента понесло. Какой инопланетный разум, если ИИ созданы по нашему подобию и обучены на данных нашего мира? Инопланетным он был бы на другой планете.

> Это не значит, что он (Альтман) не хочет создать полезный ИИ, который сделает всех счастливыми. Просто счастливыми людьми легче управлять.

Но миром уже правят рептилойды, они разве отдадут эту привилегию Альтману? Или может он тоже рептилойд? 🤔

> В синтетической биологии, как показал пример с COVID, можно легко создать вирус, который заразит миллиарды.

Наверное он ещё о американских/китайских лабораториях любит рассказывать, где корову19 создали. Как вы понимаете сабж обожает конспирологические теории.

> Как только мы получим сверхразум, мы пожалеем об этом.

Судя по сабжу, мы правда пожалели, что получили сверхразум. Простите.

> Создатели таких систем, как ChatGPT, на самом деле не понимают, что происходит у них внутри? Совершенно верно.

Действительно. 🤔 Вообще не понимают, как эти нейросети устроены и не поняли, как их сделали. Пофиг, что почти всё что относится к ANI было описано математически ещё в 40-ых годах прошлого века.

> Они обучают систему, скармливая ей огромные объемы данных — скажем, весь текст из интернета. Запускают ее на множестве процессоров, чтобы она нашла закономерности в этом тексте.

О как. Т.е. по его логике нейросети обучают просто "скармливая данные", а потом они сами, как-то по магии учатся... 🙃

Даже обычные люди, далёкие от IT знают в общих чертах, как работают llm, о которых идёт речь. Изначально им скармливают не предложения, а цепочки из слов для определения контекста, чтобы на основе них, llm могла строить следующее слово. Это не магия, а огромный набор алгоритмов и формул, если очень грубо говорить.

> Иногда достаточно просто задать вопрос по-другому, и ИИ вдруг становится «умнее».

Да, потому что переформулирование вопросов даёт другую комбинацию слов контекста и llm проще строить цепочки слов/токенов. Но для эксперта по ии это магия и новая наука.

> Но никто не может точно предсказать, какой результат она выдаст на конкретный запрос.

Даже не вдаваясь в тех подробности, нейротексты выделяются и распознаются на глаз. Да, предугадать конкретный результат (слово в слово) сложно, но общий смысл чаще всего один и тот же. Это хорошо видно в программировании, когда llm выдают примерно один и тот же код с небольшими косметическими изменениями.

> Можно ли «отключить» компьютерный вирус? Или попробуйте «отключить» сеть Биткоина — давай, я подожду.

Кто-нибудь, расскажите ему про РКН, там поржут над отсутствием "розетки". Он парирует очень поверхностно. Объяснение куда более простое. Отказ от нейросетей не может быть повсеместным, потому что это банально приведёт к технологическому отставанию группы, что откажется от них. Это главный фактор, а не то что доступ к нейросетям невозможно ограничить.

> Идея о контроле применима только к текущему уровню развития ИИ, до появления сверхразума.

Сверхразум уже появился, вон интервью даёт (простите ещё раз), но ИИ всё ещё под контролем. Серьёзно, что он понимает под сверхразумом? Если AGI, то этого не сделают к 2027 году. Плюс неизвестно будет ли он так эффективен во всём, как его представляют. Если совокупность всех ИИ, то большинство из них не связаны между собой и до скайнета нам очень далеко.

> Да, сегодня опасны люди с продвинутым знанием ИИ — хакеры или мошенники. Но как только появится сверхразум, он станет доминировать, и люди перестанут играть значимую роль.

Ну если такие сверхразумы будут появляться, то правда человечество обречено. 🙃 Простите за эти шутки, но серьёзно, я думал он расскажет о новых хакерских атаках, что используют специалисты в отношении тех же llm или хотя бы про соц. инженерию, но по итогу читаю про какой-то выдуманный, непонятный, инопланетный сверхразум, что будет управлять вселенной. По тезису же, мне не ясно почему люди перестанут играть значимую роль? Появятся сами по себе ии агенты мошенники или будет один большой мошенник-скайнет? Почему сабж не раскрывает темы о которых говорит?

> Меня беспокоит именно высший интеллект, а не человек, который может добавить в систему вредоносную программу, но все равно не сможет ее контролировать.

Действительно... Какое там дело до ИБ в контексте ИИ, если надо бояться высшего интеллекта, который хрен знает когда создадут и неизвестно появится ли он вообще. С таким же успехом, давайте бояться прилёта инопланетян и забьём на всю безопасность...

> Оказывается, если добавить больше вычислительных данных, он просто становится умнее. И теперь над созданием сверхразума работают самые умные люди на планете, и с ними миллиарды долларов.

Вот оно что, больше данных больше ума... 😂 Действительно, построение архитектур, оптимизация математических формул... Кому это надо? Но давайте допустим его мысль, тогда сабж не хочет объяснить, как корпораты создадут "высший интеллект", если уже современные ИИ, имеют в датасетах практически "весь интернет"? Данные закончились, "высшего интеллекта" нет, что делать? 🤔

> Мы не знаем, как создать ИИ, чтобы он не сделал ничего такого, о чем мы пожалеем.

Умные фильтры, алгоритмы определения запрещённые действия, запрет доступа к критически важной архитектуре? 🤔 Он то говорит о каком-то едином "сверхразуме", то утверждает, что нейронки децентрализованы, то вообще что у каждого на пк будет сверхразум установлен. Если мы говорим о каком-то едином общем ИИ, то его контролировать и ограничивать довольно просто, если же мы говорим о множестве децентрализованных агентов, то во-первых, за любые происшествия отсветственность несёт человек, во-вторых, при децентрализации будет сложно создать единый цельный "сверхразум". Это будет скорее, что-то вроде "роя" множества небольших или средних нейросетей со слабой связью между собой.

> Кроме того, по их же словам, они (создатели популярных нейросетей) пока не знают, как сделать ИИ безопасным.

Они знают, но это технически сложно и это как раз основная проблема ИБ при использовании ИИ, а не выдуманные "сверхразумы.

> Сейчас очень популярна разработка ИИ-агентов. Я гарантирую, что через год или два это тоже исчезнет.

Современные нейросети требуют контроля и будут требовать его всегда. В том же IT, про который сабж говорил ранее, поднялся порог входа задолго до хайпа llm, это было закономерностью. Сейчас меняются сами подходы к разработке с эффективным использованием нейросетей, причём не обязательно с использованием llm. Да, возможно в будущем, AGI сможет нас всех заменить, но к тому времени уже само общество переформируется, это явно не будет в 2027 году.

> Многие компании, включая Tesla, разрабатывают роботов с невероятной скоростью, и их навыки постоянно усложняются.

Даже не буду приплетать последнюю новость с индусами на роботах тесла, просто скажу, что это правда большая проблема. Особенно использование автономных роботов в милитари сфере. Скорее-всего они будут принимать такие физические формы, которые мы не можем принять из-за ограничений эволюции. Тема интересная и это напрямую связано с ИБ. Вот об этом и надо было рассказывать, а не о сверхразуме инопланетян.

> Что делать с уймой свободного времени? Многих людей именно работа наполняет жизнь смыслом, и без нее они чувствуют себя потерянными.

Т.е. у него основная проблема развития ИИ, это безделие, а не передел власти сопровождаемый голодом, войнами, новыми диджитал-тоталитарными строями и прочими интересными вещами. Чем народ занять придумать можно легко. Спорт, медийка (стримы и прочее), путешествия и ещё много чем.

> Если вы придумаете какую-то новую работу, этого агента можно будет сразу отправить на нее, и он ее выполнит. Такого в истории еще не было.

Автоматизированные системы? Наверное в его истории их ещё не было. Нейросети не будут никогда работать автономно, потому что за всё что они делают отсветственность будет нести человек. Полной автономии у нейросетей не будет ещё очень долго, а значит человек будет при работе.

> Когда появится AGI? К 2027 году у нас будет общий искусственный интеллект. Все, что связано с компьютером, будет автоматизировано.

> Два-три года. (до создания AGI)

> Возможно, мы еще долго будем жить в мире, который выглядит так же, как сейчас.

> Существует почти бесконечное число вариантов развития событий. Но число вариантов, где мы получаем то, чего хотим, очень мало.

> Я могу лишь строить догадки, но это не будет точным прогнозом.

Специально объединил эти цитаты т.к. по ним хорошо видно качество аналитики. От: "В 2027 году нас уже всех заменит AGI", до: "Я ничего не утверждаю, может и не заменит"

Отдельно про работников за 20$ и полную автоматизацию. Мы сейчас уже имеем эту возможность. При помощи MCP мы можем автоматизировать что угодно, любой процесс. Background agents, уже выполняют любую работу на vm. Есть решения по автоматизации рутинных бизнес задач, объединённых в целые no code платформы, например n8n. Этого уже достаточно, чтобы автоматизировать любую задачу без знания программирования.

Выводы?

Меньше слушайте мнения экспертов в интернетах и смотрите, что происходит по факту. Уже сейчас мы имеем инструменты которые позволяют автоматизировать практически любые задачи. Сабж собрал всевозможные мифы о ИИ, при этом особо не раскрыл ни одну из поднятых тем. По сути, это галоп Гиша, упакованный в формат интервью, хотя заявленная тема на самом деле очень интересная и хотелось бы послушать человека, который по-настоящему разбирается в теме.

Более того, сабж активно вводит людей в заблуждения приводя термины явно без раскрытия контекста. Например что такое "сверхразум" и "высший интеллект"? Почему он в основном говорит только об llm, ведь виды нейросетей далеко на них не заканчиваются. Ещё он часто использовал термины ии, gpt, llm будто это одно и тоже. При этом я ни слова не услышал про ml, dl, ani. Он говорил про agi, но такое ощущение, что человек не до конца понимает значение этого термина.

Я бы не стал писать этот пост, если бы в его утверждениях не было громких заявлений и откровенной конспирологии. В которые, как выяснилось по комментариям, люди охотно верят. К сожалению.

7
1
1
1
21 комментарий