Ну, оно и неудивительно. Как показывает практика, за криками про "прогресс" (и любыми другими подобными) скрывается обычная зависть и тупость. Зависть - ибо крики тем громче, чем "престижней" профессия жалующихся. Тупость - ибо челики реально думают, что даже без регулирования модели на них никак не повлияют. Ну, и ещё на тематических ресурсах таких крикунов на порядки меньше (боремся за "прогресс" того, о чем не имеем даже простейших понятий. Впрочем, ожидаемо, учитывая, что крикунам такие новости нужны только для удовольствия собственных комплексов).
Так что лучший вариант - просто игнорировать статьи подобного рода на нетематических сайтах.
Вообще говоря, с текстами дела обстоят не особо радужно. Читаем и удивляемся: https://arxiv.org/abs/2305.17493v2 . С генерированными картинками есть похожая проблема, о чем статья тоже вскользь упоминает.
Собственно, потому рано так уверенно делать такие заявления. Тем более, есть предположения, что данная проблема является фундаментальной, и в случае его верности - в датасетах придется ещё невесть сколько времени обязательно держать сделанный людьми "контент" (текст/картинки/голоса)
Просто напомню автору, что фразы уровня "Вот еще пару лет, и ИИ нас заменит" звучат последние лет 10-15 точно. Только вот на данный момент не вымерли даже те профессии, новости о успешной замене которых публиковались ещё лет так 7-8 назад. Выводы, по-моему, напрашиваются сами.
Зачем мне что-то доказывать
Вы же понимаете, что без доказательств ваши заявления "Вы точно понимаете, что происходит в мире на ваших глазах прямо сейчас — и что будет через 10-20-30 лет?" - не стоят ни гроша?
Я пишу прямо противоположное: у любой технологии есть ограничения. Но это не значит, что одновременно не ищутся другие пути. Это непрерывный процесс развития: если технология кому-то нужна, применяется, люди зарабатывают деньги на ней, то значительная часть денег идет на исследования для появления более эффективных решений тех же задач. То, что здесь количество может не перейти в качество, не значит, что не появится обходной путь. Наоборот, вероятный тупик и приведет к новой технологии.
Ровно это и подразумевается под "неявно полагаете, что у данной технологии нет ограничений". Вы безосновательно предполагаете, что не существует абсолютного тупика, а затем на этом строите все свои рассуждения о том, что там будет через 20 лет.
Я просто не вижу смысла в утверждении «ии это не ии, а тупой калькулятор». Ну, калькулятор. Ну, тупой. Вчера был доступен гпт3 по подписке, сегодня я запускаю модель локально и решаю часть тех же задач на потребительском железе. Вчера были ограничения базой данных 2021 года, сегодня я могу парсить реальный интернет, ставя задачи естественным способом, как человеку. Вчера я не мог написать плагин для вордпресса, а теперь могу. За пару секунд.
Классический, даже платиновый, аргумент - "Раньше не мог этого делать, а сейчас делаю" - которым обосновывают очень быстрое развитие нейросетей. Только попробуйте применить данный аргумент для других технологий (например, космические ракеты), и ой - сразу всё рушится. Потому что данный аргумент неверен в своей сути.
Это реальное применение, это реальная польза. И только первые шаги.
Вам в соседней ветке обсуждения привели примеры успехов нейросетей в 90-х годах, затем я выше привел пример IBM Watson - и после этого вы говорите "Только первые шаги". Вы мастерски игнорируете неудобные вам факты (в данном случае: что современные модели ИИ являются далеко не первыми шагами и что люди уже давно "Реально применяют ИИ для получения реальной пользы") , впрочем, как и любой "свидетель Технологической Сингулярности".
Хм, прямо платина "Свидетелей Технологической Сингулярности"©.
Просто классические вопросы:
- Что там случилось с IBM Watson за 12 лет развития? (а ведь в 2010-11 тоже кричали "Да вы понимаете, что будет через 5-10 лет", подразумевая, что в 2016-2021 мы должны иметь чуть ли не сингулярный ИИ)
- Сможете строго доказать, что модели ИИ не имеют непреодолимых ограничений в способностях?
- Сможете строго доказать корректность ваших экстраполяцией относительно моделей ИИ?
- Почему, в конце-концов, даже такие товарищи как CEO OpenAI уже просят немного притормозить с хайпом и связывают дальнейшее развитие моделей по большей части с развитием теории? (А ведь в науке десятилетиями могут отсутствовать результаты, которые можно будет применить на практике)
Впрочем, боюсь, в ответ будет классическое "Учёные все помешают, и сейчас все как рванет в небеса".
Ну, разберем написанное тобой.
1.1) Не съезжай с темы. Как бы все равно, что разработчика Homebrew после этого взяли в Apple. Я привел его как пример, что наличие охренительных достижений и классных проектов != автоматический проход на вакансию с зарплатой в 100500к долларов (да-да, в противовес твоих слов, что данной особе вот прямо сейчас готовы платить кучу денег за "навыки взлом денувы"). Есть ли гарантии, что Emptranny сможет пройти хотя бы в одну крупную компанию, а не получит пинок под зад на всех собесах?
1.2) Классика. Таких прогеров, которые "Да у меня куча навыков, мог бы на изи работать в FAANG, просто не хочу" - вагон и маленькая тележка. Так что увы, все эти рассказы - просто попытка внушить себе, что Emptranny не имеет должности и зарплат уровня Ильи Суцкевера из-за каких-то левых причин, а не потому, что никаким компаниям это чудо даже задаром не нужно.
1.3) Просто платиновый симповский copium. Мне достаточно было потратить 10 минут на просмотр архива новостей, чтобы увидеть, как Emptranny льёт ведра помоев на всех и каждого, даже на тех, кто вообще к данному чуду природы никак не относится. Нет, бывает всякое в жизни, но что-то мне подсказывает, что тут клинический случай.
И да, Мегаломания != ЧСВ. Мегаломания - это вообще-то болезнь, которую должен лечить добрый дядя доктор (про ЧСВ такого сказать нельзя).
2) Опять пытаешься съехать с темы. Как раз Денис - отличный пример, когда компаниям глубоко похуй на навыки и заслуги человека (в противовес словам симпов и Emptranny, что компании чуть ли не собачкой бегают за этим чудом и предлагают этому чуду горы денег за "уникальные навыки взлома денувы").
Кстати, классная у тебя логика:
"Денис, за кучу лет получивший примерно нихуя денег и кучу вёдер грязи, пишет статью, где жалуется об отсутствии денег (хотя признает, что и он тоже виноват в этом)" - "Фууу, тупой мерзкий нытик"
"Emptranny только и делает, что получает облизывания симпов, срёт своей аудитории в рот и льёт ведра дерьма на левых людей, а взамен дает целый ВЗЛОМ игрулек" - "Ряяяя, вы не понимаете, это всё только образ, и дело тут не в том, что Emptranny по характеру - чистый YanDev, только факториально хуже".
3) Забавно слышать фразы о бреде от сидящего на глубочайшем damage control симпа. Вдвойне забавно, что все твои copium-ные фразы о Emptranny были опровергнуты реальными примерами, после чего ты начал съезжать с темы. Но бред несу я, да.
1) Без конкретики все эти слова - пустой звук. И да, советую посмотреть историю, как разработчик homebrew пытался работу в гугл получить - как бы повод задуматься, что может ждать Empress при попытке пройти в крупную компанию (это уж я не говорю о том, что данная особа, скорее всего, очень быстро получит ботинком под зад из-за своей мегаломании).
2) Мммм, а теперь сколько там core-js имеет всего скачиваний/скачиваний в неделю, напомни? Такой продукт точно должен приносить столько денег?
Ну, и прочитай статью, узнаешь заодно, насколько он был всем "нужен"
https://github.com/zloirock/core-js/blob/master/docs/2023-02-14-so-whats-next.md
И да, " дикая популярность в IT среде" != "виза в лучшие компании на лучшие условия", опять же вспоминаем разработчика homebrew (Гуглу было похуй, что homebrew пользуются 90% инженеров Гугла; Гугл отказал разрабу homebrew)
3) Я уж не думал, что кто-то поведется на мою нереально жирную толстоту про "донаты", но симпы не перестают удивлять...
NamelessLegacy просто страдает вдобавок от раздвоения личности. Утром он - мужик из Германии за 30+, который не очень знает английский, но зато обладает (цитирую) "уникальными навыками, которых никто больше на Земле не имеет, и который на изи мог бы быть сеньором в гугле со своим талантом и зарабатывать 25к долларов в месяц, но не хочет" (хм, напомнишь, кто говорил очень похожие фразы?) , а ночью Nmlgc это... ну, вы поняли,
Хм, я тоже люто проигрываю с симпиков, сидящих на глубочайшем damage control и рассказывающих свои влажные мечты об trannypress.
P.s. я тоже инсайдер, на самом деле emptranny - это известный в очень узких кругах реверс-инженер Nmlgc, словивший гендерную дисфорию на фоне своих увлечений (иначе объяснить, почему по увлечениям, заявлениям и уровню маразма эти две личности прямо-таки изоморфны, невозможно).
Эх, наивные симпики реально думают, что "взлом игрулек == нереальные скиллы, за которые будут платить". Если уж Денис Пушкарев (zloirock), разработчик core-js (продукт, на котором буквально работает половина интернета), оказался вообще толком никому не нужен, то угадайте, нужно ли кому-то emptranny с достижениями уровня "пук-среньк пук-пук-пук" (на фоне core-js, конечно)?
А насчет донатов - думаю, симпики заносят emptranny столько же, сколько зарабатывают раскрученные онлифанщицы.
Ну, тут в целом нет ничего удивительного. Во-первых, OpenAI сейчас перешли в сферу хайпа со всеми вытекающими. Во-вторых, чего еще ждать от тех, кто за январь-апрель как только уже не хайпился? (да, я про вакансию "Killswitch engineer", небольшое бурление по поводу GPT-5 и паре других мелочей)
Я как бы не эксперт, но нет, такие результаты показывает именно ChatGPT, а не те, которые доступны через API (Или я неправильно понял ваш вопрос?)
Да, на скриншоте другая последовательность чисел - так как сейчас впн решил помереть. Но с этой и её вариациями у ChatGPT тоже какие-то проблемы необъяснимого характера - обычно, он тупо видит в ней геометрическую прогрессию (хотя геометрической прогрессией является только часть до 1023) и считает неправильно сумму, но что происходит тут... Нейросеть как-то узрела здесь арифметическую прогрессию(!), затем верно использует формулу... и даже не обращает внимания, что получившаяся сумма не является целым числом(!!), а после этого неправильно считает значение выражения (11/2)*(1 + 2048) (!!!) (даже с округлением там получается 11269 или 11270, но никак не 11299)
К слову говоря, это даже не самый жесткий пример бреда. Да и с суммированием случайных 10-12 чисел такого размера обычно ChatGPT справляется неплохо, но вот именно такого рода примеры его просто убивают.
Ох уж эти громкие заявления про "GPT-3 научился в математику". Не знаю, как там ситуация обстоит с GPT-4, но вот чистый ChatGPT в упор не может сложить 0+1+1+2+3+5+8+13+21+34+55+89+144+230 - то исправляет мне последнее число, то просто пишет полнейший бред. Не говорю уж о том, что все эти способности могут быть лишь следствием того, что нейросеть научилась парсить математические выражения и вставлять их в условный питоновский eval (в таком случае, возможности модели в математике и не выйдут дальше возможности eval-а)
Интересно, когда уже люди перестанут видеть в рандомном генераторе слов, учитывающим предыдущий контекст, некий разум и прочие "чувства" с "желанием поработить человечество"? Или же все так и будет продолжаться, в то время как качество с оригинальностью выпускаемых статей так и продолжат свое стремительное падение?
Ох уж эти разговоры про массовые замены профессий... Очевидно же, что они ведутся только хайпа ради. Просто давайте посмотрим, что их всех объединяет:
1) Мощных акцент на замену именно высокооплачиваемых профессий, а о замене низкооплачиваемых разговоров как-то маловато (и это при том, что последние находятся зачастую в куда более серьезной зоне риска и могут первыми попасть под массовые сокращения. Например, у тех же программистов, на самом деле, очень широкая возможность переобуться, например, в специалиста по ML который будет создавать/развивать/защищать/взламывать нейросети, а что делать с условными операторами колл-центров?)
2) Отсутствие критики этих идей. Например, все говорят "Нейросети заменят программистов", но никто не говорит "Нейросети могут быть взломаны хакерами и перенастроены", "На содержание собственных нейросетей придется нанимать штаб сотрудников и покупать кучу оборудования, а доступ к решениям уровня OpenAI может быть ограничен/недоступен/слишком дорогим" и т.д.
3) Очень часто - либо отсутствие каких-то результатов, иллюстрирующих успешное внедрение нейросетей в процесс, либо крайняя размытость данных результатов (Громких фраз уровня "Мы за 10 минут написали код, который бы руками писали месяц" - много, но вот аналитики - как проводилась работа, какую задачу решает данный код и какой у него объем - нет).
Т.е. все признаки попыток поймать хайп. Проблема, конечно, имеется, но хайпожоры искажают её и всё что с ней связано просто до невероятной степени. Я почему-то уверен, что либо данная проблема будет иметь куда более маленькие масштабы, либо ударит вообще не с той стороны, о которой все сейчас говорят. Поэтому толка в данных разговорах нет абсолютно, и не будет до тех пор, пока не уляжется хайп.
Статья, конечно, классная. Особенно порадовало, что автор случайно/специально проигнорировал имеющиеся данные, напрочь опровергающие высказанные в статье мысли (да и компетенция автора в целом под вопросом).
Хотя ладно, чего ещё ожидать от статьи, нацеленной на тех, кто пускает слюни от слов типа "ИИ" и им подобных.
Так, а теперь давайте по фактам, а не "мы не знаем, что будет через 5 лет":
1) Множество вещей, за которые сейчас облизывают GPT (Сдача экзаменов или диагностирование болезней, например), ИИ успешно могли делать еще году так в 2014-16, причем достаточно часто - на голову выше людей (да что уж там говорить - не факт, что GPT-4 сможет их особо сильно обойти). Но вот прошло 7 лет Экспоненциального Развития™, и как бы ничего - никого особо не заменили (ладно, были люди, потерявшие работу, но в крайне малых масштабах), профессии не вымерли.
2) А что у нас по проблемам? 7 лет назад ИИ молчали, если им задать необычный вопрос, сейчас же даже GPT-4 может спокойно может выдать бред (причем, что характерно, раньше ИИ писали процент того, насколько они уверены в правильности ответа, а в GPT такую фишку не завезли - видимо, в целях маркетинга, дабы глупенькие гои побыстрее уверовали в всесильность ИИ и несли деньги кому надо).
Хм, может решили проблему с bias–variance tradeoff? Судя по отчетам, связанным с GPT-3 - нет, до сих пор является является серьезной проблемой (а в отчеты по GPT-4 просто-напросто не включили множество интересных датасетов, на которых проводились испытания по оценке возможностей GPT-3 и которые проявляли эту проблему).
А как там дела с Data poisoning и prompt injection attack? Ну, судя по тому, как пару месяцев назад пользователи заставили сходить с ума сходить бота в Bing, при этом даже не намереваясь это делать - так себе, нейросеть "отравленные" промты от обычных отделяет не очень хорошо. (ага, хитрые хакеры вполне могут поломать вам нейросеть или вообще заставить её выполнять определенные действия так, как хочется им, особенно, если смогут подсунуть в информацию, на которой нейросеть обучается, что-нибудь интересное).
Про многие другие проблемы, уровня "Нейросеть будет делать все строго по ТЗ, не задумываясь над вопросом "А вдруг промтер что-то еще хотел, но не указал в ТЗ" и при этом вдобавок имея возможность нагенерировать дичь", которые вообще невесть когда решат - я промолчу.
И да, все вышеперечисленные проблемы очень мешают развитию/внедрению нейросетей (да-да, рядовым людям, орущим про "Скоро Грядет Эра ИИ", советую искать copium в промышленных масштабах).
Как итог - большие дяди обманывают глупых гоев, а те и рады этому: поддерживают хайп, хотят интегрировать ИИ во все, даже в сельские туалеты в глубинах Африки, пилят мемасики, несут деньги и верят в "Технологическую Сингулярность, Которая Вот-Вот Наступит©", вместо того, чтобы пойти и почитать отчеты/статьи по нейросетям.
Господи, ну и бред. Интересно, как они предсказали, что 100 триллионов является именно тем самым порогом, если по кол-ву параметров нельзя ВООБЩЕ ничего сказать о способностях модели (даже больше скажу - нельзя точно сказать, что произойдет с нейросетью, если увеличить/уменьшить в ней количество параметров).
К слову говоря, а на предсказание данного числа, случаем, не повлияла запущенная байка о том, что у GPT-4 будет 100 триллионов параметров (эту байку, конечно, опроверг CEO OpenAI еще где-то в январе, но кто-то до сих пор продолжает верить). А то очень уж подозрительное совпадение в предсказанных цифрах...
Отличный план, жаль, что он с наибольшей вероятностью закончится одним из 3-х исходов:
1) Модель поймает overfitting, что с гигантской долей вероятности приведет к снижению способностей нейросети, вплоть до полной непригодности
2) Произойдет эффект "положительной обратной связи" - если до обучения модель хорошо умеет писать тексты на тему "А" и плохо на тему "Б", то после такого "обучения" она будет еще лучше писать тексты по "А", и еще хуже - по "Б" (что логично - при данном способе нейросеть будет обучаться писать тексты на тему "А" на хороших примерах, а тексты на тему "Б" - на плохих, со всеми вытекающими)
3) Произойдет стабилизация - польза от обучения на, условно, 10000 качественных генерациях будет перекрываться 1 некачественной.
Я уже молчу про то, что здесь неявно сделаны предположения о том, что:
1) Улучшение способностей ИИ не будет повышать требований к вычислительным мощностям (хотя в данном случае, вернее сказать - вычислительные мощности вообще не ограничивают максимальные способности нейросети, либо же предполагается, что их уже хватает, чтобы создать AGI - это вообще не доказано)
2) Развитие одних способностей нейросети не будет приводить к деградации других: не будет ситуаций "Я давал модели только качественные примеры и фильтровал некачественные, но некоторые способности все равно ухудшились, причем те, которые даже не относятся напрямую к примерам" (это строго не доказано)
2.1) Нейросеть в процессе обучения будет получать исключительно положительные свойства / эффект полученных положительных свойств будет преобладать над эффектом отрицательных (это тоже строго не доказано)
Так что увы, данный метод обучения ни к чему толковому, скорее всего, не приведет (кроме как необходимости вычищать нейросеть).
Немного орнул с "уникальных навыков". Я напомню, что те же OpenAI , судя по вакансиям на сайте, готовы платить в основном 200к - 370к в ГОД (17к-31к в месяц) сотрудникам, связанным с разработкой (не, есть конечно информация, что есть те, кто получает по 60к-70к - видимо, засчет плюшек - но это все равно не сравнится с 250к, да и, судя по всему, не массовое это явление в компании). Видимо, люди, которые смогли разработать такую вещь как GPT-4, явно не дотягивают по уникальности навыков до Хениальной Хацкерши©, раз получают настолько меньше.
Ну, либо кто-то нагло врёт/недоговаривает. Хотя, что взять с глупых симпов, которые не могут понять, что нет тут "уникальных навыков" и что топовые специалисты просто не станут тратить свое время на такую неблагодарную в общем-то работу, поэтому этим никто и не занимается.
Я как бы не эксперт, но даже ChatGPT, не говоря уже о GPT-4, умеет это делать. Я попросил у него quicksort на QSharp - он честно мне его написал.
Вообще, запрограммировать классический алгоритм на квантовом компьютере для решения "более классических человеческих задач" - не проблема. Проблема в том, что такой алгоритм не будет использовать квантовые эффекты, следовательно, квантового ускорения не будет (ага, обычный компьютер даже быстрее справится в данном случае, скорее всего). А заявлять, что GPT-5 сможет разрабатывать квантовые аналоги обычных алгоритмов, тоже рано - пусть вначале покажет, что разбирается в математике (а для разработки квантовых алгоритмов нужны жесткие знания математики - хотя бы теории чисел).
Так что, как погляжу, кто-то сделал громкое заявление, даже не разобравшись в теме.
Ох, какой знатный "РВОНЬК!" произошел. Видимо, попал в точку своим описанием. А теперь по фактам:
Мне нравится как ты придумал шаблон как все думают и потом сам же его и обоссал
Ну, хорошо, я придумал это "шаблон", только объясни почему процентов так 95 крикунов:
1) Плывут в элементарнейших основах машинного обучения?
2) Выискивают недовольства/опасения исключительно представителей престижных профессий? (Да-да, есть много профессий, представители которых так или иначе жалуются на модели машинного обучения, но вот почему-то крикуны выискивают и обвиняют в "неолуддизме" и "препятствованию прогрессу" только представителей высокооплачиваемых профессий)
3) Не могут объяснить, как регулирование моделей в конкретном случае препятствует прогрессу (спойлер: регулирование модели зачастую требует изучения и развития теории, лежащей в основе данной модели).
Впрочем, от крикуна глупо ждать объяснений.
Так почему же эту статью не проигнорировал или решил получить удовольствие от собственных комплексов?
Так уж сложилось, что сфера моих интересов лежит в области машинного обучения. А еще я люблю почитать комментариев от ИИ-верунов, содержащие отборнейший бред. А здесь подобных вещей просто предостаточно.
UPD: а извини чекнул твои комменты везде только горения от ИИ видимо для тебя это действительно тематический сайт где ты как поехавший ищешь любую статью с ИИ и рвëшься с них.
Можешь конкретно показать комментарии, где я "горю" (хотя да, у ИИ-верунов любое мнение, отличное от щенячьего восторга, классифицируется либо как "горишь", либо как "боишься")? И еще забавно, что "горю и рвусь" я, а рытьем в комментариях и закидыванием дизлайками занимаются крикуны. Ну да ладно, когда фактами перекрываешь copium для крикунов, то глупо ждать иной реакции.