Ivan Peshkov

+46
с 2023
0 подписчиков
0 подписок

На вкус и цвет... Когда у меня был устаревший ноут вместо пеки, и мне приходилось терпеть 40FPS на минималках в пониженном разрешении, ещё и до повсеместного внедрения FSR 2, моей самой большой проблемой был именно инпут лаг.

ИМХО FPS может быть каким угодно, если он больше тридцати и равномерен, то в принципе терпимо. Да, четкости изображения в движении нет вообще - но когда у тебя итак салат вместо картинки, на это внимания не обращаешь вообще.

А вот история, когда то что находится на экране сильно отличается от того, что на самом деле происходит, потому что есть большие задержки ввода и вывода - это очень противно, по крайней мере для меня - слишком у меня высокая скорость реакции, наверное. Даже если речь идёт просто о взаимодействии с интерфейсами.

То есть если бы у меня условный BG3 шел в 30FPS, и была возможность включить DLSS 3 FG, чтобы дотянуть до 60, я бы этого делать всё равно не стал, ибо лаг будет такой, как если бы у меня было 15-20 FPS, а это уже ни в какие ворота не лезет даже для игры с пошаговой боёвкой.

Или возьмём какой-нибудь Fallout 4, где движок ограничен 60FPS. В игре ломаются механики, если снять лок. Стал бы я включать FG? Нет, потому что при 120 FPS на экране я буду чувствовать задержку как если бы у меня было 30-40FPS, что для игры со стрельбой хуже, чем просто 60 в нативе.

А вот если бы было 120FPS, то да. Согласиться на лаг как у 60-90 FPS ради плавности картинки 240гц монитора - это уже может звучать разумно.

1
Ответить

Спорное заявление. Оно примерно настолько же соответствует действительности, насколько "кент из Турции" находится в Турции и является членом твоей семьи))

12
Ответить

Прекращайте агрессировать на ровном месте!

Выгорание - объективный факт, оно есть вне зависимости от того, обращаете ли вы на него внимание, или нет. Отрицать его - значит отрицать реальность, а это признак сумасшествия. Вы можете сказать, что его не видите - вы имеете права не обращать внимание, да и за расстройства цветового зрения осудить я вас не могу. Но настаивать на том, что выгорания нет - это безумие.

Впрочем, справедливости ради, выгорание тоже разное бывает: одно дело, когда у вас отпечатывается изображение какого-то интерфейса за счёт износа пикселей. И совсем другое дело, когда выгорание идёт сравнительно равномерно, практически одинаково по всей площади монитора.

В первом случае, мы получаем устройство, которое к концу своего ресурса начнет очень сильно раздражать своего пользователя - выгорание приведет к тому, что любое изображение будут иметь на себе подобие водяного знака, созданного неравномерным износом пикселов

Во втором случае, неискушенный зритель даже не заметит разницы: у человека очень плохая память на изображения, и если человек не работает с цветом, или хотя бы регулярно не смотрит те же изображения на регулярно калибруемом мониторе, то он ещё не скоро поймет, что у OLED цвета куда-то поплыли.

К тому же, равномерный износ можно в разумных пределах корректировать калибровкой, а так же замедлить использованием темной системный темы, использованием режима вечернего света, автовыключением, и условиями просмотра, при которых не будет нужна слишком высокая яркость.

Однако, у OLED все равно очень короткий ресурс. По цифрам получается, что он примерно в два раза превосходит качественные CRT. С этим можно работать, хотя, чтобы сохранять точность цветопередачи, нужно его калибровать раз в десять чаще, чем IPS, неисправимые выцветание которого вы скорее всего не увидите, а вот с OLED - возможно, лет через пять.

Но проблема в том, что не весь износ равномерен, и интерфейс отпечатается раньше. Это калибровками не лечится, и это неизбежно. А как рано вы это увидите - уже вопрос использования и внимания. На минимальных яркостях, по пару часов в день со всеми фишками на сохранение ресурса - очень долго прослужит. Но если поставить его у окна, чтобы высокая яркость оказалась необходима, и работать на нем по 8 часов со всякими таблицами, вордами и прочим - экран очень быстро прикажет долго жить.

Ответить

DLSS 3 FG сделан не для страдальцев с какой-нибудь ноутбучной 4050, а для людей с топовым железом и мониторами от 240Гц и выше, для достижения такой же четкости движущейся картинки в одиночных играх, какую можно увидеть в киберспортивных тайтлах. Если у тебя меньше 120FPS, генератор кадров только усугубит твои проблемы. Он добавляет лаг, и если есть проблемы с фреймтаймом, он сделает только хуже.

2
Ответить

Покажите ему кто-нибудь начальный двухподвес, который стоит как Матиз?)

Ответить

Накат ≠ вес. Я когда-то на своём древнем 26 велике менял зубастые покрыхи на Schwalbe Hurricane, вес изменился довольно незначительно. Но поехал велосипед совершенно по-другому.

Бескамерка - тоже не единственный вариант. Иногда это слишком большой геморрой, и проще поставить современную камеру - TPU или латекс. Разгоняться чуть проще с TPU, из-за меньшей инерции колеса, а держать скорость чуть проще на латексе, потому что внутри колеса меньше трения. Оба варианта, впрочем, наголову превосходят дедовский бутил, они недалеко ушли от бескамерной установки.

Ответить

Учитывая, что они несколько раз сравнивали YaGPT3 Pro с LLaMA-2 70B в своих пресс-релизах, и какие улучшения они заявляют, скорее всего это и есть та самая лама, дообученная для русскоязычного рынка на большом датасете размером около 1 триллиона токенов. Возможно, есть небольшие отличия в архитектуре, подобные мистралевской Miqu-70B - могли GQA прикрутить, и скорее всего прикрутили, но фундаментально это та же самая лама. Возможно, там какая-то другая базовая модель с открытым исходным кодом, например это может быть Mixtral 8x7B, но это уже сомнительно - с такой моделью сложнее получить хорошие результаты переобучения. По крайней мере это может объяснить, почему Яндекс крайне неохотно раскрывает технические детали своих моделей - если это действительно так, то какой-нибудь высокий менеджер в компании может сильно огорчиться, посчитав это плохим пиаром. Поэтому в основном рассказывают о том, как пользоваться сетью и какие-то нишевые кейсы, а не о том, как сама сеть устроена.
И если честно, мне больше импонирует подход Сбера: там больше экспериментируют с архитекторами, раскрывают больше данных о моделях, и при этом Сбер как правило на шаг впереди Яндекса. Что Кандинский, что RuGPT выходили с открытыми весами и подробной технической документацией об из архитектуре. Такое ощущение, что у Яндекса не хватает компетенций для того, чтобы находиться на переднем крае развития генеративного ИИ. Но поскольку у них есть вычислительные ресурсы и данные, им в принципе не обязательно это делать - можно просто взять существующее решение и доработать его со своими данными, а для нормального внедрения существующих решений на существующем железе быть гением и не надо.

1
Ответить

Во-первых, то полный вес модели. Активный в 4 раза меньше, так как из всех 16 экспертов единовременно работает только 8. Более того, некоторые слои экспертов одинаковы, а значит в итоге можно ожидать производительсть на уровне 34B моделей. По крайней мере по пропускной способности памяти.

Во-вторых, 320 гигов надо, если запускать с точностью FP16. LLM неплохо работают на 4 битах, и даже ниже с некоторыми изощрениями. То есть опять же получаем в 4 раза меньше памяти для того чтобы поднять такую модель в приличном качестве. Ждём 4 битного KV кэша в llamacpp, и скорее всего получится запустить такую модель на машине с RTX 3090 и 64ГБ DDR5 памяти.

Ответить

Во-первых, то полный вес. Активный в 4 раза меньше, так как из всех 16 экспертов единовременно работает только 8. Более того, некоторые слои экспертов одинаковы, а значит в итоге можно ожидать производительсть на уровне 34B моделей. Это если запускать с точностью FP16.

Ответить

Во-первых, потребительские OLED не выдают 100% паспортной яркости своих диодов. Если бы они их выдавали, то начали бы очень быстро выгорать, ибо синий диод не вечен. То есть, некоторые мониторы могут выдать 100% яркости в HDR режиме, но только при соблюдении условий по площади яркой области и времени поддержания такой яркости. Есть профессиональные мониторы, у которых таких ограничений нет, но у них очень низкий ресурс, предназначены они для кинопроизводства, и соответственно стоят они как крыло самолёта.

Во-вторых, конкретный цвет на OLED ты получаешь непосредственно регулируя яркость на субпикселях. То есть, чтобы получить белый цвет, тебе нужна полная яркость на всех трех диодах, для 50% серого - половинная, а для черного - нулевая. "Настройка яркости" просто преобразует сигнал так, чтобы белый цвет отображался с 50% яркости, а серый - с 25%. Потому что на самом деле нет никакого "белого цвета" - есть просто световой поток той или иной яркости, и воспринимаемая нами точка белого и черного на изображении.

Наконец, частотами просто напросто дешевле управлять, чем напряжениями. Причём низкими частотами - дешевле чем высокими.

Вот мы и получаем ШИМ на OLED. Где-то больше, где-то меньше, где-то он используется вместе с напряжением, где-то без, где-то частота настолько высока, что человек её не заметит никогда, но факт остаётся фактом - на OLED может быть ШИМ, и чем он дешевле, тем более явным он скорее всего будет.

4
Ответить

Тут явно не понимают, в чём суть NPU и почему в первую очередь ими оснащают ноутбуки.

NPU в процессе - это фича энергоэффективности. По сути это блок, который позволяет производить необходимые нейросетям вычисления не на х86 ядрах, а на чем-нибудь экономичнее. В первую очередь , перемножать матрицы. Сам NPU нужен для того, чтобы устройство не садилось, если работают всякие положения вроде распознавания лиц, распознавание речи и прочая мелочёвка.

Запускать нейросетку на процессоре можно, и это даже не обязательно будет медленно. Но при этом, большие нейросети давно уже упираются в производительность подсистемы памяти, что с процессорами, что с видеокартами, поэтому по-настоящему мощный NPU не имеет смысла без очень мощной подсистемы памяти. Примерно на восьми канальных серверных решений или хотя бы Apple Silicon.

И насколько я знаю, никто не занимается созданием бэкендов для больших нейросетей на NPU вроде Stable Diffusion или 7B языковых моделей. Даже эппловский ИИ-ускоритель, один из мощнейших, не используется при этом. Вместо него применяют ядра ЦП и встройку.

Ответить

Не-монополизированный API, не поддерживающий львиную долю собственных же видеокарт под монополизированной операционной системой, и некоторые видеокарты не поддерживающий вообще никак и нигде.
Нежелание разрабов, да-да.

Ответить

Они, к сожалению, ушли с рынка DDR4 памяти, насколько я понял.

У крушалов не столько в стабильности фишка, сколько в лёгкости их разгона до 3800 по частоте для большинства SKU, что очень положительно влияет на производительность Zen3 процессоров, ибо вместе с оперативкой разгоняется Infinity Fabric, а вместе с ней межъядерные связи и L3 кэш. Дело в том, что в Crucial практически всегда стоят чипы Micron, и их поведение довольно хорошо изучено. Это не самый топ топовой DDR4 памяти - Samsung B-die поинтереснее будут, но гончая память с ними всегда и до сих пор очень дорогая, к тому же разгон бидонов требует больших напряжений. С микронами все гораздо проще, и удачное соотношения цены и производительности. Естественно, на 3600 они тоже прекрасно заработают.

Если будешь брать 3600 CL16 любого достойного вендора, кроме Crucial, то 50/50 получишь либо чипы Micron, либо чипы Hynix. Последние, на самом деле, тоже ничего, свою частоту ты с ними получишь. Просто тайминги будут не такие вкусные.
Если ты не собираешься ручками ничего дожимать, то с XML всё почти одно и то же будет. Просто бери 3600 CL16 и не парься.

Если знаешь что делаешь, и есть выгодное предложение, можно взять 3200 CL14. Это примерно тот же класс качества, что и 3600 CL16, только там прошит другой XMP профиль. Их придется вручную перенастроить, но скорее всего все будет работать нормально. Хотя гарантий нет. И они стоят обычно точно так же как 3600 CL16, так что особого смысла в этом я не вижу.

3200 CL16 брать вообще не советую. Велик риск попасть на "уценённые" чипы, которые 3600 не возьмут, что бы ты с ними ни делал. А сидеть на Zen3 с частотой 3200 будет грустно.

2
Ответить

Да нормально всё работает без всяких приколов. Сейчас с LLaMA делают почти то же самое, что в генерации изображений делают со Stable Diffusion. Учат общаться в чате, учат решать всякие задачки, учат отыгрывать личность персонажа, прописанного в стартовый промт. И ничего там не разваливается. Сама LLaMA, кстати, тащит именно из-за того, что "переобучена". У неё крайне высокое соотношение токенов к числу параметров модели, и именно за счёт этого вывозит многие задачи не хуже, чем ChatGPT.

Ответить

Дорого учить базовую модель, а вот изменять уже существующую - довольно дёшево. При этом для большинства применений это и не потребуется, достаточно иметь одну SOTA ролплейную модель, а личности персонажей реализовывать через просты.

Ответить

Этот старый DLSS работал бы нормально, если бы был настроен правильно.
В той же Тундре, например, DLSS не получает от движка информацию о векторах движения, а это основа работы любого DLSS, начиная с 2.0 и выше. Из-за чего любое движение, будь то перемещение противника, собственное движение камеры или панорамирование, превращается в чудовищное мыло, которое было бы неприемлемо даже в одиночной игре.
А всё почему? Потому что вместо того, чтобы реализовать технологию как положено, они ее ввели исключительно для галочки, хайпа ради. Мол, посмотрите, тут такая передовая игра, что даже DLSS врубить можно.

Ответить

Насколько я понял, да, в этом случае ты будешь автором т.н. "transformative work". Это как аранжировка в музыке. Это не значит, что ты - автор самого образа Мона Лизы, ты все ещё не имеешь права врываться в Лувр и что-то там дорисовывать на оригинале да Винчи. Но вот именно своим изображением ты владеешь, потому что отобразил существующий образ в новых условиях, и это достаточный критерий для признания твоего авторства. Доказывать же то, что картина - не полностью создана ИИ, придется тебе, потому что это тебе откажут в регистрации авторского права. И если ты придёшь в бюро с голым промтом, весами модели, пресетом настроек и сидом, то тебя отправят лесом. Если просто глаза перекрасил, то скажут, что ты автор ретуши глаз. А вот если ты пришел со здоровенным послойным документом, где видно как ты почти всю картину перелопатил, комбинировал множество генераций, сам местами перерисовывал, то это будет авторская работа. Те же музыканты ведь не посылаются нафиг, просто потому, что пользуются синтезатором и сэмплами, правильно? Ты ничем их не хуже. А вот где будет пролегать грань между "чел только глаза перекрасил" и "автор целостной работы", ещё предстоит выяснить но это будет ясно только из прецедентов и правоприменительной практики. Ну и ещё, это все американское право. Как этот вопрос будет решаться в других странах, зависит от того, какие правила будут приняты в других странах.

1
Ответить

Скорее всего, они действительно обеспокоены теми рисками и угрозами, которые могут возникнуть, а Маск всего лишь использовал их втёмную, в своих интересах. Возняку, кстати, не привыкать, это не единственный раз, когда его Маск обманывал.

Вообще, хоть я и не могу сказать, что разделяю панический дух того письма, в целом считаю, что некоторые опасения отнюдь не беспочвенные. Просто в нынешних условиях решение этических проблем и совмещение целей ИИ с целями человека и человечества очень сильно затруднено деятельностью активистов всех мастей, многие из которых в принципе в гробу этот ваш ИИ видели, "не нужОн он нам". Реальная работа с рисками ИИ имеет довольно мало общего с тем, чтобы табуировать темы, перемалывать всю нейросеть цензурой и заставлять нейронку уходить в защиту по любому малейшему поводу.

Ответить

Yesn't. Нейроарты в одну кнопку действительно с точки зрения копирайта идут лесом, впрочем Патреон - не торговая площадка, а краудфандинговая. По сути, ты там платишь людям в благотворительных целях, а что они тебе завозят в качестве плюшек - это именно что плюшки, и не более.

Зато есть очень хорошие новости. Применение ИИ признается справедливым использованием. То есть, если ты делаешь какую-то сложную композицию, правишь изображение руками, имеешь какое-то свое видение и know-how, например генерируешь изображение через ControlNet по карте позы персонажа и накручиваешь туда какое-то цветовое решение в слое img2img, то ты автор композиции и цветового решения.

Что это значит? Что если ты, допустим, долбанул в промт старину Рутковского, создал шедевр и при этом достаточно сложно работаешь с моделью. Ты стал великим, стал вести мастер-классы, и там тебя невзначай спрашивают: расскажи, как ты насколько классный шедевр создал. Ты спокойно говоришь - ну я просто Грега в промпте почтил, классный же парень! И тут к тебе приходит сам Рутковский и говорит - гони на бочку миллионы отступных, либо пошли в суд. Как говорится, PvP или зассал. Так вот, эта новость говорит, что можно смело идти в суд и ни о чем не переживать, ибо обратившись в американский суд, Рутковский пойдет лесом, если конечно же в работе нет признаков прямого плагиата. Ибо композиция твоя, цветовое решение твоё, сюжет изображения тоже твой, исполнитель - ИИ при твоей ответственной редактуре, почти всё эта работа уникальная и копирайтится - а вот просто "стиль Рутковского" закопирайтить нельзя, и даже если было бы можно - его использование будет расцениваться как Fair Use. Даже если ты взял композицию с какой-то фотки в инете, и допустим даже цвета оттуда же, это скорее всего будет признано достаточной трансформацией для того, чтобы твое авторство признали. В итоге ты побеждаешь, никаких миллионов не платишь, а Рутковский оплачивает издержки и компенсирует тебе ущерб, нанесенный тем, что вместо своих привычных дел ты готовил материалы для защиты на процессе, консультировался с адвокатом и бегал по инстанциям.

1
Ответить

Это не совсем так работает.

Маск всегда хотел иметь собственный вариант, он вообще-то один из сооснователей OpenAI.

Учитывая это, особенно смешно видеть, как он одной рукой подписывает петицию об "опасности ИИ и приостановке его разработок на полгода", а другой рукой подписывает закупку тысяч GPU, для того чтобы самому разрабатывать ИИ.

Многие почему-то думают, что он сначала подписал петицию, потом увидел что его послали к черту, и в итоге решил сам включиться в борьбу, в то время как на самом деле он СНАЧАЛА решил работать в этом направление, решил построить собственный вычислительный кластер, набрать сотрудников, чтобы они под его руководством занялись разработкой ИИ, а ПОТОМ уже подписал петицию, чтобы с 0.001% вероятностью обеспечить себе фору в полгода, ничего особо не теряя.

"Вероятность КРАЙНЕ мала" (с), но где-то в параллельной вселенной кампания Маска прокнула, и он спокойно тихой сапой создаёт конкурента GPT-4, в то время как существующие компании и исследовательские группы занимаются решением извечных философских вопросов, спорами с луддитами и тряской за то, как бы их детище не обидело очередное меньшинство.

Иными словами, Маск попробовал всех крупно наебать, не особо рассчитывая на успех, но при этом при никак не напрягаясь.

1
Ответить

"TAA самое жрущее"
SSAA has entered the chat :D
Оно, кстати, на 1080р работает прекрасно. Если карточке дури хватает, конечно же.

2
Ответить

А смысл держать генерацию включенной 24/7? Нет, есть конечно решения, которые это позволяют. Тот же AutoGPT, например. Вот только там не даром вся работа идёт с GPT-4 и GPT-3.5.

Во-первых, нейронка не может принять больше контекста, чем заложено в ее архитектуре, и сейчас они в этом очень сильно ограничены. Так что даже если представить идеальную модель, ограниченную нынешними лимитами контекста, довольно быстро наступит момент, когда она упрется в контекст. Можно обощать контекст, тем самым сжимая его. Но рано или поздно сетка перестанет выжимать воду и начнет терять информацию. После этого она уже ничего толкового не сможет добавить. Языковая сетка не решает задачи в реальном времени, не занимается наблюдением, для этого есть решения посильнее, чем LLM. К тому же, у языковых нейросетей есть большая проблема - они склонны сваливаться в петли и галлюцинации, когда накапливается слишком много контекста, особенно если он сгенерирован самой сетью. Даже если это GPT-4. Сеть находит языковые паттерны и просто воспроизводит их. Её мало интересует то, что это за паттерны. То, что мы можем давать сети задачу, а она будет двигаться к ее выполнению шаг за шагом или по методу "тезис-антитезис-синтез" неплохо, конечно, но для этого не нужно держать её включённой 24/7. Это просто прием, который позволяет повысить качество ответа за счет множества генераций достаточно крупной и эурдированной моделью, в достаточной мере устойчивой к петлям самоповтора и галлюцинациям. Ибо такой метод их не исключает. До модуля "здравого смысла" в нейросетях нам ещё ОЧЕНЬ далеко. Он не у всех людей работает нормально, а вы этого хотите от машины.

Генерацию текста вообще сейчас можно сравнить с лепетом младенца, с той лишь разницей, что у младенца он зависит от чувств и является почти случайным набором звуков, физиологичным для малыша, а у нейросетки этот лепет основывается на нечеловеческом объеме изученного материала.

Ну и ещё один аргумент. Его ты осознаешь, когда тебе упадет в почтовый ящик следующая квитанция. Их свободное время - это наше свободное электричество и ресурс оборудования.

1
Ответить

Там не столько скорость, сколько гибкость под нож идет. И результат не хуже, он просто немного другой при том же качестве, как с xformers. Из гибкой и полноценной модели, поддерживающей множество разрешений, компилируется в два раза более быстрый сборочный конвейер, жестко поддерживающий только одно разрешение.

То есть ты можешь скомпилировать себе 512х512 модель, но с ней ты не сможешь сходу нагенерить 768х512 для отрисовки сцены, а потом легким движением руки поставить 512х768, чтобы нагенерить в эту сцену вайфу, например. И пройтись в img2img чтобы увеличить сцену с вайфу в два раза ты тоже не сможешь.

Просто для генерации одиночных картинок по фару, это, конечно, не нужно однозначно. Писать целый зверинец компилятов всех моделей на диск - ну такооое... Насколько я знаю, у TensorRT нет такой проблемы, а по скорости выходит вполне сопоставимо. Там тоже нужны планы моделей сохраняться, но по крайней мере одни на модель. С другой стороны, было бы неплохо посмотреть, насколько быстро модели компилируются. Начиная с определенной длины генерации, выигрыш от скорости перевесит затраты на компиляцию, и при достаточно большой оперативке можно просто держать их там.

К тому же, это довольно неплохая фича для сервисов вроде Stable Horde, где у юзера итак можно выбрать только одно разрешение, а в будущем будет доступен минимальный их набор. Или если ты хочешь нагенерить что-то в промышленных масштабах. Я уверен, что и всякие миджорнии нечто такое используют. Я скорее уверен, что там TensorRT крутится, но даже если там эта библиотека - ничто не мешает просто прочитать промпт по скрипту и выбирать нужную модель для генерации.

Или, как вариант, как раз для повышения разрешения можно это использовать. img2img на большое разрешение и с низким Denoising Strength работает хорошо, но уж очень медленно, даже на карточке вроде 3080, которая хоть и не самая шустрая из существующих, но все же народной её уже не назовешь.

1
Ответить

Оболочку можно сделать так, что никакая оптимизация не спасет. Привет от 2000, Vista, 8.0,

Ответить

Вот только эта модель будет модульной, а не одной только LLM. Потому что цель создания AGI - помощь человеку, а не имитация собеседника ради развлечения.

Теоретически, конечно, можно пытаться сделать из LLM вероятностную машину Тьюринга, и добиваться в этом успехов. Но это чудовищно неэффективно, потому что в сущности она не производит никаких вычислений, она просто выдает одно вероятных слов в продолжение известного ей текста, тяготея к более вероятным и исходя из тренировочного материала. Если во время обучения машина узнала, что кто-то в интернете пошутил про "2+2=5", то ВСЕГДА будет существовать небольшая вероятность того, она даст такой ответ, и не важно, шутим ли мы, или речь идёт о серьёзных инженерных расчетах. Мы можем вымарать все ложные ответы в датасете, но это чрезвычайно тяжело и все равно не спасет нас от ответа "2+2=11", истинного в троичной системе счисления, а значит возможного в выдаче. Он будет крайне маловероятен, но возможен. Особенно же весело будет, если нам нужно будет что-то в троичной системе посчитать. Или в градусах Кельвина, а не Цельсия. Тогда правильный ответ будет маловероятным, что бы мы ни делали с нашим датасетом. LLM будет настаивать, что в троичной системе 2+2=4, при том что там даже такой цифры нет, просто потому, что она часто видела такую последовательность в датасете. Она будет наивно отвечать, что за окном -15°K, потому что какой-нибудь Гисметео в интернете говорит, что сейчас за окном -15. До тех пор, пока бот всего лишь подставляет вероятные ответы, он занимается имитацией вместо реального вычисления. И при всём этом, такой ответ мы получаем, нагружая десятки гигабайт видеопамяти. Хотя могли бы получить его на калькуляторе.

Вот когда бот увидит задачу "2+2=", проанализирует контекст, но вместо подбора вероятных ответов из решебника к учебнику арифметики за первый класс, он вспомнит сами учебники, и вместо того, чтобы галлюцинировать, даст инструкцию процессору: просуммируй, мне вот это, пожалуйста, по братски - вот тогда у нас и появится тот самый AGI. Все ещё довольно слабый, но уже реально способный мыслить в мере, достаточной чтобы делегировать ему задачу, сообщив необходимую и достаточную информацию для её выполнения. Которому всё ещё расти и расти до замены человека или создания Скайнета, ибо в отличие от бота мы самостоятельны и можем ставить цели, а ещё у нас префронтальная кора есть - тоже, знаете ли, не шутки. Здравый смысл довольно сложно свести к инструкции процессору. А придется, если мы хотим, чтобы в далёком светом будущем, где у каждого хикки будет домашний робот-вайфу, он корректно выполнял команду "выкинь мусор": взяв пакет, сходив до мусорки, выкинув его там и вернувшись домой, а не тупо вывалив мусорное верно в окно))

3
Ответить

Не знаю, как там обстоят дела с фейк ньюсами, зато фейк нюдсы уже генерируются нейронками в промышленных масштабах.

Ответить

О том же подумал. Возможно сеть не с логикой расчета ошиблась, а просто не поняла запрос. Она явно стала человеко-часы считать. Как будто компания коммерческая, а не дружеская. Возможно, если бы работа велась по-английски, сеть не допустила бы такую ошибку. Впрочем, возможно и то, что создатели сети очень настойчиво пытались научить её решать арифметические задачки, где явно требуется расчет "в лоб", из-за чего она совершенно не ожидает вопросов, где надо включать логику, базовую эрудицию и здравый смысл, а не тупую арифметику. При этом видно, что арифметика у неё очень слабая))

Ответить