Ivan Peshkov

+46
с 2023
0 подписчиков
0 подписок

Я работал у продавца на маркетплейсе, не нужно мне рассказывать, как это работает))

Даже хорошего продавца может спокойно нагреть его поставщик и выслать в лучшем случае рефаб, а в худшем - бутафорию. Это, кстати, не только маркета касается, вспоминаем историю с поддельными Samsung 980 Pro. Конкретно по видеокартам, есть целые бренды, которые дефакто рефабами видеокарт торгуют, хотя заявляют их как новые.

При этом тестировать сложную электронику на приёмке в магазине здесь не могут - тогда вскрывается упаковка и попробуй докажи, что это не БУ. А с тестами у себя, ну попробуй принести тестовый стенд в ПВЗ, я бы посмотрел на реакцию сотрудника маркетплейса. При этом абсолютно любое новое устройство может выйти из строя за неделю из-за заводского брака, а дальше вопрос, как конкретный продавец с этим работает. Вот Intel, например, принял решение всех владельцев проблемных OEM процессоров 13/14 поколений слать лесом, а с коробочными в России он официально не работает. Такой процессор может выйти из строя за неделю из-за дефектов изолирующего строя и его пробоя, либо Vmin Shift.

К тому же, никто не застрахован от ошибки - даже в добросовестном магазине может тупо комплектовщик ошибиться, и вместо 4080 запаковать тебе 4060. Он конечно и в обратную сторону косякнуть может, и отправить тебе вместо 4060 целую 4090, но это большая редкость. Нормальные продавцы используют ТСД, это снижает риск ошибки, но не исключает его. Китайцы с ТСД не парятся, там что угодно приехать может.
И самое главное - при покупке из Китая, если ты вскрыл посылку, то ты принял её. После вскрытия ты уже имеешь дело не с маркетплейсом, а с поставщиком. То есть ты даже проверить толком не можешь, что именно тебе отправили, не ввязываясь в споры. Только вес сравнить. А на каком-нибудь Вайлдберрисе и Сбере есть такое печальное явление, как кража товара сотрудником площадки или его подрядчиком. Там буквально кирпич положить могут, чтобы замести следы. На Озоне и ЯМ такое редкость, там все строже и лучше организовано, но тоже исключить полностью не могу.

В то же время, когда ты покупаешь с рук, ты зависишь только от своей внимательности. Многие проблемы можно заподозрить по признакам вскрытия, а если карта вскрывалась, то и по следам прогрева на плате. Особые гении, которые суют карточку в духовку, получают поплывший пластик, растекшиеся прокладки. А делать так, чтобы выглядело правдоподобно - дорого. На кой ляд сейчас в 2024 году греть карту 4000 поколения и тщательно скрывать следы, если при отказе пайки BGA можно спокойно перепаять родной чип на родную плату и устранить неисправность? 4000 серия не такая старая, чтобы у нее субстраты чипа разваливались. Конечно, это ремонт, но это качественный ремонт, и это не столько причина отказа от покупки, сколько повод продавить владельца на скидку. В любом случае, покупать у конкретного чела никто не заставляет, всегда можно поблагодарить за предложение и уйти искать новое.

А в чем проблема? У Озона и у вторички разные плюсы и минусы.

С одной стороны, на Озоне вроде бы должно быть все новенькое, но с другой стороны, могут быть приколы с китайскими рефабами - и за товар там отвечает не сам Озон, а поставщик, который может оказаться ИП-однодневкой или тупо перекупом. Или китайцем, если это Озон Глобал - там такие условия, что даже Алик выглядит приличнее. Что делать, если приехал муляж, который определяется системой как кирпич - не понятно.

С другой стороны, БУ - это БУ. Там могут быть какие угодно подводные камни, какой-то износ, и вообще с физлица взятки гладки. Но с другой стороны, обычно дешевле выходит, и при покупке с рук в большом городе, если шаришь в теме, ты сам обычно можешь протестировать устройство перед покупкой как тебе угодно, в пределах разумного.

И то, и другое имеет право на жизнь.

Для кино - да, факт. Конечно, износ ускорит продвинутый HDR, но это не минус, потому что у других типов панелей такого функционала вообще нет.

Для игр - смотря какие игры, какая стоит яркость, как именно играть.

Если большое разнообразие, то тоже никаких проблем. Если же есть любимый тайтл, в котором будет 10000 часов, то со временем отпечатаются постоянные элементы интерфейса, и тут надо смотреть, стоит ли ускоренный износ ОЛЕДа тех преимуществ в четкости движущейся картинки, которые он приносит.

Процессор, как правило, не на один год покупается, и за это время игры становятся более жадными до его ресурсов, даже если видеокарта остаётся той же самой. Просто посмотрите на производительность 10 поколения и Zen 3 сегодня. Является ли 10900К топовым процессором сейчас? Или вот 5800X3D - в свое время тоже был одним из сильнейших, сейчас же - просто середнячок.

Если же брать в расчет апгрейд видеокарты, то сравнение и вовсе становится бессмысленным. Потому что новые видеокарты повышают планку разрешения. В 1080p тестируют не для того, чтобы рекламировать разрешение, а для того, чтобы тестировать производительность процессора, а не видеокарты. Методология, блин! Если процессор не вывозит 144 кадра какого-нибудь Киберпанка, то он не сможет сделать это в любом разрешении - 1080p, 4K всё одно. В тестах разрешение снижают, чтобы ближе подойти к этому лимиту. И то, что его сейчас нет, совершенно не значит, что он не возникнет через два года. В дни своего величия Intel именно так крушила AMD и славилась тем, что ты покупаешь 2700K, 6700K, 9700K и тебе его хватает буквально для всего на пять лет, не меньше.

К тому же, не забывайте, что условия тестирования в рамках обзора существенно отличаются от условий работы в обычной системе. На тесте чистая винда, дрова и игра, никакого дополнительного софта кроме Стима и программ мониторинга. В реальной же системе, даже игровой, будет где-то на фоне браузер крутиться, сетевое ПО (в России живём), игровой мессенджер, какой-нибудь софт вроде подсветки клавиатуры, всё это грузит процессор, и всё это сказывается на 1% и 0.1% значениях, а решается софтверной гигиеной с одной стороны и производительным процессором - с другой.

Если же говорить конкретно о 9800X3D и всему текущему поколению, то у меня к нему только один вопрос, и имя ему - IOD. Мне нужна высокая пропускная способность памяти, не для игр. Сейчас там стоит чиплет такой же, как в 7000 серии, и он по сегодняшним меркам для моих задач слабоват. В играх - не проблема. Но если смотреть на перспективу и I/O-bound задачи, то сейчас 8000MT/s+ 9000-серия в одноранге на пределе вывозит. Нужна поддержка CUDIMM в активном режиме и, если смотреть на перспективу, новый IOD с делителями вплоть до 10000MT/s в двуранге к моменту выхода следующей серии. Поддержка CUDIMM сейчас есть только у Intel, но там сами процессоры настолько грустные, что это им не поможет.

А ещё в 13/14 поколениях меньше всего ресурса по напряжению у кольцевой шины, которая питается с Vcore. Она деградирует на тех диких 1.6, которые чип сам себе запрашивает, и все выглядит очень странно - начинает "сбоить контроллер памяти" с недержанием частот оперативки, "отказывать малые ядра" даже если они отключены совсем блин, короче симптомы очень рандомные - потому то первой разваливается шина, и где она посыпется, там и будет симптом.

Они и умирают, и деградируют.
У отказа любого микропроцессора есть три основных пути возникновения:

1. Термоциклирование (обрывы на подложке, отвалы пайки BGA)
2. Электромиграция (обрыв в чипе, либо же падение его вольт-частотных характеристик вплоть до полного выхода из строя)
3. Пробой изолятора (короткое замыкание внутри чипа)

Так вот, у 13/14 поколений есть проблемы 2 и 3 из-за Vmin Shift и брака на производстве соответственно.

И то, и другое связано с деградацией. Только в случае электромиграции, перед окончательным выходом из строя обычно начинается прогрессирующая нестабильность, а в случае проблем с изолирующим слоем, деградация идёт незаметно, пока изолятор не пробьётся с концами. И этого может быть вполне достаточно, чтобы пройти контроль качества, а потом умереть через неделю/месяц/год на стоковых частотах. С другой стороны, и то и другое связано с выходом из строя - электромиграция ускоряет сама себя, поэтому чип, который перестал держать номинальные частоты, все равно скоро сдохнет.

При этом Vmin Shift влияет и электромиграцию, и пробой изолятора - повышенное напряжение ускоряет оба вида износа. Оно, строго говоря, и термоциклирование усугубляет, просто эта проблема для десктопных процессоров не очень характерна, там площадь чипа не такая большая. Но если бы подобным образом вел себя GPU, то поверьте, там ещё и отвалы были бы. А проблемы с изоляцией банальны - там есть дефекты, то есть места, где она быстро отказывает.

Я бы скорее спросил, как справляешься со странностями планировщика процессов: там же на одном чиплете есть кэш, а другой без него, и Винду колбасит от того, что она не понимает, какие задачи каким ядрам давать. Надеюсь, на 9900Х3Д таких проблем не будет

На вкус и цвет... Когда у меня был устаревший ноут вместо пеки, и мне приходилось терпеть 40FPS на минималках в пониженном разрешении, ещё и до повсеместного внедрения FSR 2, моей самой большой проблемой был именно инпут лаг.

ИМХО FPS может быть каким угодно, если он больше тридцати и равномерен, то в принципе терпимо. Да, четкости изображения в движении нет вообще - но когда у тебя итак салат вместо картинки, на это внимания не обращаешь вообще.

А вот история, когда то что находится на экране сильно отличается от того, что на самом деле происходит, потому что есть большие задержки ввода и вывода - это очень противно, по крайней мере для меня - слишком у меня высокая скорость реакции, наверное. Даже если речь идёт просто о взаимодействии с интерфейсами.

То есть если бы у меня условный BG3 шел в 30FPS, и была возможность включить DLSS 3 FG, чтобы дотянуть до 60, я бы этого делать всё равно не стал, ибо лаг будет такой, как если бы у меня было 15-20 FPS, а это уже ни в какие ворота не лезет даже для игры с пошаговой боёвкой.

Или возьмём какой-нибудь Fallout 4, где движок ограничен 60FPS. В игре ломаются механики, если снять лок. Стал бы я включать FG? Нет, потому что при 120 FPS на экране я буду чувствовать задержку как если бы у меня было 30-40FPS, что для игры со стрельбой хуже, чем просто 60 в нативе.

А вот если бы было 120FPS, то да. Согласиться на лаг как у 60-90 FPS ради плавности картинки 240гц монитора - это уже может звучать разумно.

1

Спорное заявление. Оно примерно настолько же соответствует действительности, насколько "кент из Турции" находится в Турции и является членом твоей семьи))

12

Прекращайте агрессировать на ровном месте!

Выгорание - объективный факт, оно есть вне зависимости от того, обращаете ли вы на него внимание, или нет. Отрицать его - значит отрицать реальность, а это признак сумасшествия. Вы можете сказать, что его не видите - вы имеете права не обращать внимание, да и за расстройства цветового зрения осудить я вас не могу. Но настаивать на том, что выгорания нет - это безумие.

Впрочем, справедливости ради, выгорание тоже разное бывает: одно дело, когда у вас отпечатывается изображение какого-то интерфейса за счёт износа пикселей. И совсем другое дело, когда выгорание идёт сравнительно равномерно, практически одинаково по всей площади монитора.

В первом случае, мы получаем устройство, которое к концу своего ресурса начнет очень сильно раздражать своего пользователя - выгорание приведет к тому, что любое изображение будут иметь на себе подобие водяного знака, созданного неравномерным износом пикселов

Во втором случае, неискушенный зритель даже не заметит разницы: у человека очень плохая память на изображения, и если человек не работает с цветом, или хотя бы регулярно не смотрит те же изображения на регулярно калибруемом мониторе, то он ещё не скоро поймет, что у OLED цвета куда-то поплыли.

К тому же, равномерный износ можно в разумных пределах корректировать калибровкой, а так же замедлить использованием темной системный темы, использованием режима вечернего света, автовыключением, и условиями просмотра, при которых не будет нужна слишком высокая яркость.

Однако, у OLED все равно очень короткий ресурс. По цифрам получается, что он примерно в два раза превосходит качественные CRT. С этим можно работать, хотя, чтобы сохранять точность цветопередачи, нужно его калибровать раз в десять чаще, чем IPS, неисправимые выцветание которого вы скорее всего не увидите, а вот с OLED - возможно, лет через пять.

Но проблема в том, что не весь износ равномерен, и интерфейс отпечатается раньше. Это калибровками не лечится, и это неизбежно. А как рано вы это увидите - уже вопрос использования и внимания. На минимальных яркостях, по пару часов в день со всеми фишками на сохранение ресурса - очень долго прослужит. Но если поставить его у окна, чтобы высокая яркость оказалась необходима, и работать на нем по 8 часов со всякими таблицами, вордами и прочим - экран очень быстро прикажет долго жить.

DLSS 3 FG сделан не для страдальцев с какой-нибудь ноутбучной 4050, а для людей с топовым железом и мониторами от 240Гц и выше, для достижения такой же четкости движущейся картинки в одиночных играх, какую можно увидеть в киберспортивных тайтлах. Если у тебя меньше 120FPS, генератор кадров только усугубит твои проблемы. Он добавляет лаг, и если есть проблемы с фреймтаймом, он сделает только хуже.

2

Покажите ему кто-нибудь начальный двухподвес, который стоит как Матиз?)

Накат ≠ вес. Я когда-то на своём древнем 26 велике менял зубастые покрыхи на Schwalbe Hurricane, вес изменился довольно незначительно. Но поехал велосипед совершенно по-другому.

Бескамерка - тоже не единственный вариант. Иногда это слишком большой геморрой, и проще поставить современную камеру - TPU или латекс. Разгоняться чуть проще с TPU, из-за меньшей инерции колеса, а держать скорость чуть проще на латексе, потому что внутри колеса меньше трения. Оба варианта, впрочем, наголову превосходят дедовский бутил, они недалеко ушли от бескамерной установки.

Учитывая, что они несколько раз сравнивали YaGPT3 Pro с LLaMA-2 70B в своих пресс-релизах, и какие улучшения они заявляют, скорее всего это и есть та самая лама, дообученная для русскоязычного рынка на большом датасете размером около 1 триллиона токенов. Возможно, есть небольшие отличия в архитектуре, подобные мистралевской Miqu-70B - могли GQA прикрутить, и скорее всего прикрутили, но фундаментально это та же самая лама. Возможно, там какая-то другая базовая модель с открытым исходным кодом, например это может быть Mixtral 8x7B, но это уже сомнительно - с такой моделью сложнее получить хорошие результаты переобучения. По крайней мере это может объяснить, почему Яндекс крайне неохотно раскрывает технические детали своих моделей - если это действительно так, то какой-нибудь высокий менеджер в компании может сильно огорчиться, посчитав это плохим пиаром. Поэтому в основном рассказывают о том, как пользоваться сетью и какие-то нишевые кейсы, а не о том, как сама сеть устроена.
И если честно, мне больше импонирует подход Сбера: там больше экспериментируют с архитекторами, раскрывают больше данных о моделях, и при этом Сбер как правило на шаг впереди Яндекса. Что Кандинский, что RuGPT выходили с открытыми весами и подробной технической документацией об из архитектуре. Такое ощущение, что у Яндекса не хватает компетенций для того, чтобы находиться на переднем крае развития генеративного ИИ. Но поскольку у них есть вычислительные ресурсы и данные, им в принципе не обязательно это делать - можно просто взять существующее решение и доработать его со своими данными, а для нормального внедрения существующих решений на существующем железе быть гением и не надо.

1

Во-первых, то полный вес модели. Активный в 4 раза меньше, так как из всех 16 экспертов единовременно работает только 8. Более того, некоторые слои экспертов одинаковы, а значит в итоге можно ожидать производительсть на уровне 34B моделей. По крайней мере по пропускной способности памяти.

Во-вторых, 320 гигов надо, если запускать с точностью FP16. LLM неплохо работают на 4 битах, и даже ниже с некоторыми изощрениями. То есть опять же получаем в 4 раза меньше памяти для того чтобы поднять такую модель в приличном качестве. Ждём 4 битного KV кэша в llamacpp, и скорее всего получится запустить такую модель на машине с RTX 3090 и 64ГБ DDR5 памяти.

Во-первых, то полный вес. Активный в 4 раза меньше, так как из всех 16 экспертов единовременно работает только 8. Более того, некоторые слои экспертов одинаковы, а значит в итоге можно ожидать производительсть на уровне 34B моделей. Это если запускать с точностью FP16.

Во-первых, потребительские OLED не выдают 100% паспортной яркости своих диодов. Если бы они их выдавали, то начали бы очень быстро выгорать, ибо синий диод не вечен. То есть, некоторые мониторы могут выдать 100% яркости в HDR режиме, но только при соблюдении условий по площади яркой области и времени поддержания такой яркости. Есть профессиональные мониторы, у которых таких ограничений нет, но у них очень низкий ресурс, предназначены они для кинопроизводства, и соответственно стоят они как крыло самолёта.

Во-вторых, конкретный цвет на OLED ты получаешь непосредственно регулируя яркость на субпикселях. То есть, чтобы получить белый цвет, тебе нужна полная яркость на всех трех диодах, для 50% серого - половинная, а для черного - нулевая. "Настройка яркости" просто преобразует сигнал так, чтобы белый цвет отображался с 50% яркости, а серый - с 25%. Потому что на самом деле нет никакого "белого цвета" - есть просто световой поток той или иной яркости, и воспринимаемая нами точка белого и черного на изображении.

Наконец, частотами просто напросто дешевле управлять, чем напряжениями. Причём низкими частотами - дешевле чем высокими.

Вот мы и получаем ШИМ на OLED. Где-то больше, где-то меньше, где-то он используется вместе с напряжением, где-то без, где-то частота настолько высока, что человек её не заметит никогда, но факт остаётся фактом - на OLED может быть ШИМ, и чем он дешевле, тем более явным он скорее всего будет.

4

Тут явно не понимают, в чём суть NPU и почему в первую очередь ими оснащают ноутбуки.

NPU в процессе - это фича энергоэффективности. По сути это блок, который позволяет производить необходимые нейросетям вычисления не на х86 ядрах, а на чем-нибудь экономичнее. В первую очередь , перемножать матрицы. Сам NPU нужен для того, чтобы устройство не садилось, если работают всякие положения вроде распознавания лиц, распознавание речи и прочая мелочёвка.

Запускать нейросетку на процессоре можно, и это даже не обязательно будет медленно. Но при этом, большие нейросети давно уже упираются в производительность подсистемы памяти, что с процессорами, что с видеокартами, поэтому по-настоящему мощный NPU не имеет смысла без очень мощной подсистемы памяти. Примерно на восьми канальных серверных решений или хотя бы Apple Silicon.

И насколько я знаю, никто не занимается созданием бэкендов для больших нейросетей на NPU вроде Stable Diffusion или 7B языковых моделей. Даже эппловский ИИ-ускоритель, один из мощнейших, не используется при этом. Вместо него применяют ядра ЦП и встройку.

Не-монополизированный API, не поддерживающий львиную долю собственных же видеокарт под монополизированной операционной системой, и некоторые видеокарты не поддерживающий вообще никак и нигде.
Нежелание разрабов, да-да.

Они, к сожалению, ушли с рынка DDR4 памяти, насколько я понял.

У крушалов не столько в стабильности фишка, сколько в лёгкости их разгона до 3800 по частоте для большинства SKU, что очень положительно влияет на производительность Zen3 процессоров, ибо вместе с оперативкой разгоняется Infinity Fabric, а вместе с ней межъядерные связи и L3 кэш. Дело в том, что в Crucial практически всегда стоят чипы Micron, и их поведение довольно хорошо изучено. Это не самый топ топовой DDR4 памяти - Samsung B-die поинтереснее будут, но гончая память с ними всегда и до сих пор очень дорогая, к тому же разгон бидонов требует больших напряжений. С микронами все гораздо проще, и удачное соотношения цены и производительности. Естественно, на 3600 они тоже прекрасно заработают.

Если будешь брать 3600 CL16 любого достойного вендора, кроме Crucial, то 50/50 получишь либо чипы Micron, либо чипы Hynix. Последние, на самом деле, тоже ничего, свою частоту ты с ними получишь. Просто тайминги будут не такие вкусные.
Если ты не собираешься ручками ничего дожимать, то с XML всё почти одно и то же будет. Просто бери 3600 CL16 и не парься.

Если знаешь что делаешь, и есть выгодное предложение, можно взять 3200 CL14. Это примерно тот же класс качества, что и 3600 CL16, только там прошит другой XMP профиль. Их придется вручную перенастроить, но скорее всего все будет работать нормально. Хотя гарантий нет. И они стоят обычно точно так же как 3600 CL16, так что особого смысла в этом я не вижу.

3200 CL16 брать вообще не советую. Велик риск попасть на "уценённые" чипы, которые 3600 не возьмут, что бы ты с ними ни делал. А сидеть на Zen3 с частотой 3200 будет грустно.

2

Да нормально всё работает без всяких приколов. Сейчас с LLaMA делают почти то же самое, что в генерации изображений делают со Stable Diffusion. Учат общаться в чате, учат решать всякие задачки, учат отыгрывать личность персонажа, прописанного в стартовый промт. И ничего там не разваливается. Сама LLaMA, кстати, тащит именно из-за того, что "переобучена". У неё крайне высокое соотношение токенов к числу параметров модели, и именно за счёт этого вывозит многие задачи не хуже, чем ChatGPT.

Дорого учить базовую модель, а вот изменять уже существующую - довольно дёшево. При этом для большинства применений это и не потребуется, достаточно иметь одну SOTA ролплейную модель, а личности персонажей реализовывать через просты.

Этот старый DLSS работал бы нормально, если бы был настроен правильно.
В той же Тундре, например, DLSS не получает от движка информацию о векторах движения, а это основа работы любого DLSS, начиная с 2.0 и выше. Из-за чего любое движение, будь то перемещение противника, собственное движение камеры или панорамирование, превращается в чудовищное мыло, которое было бы неприемлемо даже в одиночной игре.
А всё почему? Потому что вместо того, чтобы реализовать технологию как положено, они ее ввели исключительно для галочки, хайпа ради. Мол, посмотрите, тут такая передовая игра, что даже DLSS врубить можно.

Насколько я понял, да, в этом случае ты будешь автором т.н. "transformative work". Это как аранжировка в музыке. Это не значит, что ты - автор самого образа Мона Лизы, ты все ещё не имеешь права врываться в Лувр и что-то там дорисовывать на оригинале да Винчи. Но вот именно своим изображением ты владеешь, потому что отобразил существующий образ в новых условиях, и это достаточный критерий для признания твоего авторства. Доказывать же то, что картина - не полностью создана ИИ, придется тебе, потому что это тебе откажут в регистрации авторского права. И если ты придёшь в бюро с голым промтом, весами модели, пресетом настроек и сидом, то тебя отправят лесом. Если просто глаза перекрасил, то скажут, что ты автор ретуши глаз. А вот если ты пришел со здоровенным послойным документом, где видно как ты почти всю картину перелопатил, комбинировал множество генераций, сам местами перерисовывал, то это будет авторская работа. Те же музыканты ведь не посылаются нафиг, просто потому, что пользуются синтезатором и сэмплами, правильно? Ты ничем их не хуже. А вот где будет пролегать грань между "чел только глаза перекрасил" и "автор целостной работы", ещё предстоит выяснить но это будет ясно только из прецедентов и правоприменительной практики. Ну и ещё, это все американское право. Как этот вопрос будет решаться в других странах, зависит от того, какие правила будут приняты в других странах.

1

Скорее всего, они действительно обеспокоены теми рисками и угрозами, которые могут возникнуть, а Маск всего лишь использовал их втёмную, в своих интересах. Возняку, кстати, не привыкать, это не единственный раз, когда его Маск обманывал.

Вообще, хоть я и не могу сказать, что разделяю панический дух того письма, в целом считаю, что некоторые опасения отнюдь не беспочвенные. Просто в нынешних условиях решение этических проблем и совмещение целей ИИ с целями человека и человечества очень сильно затруднено деятельностью активистов всех мастей, многие из которых в принципе в гробу этот ваш ИИ видели, "не нужОн он нам". Реальная работа с рисками ИИ имеет довольно мало общего с тем, чтобы табуировать темы, перемалывать всю нейросеть цензурой и заставлять нейронку уходить в защиту по любому малейшему поводу.

Yesn't. Нейроарты в одну кнопку действительно с точки зрения копирайта идут лесом, впрочем Патреон - не торговая площадка, а краудфандинговая. По сути, ты там платишь людям в благотворительных целях, а что они тебе завозят в качестве плюшек - это именно что плюшки, и не более.

Зато есть очень хорошие новости. Применение ИИ признается справедливым использованием. То есть, если ты делаешь какую-то сложную композицию, правишь изображение руками, имеешь какое-то свое видение и know-how, например генерируешь изображение через ControlNet по карте позы персонажа и накручиваешь туда какое-то цветовое решение в слое img2img, то ты автор композиции и цветового решения.

Что это значит? Что если ты, допустим, долбанул в промт старину Рутковского, создал шедевр и при этом достаточно сложно работаешь с моделью. Ты стал великим, стал вести мастер-классы, и там тебя невзначай спрашивают: расскажи, как ты насколько классный шедевр создал. Ты спокойно говоришь - ну я просто Грега в промпте почтил, классный же парень! И тут к тебе приходит сам Рутковский и говорит - гони на бочку миллионы отступных, либо пошли в суд. Как говорится, PvP или зассал. Так вот, эта новость говорит, что можно смело идти в суд и ни о чем не переживать, ибо обратившись в американский суд, Рутковский пойдет лесом, если конечно же в работе нет признаков прямого плагиата. Ибо композиция твоя, цветовое решение твоё, сюжет изображения тоже твой, исполнитель - ИИ при твоей ответственной редактуре, почти всё эта работа уникальная и копирайтится - а вот просто "стиль Рутковского" закопирайтить нельзя, и даже если было бы можно - его использование будет расцениваться как Fair Use. Даже если ты взял композицию с какой-то фотки в инете, и допустим даже цвета оттуда же, это скорее всего будет признано достаточной трансформацией для того, чтобы твое авторство признали. В итоге ты побеждаешь, никаких миллионов не платишь, а Рутковский оплачивает издержки и компенсирует тебе ущерб, нанесенный тем, что вместо своих привычных дел ты готовил материалы для защиты на процессе, консультировался с адвокатом и бегал по инстанциям.

1

Это не совсем так работает.

Маск всегда хотел иметь собственный вариант, он вообще-то один из сооснователей OpenAI.

Учитывая это, особенно смешно видеть, как он одной рукой подписывает петицию об "опасности ИИ и приостановке его разработок на полгода", а другой рукой подписывает закупку тысяч GPU, для того чтобы самому разрабатывать ИИ.

Многие почему-то думают, что он сначала подписал петицию, потом увидел что его послали к черту, и в итоге решил сам включиться в борьбу, в то время как на самом деле он СНАЧАЛА решил работать в этом направление, решил построить собственный вычислительный кластер, набрать сотрудников, чтобы они под его руководством занялись разработкой ИИ, а ПОТОМ уже подписал петицию, чтобы с 0.001% вероятностью обеспечить себе фору в полгода, ничего особо не теряя.

"Вероятность КРАЙНЕ мала" (с), но где-то в параллельной вселенной кампания Маска прокнула, и он спокойно тихой сапой создаёт конкурента GPT-4, в то время как существующие компании и исследовательские группы занимаются решением извечных философских вопросов, спорами с луддитами и тряской за то, как бы их детище не обидело очередное меньшинство.

Иными словами, Маск попробовал всех крупно наебать, не особо рассчитывая на успех, но при этом при никак не напрягаясь.

1