Слив данных нового уровня 😏
Скорее всего, впереди нас ждут реально глобальные патчи, те самые, от которых у тебя SSD начинает молиться, а роутер плавится от стыда. Я прям вижу, как каждая планета будет весить по 30-40 гигов, потому что туда напихают тонну DLC и “новый биом”, и “уникальные квесты”, и “эксклюзивный баг, который никто не просил”.
Сейчас там один жалкий вездеход, и выглядит это, как будто тебе дали единственную “Ладу” на всю галактику. Ну камон, по игре явно должно быть что-то летающее, дроны, шаттлы, хоть какая-то техника для разведки. Я ещё могу понять кататься по ровной поверхности, но когда начинаются эти космические “колдобобины” это уже симулятор позвоночной грыжи.
И если бы я был на их месте, я бы выкинул эту унылую механику “копипасты” из No Man’s Sky, где каждый квест похож на предыдущий, а строения будто кто-то заспавнил по шаблону “Ctrl+C, Ctrl+V, и готово”. Пора уже делать миры, которые реально чувствуются живыми, а не просто набором одинаковых коридоров с одинаковыми ящиками.
Вот если бы они добавили побольше терраформинга.
А ещё много “дедспейсовщины” не помешает: чтоб ты идёшь себе чинить генератор, а за спиной кто-то шепчет по-инкубаторски. Много хоррора, много неизвестности, и вот игра уже не просто песочница, а полноценный космический триллер.
Если они всё это завезут, тогда игра взлетит не просто на хайпе, а как “Фалкон 9”, у которой вместо топлива чистый кайф. 🥰
Согласен, универсальных решений не бывает, но ведь и в противоположную крайность тоже не стоит скатываться 😉
Да, M-чипы сделали ноутбуки тихими и прохладными, но за это пришлось заплатить гибкостью. В экосистеме Apple всё гладко, пока ты не выходишь за рамки типичных задач: браузер, кодинг, монтаж, дизайн. Как только нужен специфичный софт, серьёзные вычисления или кросс-платформенная интеграция «лёгкий и холодный» ноут превращается в дорогую игрушку с ограничениями.
Так что да, речь о ноутбуках. Просто кто-то выбирает комфорт, а кто-то - возможности. А чудесного баланса «и то, и другое» пока не изобрели, особенно под логотипом яблока 🍏
Ну, кайфовать никто не запрещает 🙂
Но путать комфорт с производительностью - старая традиция Apple-фанатов. M-серия действительно энергоэффективна и удобна для офисных и медиазадач, никто с этим не спорит. Но если выйти за рамки экосистемы - как только дело доходит до тяжёлого софта, специфических инструментов или нестандартных рабочих сценариев, весь этот «кайф» быстро заканчивается эмуляцией и костылями.
Apple сделала ARM-ноутбуки удобными для своей аудитории, не более. Это не универсальное решение, а просто красивая, автономная экосистема. Поэтому да - жить на M-чипах можно, но только пока твоя работа совпадает с тем, что Apple разрешила считать «работой». 😎
Да, я видел эти тесты. Только вот тесты это всегда лабораторный сценарий, где условия подгоняют под архитектуру, которая должна «выиграть». ARM действительно может обгонять x86, но только там, где задачи идеально параллелятся и не требуют сложных инструкций. В реальных же рабочих нагрузках, где важна универсальность и совместимость, x86 всё ещё рулит.
Да, ARM пришёл и на серверы, но в очень узкие ниши: микросервисы, облачные API, edge-решения. Там, где энергопотребление критично, а мощность вторична. Но вот попробуй на тех же ARM-серверах прогнать сложный enterprise-нагрузочный стек - и увидишь, как «чудо-эффективность» превращается в throttling и падение пропускной способности.
Так что да, ARM молодец, но пока это не революция, а просто грамотный компромисс под определённые сценарии. Не путай локальные успехи с системным превосходством. 😏
Откуда знать - из фактов, а не из рекламы. История рынка прекрасно показывает, кого и когда «придавливали» перед реструктуризацией или сменой курса. Intel уже проходила через подобные циклы, и каждый раз её «похороны» оказывались преждевременными.
Apple не придавливают, потому что она не конкурент в классическом смысле - она играет на своём, закрытом поле, где маркетинг важнее архитектуры. А другие компании не трогают, потому что они либо мелкие, либо не создают угрозу текущим трендам.
То, что ты не видишь этой картины, не делает её менее реальной. Просто не все разбирают рынок глубже заголовков из техноблогов.
Различить и реально увидеть разницу, не одно и то же. На 6.9-дюймовом экране плотность пикселей и расстояние до глаз уже упираются в физиологические пределы зрения. Если ты различаешь FHD+ и UHD не в тестах, а в реальной жизни, поздравляю, у тебя зрение лучше, чем у лабораторных оптических сенсоров.
Большинство людей просто замечают разницу в настройке цветопередачи или обработке картинки, а не в самих пикселях. 4K на телефоне, это в первую очередь маркетинг и нагрузка на батарею, а не реальное улучшение визуального опыта.
Так что да, ты можешь думать, что видишь UHD, но в действительности смотришь на ту же FHD, только с эффектом плацебо и немного завышенной яркостью.
Intel не в упадке, её просто искусственно придавливают, чтобы подешевле скупить. Но это не кризис, а типичный корпоративный театр. А вот когда смотришь на то, что творится в стане ARM и Apple - там действительно начинается цирк.
Mac’и сегодня - это, по сути, те же Snapdragon’ы, только в алюминии и с яблоком на крышке. ARM архитектура изначально узкоспециализированная, её задача экономить энергию, а не вывозить универсальные вычисления. Apple пытается играть в «инновации», но в реальности просто копирует и эмулирует то, что уже работает в Windows. С этой «философией совершенства» они всегда были мастера чужого ремейка - только называют это «оптимизацией».
Говорят, macOS и iOS доведены до идеала. Ну если идеал это вылизанный интерфейс с функциональностью уровня «всё через костыли», то, пожалуй, да. В реальности же, тот же айпад, только без сенсорного экрана и с ограничениями, завёрнутыми в глянцевую оболочку.
ARM быстрее, чем x86? Звучит красиво, но физика и архитектура не терпят сказок. Просто не все осознают, что, покупая Mac, они фактически приобретают дорогой планшет, который почему-то выдают за ноутбук.
Больше всего меня поражают люди, которые искренне уверены, что способны различить 4K и 1080p на 14-дюймовом экране. Вы серьёзно? Хоть иногда пробуйте верить не глазам, а физике - она ведь не врёт. На такой диагонали разницу между «восемью миллионами пикселей» и «двумя» можно разве что вообразить, если очень захотеть и добавить чуточку самовнушения.
На старте это было помоище, сейчас это помоище с лучами