{"id":2223,"title":"\u0417\u0430\u0433\u0430\u0434\u043a\u0438 \u0414\u0440\u0435\u0432\u043d\u0435\u0433\u043e \u0415\u0433\u0438\u043f\u0442\u0430: \u0441\u043b\u043e\u0436\u043d\u044b\u0439 \u043a\u0432\u0435\u0441\u0442 \u0434\u043b\u044f \u0440\u0430\u0437\u0440\u0430\u0431\u043e\u0442\u0447\u0438\u043a\u043e\u0432","url":"\/redirect?component=advertising&id=2223&url=https:\/\/tjournal.ru\/special\/egypt&hash=e984e3ad6f09a93c4ac1d44a0c67c5ea94b453eb4900281befab21cab31bf040","isPaidAndBannersEnabled":false}
Железо
Flam1ngo

Gigabyte обеспечит линейку кулеров AORUS WaterForce X креплением для нового сокета Intel

Вслед за Noctua последовала компания Gigabyte и сообщила о том, что их новые All-in-One модели водяного охлаждения обзаведутся поддержкой будущего набора логики Intel — LGA1700.

В технических спецификациях новых устройств уже заявлена поддержка LGA1700 (Alder Lake), но отсутствует присутствие текущего решения — LGA1200:

Будущие процессоры Intel Alder Lake будут использовать сокет LGA 1700, который по сравнению с текущим LGA 1200 — вырос. Оба гнезда имеют одинаковую ширину — 37,5 мм, однако LGA 1700 стал выше на 9,5 мм (45 мм).

Размеры текущего и грядущего сокета Intel

Напоследок напомним, что если всё пойдёт по плану, то дебют новых гибридных процессоров Intel Alder Lake состоится во второй половине 2021 года.

Источник: Momomo_us

{ "author_name": "Flam1ngo", "author_type": "self", "tags": ["lga1700","intel","gigabyte","alderlake"], "comments": 8, "likes": 9, "favorites": 5, "is_advertisement": false, "subsite_label": "hard", "id": 705117, "is_wide": false, "is_ugc": true, "date": "Fri, 16 Apr 2021 13:50:22 +0300", "is_special": false }
0
8 комментариев
Популярные
По порядку
Написать комментарий...
6

для нового сокета Intel

Для старого проца 

Ответить
1

It is what it is. ( ͡° ͜ʖ ͡°)

Ответить
2

Ппц 1700 процы длинные

Ответить
0

Скоро как тредрипперы станут или серверные камни.

Ответить
1

кулера для охлаждения пуканов от цен на видеокарты?

Ответить

Армейский Даниль

0
Ответить
0

Обеспечьте видеокартами!!!

Ответить
null