Главные новинки серверного оборудования в 2025 году

2025 год стал знаковым для индустрии серверов - значительный прогресс заметен как в архитектурах процессоров, так и в технологиях памяти и специализированных ускорителях. Основные драйверы развития – это, в первую очередь, растущие требования к обработке данных ИИ и машинного обучения.
Серверы и сетевое оборудование
Серверы и сетевое оборудование
|   Сегодня, 14:54
0      

Однако, есть и другие важные вопросы, которые двигают вперед разработку новых технологий - в частности, необходимость повышения энергоэффективности дата-центров и преодоление ограничений традиционных архитектур. В этой статье мы рассмотрим основные новинки в области серверных технологий за 2025 год, и начнем с одного из ключевых компонентов любой системы - процессоров.

Серверные процессоры

Доминирующий тренд в данной области – это переход от универсальных CPU к гибридным подходам. Лидеры отрасли (Intel и AMD) представили решения, сочетающие высокопроизводительные (P-cores) и энергоэффективные (E-cores) ядра в рамках одной платформы:

  • Intel Sierra Forest: вторая генерация E-core процессоров Intel, изготовленная по улучшенному Intel 3 процессу. Предлагает до 288 E-ядер (Intel Xeon 6 серии с кодовым именем Sierra Forest), фокусируясь на максимальной плотности вычислений и энергоэффективности для облачных рабочих нагрузок высокой плотности (виртуализация, веб-сервисы, микросервисы). Также, данные процессоры обладают поддержкой DDR5-6400 и PCIe 5.0/6.0 (в зависимости от SKU).

  • AMD Zen 5c (Prometheus): специализированная версия архитектуры Zen 5, оптимизированная для плотности и использующая техпроцесс TSMC N4P. Предназначена для линейки AMD EPYC, при этом предлагая большее количество ядер на сокет по сравнению со стандартными Zen 5 (ядро "Nirvana") при сохранении совместимости с платформой SP6. Основными клиентами, на которых ориентированы эти процессоры, являются облачные провайдеры, требующие максимальной плотности виртуальных машин.

Также, обороты продолжает набирать архитектура ARM, а также серверные решения на ARM процессорах, особенно в сегменте энергоэффективных вычислений и специфичных нагрузок.

 

Среди новинок - NVIDIA Grace CPU Superchips, полноценные серверные процессоры на ARMv9, которые представляют собой комбинацию двух 72-ядерных чипов Grace в формате Superchip через NVLink-C2C (144 ядра). Фокус данных решений на высокой пропускной способности памяти (LPDDR5x с ECC) и энергоэффективности делает их оптимальным выбором для научных вычислений, обработки больших данных и систем с ускорителями.

 

Также, Ampere Computing представила обновленные SKU процессоров AmpereOne с новыми кастомными ядрами на архитектуре ARM, изготовленными по техпроцессу TSMC N5. Их ключевыми преимуществами стали увеличенная тактовая частота и улучшенная производительность в ряде облачных рабочих нагрузок. При этом, сохранился акцент на высокой плотности ядер (до 256 ядер анонсировано для будущих решений) и отсутствии SMT.

 

Ещё один важный тренд - повышенная энергоэффективность. Все ведущие производители делают значительный акцент на снижение энергопотребления (TDP) и повышение производительности на ватт. Это достигается за счет:

  • Перехода на более тонкие техпроцессы (TSMC N3E/N2, Intel 18A).

  • Улучшенных алгоритмов управления питанием и состоянием простоя (C-states).

  • Оптимизации архитектуры ядра для целевых рабочих нагрузок.

  • Интеграции контроллеров памяти и I/O на кристалл.

Серверная память

В сфере оперативной памяти для серверных решений заметной тенденцией стало внедрение CXL (Compute Express Link). В 2025 году он фактически стал мейнстримом, особенно версии 1.1 и 2.0. Так, производители серверов (Dell PowerEdge серии R760, HPE ProLiant Gen12, Lenovo ThinkSystem SR680 V3) начали широко предлагать конфигурации с поддержкой модулей CXL Type 3 (Memory Expanders). Это позволяет существенно увеличить объем доступной памяти за пределами ограничений стандартных DIMM-слотов (например, добавление сотен ГБ или ТБ памяти на сервер). Среди ключевых поставщиков таких модулей - компании Samsung, Micron и SK Hynix. Задержки доступа выше, чем у локальной DDR5, но оптимизации ПО и контроллеров снижают этот разрыв для подходящих рабочих нагрузок (in-memory databases, большие аналитические наборы данных). Также, популярность набирает стандартизация подключения ускорителей (GPU, FPGA, SmartNICs) и специализированных процессоров через CXL, обеспечивающего когерентность памяти с CPU и более низкие задержки по сравнению с PCIe.

 

Следует упомянуть и повышение скорости и плотности DDR5. Новые серверные платформы на базе Intel Xeon 6 (Granite Rapids/Sierra Forest) и AMD EPYC (Zen 5/Prometheus) стандартно поддерживают DDR5-6400. Также, уже анонсированы модули DDR5-7200 для высокопроизводительных сегментов (ожидаются во второй половине 2025).

 

Ещё одна важная тенденция - увеличение плотности DIMM, которое ознаменовано появлением модулей DDR5 DIMM емкостью 128 ГБ (на основе чипов 32Gb) и 256 ГБ (на основе чипов 64Gb). Это позволяет достигать 8 ТБ+ памяти на двухсокетном сервере без использования CXL.

 

Одновременно с этим, память High Bandwidth Memory третьего поколения с расширенной пропускной способностью (HBM3E) стала де-факто стандартом для топовых GPU для ИИ (NVIDIA Blackwell, AMD Instinct MI400) и высокопроизводительных CPU (NVIDIA Grace, некоторые SKU AMD EPYC и Intel Xeon для HPC/AI). Данный тип памяти предлагает пропускную способность свыше 1.2 ТБ/с на устройство. SK Hynix и Samsung ведут производство 12- и 16-слойных (12Hi, 16Hi) стеков HBM3E.

Ускорители (GPUs, DPUs, IPUs, AI ASICs)

В первую очередь нужно отметить развитие графических процессоров (GPUs) для ИИ и HPC. Архитектура Blackwell стала основой для новейших ускорителей NVIDIA GB200 / B200 / B100., и обладает следующими ключевыми характеристиками:

  • Чипы, изготовленные по техпроцессу TSMC 4NP.

  • Значительное увеличение производительности FP8/FP4 (критично для ИИ-тренировки и вывода) по сравнению с Hopper (до 5x заявлено для вывода LLM).

  • Вторая генерация трансформаторных движков.

  • Увеличенная пропускная способность NVLink (до 1.8 ТБ/с между GPU в NVLink Domain).

  • Улучшенная надежность (на уровне чипа) с технологией RAS.

  • Форм-факторы: PCIe карты (B100, B200) и комплексные решения HGX B100/B200 (8 GPU) и GB200 NVL72 (36 GPU Grace CPU + 72 GPU Blackwell, соединенные через NVLink).

Однако, свое новое поколение ускорителей разрабатывает и AMD. Instinct MI400 Series на новой архитектуре CDNA 4 имеет несколько преимуществ:

  • Поддержка расширенного набора инструкций для ИИ (включая FP8, FP4).

  • Значительное увеличение плотности матричных ядер (Matrix Cores).

  • Улучшенная пропускная способность Infinity Fabric (до 288 ГБ/с на линию).

  • Техпроцесс TSMC N3.

  • Акцент на открытость ПО (ROCm).

Собственные решения есть и у Intel. Intel Gaudi 3 позиционируется как конкурентное решение по соотношению цены и производительности для тренировки и вывода ИИ-моделей. Среди важных характеристик:

  • Улучшенные матричные движки.

  • Поддержка FP8.

  • Интеграция 128 ГБ HBM2e памяти на ускоритель.

  • 24 200GbE порта RoCEv2 на OCP-модуле для горизонтального масштабирования.

DPU/IPU (Data Processing Unit / Infrastructure Processing Unit) сейчас становятся неотъемлемой частью современных серверов для разгрузки CPU и оптимизации инфраструктуры. Свои вариации данных устройств можно также найти у всех крупных производителей.

  • NVIDIA BlueField-4 - следующее поколение DPU от NVIDIA. Ожидается значительное увеличение производительности сетевой обработки (800GbE), ускорение безопасности (криптография), обработки хранилищ и возможностей Zero-Trust. Помимо этого, обещается интеграция с архитектурой NVIDIA AI Enterprise.

  • Intel Mount Evans (E2000) - это IPU на базе архитектуры ARM, разработанный совместно с Google. Внедряется облачными провайдерами и OEM для виртуализации сетевых функций, управления хранилищами и повышения безопасности.

  • AMD Pensando DPU - продолжение развития линейки после приобретения компании Pensando AMD в 2022 году. Относительно возможностей применения, эти DPU нацелены на программно-определяемые сети, безопасность и ускорение хранилищ для облачных и корпоративных сред.

Заслуживают внимания и AI ASIC / NPU - в данной области продолжается активное развитие специализированных чипов для ИИ-вывода и тренировки от крупных облачных провайдеров (Google TPU v6, AWS Trainium/Inferentia 3, Microsoft Azure Maia) и независимых компаний (Groq, SambaNova, Tenstorrent). Основной фокус на ближайшее время – дальнейшее снижение стоимости вывода (TCO) и повышение эффективности для специфичных моделей ИИ.

Другие важные тренды

Жидкостное Охлаждение (Liquid Cooling) переживает стадию перехода от экспериментальной опции к массовому внедрению. Активно развиваются следующие решения:

  • Прямое чиповое охлаждение (D2C - Direct-to-Chip): Стандарт для высокопроизводительных GPU и CPU в стеках ИИ/HPC.

  • Иммерсионное охлаждение: Набирает популярность в крупных дата-центрах для достижения максимальной плотности и снижения PUE. Стандартизация (OCP Immersion) упрощает внедрение.

Раз уж мы упомянули PUE, то нельзя не сказать, что энергоэффективность остается критическим KPI. Новое оборудование проектируется с акцентом на оптимальное соотношение производительности на ватт, а интеллектуальные системы управления питанием и охлаждением приобретают всё большую популярность.

 

Наконец, нужно кратко сказать и об уровне оптимизации всей инфраструктуры под ИИ - серверные платформы, сети и системы хранения проектируются с учетом требований распределенных ИИ-кластеров с тысячами GPU/ASIC. В данной парадигме, снижение задержек межсерверной коммуникации становится ключевой задачей.

Заключение

Учитывая описанные тенденции и большой ассортимент, выбрать или сконфигурировать сервер, который будет актуальным ближайшее время, становится всё более сложной задачей. При выборе платформы важно ориентироваться не только на характеристики процессоров, но и на такие параметры, как масштабируемость, энергоэффективность и стоимость обслуживания.

2025 год подтвердил ускорение темпов инноваций в серверном оборудовании, движимых экспоненциальным ростом спроса на вычислительные ресурсы для ИИ и аналитики. Гетерогенные процессорные архитектуры, революция в подходах к организации памяти благодаря CXL, и появление нового поколения высокопроизводительных и специализированных ускорителей (GPU, DPU, AI ASIC) формируют ландшафт современных и будущих дата-центров. Ключевые цели отрасли – преодоление "стены памяти", снижение энергопотребления и стоимости владения (TCO), а также предоставление гибких, оптимизированных платформ для разнообразных рабочих нагрузок, от традиционной виртуализации до экзафлопсных вычислений ИИ. Внедрение жидкостного охлаждения и оптимизация всей инфраструктуры стали обязательными условиями для реализации потенциала новейшего оборудования.

Поделиться
Войти, используя аккаунт одной из социальных сетей
Поиск по сайту
Ключевые темы
Acer, AMD, Anniversary Update, April 2018 Update, ARM, Asus, Continuum, Cortana, Creators Update, Dell, Fall Creators Update, HoloLens, HP, Insider Preview, Internet Explorer, Kinect, Lenovo, LG, Lumia, Microsoft, Microsoft Edge, Microsoft Store, Nokia, Nvidia, Office, Office Insider, OneDrive, OneNote, Outlook, Rainmeter, Redstone, Redstone 4, Redstone 5, Release Preview, Samsung, SkyDrive, Skype, Spartan, Surface, Technical Preview, Toshiba, Windows 10, Windows 10 ARM, Windows 10 IoT, Windows 10 Mobile, Windows 10 X, Windows 11, Windows 9, Windows Holographic, Windows Insider, Windows Phone, Windows RT, Xbox, XWidget, администрирование, видео, восстановление, драйверы, иконки, концепт, курсоры, моноблоки, настройка интерфейса, начальный экран, ноутбуки, обновление, обои, оптимизация, планшеты, рабочий стол, скидки, скины, скриншоты, смартфоны, Смешанная реальность, статистика, темы, установка, мобильные устройства, Полезные статьи и рекомендации, носимые устройства, всё для офиса, игры для ПК и консолей, полезный софт, IT-услуги, интернет и сети, финансы, гаджеты и техника для дома, игры и приложения для мобильных, онлайн-сервисы, гаджеты китайских брендов, компьютеры и технологии, защита и безопасность, Серверы и сетевое оборудование