Selectel запускает Ai‑платформу: высокопроизводительный сервер для ИИ и Hpc задач

Selectel выводит на рынок собственную AI-платформу: сервер для высоконагруженных задач машинного обучения и инференса

22 апреля компания Selectel представила фирменный высокопроизводительный сервер, спроектированный специально под задачи искусственного интеллекта и вычислений класса HPC. При разработке ключевым приоритетом стала оптимизация связки процессор - оперативная память - графические ускорители - подсистема хранения, чтобы обеспечить максимальную отдачу при тренировке и инференсе моделей, а также при аналитике и рендеринге.

Аппаратная платформа: что внутри

В основе решения - 8U-серверная платформа, рассчитанная на эксплуатацию в высоконагруженных средах:

- собственная материнская плата Selectel с поддержкой двух процессоров Intel® Xeon® 6;
- возможность установки до 8 ТБ оперативной памяти стандарта DDR5;
- поддержка до 16 GPU в одном шасси;
- 12 слотов под накопители NVMe/SAS/SATA плюс два слота M.2 с интерфейсом PCIe 5.0;
- 176 линий PCIe 5.0 / CXL для подключения ускорителей и периферийных устройств;
- слот OCP 3.0 x16 для высокопроизводительных сетевых карт и дополнительных модулей;
- система охлаждения с 12 вентиляторами;
- 7 блоков питания (5 выделены под GPU, 2 - под системную плату и остальную инфраструктуру);
- модуль удалённого управления и встроенный аппаратный модуль безопасности TPM 2.0.

Такая конфигурация позволяет создавать плотные GPU-конфигурации для задач обучения и инференса крупных моделей, при этом не упираясь в ограничения по оперативной памяти или дисковой подсистеме.

Для каких задач предназначен сервер

AI-сервер Selectel ориентирован на компании, которые уже активно внедряют или только планируют интегрировать решения на базе искусственного интеллекта в свои продукты и бизнес-процессы. В первую очередь речь идёт о:

- финансовых организациях и финтехе;
- телеком-операторах и IT-компаниях;
- ритейле и e‑commerce;
- логистике и транспортной отрасли;
- промышленности, инжиниринге и производстве.

Платформа подходит для широкого круга сценариев:

- инференс и дообучение моделей компьютерного зрения (распознавание лиц, объектов, дефектов);
- обработка естественного языка: чат-боты, голосовые ассистенты, системы анализа текстов и документов;
- предиктивная аналитика - прогноз спроса, выявление аномалий, скоринг клиентов;
- рендеринг и графические задачи, включая CGI, визуализацию, симуляции;
- высокопроизводительные вычисления в научных и инженерных задачах.

Благодаря поддержке до 16 GPU сервер может выступать как основой для целого AI-кластера, так и высокоплотным "узлом силы" в уже существующей инфраструктуре.

Локальное развертывание LLM и работа с чувствительными данными

Отдельный акцент сделан на компаниях, которым важно разворачивать крупные языковые модели (LLM) внутри собственного контура. Новый сервер позволяет:

- запускать и обслуживать LLM без передачи данных во внешние облака;
- обеспечить полный контроль над логами, обучающими выборками и пользовательскими запросами;
- выполнять дообучение моделей на закрытых корпоративных датасетах;
- соответствовать требованиям регуляторов в части защиты персональных и коммерчески чувствительных данных.

Для финансового сектора, медицины, госсектора и крупных промышленных предприятий это критически важно: любые утечки информации или неконтролируемый вынос данных за пределы периметра часто просто недопустимы.

Производительность и масштабируемость: ставка на PCIe 5.0 и CXL

Поддержка 176 линий PCIe 5.0 / CXL - одно из ключевых преимуществ платформы. Это даёт:

- высокую пропускную способность между CPU, GPU и накопителями;
- возможность устанавливать большое количество ускорителей, не жертвуя скоростью обмена;
- гибкость при построении сложных конфигураций с несколькими типами GPU, сетевых карт и NVMe-накопителей;
- задел под использование перспективных решений на базе CXL.

В сочетании с DDR5 и современными процессорами Intel® Xeon® 6 такая архитектура позволяет эффективно обрабатывать большие массивы данных и запускать ресурсоёмкие модели без узких мест на уровне шины.

Хранение данных: быстрая и гибкая подсистема

Двенадцать слотов под NVMe/SAS/SATA-накопители плюс два M.2 PCIe 5.0 позволяют выстраивать гибкую дисковую конфигурацию:

- NVMe для горячих данных, кэшей и временных файлов тренировки моделей;
- SAS/SATA для тёплых и холодных архивов, исторических логов, датасетов;
- M.2 PCIe 5.0 - под системные разделы, службы мониторинга, служебные контейнеры.

Такой подход помогает балансировать между стоимостью хранения и скоростью доступа, подстраивая инфраструктуру под конкретные задачи: от экспериментов с моделями до промышленных AI-сервисов с жёсткими SLA по латентности.

Охлаждение и энергопитание: стабильность под полной нагрузкой

Поддерживать до 16 GPU и пару мощных CPU - серьёзная тепловая нагрузка. Для этого в сервере реализована усиленная система охлаждения:

- 12 вентиляторов создают направленный воздушный поток через наиболее горячие зоны - блоки GPU и процессоры;
- 7 блоков питания разделены по контурам: 5 обслуживают GPU, 2 отвечают за материнскую плату и остальное "железо";
- избыточность по питанию повышает отказоустойчивость и позволяет сохранять работоспособность при выходе из строя части БП.

Благодаря такой архитектуре сервер рассчитан на длительную работу под максимальной нагрузкой - характерный режим для тренировок моделей и массового инференса.

Безопасность и управление: TPM 2.0 и удалённый доступ

Встроенный модуль TPM 2.0 отвечает за аппаратную безопасность:

- аппаратное шифрование ключей;
- защита загрузки (secure boot);
- контроль целостности критичных компонентов.

Удалённое управление даёт администраторам возможность:

- мониторить состояние системы и компонентов без физического доступа к стойке;
- выполнять перезагрузку, обновления прошивок и диагностику;
- быстро реагировать на инциденты и деградацию производительности.

Для распределённых инфраструктур и дата-центров это критично - особенно когда речь идёт о 24/7‑сервисах, завязанных на AI.

Почему не просто "очередной сервер", а специализированное AI-решение

Ключевое отличие платформы - не только в поддержке большого количества GPU. Здесь важно именно сочетание:

- собственной серверной платы, спроектированной под два Intel® Xeon® 6 и высокую плотность ускорителей;
- современной памяти DDR5 с возможностью масштабирования до 8 ТБ;
- максимально загруженной шины PCIe 5.0 / CXL;
- продуманного охлаждения и схемы питания;
- встроенных средств безопасности и управления.

В итоге заказчик получает систему, в которой все узлы и взаимосвязи оптимизированы именно под профиль нагрузки AI и HPC, а не универсальный "компромиссный" сервер общего назначения.

Кому особенно выгоден переход на такую платформу

Использование собственного AI-сервера может стать логичным шагом для компаний, которые:

- вышли за рамки пилотов и перешли к промышленной эксплуатации AI-сервисов;
- хотят снизить зависимость от публичных облаков в части ключевых ML‑нагрузок;
- стремятся консолидировать разрозненные GPU‑ресурсы в единую управляемую платформу;
- планируют долгосрочную AI‑стратегию и нуждаются в предсказуемости по производительности и стоимости владения.

Для таких организаций специализированное "железо" становится не разовой покупкой, а базовым элементом технологического стека на ближайшие годы.

Место в продуктовой стратегии Selectel

Запуск собственного AI-сервера - часть более широкой стратегии по формированию линейки серверных решений Selectel. Компания развивает:

- специализированные аппаратные платформы под ИИ и HPC;
- инфраструктурные решения для развертывания, масштабирования и мониторинга AI-нагрузок;
- продукты, гарантированно совместимые и оптимизированные друг под друга.

Наличие собственного аппаратного стека позволяет лучше прогнозировать производительность, оптимизировать затраты и предлагать заказчикам комплексные решения, а не разрозненные компоненты.

Практические сценарии внедрения

На практике такой сервер может использоваться:

- как ядро внутреннего AI‑центра компетенций: дата-сайентисты и ML‑инженеры получают общий ресурс для экспериментов и продакшн‑нагрузок;
- в качестве платформы для систем персонализации и рекомендаций в онлайн‑ритейле;
- как вычислительный узел для скоринговых моделей и антифрода в финансовых организациях;
- для управления цепочками поставок и оптимизации маршрутов в логистике;
- как рендер‑ферма для студий, работающих с 3D‑графикой и спецэффектами.

Во всех этих кейсах требуется большой запас по GPU‑мощности, памяти и пропускной способности - именно на такие нагрузки и рассчитан AI-сервер Selectel.

***

Таким образом, новая 8U‑платформа с поддержкой двух Intel® Xeon® 6, до 8 ТБ DDR5, до 16 GPU, развитой подсистемой хранения и современной шиной PCIe 5.0 / CXL закрывает сразу несколько задач: от локального развёртывания LLM и работы с чувствительными данными до построения масштабируемой, предсказуемой AI‑инфраструктуры на базе собственного оборудования.

Прокрутить вверх