Selectel выводит на рынок собственную AI-платформу: сервер для высоконагруженных задач машинного обучения и инференса
22 апреля компания Selectel представила фирменный высокопроизводительный сервер, спроектированный специально под задачи искусственного интеллекта и вычислений класса HPC. При разработке ключевым приоритетом стала оптимизация связки процессор - оперативная память - графические ускорители - подсистема хранения, чтобы обеспечить максимальную отдачу при тренировке и инференсе моделей, а также при аналитике и рендеринге.
Аппаратная платформа: что внутри
В основе решения - 8U-серверная платформа, рассчитанная на эксплуатацию в высоконагруженных средах:
- собственная материнская плата Selectel с поддержкой двух процессоров Intel® Xeon® 6;
- возможность установки до 8 ТБ оперативной памяти стандарта DDR5;
- поддержка до 16 GPU в одном шасси;
- 12 слотов под накопители NVMe/SAS/SATA плюс два слота M.2 с интерфейсом PCIe 5.0;
- 176 линий PCIe 5.0 / CXL для подключения ускорителей и периферийных устройств;
- слот OCP 3.0 x16 для высокопроизводительных сетевых карт и дополнительных модулей;
- система охлаждения с 12 вентиляторами;
- 7 блоков питания (5 выделены под GPU, 2 - под системную плату и остальную инфраструктуру);
- модуль удалённого управления и встроенный аппаратный модуль безопасности TPM 2.0.
Такая конфигурация позволяет создавать плотные GPU-конфигурации для задач обучения и инференса крупных моделей, при этом не упираясь в ограничения по оперативной памяти или дисковой подсистеме.
Для каких задач предназначен сервер
AI-сервер Selectel ориентирован на компании, которые уже активно внедряют или только планируют интегрировать решения на базе искусственного интеллекта в свои продукты и бизнес-процессы. В первую очередь речь идёт о:
- финансовых организациях и финтехе;
- телеком-операторах и IT-компаниях;
- ритейле и e‑commerce;
- логистике и транспортной отрасли;
- промышленности, инжиниринге и производстве.
Платформа подходит для широкого круга сценариев:
- инференс и дообучение моделей компьютерного зрения (распознавание лиц, объектов, дефектов);
- обработка естественного языка: чат-боты, голосовые ассистенты, системы анализа текстов и документов;
- предиктивная аналитика - прогноз спроса, выявление аномалий, скоринг клиентов;
- рендеринг и графические задачи, включая CGI, визуализацию, симуляции;
- высокопроизводительные вычисления в научных и инженерных задачах.
Благодаря поддержке до 16 GPU сервер может выступать как основой для целого AI-кластера, так и высокоплотным "узлом силы" в уже существующей инфраструктуре.
Локальное развертывание LLM и работа с чувствительными данными
Отдельный акцент сделан на компаниях, которым важно разворачивать крупные языковые модели (LLM) внутри собственного контура. Новый сервер позволяет:
- запускать и обслуживать LLM без передачи данных во внешние облака;
- обеспечить полный контроль над логами, обучающими выборками и пользовательскими запросами;
- выполнять дообучение моделей на закрытых корпоративных датасетах;
- соответствовать требованиям регуляторов в части защиты персональных и коммерчески чувствительных данных.
Для финансового сектора, медицины, госсектора и крупных промышленных предприятий это критически важно: любые утечки информации или неконтролируемый вынос данных за пределы периметра часто просто недопустимы.
Производительность и масштабируемость: ставка на PCIe 5.0 и CXL
Поддержка 176 линий PCIe 5.0 / CXL - одно из ключевых преимуществ платформы. Это даёт:
- высокую пропускную способность между CPU, GPU и накопителями;
- возможность устанавливать большое количество ускорителей, не жертвуя скоростью обмена;
- гибкость при построении сложных конфигураций с несколькими типами GPU, сетевых карт и NVMe-накопителей;
- задел под использование перспективных решений на базе CXL.
В сочетании с DDR5 и современными процессорами Intel® Xeon® 6 такая архитектура позволяет эффективно обрабатывать большие массивы данных и запускать ресурсоёмкие модели без узких мест на уровне шины.
Хранение данных: быстрая и гибкая подсистема
Двенадцать слотов под NVMe/SAS/SATA-накопители плюс два M.2 PCIe 5.0 позволяют выстраивать гибкую дисковую конфигурацию:
- NVMe для горячих данных, кэшей и временных файлов тренировки моделей;
- SAS/SATA для тёплых и холодных архивов, исторических логов, датасетов;
- M.2 PCIe 5.0 - под системные разделы, службы мониторинга, служебные контейнеры.
Такой подход помогает балансировать между стоимостью хранения и скоростью доступа, подстраивая инфраструктуру под конкретные задачи: от экспериментов с моделями до промышленных AI-сервисов с жёсткими SLA по латентности.
Охлаждение и энергопитание: стабильность под полной нагрузкой
Поддерживать до 16 GPU и пару мощных CPU - серьёзная тепловая нагрузка. Для этого в сервере реализована усиленная система охлаждения:
- 12 вентиляторов создают направленный воздушный поток через наиболее горячие зоны - блоки GPU и процессоры;
- 7 блоков питания разделены по контурам: 5 обслуживают GPU, 2 отвечают за материнскую плату и остальное "железо";
- избыточность по питанию повышает отказоустойчивость и позволяет сохранять работоспособность при выходе из строя части БП.
Благодаря такой архитектуре сервер рассчитан на длительную работу под максимальной нагрузкой - характерный режим для тренировок моделей и массового инференса.
Безопасность и управление: TPM 2.0 и удалённый доступ
Встроенный модуль TPM 2.0 отвечает за аппаратную безопасность:
- аппаратное шифрование ключей;
- защита загрузки (secure boot);
- контроль целостности критичных компонентов.
Удалённое управление даёт администраторам возможность:
- мониторить состояние системы и компонентов без физического доступа к стойке;
- выполнять перезагрузку, обновления прошивок и диагностику;
- быстро реагировать на инциденты и деградацию производительности.
Для распределённых инфраструктур и дата-центров это критично - особенно когда речь идёт о 24/7‑сервисах, завязанных на AI.
Почему не просто "очередной сервер", а специализированное AI-решение
Ключевое отличие платформы - не только в поддержке большого количества GPU. Здесь важно именно сочетание:
- собственной серверной платы, спроектированной под два Intel® Xeon® 6 и высокую плотность ускорителей;
- современной памяти DDR5 с возможностью масштабирования до 8 ТБ;
- максимально загруженной шины PCIe 5.0 / CXL;
- продуманного охлаждения и схемы питания;
- встроенных средств безопасности и управления.
В итоге заказчик получает систему, в которой все узлы и взаимосвязи оптимизированы именно под профиль нагрузки AI и HPC, а не универсальный "компромиссный" сервер общего назначения.
Кому особенно выгоден переход на такую платформу
Использование собственного AI-сервера может стать логичным шагом для компаний, которые:
- вышли за рамки пилотов и перешли к промышленной эксплуатации AI-сервисов;
- хотят снизить зависимость от публичных облаков в части ключевых ML‑нагрузок;
- стремятся консолидировать разрозненные GPU‑ресурсы в единую управляемую платформу;
- планируют долгосрочную AI‑стратегию и нуждаются в предсказуемости по производительности и стоимости владения.
Для таких организаций специализированное "железо" становится не разовой покупкой, а базовым элементом технологического стека на ближайшие годы.
Место в продуктовой стратегии Selectel
Запуск собственного AI-сервера - часть более широкой стратегии по формированию линейки серверных решений Selectel. Компания развивает:
- специализированные аппаратные платформы под ИИ и HPC;
- инфраструктурные решения для развертывания, масштабирования и мониторинга AI-нагрузок;
- продукты, гарантированно совместимые и оптимизированные друг под друга.
Наличие собственного аппаратного стека позволяет лучше прогнозировать производительность, оптимизировать затраты и предлагать заказчикам комплексные решения, а не разрозненные компоненты.
Практические сценарии внедрения
На практике такой сервер может использоваться:
- как ядро внутреннего AI‑центра компетенций: дата-сайентисты и ML‑инженеры получают общий ресурс для экспериментов и продакшн‑нагрузок;
- в качестве платформы для систем персонализации и рекомендаций в онлайн‑ритейле;
- как вычислительный узел для скоринговых моделей и антифрода в финансовых организациях;
- для управления цепочками поставок и оптимизации маршрутов в логистике;
- как рендер‑ферма для студий, работающих с 3D‑графикой и спецэффектами.
Во всех этих кейсах требуется большой запас по GPU‑мощности, памяти и пропускной способности - именно на такие нагрузки и рассчитан AI-сервер Selectel.
***
Таким образом, новая 8U‑платформа с поддержкой двух Intel® Xeon® 6, до 8 ТБ DDR5, до 16 GPU, развитой подсистемой хранения и современной шиной PCIe 5.0 / CXL закрывает сразу несколько задач: от локального развёртывания LLM и работы с чувствительными данными до построения масштабируемой, предсказуемой AI‑инфраструктуры на базе собственного оборудования.



