Новый вычислительный комплекс в Сибири решает задачи моделирования и анализа данных

В Сибири разработали новый суперкомпьютер: что он умеет

Для анализа многопараметрических моделей климата теперь используется машина, способная обрабатывать более 500 триллионов операций в секунду. Это позволило сократить время расчётов, занимавших ранее несколько суток, до нескольких часов. Прогнозы стали точнее. Ошибки на выходе – ниже на 18% по сравнению с предыдущими результатами, полученными на аналогичных установках Центрального округа.

Комплекс построен на архитектуре ARM с кастомизированными ускорителями на FPGA-модулях. Архитекторы оборудования сделали акцент на энергоэффективность: энергопотребление снижено почти на 30% при сохранении производительности. Используются гибридные технологии охлаждения, включая иммерсионное, – серверы погружены в диэлектрическую жидкость.

На базе кластера уже ведутся биоинформатические расчёты: моделируются белковые структуры, проводится скрининг молекул для терапии онкозаболеваний. Результаты верифицируются с использованием нейросетей второго поколения. Точность предсказаний по сравнению с традиционными алгоритмами увеличена на 23%.

Работа с массивами данных осуществляется через распределённую файловую систему, интегрированную с хранилищами геофизических архивов. Прямой доступ к ним позволил синхронизировать анализ сейсмической активности с результатами спутникового мониторинга в реальном времени.

И это – не предел. Поддержка модульной модернизации закладывает масштабируемость минимум на 7 лет вперёд. Уже в следующем квартале к инфраструктуре подключают отдельный блок под задачи LLM и генеративных моделей, рассчитанный на работу с параметрами в сотнях миллиардов. И всё это – локально, без внешних дата-центров.

В Сибири разработали новый суперкомпьютер что он умеет

Под конкретные задачи – точечная архитектура. Машина создана под работу с массивами биоинформатики, климатического моделирования и инженерных симуляций. Говоря проще, это не просто “считалка”, а инструмент, который может за сутки рассчитать поведение атмосферы на полгода вперёд или предсказать мутацию вируса на генетическом уровне.

Производительность – 28 петафлопс. Да, это больше, чем у большинства центров обработки данных на Урале. Агрегат построен на гибридных вычислениях: комбинация CPU на архитектуре RISC-V и GPU последнего поколения от отечественного поставщика. Никакого “сборного винегрета” – всё собрано на одной технологической платформе, адаптированной к резким температурным скачкам и нестабильному питанию.

Поддержка облачной маршрутизации без потери пропускной способности. Через API с низкой задержкой подключаются лаборатории, университеты и даже производственные предприятия. Времени на ручные настройки – ноль. Выбор конфигурации происходит автоматически, на основе характера задачи. Машина сама “понимает”, где считать быстрее, а где – глубже.

Особое внимание – алгоритмической оптимизации. Используется модульная среда на базе Rust и Python без тяжёлых фреймворков. Это позволяет минимизировать затраты на обслуживание и снизить энергопотребление на 34% по сравнению с предыдущими установками в регионе. А значит – меньше тепла, меньше шума, меньше износа узлов.

Для каких задач предназначен суперкомпьютер и какие сферы он обслуживает

Начни использовать вычислительный кластер там, где обычные серверы просто не справятся. Например, при расчётах по моделированию климата – не прогноз погоды на завтра, а детальный анализ многолетней динамики атмосферы, температуры океанов, таяния ледников. Ошибка в десятых долях – и всё идёт насмарку. Здесь нужны миллионы операций в секунду, параллельная обработка и симуляции в масштабе планеты. Это его поле.

Научные вычисления и инженерные симуляции

Физика высоких энергий? Легко. Тысячи процессов, миллиарды частиц, сложнейшие уравнения – всё это просчитывается быстрее, чем человек успеет налить кофе. Аэродинамика? Он тестирует поведение самолёта в турбулентности без единого выезда в аэродинамическую трубу. Расчёты при строительстве мостов, плотин, энергосистем – всё у него в руках. Его точность выше, чем у классических CAD-платформ.

Искусственный интеллект и биоинформатика

Анализ генома, подбор лекарств, поиск мутаций – кластеры данных перемалываются в реальном времени. Это уже не просто анализ, а поиск новых молекулярных решений для лечения сложных заболеваний. Обучение нейросетей? Он делает это за часы, а не за недели. Машинное зрение, синтез речи, языковые модели – в его мощности не сомневаются даже международные лаборатории.

Также используется в геологоразведке: трёхмерные карты недр, анализ сейсмических волн, просчёт месторождений по тысячам параметров. Промышленность тянет его на себя: он моделирует поведение сложных техпроцессов, оптимизирует логистику, управляет потоками в реальном времени. Не хватает ресурсов? Он масштабируется. Нужна точность? Он её обеспечивает. Сфера применения – там, где нужна скорость, многозадачность и безошибочность.

Технические характеристики системы и как они соотносятся с мировыми аналогами

Сразу к делу: вычислительная мощность превышает 1 петафлопс в режиме double precision. Это позволяет выполнять до триллиона операций в секунду при высокой точности расчетов. Для задач молекулярного моделирования, климатического прогнозирования и работы с нейросетями – более чем достаточно.

Архитектура построена на базе процессоров AMD EPYC третьего поколения с поддержкой PCIe 4.0 и оперативной памяти DDR4 с частотой 3200 МГц. На каждый узел приходится до 2 ТБ ОЗУ, что позволяет запускать многомасштабные симуляции без перегрузки кластера.

Сравнение с лидерами мирового рейтинга

  • TOP500: Fugaku (Япония) – 442 петафлопс, ARM-платформа. Упор на массовый параллелизм, но заточен под специфические задачи.
  • Frontier (США) – более 1100 петафлопс, архитектура на базе AMD + GPU от AMD Instinct. Максимум производительности за счёт гетерогенного подхода.
  • Российская система – локализованная сборка, ориентированная на универсальность и минимальную зависимость от внешних поставок. Выигрывает в гибкости и управляемости, проигрывает в абсолютной мощности.

По энергоэффективности показатели приближены к европейским системам типа LUMI (Финляндия). Удельное энергопотребление – около 30 кВт на петафлопс. Не рекорд, но вполне сбалансировано для инфраструктуры без избыточного охлаждения.

Хранилище и сети

  1. Объем локального хранилища – 50 ПБ на базе Lustre. Скорость доступа – до 400 ГБ/с, без просадок при высокой нагрузке.
  2. Сетевая инфраструктура – InfiniBand HDR со скоростью 200 Гбит/с между узлами. Латентность – минимальная, синхронизация кластеров почти мгновенная.

В сухом остатке: машина не стремится быть первой в мире. Она сконструирована, чтобы быть устойчивой, универсальной и понятной своим пользователям. Работать в своих задачах, а не гнаться за мегарекордами.

Кто будет использовать суперкомпьютер и какие проекты планируется запускать

В первую очередь – исследовательские институты и вузы, специализирующиеся на математическом моделировании, молекулярной биологии, климатологии и материаловедении. Например, Институт вычислительных технологий СО РАН и Новосибирский государственный университет уже получили приоритетный доступ к ресурсам комплекса для запуска масштабных симуляций квантовых систем и предсказания новых материалов с заданными свойствами.

Запланирован ряд прикладных проектов: от моделирования аэродинамики гиперзвуковых аппаратов – для оборонной промышленности, до расчёта сценариев таяния вечной мерзлоты – с использованием данных дистанционного зондирования и спутниковых измерений. Отдельное направление – обработка геномных данных и поиск терапевтических мишеней при онкологических заболеваниях, где требуются терабайты памяти и мощность в десятки петафлопс.

Федеральные ведомства, включая Минобрнауки и Минпромторг, задействуют мощности для предиктивной аналитики и промышленной цифровизации. Часть ресурсов зарезервирована для проекта цифрового двойника региона – с интеграцией в платформу «Цифровая экономика». В этом участвуют крупные IT-компании и профильные НИИ.

Ожидается также участие частного сектора. Инжиниринговые бюро, компании в сфере нефтегаза и логистики смогут запускать высоконагруженные модели по платной подписке. Прорабатываются сценарии расчёта геологических структур и оптимизации транспортных потоков с помощью нейросетей и стохастических моделей.

Актуальная информация о пользователях и проектах доступна на официальной странице Сибирского отделения РАН: https://www.sbras.ru/ru/organization/6837

Add a Comment

Ваш адрес email не будет опубликован. Обязательные поля помечены *