2025/11/10 13:02:49

Суперкомпьютерная тайна: как США и Китай делят вычислительный мир. Факты и прогнозы

В ноябре ожидается выход нового рейтинга топ-500 мощнейших мировых суперкомпьютеров. Вы когда-нибудь задумывались, почему Китай, который еще пять лет назад владел 206 системами в рейтинге топ-500, сегодня демонстрирует всего 47? Спойлер: они не разучились делать суперкомпьютеры, они просто перестали их показывать. Почему эта история важнее любых официальных рейтингов, в статье, написанной специально для TAdviser, раскрывает эксперт по цифровой трансформации, управлению данными и госинформсистемам Алексей Алехин.

Содержание

Когда цифры врут: рейтинг топ-500 и что за ним прячется

В июне 2025 года вышел очередной рейтинг топ-500 мощнейших суперкомпьютеров мира[1], и на первый взгляд все понятно. Первое место: американский El Capitan с удивительными 1742 петафлопсами в реальном, не пиковом значении (1,7 экзафлопс). Это когда компьютер выполняет 1 742 000 000 000 000 операций в секунду. Для сравнения: ваш топовый iPhone выдает максимум 4 терафлопса, то есть он медленнее в 435 000 раз. Это примерно как сравнивать скорость пешехода и космического корабля.

Второе и третье места тоже за США (системы Frontier и Aurora). Европа ворвалась на четвёртое место рейтинга с немецким JUPITER, который работает исключительно на зеленой энергии и по энергоэффективности обгоняет всех гигантов. Япония почетно держит позиции с легендарной Fugaku. У России 6 систем в рейтинге, но об этом позже, когда будет не так грустно.

Но главная интрига в другом. Китай, который в 2017 году имел 206 систем в топ-500, теперь показывает всего 47. Падение на 77% за 8 лет. Кто-то из западных аналитиков даже радовался - санкции работают, Китай отстает. А потом случилась аналитическая неприятность.

Охота на невидимые экзафлопсы

В ноябре 2021 года группа китайских исследователей подала заявку на престижнейшую премию Gordon Bell Prize, ежегодно вручаемую премию за выдающиеся достижения в области высокопроизводительных вычислений. Чтобы получить её, нужно доказать, что ваша система может решать задачи, недоступные другим. И китайцы предоставили расчеты гиперзвуковой аэродинамики, для которых использовали систему с производительностью 1,3 экзафлопса.

При этом в мире в 2021 году не было публичных экзафлопсных систем. Первой стала американская Frontier, и произошло это только в мае 2022 года. Как китайцы это сделали?

Оказалось, что в Китае работает минимум две засекреченные экзафлопсные системы:

Tianhe-3 («Тяньхэ-3», «Тяньцзинь»): 1,7 экзафлопса пиковой производительности, операционная с конца 2021 года. Построена на полностью китайских процессорах Phytium (ARM-архитектура) и специализированных ускорителях Matrix 2000. Используется для разработки гиперзвукового оружия, моделирования ядерных взрывов, ИИ-систем для военных целей.Вебинар: «Управление качеством в фарме: от зарубежных решений и бумаги — к российской системе Docs5 EQMS»

Sunway OceanLight («Суньвэй Океанлайт», «Уси»): 1,3 экзафлопса, операционная с 2021 года. Процессоры SW26010-Pro – это шедевр: 390 ядер на одном чипе, полностью отечественная китайская разработка без единого западного компонента. Система использовалась для климатического моделирования с километровым разрешением когда можно посчитать каждое облако над Тибетом) и квантовой химии на уровне десятков миллионов атомов.

Забавная деталь: в научных публикациях исследовательских центров США обнаружили[2], что американские учёные, работавшие по стратегическим оборонным проектам, финансируемым Министерством обороны США, использовали китайский Tianhe для расчетов. Был ли нервный смех в Конгрессе нам не известно, но сотрудников лабораторий «на ковёр» для разговора приглашали.

Почему Китай играет в прятки

Если у тебя есть два экзафлопсных монстра, зачем их прятать? Ответ в области геополитики и долларов.

Ограничения[3] на экспорт чипов в Китай возникли в неслучайном 2015 году. В 2019 году США внесли китайские компании Sugon и NRCPC (National Research Center of Parallel Computer Engineering) в черный список Entity List. Это означает запрет на продажу американских чипов, технологий и даже консультаций. В 2022-2024 годах добавили запрет на экспорт NVIDIA H100/A100, AMD MI300, Intel GPU Max в Китай. Формально: чтобы Китай не мог обучать военные ИИ-системы. Реально: попытка задушить технологический подъем конкурента. И это элемент принятой в США в 2015 году стратегии доминирования в сфере суперкомпьютеров. Спойлер: у нас такой нет и не предвидится, мы «едем на велосипеде по обочине мирового суперкомпьютерного хайвея».

И Китай сделал выбор: вместо того чтобы демонстрировать свои достижения в топ-500 и подставляться под новые санкции, они просто перестали участвовать в публичных рейтингах. Логика простая: если мы покажем систему с полностью отечественными чипами, которая обгоняет американские аналоги, США введут санкции против всей цепочки поставок. А если не покажем, но будем публиковать научные результаты (климатические модели, квантовая химия, разработка материалов), то продемонстрируем возможности без раскрытия деталей архитектур.

Для справки: один из основателей рейтинга топ-500, легендарный Джек Донгарра (Jack Dongarra), в интервью 2023 года прямо сказал: «Китай не отстает. Они просто не сообщают нам о своих системах. И это их абсолютное право»[4].

Энергетический парадокс: почему киловатты важнее петафлопсов

Теперь давайте поговорим про то, что определит будущее суперкомпьютеров больше, чем мегагерцы и количество ядер. Речь про энергопотребление.

Представьте: вы построили суперкомпьютер мощностью 1 экзафлопс. Поздравляю! Теперь найдите ему 30 мегаватт электричества. Это как энергопотребление 20 000 домов или небольшого завода. El Capitan «ест» 29,9 МВт, Frontier – 21,1 МВт.

Вот вам число на засыпку: если бы мы попытались построить систему в 1 экзафлопс технологиями 2010 года, потребовалась бы электростанция мощностью более 2 гигаватт. Это целая АЭС, которая будет работать только на то, чтобы кормить один компьютер. К счастью, за 15 лет энергоэффективность выросла в 81 раз благодаря GPU-ускорителям.

Но проблема никуда не делась. К 2030 году энергопотребление всех суперкомпьютеров топ-500 вырастет минимум в 2,5 раза и составит около 2,5 гигаватта. А если добавить сюда дата-центры для обучения нейросетей (GPT-5, Claude, Gemini), то счет пойдет на десятки гигаватт.

Именно поэтому Google, Microsoft и Amazon в 2024-2025 годах вложили миллиарды в строительство мини-АЭС рядом со своими дата-центрами. Мини – это громко сказано, поскольку каждая такая станция выдает до 300 мегаватт. Для сравнения: крупная ТЭЦ в российском городе-миллионнике выдает 400-600 МВт.

Но есть и хорошие новости по энергопотреблению[5]. Немецкий JEDI, который занял первое место в рейтинге Green500 (самые энергоэффективные системы), выдает 72,7 гигафлопса на каждый ватт энергии. Это означает, что он в 81 раз эффективнее суперкомпьютеров 2010 года. Система работает на ARM-чипах NVIDIA GH200 Grace Hopper (процессор и GPU на одном кристалле), потребляет всего 67 киловатт и выдает 4,5 петафлопса. Для сравнения: старый Summit от IBM потреблял 13 мегаватт для 148 петафлопсов, то есть в 194 раза больше энергии на единицу производительности.

Почему это важно? Потому что в ближайшие 5 лет мы увидим взрывной рост ИИ-вычислений. Обучение одной модели класса GPT-5 требует мощности около 500 мегаватт в течение 3-6 месяцев. Это 1000-2000 гигаватт-часов электричества, или $200-400 миллионов только на электроэнергию. И таких моделей компании обучают десятками в год[6].

Если не решить проблему энергоэффективности, то к 2030 году на ИИ будет уходить столько же электричества, сколько потребляют целые страны. По оценкам, глобальное энергопотребление ИИ-инфраструктуры вырастет с 8-12 тераватт-часов в 2025 году до 30-50 тераватт-часов к 2030 году. Это больше, чем потребляет вся Швеция.

GPT-5 против GigaChat: война параметров

Теперь самое интересное: как суперкомпьютеры связаны с ChatGPT и почему ваш любимый ИИ-ассистент не может существовать без экзафлопсных монстров?

7 августа 2025 года OpenAI выпустила GPT-5. Модель содержит, по оценкам экспертов, 10-15 триллионов параметров. Для сравнения: GPT-1 в далеком 2018 году имела скромные 117 миллионов параметров. Рост в 128 000 раз за 7 лет. Это как если бы ваш смартфон за 7 лет стал мощнее космического корабля.

GPT-5 может обрабатывать контекст до 1 миллиона токенов (это примерно 750 000 слов, или 10 романов «Война и мир» одновременно), работает с текстом, голосом, изображениями и видео, решает математические задачи на уровне PhD и галлюцинирует менее чем в 5% случаев против 30% у GPT-3. Очень хорошо помню, как радовался, получив от GPT-3 список из 10 книг по общественному здоровью для глубокого погружения в тему. Оказалось, что в реальности не существовало ни одной.

А теперь российская реальность. Наши лучшие модели:

YandexGPT 5 Pro: 200-300 миллиардов параметров, контекст 32 000 токенов. Обучалась на 15 триллионах токенов (огромный объем!), но сама модель в 50-75 раз меньше GPT-5 по параметрам.

GigaChat: 70-100 миллиардов параметров, но зато рекордный контекст – по разным источникам от 32 000 до 262 000 токенов (возможно, больше, чем у GPT-4!). По бенчмарку MERA (тесты на понимание русского языка) опережает GPT-4o на 40%.

ruGPT-3 Large: всего 13 миллиардов параметров, но отлично справляется с стилизацией под классических русских авторов. Парадокс: российские модели меньше, но часто точнее работают с русским языком.

YandexGPT 5 и GigaChat обрабатывают запросы на русском на 40% лучше, чем ChatGPT, и стоят в 3-5 раз дешевле. Причина простая: они обучались на русскоязычном интернете, понимают культурный контекст, знают отсылки к Пелевину и Стругацким, не путают Крым и Крым (в смысле полуостров и вино).

Но вот незадача: чтобы обучить модель на 15 триллионов параметров, нужен суперкомпьютер класса экзафлопс. GPT-5 тренировали на кластере из десятков тысяч NVIDIA H100, общей мощностью около 500 мегаватт. Российские компании таких мощностей попросту не имеют. Наши дата-центры в 2025 году выдают суммарно 800-1000 мегаватт, но это на ВСЕ задачи (облака, хостинг, стриминг, банки), а не только на обучение ИИ.

К 2030 году Россия планирует нарастить мощности до 2,5+ гигаватт, но США и Китай к тому времени будут иметь десятки гигаватт только на ИИ-инфраструктуру. Отставание очевидно.

Текущий личный вывод: поговорить про Пелевина лучше с YandexGPT или GigaChat, работать несопоставимо эффективнее с западным Искином (так искусственный интеллект называли в советской фантастике).

Россия: от грустного к реалистичному

Вернемся к началу. У России в топ-500 всего 6 систем. Самая мощная – Chervonenkis от «Яндекса», её реальная производительность составляет около 21 петафлопса. Это в 80 раз слабее, чем El Capitan.

Большинство экспертов скажут, что причины понятны: санкции запрещают продажу нам NVIDIA H100, AMD MI300, Intel GPU Max. Но дело совершенно в другом – в России нет не только стратегии доминирования в сфере суперкомпьютеров, но нет даже стратегии развития этой сферы, а развитие в России со времен Петра I идёт от документа. Ещё, по мнению лиц, влияющих на принятие решений, вычислительных мощностей в России избыток, а рассматриваемая тема, в отличие от США, не является вопросом национальной безопасности.

Россия может пойти китайским путем: не участвовать в гонке за экзафлопсами в рейтинге, а строить специализированные системы под конкретные задачи. Например:

  • Климатическое моделирование Арктики – критично для Северного морского пути).
  • Моделирование гиперзвуковых летательных аппаратов (тут, кстати, у нас всё совсем неплохо, но это секрет).
  • Разработка материалов для новых ядерных реакторов ВВЭР-1200 и БРЕСТ-300 (и тут тоже).
  • Квантовая химия для разработки лекарств – импортозамещение фармацевтики.

Можно ли это сделать на системах в 200-500 петафлопсов вместо экзафлопсных монстров? Да, если оптимизировать алгоритмы и использовать domain-specific ускорители (заточенные под конкретный класс задач, как китайские Matrix 2000 для ИИ) или отечественные ПЛИС-разработки, когда архитектура оптимизируется под задачу.

Еще один путь – квантовые и фотонные вычисления. Россия имеет сильные школы в квантовой физике и математике. Если продолжить делать ставку подобные компьютеры и гибридные квантово-классические системы, можно частично обойти отставание в классических суперкомпьютерах, но необходимо сочетание, а не ожидание.

Но самое главное – развитие спроса, для чего необходимо воспитывать квалифицированного заказчика, то есть наращивать понимание, что можно делать с суперкомпьютерами в науке, бизнесе, госуправлении, как это делают в других странах. За кадром оставлю вопрос целесообразности создания одного «волшебного» суперкомпьютерного центра в условиях предметного обсуждения поставок ракет Tomahawk для обстрела России[7]. Это тема отдельной статьи.

Что дальше: прогноз на ноябрь 2025 и за его пределы

В ноябре 2025 года выйдет новый рейтинг топ-500. Что мы увидим?

Во-первых, минимум 2-3 новые системы в TOP-10. США запускает Lux (Oak Ridge, >1,5 экзафлопса), частично может заработать Solstice (Argonne, 100 000 NVIDIA Blackwell GPU, ~2,2 экзафлопса). Европа добавит несколько ИИ-фабрик в рамках программы EuroHPC (€20+ миллиардов инвестиций). Тайвань покажет систему NVIDIA-Foxconn-TSMC на 10 000 Blackwell GPU (500-800 петафлопсов).

Во-вторых, Китай не покажет свои новые системы. Tianhe-3 и Sunway OceanLight, скорее всего, уже апгрейдили до 2+ экзафлопсов, но мы об этом узнаем только из косвенных научных публикаций.

В-третьих, количество экзафлопсных систем вырастет с 3 до 5-6. А к 2027-2028 годам появятся первые системы зеттамасштаба (1000 экзафлопс = 1 зеттафлопс). Япония уже анонсировала FugakuNEXT с целевой мощностью 600 экзафлопс на операциях с плавающей запятой формата FP8 для ИИ-задач к 2030 году[8].

Эпилог: киловатты, параметры и будущее человечества

Завершу любопытным фактом. В 2024 году El Capitan стал первой системой, которая вошла в топ-3 суперкомпьютеров мира одновременно по трем бенчмаркам: HPL (классическая производительность), HPL-MxP (ИИ-задачи) и HPCG (реальные научные задачи с интенсивным доступом к памяти). Это как если бы спортсмен одновременно выиграл марафон, спринт и тяжелую атлетику. До этого системы оптимизировались под один тип задач.

И еще одним: немецкий JUPITER, работающий на 100% зеленой энергии, использует отработанное тепло для обогрева зданий исследовательского центра в Юлихе. В год экономится около 15 гигаватт-часов тепловой энергии. Будущее не только в том, чтобы строить все более мощные системы, а и в том, чтобы научиться использовать их эффективнее. Это путь Евросоюза с их отсутствием современного производства чипов и созданием ИИ-фабрик. Нам бы так же работать с БРИКС+.

Суперкомпьютеры давно перестали быть игрушками для ученых. Сегодня это геополитическое оружие, инструмент технологического суверенитета, национальной безопасности и основа для ИИ-революции. Рейтинг топ-500 – это красивая картинка для публики, а реальная гонка происходит в засекреченных дата-центрах. В России тоже есть «тёмная материя» вычислительных мощностей. Доступна ли она гражданским учёным и бизнесу – вопрос оставлю за рамками этой статьи. Приведу только один пример: одна и та же задача на «средненьком» штатовском суперкомпьютере будет решаться сутки, а на мощнейшем российском научном компьютере списка топ-500, «Ломоносов-2» – три месяца.

И пока мы за редким, хотя временами и метким, исключением спорим, чей чат-бот лучше распознаёт голос или пишет рефераты, эти монстры моделируют термоядерные реакторы и космические двигатели, разрабатывают лекарства от рака и обучают ИИ-системы, которые уже пишут код лучше многих программистов. Нам необходимо срочно менять и подходы к образованию: не обсуждать, оглупляет ли ученика использование ИИ, а учить думать, усиливая себя взаимодействием с Искином, – хоть в программировании, хоть в науке.

И добро пожаловать в эпоху, когда киловатты важнее мегагерц, а количество параметров в нейросети определяет судьбу наций.

Источники: TOP500.org, Green500, HPCwire, The Next Platform, пресс-релизы DOE, EuroHPC JU, RIKEN, публикации OpenAI, Сбера, Яндекса, аналитика Epoch AI.

Таблица 1. Энергопотребление

Год Типичное потребление TOP-1 (МВт) Типичное потребление TOP-500 суммарное (ГВт)Примеры
2010 7 0,15 Tianhe-1A (4.04 PF) - 4.04 МВт
20159 0,28 Tianhe-2 (33.86 PF) - 17.8 МВт
202013 0,55 Fugaku (442 PF) - 28.3 МВт
202321,5 0,85 Frontier (1206 PF) - 21.1 МВт
2024 29,9 1,1 El Capitan (1742 PF) - 29.9 МВт
202530 1,25 JUPITER (793 PF) - ~18 МВт
203050 2,5 Прогноз зеттафлопс систем - 40-60 МВт

Таблица 2. Параметры LLM

Модель Параметров Контекст токеновСтрана
GPT-1 (2018) 117 млн 512 США
GPT-2 (2019) 1.5 млрд 1024 США
GPT-3 (2020) 175 млрд 4096 США
GPT-4 (2023) 1.76 трлн (оценка) 128 000 США
GPT-5 (2025) ~10-15 трлн (оценка) 1 000 000+ США
YandexGPT 4 Pro ~100 млрд (оценка) 8 000 Россия
YandexGPT 5 Pro (2025) ~200-300 млрд (оценка) 32 000 Россия
GigaChat (2024-2025) ~70-100 млрд (оценка) 32 000 (262 000) Россия
ruGPT-3 Large 13 млрд 2048 Россия

Примечания