Суперкомпьютерная тайна: как США и Китай делят вычислительный мир. Факты и прогнозы
В ноябре ожидается выход нового рейтинга топ-500 мощнейших мировых суперкомпьютеров. Вы когда-нибудь задумывались, почему Китай, который еще пять лет назад владел 206 системами в рейтинге топ-500, сегодня демонстрирует всего 47? Спойлер: они не разучились делать суперкомпьютеры, они просто перестали их показывать. Почему эта история важнее любых официальных рейтингов, в статье, написанной специально для TAdviser, раскрывает эксперт по цифровой трансформации, управлению данными и госинформсистемам Алексей Алехин.
Когда цифры врут: рейтинг топ-500 и что за ним прячется
В июне 2025 года вышел очередной рейтинг топ-500 мощнейших суперкомпьютеров мира[1], и на первый взгляд все понятно. Первое место: американский El Capitan с удивительными 1742 петафлопсами в реальном, не пиковом значении (1,7 экзафлопс). Это когда компьютер выполняет 1 742 000 000 000 000 операций в секунду. Для сравнения: ваш топовый iPhone выдает максимум 4 терафлопса, то есть он медленнее в 435 000 раз. Это примерно как сравнивать скорость пешехода и космического корабля.
Второе и третье места тоже за США (системы Frontier и Aurora). Европа ворвалась на четвёртое место рейтинга с немецким JUPITER, который работает исключительно на зеленой энергии и по энергоэффективности обгоняет всех гигантов. Япония почетно держит позиции с легендарной Fugaku. У России 6 систем в рейтинге, но об этом позже, когда будет не так грустно.
Но главная интрига в другом. Китай, который в 2017 году имел 206 систем в топ-500, теперь показывает всего 47. Падение на 77% за 8 лет. Кто-то из западных аналитиков даже радовался - санкции работают, Китай отстает. А потом случилась аналитическая неприятность.
Охота на невидимые экзафлопсы
В ноябре 2021 года группа китайских исследователей подала заявку на престижнейшую премию Gordon Bell Prize, ежегодно вручаемую премию за выдающиеся достижения в области высокопроизводительных вычислений. Чтобы получить её, нужно доказать, что ваша система может решать задачи, недоступные другим. И китайцы предоставили расчеты гиперзвуковой аэродинамики, для которых использовали систему с производительностью 1,3 экзафлопса.
При этом в мире в 2021 году не было публичных экзафлопсных систем. Первой стала американская Frontier, и произошло это только в мае 2022 года. Как китайцы это сделали?
Оказалось, что в Китае работает минимум две засекреченные экзафлопсные системы:
Tianhe-3 («Тяньхэ-3», «Тяньцзинь»): 1,7 экзафлопса пиковой производительности, операционная с конца 2021 года. Построена на полностью китайских процессорах Phytium (ARM-архитектура) и специализированных ускорителях Matrix 2000. Используется для разработки гиперзвукового оружия, моделирования ядерных взрывов, ИИ-систем для военных целей.Вебинар: «Управление качеством в фарме: от зарубежных решений и бумаги — к российской системе Docs5 EQMS»
Sunway OceanLight («Суньвэй Океанлайт», «Уси»): 1,3 экзафлопса, операционная с 2021 года. Процессоры SW26010-Pro – это шедевр: 390 ядер на одном чипе, полностью отечественная китайская разработка без единого западного компонента. Система использовалась для климатического моделирования с километровым разрешением когда можно посчитать каждое облако над Тибетом) и квантовой химии на уровне десятков миллионов атомов.
Забавная деталь: в научных публикациях исследовательских центров США обнаружили[2], что американские учёные, работавшие по стратегическим оборонным проектам, финансируемым Министерством обороны США, использовали китайский Tianhe для расчетов. Был ли нервный смех в Конгрессе нам не известно, но сотрудников лабораторий «на ковёр» для разговора приглашали.
Почему Китай играет в прятки
Если у тебя есть два экзафлопсных монстра, зачем их прятать? Ответ в области геополитики и долларов.
Ограничения[3] на экспорт чипов в Китай возникли в неслучайном 2015 году. В 2019 году США внесли китайские компании Sugon и NRCPC (National Research Center of Parallel Computer Engineering) в черный список Entity List. Это означает запрет на продажу американских чипов, технологий и даже консультаций. В 2022-2024 годах добавили запрет на экспорт NVIDIA H100/A100, AMD MI300, Intel GPU Max в Китай. Формально: чтобы Китай не мог обучать военные ИИ-системы. Реально: попытка задушить технологический подъем конкурента. И это элемент принятой в США в 2015 году стратегии доминирования в сфере суперкомпьютеров. Спойлер: у нас такой нет и не предвидится, мы «едем на велосипеде по обочине мирового суперкомпьютерного хайвея».
И Китай сделал выбор: вместо того чтобы демонстрировать свои достижения в топ-500 и подставляться под новые санкции, они просто перестали участвовать в публичных рейтингах. Логика простая: если мы покажем систему с полностью отечественными чипами, которая обгоняет американские аналоги, США введут санкции против всей цепочки поставок. А если не покажем, но будем публиковать научные результаты (климатические модели, квантовая химия, разработка материалов), то продемонстрируем возможности без раскрытия деталей архитектур.
Для справки: один из основателей рейтинга топ-500, легендарный Джек Донгарра (Jack Dongarra), в интервью 2023 года прямо сказал: «Китай не отстает. Они просто не сообщают нам о своих системах. И это их абсолютное право»[4].
Энергетический парадокс: почему киловатты важнее петафлопсов
Теперь давайте поговорим про то, что определит будущее суперкомпьютеров больше, чем мегагерцы и количество ядер. Речь про энергопотребление.
Представьте: вы построили суперкомпьютер мощностью 1 экзафлопс. Поздравляю! Теперь найдите ему 30 мегаватт электричества. Это как энергопотребление 20 000 домов или небольшого завода. El Capitan «ест» 29,9 МВт, Frontier – 21,1 МВт.
Вот вам число на засыпку: если бы мы попытались построить систему в 1 экзафлопс технологиями 2010 года, потребовалась бы электростанция мощностью более 2 гигаватт. Это целая АЭС, которая будет работать только на то, чтобы кормить один компьютер. К счастью, за 15 лет энергоэффективность выросла в 81 раз благодаря GPU-ускорителям.
Но проблема никуда не делась. К 2030 году энергопотребление всех суперкомпьютеров топ-500 вырастет минимум в 2,5 раза и составит около 2,5 гигаватта. А если добавить сюда дата-центры для обучения нейросетей (GPT-5, Claude, Gemini), то счет пойдет на десятки гигаватт.
Именно поэтому Google, Microsoft и Amazon в 2024-2025 годах вложили миллиарды в строительство мини-АЭС рядом со своими дата-центрами. Мини – это громко сказано, поскольку каждая такая станция выдает до 300 мегаватт. Для сравнения: крупная ТЭЦ в российском городе-миллионнике выдает 400-600 МВт.
Но есть и хорошие новости по энергопотреблению[5]. Немецкий JEDI, который занял первое место в рейтинге Green500 (самые энергоэффективные системы), выдает 72,7 гигафлопса на каждый ватт энергии. Это означает, что он в 81 раз эффективнее суперкомпьютеров 2010 года. Система работает на ARM-чипах NVIDIA GH200 Grace Hopper (процессор и GPU на одном кристалле), потребляет всего 67 киловатт и выдает 4,5 петафлопса. Для сравнения: старый Summit от IBM потреблял 13 мегаватт для 148 петафлопсов, то есть в 194 раза больше энергии на единицу производительности.
Почему это важно? Потому что в ближайшие 5 лет мы увидим взрывной рост ИИ-вычислений. Обучение одной модели класса GPT-5 требует мощности около 500 мегаватт в течение 3-6 месяцев. Это 1000-2000 гигаватт-часов электричества, или $200-400 миллионов только на электроэнергию. И таких моделей компании обучают десятками в год[6].
Если не решить проблему энергоэффективности, то к 2030 году на ИИ будет уходить столько же электричества, сколько потребляют целые страны. По оценкам, глобальное энергопотребление ИИ-инфраструктуры вырастет с 8-12 тераватт-часов в 2025 году до 30-50 тераватт-часов к 2030 году. Это больше, чем потребляет вся Швеция.
GPT-5 против GigaChat: война параметров
Теперь самое интересное: как суперкомпьютеры связаны с ChatGPT и почему ваш любимый ИИ-ассистент не может существовать без экзафлопсных монстров?
7 августа 2025 года OpenAI выпустила GPT-5. Модель содержит, по оценкам экспертов, 10-15 триллионов параметров. Для сравнения: GPT-1 в далеком 2018 году имела скромные 117 миллионов параметров. Рост в 128 000 раз за 7 лет. Это как если бы ваш смартфон за 7 лет стал мощнее космического корабля.
GPT-5 может обрабатывать контекст до 1 миллиона токенов (это примерно 750 000 слов, или 10 романов «Война и мир» одновременно), работает с текстом, голосом, изображениями и видео, решает математические задачи на уровне PhD и галлюцинирует менее чем в 5% случаев против 30% у GPT-3. Очень хорошо помню, как радовался, получив от GPT-3 список из 10 книг по общественному здоровью для глубокого погружения в тему. Оказалось, что в реальности не существовало ни одной.
А теперь российская реальность. Наши лучшие модели:
YandexGPT 5 Pro: 200-300 миллиардов параметров, контекст 32 000 токенов. Обучалась на 15 триллионах токенов (огромный объем!), но сама модель в 50-75 раз меньше GPT-5 по параметрам.
GigaChat: 70-100 миллиардов параметров, но зато рекордный контекст – по разным источникам от 32 000 до 262 000 токенов (возможно, больше, чем у GPT-4!). По бенчмарку MERA (тесты на понимание русского языка) опережает GPT-4o на 40%.
ruGPT-3 Large: всего 13 миллиардов параметров, но отлично справляется с стилизацией под классических русских авторов. Парадокс: российские модели меньше, но часто точнее работают с русским языком.
YandexGPT 5 и GigaChat обрабатывают запросы на русском на 40% лучше, чем ChatGPT, и стоят в 3-5 раз дешевле. Причина простая: они обучались на русскоязычном интернете, понимают культурный контекст, знают отсылки к Пелевину и Стругацким, не путают Крым и Крым (в смысле полуостров и вино).
Но вот незадача: чтобы обучить модель на 15 триллионов параметров, нужен суперкомпьютер класса экзафлопс. GPT-5 тренировали на кластере из десятков тысяч NVIDIA H100, общей мощностью около 500 мегаватт. Российские компании таких мощностей попросту не имеют. Наши дата-центры в 2025 году выдают суммарно 800-1000 мегаватт, но это на ВСЕ задачи (облака, хостинг, стриминг, банки), а не только на обучение ИИ.
К 2030 году Россия планирует нарастить мощности до 2,5+ гигаватт, но США и Китай к тому времени будут иметь десятки гигаватт только на ИИ-инфраструктуру. Отставание очевидно.
Текущий личный вывод: поговорить про Пелевина лучше с YandexGPT или GigaChat, работать несопоставимо эффективнее с западным Искином (так искусственный интеллект называли в советской фантастике).
Россия: от грустного к реалистичному
Вернемся к началу. У России в топ-500 всего 6 систем. Самая мощная – Chervonenkis от «Яндекса», её реальная производительность составляет около 21 петафлопса. Это в 80 раз слабее, чем El Capitan.
Большинство экспертов скажут, что причины понятны: санкции запрещают продажу нам NVIDIA H100, AMD MI300, Intel GPU Max. Но дело совершенно в другом – в России нет не только стратегии доминирования в сфере суперкомпьютеров, но нет даже стратегии развития этой сферы, а развитие в России со времен Петра I идёт от документа. Ещё, по мнению лиц, влияющих на принятие решений, вычислительных мощностей в России избыток, а рассматриваемая тема, в отличие от США, не является вопросом национальной безопасности.
Россия может пойти китайским путем: не участвовать в гонке за экзафлопсами в рейтинге, а строить специализированные системы под конкретные задачи. Например:
- Климатическое моделирование Арктики – критично для Северного морского пути).
- Моделирование гиперзвуковых летательных аппаратов (тут, кстати, у нас всё совсем неплохо, но это секрет).
- Разработка материалов для новых ядерных реакторов ВВЭР-1200 и БРЕСТ-300 (и тут тоже).
- Квантовая химия для разработки лекарств – импортозамещение фармацевтики.
Можно ли это сделать на системах в 200-500 петафлопсов вместо экзафлопсных монстров? Да, если оптимизировать алгоритмы и использовать domain-specific ускорители (заточенные под конкретный класс задач, как китайские Matrix 2000 для ИИ) или отечественные ПЛИС-разработки, когда архитектура оптимизируется под задачу.
Еще один путь – квантовые и фотонные вычисления. Россия имеет сильные школы в квантовой физике и математике. Если продолжить делать ставку подобные компьютеры и гибридные квантово-классические системы, можно частично обойти отставание в классических суперкомпьютерах, но необходимо сочетание, а не ожидание.
Но самое главное – развитие спроса, для чего необходимо воспитывать квалифицированного заказчика, то есть наращивать понимание, что можно делать с суперкомпьютерами в науке, бизнесе, госуправлении, как это делают в других странах. За кадром оставлю вопрос целесообразности создания одного «волшебного» суперкомпьютерного центра в условиях предметного обсуждения поставок ракет Tomahawk для обстрела России[7]. Это тема отдельной статьи.
Что дальше: прогноз на ноябрь 2025 и за его пределы
В ноябре 2025 года выйдет новый рейтинг топ-500. Что мы увидим?
Во-первых, минимум 2-3 новые системы в TOP-10. США запускает Lux (Oak Ridge, >1,5 экзафлопса), частично может заработать Solstice (Argonne, 100 000 NVIDIA Blackwell GPU, ~2,2 экзафлопса). Европа добавит несколько ИИ-фабрик в рамках программы EuroHPC (€20+ миллиардов инвестиций). Тайвань покажет систему NVIDIA-Foxconn-TSMC на 10 000 Blackwell GPU (500-800 петафлопсов).
Во-вторых, Китай не покажет свои новые системы. Tianhe-3 и Sunway OceanLight, скорее всего, уже апгрейдили до 2+ экзафлопсов, но мы об этом узнаем только из косвенных научных публикаций.
В-третьих, количество экзафлопсных систем вырастет с 3 до 5-6. А к 2027-2028 годам появятся первые системы зеттамасштаба (1000 экзафлопс = 1 зеттафлопс). Япония уже анонсировала FugakuNEXT с целевой мощностью 600 экзафлопс на операциях с плавающей запятой формата FP8 для ИИ-задач к 2030 году[8].
Эпилог: киловатты, параметры и будущее человечества
Завершу любопытным фактом. В 2024 году El Capitan стал первой системой, которая вошла в топ-3 суперкомпьютеров мира одновременно по трем бенчмаркам: HPL (классическая производительность), HPL-MxP (ИИ-задачи) и HPCG (реальные научные задачи с интенсивным доступом к памяти). Это как если бы спортсмен одновременно выиграл марафон, спринт и тяжелую атлетику. До этого системы оптимизировались под один тип задач.
И еще одним: немецкий JUPITER, работающий на 100% зеленой энергии, использует отработанное тепло для обогрева зданий исследовательского центра в Юлихе. В год экономится около 15 гигаватт-часов тепловой энергии. Будущее не только в том, чтобы строить все более мощные системы, а и в том, чтобы научиться использовать их эффективнее. Это путь Евросоюза с их отсутствием современного производства чипов и созданием ИИ-фабрик. Нам бы так же работать с БРИКС+.
Суперкомпьютеры давно перестали быть игрушками для ученых. Сегодня это геополитическое оружие, инструмент технологического суверенитета, национальной безопасности и основа для ИИ-революции. Рейтинг топ-500 – это красивая картинка для публики, а реальная гонка происходит в засекреченных дата-центрах. В России тоже есть «тёмная материя» вычислительных мощностей. Доступна ли она гражданским учёным и бизнесу – вопрос оставлю за рамками этой статьи. Приведу только один пример: одна и та же задача на «средненьком» штатовском суперкомпьютере будет решаться сутки, а на мощнейшем российском научном компьютере списка топ-500, «Ломоносов-2» – три месяца.
И пока мы за редким, хотя временами и метким, исключением спорим, чей чат-бот лучше распознаёт голос или пишет рефераты, эти монстры моделируют термоядерные реакторы и космические двигатели, разрабатывают лекарства от рака и обучают ИИ-системы, которые уже пишут код лучше многих программистов. Нам необходимо срочно менять и подходы к образованию: не обсуждать, оглупляет ли ученика использование ИИ, а учить думать, усиливая себя взаимодействием с Искином, – хоть в программировании, хоть в науке.
И добро пожаловать в эпоху, когда киловатты важнее мегагерц, а количество параметров в нейросети определяет судьбу наций.
Источники: TOP500.org, Green500, HPCwire, The Next Platform, пресс-релизы DOE, EuroHPC JU, RIKEN, публикации OpenAI, Сбера, Яндекса, аналитика Epoch AI.
Таблица 1. Энергопотребление
| Год | Типичное потребление TOP-1 (МВт) | Типичное потребление TOP-500 суммарное (ГВт) | Примеры |
|---|---|---|---|
| 2010 | 7 | 0,15 | Tianhe-1A (4.04 PF) - 4.04 МВт |
| 2015 | 9 | 0,28 | Tianhe-2 (33.86 PF) - 17.8 МВт |
| 2020 | 13 | 0,55 | Fugaku (442 PF) - 28.3 МВт |
| 2023 | 21,5 | 0,85 | Frontier (1206 PF) - 21.1 МВт |
| 2024 | 29,9 | 1,1 | El Capitan (1742 PF) - 29.9 МВт |
| 2025 | 30 | 1,25 | JUPITER (793 PF) - ~18 МВт |
| 2030 | 50 | 2,5 | Прогноз зеттафлопс систем - 40-60 МВт |
Таблица 2. Параметры LLM
| Модель | Параметров | Контекст токенов | Страна |
|---|---|---|---|
| GPT-1 (2018) | 117 млн | 512 | США |
| GPT-2 (2019) | 1.5 млрд | 1024 | США |
| GPT-3 (2020) | 175 млрд | 4096 | США |
| GPT-4 (2023) | 1.76 трлн (оценка) | 128 000 | США |
| GPT-5 (2025) | ~10-15 трлн (оценка) | 1 000 000+ | США |
| YandexGPT 4 Pro | ~100 млрд (оценка) | 8 000 | Россия |
| YandexGPT 5 Pro (2025) | ~200-300 млрд (оценка) | 32 000 | Россия |
| GigaChat (2024-2025) | ~70-100 млрд (оценка) | 32 000 (262 000) | Россия |
| ruGPT-3 Large | 13 млрд | 2048 | Россия |
Примечания
- ↑ Список топ-500, июнь 2025 года
- ↑ Китайский суперкомпьютер, используемый американскими исследователями, угрожает безопасности США
- ↑ Правительство США запретило Intel продавать процессоры в Китай: Америка боится ядерной программы КНР
- ↑ Китай, возможно, обладает непревзойденными возможностями в области суперкомпьютеров. Третья машина экзафлопсного класса, судя по всему, уже запущена
- ↑ Как современные суперкомпьютеры на базе NVIDIA расширяют границы скорости и науки
- ↑ Почему все говорят о GPT-5? Волна ИИ и автоматизации, которая переворачивает бизнес с ног на голову!
- ↑ На Украине заявили о «позитивных» переговорах с США о покупке Tomahawk
- ↑ RIKEN launches international initiative with Fujitsu and NVIDIA for "FugakuNEXT" development








