В Аргоннской национальной лаборатории официально запущен суперкомпьютер Aurora — одна из немногих систем в мире с производительностью свыше 1 экзафлопса, то есть более квинтиллиона операций в секунду. Построенная компаниями Intel и HPE на базе архитектуры HPE Cray EX, система оснащена 63 744 графическими ускорителями и занимает площадь двух баскетбольных площадок. Суперкомпьютер доступен для исследовательских целей с начала года и уже используется для моделирования аэродинамики, разработки новых методов лечения рака, прогнозирования мутаций вирусов и исследований в области термоядерного синтеза и квантовых технологий.
Aurora входит в тройку суперкомпьютеров Министерства энергетики США производительностью более 1 Эфлопс вместе с El Capitan из Ливерморской национальной лаборатории имени Лоуренса и Frontier из Национальной лаборатории Оук-Ридж. Все три системы занимают первые места в рейтинге TOP500 самых быстрых суперкомпьютеров мира и лидируют в бенчмарке HPL-MxP, оценивающем производительность для задач искусственного интеллекта.
Суперкомпьютер построен на платформе HPE Cray EX–Intel Exascale Compute Blade и оснащён 64‑ядерными процессорами Intel Xeon CPU Max и графическими ускорителями Intel Data Center GPU Max. Для высокоскоростной связи между компонентами используется интерконнект HPE Slingshot. В общей сложности в системе задействованы 63 744 графических процессоров, что делает Aurora одной из крупнейших GPU-архитектур в мире.
Суперкомпьютер работает под управлением ОС SUSE Linux Enterprise Server 15 SP4. Его производительность в тесте Linpack достигает 1,012 Эфлопс, а теоретический пиковый показатель — 1,980 Эфлопс.
Aurora размещена в Argonne Leadership Computing Facility — центре Управления науки Министерства энергетики США, доступном для исследователей. Комплекс занимает площадь около 930 м² и оснащен системой жидкостного охлаждения. Общая длина сетевых кабелей превышает 480 км, а количество конечных точек сети достигает 85 тыс.
Проект был анонсирован в 2015 году с планом достичь 180 петафлопс в режиме FP64 к 2018 году, однако сроки и технические решения несколько раз корректировались. Первые тестовые кластеры начали работу более двух лет назад, а частично развернутый суперкомпьютер вошёл в список TOP500 в конце 2023 года. Полноценный запуск состоялся в 2024 году.
Aurora уже помогает в решении сложных научных задач. В области биологии и медицины суперкомпьютер помогает прогнозировать эволюцию вирусов, улучшать методы лечения рака и картировать нейронные связи мозга. В аэрокосмической отрасли система моделирует обтекание летательных аппаратов и разрабатывает двигательные установки нового поколения. Кроме того, Aurora играет ключевую роль в исследованиях термоядерного синтеза, квантовых вычислений и материаловедения, объединяя масштабные вычисления с искусственным интеллектом для ускорения научных открытий.
Для США запуск Aurora — стратегическое достижение, укрепляющее лидерство в области вычислительных технологий и ИИ. Министр энергетики США Крис Райт подчеркнул, что такие проекты дают стране решающее преимущество в научных исследованиях и национальной безопасности.
Комментарии
Судя по объявленным направлениям, работает на данный момент исключительно для решения военных задач. Вирусы, гиперзвук и непосредственное управление дронами "силой мысли".
Только так выбился из списка, но там, видимо, огромные деньги на кону́.
Основное назначение - распил и пыль в глаза для продолжение распила, то есть тоже распил. Спроситеч зачем нужны эти флопсы, в ответ промычат что-то неопределённое про квантовые вычисления. Просите про квантовые вычисления - ответят про замену экзофлопсов. Сказка голый король в развитии.
Зависит от того, кого спросите. Кто умеет в эти штучки, флопсы уважает.
Моделирование сложных молекул. Туда сколько флопсов не дай - всё мало будет.
Ну все, теперь можно и на марс
сниматьлететь.Ничего непонятно. Пишут хню какую-то. Сколько это в орешниках?
Если это GPU, то можно в сиськах/секунду
. Если в системе СИ есть, по идее пересчёт возможен.
Мы же не варвары, понимаем кой-чего в международных-то системах, чай не просто площадь на терафлопсы перемножать будем.
Да хоть в попугаях... - патриотом же ж прикрыто...
Это о чём говорит? Только о хорошем. Нету у пиндосов алармистской чуйки. И через 50 Трамповских дней... Вот и поляков отозвали, хоть поживут мальца.
ну всё, можно наконец в будущую ГТА 6 на 8к мониторах погонять
в 240 Гц
Так они же все видюхи потратили. Нам теперь эта ГТА6 очень дорого встанет
А где же нвидиа?
не хватило, вот и интел ускорители и поставили, не от хорошей жизни видимо
ржу, не могу.
нашие "узкоглазые" партнеры уже! под любое вычисление делают чип, см. биткоин.
и выпускают хоть миллион хоть миллиард.
техническое задание в китай привезите и деньги, вам генетический код развернут до н.э. в вашей ветви предков
Штука конечно мощная, но принципиального преимущества не дает. Данные аппараты предназначены для моделирования процессов. Чем мощнее, тем больше переменных можно учитывать. Но есть одно "НО". Если какие либо процессы не достаточно изучены, или в заложены неверные\ошибочные данные, или нет понимания что это и с чем его едят, то соответственно вся эта моща даст нулевой выхлоп. Так шта, гордится то могут, а вот КПД зависит уже от ставящих задачу.
грамотное ТЗ, пол дела. сдлано.выхлоп - не всегда деньги, материальное производство, зоть убыточное - выхлоп, имхо
Пишите проще, виноград зелен.
Настоящие суперкомпьютеры это дата-центры it гигантов. Инфраструктура даже Яндекса, не говоря о гугле как слон на лягушек смотрит на официальные суперкомпьютеры.
Пиар всё это.
суперкомпьютеры - сказка для домохозяек. есть "системы, которые создаются под задачи"
в зависимости от задачи, система работает -))
есть "государевы" задачи, это про то "кто даст правильный ответ, тот получит 10 лет"
как я писал чуть ниже, они просто сделали "публичное" большое место для большой тусовки алгоритмов и сервисов. Все эти тысячи ядер это общая мощность, которую пилят через виртуализацию по 100-200-1000 ядер под конкретные проекты пользователей, не больше, ни меньше. вот через год будет интересно посмотреть статистику загруженности этого суперкомпа, сколько мощностей арендовалось в разрезе по месяцам, а так он может просто весь год простаивать, выделяя тепло киловаттами и жужжа вентиляторами.
Для США запуск Aurora — стратегическое достижение, укрепляющее лидерство в области вычислительных технологий и ИИ. Министр энергетики США Крис Райт подчеркнул, что такие проекты дают стране решающее преимущество в научных исследованиях
Ну да. Что-то типа 3-метрового члена - вроде решающее преимущество, но…
По факту, если в аналогии, в статье написано, что открыли для посещения огромнейший стадион, на котором может находиться одновременно 1 экзафлопса посетителей. И все. Этот огромный стадион просто полянка, на которую будут пускать считать свои модельки пентагон и остальных (у кого есть деньги). Это никак не приближает к решению задачи термояда или гиперзвука, современные модели ИИ, такие как GigaChat используют миллиарды параметров в своих моделях. Ну выделят вычислительных мощностей на десяток миллиардов параметров под гипперзвук или еще чего. Разве поможет? Нет. Мое мнение, обучение модели это как искать детской лопаткой самородки золота (коих всего 10 штук) на тысячах гектар + километр вниз. Везет не всем, практически никому, аренда мощностей стоит дорого. И у меня есть вопрос, а почему суперкомп построили на на мощностях nvidia? Они же сейчас в топе по специализированным ИИ-процессорам? И буквально неделю назад была статья, в которой Интел признавался, что отстал от nvidia и вряд ли уже догонит - попил чудится мне
Потому что это очень старый проект - более чем 10-летней давности. Когда нвидиа еще не была столь крута, а Интел уже подрядили на разработку и проектирование. Если бы взялись перепроектировать под нвидиа - построили бы еще лет через 10 или больше. Это если бы нвидиа в проект еще затянули.
С их вводными скорее взяли бы Radeon Instinct MI300X. )
Не совсем так. Intel-то раз вел проект с самого начала, то и контролировал его ход и изменения - соответственно, смог сориентироваться на свои GPU. С чего бы ему начать переделывать на nVidia, в том числе в ущерб самому себе? )))
HPE просто после Aurora перешел с Intel на AMD Radion с x2 вычислятором. Те если из коробки они хотели opencl то Radion MI логичен. Ну если разговор не про попил или поддержку производителя Intel.
UPD HPE Aurora так-то это 21 год .
Ну интерлинки 200гигов такое себе. Те кондовый бюджетный кластер с госучастием. )
Перспективный чат детектед! Сим повелеваю - внести запись в реестр самых обсуждаемых за последние 4 часа.
Сколько кушает?
+- 50-60 МВт·ч
Товарищи:
Эта штука, наверное, потребляет много энергии и «деликатна».
Для некоторых процедур достаточно просто координат.
SLES 15 SP4 умиляет... насколько я помню, ОС для суперкомпьютеров должны быть специализированными.
С учётом специфики масштабирования... Возьмём, например, старую добрую NSK Guardian 90 - не совсем, конечно, суперкомпьютер, но проблема масштабирования и распределённых вычислений была решена...
HPE Slingshot + Aurora старенький и кондовый суперкомпьютер. )
Использование Linpack в качестве мерила производительности — корпорация Intel, как всегда, в своём репертуаре. До относительно недавнего времени Intel затачивал свои процессы исключительно под Linpack, практически полностью игнорируя требования заказчиков относительно состава блоков аппаратного ускорения. Откровенно чахлые с точки зрения сырой математической производительности процессоры с логотипом надкушенного яблока показывают выдающиеся результаты в решении прикладных задач именно за счёт наличия специализированных блоков аппаратного ускорения, а вовсе не пресловутой яблочной магии.
Может, майнят по-тихому?