Вышел список июньский список супер компьютеров Топ-500.
И там большая новость наконец побита планка державшиеся китайским Tianhe-2 уже три года. Появился новый рекордсмен имеющий производительность в 93 петафлопов против 34 у Tiahne-2 а производительность на ватт подскочила с 1.9 гигафлопов до 6.0 а это уже практически вплотную подошло к рекорду из отдельного списка Green-500 (7 гигфлопов/ватт), уже само по себе это очень интересно.
Но это самое начало, чем дальше тем более интригующе, новый рекордсмен он во первых тоже китаец зовут его Sunway TaihuLight а во вторых он построен на оригинальных китайских чипах.
О чипах пока известно очень мало пишут, что это последние поколение линейки ShenWei, SW26010 имеет 260 ядер и производительность в 3 терафлопа, цифры производительности сравнимы с новейшим запрещённым год назад к экспорту в Китай чипом от Интела, Xeon Phi Knights Landing.
http://www.top500.org/news/china-tops-supercomputer-rankings-with-new-93-petaflop-machine/
Комментарии
А какую стратегическую задачу решают эти молотилки?
Атомная бомба в СССР предотвратила атомную бомбардировку этого самого СССР со стороны американцев.
Они много чего решают... Моделирование, расчеты, и прочее. Мощный суперкомпьютер - очень нужная штука.
Вот с Бомбой как-то конкретно было: либо ты ее сделаешь, либо тебя разбомбят.
А тут "Они много чего решают...", т.е. вещь в хозяйстве, понятно, полезная, но в чем "стратегичность"?
Я еще понимаю квантовые компьютеры - коды ломают, которыми сейчас пользуются (Бомба сломала атомную монополию США), а суперкомп что "ломает".
Я хотел написать своими словами, но потом передумал, поскольку есть крайне точные формулировки и объяснения:
И далее
http://smb.ixbt.com/__buggypage/
Это очень нужная вещь. Условно её вполне можно сравнить и с наличием атомной бомбы.
Я понял, что нужная, но не понял, где тот качественный барьер, как с атомной бомбой: "разбомбят-не разбомбят".
Сейчас я наблюдаю некую "олимпиаду": быстрее-выше-сильнее, без очевидных ориентиров. Мне все это представляется на уровне религиозной веры, без четких обоснований, подтвержденных расчетом.
Как я понимаю, наши тоже что-то там клепают. Только рекордов нет или не звонят про них. Кстати, про атомное оружие не особо звонили.
Еще как звонили. Хрущев с "Кузькиной матерью" на весь мир гремел.
А по поводу полезности - я работал в этой сфере, не прямо конечно, но количество выстраивавшихся в очередь на машино-часы - было огромным. Для решения ряда задач, которые описываются в цитатах выше - это реально незаменимая вещь. Отсутствие достаточно мощных вычислительных систем сильно затормозит ряд разработок.
Наши ничего особенного не клепали. У нас есть некоторые СК, но не сказать, что они очень мощные, по крайней мере на данный момент. Возможно будут делать что-то на Эльбрусах, этого я точно не знаю.
Там результат очевидный - оплавленный полигон, есть что показать.
И при чем тут рекордные мощности? Клепай существующий уровень и удовлетворяй потребности.
При том, что задачи усложняются: более эффективные решения требуют более мощных вычислений. Вы выше не читали цитату? Скорость тут действительно важна. Кто может быстрее и качественнее проектировать и моделировать, то раньше получит перевес в конкуренции и технологии.
Вы так и не раскрыли тему, почему владение супер-пупур компом является стратегическим преимуществом для страны.
Десяток компов более слабых разве не способны решать аналогичные задачи?
нет
Девять женщин не родят ребёнка за 1 месяц.
Почему? Разве нельзя параллелить задачи?
Потому, что упираетесь в технические ограничения обмена между потоками. Скорость света конечна.
Мне кажется, что если направить ресурсы на решение озвученной вами проблемы, то не надо будет строить все более и более мощные процессоры. В перспективе можно объединять бесконечное количество процессоров. И этим путем идут, ибо невозможно бесконечно повышать производительность одного камня.
Вам кажется.
В перспективе можно будет слетать на Плутон кофе попить. Но прежде нужно как то добраться до Марса и до Луны хотя бы.
Суперкомпьютеры это не один камень. А цифроперемалывающий завод.
Суперкомпьютер уже давно являет собой технологию объединения нескольких камней. С середины 60-х где-то. Именно технологии объединения и называют суперкомпьютером. А камни там могут быть и стандартные.
Есть задачи с большим объёмом данных. Та же метеорология или моделирование физических процессов - сумасшедшие потоки данных - которые надо крайне быстро гонять между вычислительными узлами. Задачи, которые хорошо распараллеливаются и не требуют высоких нагрузок на связь между узлами тоже есть.
Но, например, нахождение узлов в недоверенных расположениях как минимум требуют двукратной перепроверки результатов, полученных от узлов. И отчасти поэтому решают задачи существенно медленнее чем суперкомпьютер даже половинной мощности от суммы распределённых :)
Как то по приметам определять будущую погоду надежнее чем по метеопрогнозам.
наука не фокусник, который достает зайцев из шляпы.
Супер-пупер компьютер тоже решает задачи у себя в мозгах параллельно...) и да, Вы правы скорость света конечна! )
Нужен рост производительности на ватт, а то что вы предлагаете это линейное увлечение производительности без увлечение производительности на ватт, это не возможно масштабировать если нужен компютер в 1000 раз мощнее чем сегодняшний супер компьютер то через линейное масштабирование он потребует вместо 18 мегават 18000 мегаватт или 18 больших атомных реакторов. А увлечение в 1000 раз происходило с 70х раз 5 уже.
Хорошо. Тогда поясните, зачем увеличение производительности, привязанное к энергии?
Ведь если решается стратегическая цивилизационная задача, то понятие себестоимости отходит на второй план.
Раз такого нет, то я делаю вывод, что суперкомпьютеры не решают вышеописанных задач.
Это откуда такие выводы? Ресурсы ограничены - Вы не можете отдать все ресурсы на создание чего то одного и при этом полностью забить на другие вещи. Условно делать только подводные лодки и не делать танки или хлеб. Эффективное распределение ограниченных ресурсов это самая важная задача общества.
Как раз вот откуда вы взяли, что выделятся ВСЕ ресурсы.
>>>Вы не можете отдать все ресурсы на создание чего то одного
В масштабах страны, занимающейся решением стратегической задачи ресурсы на решение этой задачи выделяются априори.
Либо задача не решается.
Так Вы же написали, что себестоимость не важна:
А себестоимость это и есть затраченный ресурс. Это первейшая и наиважнейшая задача. Потому и танк Т-34 танк победы, а не тигр.
Вы кислое с пресным не путайте. Я сказал, что не важна себестоимость. о каким боком это говорит о требовании ВСЕХ ресурсов? Логика, мягко говоря, хромает.
Себестоимость важна. Очень важна. Сколько стоит ракета\самолёт (условно в рублях, на самом деле в затраченных ресурсах) зависит результат. Чудес не бывает. И какой то супер дубины, которой можно раз и навсегда решить все вопросы у России нет.
Вы опять путаете стоимость получения прототипа и стоимость серийного производства.
К примеру сравните затраченные ресурсы на строительство первой атомной станции ресурс на ватт, и современные. Небо и земля.
Мы тут как раз и говорим о том, что стратегические задачи ставят перед нами требования по стратегическому расходу ресурсов. Иначе ни как. И вот тут вы правы: чудес не бывает.
И ещё добавлю, что дело не только потребляемой мощности.
А дело в том, решение задачи требует обмена между потоками. И одному потоку нужно ждать результатов вычислений другого потока. Так вот при линейном увеличении количества потоков (1000, например) конечная система будет решать задачу медленнее, чем в 2 или 4 потока. Система будет пожирать ресурсы, но тратить их на ожидание.
Трактор тянет - 10 тонн, два последовательно - 20 тонн. Но 1000 тракторов не потянут 10 000 тонн - будут тянуть вразнобой и канат не выдержит.
Вот это объяснение - совсем другое дело. Так понятно и логично.
Основная проблема - квалифицированно разделить одну задачу на составляющие для параллельного ее решения.
Именно для этого нужен ИИ.
Не нужен тут никакой "ИИ" (а что это за термин, кроме маркетинга мерчандайзинга?).
Задача автоматического распараллеливания, в общем смысле, является довольно примитивной оптимизационной задачей линейного программирования. "Заморочки" в этой задаче определенные есть, связанные в основном с неопределенностью входящих данных (параметрическая длина циклов, длина циклов вычисляемая по ходу исполнения, временные профили компилятора, профилировка команд процессоров, и пр.). При аккуратном техническом решении этих подзадач задача автоматического распараллеливания, в целом, автоматизируется на 90-95% (делали уже).
В сущности, раньше тоже сначала программировали ЭВМ в кодах и на ассемблере, а с разработкой библиотек и компиляторов языков программирования высокого уровня (ЯВУ) - задачи программирования существенно ускорились и автоматизировались. С многопроцессорными системами сейчас примерно такая же ситуация --- [временный] недостаток методов, регламентов и инструментов автоматизации программирования.
Ну, вообще-то, яркий пример отличного распараллеливания процессов - банальная видеокарта.
Сколько там нынче ядер на кристалле?
Tesla M2050 / M2070 GPU, 448 ядер
https://ru.wikipedia.org/wiki/Nvidia_Tesla
Все отлично распераллелено. Поток данных однродный, набор операций стандартен.
Если бы производители софта не ограничивали производительность этого софта ИСКУССТВЕННО, не тормозили бы работу машин специально, а прилично оптимизировали код, то каждый гопник уже имел бы дома суперкомп 10-15 летней давности и обсчитывал бы всякие полеты на марс.
Вы ещё про схемы для майнинга на FPGA вспомните. Они ведь ещё производительнее чем GPU (который, по вашим словам, производительнее CPU). Вот только список решаемых задач ещё более специализирован.
Не все алгоритмы могут быть распараллелены.
> не тормозили бы работу машин специально, а прилично оптимизировали код
А вот ещё 1 плохая мысль. Машины специально не тормозятся.
Разработка ПО стоит денег. Разработка и оптимизация работы ПО на С/С++ стоит суммарно дороже, чем на C#, Java или чём-то скриптовом.
Поэтому такие вещи, как GUI, которые часто и "новомодно" меняются - пишутся "как подешевле". А GUI (и его тормоза) -- это то, что видит конкретный пользователь.
Тут далеко за примером ходить не надо - посмотрите на Unity в новых Ubuntu. Это же мракобесие для человека, который пользовался старым Gnome.
И последнее, небольшое имхо. Не стоит приводить в качестве примера "специального замедления работы" Microsoft с их ОС. Там работают, к сожалению, индусы, которые делают тормозной код не по злому умыслу, а потому что не знают как сделать хорошо. Это имхо, конечно.
// Машины специально не тормозятся... тормозной код не по злому умыслу, а потому что не знают как сделать хорошо... //
- Сие особенно смешно звучит в свете недавних дискуссий про запланированное устаревание товаров и намеренное сокращение сроков их службы производителем и намеренное же ухудшение их характеристик (обычная электролампочка как пример).
Ну вы можете смеяться сколько угодно. Я наверное не правильно сформулировал мысль и зря упомянул MS
Я поверю что техника Apple в связке с софтом "устаревает" (обычно после 2ого major обновления), я бы поверил, что гугл может намеренно вносить некачественный код в ядро своей ОС. Хотя и там и там, скорее всего, отсутствие оптимизации связано в большей мере с тем, что выкатить новую версию OS нужно "вон к той выставке через месяц".
Но я не верю в Microsoft. Это настолько шарашка (в плохом смысле) для своих размеров, что волосы дыбом встают. Для их ОС скорее характерны ошибки вида такой.
Это как в фигурном катании - новичок катается как новичок. Нет вопросов. Хороший фигурист сможет изобразить "ошибки новичка" достаточно достоверно. Но средненький фигурист достоверно и намеренно ошибиться не сможет.
PS Ещё раз, суммируя. Я больше верю в "софт сделан криво, но быстро", чем в "код написан намеренно устаревающим".
Ядра GPU на Tesla - это "инструмент" для распараллеливания, а "распараллеливают" - алгоритмы + потоки данных. И линейно распараллеливается лишь небольшой класс довольно "примитивных" алгоритмов. К большому сожалению
Самые "значимые" модели физических процессов - нелинейные. Например, поведение плазмы в Токамаках, МГД-генераторах, камерах сгорания, соплах, ... также, практическое большинство практических моделей аэро- и гидродинамики. Подавляющее большинство этих классов моделей (~98%) описываются "плохо распараллеливаемыми" алгоритмами. И линейная добавка процессорных ядер - не поможет, после достижения некоторого предела "насыщения", определяемого и физическими скоростями передачи данных между процессорными ядрами и имманентными особенностями зависимостей по данным используемых алгоритмов.
Увы, это нелицеприятная реальность с которой приходится иметь дела ... По самым "оптимистичным" оценкам необходимая "грануллированности" распараллеливания физических моделей начинается, примерно, с 10**9 йоттафлоп и 10**19 байт/см**3.
Еще одно "увы" - на нынешней ("кремниевой") элементной базе достичь такой плотности сигнальной обработки ("вычислений") --- не получится. Нужно будет менять типы и частоту ЭМВ. Т.е., необходимо переходить с "плоских", "максвелловских" ЭМВ на "фотонные" потоки (т.н. - "оптроника", вместо "электроники").
Где-то так ...
Ну это уже детали, неспециалиста они только запутают, даже если допустить идеальное распареливание без повышения производительности рост производительности упрётся в потребление энергии.
Да, на существующих "кремниевых" технологиях чипов по энергопотреблению уже вышли к потолку. Вот тут "технарь" из российского отделения IBM приводит интересные данные по энергопотреблению ИТ-отрасли в целом (с ~ 13:30)
P.S. Нужно бы уже давно менять аппаратную основу производства сигнально-вычислительных чипов на оптронные технологии, а там ещё и НИОКРы не валялись. Кстати, хорошая тема для "ассиметричного" ответа в технологиях
Лекция от Эйсымонта на ВМК о состоянии СК в России (~двухлетней давности).
Ознакомьтесь с одним из валяний НИОКР! Смотреть с 1.40.
Трактор тянет - 10 тонн, два последовательно - 20 тонн.
ОЧЕНЬ серьезная ошибка, в реальности 2 последовательно коэффициент на каждый трактор 0,9 , при 3х 0,8, при 5 коэффициент падает ниже 50%, более подробно у Перельмана, что Яков Иссидорович в занимательной физике.
Вы просто плохо масштабы представляете. Самый быстрый компьютер в 1985 имел производительность 1.9 гигафлоп и 0.2 мегаватта потребления энергии. Сегодняшний китайский компьютер имеет производительность 90,000,000 гигафлопс и 15 мегаватт. Линейное увеличение компа с 1985 потребует 9,473,684 мегаватт то есть примерно 10 миллионов атомных реакторов.
В 2010 году средненький домашний комп на и5-760 на частоте 3,35Ггц имеет прозводительность 46Гфлоп и при максимальной нагрузке потребляет 200Вт лектричества. Как 3 лампочки.
ПРОГРЕСС !
потому что технические проблемы с охлаждением. ядра. чем меньше мозности тепловой выделается на ват, тем больше можно перемолоть.
Cейчас в мире процессоров рынок занят Intel и AMD , а теперь придется подвинутся и очень серьезно подвинется, ибо китаезы предложили миру более производительные процессоры и при этом гораздо дешевле (ибо китайскому рабочему до сих платят много раз меньше чем американскому).
Другой моммент - еще один показатальный факт к чему приводят амперовские санкции - амеры нагадили только себе, ибо китайсуий рынок (а это миллиард потребителей) процессоров для компов они потеряют.
Это для настольных. Для суперов и мейнфреймов картина чуть иная. Всего лишь 90%.
Процессор для суперов? Миру? Куда, по Вашему мнению, будет устанавливаться этот процессор в мире?
В медицинском оборудовании вовсю используют "кирпичики" от суперкомпьютеров. Рентгеновская томография, МРТ, даже ультразвуковая реконструкция 3D, требуют производительности, много выше, чем у отдельных камней. Кроме того, срок службы серьезного оборудования много больше, чем игрового компа, вследствие чего есть проблема обеспечения запчастями. Сейчас нет возможности найти новый камень для игровой видеокарты возрастом свыше 5 лет. А для промышленных плат и 80386 продолжают выпускаться.
Кстати, такими "кирпичиками" являются современные видеокарты. Те же nVidia, используя технологию Cuda, можно задействовать для параллельных вычислений. На нескольких топовых видеокартах можно построить вполне себе высокопроизводительный кластер. И ПО для таких целей существует.
Суперкомпьютер - это немножко больше, чем процессор. Это еще и память и системы обмена данными между процессорами и процессор-память. Это еще и средства синхронизации-распараллеливания. Это много чего, короче.
Смысла особого в этих суперкомпьютерах нету, ну чуть медленнее посчитает более медленный суперкомпьютер. От этого ну абсолютно ничего не изменится. Задач таких нету где нужна скорость обсчета в реальном времени. А если нет задач то и значение этого суперкомпьютера только пиарное.
ага, посчитает... через 5 лет, когда уже не надо.
или не подсчитает. потому что памяти, например не хватит.
Страницы