Краха закона Мура ждут чуть ли не столь же фанатично, как краха доллара, и столь же рьяно его отстаивают "технофанаты", дескать, до сих пор жив курилка, вон на 3 нм вышли и останавливаться не собираются! Но и здесь большинство, как с одной, так и с другой стороны, не вполне понимают, как должен выглядеть этот крах. Крах доллара не в том, что он станет продаваться по курсу 1 рубль/$ или 10 копеек/$, а в том, что всем вообще станет плевать на его курс. Подобным образом и крах закона Мура не в том, что не удастся более плотно "утрамбовывать" транзисторы на кристалл, а в том, что выгоды от дополнительных транзисторов становится всё меньше и меньше...
И если посмотреть под этим ракурсом, становятся понятны капризы компьютерной "моды".
Закон масштабирования Деннарда
Закон Мура гласил, что каждые 2 года количество транзисторов, упихиваемых в чип, будет удваиваться. Сначала темп был чуть выше, потом замедлился, сейчас замедлился ещё сильнее, но худо-бедно пока действует. Закон Деннарда известен куда меньше, вот одна из его формулировок: при переходе на следующий техпроцесс (в 1,5 раза меньше "нанометров"), на ту же площадь получится разместить вдвое больше транзисторов, при этом мы можем поднять тактовую частоту на 40% и остаться при том же тепловыделении на единицу площади! Именно это мы наблюдали поначалу: росли тактовые частоты, но также росли возможности процессоров - с 8- и 16-битных переходили на 32-битные и потом на 64-битные, появлялись всё новые и новые команды: плавающая запятая, всевозможные MMX, 3DNow, SSE, AVX и пр. Компьютер, которому исполнилось хотя бы несколько лет, уже казался безнадёжно устаревшим, поскольку новый был по всем параметрам лучше.
Ещё одним признаком, что закон масштабирования Деннарда был "в деле" - уменьшалось напряжение питания ядра. Когда-то КМОП-логика (она же CMOS) работала от 9 или даже 15 вольт (старые добрые серии 176 и 561), потом напряжение опустили до "ТТЛ-ного" 5 вольт, а затем и 3,3, 2,5, 1,8, вплоть до 1,2. Собственно, энергия, теряемая при переключении одного элемента, равна CU2/2, ёмкость C уменьшали с помощью новых техпроцессов, и они же позволяли снизить питающее напряжение, за счёт всё более и более тонкого диэлектрика при затворе. Именно эта закономерность и позволяла закону Деннарда выполняться.
Но увы, именно здесь быстрее всего упёрлись в предел: если истончить диэлектрик ещё сильнее, уже начинается квантовое туннелирование, затворы начинают невообразимо много потреблять, поэтому пришлось выбрать некоторое компромиссное значение - и на нём остановиться. Дальше напряжения уже практически не падали, из-за чего закон Деннарда приказал долго жить.
Конечный компьютер
Станислав Лем в романе "Фиаско" описал "компьютер поколения, называемого конечным, так как оно достигло теоретического предела мощности":
Границы ее определялись свойствами материи, такими, как постоянная Планка и скорость света. <…> Дилемма конструкторов проистекала из обязательных, но взаимопротиворечивых условий: как можно большее число нейронов заключить в как можно меньший объем. Время прохождения сигналов не должно превышать времени реакции элементов компьютера. В противном случае время прохождения ограничивает скорость расчетов. Новейшие датчики реагировали за одну стомиллиардную долю секунды. Они были размером с атом. Поэтому диаметр компьютера не превышал трех сантиметров. Будь он больше — работал бы медленней.
И по крайней мере, для технологии КМОП, по которой сейчас делается почти вся цифровая электроника, такой предел для одного ядра наступил.
Вот у нас был отличный процессор по старому техпроцессу. Появился новый техпроцесс, и мы можем его же упихать на половину кристалла. Пока действовал закон Деннарда, мы могли сохранить тактовую частоту прежней, понизить напряжение, и мощность на единицу площади даже упадёт, т.е отводить тепло становится только проще. Можно ещё и частоту поднять... Но закон приказал долго жить. Теперь можно лишь ожидать: если по новому техпроцессу изготовить старый процессор, то общая потребляемая мощность немного снизится. Мощность на единицу площади скорее возрастёт, и чтобы микросхема не сгорела, придётся тактовую частоту даже снизить! Можно, конечно, не ужиматься в половину кристалла, а разместить более мелкие транзисторы "как прежде", оставив большие расстояния между ними. Тогда тактовую частоту можно будет поднять, и процессор в какой-то степени ускорится, но на удивление немного! Ведь и дорожки между транзисторами нужно непрерывно укорачивать. Если мы самые классные маленькие транзисторы расставим подальше, ёмкость дорожек съест весь выигрыш!
Поэтому пошли по пути многоядерности: пусть вместо одного мощного и очень прожорливого ядра будет несколько более слабых, при этом общая вычислительная мощь увеличится. Пока работал закон Деннарда, многоядерность была не шибко привлекательна: одно ядро, работающее на максимальной частоте, потребляло бы столько же, сколько и два, работающих на половинной, зато его всегда можно было использовать на 100%, и программировать легко. Многоядерность была нужна не потому, что "её жаждали широкие народные массы", а потому что по-другому повышать быстродействие уже не могли, предельное быстродействие одного ядра практически наступило.
Но и увеличивать количество ядер без конца не имеет смысла, как следует из закона Амдала. Он, грубо говоря, утверждает: если в нашей программе есть 10% кода, который распараллелить не получится, то ставить сильно больше 10 ядер нет никакого смысла, скорость работы будет определяться этим "бутылочным горлышком". А таких горлышек довольно-таки много в реальном коде. Взять хотя бы ввод-вывод - здесь потоки будут "наступать друг другу на пятки". Или чисто последовательные процессы, вроде распаковки сжатого файла, где значение следующего бита становится понятно только после декодирования предыдущих.
Вот и наступила "эпоха тёмного кремния".
Новые техпроцессы позволяют запихать на кристалл миллиарды транзисторов, и они достаточно быстродействующие, чтобы работать на единицах, если не десятках гигагерц, но если мы попытаемся задействовать их все на такой частоте, кристалл мгновенно сгорит, и никакое, даже самое навороченное охлаждение ему не поможет! Поэтому львиная доля этих транзисторов должна оказаться "тёмной", т.е переключаться гораздо реже, чем они могли бы.
В общем-то, уже переход на многоядерность был "первым звоночком". Вместе с ним и тактовые частоты, которые "замерли" на 3 ГГц и поползли назад.
Ясно, что эти "лишние" транзисторы постарались пустить в ход, хотя бы как кэш-память. Память хороша в этом плане, она "тёмная": имеем миллионы транзисторов (мегабайты памяти), но в каждый момент времени записываем или читаем буквально несколько слов, остальные "сидят без дела". Но и здесь есть свои лимиты: с какого-то момента добавление кэш-памяти не сильно улучшает быстродействие.
Тема про тёмный кремний была довольно популярна в 2012..2014 году, писали научные и научно-популярные статьи, "4 всадников" перевели чуть ли не на каждый язык. Предлагалось чуть ли не "с нуля" начать проектирование программно-аппаратных систем, исходя из новой постановки задачи, создавать специализированные ядра, каждое под свою задачу, поскольку универсальные процессоры "родились", когда транзисторы приходилось экономить, а теперь транзисторы "бесплатны", денег стоит потребляемая ими мощность (поскольку вместе с ней растёт и размер кристалла), поэтому десяток узкоспециализированных ядер оказывается лучше одного универсального.
Но потом тема как-то взяла и затихла. Поискать dark silicon в том же ютубе - все лекции и материалы будут 10-летней давности. Именно среди научных статей можно найти и более новые, но по пальцем одной руки сосчитать. Похоже, нашёлся более простой путь развития...
Машинное обучение, нейросети, рейтрейсинг
Если произвольную задачу не удаётся распараллелить до конца, а существенно убыстрить одиночное ядро уже не удаётся, то что же делать? Элементарно: придумать такие задачи, которые на обычных процессорах решаются очень печально, но в которых допустимо массивное распараллеливание! И кто бы мог подумать, такие задачи резко нашлись и начали проталкиваться очень агрессивно. С одного конца, это нейросети. В них множество "параллельных ветвей", которые могут вычисляться независимо друг от друга, на разных ядрах, а вычислений нужна тьма тьмущая, особенно во время "обучения" этих сетей.
Со стороны видеокарт придумали рейтрейсинг. Раньше его применяли только для самых качественных рендеров, выполняемых далеко от реального времени. Но в данную канву он ложится идеально: каждый луч можно рассчитывать независимо от остальных, и рассчитать их нужно МНОГО, чтобы из этого получилось что-то красивое. Как будто снова решение подогнали под ответ.
Тайваньские нанометры
Надо сказать, что и транзисторы уменьшаться, по большому счёту, перестали, нельзя им уменьшаться, начинаются нехорошие квантовые эффекты, утечки и неуправляемость. А когда говорят к переходу к новому техпроцессу, заметно лукавят. По сути, совершенствуется методика "упаковки" транзисторов в стеснённых объёмах. Раньше они "лежали плашмя", потом их поставили на попа (бедный Шлаг, подумал Штирлиц), изгаляются, как могут. По сути, новая цифра техпроцесса означает: "мы смогли вместить на ту же площадь вдвое больше транзисторов", вот и всё. Цифра, как говорится, "маркетинговая".
Итоги
В общем-то, оно и невооружённым глазом заметно: сижу за компьютером 14-летней давности, и он нормально работает, жгучего желания бежать в магазин за новым не испытываю. Когда-то и за год-другой компьютеры успевали "морально устареть". Прогресс пока что продолжается, но "процессорам общего назначения" ловить практически нечего. Все преимущества новых техпроцессов проявляются только при выпуске сильно распараллеленных вычислителей, и, вот же совпадение, именно такие вычисления сейчас "на слуху".
Экстенсивное развитие цифровой техники (больше гигагерц, гигабайт, ядер), пожалуй, завершилось, теперь гораздо больше результатов даёт "вылизывание" имеющегося - более удачные архитектуры, а главное, более заточенные под конкретную задачу. Ну и пора отвыкать от 6-7 уровней абстракции между кодом и "железом", это теперь будет куда выгоднее, чем затариваться самым свежим "железом" - совсем недавно всё было наоборот.
Комментарии
спасибо...
автору зачот )
Помнится у профессора Сейсяна была конца 1990-х годов статья которую неофициально он называл на этапе написание "закон Мура - полная мУра" - с полным знанием дела и обоснованно. См. http://www.electrosad.ru/files/nanolitho.zip Там рассказывается для людей хотя бы в техникуме учившихся что такое нанолитография 20 лет давности и как она виделась тогда к 2020 - довольно точно. по уровню. Чуть иммерсией продлили на лет 10-15 агонию, но уже на EUV стоимость крупных фабрик по 400т золотом убивать стала саму полупроводниковую индустрию предельной сложностью техпроцесса. Его точечностью. Рано или поздно распределённая система производства в т.ч. чипов будет. Для роботов - уже без людей.
СССР имел в 1990-,035мкм сканнер-степпер а экспериментальная 0,25 с перспективой 0,2 была. Он же был перавым в мире серийнымс сканнер-степпером во всяком случае с таким разрешением и рядом предельных для того а некоторых и до сих пор технологий. Экспонировался серпиком, который двигался относительно маски и подложки. Даже 584А с кварцевым объективом могла давть в 10х10мм порядка 0,5 спокойно и до 0,35мкм если потянуть в 6х4мм даже при 248нм лазере.Мы планировали - угнали зеленоградцы - 193нм применять и отрабатывать 40нм технологию сложными техниками которые могут только в определённых пределах параметров существовать - базу заложили в ГОИ в 1980-х, а развивали уже в ФТИ. Сверхконтраст и прочее. Я предполагал и прикидочные расчёты показывали возможность (10 экспериментальнов 1996 были получены ширины полос с пределом 7-8 в США на 193нм излучении всего на паре пучков, что многопучковый вариант литографа сможет иметь повторяющиеся паттерны для однородных вычсред например для нейроссетей с оптической связью нейронов порядка 7-8нм разрешения при неровности края 1/70 длины волны. Менее 3нм для 193 и для Ar2 лазера со специфичной накачкой, позднее реализована но не в РФ, порядка 1,5-1,7нм.
Для рентгеновских можно было даже на усложнённом швардшильдовском иметь 10нм а с протяжкой на 4-зеркальном и рядом техник и 0,3нм неровность края - почти один атом. Это уже посткремниевые технологии - сверхпроводник и диэлектрик, больше ничего неннужно. Кремний кстати неоптимален уже с 10нм.
Пересечение кривых у Сейчяна было где-то в 2015 - так виделось из 2000 примерно, рис.3 http://www.electrosad.ru/files/seisjan.pdf
Спасибо за текст.
Если бы не игры, то прогресс последних 10 лет и не нужен.
Если бы не интернет-видео, то прогресс последних 20 лет не нужен.
Это касается 98% "домашней" техники.
Хорошая статья. Всё по полочкам.
вот задайте себе вопрос - на кого она (статья) рассчитана?
назовите "более удачные архитектуры"
и оцените их "удачливость" (на рынке)
В данном случае не важно. Это как поиск более удачного решения. Оно может уже быть реализовано, а может и не быть, но если удалось найти, то можно получить некий выигрыш. Правда, даже если такое найдено, оно не всегда может быть применено, переход может быть слишком дорог. Например, 12-ричная система счисления объективно удобнее 10-ричной, но в силу стоимости перехода, менять вторую на первую никто не будет.
Так и тут, даже если я предъявлю объективно лучшую архитектуру, но стоимость перехода будет слишком высока или выигрыш не покроет издержки достаточно быстро, то перехода не будет. Как и успеха на рынке.
О том и речь.
Эффективный вычислитель создается под задачу. А под широкий круг задач (читай, масс/шир потреб) - неэффективный, поскольку условия диктует рынок.
Чем?
треть в 10й = 0,3333..............................
треть в 12й = 0,4
зато 1/7 как в 10 ричной , так и в 12ричной бесконечная циклическая жробь... и 1/5 тоже в 12ричной системе тоже бесконечная дроббь... В чем сила , брат?(с)
Круг поделен на градусы в двенадцатиричной системе. По другому его не посчитать.
тогла уж надо на 17 ричную систему переходитть - угаусса узнайте как или на 120-ричную (даже без гауса можно самому поделить)
не надо плодить лишних сущностей. Если смотреть логически, то единственной "натуральной, природной" системой является именно двенадцатиричная. Потому что есть вращение Земли, есть цикличность. А наиболее короткой логичной системой его счета является двенадцатиричная. Можно шестизначную, но удобна ли она? Десятичная удобней и понятней, но было бы интересно посмотреть на формулы физических законов в двенадцатиричной системе, будут ли они работать вообще. Не законы-формулы.
Все чудесатее и чудесатее(с)...стало быть формулы физических законов зависят от позиционной системы...а вы уважаемый вообще физику учили? Ну например формулы законов всемирного тяготения или универсального газового закона
Моя любимая уравновешенная троичная, остальное - от лукавого :)
насколько я помню теорию информации, там вообще идеально должно быть основание е. но таки да 3-ка к е ближее... :)
ага... информатика таблиц брадиса
С основанием 6 было бы еще удобнее - сплошные делители, кроме 5.
Так компы в 16-ричной все считают..
Ещё в 7 классе меня учили переводить с разных систем счисления и производить действия..
насчёт тайваньских нанометров в точку. есть фото в сети, где проц амуде 7нм и интол 14нм имеют одинаковые транзисторы по размеру)))
хотя амуде орут, что у них 7нм )))
нашёл
Так и у нытела эти 14 нм весьма условны, так что тут как в анекдоте про доктора "ну и вы тоже говорите".
Интересно. Пиши ещё.
Попробуйте посмотреть по теме нитрид галлия.
мимо
GaN - это, в основном, силовая электроника или стойкая цифровая для особых применений
GaN - это силовая электроника скорее, в сигнальных м/сх пока альтернативы кремнию не видно, кроме очень специфических областей.
Я не спец в этой сфере, помню, что Intel в своей презентации-прогнозе до 2025 г. прочила очень большое будущее именно этому соединению.
Более того, в советских книжках про будущее электроники годов так 1980-х арсениду и нитриду галлия уделялось огромное внимание. :) В те времена даже умудрялись сделать суперкомпутер (один из "Крей") на арсенид-галлиевых ЭСЛ-микросхемах.
Подвижность носителей, ширина запрещённой зоны, устойчивость к радиации - масса преимуществ.
Как Вы думаете, почему всё на том заглохло? И почему ВСЕ полупроводники A3B5 несмотря на их развитие, удешевление и применение в СВЧ или некоторой силовой электронике, вообще никак не применяются в цифровой?
...
Первая причина проста и фундаментальна: подвижность дырок во всех полупроводниках А3Б5 не очень, а в некоторых хороших - очень не. Например, для арсенида галлия подвижность электронов 8500см2/(В*с), дырок - 400 см2/(В*с). Грубо говоря (ну очень грубо говоря), подвижность носителей определяет "скорость" работы приборов на этом полупроводнике. И если с электронами всё великолепно, то вот с дырками - ассиметричная жопа большой глубины и очень тёмная.
Прямое следствие из этого - невозможно строить эффективные симметричные схемы на таких полупроводниках. Предпочтительно (ну очень предпочтительно) использовать транзисторы с одним типом проводимости - электронным. Это нормально, если мы делаем усилитель мощности или генератор. Ну, фигово, но с этим можно жить. Какие-нить усилители мощности перед антенной или высокочастотный приёмный тракт. Или, допустим, как с нитридом галлия, генератор для импульсного преобразователя в блоке питания.
Но вот энергоэффективную комплиментарную (где используются транзисторы разного типа проводимости) схемотехнику операционных усилителей и цифры так сделать не выйдет. Для ОУ можно ещё извращаться, но вот с цифрой придётся уходить от эффективных комплиментарных схем.
Вторая причина несколько связана, но чуток о другом: технология производства. CMOS, КМОП - Комплиментарные структуры Металл-Окисел-Полупроводник. "Комплиметнтарные" - см. выше, но вот вторая часть... Кремний - полупроводник. Его окcид - изолятор. Нужен изолятор любой заданой толщины идеально совместимый с кремнием и прочно на нём сидящий? Просто окисли кремний на нужную глубину! Кремний легко допируется в любой тип проводимости, окисли, где надо, напыли сверху чуть металла - контакты, и всё. Транзистор готов. Прям вот в кремниевой пластине, которая будет и подложкой, чтоб два раза не ходить. Стравить кремний? Да нет проблем. Напылить? Нет вопросов.
Причём, если рисовать это прям в слоях в полупроводнике в разрезе, то целые логические элементы в КМОП сразу формируются несколькими относительно простыми технологическими операциями, их прекрасно увязывать друг с другом в очень плотной упаковке, всё удобно, максимально плотно... и после полувека отработки это дёшево, охрененно дёшево!
...
Теперь, что такое нитрид/арсенид галлия? В первую очередь это двухэлементное соединение. То есть, даже простое травление - уже непросто. Напыление совместимого изолятора? Отдельная тема. Подложка? Нужно что-то иное, сапфир, например, на который напылять тонкий слой дорогого полупроводника. Металл? Ну, можно, но даже простой металлический контакт сложнее, чем с кремнием. Комплиментарные схемы нельзя (ну, или крайне нежелательно), значит, сразу теряем в плотности упаковки, а в подарок получаем бОльшую мощность выделяемую на бит (абсолютно критичный параметр). При этом почти все проблемы нынешних кремниевых схем общие для полупроводников - с ростом частоты потери на емкостях, с утоньшением проводников - резистивные, с уменьшением затворов - туннельные утечки, с уменьшением транзистора его невозможно нормально допировать, да и сама зонная структура сама по себе меняется на краях, а если весь транзистор "состоит из края", то он это тот ещё транзистор, и т.п. и т.д.
А что выигрываем? Несколько бОльшую скорость электронов? Вот люди и думают: да ну его в пень, такой-то ценой и без абсолютной потребности! Поэтому GaN/GaAs - светодиоды, силовая электроника, СВЧ. Там хотя бы понятно, ради чего мучаемся. Каждый раз, когда пытались сделать что-то на новых полупроводниках, оказывалось, что всё тот же кремний, но с чуть дороботанным производством, может не хуже (а если и хуже, то ненамного).
...Даже более "простые" и совместимые с технонаработками SiGe и SiC пошли только в некоторых особых применениях.
...
Будущее требует малого потребления на ключ. На переключение.
Будущее требует компактности.
Ни то, ни то не решается переходом на другой полупроводник.
Варианты есть - сейчас в моде спинтроника (маленькая энергия на бит), рассматривали и рассматривают оптоэлектронные схемы. Предложено множество видов одноэлектронных транзисторов, начиная с простых баллистических. В конце-то концов, квантовую механику можно использовать более полно, чем в 20-м веке, когда начали использовать селеновые выпрямители. Сейчас дело за МАССОВОЙ технологией, затык не в том, чтобы выдумать что сделать, а затык в том, как сделать это массово и сверхдёшево.
И если уж менять весь стек массовых технологий, то на что-то, что обещает реальный выигрыш и более-менее широкие перспективы.
Отличный комментарий, узнал много нового, хоть про GaN и SiC знаю далеко не понаслышке.
А просто вот нет столько денег сколько УЖЕ вложено в кремний. Так то по частотам те же GaAs / InP привлекательны, но при мысли сколько надо вложить чтобы хотя бы выйти на уровень нынешнего кремния (и не факт что удастся) желание пропадает.
Ну, тут было бы обсуждаемо, если бы выхлоп реально обещал бы окупаемость сложений. В конце-то концов, кремниевая фотоника - это тоже тот ещё адок (ну не излучает кремний, если его не насиловать извращённым способом, не прямозонный он).
Но такого выхлопа не обещается. И не в последнюю очередь из-за ассиметрично малой подвижности дырок. Реально, какие альтернативы КМОП-логике, которые можно реализовать на А3Б5? ТТЛ? ЭСЛ? С точки зрения потребления, энерговыделения на квадрат, и - как итог - производительности, это катастрофа. Да, в теории транзисторы в арсениду галлия можно разогнать до более высоких частот, но что проку от этого в цифре, если схема при этом расплавится от собственного энерговыделения? :)
А с реальным теплоотводом нынешние кремниевые микрухи будут работать на более высокой частоте, чем нитрид-галлиевые. Собссно, на этом рассуждении все практические подходы к этому снаряду и заканчивались. :)
Это не случайность. Это непоборимые пока физические и технические проблемы, пока нет каких-то сверхновых идей насчёт логики, они не решаются никаким количеством денег.
С возвращением.
Видимо ,опечатка - подразумевались не драйверы силовых ключей, а сами силовые ключи?
Это ещё и революция в СВЧ
Процессор на GaN? Ну тот еще подвыверт, жрать будет как не в себя. Там очень большие утечки на затворах
Очень хорошая статья , почаще бы такое.
Иначе говоря, отставание в развитии микроэлектроники с практической точки зрения значит все меньше и меньше и идущие не спеша сейчас де факто догоняют торопыжек
да в этом счастье нашей полупроводниково-электронной промышленнности... технологический прогресс переходит на правую полку логистической кривой... правда есть все таки шанес на общемировой прогресс - переход с гейтов NAND(NOR) на обратисые вычисления и гейты типа гейтов Фредкина... Это может снизить тепловыделение
Спасибо автору! Пишите ещё!
Вариант развития - чиплет
https://club-dns--shop-ru.turbopages.org/turbo/club.dns-shop.ru/s/blog/t-100-protsessoryi/71441-chto-takoe-chiplet-preimuschestva-i-nedostatki-chipletnogo-dizaina/
о да, суперпрорывная технология
всё круто, но механически ненадежно. а если вычесть bga-пайку бессвинцовым припоем, останется голый маркетинг.
Мне вот 600 ватт в следующей серии Nvidia, которая выйдет осенью, уже много. Причем я "водянщик"
Уже есть ощущение, что зашли куда-то не туда.
да смысл в них. Игры интересней не станут
Примерно тогда и умер закон Мура.
Что будет дальше - Умрет фон-Нейман.
Только после этого появится DataFlow, эта вычислительная техника не будет иметь предела по производительности.
Если чувствуете в себе силы понять как это работает, то читайте статьи в моем блоге начинающиеся с ССИ.
Я постепенно описываю новую вычислительную парадигму.
В настоящее время есть такая проблема, специалистам долго рассказывали какие могут быть процессоры и какие могут быть сети связи.
Это привело к проблеме : современный специалист не может понять, да что понять, представить не может что может быть как то подругому.
Вычисления в потоке данных - хотя бы примерно попробуйте представить как оно будет работать логический то я понимаю, но как реализовать это технический без перехода на другую физику типа фотоники и тп я пока не представляю......
ну вот у вас есть поток данных который описывает 3d изображение надо преобразовать его "в проекцию на 2-х мерную плоскость" - как угодно - и вот как описать и построить необходимые преобразования?!
С хорошей вероятностью я понимаю как это все сделать, но видимо я слишком "умный" и меня самого перестали понимать.
Но это я себе льстю, все гораздо прозаичней : Народ погряз в лени и неуемной страсти к деньгам и им не хочется читать и думать.
Никакой фотоники (ну кроме передачи данных) - все старая добрая логика.
Прочитайте про ССИ - там хоть 4х мерное пространство нормально преобразуется (трехмерное + время более оптимально).
Самое главное убить в себе
рабафон Неймана и будет счастье.чего....?
Страницы