Видео: Trita Parsi: Iran and Israel: Peace is possible (Ноември 2024)
Поглеждайки назад на тази седмица ISC 17 конференция за суперкомпютри, изглежда, че светът на суперкомпютрите ще види някои големи подобрения през следващите няколко години, но актуализацията на два пъти годишния списък с 500 най-бързи суперкомпютри в света не се различаваше много от предишната версия.
Най-бързите компютри в света продължават да са двете масивни китайски машини, които са начело в списъка от няколко години: Sunway TaihuLight компютър от Китайския национален суперкомпютърен център в Уси, с устойчиво представяне на Linpack от над 93 петафлопа (93 хиляди трилиона плаваща точка операции в секунда); и компютърът Tianhe-2 от Китайския национален супер компютърен център в Гуанджоу, с устойчиво представяне от над 33, 8 петафлопа. Те остават най-бързите машини с огромен марж.
Новото номер три е системата Piz Daint от Швейцарския национален суперкомпютърен център, система Cray, която използва Intel
Това спуска най-голямата американска система - системата Титан в Националната лаборатория Оук Ридж - до четвърто място, което прави това за първи път от двадесет години насам, че няма американска система в челната тройка. Останалата част от списъка остава непроменена, като САЩ все още са пет от първите 10, а Япония - две.
Дори и списъкът с най-бързите компютри да не се е променил много, другаде има големи промени. В списъка на Green 500 на най-ефективните системи девет от първите десет са променени. Отгоре е системата Tsubame 3.0, модифицирана система HPE ICE XA в Токийския технологичен институт, базирана на ядро Xeon E5-2680v4 14, взаимно свързване Omni-Path и Tesla P100 на Nvidia, което позволява 14, 1 гигафлопа на ват. Това е огромен скок от DGX Saturn V на Nvidia, базиран на платформата DGX-1 на фирмата и P100 чипове, който беше номер едно в списъка от ноември, но номер десет този път, с 9, 5 гигафлопа / Ват. P100 е в девет от десетте най-добри Green500 системи.
Разбиването на 10 гигафлопа / вата е голяма работа, тъй като означава, че хипотетичната система на екзафлоп, изградена по днешната технология, ще изразходва под 100 мегавата (MW). Това все още е твърде много - целта е 20-30 MW за система от екзафлоп, която изследователите се надяват да видят в следващите пет години или така - но това е огромна стъпка напред.
Подобно на списъка с Top 500, имаше само незначителни промени в подобни списъци с различни референтни стойности, като сравнителния показател за висока производителност (HPCG), където машините са склонни да виждат само 1-10 процента от своите теоретични върхови показатели и където върхът система - в този случай машината Riken K - все още доставя по-малко от 1 петафлоп. И двете системи TaihuLight и Piz Daint се преместиха в този списък. Когато изследователите говорят за машина на екзафлоп, те са склонни да означават показателя за Linpack, но HPCG може да бъде по-реалистичен по отношение на ефективността в реалния свят.
Появата на графичните процесори като ускорител - почти винаги използвайки процесори на Nvidia GPU като P100 - беше най-видимата промяна в тези списъци през последните години, последвана от въвеждането на собствения ускорител на Intel, многоядрения Xeon Phi (включително най-новата версия на Knights Landing). Настоящият списък с Top 500 включва 91 системи, които използват ускорители или копроцесори, включително 74 с графични процесори Nvidia и 17 с Xeon Phi (с други три, използващи и двете); една с AMD Radeon GPU като ускорител и две, които използват многоядрен процесор от японски доставчик PEZY Computing. Допълнителни 13 системи сега използват Xeon Phi (Knights Landing) като основен процесор.
Но много от по-големите промени в суперкомпютрите все още са на хоризонта, тъй като започваме да виждаме по-големи системи, проектирани с тези концепции в ума. Един пример е новият MareNostrum 4 в Барселона на суперкомпютърния център, който влезе в списъка на Топ 500 на номер 13. Както е инсталиран досега, това е система Lenovo, базирана на предстоящата Skylake-SP версия на Xeon (официално Xeon Platinum 8160 24 -корресен процесор). Интересното е трите нови клъстера от „нововъзникваща технология“, планирани за следващите няколко години, включително един клъстер с процесори на IBM Power 9 и графични процесори Nvidia, проектирани да имат максимална възможност за обработка от над 1, 5 Petaflops; втора, базирана на Knights Hill версията на Xeon Phi; и трета, базирана на 64-битови ARMv8 процесори, проектирани от Fujitsu.
Тези концепции се използват в редица други големи суперкомпютърни проекти, по-специално в няколко спонсорирани от Министерството на енергетиката на САЩ като част от сътрудничеството на CORAL в Националния лаборатория Oak Ridge, Argonne и Lawrence Livermore. Първо трябва да бъде Summit в Oak Ridge, който ще използва процесори на IBM Power 9 и графични процесори Nvidia Volta, и планиран да достави над 150 до 300 пикови petaflops; следвана от Сиера в Лоурънс Ливърмор, предвидена да осигури над 100 пикови петафлопа.
След това трябва да видим суперкомпютъра Aurora в Националната лаборатория в Аргон, базиран на версията на Xeon Phi на Knights Hill и построен от Cray, който планира да осигури 180 пикови петафлопа. Системите CORAL трябва да бъдат изградени и
Междувременно китайските и японските групи също планират ъпгрейди, предимно използвайки уникални архитектури. Трябва да е интересно да гледате.
Още по-голямото изместване изглежда е малко по-далеч: преминаването към машинно обучение, обикновено на масово паралелни процесорни единици в самия процесор. Докато номерът на Linpack се отнася до 64-битова или двойно точна производителност, има класове приложения - включително много приложения, базирани на дълбока невронна мрежа - които работят по-добре с изчисления с единична или дори полуточност. Новите процесори се възползват от това, като скорошното съобщение на Nvidia Volta V100 и предстоящата версия на Xeon Phi на Knights Mill. По време на изложението Intel заяви, че версията, която трябва да бъде в производство през четвъртото тримесечие, ще има нови набори инструкции за "изчисления с ниска точност", наречени Quad Fused Multiply Add (QFMA) и Quad Virtual Neural Network Instruction (QVNNI), Предполагам, че тези концепции биха могли да бъдат приложени и за други архитектури, като например TPU-тата на Google или FPGA-та на Intel и Nervana.
Дори ако не наблюдаваме големи промени през тази година, следващата година трябва да очакваме да видим повече. Концепцията за машина за екскаскал (1000 терафлопа) все още не е в полезрението, въпреки че вероятно ще включва редица още по-големи промени.