Материалы по тегу: суперкомпьютер
28.04.2023 [12:21], Сергей Карасёв
ВМС США получили суперкомпьютер Nautilus производительностью 8,2 ПфлопсЦентр суперкомпьютерных ресурсов Министерства обороны США (DoD) (Navy DSRC), по сообщению Datacenter Dynamics, получил новую НРС-систему под названием Nautilus: она расположилась в Космическом центре имени Джона Стенниса. Испытания комплекса завершились в апреле 2023 года. Nautilus — это система Penguin TrueHPC, объединяющая 1352 узла. Каждый из них содержит до 128 ядер AMD EPYC Milan и 256 Гбайт памяти. Кроме того, задействованы 16 узлов визуализации на базе NVIDIA A40 и 32 ИИ-узла на основе четырёх ускорителей NVIDIA A100. Используется интерконнект NVIDIA Mellanox Infiniband 200 Гбит/с. В общей сложности в состав Nautilus входят 176 128 ядер и 382 Тбайт памяти. Вместимость хранилища составляет 26 Пбайт. Производительность НРС-комплекса достигает 8,2 Пфлопс. Новый суперкомпьютер является частью Программы модернизации высокопроизводительных вычислений Министерства обороны США (HPCMP). Он поможет в моделировании климата, выполнении исследований в области гидродинамики, химии и пр. ![]() Источник изображения: US Navy / MC3 Josue L. Escobosa Сообщается также, что центр Navy DSRC модернизировал другой свой суперкомпьютер — систему Narwhal на платформе HPE Cray EX. Этот комплекс получил дополнительно 18 176 вычислительных ядер в составе 128 узлов. Кроме того, добавлены 14 узлов с 1 Тбайт памяти. Таким образом, теперь Narwhal оперирует 308 480 ядрами, а его пиковая производительность достигает 13,6 Пфлопс.
25.04.2023 [20:01], Алексей Степин
Как Aurora, но поменьше: запущен тренировочный суперкомпьютер Sunspot на чипах Intel MaxОдин из самых масштабных проектов в области высокопроизводительных вычислений (HPC), 2-Эфлопс суперкомпьютер Aurora, который планирует вскоре ввести в строй Аргоннская национальная лаборатория (ANL), получил ещё одну тестовую платформу. Новый мини-кластер Sunspot, включающий в себя две стойки будущей машины, является прекрасным полигоном для отладки ПО. Aurora будет состоять из более чем 10 тыс. вычислительных узлов, а Sunspot включает в себя 128 узлов, каждый из которых, впрочем, имеет весьма серьёзную конфигурацию. На борту такой узел несёт пару процессоров Intel Xeon Max (Sapphire Rapids + 64 Гбайт HBM2e), а также шесть ускорителей Intel Max Series (Ponte Vecchio). Sunspot использует в качестве интерконнекта фирменную сеть HPE/Cray Slingshot последнего поколения. ![]() Источник: Argonne Leadership Computing Facility Как считает глава Argonne Leadership Computing Facility (ALCF), полная идентичность архитектур позволит разработчикам оптимизировать код для максимального использования всех возможностей Sapphire Rapids и Ponte Vecchio. Ранее тестовыми платформами служили кластеры Iris, Arcticus, Florentia самой Аргоннской лаборатории, а также Borealis, принадлежащий Intel. Система Sunspot была запущена ещё в декабре, с тех пор к ней получили доступ более 180 исследователей из 20 команд разработчиков в рамках программ Aurora Early Science Program (ESP) и Exascale Computing Project (ECP). ![]() Процесс сборки Aurora идёт полным ходом Отмечается, что достигнутые на «железе» Intel Max результаты внушают оптимизм. В ряде научно-технических задач прирост производительности от перехода на ускорители Intel составил от 20 до 70 %, а в разрабатываемом аргоннцами Hardware/Hybrid Accelerated Cosmology Code выигрыш достиг 2,6 раз. Ожидается, что дальнейшая более тонкая оптимизация позволит улучшить результаты. Интересно, что даже после запуска Aurora система Sunspot демонтирована не будет, а станет, как и все предыдущие тестовые платформы ALCF, общедоступным «полигоном для новичков».
14.04.2023 [12:07], Сергей Карасёв
Представлен новый суперкомпьютер Gaea C5 производительностью более 10 Пфлопс для исследования климатаОкриджская национальная лаборатория (ORNL) Министерства энергетики США и Национальное управление океанических и атмосферных исследований (NOAA) представили новую НРС-систему Gaea для проведения научных изысканий и моделирования в области климатологии. Комплекс станет пятым суперкомпьютером, который будет установлен в Национальном вычислительном центре климатических исследований в составе ORNL. Ранее на этой площадке уже были развёрнуты четыре системы семейства Gaea. Новый суперкомпьютер получил обозначение C5. Полностью характеристики комплекса не раскрываются. Известно, что в основу положены узлы HPE Cray, а максимальная производительность составляет более 10 Пфлопс. Это практически вдвое превышает мощность двух предыдущих систем вместе взятых. В состав C5 входят восемь шкафов с современными процессорами. Причём один такой шкаф по производительности эквивалентен всей системе С3. Изначально отгрузку компонентов суперкомпьютера C5 планировалось организовать осенью 2021 года. Однако дефицит комплектующих и сбои в каналах поставок привели к значительным задержкам. В итоге, оборудование было получено только летом 2022-го, после чего начались работы по его монтажу. Затем специалисты приступили к процессу тестирования и приёмки.
14.04.2023 [01:42], Руслан Авдеев
Terve: самый мощный суперкомпьютер Европы позволил создать большую языковую модель для финского языка, притом культурнуюХотя генеративный ИИ активно осваивается миром, и новости о нём поступают со всех концов света, почти ничего не рассказывается об аппаратных мощностях, стоящих за обучением больших языковых моделей (LLM). Как сообщает HPC Wire, ситуацию попытался изменить IT-центр CSC, рассказав о роли европейского суперкомпьютера LUMI в создании LLM для финского языка. Без LUMI обучение модели удалось бы завершить только в 2025 году. Суперкомпьютер LUMI является самым быстрым в Европе и занимает третье место в рейтинге TOP500. LUMI помог в обучении модели TurkuNLP, создававшейся под патронажем учёных из Университета Турку, сумевших сформировать «крупнейшую языковую модель для финского языка за всю историю». Новая ИИ-модель на базе GPT-3 включает 13 млрд параметров — известно, что до TurkuNLP в рамках пилотного проекта создавались и более скромные варианты. Финскому научили и многоязыковую модель BLOOM со 176 млрд параметров. Делить машинное время пришлось со многими другими проектами, по некоторым данным, исследователи временами регистрировали производительность на уровне 75–80 % от расчётной, хотя даже такие показатели признаны неплохими. Поскольку LUMI использует ускорители AMD Instinct MI250X, на их оптимизацию кода под новое «железо» ушло немало времени. Впрочем, группа учёных получила поддержку от команды LUMI User Support Team, AMD и Hugging Face. Ещё одной нетривиальной задачей стал поиск материалов на финском языке для тренировки модели. Финны — довольно немногочисленный народ, поэтому исходного «сырья» для обучения в мире оцифровано относительно немного. Тексты в электронном виде добывались из всех возможных источников, при этом перед учёными стояла задача отфильтровать контент с ругательствами или материалами, разжигающими ненависть. По данным учёных, им удалось вдвое сократить число спонтанной ругани в сравнении с предыдущими моделями благодаря качественным материалам, использовавшимся для обучения. Перед обучением также пришлось вычистить все персональные данные. Модель опубликована в Сети, но команда уже получила грант на 2 млн GPU-часов в рамках проекта LUMI Extreme Scale, поэтому исследования продолжатся.
11.04.2023 [16:15], Сергей Карасёв
CPU много не бывает: начат монтаж суперкомпьютера Kestrel на базе Intel Xeon Sapphire RapidsВ США, по сообщению ресурса HPC Wire, началось фактическое строительство нового НРС-комплекса — системы Kestrel, контракт на создание которой получила компания HPE. Суперкомпьютер расположится в Национальной лаборатории по изучению возобновляемой энергии (NREL), которая находится в Голдене (штат Колорадо). В окончательном виде НРС-платформа будет содержать 2436 узлов. 2304 модуля — это CPU-блоки, каждый из которых содержит два процессора Intel Xeon Sapphire Rapids и 256 Гбайт RAM. Именно эти узлы в настоящее время доставляются и устанавливаются на площадке NREL. Возможно, также прибудут десять узлов с такими же CPU, но большим объёмом памяти — 2 Тбайт. Одновременно идёт развёртывание интерконнекта HPE Slingshot 11, параллельной ФС ёмкостью 27 Пбайт и корневого хранилища вместимостью 1,2 Пбайт. ![]() Источник изображения: NREL Позднее в 2023 году в составе Kestrel появятся GPU-узлы: 132 модуля с двумя AMD Epyc Genoa, четырьмя ускорителями NVIDIA H100 и 384 Гбайт памяти, а также 10 блоков с двумя чипами Intel Xeon Sapphire Rapids и двумя ускорителями NVIDIA A40. Изначально монтаж оборудования по проекту Kestrel был запланирован на IV квартал 2022 года. Однако отгрузки задержались из-за сбоя в каналах поставок и сложившейся макроэкономической ситуации. В целом, как ожидается, суперкомпьютер обеспечит пиковую производительность до 44 Пфлопс, что более чем в пять раз превышает мощность его предшественника — комплекса Eagle. Использовать Kestrel планируется при проведении различных исследований в области энергетики — от оптимизации инфраструктуры зарядных станций для электромобилей до создания передовых материалов для солнечных батарей.
08.04.2023 [23:19], Сергей Карасёв
700-Пбайт гибридное хранилище Orion суперкомпьютера Frontier доказало свою эффективностьРесурс insideHPC обнародовал подробности об архитектуре подсистемы хранения данных суперкомпьютера Frontier, установленного в Окриджской национальной лаборатории (ORNL) Министерства энергетики США. Этот комплекс возглавляет нынешний рейтинг TOP500, демонстрируя производительность в 1,102 Эфлопс и пиковое быстродействие в 1,685 Эфлопс. Сообщается, что система хранения Frontier носит название Orion. Она состоит из 50 шкафов с накопителями суммарной вместимостью приблизительно 700 Пбайт. Эти устройства хранения распределены по трёхуровневой схеме, включащей SSD, HDD и другие энергонезависимые решения, на базе которых развёрнуты ФС Lustre и ZFS. Данные возрастом более 90 дней автоматически перемещаются в архив. ![]() Источник изображения: ORNL Один из уровней, производительный, объединяет 5 400 NVMe SSD, обеспечивающих ёмкость 11,5 Пбайт. Пиковые скорости чтения и записи информации достигают 10 Тбайт/с. Показатель IOPS (количество операций ввода/вывода в секунду) при произвольном чтении и записи превышает 2 млн. Второй уровень содержит 47 700 жёстких дисков (PMR). Их общая вместимость равна 679 Пбайт. Максимальная скорость чтения массива — 4,6 Тбайт/с, скорость записи — 5,5 Тбайт/с. В состав третьего уровня включены 480 устройств NVMe суммарной ёмкостью 10 Пбайт для работы с метаданными. В целом, архитектура соответствует той, что была запланирована изначально. Однако теперь представитель ORNL подтвердил правильность выбранного гибридного подхода к хранению информации, отметив, что одна из выполняемых на суперкомпьютере задач генерирует 80 Пбайт в день и что ему не хотелось бы, чтобы из-за недостаточно быстрого хранилища столь мощная машина простаивала без дела.
07.04.2023 [20:36], Сергей Карасёв
Google заявила, что её ИИ-кластеры на базе TPU v4 и оптических коммутаторов эффективнее кластеров на базе NVIDIA A100 и InfiniBandКомпания Google обнародовала новую информацию о своей облачной суперкомпьютерной платформе Cloud TPU v4, предназначенной для решения задач ИИ и машинного обучения с высокой эффективностью. Система может использоваться в том числе для работы с крупномасштабными языковыми моделями (LLM). Один кластер Cloud TPU Pod содержит 4096 чипов TPUv4, соединённых между собой через оптические коммутаторы (OCS). По словам Google, решение OCS быстрее, дешевле и потребляют меньше энергии по сравнению с InfiniBand. Google также утверждает, что в составе её платформы на OCS приходится менее 5 % от общей стоимости. Причём данная технология даёт возможность динамически менять топологию для улучшения масштабируемости, доступности, безопасности и производительности. Отмечается, что платформа Cloud TPU v4 в 1,2–1,7 раза производительнее и расходует в 1,3–1,9 раза меньше энергии, чем платформы на базе NVIDIA A100 в системах аналогичного размера. Правда, пока компания не сравнивала TPU v4 с более новыми ускорителями NVIDIA H100 из-за их ограниченной доступности и 4-нм архитектуры (по сравнению с 7-нм у TPU v4). Благодаря ключевым инновациям в области интерконнекта и специализированных ускорителей (DSA, Domain Specific Accelerator) платформа Google Cloud TPU v4 обеспечивает почти 10-кратный прирост в масштабировании производительности по сравнению с TPU v3. Это также позволяет повысить энергоэффективность примерно в 2–3 раза по сравнению с современными DSA ML и сократить углеродный след примерно в 20 раз по сравнению с обычными дата-центрами.
30.03.2023 [19:36], Андрей Крупин
Суперкомпьютеры «Яндекса» продолжают лидировать в рейтинге TOP 50 самых мощных вычислительных систем РоссииНаучно-исследовательский вычислительный центр Московского государственного университета имени М.В. Ломоносова и Межведомственный суперкомпьютерный центр Российской академии наук опубликовали обновлённую редакцию списка TOP 50 самых мощных компьютеров России. Лидирующие позиции в рейтинге сохранили установленные в дата-центрах «Яндекса» вычислительные комплексы «Червоненкис» (1 место, пиковая производительность 29,4 Пфлопс; 25 место в TOP500), «Галушкин» (2 позиция, производительность в пределе 20,6 Пфлопс) и «Ляпунов» (3 место, пиковая производительность 20 Пфлопс). На четвёртой строчке списка остался развёрнутый в IT-инфраструктуре «Сбера» суперкомпьютер «Кристофари Нео» с пиковой производительностью 14,9 Пфлопс. В основу всех перечисленных машин положены ускорители NVIDIA A100 и интерконнект InfiniBand HDR. На пятой позиции в TOP 50 разместился также принадлежащий «Сберу» вычислительный комплекс «Кристофари» (пиковая производительность 8,8 Пфлопс). Эта система относится к первому поколению суперкомпьютеров компании, построена с использованием ускорителей NVIDIA V100 и интерконнекта InfiniBand EDR. В обновлённом рейтинге 41 из 50 систем построены на процессорах Intel. Количество гибридных суперкомпьютеров, использующих для вычислений ускорители, составляет 35, коммуникационную сеть InfiniBand — 33. Восемь машин построены с применением сетевой инфраструктуры Ethernet, а систем с Omni-Path — пять. Приводятся составителями рейтинга и другие количественные показатели. В частности, сообщается, что 26 систем задействованы в науке и образовании, 7 ориентированы на конкретные прикладные исследования. По числу представленных в списке систем лидирует HPE (11 суперкомпьютеров), далее следуют российские компании РСК (10 систем в рейтинге) и «Т-Платформы» (8 машин; ныне банкрот).
26.03.2023 [18:59], Сергей Карасёв
Один из последних: в Японии заработал суперкомпьютер Pegasus с 240 Тбайт памяти Optane PMem 300В Центре вычислительных наук Университета Цукубы (University of Tsukuba; префектура Ибараки, Япония), по сообщению HPC Wire, началась эксплуатация HPC-комплекса Pegasus, спроектированного компанией NEC. Это, судя по всему, один из последних суперкомпьютеров, который получит большой объём памяти Optane Pmem, производство которой было остановлено Intel. Система объединяет 120 узлов NEC LX 102Bk-6 на основе одного процессора Xeon Platinum 8468 поколения Sapphire Rapids (48 ядер; 96 потоков; 2,1–3,8 ГГц; 350 Вт), работающего в тандеме со 128 Гбайт оперативной памяти DDR5-4800, дополненных 2 Тбайт памяти Optane PMem 300 (Crow Pass). Любопытно, что по умолчанию часть Optane-памяти отведена под XFS-том (fsdax), но по желанию пользователи могут выбрать и другой режим работы. Кроме того, в состав каждого из узлов входят один PCIe-ускоритель NVIDIA H100. Также каждый узел имеет по два накопителя NVMe SSD на 3,2 Тбайт (7 Гбайт/с), а объединены они 200G-интерконнектом Quantum-2 InfiniBand. Дополняет HPC-комплекс гибридное хранилище на базе DDN ES200NV/ES7990X/SS9012, объединяющее NL-SAS HDD вместимостью 18 Тбайт (7200 об/мин) и 1,92-Тбайт NVMe SSD. Суммарная доступная ёмкость составляет приблизительно 7,1 Пбайт, а скорость обмена данными — порядка 40 Гбайт/с. Кроме того, применены три дополнительных узла NEC LX 124Rk-2 с двумя чипами Xeon Platinum 8468, 256 Гбайт памяти DDR5, накопителем NVMe SSD и InfiniBand-подключением. Быстродействие Pegasus теоретически достигает 6,5 Пфлопс для вычислений двойной точности. Использовать мощности нового суперкомпьютера планируется в таких областях, как астрофизика, климатология, биология, здравоохранение, Big Data и ИИ. В Университете Цукубы есть ещё один необычный суперкомпьютер Cygnus, объединяющий ускорители NVIDIA Tesla и Intel FPGA.
23.03.2023 [13:26], Сергей Карасёв
Австралийский суперкомпьютер Gadi стал мощнее, получив чипы Intel Xeon Sapphire RapidsКорпорация Fujitsu, по сообщению ресурса HPC Wire, модернизировала суперкомпьютер Gadi, установленный в Национальном университете Австралии в Канберре (NCI). Комплекс получил узлы на новейших процессорах Intel Xeon Sapphire Rapids, что позволило существенно понять общую производительность. В прежней конфигурации в HPC-системе Gadi уже широко применялись различные чипы Intel. В состав суперкомпьютера, в частности, входят 3074 узла, каждый из которых содержит два 24-ядерных процессора Intel Xeon Cascade Lake и 192 Гбайт памяти. Также в состав комплекста входят 804 узла с парой 14-ядерных чипов Broadwell, 192 узла с двумя 16-ядерными процессорами Skylake и 160 узлов, каждый из которых наделён четырьмя ускорителями NVIDIA V100 и двумя 24-ядерными процессорами Intel Xeon Cascade Lake-SP. Наконец, есть 10 узлов с двумя 14-ядерными чипами Intel Broadwell и 512 Гбайт памяти и два узла NVIDIA DGX A100. После модернизации, как сообщается, комплекс получил 720 узлов с парой 52-ядерных процессоров Intel Xeon Sapphire Rapids и 512 Гбайт RAM, объединённых 200G-интерконнектом InfiniBand HDR. О быстродействии обновлённого суперкомпьютера ничего не сообщается, но ранее Gadi обеспечивал пиковую производительность в 15,14 Пфлопс и занимал 62-ю строку в списке Top500. Отмечается, что появление узлов на базе Sapphire Rapids — это лишь первый этап масштабной программы по расширению вычислительных ресурсов NCI. Планируется добавление новых GPU и улучшение подсистемы электропитания. Общие инвестиции в проект составят около $26 млн. |
|