Материалы по тегу: gpu

17.02.2025 [12:19], Сергей Карасёв

Платформа Graid SupremeRAID SE для создания массивов NVMe RAID получила поддержку NVIDIA GeForce RTX 5000

Компания Graid Technology сообщила о том, что её платформа SupremeRAID SE, предназначенная для формирования высокопроизводительных массивов NVMe RAID, теперь поддерживает работу с ускорителями семейства NVIDIA GeForce RTX 5000.

SupremeRAID — это программно-определяемое решение на базе GPU, предназначенное для обеспечения максимальной производительности SSD. Отмечается, что SupremeRAID SE позволяет формировать массивы RAID на 4–8 накопителях NVMe с высокой отказоустойчивостью, одновременно освобождая ресурсы CPU для других задач.

Платформу SupremeRAID SE можно использовать с такими ускорителями, как GeForce RTX 5090, GeForce RTX 5080, GeForce RTX 5070 Ti, GeForce RTX 5070 и GeForce RTX 5060. Решение ориентировано прежде всего на мощные рабочие станции, предназначенные для приложений ИИ, машинного обучения, 3D-рендеринга, редактирования видеоматериалов высокого разрешения и разработки игр. По заявлениям Graid Technology, программно-определяемый RAID обладает упрощённой настройкой, которая избавлена от сложностей, присущих традиционным аппаратным решениям RAID.

 Источник изображения: Graid Technology

Источник изображения: Graid Technology

В целом, благодаря SupremeRAID SE можно задействовать имеющиеся мощности GPU для формирования высокопроизводительных и высокоустойчивых RAID-конфигураций: поддерживаются режимы RAID 0, 1, 10, 5. Говорится о совместимости с Windows Server 2011/2022 и Windows 11, а также с широким перечнем ОС на ядре Linux, включая AlmaLinux 8.8, CentOS 7.9/8.5, Fedora 40, openSUSE Leap 15.3 (Kernel 5.3), Oracle Linux 7.9/8.7/9.1, RHEL 7.9/8.8 и Ubuntu 24.04.0, а также с более ранними версиями указанных дистрибутивов.

Постоянный URL: http://servernews.ru/1118384
16.02.2025 [00:22], Сергей Карасёв

HBF вместо HBM: SanDisk предлагает увеличить объём памяти ИИ-ускорителей в 16 раз, заменив DRAM на сверхбыструю флеш-память

Компания SanDisk, которая вскоре станет независимой, отделившись от Western Digital, предложила способ многократного увеличения объёма памяти ИИ-ускорителей. Как сообщает ресурс ComputerBase.de, речь идёт о замене HBM (High Bandwidth Memory) на флеш-чипы с высокой пропускной способностью HBF (High Bandwidth Flash).

На первый взгляд, идея может показаться абсурдной, поскольку флеш-память NAND значительно медленнее DRAM, которая служит основой HBM. Но, по заявлениям SanDisk, архитектура HBF позволяет обойти ограничения, присущие традиционным NAND-изделиям, что сделает память нового типа пригодной для применения в ИИ-ускорителях. При этом HBF планируется использовать прежде всего для задач инференса, а не обучения моделей ИИ.

С каждым новым поколением HBM растёт объём памяти, которым оснащаются ИИ-карты: у современных ускорителей AMD и NVIDIA он достигает 192 Гбайт. Благодаря внедрению HBF компания SanDisk рассчитывает увеличить показатель в 8 или даже 16 раз при сопоставимой цене. Компания предлагает две схемы использования флеш-памяти с высокой пропускной способностью: одна предусматривает полную замену HBM на HBF, а другая — совмещение этих двух технологий.

 Источник изображений: ComputerBase.de

Источник изображений: ComputerBase.de

В качестве примера SanDisk приводит GPU со 192 Гбайт памяти HBM, которая разделена на восемь стеков по 24 Гбайт. В случае HBF каждый такой стек сможет иметь ёмкость 512 Гбайт. Таким образом, при полной замене HBM ускоритель сможет нести на борту 4 Тбайт памяти: это позволит полностью загрузить большую языковую модель Frontier с 1,8 трлн параметров размером 3,6 Тбайт. В гибридной конфигурации можно, например, использовать связку стеков 2 × HBM плюс 6 × HBF, что в сумме даст 3120 Гбайт памяти.

Архитектура HBF предполагает монтаж кристаллов NAND друг над другом поверх логического кристалла. Вся эта связка располагается на интерпозере рядом с GPU, CPU, TPU или SoC — в зависимости от предназначения конечного изделия. Обычная флеш-память NAND приближается к DRAM по пропускной способности, но не может сравниться с ней по времени доступа. SanDisk предлагает решить проблему путём разделения HBF на массив областей с большим количеством линий данных: это позволит многократно увеличить скорость доступа.

SanDisk разработала архитектуру HBF в 2024 году под «влиянием ключевых игроков в области ИИ». В дальнейшие планы входят формирование технического консультативного совета, включающего партнёров и лидеров отрасли, и создание открытого стандарта. Впрочем, есть и другие методы увеличения объёма памяти ускорителей. Один из них — использование CXL-пулов.

Постоянный URL: http://servernews.ru/1118332
31.01.2025 [06:24], Сергей Карасёв

Intel решила не поставлять ускорители Falcon Shores на рынок

Со-генеральный директор Intel Мишель Джонстон Холтхаус (Michelle Johnston Holthaus) дала комментарии по поводу ускорителей Falcon Shores, которые должны были поступить в продажу в 2025 году. По её словам, эти изделия не появятся на коммерческом рынке. Ожидалось, что Falcon Shores выйдут после ускорителей Rialto Bridge, которые должны были прийти на смену Ponte Vecchio.

Но в марте 2023 года Intel отменила выпуск Rialto Bridge. Тогда же сообщалось, что дебют Falcon Shores откладывается. После того, как гендиректор Intel Пэт Гелсингер (Pat Gelsinger) подал в отставку, будущее Falcon Shores оказалось под вопросом. Пытаясь прояснить ситуацию, Intel заявила, что планы по выпуску этих решений сохраняются — их планировалось поставлять в качестве GPU, а не гибридных ускорителей, как говорилось изначально. Однако в конце 2024 года появилась информация, что Intel рассматривает Falcon Shores как тестовый продукт.

 Источник изображения: Intel

Источник изображения: Intel

Как теперь заявила Холтхаус, Intel действительно использует Falcon Shores «в качестве внутреннего тестового чипа» — без планов по его выводу на коммерческий рынок. По её словам, основное внимание будет уделено ускорителям Jaguar Shores, которые, как предполагается, помогут разработать «системное решение в масштабе стойки» для укрепления позиций в области дата-центров, ориентированных на задачи ИИ.

«ИИ ЦОД являются привлекательным рынком для нас. Но мы пока не закрепились в данном сегменте должным образом. Поэтому мы упрощаем дорожную карту и концентрируем ресурсы», — сказала Холтхаус. Она также добавила, что заказчики хотят получить полномасштабное стоечное решение, а не просто чипы. Ожидается, что проект Falcon Shores поможет в создании комплексной платформы, охватывающей системные компоненты, сеть и память. Вероятно, речь идёт об аналоге суперускорителей NVIDIA GB200 NVL72.

В целом, Intel пытается скорректировать план дальнейшей работы после ряда неудач. Корпорация катастрофически отстала от NVIDIA и AMD по продажам ИИ-ускорителей — так, объём реализации Gaudi не достиг даже $500 млн. На этом фоне Intel приходится в спешном порядке менять стратегию.

Постоянный URL: http://servernews.ru/1117529
16.01.2025 [08:04], Алексей Степин

Терабайтные GPU: Panmnesia продемонстрировала CXL-память для ИИ-ускорителей

Компания Panmnesia работает в области проектирования CXL-пулов DRAM довольно давно: в 2023 году она демонстрировала систему, оставляющую позади все решения на базе RDMA и обеспечивающую доступ к 6 Тбайт оперативной памяти. Но большие объёмы памяти сегодня, в эпоху всё более усложняющихся ИИ-моделей, нужны не только и не столько процессорам, сколько ускорителям, априори лишённым возможности апгрейда набортной RAM. На выставке CES 2025 компания продемонстрировала решение данной проблемы.

По мнению разработчиков Panmnesia, производительность при обучении масштабных ИИ-моделей упирается именно в объёмы набортной памяти ускорителей: вместо десятков гигабайт требуются уже терабайты, а установка дополнительных ускорителей может обходиться слишком дорого при том, что вычислительные мощности окажутся избыточными.

 Источник здесь и далее: Panmnesia

Источник здесь и далее: Panmnesia

Продемонстрированная на выставке CXL-система построена на базе новейшего контроллера Panmnesia с поддержкой CXL 3.1. В двунаправленном режиме латентность доступа составила менее 100 нс и находится примерно на уровне 80 нс.

Ключ к успеху здесь кроется в фирменной реализации CXL 3.1, включая программную часть, благодаря которой GPU могут обращаться к общему пулу памяти, используя те же инструкции типа load/store, что при доступе к набортной HBM или GDDR.

Однако технология требует наличия на борту GPU фирменного контроллера CXL Root Complex, одной из важнейших частей которого является декодер HDM, отвечающий за управление адресным пространством памяти (host physical address, HPA), так что уже выпущенные ускорители напрямую работать с системой Panmnesia не смогут.

Тем не менее, технология выглядит многообещающей. Она уже привлекла внимание со стороны компаний, занимающихся ИИ, как потенциально позволяющая снизить стоимость инфраструктуры ЦОД.

Постоянный URL: http://servernews.ru/1116742
30.12.2024 [15:26], Сергей Карасёв

Китайский ускоритель Moore Threads MTT X300 обеспечивает FP32-быстродействие до 14,4 Тфлопс

Китайская компания Moore Threads, по сообщению ресурса TechPowerUp, подготовила к выпуску профессиональный GPU-ускоритель MTT X300. Изделие предназначено для работы с системами автоматизированного проектирования (CAD), платформами информационного моделирования зданий и сооружений (BIM), видеоредакторами и пр.

Новинка выполнена в виде двухслотовой карты расширения с интерфейсом PCIe 5.0 x16. В основе лежит архитектура MUSA второго поколения с 4096 ядрами MUSA и 16 Гбайт памяти GDDR6 с 256-бит шиной (пропускная способность достигает 448 Гбайт/с). Производительность на операциях ИИ в режиме FP32 составляет до 14,4 Тфлопс. Показатель TDP равен 255 Вт.

 Источник изображения: Moore Threads @Olrak29_ on X

Источник изображения: Moore Threads @Olrak29_ on X

Ускоритель оснащён тремя разъёмами DisplayPort 1.4a и одним коннектором HDMI 2.1 с возможностью вывода изображения одновременно на четыре монитора. Поддерживается разрешение до 7680 × 4320 пикселей (8К). Реализовано аппаратное ускорение при декодировании материалов AV1, H.264, H.265, VP8, VP9, AVS, AVS2, MPEG4 и MPEG2, а также при кодировании видео AV1, H.264 и H.265. Устройство поддерживает до 36 параллельных потоков 1080p (30 кадров в секунду) как для декодирования, так и для кодирования.

Подчёркивается, что Moore Threads разработала для MTT X300 драйверы, обеспечивающие совместимость со всеми распространёнными архитектурами CPU, включая x86, Arm и LoongArch.

 Источник: Moore Threads

Источник: Moore Threads

Нужно отметить, что ещё год назад Moore Threads представила ускоритель MTT S4000 на архитектуре MUSA третьего поколения с 48 Гбайт памяти GDDR6 с пропускной способностью до 768 Гбайт/с. Это решение демонстрирует производительность до 25 Тфлопс на операциях FP32, до 50 Тфлопс на операциях TF32, до 100 Тфлопс на операциях FP16/BF16 и 200 TOPS на операциях INT8. Карта способна обрабатывать одновременно до 96 видеопотоков 1080p.

Постоянный URL: http://servernews.ru/1116117
27.12.2024 [13:44], Сергей Карасёв

Стартап Ubitium создал универсальный чип на базе RISC-V с функциями CPU, GPU, DSP и FPGA

Стартап Ubitium, основанный в 2024 году, анонсировал проект по созданию чипа с универсальной архитектурой, которая полностью независима от рабочих нагрузок. Речь идёт об объединении в одном изделии решений разного типа: CPU, GPU, DSP и FPGA.

Отмечается, что на протяжении более 50 лет полупроводниковая промышленность занималась созданием самостоятельных центральных, графических и других процессоров, предназначенных для решения конкретных вычислительных задач. Ubitium предлагает пересмотреть данный подход, создав универсальный чип на открытой архитектуре RISC-V, который сможет одинаково хорошо справляться с нагрузками разного типа.

Стартап отмечает, что основным препятствием для внедрения новых процессоров являются проприетарные ISA, которые требуют использования специализированных программных инструментов. Кроме того, трудности может создавать отсутствие зрелой программной экосистемы, предоставляющей необходимые фреймворки и приложения. Чипы Ubitium, как утверждается, будут на 100 % совместимы с RISC-V, что упростит и ускорит разработку и внедрение конечных продуктов.

 Источник изображения: Ubitium

Источник изображения: Ubitium

В отличие от традиционных процессоров со специализированными ядрами, предназначенными для определённых задач, блоки универсального чипа Ubitium могут динамически «переназначаться» для обработки широкого спектра вычислительных нагрузок, включая простую логику управления, общие вычисления, ИИ и рендеринг графики.

Ещё одним преимуществом предлагаемой концепции стартап называет масштабируемость. Ubitium планирует выпускать изделия разного уровня, которые при этом будут иметь идентичную архитектуру и использовать одни и те же программные инструменты. Компания рассчитывает, что её чипы смогут применяться в самых разных сферах — от встраиваемых устройств, бытовой электроники и домашней техники до систем промышленной автоматизации, роботов и космического оборудования.

 Источник изображения: Ubitium

Источник изображения: Ubitium

По сравнению с традиционными процессорами, использование решений Ubitium, как утверждается, обеспечит повышение гибкости, снижение стоимости и ускорение разработки. Компания заявляет, что универсальный чип может обеспечить в 10–100 раз большую производительность в расчёте на доллар по сравнению с современными специализированными решениями.

В команду Ubitium входят выходцы из Intel, NVIDIA и Texas Instruments. Головной офис компании находится в Дюссельдорфе (Германия). Генеральным директором является Хён Шин Чо (Hyun Shin Cho) из Университета Пердью (Purdue University). Пост технического директора занимает Мартин Форбах (Martin Vorbach), на имя которого зарегистрированы более 200 патентов.

Стартап Ubitium уже привлёк $3,7 млн начального финансирования. На данный момент компания создала экспериментальную эмуляцию, которая подтверждает, что универсальный процессор работоспособен. Первые коммерческие решения планируется выпустить к 2026 году.

Постоянный URL: http://servernews.ru/1116002
24.12.2024 [21:00], Сергей Карасёв

«Гравитон» выпустил первый GPU-сервер на российском процессоре для ИИ и НРС

Российский производитель вычислительной техники «Гравитон» объявил о начале поставок сервера С2124Б. Это, как утверждается, первое устройство на отечественном процессоре, специально предназначенное для задач ИИ и НРС, включая работу с языковыми моделями.

Новинка выполнена в форм-факторе 4U. Задействованы два неназванных 48-ядерных процессора с тактовой частотой 2 ГГц. Поддерживается оперативная память DDR4-3200 ECC. Сервер допускает установку до восьми ускорителей на базе GPU с показателем TDP до 350 Вт: их подключение осуществляется через переходную плату со встроенными PCIe-экспандерами. Могут применяться полноразмерные двухслотовые решения с интерфейсом PCIe 4.0 x16. Заявленная производительность достигает 480 Тфлопс в режиме FP64 и 26,726 Пфлопс в режимах FP8 и INT8.

Во фронтальной части С2124Б могут быть размещены до 12 накопителей с интерфейсом SATA или до 12 устройств формата U.3 (NVMe). Кроме того, на лицевую панель выведены гнёзда RJ-45 для сетевых кабелей, а также порты USB Type-A. Питание обеспечивают четыре блока мощностью 1600 Вт каждый в режиме 3+1 или 2+2.

 Источник изображения: «Гравитон»

Источник изображения: «Гравитон»

«Нам удалось разработать и произвести серверы, так необходимые для сложных вычислений, на отечественном процессоре. Этот продукт станет важным шагом в развитии отечественных вычислительных технологий и позволит нашим клиентам эффективно справляться с вызовами в области обработки данных», — говорит Александр Фильченков, руководитель серверных и сетевых систем «Гравитон».

Сервер планируется внести в Реестр российской промышленной продукции Минпромторга России в начале 2025 года: он будет причислен к категории радиоэлектронной продукции 1-го уровня локализации. Приём заказов на новинку уже начался. Потенциальным покупателям также предлагается оформить заявку на тестирование устройства.

Постоянный URL: http://servernews.ru/1115822
19.12.2024 [22:55], Владимир Мироненко

Новое руководство Intel рассматривает Falcon Shores как тестовый продукт, который может не оправдать ожиданий

После отставки Пэта Гелсингера (Pat Gelsinger) обязанности гендиректора Intel временно исполняют Дэвид Цинснер (David Zinsner) и Мишель Джонстон Холтхаус (Michelle (MJ) Johnston Holthaus). Несмотря на временный статус, их видение путей выхода из кризиса имеет важное значение для компании.

Дэвид Цинснер и Мишель Холтхаус сходятся во мнении, что за GPU — будущее, а технологии ИИ всё ещё находится в зачаточном состоянии, пишет ресурс HPCwire. Их точка зрения в корне отличается от позиции Гелсингера, сделавшего ставку на CPU. Сейчас врио гендиректора занимаются ревизией планов компании, а также имеющегося портфеля решений для ЦОД. По их мнению, у Intel всего три перспективных продукта для ЦОД и ИИ: чипы Xeon Diamond Rapids и Clearwater Forest, а также ускорители Falcon Shores.

Холтхаус выступила на ежегодной глобальной технологической конференции Barclays, где, отвечая на вопрос о том, чем её стратегия будет отличаться от планов Гелсингера, заявила, что не следует ожидать полной смены стратегии, будет лишь «возобновление внимания» к повышению конкурентоспособности продуктов Intel, пишет ресурс EE Times.

Холтхаус также заявила, что сейчас пришло время подумать, как можно использовать имеющийся портфель интеллектуальной собственности во всём портфеле продуктов компании. Она признала, что на рынке решений для ЦОД компания сталкивается с большими проблемами. Ожидалось, что Granite Rapids укрепят позиции Intel на рынке серверов, но теперь она возлагает надежды на Diamond Rapids, которые будут выпускаться по техпроцессу Intel 18A (1,8 нм).

 Источник изображения: Intel

Источник изображения: Intel

«Для нас 2025 год — это год… стабилизации потери доли этого сегмента рынка [и] действительно лазерной фокусировки на создании правильных продуктов для восстановления доли. Нам предстоит много работы в этом направлении», — сообщила Холтхаус. Она отметила, что рынок решений для ЦОД сильно изменился, имея в виду стремление провайдеров облачных услуг создавать собственные кастомные процессоры и ускорители ИИ.

Intel намерена улучшить работу на рынке процессоров для ЦОД с помощью недавно анонсированной консультативной группы по экосистеме x86, которая позволит заказчкикам влиять на будущие архитектурные особенности. Попутно компания отказалась от инициативы X86S по созданию облегчённого варианта ISA. Холтхаус заявила, что она чувствует уверенность по поводу будущего Intel Xeon, вместе с тем отметив, что AMD в последние годы лучше показала себя в работе с клиентами.

Со-гендиректор сообщила, что рассматривает Falcon Shores как тестовый продукт. «Это будет замечательно? Нет, — сказала она. — Но это хороший первый шаг в создании платформы, извлечении уроков, понимании того, как всё это ПО будет работать и как будет реагировать экосистема, чтобы мы могли очень быстро исправиться». Ранее стало известно, что на смену Falcon Shores придёт ИИ-ускоритель Jaguar Shores.

 Источник изображения: Intel

Источник изображения: Intel

Холтхаус подчеркнула, что видит большие возможности в инференсе ИИ, предъявляющем другие требования к оборудованию, чем обучение. В целом Холтхаус отметила, что Intel недостаточно инвестировала в свою продукцию и действовала недостаточно быстро, а также признала, что в краткосрочной перспективе компанию ожидают проблемы с предложением продуктов. Также она признала, что Intel нужен универсальный GPU для долгосрочной конкурентоспособности на только зарождающемся рынке ИИ.

Топ-менеджер заявила, что компания не будет тратить время и деньги на создание ускорителей ИИ для ЦОД с нуля. Вместо этого малотиражные продукты позволит Intel учиться и совершенствоваться, сказала она. «Я смотрю на Gaudi как на первый шаг. В Gaudi есть несколько действительно хороших вещей, которые мы изучаем, особенно на уровне ПО и платформы, — сказала Холтхаус. — Но Gaudi не позволит нам выйти в массы, это не тот GPU, который [мог бы быть] легко развёрнут в системах по всему миру».

Также компания сообщила, что завершила этап сокращений персонала и пока не собирается их возобновлять. «Мы закончили с большим сокращением персонала, которое нам пришлось осуществить, оно в основном завершено, — сказал Цинснер. — Однако мы будем постоянно проверять, куда мы тратим деньги, чтобы убедиться, что получаем соответствующую отдачу».

Постоянный URL: http://servernews.ru/1115689
11.12.2024 [17:59], Руслан Авдеев

Российский рынок облачных сервисов с ИИ-ускорителями в 2024 году вырастет в 1,5 раза до 17,1 млрд рублей

Рынок российских облачных сервисов для вычислений с использованием ИИ-ускорителей в 2024 году может вырасти до 17,1 млрд руб., +55 % год к году. Предварительный прогноз подготовлен экспертами J’son & Partners Consulting, сообщают «Ведомости». Исследование посвящено развитию публичных облаков.

В целом, по прогнозам экспертов, рынок облачных услуг в 2024 году в России вырастет на 31,2 % — до 142,4 млрд руб. Доступ к ускорителям в облаках тарифицируются по принципу Pay as You Go (PAYG) — пользователи обычно платят за потребление ресурсов. Согласно прогнозам J’son & Partners данным, среднегодовой прирост (GAGR) на рынке соответствующих вычислений в публичных облаках до 2025 года, возможно, составит 32,7 %, а в денежном выражении сегмент к 2029 году достигнет 66,3 млрд руб.

Использование ускорителей в облаках весьма удобно, поскольку позволяет быстро получить доступ к вычислительным мощностям и обходится дешевле, чем закупки собственного оборудования, которые к тому же осложняются санкционными ограничениями. На фоне быстрого роста спроса на сервисы, требующие использования ускорителей, наблюдается их дефицит на российском рынке, но эксперты прогнозируют постепенный выход к состоянию баланса.

 Источник изображения: EVGEN SLAVIN/unsplash.com

Источник изображения: EVGEN SLAVIN/unsplash.com

По данным iKS-Consulting, пока ускорители для обучения ИИ арендуют не очень часто — на эту услугу приходится 5,4 % рынка облачных услуг. При этом в 2023 году совокупная выручка провайдеров таких GPU-сервисов составила около 6,6 млрд руб., при общей выручке от облачных инфраструктурных сервисов в том же году на уровне 121,4 млрд руб. Рынок вырос — в 2022 году на аренду сервисов с ИИ-ускорителями приходилось 4 % (всего 3,7 млрд руб.). Ранее аналитики прогнозировали, что к 2028 году российский рынок облачной инфраструктуры достигнет 464 млрд руб., а к концу 2024 года может вырасти до 162 млрд руб. с 121,4 млрд руб. в прошлом году.

Статистика J’son & Partners Consulting показывает, что сегодня облачные провайдеры имеют около 77 400 клиентов. Правда, более 50 % из них можно отнести к мелким пользователям, тратящим на облачные услуги до 10 тыс. руб. в месяц. При этом пока даже крупные компании часто размещают задачи в локальных ЦОД, которые тоже требуют как масштабирования, так и модернизации в целом.

Постоянный URL: http://servernews.ru/1115280
30.11.2024 [15:52], Сергей Карасёв

Iceotope представила KUL AI — GPU-сервер на платформе Gigabyte с необычной СЖО

Компания Iceotope анонсировала сервер KUL AI, предназначенный для поддержания самых требовательных рабочих нагрузок ИИ. Новинка базируется на аппаратной платформе Gigabyte G293, интегрированной с высокоэффективной гибридной СЖО Iceotope Precision Liquid Cooling, сочетающей прямое жидкостное охлаждение с погружным охлаждением в одном шасси.

Известно, что в сервере применяются процессоры Intel Xeon. Установлены восемь ускорителей. Устройство имеет аккредитацию NVIDIA Certified-Solutions. Оно оптимизировано по конструкции для жидкостного охлаждения на основе диэлектрических теплоносителей. Утверждается, что благодаря системе Iceotope Precision Liquid Cooling сервер KUL AI обеспечивает бесперебойную и надёжную работу при поддержании оптимальной температуры. При этом достигается защита критически важных компонентов и сводится к минимуму частота отказов даже во время интенсивных и продолжительных ИИ-нагрузок.

Устройство имеет размеры 121 × 53 × 13,5 см и весит 99 кг. В набор интерфейсов в зависимости от варианта исполнения входят до четырёх сетевых портов 10Gb RJ-45 и QSFP28 или SFP28, порты USB 3.2 Type-A, аналоговый разъём D-Sub и коннектор 1Gb RJ-45. Говорится о практически бесшумной работе и герметичном исполнении. По заявлениям разработчика, новинка идеально подходит для чувствительных к задержкам периферийных вычислений, включая среды с экстремальными условиями эксплуатации.

 Источник изображения: Iceotope

Источник изображения: Iceotope

«KUL AI позволяет организациям развёртывать ИИ везде, где это необходимо, открывая новые возможности в плане операционной эффективности и инноваций даже в самых сложных IT-средах», — заявляет Iceotope.

Постоянный URL: http://servernews.ru/1114771
Система Orphus