Материалы по тегу: облако
15.10.2024 [21:15], Сергей Карасёв
Проект Vscale закрывается: клиентам предлагается мигрировать на платформу SelectelРоссийский провайдер Selectel сообщил о закрытии проекта Vscale, в рамках которого предоставлялись базовые инфраструктурные сервисы предприятиям малого бизнеса, начинающим IT-специалистам, индивидуальным разработчикам, системным администраторам и стартапам. Всем клиентам Vscale предлагается мигрировать на платформу Selectel. Напомним, компания Selectel перезапустила облачный бренд Vscale в конце 2023 года. Тогда сообщалось, что сервисы Vscale предназначены для хостинга сайтов, приложений и чат-ботов, учебных проектов, тестовых стендов, игровых серверов, рендеринга и работы с ресурсоёмким ПО. Клиенты могли арендовать выделенные и облачные серверы в настроенных конфигурациях с почасовой оплатой. ![]() Источник изображения: Vscale На сайте Vscale говорится, что в рамках проекта создавалась базовая и доступная инфраструктура для бизнеса и пользователей любого масштаба. Вместе с тем от клиентов поступали запросы на дополнительную функциональность — DBaaS, S3, CDN, IPv6 и пр. Эти возможности будут доступны в основной облачной платформе Selectel. «Запустив Vscale, мы протестировали спрос на фоне ухода зарубежных игроков с похожими продуктовыми решениями. Мы увидели, что у клиентов есть запрос на расширение их IT-проектов и, как следствие, дополнительную функциональность и сервисы, которые уже реализованы на высоком уровне в Selectel. В связи с этим мы приняли решение не развивать далее бренд базовых инфраструктурных сервисов Vscale. Мы фокусируемся на нашем основном бренде — Selectel, под которым предоставляем, в том числе, и доступные сервисы для бизнеса любых размеров», — говорится в заявлении компании. В процессе миграции будет выполнено создание учётных записей в Selectel для пользователей Vscale с использованием данных, предоставленных при регистрации в Vscale. При этом будет осуществляться создание нового аккаунта, поскольку технически сохранить условия из Vscale можно только таким способом. В новую учётную запись в Selectel будут перенесены виртуальные машины, образы, сетевые диски, публичные IP, приватные подсети и роутеры. Все текущие настройки ресурсов сохранятся. Кроме того, будут перенесены актуальные на время миграции клиентские лимиты на заказ ресурсов в том регионе, зоне доступности и пуле, который был у клиента в Vscale. Для миграции Kubernetes потребуются дополнительные действия. Миграция запланирована на 11 ноября 2024 года. После этого станут доступны дополнительные услуги и продукты Selectel, такие как DBaaS, балансировщики нагрузки, CDN и др. Выделенные серверы будут переведены на посуточный тариф, а облачные серверы и Managed Kubernetes останутся на почасовом. DNS останется бесплатным. В случае переноса ресурсов на уже существующий аккаунт в Selectel компания не сможет обеспечить сохранение цен и условий Vscale. В Vscale предоставлялись виртуальные машины с гарантированной долей vCPU 10 % и 20 %. После миграции цена на них будет такой же, как и была в Vscale.
15.10.2024 [17:46], Андрей Крупин
«Группа Астра» сфокусируется на новой концепции серверной виртуализации«Группа Астра» сообщила о планах по реализации новой стратегии развития одного из ключевых направлений своего продуктового портфеля — виртуализации. Компания намерена обновить свои предложения в этой области, чтобы лучше удовлетворять потребности клиентов. В качестве одной из причин, побудивших руководство «Группы Астра» переосмыслить подход к виртуализации, в компании назвали появление новых технологий, таких как облачные вычисления. «Мы провели тщательный анализ рынка и собрали отзывы клиентов, которые выявили несколько ключевых направлений для улучшения: масштабируемость, безопасность и управление ресурсами», — говорится в заявлении разработчика, намеревающегося сфокусироваться на развитии Hyper Cloud — облачного инфраструктурного ПО, неотъемлемой частью которого станут наработки вендора в области виртуализации. ![]() Источник изображения: «Группа Астра» / astragroup.ru В качестве реальных примеров трансформации направления виртуализации «Группы Астра» в компании привели выпуск программно-аппаратных комплексов с предустановленной платформой для построения защищённого инфраструктурного частного облака Astra Infrastructure Cloud (AIC), одним из ключевых компонентов которой является востребованное у российских заказчиков решение для серверной и облачной виртуализации ПК СВ «Брест», а также облачный сервис Astra Cloud, в основе которого тоже лежит AIC. ![]() Источник изображения: «Группа Астра» / astragroup.ru За вертикаль серверной виртуализации в новом бизнес-направлении «Группы Астра» будет отвечать платформа VMmanager. Решение позволяет решать широкий спектр задач по виртуализации от построения отказоустойчивого кластера и автоматизации выдачи виртуальных машин до предоставления виртуальных рабочих столов (VDI). Кроме того, компания намерена предложить гибридные решения, позволяющие перемещать нагрузки между локальными и облачными средами. «Трансформация нашего направления в виртуализации — это ответ на вызовы современного рынка и стремление обеспечить клиентов инновационными, безопасными и эффективными решениями. Мы уверены, что новые продукты поддержат бизнес-процессы наших клиентов и помогут им успешно развиваться в условиях цифровой трансформации. Наша компания уверенно движется к созданию следующего поколения виртуализации, которое станет основой для будущего IT-инфраструктуры», — поделились планами в «Группе Астра».
15.10.2024 [09:13], Руслан Авдеев
iKS-Consulting: коммерческие ЦОД в России вытесняют корпоративные дата-центрыКоммерческие дата-центры в России пользуются всё большим спросом. По данным Forbes, речь идёт не только об использовании облаков — многие компании вместо эксплуатации собственных ЦОД всё чаще предпочитают размещать собственные серверы на арендованных объектах. Согласно прогнозам iKS-Consulting, уже к 2028 году рынок коммерческих ЦОД в России, возможно, вырастет в 2,1 раза в сравнении с 2023 годом — до 148 тыс. стойко-мест. В денежном выражении на фоне роста спроса рынок может вырасти в 2,8 раза — до 121 млрд рублей. Одной из вероятных причин называется рост арендных ставок для размещения серверов клиентов. При этом рынок облачной инфраструктуры к концу 2024 года может вырасти до 162 млрд руб., а к 2028 году — составить 464 млрд руб. (в 2023 году он составил 121,4 млрд руб.). Из-за быстрого роста объёмов хранимой и обрабатываемой информации компании могут либо развивать собственную IT-инфраструктуру, либо арендовать её у оператора, поскольку собственные ЦОД могут позволить себе лишь очень крупные бизнесы. По данным Forbes, в последние годы доля ЦОД, принадлежащих компаниям, на российском рынке неуклонно снижается. При этом, если в 2023 году доля коммерческих ЦОД составляла 18,6 % по объёму серверных стоек, то в 2027 году она, возможно, превысит 25 %. В мире этот показатель достиг 31 %, а доля корпоративных ЦОД постепенно сокращается. Как отмечают в iKS-Consulting, с 2020 года рынок коммерческих ЦОД в России вырос на 80 %, а в 2024 году, вероятно, составит 82,4 тыс. стойко-мест. Лидером рынка является дочерняя структура «Ростелекома» — РТК-ЦОД. Этим летом она приобрела крупный ЦОД на севере Москвы и теперь располагает 27 тыс. серверных стоек. У ближайших конкурентов IXcellerate, «Росатома» и DataPro насчитывается более 8,3 тыс. стоек, 6,6 тыс. стоек и 6,6 тыс. стоек соответственно. 3data из-за сделки PNK Group с «Ростелекомом» откатилась с четвёртого на седьмое место. Среди российских клиентов популярны как облака, так и колокация. Выбор во многом зависит от возможностей IT-специалистов компаний. При этом облачные сервисы предоставляют далеко не все операторы ЦОД, поскольку для этого требуется немало средств и компетенций. Из десятки операторов коммерческих ЦОД, по данным Forbes, лишь три числятся в десятке облачных провайдеров: РТК-ЦОД, Selectel и МТС. Впрочем, компании всё активнее пользуются облачными сервисами. Основные критерии выбора: кибербезопасность, экономическая целесообразность и бесперебойная работа IT-инфраструктуры. Впрочем, есть и негативные тенденции. По словам iKS-Consulting, среди основных трендов отрасли в России — увеличение сроков эксплуатации инженерного оборудования дата-центров. Основные причины — рост стоимости и сложности с закупками из-за увеличения санкционного давления.
14.10.2024 [11:44], Руслан Авдеев
CoreWeave получила кредитную линию на $650 млн для развития ИИ-облакаОблачный провайдер CoreWeave привлёк кредитную линию на $650 млн от крупного инвестиционного бизнеса для масштабирования своей деятельности по всему миру. По данным Silicon Angle, лидерами раунда финансирования стали JPMorgan Chase, Goldman Sachs и Morgan Stanley, к ним присоединились Barclays, CitiGroup, Deutsche Bank, Jefferies, Mizuho, MUFG и Wells Fargo. За последние 18 месяцев компания уже привлекла $12,7 млрд в виде акционерного капитала и долговых обязательств, оценка компании составила $19 млрд. В компании утверждают, что новая кредитная линия будет способствовать росту в быстроразвивающейся сфере ИИ. Сегодня CoreWeave выступает оператором публичного облака, обеспечивающего доступ к ускорителям NVIDIA для ИИ и рендеринга — в том числе доступны NVIDIA H100 и H200. Ещё в августе компания заявила, что стала первым облачным провайдером, предоставившим клиентам доступ к новейшим ускорителям NVIDIA H200. Обучение и внедрение больших языковых моделей (LLM) требует больших вычислительных ресурсов, но CoreWeave говорит, что её инфраструктура позволяет легко масштабировать ИИ-нагрузки в облаке. ![]() Источник изображения: CoreWeave На сегодня инвестиции в ИИ-платформы очень популярны, поскольку спрос на вычисления продолжает расти. Например, ранее в этом месяце OpenAI уже привлекла кредитную линию на $4 млрд и ещё $6.6 миллиарда в рамках инвестиционного раунда. При этом в формировании кредитных линий CoreWeave и OpenAI зачастую участвуют одни и те же инвестиционные компании. Недавно CoreWeave открыла европейскую штаб-квартиру в Лондоне. При этом она намерена инвестировать $3,5 млрд в расширение бизнеса в Европе. В том числе речь идёт об открытии двух ЦОД в Великобритании, не считая дата-центров в Норвегии, Швеции и Испании. До конца года компания намерена получить в своё распоряжение до 28 ЦОД по всему миру. В 2025 году запланировано открытие ещё 10 дата-центров. В апреле прошлого года CoreWeave получила $221 млн, а потом — ещё $200 млн. В августе 2023 года было объявлено о долговом финансировании в размере $2,3 млрд под залог ускорителей NVIDIA. В декабре того же года CoreWeave провела раунд финансирования на $642 млн, а в мае текущего года она получила $1,1 млрд. Позже компания привлекла ещё $7,5 млрд. Наконец, в октябре появилась информация о намерении Cisco инвестировать в компанию. При этом в рамках сделки CoreWeave может получить оценку в $23 млрд.
10.10.2024 [19:08], Владимир Мироненко
TensorWave привлёк $43 млн на закупку ускорителей AMD Instinct MI300X для своего ИИ-облака, в том числе от самой AMDСтартап TensorWave из Лас-Вегаса провёл раунд финансирования на условиях SAFE (simple agreements for future equity), в результате которого привлёк $43 млн, сообщили ресурсы DataCenter Dynamics и The Register. Условия SAFE означают, что инвесторы имеют право при определённых обстоятельствах конвертировать свои инвестиции в акции компании, но не смогут потребовать возврат денег. Финансовый раунд возглавил вице-президент Nexus, также в нём приняли участие Maverick Capital, Translink Capital, Javelin Venture Partners, Granite Partners и AMD Ventures. Полученные средства TensorWave планирует использовать для оснащения своего основного ЦОД ускорителями AMD Instinct MI300X, на расширение команды, а также на подготовку к внедрению следующего поколения ускорителей Instinct MI325X и запуска новой корпоративной инференс-платформы Manifest в IV квартале 2024 года. По словам компании, Manifest, разработанная для поддержки более крупных контекстных окон ИИ-моделей с уменьшенной задержкой, помимо быстрого инференса позволяет анализировать сложные документы и безопасно обрабатывать и хранить конфиденциальные данные. Основанный в прошлом году стартап TensorWave, в отличие от большинства участников рынка ИИ, использующих ускорители NVIDIA, делает ставку на ускорители AMD Instinct. Разворачивать системы на базе MI300X стартап начал этой весной. Ускоритель MI300X также получил достаточно широкое распространение среди ряда облачных провайдеров. В частности, его использует Microsoft для обслуживания ИИ-модели OpenAI GPT-4 Turbo и многих сервисов Copilot. Oracle готова развернуть кластер из 16 384 MI300X. Также облачный стартап Vultr начал предлагать инстансы на базе MI300X. MI300X имеет больше памяти, чему у того же NVIDIA H100 — 192 Гбайт против 80 Гбайт. С выпуском ускорителей следующего поколения MI325X в конце этого года AMD ещё больше увеличит преимущество, поскольку ёмкость HBM3e-памяти ускорителя вырастет до 288 Гбайт. Это втрое больше, чем у H100, и наполовину больше, чем у будущих ускорителей NVIDIA Blackwell, говорит компания. Больший объём памяти особенно ценен для тех, кто запускает крупные ИИ-модели в FP16-формате. При 1536 Гбайт на узел система на базе MI300X может легко вместить модель Llama 3.1 405B от Meta✴, тогда как при использовании ускорителей H100 для этого её придётся разделить между несколькими системами или ужать с помощью 8-бит квантования. Можно также «втиснуть» несжатую модель в один узел с ускорителями NVIDIA H200, но тогда не останется достаточно места для большего контекстного окна, поддерживаемого моделью.
10.10.2024 [14:54], Владимир Мироненко
Selectel запустил бета-тестирование собственной инференс-платформы для ускорения запуска ИИ-моделейРоссийский провайдер сервисов IT-инфраструктуры Selectel приступил к бета-тестированию инференс-платформы собственной разработки, которая позволит упростить запуск ML-моделей в промышленную эксплуатацию и ускорить их работу. Как сообщается на сайте провайдера, с помощью нового сервиса можно всего за несколько минут развернуть готовую модель на вычислительных мощностях провайдера без привлечения разработчиков. Решение нацелено на компании, использующие в работе ИИ-модели для обеспечения функционирования голосовых роботов в колл-центрах, чат-ботов для консультаций сотрудников и клиентов, сервисов распознавания изображений и других задач. С помощью платформы можно загружать модели в объектное хранилище Selectel, а на выходе получить готовые API. Также с её помощью можно регулярно обновлять версии моделей без прекращения обработки поступающих пользовательских запросов. Selectel отметил, что благодаря инференс-платформе можно в несколько раз сократить время вывода ИИ-проектов на рынок, причём с учётом конкретных профилей нагрузок и требований к производительности, которые помогут подобрать и донастроить специалисты ML-команды провайдера. Платформа построена на базе GPU-кластеров Managed Kubernetes с использованием открытых инструментов NVIDIA Triton Inference Server, Ray Serve Cluster и Istio Ingress Controller. Решение полностью независимо от привязки к поставщику (vendor lock) и обеспечивает высокую производительность за счёт встроенных возможностей по повышению пропускной способности и максимальной утилизации ресурсов.
09.10.2024 [12:44], Алексей Степин
AMD анонсировала ускоритель Radeon PRO V710 для облака Microsoft AzureПосле долгого затишья обновилась серия графических ускорителей AMD Radeon PRO — Advanced Micro Devices представила Radeon PRO V710, созданный специально по заказу Microsoft для размещения в облаке Azure. Новинка характеризуется немалым для своего класса объёмом видеопамяти — она несёт на борту целых 28 Гбайт, то есть, больше, чем у всех сегодняшних игровых GPU, включая GeForce RTX 4090 и Radeon RX 7900 XTX. При этом AMD Radeon PRO V710 не является вычислительным ускорителем в чистом виде, хотя и способен развивать 27,7 Тфлопс в режиме FP16 и 55,3 Топс в режиме INT8 на частоте 2 ГГц. В состав 5-нм новинки, состоящей из 28,1 млрд транзисторов, входят 3456 потоковых процессора, сгруппированных в 54 вычислительных блока RDNA 3. Реализована поддержка аппаратного ускорения трассировки лучей. ![]() Источник здесь и далее: AMD Памяти, как уже отмечалось, новинка получила 28 Гбайт. Это GDDR6 ECC с 224-битной шиной, обеспечивающей пропускную способность 448 Гбайт/с. При этом 4 Гбайт этой памяти всегда используются для системных нужд, так что пользовательским задачам доступно лишь 24 Гбайт. Графический процессор располагает также 54 Мбайт быстрого кеша AMD Infinity Cache. ![]() Технически Radeon PRO V710 представляет собой полноразмерную плату расширения PCIe 4.0 x16 одинарной высоты с пассивным охлаждением. При теплопакете 158 Вт адаптер полностью полагается на систему охлаждения сервера. Поскольку это, по сути, заказное решение, приобрести отдельно данный ускоритель будет нельзя, а в условиях ЦОД проблем с охлаждением быть не должно, к тому же, частота GPU намеренно ограничена планкой 2 ГГц. ![]() Главной сферой применения Radeon PRO V710 станет его применение в облачных сценариях класса Desktop-as-a-Service и Workstation-as-a-Service, то есть для запуска виртуальных рабочих сред. Набортный кодировщик видео поддерживает сжатие в форматах AV1, HEVC H.265 и AVC H.264. Также озвучены сценарии облачного гейминга и применения ускорителя в инференс-системах. В последнем случае будет актуальна совместимость с AMD ROCm и наличие блоков ускорения перемножения матриц. Microsoft Azure уже анонсировала новые инстансы на основе нового ускорителя. Они поддерживают в качестве гостевых систем как Windows, так и Linux, в последнем случае обеспечена поддержка Azure Kubernetes Service. Количество виртуальных vCPU – от 4 до 28, объёмы пользовательской памяти начинаются с 16 Гбайт и достигают 160 Гбайт, а видеопамяти за счёт поддержки SR-IOV выделяется от 4 до 24 Гбайт. Минимальная ширина сетевого канала при этом составит 3,3 Гбит/с, а максимальная — 20 Гбит/с.
08.10.2024 [14:24], Руслан Авдеев
Квантовое облако — это надёжно: D-Wave анонсировала SLA для своего сервиса квантовых вычислений LeapКомпания D-Wave анонсировала соглашения об уровне обслуживания (SLA) для своего облачного квантового сервиса Leap, что косвенно говорит о желании компании заявить о высоком уровне доступности, надёжности и масштабируемости своих услуг и возможности предоставлять квантовые сервисы коммерческого уровня. Точные условия SLA для Leap не разглашаются, но D-Wave говорит о работоспособности и доступности системы на уровне 99,9 %, при этом время решения задач не превышает 1 с даже в случае больших вычислительных нагрузок. Запущенный в 2018 году сервис Leap обеспечивает облачный доступ в режиме реального времени к квантовым компьютерам D-Wave, работающим в режиме реального времени и использующим технологию т.н. «квантового отжига». В D-Wave утверждают, что в последние два года сервис покзала доступность выше 99,9 % и Solver API, и кластера квантовых компьютеров компании. С момента запуска сервиса Leap клиенты выполнили около 200 млн задач без необходимости предварительного бронирования, ожидания в очереди или попадания в ситуацию недоступности оборудования. В том числе за последние 12 месяцев были поданы 60 млн задач. Как заявляют в компании, с ускорением перехода к коммерческому внедрению квантовых технологий обеспечение бесперебойного доступа к квантовому облаку как никогда важно. SLA разработано именно для того, чтобы поддерживать динамичный переход, способствующий процветанию бизнеса. Большинство провайдеров квантовых вычислений предлагают доступ посредством облачных порталов — или собственных, или созданных в партнёрстве с крупными облаками. При этом уровень доступности таких сервисов пока что гораздо ниже, чем у практически любого другого облачного сервиса, отмечает DataCenter Dynamics. Квантовые системы весьма чувствительны к окружению, где они работают, а из-за своей технической сложности весьма медленно ремонтируются. Кроме того, число квантовых компьютеров ограничено, поэтому задачи клиентов часто приходится выстраивать в очередь. Как заявляют эксперты IDC, интеграция квантовых вычислений в общую IT-инфраструктуру компаний требует использования систем, готовых обеспечить некоторые гарантии на работу в режиме реального времени, вроде SLA. Необходим такой же уровень обслуживания, который предоставляется сегодня, например, SaaS. Впрочем, у D-Wave пока немало проблем. На сегодня компании грозит делистинг с Нью-Йоркской фондовой биржи — акции компании котируются очень низко.
08.10.2024 [12:36], Сергей Карасёв
Inflection AI и Intel представили ИИ-систему на базе Gaudi3Стартап Inflection AI и корпорация Intel объявили о сотрудничестве с целью ускорения внедрения ИИ в корпоративном секторе. В рамках партнёрства состоялся анонс Inflection for Enterprise — первой в отрасли ИИ-системы корпоративного класса на базе ускорителей Intel Gaudi3 и облака Intel Tiber AI Cloud (AI Cloud). Inflection AI основана в 2022 году Мустафой Сулейманом (Mustafa Suleyman), одним из основателей Google DeepMind, а также Ридом Хоффманом (Reid Hoffman), одним из учредителей LinkedIn. Стартап специализируется на технологиях генеративного ИИ. В середине 2023 года Inflection AI получила на развитие $1,3 млрд: в число инвесторов вошли Microsoft и NVIDIA. Inflection for Enterprise объединяет Gaudi3 с большой языковой моделью (LLM) Inflection 3.0. Утверждается, что это ПО при использовании на аппаратной платформе Intel демонстрирует вдвое более высокую экономическую эффективность по сравнению с некоторыми конкурирующими изделиями. Заказчики получат LLM, настроенную в соответствии с их пожеланиями. Для удовлетворения потребностей каждого конкретного клиента применяется обучение с подкреплением на основе отзывов людей (RLHF). При этом используются данные, предоставленные самим заказчиком. ![]() Источник изображения: Intel Отмечается, что облако AI Cloud упрощает создание, тестирование и развёртывание ИИ-приложений в единой среде, ускоряя время выхода продуктов на рынок. Тонко настроенные ИИ-модели доступны исключительно клиенту и не передаются в третьи руки. На первом этапе системы Inflection for Enterprise будут предлагаться через облако AI Cloud. В I квартале 2025 года планируется организовать поставки программно-аппаратных комплексов.
07.10.2024 [12:19], Сергей Карасёв
В облаке Microsoft Azure появились инстансы ND H200 v5 на базе NVIDIA H200В августе 2023 года Microsoft развернула в своём облаке Azure инстансы ND H100 v5 на базе NVIDIA H100 для HPC-вычислений и нагрузок ИИ. А теперь запущены машины ND H200 v5 с ускорителями NVIDIA H200, оптимизированные для инференса и обучения больших языковых моделей (LLM). Новые инстансы объединяют восемь ускорителей NVIDIA H200, каждый из которых содержит 141 Гбайт памяти HBM3e с пропускной способностью 4,8 Тбайт/с. По сравнению с NVIDIA H100 объём памяти увеличился на 76 %, пропускная способность — на 43 %. Для ND H200 v5 предусмотрена возможность масштабирования до тысяч ускорителей при помощи интерконнекта на базе NVIDIA Quantum-2 CX7 InfiniBand с пропускной способностью до 400 Гбит/с в расчёте на ускоритель (до 3,2 Тбит/с на виртуальную машину). В составе инстансов задействованы чипы Intel Xeon поколения Sapphire Rapids: каждая виртуальная машина насчитывает 96 vCPU. Объём памяти составляет 1850 Гбайт, вместимость локального хранилища — 28 000 Гбайт. Обеспечивается доступ к 16 облачным накопителям. Кроме того, используются восемь сетевых адаптеров (суммарно до 80 Гбит/c). ![]() Источник изображения: Microsoft Виртуальные машины ND H200 v5 имеют предварительную интеграцию с Azure Batch, Azure Kubernetes Service, Azure OpenAI Service и Azure Machine Learning. Говорится, что инстансы обеспечивают высокую производительность при решении различных задач, связанных с ИИ, машинным обучением и аналитикой данных. |
|