Материалы по тегу: разработка
10.04.2025 [19:23], Владимир Мироненко
Cloud.ru готовит облачную платформу для локального развёртывания ИИ-сервисовПровайдер облачных и ИИ-технологий Cloud.ru объявил о разработке новой платформы для локального развёртывания ИИ-сервисов Cloud.ru Evolution Stack AI-bundle, представляющей собой конфигурацию решения Cloud.ru Evolution Stack, оптимизированную под выполнение ML- и ИИ-задач. Новая платформа объединит возможности частного и гибридного облака Cloud.ru с набором инструментов для быстрой и безопасной разработки ИИ-продуктов с полным контролем данных. Решение будет востребовано представителями финансового и государственного секторов, операторами облачных ЦОД, крупным ретейлом и промышленными предприятиями. Использование платформы позволит упростить запуск и масштабирование ИИ-сервисов, снизит для пользователей порог входа в разработку ИИ-решений и ускорит их внедрение предприятиями. Cloud.ru Evolution Stack AI-bundle будет включать сервисы для end-to-end ML-разработки и локального развёртывания, кастомизации и дальнейшего масштабирования моделей, в том числе:
Новая платформа будет базироваться на собственных разработках Cloud.ru в сфере ИИ, используемых в облачной платформе Cloud.ru Evolution, и свободно распространяемых компонентах. С её помощью можно будет решать ИИ-задачи в гибридном сценарии: например, обучать модели в публичном облаке, а инференс выполнять в частном контуре клиента, или, наоборот, переносить процесс в публичное облако в периоды высокой нагрузки. Используя OSS/BSS-инструменты, платформа поддерживает мультитенантную архитектуру, централизованное управление доступом, мониторинг сервисов и определение квот на используемые ресурсы. При необходимости Cloud.ru Evolution Stack AI-bundle будет дополняться другими IaaS/PaaS провайдера при создании облачного решения под ключ для использования на уровне всей инфраструктуры клиента. Также можно будет дополнять предложение Cloud.ru Evolution Stack ИИ-решениями из портфеля Evolution Stack AI-bundle. Платформа для создания гибридного и частного облака Cloud.ru входит в реестр российского программного обеспечения и соответствует требованиям импортозамещения. Помимо лицензионного ПО, разрабатываемая платформа будет доступна в составе программно-аппаратных комплексов для ИИ-задач с поставкой по подписке. По словам Cloud.ru, новая платформа обеспечит крупному бизнесу и государственным организациям возможность использования ИИ-сервисов и полного набора инструментов публичного облака Cloud.ru Evolution on-premise.
10.04.2025 [13:27], Владимир Мироненко
Cloud.ru готовит решение полного цикла для работы с ИИ в облакеПровайдер облачных и ИИ-технологий Cloud.ru анонсировал Cloud.ru Evolution AI Factory, цифровую среду для разработки приложений и агентов на основе ИИ в облаке, которая объединяет облачные ИИ- и ML-инструменты для работы с генеративными нейросетями и управления жизненным циклом ИИ-приложений. Это универсальная среда с широким спектром возможностей: от обучения моделей до запуска мультиагентных систем. С помощью Cloud.ru Evolution AI Factory компании смогут создавать собственные ИИ-приложения по предлагаемым готовым шаблонам или работать с кастомизированными ИИ-моделями. Благодаря удобному набору технологий и встроенных ассистентов с решением можно работать даже без специальных навыков. Использование Cloud.ru Evolution AI Factory позволит компаниям значительно снизить затраты на вычислительную инфраструктуру, повысить эффективность работы и сократить сроки вывода новых продуктов на рынок. Как сообщил глава Cloud.ru, решение будет доступно клиентам этим летом с полностью готовой инфраструктурой, сервисами и продуктами для простого и быстрого создания ИИ-приложений. Платформа включает:
Сообщается, что новое решение позволяет объединить в Cloud.ru не только инструменты для создания ИИ-приложений, но и независимых разработчиков ПО, чтобы упростить работу с облаком и бизнеса в целом.
10.04.2025 [12:12], Сергей Карасёв
Cloud.ru: почти две трети российских IT-специалистов доверяют ИИПровайдер облачных сервисов Cloud.ru обнародовал результаты исследования, посвящённого использованию средств ИИ российскими IT-специалистами. Выяснилось, что более 70 % респондентов применяют ИИ-сервисы как минимум раз в неделю, а 39 % разработчиков ПО используют такие инструменты ежедневно. Опубликованные цифры получены в ходе опроса разработчиков, тестировщиков, аналитиков данных и представителей других IT-специальностей с разным уровнем подготовки со всей России. Большинство респондентов отмечают, что навыки работы с ИИ становятся всё более значимыми на рынке труда. В частности, 70 % участников опроса периодически встречают в вакансиях обязательное требование владеть навыками и инструментами ИИ, а 22 % респондентов сталкиваются с подобными требованиями регулярно. Практически две трети — 62 % — IT-специалистов в России доверяют ИИ как напарнику. Почти половина опрошенных, в чьих компаниях активно поддерживается использование ИИ, оценили доверие к технологии наивысшим баллом. Вместе с тем 46 % респондентов больше доверяют российским ИИ-сервисам, тогда как одинаковое доверие к отечественным и зарубежным инструментам проявляют менее трети специалистов — около 31 %. Среди наиболее популярных сценариев использования ИИ названы (респонденты могли выбирать несколько ответов):
В целом, как сказано в исследовании, применение ИИ помогает российским IT-специалистам работать быстрее и эффективнее, минимизирует усилия, избавляет от рутины, повышает чувство уверенности и комфорта, освобождая больше времени для профессиональной реализации и решения интересных мотивирующих задач.
09.04.2025 [17:48], Руслан Авдеев
ИИ Google Gemini поможет переписать приложения для мейнфреймов и перенести их в облакоНезадолго до анонса новых мейнфреймов IBM z17 компания Google анонсировала новые ИИ-инструменты на основе моделей Gemini и других технологий для модернизации инфраструктуры и переносу нагрузок с в облако Google Cloud. Google Cloud Mainframe Assessment Tool (MAT) на основе ИИ-моделей Gemini уже доступен. Инструмент позволяет оценить и проанализировать общее состояние мейнфреймов, включая приложения и данные. Это даст возможность принимать информированные решения по оптимальной модернизации. MAT обеспечивает глубокий анализ кода, генерирует чёткие объяснения его работы, автоматизирует создание документации и др. Это позволяет ускорить понимание кода мейнфреймов и стимулирует процесс модернизации. Google Cloud Mainframe Rewrite на основе моделей Gemini позволяет модернизировать приложения для мейнфреймов (инструмент доступен в превью-режиме). Он помогает разработчикам переосмыслить и преобразовать код для мейнфреймов, переписав его на современные языки программирования вроде Java и C#. Mainframe Rewrite предлагает IDE для модернизации кода, тестирования и развёртывания модернизированных приложений в Google Cloud. Наконец, чтобы снизить риски, возникающие при модернизации, предлагается инструмент Google Cloud Dual Run для глубокого тестирования, сертификации и оценки модернизированных приложений. Инструмент позволяет проверить корректность, полноту и производительность модернизированного кода в ходе миграции и до того, как новое приложение заменит старое. Dual Run сравнивает данные, выдаваемые старой и новой системами, для поиска отличий. Имеются и дополнительные инструменты, разработанные партнёрами Google. Так, Mechanical Orchard предлагает платформу для быстро переписывания приложений на COBOL на современные языки, включая Java, Python и др., без изменения бизнес-логики. Решение позволяет «пошагово» переписывать фрагменты приложений с помощью систем генеративного ИИ с сохранением функциональности и тестировать корректность их работы. Основная цель — создать для облака функциональный эквивалент устаревших решений. Кроме того, в рамках новой программы Google Mainframe Modernization with Gen AI Accelerator компания привлекла Accenture, EPAM и Thoughtworks, которые помогут организациям мигрировать с мейнфреймов. На первом этапе производится анализ кода с помощью MAT и Gemini. На втором реализуется пилотный проект с проверкой работоспособности нового кода. На третьем осуществляется полномасштабная миграция в облако. Первые клиенты могут бесплатно (без учёта расходов на Google Cloud) оценить решения в течение 4-8 недель. Мейнфреймы ещё рано списывать со счетов. Согласно данным опроса Kyndryl 500 топ-менеджеров ИТ-индустрии, многие организации интегрируют мейнфреймы с публичными и частными облачными платформами и совершенствуют свои программы модернизации, перемещая некоторые рабочие нагрузки с мейнфреймов или обновляя их.
07.04.2025 [16:37], Владимир Мироненко
MTS AI представила российского конкурента GitHub Copilot — ИИ-ассистента для разработчиков Kodify 2Компания MTS AI (дочерняя структура МТС Web Services) объявила о выходе ИИ-ассистента для разработчиков второго поколения Kodify 2. Новая версия ИИ-ассистента поддерживает 90 языков программирования, предлагая основные возможности для автоматизации и ускорения процесса разработки, включая автодополнение кода, исправление ошибок, генерацию тестов и документации, оптимизацию кода, а также преобразование текста в код. Kodify 2 с 7 млрд параметров поддерживает контекст длиной до 32 768 токенов и имеет API, совместимый OpenAI, что обеспечивает возможность интеграции с другими системами. Согласно проведённым тестам, Kodify 2 сопоставим по возможностям с лидирующим на рынке продуктом GitHub Copilot. В генерации тестов Kodify 2 выполнил задачу так же или лучше, чем GitHub Copilot, в 57 % случаев, а в преобразовании текста в код — в 48 % случаев. Тестирование проводилось методом прямого сравнения и оценки с помощью модели-судьи Claude Sonnet 3.5. ![]() Источник изображения: MTS AI ИИ-агент Kodify используется c 2024 года командами разработки компаний из ПАО «МТС», а версия Kodify 2 будет доступна для покупки внешними заказчиками. По оценкам MTS AI, объём российского рынка ИИ-ассистентов для разработчиков в этом году составит 17,4 млрд руб., включая 13,9 млрд руб. сегмента on-premise-решений, и 3,5 млрд руб. — облачных. Доля рынка MTS AI может составить 10 %.
24.03.2025 [08:30], Владимир Мироненко
NVIDIA представила проект AI-Q Blueprint Platform для создания продвинутых ИИ-агентовПризнавая, что одних моделей, включая свежие Llama Nemotron с регулируемым «уровнем интеллекта», недостаточно для развёртывания ИИ на предприятии, NVIDIA анонсировала проект AI-Q Blueprint, представляющий собой фреймворк с открытым исходным кодом, позволяющий разработчикам подключать базы знаний к ИИ-агентам, которые могут действовать автономно. Blueprint был создан с помощью микросервисов NVIDIA NIM и интегрируется с NVIDIA NeMo Retriever, что упрощает для ИИ-агентов извлечение мультимодальных данных в различных форматах. С помощью AI-Q агенты суммируют большие наборы данных, генерируя токены в 5 раз быстрее и поглощая данные петабайтного масштаба в 15 раз быстрее с лучшей семантической точностью. Проект основан на новом наборе инструментов NVIDIA AgentIQ для бесшовного, гетерогенного соединения между агентами, инструментами и данными, опубликованном на GitHub. Он представляет собой программную библиотеку с открытым исходным кодом для подключения, профилирования и оптимизации команд агентов ИИ, работающих на основе корпоративных данных для создания многоагентных комплексных (end-to-end) систем. Его можно легко интегрировать с существующими многоагентными системами — как по частям, так и в качестве комплексного решения — с помощью простого процесса адаптации, который обеспечивает полную поддержку. Набор инструментов AgentIQ также повышает прозрачность с полной отслеживаемостью и профилированием системы, что позволяет организациям контролировать производительность, выявлять неэффективность и иметь детальное представление о том, как генерируется бизнес-аналитика. Эти данные профилирования можно использовать с NVIDIA NIM и библиотекой с открытым исходным кодом NVIDIA Dynamo для оптимизации производительности агентских систем. Благодаря этим инструментам предприятиям будет проще объединять команды ИИ-агентов в таких решениях, как Agentforce от Salesforce, поиск Atlassian Rovo в Confluence и Jira, а также ИИ-платформа ServiceNow для трансформации бизнеса, чтобы устранить разрозненность, оптимизировать задачи и сократить время ответа с дней до часов. AgentIQ также интегрируется с такими фреймворками и инструментами, как CrewAI, LangGraph, Llama Stack, Microsoft Azure AI Agent Service и Letta, позволяя разработчикам работать в своей предпочтительной среде. Azure AI Agent Service интегрирован с AgentIQ для обеспечения более эффективных агентов ИИ и оркестровки многоагентных фреймворков с использованием семантического ядра, которое полностью поддерживается в AgentIQ. Возможности ИИ-агентов уже широко используются в различных отраслях. Например, платёжная система Visa использует ИИ-агентов для оптимизации кибербезопасности, автоматизируя анализ фишинговых писем в масштабе. Используя функцию профилирования AI-Q, Visa может оптимизировать производительность и затраты агентов, максимально увеличивая роль ИИ в эффективном реагировании на угрозы, сообщила NVIDIA.
24.03.2025 [01:37], Владимир Мироненко
NVIDIA анонсировала ИИ-модели Llama Nemotron с регулируемым «уровнем интеллекта»NVIDIA анонсировала новое семейство ИИ-моделей Llama Nemotron с расширенными возможностями рассуждения. Основанные на моделях Llama с открытым исходным кодом от Meta✴ Platforms, модели от NVIDIA предназначены для предоставления разработчикам основы для создания продвинутых ИИ-агентов, которые могут от имени своих пользователей независимо или с минимальным контролем работать в составе связанных команд для решения сложных задач. «Агенты — это автономные программные системы, предназначенные для рассуждений, планирования, действий и критики своей работы», — сообщила Кари Бриски (Kari Briski), вице-президент по управлению программными продуктами Generative AI в NVIDIA на брифинге с прессой, пишет VentureBeat. «Как и люди, агенты должны понимать контекст, чтобы разбивать сложные запросы, понимать намерения пользователя и адаптироваться в реальном времени», — добавила она. По словам Бриски, взяв Llama за основу, NVIDIA оптимизировала модель с точки зрения требований к вычислениям, сохранив точность ответов. NVIDIA сообщила, что улучшила новое семейство моделей рассуждений в ходе дообучения, чтобы улучшить многошаговые математические расчёты, кодирование, рассуждения и принятие сложных решений. Это позволило повысить точность ответов моделей до 20 % по сравнению с базовой моделью и увеличить скорость инференса в пять раз по сравнению с другими ведущими рассуждающими open source моделями. Повышение производительности инференса означают, что модели могут справляться с более сложными задачами рассуждений, имеют расширенные возможности принятия решений и позволяют сократить эксплуатационные расходы для предприятий, пояснила компания. Модели Llama Nemotron доступны в микросервисах NVIDIA NIM в версиях Nano, Super и Ultra. Они оптимизированы для разных вариантов развёртывания: Nano для ПК и периферийных устройств с сохранением высокой точности рассуждения, Super для оптимальной пропускной способности и точности при работе с одним ускорителем, а Ultra — для максимальной «агентской точности» в средах ЦОД с несколькими ускорителями. Как сообщает NVIDIA, обширное дообучение было проведено в сервисе NVIDIA DGX Cloud с использованием высококачественных курируемых синтетических данных, сгенерированных NVIDIA Nemotron и другими открытыми моделями, а также дополнительных курируемых наборов данных, совместно созданных NVIDIA. Обучение включало 360 тыс. часов инференса с использованием ускорителей H100 и 45 тыс. часов аннотирования человеком для улучшения возможностей рассуждения. По словам компании, инструменты, наборы данных и методы оптимизации, используемые для разработки моделей, будут в открытом доступе, что предоставит предприятиям гибкость в создании собственных пользовательских рвссуждающих моделей. Одной из ключевых функций NVIDIA Llama Nemotron является возможность включать и выключать опцию рассуждения. Это новая возможность на рынке ИИ, утверждает компания. Anthropic Claude 3.7 имеет несколько схожую функциональность, хотя она является закрытой проприетарной моделью. Среди моделей с открытым исходным кодом IBM Granite 3.2 тоже имеет переключатель рассуждений, который IBM называет «условным рассуждением». Особенность гибридного или условного рассуждения заключается в том, что оно позволяет системам исключать вычислительно затратные этапы рассуждений для простых запросов. NVIDIA продемонстрировала, как модель может задействовать сложные рассуждения при решении комбинаторной задачи, но переключаться в режим прямого ответа для простых фактических запросов. NVIDIA сообщила, что целый ряд партнёров уже использует модели Llama Nemotron для создания новых мощных ИИ-агентов. Например, Microsoft добавила Llama Nemotron и микросервисы NIM в Microsoft Azure AI Foundry. SAP SE использует модели Llama Nemotron для улучшения возможностей своего ИИ-помощника Joule и портфеля решений SAP Business AI. Кроме того, компания использует микросервисы NVIDIA NIM и NVIDIA NeMo для повышения точности завершения кода для языка ABAP. ServiceNow использует модели Llama Nemotron для создания ИИ-агентов, которые обеспечивают повышение производительности и точности исполнения задач предприятий в различных отраслях. Accenture сделала рассуждающие модели NVIDIA Llama Nemotron доступными на своей платформе AI Refinery. Deloitte планирует включить модели Llama Nemotron в свою недавно анонсированную платформу агентского ИИ Zora AI. Atlassian и Box также работают с NVIDIA, чтобы гарантировать своим клиентам доступ к моделям Llama Nemotron.
17.03.2025 [11:09], Сергей Карасёв
Toshiba открыла в Германии лабораторию инноваций в области HDDКорпорация Toshiba Electronics Europe GmbH объявила о создании лаборатории инноваций в области жёстких дисков в Дюссельдорфе (Германия). Специалисты HDD Innovation Lab займутся оценкой конфигураций систем на базе HDD для крупных IT-развёртываний, таких как сети хранения данных (SAN), масштабные сетевые хранилища (NAS), платформы видеонаблюдения и облачные сервисы. Как отмечает Райнер Каезе (Rainer Kaese), старший менеджер по развитию HDD-направления Toshiba, SSD обеспечивают существенные преимущества перед HDD в плане скоростных показателей. Однако при хранении огромных массивов данных, например, для приложений ИИ, формирование систем большой ёмкости на основе SSD оказывается нецелесообразным с финансовой точки зрения: стоимость изделий на базе флеш-памяти примерно в семь раз выше по сравнению с HDD при сопоставимой вместимости. ![]() Источник изображения: Toshiba Кроме того, по словам Каезе, корпорация Toshiba продемонстрировали, что 60 жёстких дисков в программно-определяемом хранилище ZFS могут заполнить всю пропускную способность сети 100GbE. Таким образом, для определённых типов задач применение HDD оказывается более выгодным, нежели использование дорогостоящих, но скоростных SSD. Лаборатория HDD Innovation Lab сфокусируется на оценках конфигураций RAID и масштабируемых СХД для корпоративных клиентов, дата-центров и облачных провайдеров. Ключевой особенностью площадки является возможность осуществлять тестирование для различных архитектур. Лаборатория объединяет все основные компоненты СХД на базе жёстких дисков, такие как различные серверы, массивы JBOD, шасси, контроллеры, кабели и сопутствующее ПО. В частности, задействованы одноузловые серверы, поддерживающие до 78 HDD суммарной вместимостью до 2 Пбайт при установке современных накопителей большой ёмкости. Площадка оснащена точным оборудованием для анализа энергопотребления. Лаборатория займётся выполнением оценочных работ для клиентов и партнёров в Европе и на Ближнем Востоке. Результаты тестирования в виде технических документов и отчётов будут доступны на сайте Toshiba Storage.
13.03.2025 [23:30], Владимир Мироненко
Бывший глава Google предупредил об опасности стремления США к доминированию в области ИИ
software
безопасность
ии
информационная безопасность
китай
прогноз
разработка
санкции
сша
ускоритель
цод
Бывший глава Google Эрик Шмидт (Eric Schmidt) опубликовал статью «Стратегия сверхразума» (Superintelligence Strategy), написанную в соавторстве с Дэном Хендриксом (Dan Hendrycks), директором Центра безопасности ИИ, и Александром Вангом (Alexandr Wang), основателем и генеральным директором Scale AI, в которой высказывается мнение о том, что США следует воздержаться от реализации аналога «Манхэттенского проекта» для достижения превосходства в области ИИ, поскольку это спровоцирует упреждающие киберответы со стороны, например, Китая, пишет The Register. Авторы статьи утверждают, что любое государство, которое создаст супер-ИИ, будет представлять прямую угрозу для других стран, и они, стремясь обеспечить собственное выживание, будут вынуждены саботировать такие проекты ИИ. Любая «агрессивная попытка одностороннего доминирования в области ИИ приведёт к превентивному саботажу со стороны конкурентов», который может быть реализован в виде шпионажа, кибератак, тайных операций по деградации обучения моделей и даже прямого физического удара по ИИ ЦОД. Авторы считают, что в области ИИ мы уже близки к доктрине взаимного гарантированного уничтожения (Mutual Assured Destruction, MAD) времён Холодной войны. Авторы дали нынешнему положению название «гарантированное взаимное несрабатывание ИИ» (Mutual Assured AI Malfunction, MAIM), при котором проекты ИИ, разрабатываемые государствами, ограничены взаимными угрозами саботажа. Вместе с тем ИИ, как и ядерные программы в своё время, может принести пользу человечеству во многих областях, от прорывов в разработке лекарств до автоматизации процессов производства, использование ИИ важно для экономического роста и прогресса в современном мире. Согласно статье, государства могут выбрать одну из трех стратегий.
Комментируя предложение Комиссии по обзору экономики и безопасности США и Китая (USCC) о госфинансирования США своего рода «Манхэттенского проекта» по созданию суперинтеллекта в какому-нибудь укромном уголке страны, авторы статьи предупредили, что Китай отреагирует на этот шаг, что приведёт лишь к длительному дисбалансу сил и постоянной нестабильности. Авторы статьи считают, что государства должны отдавать приоритет доктрине сдерживания, а не победе в гонке за искусственный сверхразум. MAIM подразумевает, что попытки любого государства достичь стратегической монополии в области ИИ столкнутся с ответными мерами со стороны других стран, а также приведут к соглашениям, направленным на ограничение поставок ИИ-чипов и open source моделей, которые по смыслу будут аналогичны соглашениям о контроле над ядерным оружием. Чтобы обезопасить себя от атак на государственном уровне с целью замедлить развитие ИИ, в статье предлагается строить ЦОД в удалённых местах, чтобы минимизировать возможный ущерб, пишет Data Center Dynamics. Тот, кто хочет нанести ущерб работе других стран в сфере ИИ, может начать с кибератак: «Государства могут “отравить” данные, испортить веса и градиенты моделей, нарушить работу ПО, которое обрабатывают ошибки ускорителей и управляет питанием и охлаждением…». Снизить вероятность атак поможет и прозрачность разработок. ИИ можно использовать для оценки безопасности других ИИ-проектов, что позволит избежать атак на «гражданские» ЦОД. Вместе с тем не помешает и прозрачность цепочек поставок. Поскольку ИИ-ускорители существуют в реальном, а не виртуальном мире, отследить их перемещение не так уж трудно. Таким образом, даже устаревшие или признанные негодными чипы не смогут попасть на чёрный рынок — их предлагается утилизировать с той же степенью ответственности, что и химические или ядерные материалы. Впрочем, соблюдение всех этих рекомендаций не устранит главную проблему — зависимость от Тайваня в плане производства передовых чипов, которая является критической для США, говорят авторы статьи. Поэтому западным странам следует разработать гарантированные цепочки поставок ИИ-чипов. Для этого потребуются значительные инвестиции, но это необходимо для обеспечения конкурентоспособности.
05.03.2025 [23:05], Татьяна Золотова
Российский альянс разработчиков RISC-V запросил у государства поддержкуАльянс российских разработчиков микроэлектроники RISC-V направил премьер-министру Михаилу Мишустину и в Минпромторг письмо с предложением внести технологии на базе открытой процессорной архитектуры RISC-V в приоритетное направление развития нацпроектов и госпрограмм. Об этом сообщает «Коммерсантъ». В России альянс по развитию архитектуры RISC-V был создан осенью 2022 года. В письме перечислены практически все доступные формы господдержки. Помимо включения в нацпроекты альянс просит предоставить субсидии на НИОКР для проектов с архитектурой RISC-V и возмещать затраты на патенты для продукции на базе этой архитектуры. Также альянс хочет, чтобы государство стимулировало производство и экспорт продукции RISC-V, субсидировало затраты на ее внедрение, предусмотрело приоритетную закупку оборудования на базе RISC-V с использованием механизма «второй лишний» в госзакупках (когда при наличии хотя бы одного российского производителя или из ЕАЭС автоматически отклоняются заявки иностранных поставщиков). ![]() Источник изображения: Brian Kostiuk/unsplash.com RISC-V хоть и открытая архитектура, но лицензию предоставляет международный консорциум RISC-V, основанный в США, а значит, он обязана выполнять санкционные требования в отношении России, сообщил «Коммерсанту» эксперт среди разработчиков процессоров, сославшись на ситуацию 2022 года, когда Великобритания ограничила доступ к спецификациям архитектуры Arm, которую использовали последние процессоры «Байкал». Однако головная некоммерческая организация RISC-V International ещё в 2019 году «сменила прописку» на швейцарскую как раз из-за опасений возможных ограничений со стороны Вашингтона. В октябре 2023 года американские власти уже заявляли, что рассматривают возможность ограничить недружественным компаниям участие в международных сообществах RISC-V. Помимо юридических рисков участники рынка микроэлектроники называют монополизацию и снижение технологического суверенитета. Так, в МЦСТ (разрабатывает процессоры «Эльбрус» на собственной архитектуре) считают, что запрошенные альянсом преференции должны применяться ко всем отечественным процессорам при условии, что микропроцессоры и их ядра разрабатываются в России. |
|