На конференции NVIDIA GTC 2026 корпорации AWS и NVIDIA объявили о дальнейшем углублении стратегического партнёрства в технологической сфере. Фокус совместной работы будет сосредоточен на ускоренных вычислениях, технологиях межсоединений, тонкой настройке ИИ-моделей и процессах логического вывода (инференса).
Ключевые направления сотрудничества предполагают развёртывание в облачных регионах AWS по всему миру более миллиона новых ИИ-ускорителей NVIDIA, включая чипы семейств Blackwell и Rubin. AWS уже предоставляет облачные вычислительные инстансы, основанные на ускорителях NVIDIA для задач искусственного интеллекта и машинного обучения. Партнёры также продолжат совместную работу в области сетевых технологий NVIDIA Spectrum.
Идёт активная подготовка к выпуску новых инстансов EC2, построенных на базе ускорителей NVIDIA RTX Pro 4500 Blackwell Server Edition. AWS станет первым крупным облачным провайдером, заявившим о поддержке данного оборудования. Эти инстансы созданы для таких задач, как аналитика данных, голосовые ИИ-ассистенты, генеративный контент, системы рекомендаций, видеотрансляции и рендеринг.
Они будут использовать архитектуру AWS Nitro System, которая обеспечивает полную изоляцию вычислительных ресурсов для задач клиента. Кроме того, Nitro System гарантирует повышенный уровень безопасности: доступ к данным и рабочим процессам имеют исключительно пользователи, а не сотрудники AWS. Система также позволяет проводить обновления и оптимизацию без необходимости остановки сервисов.
С масштабированием инфраструктуры возрастает важность эффективного взаимодействия между ускорителями NVIDIA и чипами AWS Trainium. Компании заявили о поддержке библиотеки NVIDIA Inference Xfer Library (NIXL) и адаптера AWS Elastic Fabric Adapter (EFA), что ускоряет распределённый инференс ИИ-моделей на платформе Amazon EC2. Такая архитектура распределённого логического вывода позволяет оптимально сочетать вычисления и обмен данными, сокращать задержки и повышать коэффициент использования ИИ-ускорителей. NIXL и EFA интегрированы с популярными открытыми фреймворками, такими как NVIDIA Dynamo, vLLM и SGLang.
Источник изображения: AWS
Дополнительно AWS и NVIDIA анонсировали применение Apache Spark в конфигурации Amazon EMR на Amazon EKS с использованием инстансов G7e на базе ускорителей NVIDIA RTX Pro 6000 Blackwell, что утраивает скорость обработки данных для аналитики. При этом сохраняется полная совместимость с существующими приложениями, работающими на Spark.
Корпорации представили расширение возможностей облачной платформы Amazon Bedrock, включив в неё модели искусственного интеллекта NVIDIA Nemotron, оптимизированные для юридической, медицинской, финансовой и других профессиональных сфер. Вся вычислительная среда контролируется через Bedrock, что существенно облегчает работу программистов. В ближайшее время для финансового сектора, кибербезопасности, розничной торговли и создания программного обеспечения станет доступна гибридная MoE-модель NVIDIA Nemotron 3 Super.
Фактически, партнёры сформировали комплексную инфраструктуру для ИИ — от специализированных процессоров и сетевых решений до полностью управляемых сервисов. Это помогает заказчикам ускорить внедрение технологий искусственного интеллекта, избегая необходимости самостоятельной сборки системы из отдельных элементов.
По данным издания Datacenter Dynamics, в феврале 2026 года руководитель AWS Мэтт Гарман отметил, что компания продолжала применять более ранние ускорители NVIDIA A100 в части своих серверов из-за сохраняющегося на них значительного спроса.
Широкое распространение архитектуры NVIDIA Blackwell Ultra началось в декабре 2025 года, а в планах — обеспечить доступность и к будущим ускорителям Rubin. Параллельно Amazon намерена вкладывать средства в развитие собственных процессоров Trainium. В феврале OpenAI сообщила о планах задействовать 2 ГВт мощностей на базе Trainium и других чипов в облаке AWS, чему во многом способствовали инвестиции Amazon в размере $50 млрд.
Источник: