Китайский стартап Iluvatar CoreX, как сообщает DigiTimes, обнародовал свою дорожную карту по выпуску графических ускорителей для задач искусственного интеллекта. Планируется выход четырёх поколений продуктов, которые, как ожидается, смогут бросить вызов решениям от NVIDIA.
В основе первых разработок лежит архитектура под кодовым именем Tianshu. По словам компании, эти ускорители будут мощнее продуктов NVIDIA поколения Hopper, включая модель H200.
На 2026 год намечен анонс решений на архитектуре Tianxuan, предназначенных для конкуренции с семейством NVIDIA Blackwell, в частности с чипом B200. Далее, ещё в этом году, Iluvatar CoreX планирует представить следующее поколение — Tianji, чья производительность, по предварительным оценкам, превысит показатели Blackwell. Финальным этапом дорожной карты, запланированным на 2027 год, станет выпуск GPU с архитектурой Tianquan, призванной обогнать платформу NVIDIA Rubin. После этого компания намерена сосредоточиться на создании «прорывных вычислительных архитектур».
Источник изображения: DigiTimes
По данным на конец июня 2025 года, Iluvatar CoreX поставила свыше 52 тысяч графических процессоров примерно 290 корпоративным заказчикам, среди которых есть представители финансового сектора и здравоохранения. Компания заявляет о себе как о поставщике высокопроизводительных GPU общего назначения и масштабируемых вычислительных систем. Однако, как и другим китайским производителям чипов для ИИ, ей приходится сталкиваться с трудностями, такими как нарушения в цепочках поставок и ограниченный доступ к передовым производственным мощностям. Будущее развитие продуктовой линейки будет напрямую зависеть от освоения современных технологических процессов и методов сборки.
Помимо графических ускорителей, Iluvatar CoreX также ведёт разработку решений Tongyang для периферийных вычислений. Как утверждает стартап, один из таких чипов — TY1000 — показал более высокую эффективность, чем NVIDIA Jetson AGX Orin, в реальных сценариях, включая компьютерное зрение, обработку естественного языка и инференс больших языковых моделей, таких как DeepSeek 32B.
Оригинал публикации: