Соглашение NVIDIA с ИИ-стартапом Groq, по сути представляющее собой его поглощение, заставило задуматься о намерениях лидера рынка искусственного интеллекта. Чтобы обойти длительные процедуры согласования регуляторами и избежать антимонопольных проверок, NVIDIA оформила сделку как получение неисключительной лицензии на разработки Groq. В итоге ведущие специалисты Groq перешли в NVIDIA, а оставшаяся часть команды под руководством финансового директора будет поддерживать работу инфраструктуры GroqCloud, однако вряд ли сможет сохранить прежнюю конкурентоспособность компании.
Аналогичную операцию NVIDIA провела незадолго до этого, фактически поглотив стартап Enfabrica, который специализировался на разработке интерконнектов. По слухам, сумма этой сделки достигла $900 млн. Это значительные средства для компании на ранней стадии развития, однако в текущей ситуации такая цена выглядит оправданной, отмечает EE Times. Groq является более крупным стартапом, и стоимость соглашения значительно выше — $20 млрд при последней оценке компании в $6,9 млрд.
Если в случае с Enfabrica можно было предположить, что сделка была хотя бы отчасти мотивирована привлечением персонала, то для Groq столь высокая сумма вряд ли объясняется только наймом квалифицированных кадров. Вероятно, NVIDIA намерена выпускать чипы Groq. На это указал в своем письме сотрудникам генеральный директор NVIDIA Дженсен Хуанг: «Мы планируем интегрировать процессоры Groq с низкой задержкой в архитектуру NVIDIA AI Factory, расширив платформу для решения ещё более широкого круга задач ИИ-инференса и рабочих нагрузок в реальном времени».
Источник изображений: Groq
Однако в ходе выставки CES 2026 Хуанг заявил, что технология Groq не войдёт в основное портфолио NVIDIA для центров обработки данных. «[Groq] — это нечто совершенно иное, и я не ожидаю, что что-либо заменит то, что мы делаем с Vera Rubin и следующим поколением наших решений, — сказал Хуанг. — Тем не менее, мы могли бы добавить эту технологию для постепенного улучшения определённых аспектов, чего миру пока не удавалось достичь». Использование оборота «могли бы» позволяет предположить, что NVIDIA ещё не приняла окончательного решения о дальнейшем использовании активов Groq.
Технология Groq, как сообщает EE Times, открывает возможности для выполнения задач, непосильных для Vera Rubin, особенно в области сверхскоростного вывода данных в режиме реального времени. Вероятно, NVIDIA станет выпускать и внедрять чипы Groq в качестве самостоятельного решения для дата-центров. Несмотря на заявление Хуанга о совместимости чипов Groq с инфраструктурой NVIDIA AI Factory, это выглядит несколько искусственным, поскольку подразумевает признание компании, что её графические процессоры не идеальны для определённых типов задач. Тем не менее, на CES 2026 Дженсен Хуанг вновь акцентировал, что универсальности GPU достаточно для любых требований. Однако анонс сопроцессоров Rubin CPX, скорее, свидетельствует об обратном.
У Groq присутствует собственная программная платформа, однако оценить её качество сложно. Для превращения технологий Groq в рыночный продукт NVIDIA потребуется серьёзная доработка ПО, а глубокая интеграция в существующую программную экосистему может оказаться крайне трудоёмкой. Более практичным подходом могло бы стать совместное использование чиплета Groq с крупным GPU-чиплетом для специализированных задач, но и здесь программное обеспечение останется ключевым препятствием из-за фундаментальной несовместимости аппаратной архитектуры с CUDA.
Здесь возникает закономерный вопрос: «Какими преимуществами обладает Groq, которых лишена NVIDIA?». Одним из возможных ответов является детерминизм — принцип, заложенный в основу архитектуры LPU от Groq, который компания пыталась внедрить в автомобильной отрасли ещё в 2020 году. Детерминизм предоставляет значительные выгоды для приложений, где критически важна функциональная безопасность, включая робототехнику — Хуанг в упомянутом письме говорит о «реал-тайм приложениях». Но для этого NVIDIA придётся скорректировать свою позицию, признав, что её ускорители не всегда оптимальны для периферийных вычислений.
Впрочем, у NVIDIA есть колоссальные ресурсы и высококлассные специалисты. Если бы компания решила разработать ИИ-ускоритель, ориентированный на работу с SRAM, а не HBM, это стоило бы ей значительно дешевле, чем приобретение Groq за $20 млрд. Более того, как отмечает EE Times, она могла бы за гораздо меньшую сумму приобрести d-Matrix или даже SambaNova, которая, по слухам, готова продаться Intel всего за $1,6 млрд.
По мнению экспертов EE Times, на решение NVIDIA о приобретении стартапа повлияли не только лицензирование технологий и привлечение кадров из Groq, но и деловые соображения. Groq обладает развитой сетью партнёрств с крупными корпорациями в государствах Персидского залива. Кроме того, у компании имеются соглашения в сфере суверенного искусственного интеллекта с другими странами, что, вероятно, представляло ценность для NVIDIA. Однако ключевым мотивом сделки до сих пор считалось то, что Groq предлагает вполне работоспособную и экономичную альтернативу решениям NVIDIA для создания независимой ИИ-инфраструктуры.
Иными словами, покупку Groq можно расценивать и как шаг, направленный на то, чтобы опередить одного из крупнейших клиентов-гиперскейлеров, который мог бы проявить интерес к стартапу — будь то из-за аппаратных наработок или уже развёрнутой инфраструктуры. Таким конкурентом могла стать Meta✴, Microsoft или даже OpenAI, чьи проекты по разработке собственного ИИ-оборудования пока находятся на ранней стадии либо демонстрируют скромные результаты. В то же время Google уже открыт для внешнего использования своих ускорителей TPU, а AWS, несмотря на наличие чипов Trainium, продолжает сотрудничать с NVIDIA в аппаратной сфере.
Аналитики издания The Register, в свою очередь, связывают высокую стоимость сделки с интересом NVIDIA к «конвейерной архитектуре» (dataflow), разработанной стартапом. Эта архитектура изначально создавалась для ускорения операций линейной алгебры, выполняемых в процессе инференса. Стоит отметить, что архитектуры, управляемые потоком данных, не обязательно завязаны на проекты с использованием SRAM. К примеру, NextSilicon применяет память HBM. Groq остановилась на SRAM в основном для упрощения задачи, но, как отмечает The Register, ничто не мешает NVIDIA на основе интеллектуальной собственности Groq создать dataflow-ускоритель с применением SRAM, HBM или памяти GDDR.
Реализация подобной архитектуры — крайне сложная задача, однако Groq удалось добиться её стабильной работы, по меньшей мере, для задач инференса, утверждает The Register. Таким образом, приобретение предоставит NVIDIA оптимизированную для инференса вычислительную архитектуру, в которой компания давно нуждалась, полагают аналитики. Именно этого элемента и не хватало NVIDIA, поскольку у неё до сих пор не было специализированных чипов для данной цели. Ситуация может измениться с выходом архитектуры NVIDIA Rubin в 2026 году и связанных с ней решений Rubin CPX.
Однако ускорители Groq LPU из-за ограниченного объёма SRAM для работы с современными языковыми моделями требуют объединения в кластеры, состоящие из десятков или сотен чипов. Это характерно и для других аналогичных ускорителей, таких как Cerebras. В то же время, как отмечает The Register, LPU потенциально могут быть полезны для спекулятивного декодирования, при котором компактная модель с параметрами в несколько миллиардов предсказывает ответы более крупной модели. В случае успешного «угадывания» малой моделью, общая скорость вывода может увеличиться в два-три раза. Стоит ли такая возможность 20 миллиардов долларов — отдельный вопрос, но Хуанг, судя по всему, рассчитывает на долгосрочную перспективу.
Источники:
- eetimes.com
- The Register