Nvidia купила и не купила Groq за 20 миллиардов долларов
Nvidia купила и не купила Groq за 20 миллиардов долларов
Вокруг предполагаемого приобретения Groq компанией NVIDIA поднялся шум, который в конечном итоге оказался ложью. Вместо искупления речь идет о неисключительное лицензионное соглашение, что дает NVIDIA доступ к специализированному оборудованию Groq для вывода и ключевым экспертам, избегая при этом прямого надзора со стороны регулирующих органов.
NVIDIA а Грок заключила неисключительную лицензионную сделку, которая изначально была неверно истолкована как полноценное приобретение стоимостью примерно 20 миллиардов долларов. По словам руководства NVIDIA, речь идет не о покупке Groq, а о лицензировании ее технологий вывода и передаче части талантов командам NVIDIA. Этот шаг призван обеспечить интеграцию процессоров Groq с малой задержкой в архитектуру NVIDIA AI Factory.
Вся процедура рассматривается как форма «обратного приобретения», то есть модель, в которой крупная компания приобретает людей и интеллектуальную собственность без формального приобретения всей компании. В результате сделка избежала обязательного рассмотрения в соответствии с Законом Харта-Скотта-Родино США и прошла без длительных регуляторных процессов. Groq формально продолжит работу, но в ограниченном виде.
С технологической точки зрения архитектура LPU (Language Processing Unit), которую Groq разрабатывает для задач искусственного интеллекта, является ключевой для NVIDIA. В отличие от графических процессоров, ориентированных в первую очередь на обучение моделей, LPU оптимизированы для низкой и предсказуемой задержки, особенно на так называемой фазе декодирования генерации токенов. Они используют большие объемы встроенной памяти SRAM вместо HBM, что приводит к значительно меньшей задержке, более высокой энергоэффективности и детерминированному поведению.
Автор концепции LPU — Джонатан Росс, бывший генеральный директор Groq и соавтор архитектуры TPU в Google, который по соглашению присоединится к NVIDIA. Согласно имеющимся данным, LPU имеют сотни мегабайт встроенной SRAM и чрезвычайно высокую пропускную способность внутренней памяти, что предрасполагает их к неизбежному развертыванию в центрах обработки данных.
В долгосрочной перспективе ожидается, что NVIDIA сможет объединить LPU со своими графическими процессорами в стоечных решениях. Графические процессоры будут обеспечивать предварительное заполнение и работать с большими контекстами, а LPU будут выполнять само декодирование. Такой подход позволил бы NVIDIA охватить всю цепочку вывода и укрепить свои позиции в области, которая становится все более важной для гиперскейлеров, чем само обучение моделей.
Весь шаг в основном связан с человеком Дженсен Хуангaa его усилия по расширению портфолио NVIDIA в то время, когда фокус ИИ-вычислений постепенно смещается от обучения к выводу.
комментарии