CoreWeave, ведущий облачный провайдер в сфере искусственного интеллекта, впервые интегрировал в свои дата-центры серверные стойки Dell с новейшими чипами Nvidia Blackwell (GB200 NVL72).
Эти стойки обеспечивают высокую плотность вычислений, необходимую для обучения и работы с крупными языковыми моделями.
Специально для CoreWeave были разработаны жидкостно-охлаждаемые стойки Dell IR7000 на базе серверов PowerEdge XE9712, которые оснащены 72 графическими процессорами и 36 центральными процессорами архитектуры Grace Blackwell.
Благодаря сети NVLink и Quantum?2 InfiniBand, GPU объединяются в мощное решение, которое ускоряет вывод LLM в реальном времени в 30 раз по сравнению с предыдущими чипами.
Процесс интеграции прошёл крайне быстро: от момента заказа до установки прошло менее шести недель.
CoreWeave подчёркивает, что это решение упрощает масштабирование инфраструктуры для генеративного AI и ускоряет запуск проектов таких компаний, как OpenAI, Mistral и xAI.
Источник: Nvidia.
Новые серверы Dell способны обеспечивать до 1,4 экзафлопс производительности на стойку и поддерживают высокую плотность GPU-памяти — до 13,5 ТБ на стойку.
Жидкостное охлаждение снижает энергопотребление и упрощает установку благодаря компактному форм-фактору в 21 дюйм.
CoreWeave позиционирует себя как “AI-гиперскейлер”, сосредоточенный исключительно на GPU-инфраструктуре, и активно расширяет своё присутствие: к концу года планируется открытие 20 дата-центров, включая новые площадки в Европе.
Недавно компания вышла на IPO и привлекла значительные инвестиции от Nvidia, Microsoft, Cisco и Pure Storage.
Для Dell это стратегически важная сделка, которая укрепляет её позиции на рынке AI-инфраструктуры.
Компания уже заявила, что её AI-ориентированные серверы принесут $15 млрд дохода в этом году, а поставки чипов Blackwell компанией CoreWeave отражены в финансовых отчётах Nvidia.