Эти три новых чипа Nvidia AI являются не «улучшенными версиями», а «уменьшенными версиями», из которых HGX H20 ограничен по пропускной способности и скорости вычислений, а цена H20, как ожидается, снизится, но все равно будет выше, чем отечественный AI-чип 910B.
Первоисточник: Titanium Media
Автор: Линь Чжицзя
Источник изображения: Generated by Unbounded AI
10 ноября стало известно, что чиповый гигант NVIDIA (NVIDIA) выпустит три чипа искусственного интеллекта для китайского рынка на базе H100 в ответ на последние меры по контролю за экспортом чипов в США.
Согласно спецификации, Nvidia скоро выпустит новые продукты для китайских клиентов под названиями HGX H20, L20 PCle и L2 PCle, которые основаны на архитектурах Nvidia Hopper и Ada Lovelace. Судя по спецификациям и названию, три продукта предназначены для обучения, вывода и периферийных сценариев и будут объявлены не ранее 16 ноября, время поставки образцов продукта - с ноября по декабрь этого года, а время массового производства - с декабря этого года по январь следующего года.
** Titanium Media App узнал от ряда компаний NVIDIA, что вышеупомянутая новость является правдой. **
Titanium Media App также эксклюзивно узнал, что три чипа NVIDIA AI являются не «улучшенными версиями», а «уменьшенными версиями». Теоретически общая вычислительная мощность примерно на 80% ниже, чем у чипа NVIDIA H100 GPU, то есть H20 равна 20% от комплексной вычислительной мощности H100, а добавление видеопамяти HBM и модулей межсоединений NVLink улучшает стоимость вычислительной мощности. Поэтому, хотя цена HGX H20 снизится по сравнению с H100, ожидается, что цена этого продукта все равно будет выше, чем у отечественного AI-чипа 910B.
«Это эквивалентно расширению полос движения на автомагистрали, но въезд на шлагбаум не расширяется, что ограничивает движение. Также технически, благодаря блокировке аппаратного и программного обеспечения, производительность чипа можно точно контролировать, и нет необходимости в замене производственной линии в больших масштабах, даже если оборудование модернизируется, производительность все равно можно регулировать по мере необходимости. В настоящее время новый H20 имеет «застрявшую» производительность от источника. Источник в отрасли объяснил новый чип H20 следующим образом: «Например, раньше для выполнения задачи с H100 требовалось 20 дней, но теперь может потребоваться 100 дней, чтобы H20 снова запустился». "
Несмотря на выпуск нового раунда ограничений на чипы в Соединенных Штатах, Nvidia, похоже, не отказалась от огромного рынка вычислительных мощностей искусственного интеллекта в Китае.
Итак, можно ли заменить отечественные чипы?Titanium Media App узнал, что после тестирования, ** в настоящее время, с точки зрения вывода больших моделей, отечественный чип искусственного интеллекта 910B может достичь только около 60%-70% A100, а обучение модели кластера является неустойчивым;В то же время 910B намного превосходит продукты серии Nvidia A100/H100 с точки зрения вычислительной мощности и нагрева, и не совместим с CUDA, что трудно полностью удовлетворить потребности в обучении моделей долгосрочных интеллектуальных вычислительных центров. **
**До сих пор Nvidia официально не давала никаких комментариев по этому поводу. **
Сообщается, что 17 октября этого года Бюро промышленности и безопасности (BIS) Министерства торговли США выпустило новые правила экспортного контроля для чипов, введя новый экспортный контроль в отношении полупроводниковой продукции, включая высокопроизводительные AI-чипы Nvidia, и ограничения вступили в силу 23 октября. Заявка Nvidia в Комиссию по ценным бумагам и биржам США показывает, что запрещенные продукты, которые вступают в силу немедленно, включают A800, H800 и L40S, самые мощные чипы искусственного интеллекта.
Кроме того, процессоры с чипами L40 и RTX 4090 сохраняют исходное 30-дневное окно.
31 октября появилась новость о том, что Nvidia может быть вынуждена отменить заказ на передовые чипы на сумму $5 млрд, и цена акций Nvidia резко упала из-за этой новости. Ранее A800 и H800 от Nvidia, поставляемые исключительно для Китая, не могли нормально продаваться на китайском рынке из-за новых правил в США, и эти два чипа были названы «кастрированными версиями» A100 и H100, и Nvidia снизила производительность чипа, чтобы соответствовать предыдущим правилам в США.
31 октября официальный представитель Китайского совета по содействию международной торговле Чжан Синь заявил, что недавно выпущенные правила экспортного контроля полупроводников, изданные Соединенными Штатами Китаю, еще больше ужесточили ограничения на экспорт в Китай чипов, связанных с искусственным интеллектом, и оборудования для производства полупроводников, и включили ряд китайских организаций в «список организаций» экспортного контроля. Эти меры Соединенных Штатов серьезно нарушили принципы рыночной экономики и международные экономические и торговые правила, усугубили риск разрыва и фрагментации глобальной цепочки поставок полупроводников. Введенный США со второй половины 2022 года запрет на экспорт чипов в Китай глубоко меняет мировой спрос и предложение, вызывая дисбаланс в поставках чипов в 2023 году, влияя на структуру мировой индустрии чипов и нанося ущерб интересам предприятий различных стран, в том числе китайских.
Сравнение параметров производительности NVIDIA HGX H20, L20, L2 и других продуктов
Приложение Titanium Media App, Новые чипы HGX H20, L20 и L2 AI основаны на архитектурах NVIDIA Hopper и Ada соответственно, которые подходят для облачного обучения, облачного логического вывода и периферийного вывода.
Среди них продукты инференса ИИ двух последних L20 и L2 имеют аналогичные «отечественные замены» и CUDA-совместимые решения, в то время как HGX H20 основан на H100 и обучающих чипах ИИ путем кастрации прошивки, в основном заменяя A100/H800.
Согласно документам, новый H20 имеет передовую технологию упаковки CoWoS, а также добавил HBM3 (высокопроизводительную память) к 96 ГБ, но стоимость также увеличилась на 240 долларов; Плотная вычислительная мощность FP16 H20 достигает 148TFLOPS (триллион операций с плавающей запятой в секунду), что составляет около 15% от вычислительной мощности H100, поэтому нужно добавить дополнительные алгоритмы и затраты на персонал. NVLink будет обновлен с 400 ГБ/с до 900 ГБ/с, поэтому скорость соединения будет значительно увеличена.
Согласно оценке, H100/H800 является основной схемой кластеров вычислительной мощности. Среди них теоретический предел H100 составляет 50 000 карт, а максимальная вычислительная мощность — 100 000 P, максимальный тренировочный кластер H800 — 20 000-30 000 карт, с общей вычислительной мощностью 40 000 P, а максимальный тренировочный кластер A100 — 16 000 карт и максимальная вычислительная мощность — 9600P.
Тем не менее, теоретический предел нового чипа H20 составляет 50 000 карт, но вычислительная мощность каждой карты составляет 0,148P, а общая вычислительная мощность составляет почти 7400P, что ниже, чем у H100/H800 и A100. Таким образом, масштаб кластера H20 далек от теоретического масштаба H100, и, исходя из оценки баланса вычислительных мощностей и связи, разумная медианная общая вычислительная мощность составляет около 3000P, и для завершения обучения модели 100-миллиардного уровня параметров необходимо добавить больше затрат и больше вычислительной мощности.
** Два эксперта полупроводниковой отрасли сообщили Titanium Media App, что, основываясь на оценке текущих параметров производительности, весьма вероятно, что графические процессоры Nvidia B100 больше не будут продаваться на китайском рынке в следующем году. **
В целом, если крупное модельное предприятие хочет проводить обучение больших моделей с такими параметрами, как GPT-4, то ядром является масштаб кластера вычислительных мощностей, и в настоящее время только H800 и H100 могут быть компетентны для обучения больших моделей, в то время как производительность отечественного 910B находится между A100 и H100, что является лишь «запасным вариантом в крайнем случае».
Теперь новый H20, выпущенный Nvidia, больше подходит для обучения вертикальных моделей и логического вывода, что не может удовлетворить потребности в обучении больших моделей триллионного уровня, но общая производительность немного выше, чем у 910B, в сочетании с экологией CUDA от NVIDIA, тем самым блокируя единственный путь выбора для отечественных карт на китайском рынке чипов искусственного интеллекта в будущем в соответствии с приказом об ограничении чипов в США.
Согласно последнему финансовому отчету, в квартале, завершившемся 30 июля, более 85% продаж Nvidia в размере $13,5 млрд пришлось на США и Китай, и только около 14% продаж пришлось на другие страны и регионы.
Под влиянием новостей H20 по состоянию на закрытие фондового рынка США 9 ноября цена акций Nvidia незначительно выросла на 0,81% и закрылась на уровне $469,5 за акцию. За последние пять торговых дней акции Nvidia выросли более чем на 10%, а последняя рыночная стоимость составила $1,16 трлн.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Nvidia блокирует отечественные AI-чипы, а комплексная вычислительная мощность «China Special Edition» H20 на 80% ниже, чем у H100
Первоисточник: Titanium Media
Автор: Линь Чжицзя
10 ноября стало известно, что чиповый гигант NVIDIA (NVIDIA) выпустит три чипа искусственного интеллекта для китайского рынка на базе H100 в ответ на последние меры по контролю за экспортом чипов в США.
Согласно спецификации, Nvidia скоро выпустит новые продукты для китайских клиентов под названиями HGX H20, L20 PCle и L2 PCle, которые основаны на архитектурах Nvidia Hopper и Ada Lovelace. Судя по спецификациям и названию, три продукта предназначены для обучения, вывода и периферийных сценариев и будут объявлены не ранее 16 ноября, время поставки образцов продукта - с ноября по декабрь этого года, а время массового производства - с декабря этого года по январь следующего года.
** Titanium Media App узнал от ряда компаний NVIDIA, что вышеупомянутая новость является правдой. **
Titanium Media App также эксклюзивно узнал, что три чипа NVIDIA AI являются не «улучшенными версиями», а «уменьшенными версиями». Теоретически общая вычислительная мощность примерно на 80% ниже, чем у чипа NVIDIA H100 GPU, то есть H20 равна 20% от комплексной вычислительной мощности H100, а добавление видеопамяти HBM и модулей межсоединений NVLink улучшает стоимость вычислительной мощности. Поэтому, хотя цена HGX H20 снизится по сравнению с H100, ожидается, что цена этого продукта все равно будет выше, чем у отечественного AI-чипа 910B.
«Это эквивалентно расширению полос движения на автомагистрали, но въезд на шлагбаум не расширяется, что ограничивает движение. Также технически, благодаря блокировке аппаратного и программного обеспечения, производительность чипа можно точно контролировать, и нет необходимости в замене производственной линии в больших масштабах, даже если оборудование модернизируется, производительность все равно можно регулировать по мере необходимости. В настоящее время новый H20 имеет «застрявшую» производительность от источника. Источник в отрасли объяснил новый чип H20 следующим образом: «Например, раньше для выполнения задачи с H100 требовалось 20 дней, но теперь может потребоваться 100 дней, чтобы H20 снова запустился». "
Несмотря на выпуск нового раунда ограничений на чипы в Соединенных Штатах, Nvidia, похоже, не отказалась от огромного рынка вычислительных мощностей искусственного интеллекта в Китае.
Итак, можно ли заменить отечественные чипы?Titanium Media App узнал, что после тестирования, ** в настоящее время, с точки зрения вывода больших моделей, отечественный чип искусственного интеллекта 910B может достичь только около 60%-70% A100, а обучение модели кластера является неустойчивым;В то же время 910B намного превосходит продукты серии Nvidia A100/H100 с точки зрения вычислительной мощности и нагрева, и не совместим с CUDA, что трудно полностью удовлетворить потребности в обучении моделей долгосрочных интеллектуальных вычислительных центров. **
**До сих пор Nvidia официально не давала никаких комментариев по этому поводу. **
Сообщается, что 17 октября этого года Бюро промышленности и безопасности (BIS) Министерства торговли США выпустило новые правила экспортного контроля для чипов, введя новый экспортный контроль в отношении полупроводниковой продукции, включая высокопроизводительные AI-чипы Nvidia, и ограничения вступили в силу 23 октября. Заявка Nvidia в Комиссию по ценным бумагам и биржам США показывает, что запрещенные продукты, которые вступают в силу немедленно, включают A800, H800 и L40S, самые мощные чипы искусственного интеллекта.
Кроме того, процессоры с чипами L40 и RTX 4090 сохраняют исходное 30-дневное окно.
31 октября появилась новость о том, что Nvidia может быть вынуждена отменить заказ на передовые чипы на сумму $5 млрд, и цена акций Nvidia резко упала из-за этой новости. Ранее A800 и H800 от Nvidia, поставляемые исключительно для Китая, не могли нормально продаваться на китайском рынке из-за новых правил в США, и эти два чипа были названы «кастрированными версиями» A100 и H100, и Nvidia снизила производительность чипа, чтобы соответствовать предыдущим правилам в США.
31 октября официальный представитель Китайского совета по содействию международной торговле Чжан Синь заявил, что недавно выпущенные правила экспортного контроля полупроводников, изданные Соединенными Штатами Китаю, еще больше ужесточили ограничения на экспорт в Китай чипов, связанных с искусственным интеллектом, и оборудования для производства полупроводников, и включили ряд китайских организаций в «список организаций» экспортного контроля. Эти меры Соединенных Штатов серьезно нарушили принципы рыночной экономики и международные экономические и торговые правила, усугубили риск разрыва и фрагментации глобальной цепочки поставок полупроводников. Введенный США со второй половины 2022 года запрет на экспорт чипов в Китай глубоко меняет мировой спрос и предложение, вызывая дисбаланс в поставках чипов в 2023 году, влияя на структуру мировой индустрии чипов и нанося ущерб интересам предприятий различных стран, в том числе китайских.
Приложение Titanium Media App, Новые чипы HGX H20, L20 и L2 AI основаны на архитектурах NVIDIA Hopper и Ada соответственно, которые подходят для облачного обучения, облачного логического вывода и периферийного вывода.
Среди них продукты инференса ИИ двух последних L20 и L2 имеют аналогичные «отечественные замены» и CUDA-совместимые решения, в то время как HGX H20 основан на H100 и обучающих чипах ИИ путем кастрации прошивки, в основном заменяя A100/H800.
Согласно документам, новый H20 имеет передовую технологию упаковки CoWoS, а также добавил HBM3 (высокопроизводительную память) к 96 ГБ, но стоимость также увеличилась на 240 долларов; Плотная вычислительная мощность FP16 H20 достигает 148TFLOPS (триллион операций с плавающей запятой в секунду), что составляет около 15% от вычислительной мощности H100, поэтому нужно добавить дополнительные алгоритмы и затраты на персонал. NVLink будет обновлен с 400 ГБ/с до 900 ГБ/с, поэтому скорость соединения будет значительно увеличена.
Согласно оценке, H100/H800 является основной схемой кластеров вычислительной мощности. Среди них теоретический предел H100 составляет 50 000 карт, а максимальная вычислительная мощность — 100 000 P, максимальный тренировочный кластер H800 — 20 000-30 000 карт, с общей вычислительной мощностью 40 000 P, а максимальный тренировочный кластер A100 — 16 000 карт и максимальная вычислительная мощность — 9600P.
Тем не менее, теоретический предел нового чипа H20 составляет 50 000 карт, но вычислительная мощность каждой карты составляет 0,148P, а общая вычислительная мощность составляет почти 7400P, что ниже, чем у H100/H800 и A100. Таким образом, масштаб кластера H20 далек от теоретического масштаба H100, и, исходя из оценки баланса вычислительных мощностей и связи, разумная медианная общая вычислительная мощность составляет около 3000P, и для завершения обучения модели 100-миллиардного уровня параметров необходимо добавить больше затрат и больше вычислительной мощности.
** Два эксперта полупроводниковой отрасли сообщили Titanium Media App, что, основываясь на оценке текущих параметров производительности, весьма вероятно, что графические процессоры Nvidia B100 больше не будут продаваться на китайском рынке в следующем году. **
В целом, если крупное модельное предприятие хочет проводить обучение больших моделей с такими параметрами, как GPT-4, то ядром является масштаб кластера вычислительных мощностей, и в настоящее время только H800 и H100 могут быть компетентны для обучения больших моделей, в то время как производительность отечественного 910B находится между A100 и H100, что является лишь «запасным вариантом в крайнем случае».
Теперь новый H20, выпущенный Nvidia, больше подходит для обучения вертикальных моделей и логического вывода, что не может удовлетворить потребности в обучении больших моделей триллионного уровня, но общая производительность немного выше, чем у 910B, в сочетании с экологией CUDA от NVIDIA, тем самым блокируя единственный путь выбора для отечественных карт на китайском рынке чипов искусственного интеллекта в будущем в соответствии с приказом об ограничении чипов в США.
Согласно последнему финансовому отчету, в квартале, завершившемся 30 июля, более 85% продаж Nvidia в размере $13,5 млрд пришлось на США и Китай, и только около 14% продаж пришлось на другие страны и регионы.
Под влиянием новостей H20 по состоянию на закрытие фондового рынка США 9 ноября цена акций Nvidia незначительно выросла на 0,81% и закрылась на уровне $469,5 за акцию. За последние пять торговых дней акции Nvidia выросли более чем на 10%, а последняя рыночная стоимость составила $1,16 трлн.