咨询热线:4008-6044-55 | OA | E-mail
英伟达H800A800禁售30天生效!美芯片禁令升级仅剩V1可用?
日期:2024-08-26 04:46:42 | 作者:华体会最新地址

  就在刚刚,美国再次收紧对我国出口尖端AI芯片,英伟达A100、A800、H100、H800等无一幸免。

  商务部长雷蒙多表示,管制目的是遏制中国获得先进芯片,从而阻碍「AI和复杂计算机领域的突破」。

  自此,英伟达和其他芯片制造商向我国销售高性能半导体,受到的限制愈加严重,而相关公司想找到绕过限制的方法,也愈加艰难。

  根据相关文件,GPU芯片只要满足以下条件的其中一个,就会受到出口限制——

  此外,作为新规的一部分,芯片设计企业摩尔线程和壁仞科技,也被拉入了最新的黑名单中。

  在去年的禁令中,美国曾禁止出口超过2个阈值的芯片:一个是芯片所含算力的大小,另一个是芯片之间相互通信的速率。

  之所以做如此规定,是因为AI系统要在同一时间将成千上万的芯片串联在一起,处理大量数据。

  而英伟达版的芯片H800/A800做到了保持在通信限制之下,同时仍能训练AI模型,因为它们保留了强大的计算能力。

  此前,路透社报道称,英伟达H800芯片间数据的传输速度为每秒400 GB/s,不到H100峰值速度(每秒900 GB/s)的一半。

  这一次,美国官员表示,新规将更专注于算力,这就能控制更多芯片,包括英伟达的版。

  根据新规,修改后的出口管制禁止向中国公司出售工作速度为300 TFLOPS(一万亿运算/秒)及以上的数据中心芯片。

  如果速度为150-300 TFLOPS的芯片的「性能密度」为每平方毫米370 GFLOPS(十亿次运算/秒)或更高,则将被禁止销售。

  以上述速度运行,但性能密度较低的芯片属于「灰色地带」,这在某种程度上预示着必须向美政府通报对中国的销售情况。

  虽然这些规则不适用「消费产品」的芯片,但美商务部表示,出口商在出口速度超过300 TFLOPS的芯片时也必须上报,以便当局可以跟踪这些芯片是否被大量用于训练AI模型。

  根据新规,受影响的英伟达芯片包括但不限于A100、A800、H100、H800、L40和L40S,甚至连RTX 4090也需要额外的许可要求。

  现在剩下的,似乎只有英伟达V100了。根据该芯片参数,芯片相互通信速率是300 GB/s,工作速度最大为125 TFLOPS。

  此外,任何集成了一个或多个所涵盖集成电路的系统(包括但不限于DGX和HGX系统)也在新许可要求的涵盖范围之内。

  美国这次试图解决的另一个问题,是Chiplet。通过这种技术,芯片的较小部分可以连接在一起,形成一个完整芯片。

  美国担心中国公司通过Chiplet获取符合相关规定的小芯片,然后再秘密组装成更大的芯片。

  这次新规增加了「性能密度」的限制,对芯片在一定尺寸中的计算能力加以限制,就是针对此类变通方法。

  摩尔线程和壁仞科技都是由英伟达前员工创立的,被认为是中国生产英伟达芯片国产替代品的最佳候选者。

  但现在,这两家公司也被添加到了实体清单,这阻断了台湾半导体公司或其他使用美国设备的制造商为它们制造芯片。

  美国表示,任何包含500亿或更多晶体管、并使用高带宽内存的芯片,都包含着危险信号。

  而这一门槛,几乎涵盖了所有先进的AI芯片,帮助芯片工厂发现规避规则的行为。

  管制范围也扩大到最终母公司总部设在上述国家的任何公司,以防止境外子公司购买违禁芯片。

  美国还对其余21个国家提出了芯片制造工具的许可要求,担心这些设备可能被转移到中国。

  荷兰的DUV光刻系统也受到了限制,以防止ASML向中国的芯片工厂运输一些较旧的DUV型号和配件。

  DUV设备比不上最先进的EUV设备,但它可以以更高的成本制造芯片。而EUV早已全面被禁。

  前段时间,外媒FT曾报道称,国内互联网大公司竞相订购了价值约50亿美元的英伟达芯片。

  据介绍,百度、字节、腾讯、阿里已经向英伟达下单A800,价值10亿美元,共10万块芯片,将于今年交付。

  两位内部的人偷偷表示,字节已经储备了至少1万个英伟达GPU来支持各种生成式人工智能产品。

  他们补充道,该公司还订购了近7万个A800芯片,将于明年交付,价值约7亿美元。

  英伟达在一份声明中表示,「消费者网络公司和云提供商,每年在数据中心组件上投资数十亿美元,而且往往提前数月下单。」

  今年早一点的时候,随着全球生成式AI的不断推进,据国内科技公司的内部人表示,大多数中国互联网巨头可用于训练大型语言模型的芯片库存不到几千个。

  自那以来,随着需求的增长,这些芯片的成本也在增长。一位英伟达分销商表示,「分销商手中的A800价格持续上涨了50%以上」。

  与此同时,百度也在全力投入大模型的研发和应用中,文心一言不断迭代升级,现能与GPT-4媲美。

  腾讯云今年4月,发布了一个全新的服务器集群,其中就使用了英伟达H800。

  另据2位的人偷偷表示,阿里云还从英伟达获得了数千个H800,而且许多客户与阿里建立联系,希望使用这一些芯片驱动的云服务,以推动自家模型的研发。

  从年初至今,业界纷纷发展自家的大模型,通常对标的是「地表最强」GPT-4模型。

  此前爆料称,GPT-4采用的是MoE架构,由8个220B模型组成,参数量达1.76万亿。

  那么,对于下一代模型,人们口中的「GPT-5」,对算力又将有多大的需求?

  此前,摩根士丹利曾表示,GPT-5将使用25000个GPU,自2月以来慢慢的开始训练,不过Sam Altman之后澄清了GPT-5尚未进行训。

  这意味着,如果科技大厂想要进一步推进大模型的迭代升级,还需要极大的算力支持。

  对此,英伟达首席科学家Bill Dally曾表示:「随着训练需求每6到12个月翻一番,这一差距将跟着时间的推移而迅速扩大。」

  特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

  青岛海边6人溺水,市民合力救助 有关部门:一儿童不幸身亡,另有人仍在抢救

  全球最安全SUV,从60万降至37万,续航1000公里,还要啥比亚迪?

  地下室不是房子的一部分?男子买房7年后,发现原房主住在地下室一直没搬走

  网号、网证热点六问——详解《国家网络身份认证公共服务管理办法(征求意见稿)》

  2024 年大学生宿舍满意度排行榜出炉,无一 985,仅一所 211 大学上榜

  iPhone 16两周后亮相?苹果或9月10日举行今年最重磅新品发布会

  前后十四载!郭艾伦辽宁生涯出战408场 场均17.1分3.5板5.2助

  与中坚力量共成长,2024建信信托艺术大奖评委会特别奖获奖艺术家凌海鹏


在线留言

在线客服