烤箱搬出最大显卡后,英伟达在厨房发布了7nm安培GPU

发布时间:2022年06月16日
       由于新冠肺炎疫情的影响, 今年的年会采取了线上会议的形式, 英伟达(创始人和黄仁勋变身厨师, 将发布场地搬到了自己的厨房。不知道是不是显卡玩家圈)2080就像一个煤气灶。在前两天的预热视频中, 黄老板从烤箱中进行了此次发布会的新品。据黄仁勋介绍, 他已经在家工作了45天。这段演讲视频是提前在家厨房录制的。 2020年主题演讲和新品发布会仅用7个视频就完成了, 他也被称为史上第一厨房。 5月14日晚, 在2020年大会上, NVIDIA发布了万众瞩目的7nm(制程安培)架构, 以及两款基于该架构的边缘平台产品。最后, 它还发布了对应的第三代工作站100, 也可以称为个人超级计算机, 支持桌面进行研究并扩展到云端。在这次2020年的大会演讲中, 黄仁勋主要谈了计算、人工智能、自动驾驶等, 期待已久的全球最大7安培架构100终于正式发布, 和上一代图灵一样(2018年发布的架构相同, 黄仁勋表示, 这是八代历史上最大的性能飞跃, 100是人类有史以来最大的7进程芯片, 集训练和推理于一体, 其性能在具体参数上堪比100采用最先进的台积电(7个工艺, 54个0 亿个晶体管和一个 3 层芯片, 该封装专为科学计算、云图形和数据分析而构建。芯片面积高达826平方毫米, 最大功率达到400。除了拥有6912个核心外, 还采用了第三代张量计算核心(支持32次运算。黄仁勋解释说, 无需任何代码改动, 32精度下的性能相比上一代架构可提升20倍, 达到195(teraflops)。另外, 支持64双精度运算, 相比应用带来25倍的性能提升。除了性能“改进后, Ampere 还可以在一个平台上实现横向扩展和纵向扩展工作负载的加速。100 将增加吞吐量, 同时降低数据中心的成本。”黄仁勋说, 有了这些新能力, NVIDIA 100 可以成为训练和推理以及科学模拟、会话、推荐系统、基因组学、高性能数据分析 适用于各种苛刻的工作负载, 例如、地震建模和财务预测。 NVIDIA 上一次发布如此强大的芯片还是 2017 年的 100。在 NVIDIA 看来, 自从 100 架构推出以来, 业界对功耗的需求增长了 3000 倍。这显然是英伟达放弃提高计算能力和吞吐量的动力。当时, 黄仁勋强调,

英伟达未来会兼顾训练和推理, 这是一个革命性的突破。如今, 他兑现了三年前的承诺。如上图英伟达给出的数据所示, 100与上一代100相比, 以及型号模型训练性能提升6倍, 模型推理性能提升7倍。但这应该在将来调用吗?据介绍, 安培将是新一代的核心、替代品和架构。也就是说, 新一代显卡产品只有这一套核心, 覆盖, 等等。 100加速卡 第一个基于100的产品就是100加速卡。据介绍, 这款卡支持第三代, 到服务器的双向带宽为48, 互连带宽为600。100有40的2内存和显存位宽。 5120、400。除了已经被广泛采用的核心产品外, 100还使用了几个新的重要特性:一个是多实例(简称, 这是一种创新技术, 可以将一个分为七个独立, 针对不同的目标提供不同的运算, 最大限度地提高计算效率。第二是第三代互连技术, 可以将多个100组合成一个巨大的一个来执行更大规模的训练任务。最后, 结构化稀疏, 这种新的效率技术利用数学固有的稀疏性性能翻倍。这些多项技术的创新使 100 加速卡成为要求苛刻的工作负载的理想选择, 不仅适用于推理、训练, 还适用于科学模拟、对话、基因组学、高性能数据分析、地震建模和金融计算等。
        100台超级计算机, 同时还公布了基于100的100台超级计算机, 8通道100加速卡和最高5的性能。阿里云、云、谷歌云、微软、甲骨文和腾讯云都将推出基于100的云服务。黄仁勋已经应用到云计算、汽车、零售、医疗等诸多领域, 算法也越来越复杂多样。该模型的算力需求从 2016 年到现在增长了 3000 倍, 我们需要更好的解决方案。 100配备了第二代企业级处理器。两颗7742加起来一共128核256线程, 最多可达340。100搭载8个安培架构100, 每颗集成402高带宽(124显存, 总容量可达320。据介绍, 除了10的计算性能外, 系统还拥有破纪录的5性能。每条最多支持12条互连总线, 带宽高达600条, 可以保证每条8条完全互连。同时, 有6个芯片, 双向带宽最高可达48。但是从原理图可以看出, 每个芯片周围实际上有6个2内存芯片。显然, 一个是没有启用的, 并且其余5个单芯片容量8个组成40个。网络方面, 配备了新获得的6200网络接口, 其中8个单口6用于集群, 峰值性能200,

1个双口6用于集群数据和存储网络, pr提供总计每秒 36 的双向带宽。网络计算和网络加速引擎, 如 , 和技术, 可实现最大性能和可扩展性。
       此外, 借助 100 的多实例能力, 每个 100 系统最多可以分割为 56 个实例, 以加快多个小型工作负载的处理速度。有了这些能力, 企业可以优化计算能力和资源以满足您的需求, 加速数据分析、训练和推理等各种工作负载。有趣的是, 这次匹配的处理器放弃了至强, 转而使用了两颗二代骁龙(以及顶级的64核机型。同时配备14内存和1540固态硬盘, 速度提升2倍)超过30。黄仁勋表示, 它配备了世界上最大的显卡。不算外壳, 计算板和散热器单独重达45磅, 它集成了30, 000多个不同的组件, 并有多达100万个孔连接电路, 最长1公里, 号称100计算性能提升150倍, 内存带宽提升40倍, 带宽提升高端服务器40倍。100人超级计算机现已上市, 售价1.99百万美元(约人民币 141 万人民币。它已经开始通过合作伙伴网络销售, 包括戴尔、、 和其他存储设备供应商也计划将 100 集成到他们的产品中。美国能源部gy的阿贡国家实验室已宣布采用100, 该实验室将利用集群和计算能力更好地研究和应对新冠肺炎。黄仁勋表示, 通过一个价值100万美元的5个100系统的机架, 可以更换目前价值1100的系统。一万块钱, 一个25个机架的训练推理数据中心, 由50个1和600组成。而且功耗也可以从630大大降低到28。难怪云服务商下单这么快, 省电费, 黄老板在发布会视频中说:买的越多越多, 你就越省钱。 .自动驾驶平台的自动驾驶芯片的扩展也是本次发布的重头戏。自动驾驶汽车是我们这个时代最大的计算挑战之一。黄仁勋表示, 英伟达也在全力推动平台迭代。而这一次, 不再是单纯的算力叠加游戏, NVIDIA将使用新的Ampere和即将推出的系统级芯片(SoC)来扩展平台, 覆盖从系统到平台的范围。它可以提供基于 5 瓦的系统, 也可以扩展到 5 级系统。
       后者配备两个和两个安培, 可实现每秒 2000 万亿次运算, 是上一代平台性能的 6 倍以上。同时, 还可以缩小到入门级的Level 2机箱, 性能最高可达10, 功耗低至5。 据悉, 该系列将于明年开始提供样片, 进入中国汽车制造商的生产和供应。 2022年下半年, 为下一代可编程软件定义系列奠定基础。此前, 小鹏汽车使用英伟达的解决方案构建了3个自动驾驶计算平台。从昨天公布的信息来看, 美国电动车创业公司的下一代电动车、法拉利的未来91、小马智行都计划使用NVIDIA平台。由于小鹏汽车与平台的架构兼容性强, 公司也在探索平台的应用机会。还发布了两个新的边缘平台, 据说可以在边缘处理能力上提供安全性和高性能。 100 适用于较大的商用通用服务器, micro 适用于微型边缘服务器。两种产品都可以提供为制造、零售、电信和医疗等多个行业提供安全、高性能的处理能力。黄仁勋表示, 100是第一款基于安培架构的边缘产品。使用 Nvidia 的 6 个板载网卡, 100 每秒可以接收 200 个数据并将其直接发送到内存进行或 5 信号处理。实时处理来自摄像头和其他物联网传感器的大量流数据可实现更快的洞察力并提高业务效率, 例如同时管理机场中的数百个摄像头。它不使用最新的, 但称其为世界上最小、最强大的微型服务器和边缘智能物联网盒子的超级计算机。
       与业界广泛采用的前代产品2相比, 模块性能提升了10倍以上。通过云原生技术, 开发者可以充分利用这一信用卡大小的高性能、高计算性能的模块。运行云原生软件堆栈的人可以快速处理来自多个高分辨率传感器的流数据, 例如管理便利店中的少量摄像头。
       云原生能力得到了嵌入式生态的支持,

据悉合作伙伴已经提供了20多个解决方案。开发者工具包和模块现在可通过分销渠道获得,

价格为 399 美元。责任编辑:本文基于英伟达官方直播、新浪科技、36、雷锋网、量子位报道