经验 2809 分贝 0 家园分 6461 在线时间: 398 小时 最后登录: 2022-4-6 帖子: 1391 精华: 0 注册时间: 2010-12-1 UID: 606408
注册:2010-12-1 133
当地时间2024年9月11 日,英伟达CEO黄仁勋(Jensen Huang)参加高盛交流与技术大会(Goldman Sachs Communacopia & Technology Conference),接受了高盛半导体分析师Toshiya Hari采访。
在采访中,黄仁勋回顾了英伟达的发展历程,谈到了计算市场的变革,以及英伟达的创新、以及拥有的竞争优势,此外他还重申了最新AI芯片Blackwell的发货节奏。
精彩观点:
这样的架构兼容性思维、建立庞大的安装基础、将软件生态系统的投资与我们一起发展,这种想法从 1993 年开始,我们一直坚持到今天。这也是为什么 NVIDIA 的 CUDA 能有如此庞大的安装基础,因为我们始终在保护它。
事实证明,NVIDIA 擅长的事情就是创造新市场。我们已经这样做了很长时间,现在似乎 NVIDIA 的加速计算无处不在,但其实我们是一个市场一个市场地开发出来的。
生成式 AI 不仅仅是一种工具,它是一项技能。这就是为什么一个新的行业已经诞生的原因。到目前为止,整个 IT 行业都在制造工具和设备供人们使用。而现在,我们将首次创造出能够增强人类的技能。
过去 10 到 15 年里,虚拟化和云计算的趋势掩盖了底层发生的一个根本性变化,那就是摩尔定律的终结。我们在虚拟化和云计算中找到了 2 倍、4 倍的成本降低,但这掩盖了晶体管缩放终止带来的影响。
AI 并不仅仅是一个芯片,AI 是一个基础设施。当你想构建这种 AI 计算机时,人们会使用诸如“超级集群”、“基础设施超级计算机”这样的词,这是有原因的。因为这不仅仅是一个芯片,也不仅仅是一台计算机,而是整个数据中心的构建。
我们与全球每一家数据中心合作。随之而来的是巨大的责任。我们肩负着很多人的期望,每个人都在依赖我们。。需求非常之大,我们的组件、技术、基础设施和软件的交付影响着客户的情绪,因为这直接影响他们的收入和竞争力。
以下内容是“智能超参数”根据seekingalpha 的会议实录翻译而来,enjoy:
Toshiya Hari:我们将尽量轻松进行,试着让你谈谈一些你非常关心的话题。但我想先从 31 年前你创立公司时说起。你将英伟达从一家专注于游戏的 GPU 公司,转变为如今为数据中心行业提供广泛硬件和软件的公司。我想请你谈谈这段历程。最初你是怎么想的?这个过程如何演变?因为这真是一个非凡的旅程。然后,你可以谈谈你的关键优先事项和对未来的展望?
黄仁勋:是的,David,很高兴来到这里。我认为我们做对的一件事是,我们的愿景是有另一种计算形式可以增强通用计算能力,以解决通用计算无法有效处理的问题。起初这种处理器是用来做 CPU 非常难以应付的事情,也就是计算机图形,但我们逐渐将其扩展到其他领域。
最初我们选择的是图像处理,它是计算机图形学的补充。接着,我们将其扩展到物理模拟领域,因为在我们选择的应用领域——电子游戏中,不仅要使其视觉效果美观,还要动态变化,以创造虚拟世界。
我们一步步地发展,后来还涉足了科学计算。第一个应用之一是分子动力学模拟,另一个是地震处理,基本上就是逆向物理学。地震处理与 CT 重建非常相似,都是逆向物理学的一种形式。因此,我们就是这样一步步地推理出相邻行业的算法,并逐步解决问题。
当时的共同愿景是,加速计算可以解决一些有趣的问题。如果我们能够保持架构的一致性,也就是说,今天开发的软件可以运行在庞大的安装基础上,而你之前开发的软件可以通过新技术进一步加速。这样的架构兼容性思维、建立庞大的安装基础、将软件生态系统的投资与我们一起发展,这种想法从 1993 年开始,我们一直坚持到今天。这也是为什么 NVIDIA 的 CUDA 能有如此庞大的安装基础,因为我们始终在保护它。从一开始,我们公司最优先的任务就是保护软件开发者的投资。在这个过程中,我们还解决了一些其他问题,包括如何成为一名创始人、如何成为一名 CEO、如何经营业务、如何建立一家公司。
Toshiya Hari:这确实不容易。
黄仁勋:这些都是新的技能,我们就像在学习如何发明现代计算机游戏产业一样。大家可能不知道,NVIDIA 是全球最大的视频游戏架构安装基础。GeForce 拥有全球约 3 亿游戏玩家,仍然在快速增长,充满活力。所以,我认为每次我们进入一个新的市场,我们都必须学习新的算法,了解新的市场动态,创建新的生态系统。
我们必须这么做的原因是,与通用计算机不同,如果你构建了那个处理器,那么最终一切都会正常工作。但我们是一个加速计算机,这意味着你必须问自己的问题是,你要加速什么?因为没有所谓的通用加速器。
Toshiya Hari:深入谈谈通用计算和加速计算之间的区别吧。
黄仁勋:如果你看看你写的软件,其中有很多文件 I/O 操作,很多数据结构的设置。而软件中的某些部分则包含了所谓的“神奇内核”,即核心算法。
根据不同的需求,这些算法可能不同,比如是计算机图形、图像处理,或者其他可能的任务。它可能是流体、粒子、逆向物理学(如我提到的地震处理),也可能是图像领域的任务。因此,这些不同的算法都不同。
如果你创建了一种特别擅长这些算法的处理器,并且与 CPU 互补,理论上你可以显著加速应用程序的运行。原因是通常 5% 到 10% 的代码占用了 99.999% 的运行时间。所以,如果你将那 5% 的代码卸载到加速器上,技术上你应该能够将应用程序的速度提升 100 倍。
这并不罕见,我们经常能做到这一点。我们常常可以将图像处理速度提升 500 倍。现在我们也处理数据了,数据处理是我最喜欢的应用之一,因为几乎所有与机器学习相关的东西都是数据驱动的软件。数据处理已经演变成了各种形式,可能是 SQL 数据处理,可能是 Spark 之类的数据处理,可能是向量数据库处理,各种处理无结构数据或结构化数据(如数据帧)的方式,我们加速了这些过程。
为了实现这些,你必须构建那个顶级库。比如在计算机图形领域,我们很幸运有 Silicon Graphics 的 OpenGL 和微软的 DirectX 作为基础库。但在这些之外,几乎没有库存在。所以,我们创建了一个叫 cuDNN 的库,它是世界上第一个用于神经网络计算的库。我们还创建了 cuOpt 用于组合优化、cuQuantum 用于量子模拟和仿真、cuDF 用于数据帧处理(比如 SQL 数据)。这些不同的库必须被发明出来,以便重新构建应用程序中的算法,使我们的加速器能够运行它们。如果你使用这些库,你可以获得 100 倍的加速。
Toshiya Hari:速度会更快。
黄仁勋:令人难以置信。所以这个概念很简单,也非常有意义,但问题是你如何发明所有这些算法,并促使视频游戏行业采用它?如何写这些算法,并让整个地震处理和能源行业使用它?再写出新算法让整个 AI 行业使用它?你懂我的意思吗?
Toshiya Hari:是的。
黄仁勋:因此,这些库——我们必须首先进行计算机科学的研究。其次,我们必须通过生态系统的发展,去说服大家使用它。然后再考虑它会在哪些类型的计算机上运行,不同的计算机也各不相同。我们就是这样一步步地从一个领域到另一个领域发展。
我们有一个丰富的库为自动驾驶汽车服务,我们有一个为机器人服务的优秀库,还有一个用于虚拟筛选的库,无论是基于物理的虚拟筛选,还是基于神经网络的虚拟筛选。我们还有一个用于气候技术的出色库。因此,一个领域接一个领域地推进。我们必须去交朋友,创造市场。而事实证明,NVIDIA 擅长的事情就是创造新市场。我们已经这样做了很长时间,现在似乎 NVIDIA 的加速计算无处不在,但其实我们是一个市场一个市场地开发出来的。
Toshiya Hari:许多投资者对数据中心市场特别关注。能否分享一下公司对中长期机会的看法?显然,你们正在推动下一次工业革命。这个行业面临哪些挑战?谈谈你对当下数据中心市场的看法。
黄仁勋:有两件事情同时发生,容易混为一谈,但把它们分开讲会更有帮助。首先,我们假设一个没有 AI 的世界。在这样的世界里,通用计算的进步已经停滞了。大家都知道,对于半导体物理学感兴趣的听众来说,Dennard 缩放和 Mead-Conway 的晶体管缩放都结束了。也就是说,晶体管的缩放带来等功率下的性能提升的时代已经结束。我们不会再看到 CPU 每年都快一倍的时代了。
如果CPU能每10年快两倍,那已经算幸运了。摩尔定律——大家记得,过去摩尔定律的提升是每五年 10 倍、每十年 100 倍。过去我们只需要等着 CPU 提速,而随着世界数据中心处理更多信息,CPU 每年都会快一倍,因此我们没有看到计算膨胀。但是现在,情况变了,计算的膨胀来了。因此,我们必须加速所有可以加速的部分。如果你做的是 SQL 处理,必须加速它。如果你做的是任何形式的数据处理,都需要加速它。如果你在创建一家互联网公司,拥有推荐系统,必须加速它。如今它们都已经完全加速了。
几年前,所有这些还都是运行在 CPU 上,但现在,世界上最大的推荐系统数据处理引擎都已经实现了加速。因此,如果你有推荐系统、搜索系统,或者任何大规模的数据处理系统,你必须加速它。第一个将发生的事情是,全球价值数万亿美元的通用数据中心将被现代化,加速成能够处理更多任务的计算架构。这将不可避免地发生,因为摩尔定律已经结束了。
因此,第一个动态是,你会看到计算机的密集化。这些巨大的数据中心效率极低,因为它们充满了空气,而空气是电的不良导体。因此,我们想要做的是,将这些 50、100 或 200 兆瓦的数据中心浓缩成非常小的数据中心。
如果你看一下我们的服务器机架,NVIDIA 的服务器机架看起来很昂贵,可能每个机架要花费几百万美元,但它可以替换成千上万个节点。令人惊讶的是,连接传统通用计算系统的电缆成本甚至比替换这些系统并将它们压缩到一个机架还要高。
压缩的另一个好处是,一旦你将其压缩得足够小,你就可以用液体冷却它,因为要冷却一个庞大的数据中心很难,但冷却一个小型数据中心却很容易。因此,我们首先在加速和现代化数据中心,压缩它们,使其更加节能。你可以节省成本,节省电力,使其更加高效。如果我们仅仅专注于这一点,那未来十年我们只会加速这个过程。
当然,还有第二个动态,NVIDIA 的加速计算带来了巨大的成本降低。在过去的十年里,计算能力扩展了 100 万倍,而不是摩尔定律的 100 倍。所以问题是,如果你的飞机速度快了 100 万倍,你会做什么?这时,人们突然意识到,为什么不让计算机来编写软件呢?与其我们去想出所有的功能和算法,不如把所有的数据交给计算机,让它来找出算法。这就是机器学习和生成式 AI。因此,我们在大规模数据领域做了这样的事情,现在计算机不仅理解如何处理数据,还能理解数据的意义。由于它能够同时理解多种模式,它可以翻译数据。比如它可以从英文翻译成图像,从图像翻译回英文,从英文翻译成蛋白质,从蛋白质翻译成化学分子。
由于它能够同时理解所有的数据,它可以进行这种数据翻译。我们称之为生成式 AI。大段文本可以缩写成短文,短文本可以扩展成长文,依此类推。我们现在正处于这场计算机革命的时代。
令人惊讶的是,未来的第一个万亿数据中心将加速,创造出这种新类型的软件,叫做生成式 AI。这种生成式 AI 不仅仅是一种工具,它是一项技能。这就是为什么一个新的行业已经诞生的原因。到目前为止,整个 IT 行业都在制造工具和设备供人们使用。而现在,我们将首次创造出能够增强人类的技能。因此,人们认为 AI 将超越现有的万亿数据中心和 IT 领域,进入技能的世界。
什么是技能?一个数字司机是一项技能;自动化装配线上的机器人是一项技能;数字客户服务聊天机器人也是一种技能。像 NVIDIA 这样的公司中有一个数字员工,用来规划供应链。这可能是一个数字 SAP 代理。我们公司使用大量的 ServiceNow,现在我们有了数字员工服务。所以现在我们有了这些“数字人类”。这就是我们现在所处的 AI 浪潮。
Toshiya Hari:让我们换个角度。根据你刚才所说的内容,金融市场上有一种持续的争论,那就是随着我们继续构建 AI 基础设施,是否有足够的投资回报。你如何评估客户在这个周期中的投资回报率?如果你回顾一下个人计算机和云计算在类似采用周期中的情况,当时的投资回报如何?与现在我们继续扩展时相比,它们表现得如何?
黄仁勋:这个问题很好。让我们来看看。在云计算之前,主要的趋势是虚拟化,大家还记得吗?虚拟化基本上是说,我们将数据中心中所有的硬件虚拟化成一个虚拟数据中心,然后我们可以在整个数据中心中移动工作负载,而不必与特定的计算机直接关联。结果是,数据中心的利用率提升了,成本大幅降低了,几乎是两倍或两倍半的成本降低。
虚拟化之后,我们将这些虚拟计算机放入云中。因此,不仅一个公司的多个应用可以共享同一资源,多个公司也可以共享同一资源,再次带来了成本降低,利用率再次提升。过去 10 到 15 年里,这些趋势掩盖了底层发生的一个根本性变化,那就是摩尔定律的终结。我们在虚拟化和云计算中找到了 2 倍、4 倍的成本降低,但这掩盖了晶体管缩放终止带来的影响。
现在,这些效应已经被充分利用,我们已经见到了数据中心和计算成本的上涨。所以,接下来要发生的事情是加速计算。这就是为什么加速计算非常重要。我们举一个例子,比如在数据处理中,Spark 是目前世界上使用最广泛的数据处理引擎。如果你使用 NVIDIA 的 GPU 在云端加速 Spark,看到 20 倍的加速并不罕见。因此,你可以节省大约 10 倍的成本。虽然你需要为 NVIDIA 的 GPU 支付一些费用,这会使计算成本稍微增加,但你减少了大约 20 倍的计算时间,因此你会看到 10 倍的节省。在加速计算中看到这样的投资回报率并不罕见。
所以我建议大家尽可能加速你们的所有工作,然后使用 GPU 来运行这些加速的任务。这是加速带来的即时投资回报。除此之外,生成式 AI 的对话正在进行的第一个浪潮是基础设施提供商,比如我们自己,以及所有云服务提供商,他们将基础设施放到云端,这样开发者就可以使用这些机器来训练模型、微调模型、设置模型的保护措施等。由于需求巨大,每花费 1 美元在我们这里,就能在租赁中带来 5 美元的收入。这种情况正在全球各地发生,所有的计算资源都供不应求。因此,需求真的是非常惊人。
我们已经知道的一些应用,包括 OpenAI 的 ChatGPT、GitHub 的 Copilot,或者我们公司使用的代码生成器,这些工具带来了巨大的生产力提升。我们公司没有一个软件工程师不使用代码生成器,无论是我们自己为 CUDA 构建的代码生成器,还是我们使用的其他语言(如 USD、Verilog 或 C 和 C++)的代码生成器。因此,我认为每一行代码都由软件工程师手工编写的日子已经一去不复返了。我们所有的软件工程师都会有一个 24/7 的数字工程师助手在身边,这就是未来。
所以,我将 NVIDIA 看作是拥有 32,000 名员工的公司,围绕在这 32,000 名员工身边的,应该是 100 倍更多的数字工程师。
Toshiya Hari:许多行业都在接受这一技术。你对哪些应用场景或行业感到最兴奋?
黄仁勋:在我们公司,我们用 AI 来做计算机图形。如果没有 AI,我们已经无法再做计算机图形了。我们计算一个像素,然后推测出其他 32 个像素。换句话说,我们“幻想”出其他 32 个像素,这些像素看起来在时间上是稳定的,看起来具有真实的视觉效果,图像质量惊人,性能也非常出色。我们节省了大量能量,推测一个像素需要的计算能力很少,速度也非常快。
其中一个关键点是,AI 不仅仅是关于训练模型,这只是第一步。更重要的是使用模型。使用模型时,你能节省大量的能源和处理时间。因此,我们将 AI 用于计算机图形。如果没有 AI,我们也无法为自动驾驶汽车行业提供支持。如果没有 AI,我们在机器人和数字生物学领域的工作也无法完成。几乎每一个我遇到的科技生物公司都建立在 NVIDIA 的平台上。他们使用它来进行数据处理,生成蛋白质……
Toshiya Hari:这似乎是一个非常令人兴奋的领域。
黄仁勋:确实如此。小分子生成、虚拟筛选——这个领域将第一次被人工智能彻底改造,带来基于计算机辅助的药物发现。因此,在这个领域有很多令人难以置信的工作在进行。
Toshiya Hari:谈谈竞争和你们的竞争壁垒吧。有许多上市和私营公司希望打破你们的领先地位。你如何看待自己的竞争优势?
黄仁勋:首先,我想说几件事情是我们与众不同的。首先要记住,AI 并不仅仅是一个芯片,AI 是一个基础设施。今天的计算并不是制造一个芯片,然后人们来购买你的芯片,将其放入计算机。这种方式属于 1990 年代的计算模式。今天,如果你看看我们的新 Blackwell 系统,我们设计了七种不同类型的芯片来构建这个系统,Blackwell 是其中之一。
Toshiya Hari:我想让你谈谈 Blackwell。
黄仁勋:是的,令人惊讶的是,当你想构建这种 AI 计算机时,人们会使用诸如“超级集群”、“基础设施超级计算机”这样的词,这是有原因的。因为这不仅仅是一个芯片,也不仅仅是一台计算机,而是整个数据中心的构建。你可以想象在一个超级集群中的所有软件,去运行它。这里没有所谓的 Microsoft Windows 这样的操作系统。这些日子已经过去了。所有这些计算机内部的软件都是完全定制的,必须由人们去编写。所以,设计芯片的公司和设计超级计算机、超级集群以及所有这些软件的公司是同一个公司是非常合理的,因为这样做会更加优化,性能更高,能效更高,成本也更有效。
第二点是,AI 关乎算法。我们非常擅长理解什么是算法,它对计算堆栈的影响是什么,以及如何在数百万个处理器上分布这种计算,连续数天运行,同时使计算机尽可能高效,保持能源效率并快速完成任务。我们非常擅长这些事情。
最后,AI 是一种计算形式。AI 是在计算机上运行的软件。我们知道,对计算机来说,最重要的是安装基础。拥有相同的架构,无论是在云端,还是本地部署到云端,都应该保持一致。无论是在云端构建、在自己的超级计算机上构建,还是在某个机器人或某台 PC 上运行,都能使用相同的架构来运行相同的软件,这是非常重要的。这就是所谓的“安装基础”。我们过去 30 年对这个理念的坚持,正是今天成功的原因。
这也是为什么如果你要创业,最显而易见的架构选择就是 NVIDIA 的架构。因为我们在每一个云平台上都存在,你可以在任何地方购买到我们,而你只要拿起一台标有 NVIDIA 的计算机,你就知道可以运行所有相关软件。
Toshiya Hari:你们的创新速度非常快。我想让你多谈谈 Blackwell。相比其前身 Hopper,在训练方面快了四倍,推理速度快了 30 倍。看起来你们的创新速度惊人。你们能否保持如此快速的创新步伐?当你考虑到合作伙伴时,他们如何跟上你们的创新速度?
黄仁勋:我们的创新速度背后的基本方法是,因为我们构建的是一个基础设施。我们有七种不同的芯片,每个芯片的更新节奏最好是两年一轮。我们可以每年给它一个中期升级,但如果每两年推出一个新的架构,那你已经以光速运行了,这已经是非常快的了。现在我们有七种不同的芯片,它们共同提升系统性能。因此,我们每年都可以推出比上一代更好的 AI 集群或超级集群,因为我们有许多不同的组件可以进行优化。
这种性能上的提升直接转化为总拥有成本 (TCO) 的改进。比如,Blackwell 性能提高了三倍,对于拥有 1 千兆瓦电力的人来说,那意味着收入提高了三倍。性能的提升直接转化为吞吐量,而吞吐量又转化为收入。对于拥有 1 千兆瓦电力的公司来说,你的收入是之前的三倍。你无法通过芯片降价来弥补三倍的收入差距。因此,我们通过整合所有不同的部分并对整个堆栈、整个集群进行优化,能够持续交付更好的价值。
相反的情况也同样成立。对于任何想要支出的资金,假如你以同样的功率花费,你可以获得三倍的收入。以同样的支出,你可以获得三倍的性能,这实际上是另一种形式的成本降低。因此,我们有最好的性能/瓦比(即收入),我们有最好的性能/总拥有成本比(即毛利率)。我们将这种能力不断推向市场,客户因此获益,而且这种改进不是每两年一次的。
更重要的是,所有这些架构都是兼容的。昨天开发的软件,今天依然可以运行。今天开发的软件,未来也可以在你整个安装基础上运行。因此,我们可以以惊人的速度前进。如果每一代架构都是不同的,那你无法做到这一点。仅仅为了整合一个系统,你可能需要一整年的时间。而因为我们所有的组件都是一起设计的,客户在我们发货后的 19 天内就有了一个全新的超级集群。这是某人曾在推特上提到的,如果你在硬件和软件上要整合不同的芯片,你会很幸运,如果你能在一年内完成。因此,我认为我们将这种创新速度转化为客户更多的收入和更好的毛利率,这是一件了不起的事情。
Toshiya Hari:你们的大部分供应链合作伙伴都在亚洲,特别是台湾。鉴于目前的地缘情况,展望未来,你如何看待这一问题?
黄仁勋:正如你所知,亚洲的供应链非常广泛且紧密相连。很多人认为,当我们说“GPU”的时候,意味着我举起一个芯片——就像很久以前,我宣布新一代芯片时那样。如今,NVIDIA 的新 GPU 是由 35,000 个零件组成,重达 80 磅,消耗 10,000 安培的电流。当你将它安装在机架上时,它重达 3,000 磅。因此,这些 GPU 复杂得像一辆电动汽车。整个生态系统非常多样化,并且在亚洲非常紧密地联系在一起。我们在每一个方面都尽可能设计了多样性和冗余性。
最后一点是,我们在公司内部拥有足够的知识产权。如果我们需要从一个晶圆厂转移到另一个,我们有能力这样做。可能工艺技术不是那么先进,可能无法达到相同的性能或成本,但我们能够提供供应。因此,如果发生任何事情,我们应该能够快速切换,并在其他地方生产。
我们在台积电生产,是因为它是世界上最好的,不是小幅领先,而是领先得非常多。因此,不仅仅是我们与他们合作的悠久历史,他们的灵活性、反应速度和大规模生产能力都非常出色。NVIDIA 去年收入大幅上升,除非供应链能够快速响应,否则这种增长是不可能实现的。因此,台积电的灵活性和响应能力令人难以置信。
在不到一年的时间里,我们大幅提高了 CoWoS(芯片封装技术)的产能,明年我们还将继续扩大产能,后年还会进一步扩大。不过,不管怎样,供应链的灵活性和能力真的令人赞叹不已。因此,我们选择台积电是因为他们表现卓越,但如果有必要,我们当然可以启用其他供应商。
Toshiya Hari:公司确实处于非常有利的地位。我们谈了很多很棒的事情。你有什么担忧吗?
黄仁勋:我们的公司现在与全球每一家 AI 公司合作。我们与全球每一家数据中心合作。我不认为有一家数据中心、一家云服务提供商或一家计算机制造商没有与我们合作。因此,随之而来的是巨大的责任。我们肩负着很多人的期望,每个人都在依赖我们。需求非常之大,我们的组件、技术、基础设施和软件的交付影响着客户的情绪,因为这直接影响他们的收入和竞争力。
所以我们今天可能拥有比以往任何时候都多的情绪化客户——这是理所当然的。如果我们能满足每个人的需求,那么情绪化就会消失。但现在情况非常紧张,我们肩负着很大的责任,我们正尽力而为。
我们正在全力推动 Blackwell 的量产。我们将在第四季度开始发货,并且计划从第四季度到明年进行大规模生产。需求之大,每个人都想要第一个拿到产品,每个人都想要最多的资源,每个人都想要尽可能快的速度。这种紧张的气氛非常强烈。
因此,我认为,在创造下一个计算时代的过程中,虽然非常有趣,看到这些令人惊叹的应用被开发出来也令人激动,看到机器人在四处走动也很不可思议,看到数字代理团队一起在计算机中解决问题也令人惊奇,看到我们用来设计 AI 芯片的 AI 本身,也非常了不起。
所有这些都令人叹为观止。但同时,这个过程的压力也非常大。全球的目光都聚焦在我们身上,这意味着少一些睡眠时间也没关系,只要能有三小时的好觉就足够了。
Toshiya Hari:好吧,祝你好运。非常感谢你今天能来到这里与我们对话。
黄仁勋:谢谢你。保重。
转自:智能参数