通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  少将

注册:2016-11-17264
跳转到指定楼层
1#
发表于 2024-3-8 10:10:23 |只看该作者 |倒序浏览
集微网报道 (文/陈炳欣)软件生态系统是指在一个共同的技术平台上,众多参与者协同合作,最终形成大量的软件解决方案或者服务。而这样的生态在开发者场景中可以起到极为重要的作用,能够重塑整个AI的工作流程,加强开发者黏性。

根据tomshardware的报道,日前英伟达在其软件平台CUDA的更新许可条款中,禁止使用翻译层在其他硬件平台上运行基于CUDA的软件。对于这一政策变动,业界的普遍解读是,英伟达为了防止其他厂商通过ZLUDA等翻译层使用CUDA代码,也即限制了其他厂商直接将CUDA生态软件通过ZLUDA等转换后使用在其他AI芯片平台上。

CUDA作为英伟达的软件,在与硬件配合后,可以十分高效地驱动AI模型,成为众多AI厂商训练推理大模型时的首选,这也是支撑英伟达在当前AI计算领域统治地位的重要支柱。然而,随着更多具有竞争力的硬件问世,越来越多用户希望能在其他平台上运行他们的CUDA程序。而使用如ZLUDA这类翻译层,在非英伟达硬件上运行CUDA程序是最便捷的方式(此外也可以重新编译代码)。

这显然对英伟达在AI应用领域的地位造成了影响,成为本次英伟达决定禁止使用翻译层在其他硬件平台上运行CUDA应用程序的原因。其实,自2021年以来,英伟达就已经在网上公示的许可条款中禁止使用翻译层在其他硬件平台上运行基于 CUDA 的软件了。现在,英伟达又将这则警告添加到CUDA 11.6版本的条款当中。从长远来看,英伟达无疑将会通过更多设置法律障碍的方式,阻止在第三方硬件上通过翻译层运行CUDA软件。

在开发者的日常流程中,首个环节是数据管理,包括数据的提取(Extraction)、变形(Transform)、加载到应用端(Load),这些流程合称ETL;随后还有数据的存储,数据训练、验证(可视化)、推理等多个环节。足够良好的软件生态能够极大影响上述工作流程,通过发达的软件生态支持,能够极大提高工作效率,对开发者的黏性极大增加,形成正反馈,提高软件生态的壁垒。

在CUDA 问世之前,人们想要调用GPU的计算能力必须编写大量的底层代码或借用图形API,对使用高级语言为主的程序员来说十分不便。这种情况促使英伟达决定构建一套与之相配合的计算平台。2006年CUDA发布,2007年正式推出CUDA1.0公测版本。2008-2010年CUDA平台得到进一步发展,拓展了新局域的同步指令、扩充全速常量内存等。英伟达通过向各软件厂商免费提供开发工具,使得CUDA生态初具规模。程序员无需再通过图形API调用GPU,而是可以直接采用类似C语言的方式直接操控GPU。

CUDA包含的生态组分众多,包括编程语言和API、开发库、分析和调试工具、数据中心和集群管理工具,以及GPU硬件等多个大类。每一大类中都包含了大量的组件。这些都是英伟达以及开源生态开发者们在二十年间日积月累所形成。

举报本楼

本帖有 4 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-11-24 01:12 , Processed in 0.107074 second(s), 17 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部