通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  上尉

注册:2007-10-2911
跳转到指定楼层
1#
发表于 2025-3-23 09:01:05 |只看该作者 |倒序浏览
神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。
编者按:2025是AI智能体的元年。理解AI智能体的关键是把它当人看。也因此,一个完整的AI智能体技术栈需要填补空缺的三个层级才能让智能体为我所用,并且用得好。文章来自编译。

大概在18个月前就有人给我们演示“AI智能体”项目了。其巨大潜力显而易见。现如今,我们对这个领域的全貌有了更清晰的认知。

简而言之:AI智能体正在将劳动力转化为软件——这是一个价值数万亿美元的市场。自我们首次撰文探讨以来,我们已与该领域的多家杰出公司合作,并希望进一步深入。

但如果你跟我们一样密切关注这个领域的话,可能已发现一个问题了:技术进步与实际应用之间存在脱节。

一方面,技术正飞速进步。近期,出现了“工具使用”(如Operator、CU、Gemini 2.0)和改进的“推理”(如O3、R1、3.7 Sonnet)这些AI新能力,二者都是AI“智能体”的基础前提,也会将我们推向更接近未来的世界。在这个世界里,AI智能体能以远低于几个月前预期的成本自主行动并执行复杂任务。新能力与AI性能和成本的持续优化(参见Deepseek及相关进展)正在为未来爆发的需求奠定基础。这是好消息。

不那么好的消息的是,技术进步与实际应用之间仍存在断层。工作场景下部署AI的意愿与实际落地之间存在鸿沟。比方说,麦肯锡近期对100家年收入超5000万美元的机构的调查显示,63%的领导者认为部署AI是当务之急,但91%的受访者表示尚未做好准备。

一切尚在早期。而这就是你的机会所在——你的核心任务是为技术突破与大规模应用架设桥梁。你需要让人们真正看到变革、渴望变革,并让变革为其所用。

那怎么才能走到这一步呢?事实证明,我们可能遗漏了AI智能体技术栈的几个关键层。

目前,我们缺失了三个必要的层级,外加一个“加分项”:

<ol>
  • 责任层:透明性、可验证的工作以及推理能力的基础。

  • 上下文层:解锁企业知识、文化与目标的系统。

  • 协作层:让智能体能通过共享知识系统无缝协作。

  • 赋能AI智能体:在兴起的B2A(企业到智能体)领域,为其提供工具和软件来让自主性最大化。

    </ol>
    我们关注建设这些层级的公司,或是像Maisa(下文详述)那样整合各个层级的公司。

    随着这些挑战得到解决,随着基础设施的完善,我们将能用AI处理更复杂(且更有价值)的任务。一旦这成为常态,许多如今难以想象的新市场将应运而生。

    但首先,我们需要这些层的存在——原因如下:

    解锁自主性:从RPA(机器人流程自动化)到APA(智能流程自动化)

    要理解如何实现完全自主性,我们需先看到人们对“流程自动化”的认知出现了重大转变。

    我们正从机器人流程自动化(RPA)迈向智能流程自动化(APA)。

    RPA是一个价值数十亿美元的产业,拥有UiPath、BluePrism、Workfusion等巨头企业。这证明了人们非常愿意为高价值任务的自动化买单。要想理解如何开启智能体经济,不妨以RPA为起点。一旦看清其优势与局限,便会明白智能体为何是必然的下一大步。

    RPA的优势:RPA擅长处理基于规则的,跨多个业务系统(100-200个步骤)的结构化任务。RPA能通过规则有效固化企业知识(如增值税号处理),只要底层系统是静态的,自动化便可靠运行。

    此外,RPA已具备强大的产品市场契合。

    RPA的局限:可被RPA自动化的任务范围始终受限,因为你需要详尽规划RPA的每一步流程(比如点击此处鼠标、按特定方式设计表格等),且必须确保流程永不变化——否则系统就会崩溃。

    RPA的边界在于:你没法为所有操作建立完美可复制的流程映射(有些企业甚至需要外聘顾问来“挖掘”自身流程才能建模)。事实上,你未必总需要这种做法——把工作做出色的本质,恰恰在于对环境做出反应、吸收变化并动态调整。

    简言之,RPA在某些任务上表现出色,但完全缺乏灵活性——可靠但却很不灵活。

    大语言模型(LLMs)的崛起:LLMs的兴起标志着一场重大变革。LLM提供无限、廉价且自适应的智能,让我们得以定义并整合解决复杂问题所需的上下文。随着推理能力的提升,LLM大幅扩展了可自动化任务的边界。



    1.0:人力——2.0:RPA——3.0:APA


    不过,LLM亦非完美。它们不擅长重复性步骤,却能在业务流程的非结构化环节大显身手——这既能成为优势也会变成劣势,具体取决于你期望结果是更具创造性还是确定性更强。

    无论哪种情况,LLM都是“黑箱”。你无法百分百确定系统会做什么、为何这样做。即便是推理路径或模型提供的解释,也可能完全是虚构的。

    企业需要确定性,否则任何系统都难以落地。即便你希望LLM更具创造性,若无法理解其结论的生成逻辑,这种“创造”也将毫无价值。

    那我们该怎么办?

    RPA具备很强的产品市场契合度,系统运作清晰可见。但其任务范围有限,缺乏真正的灵活性和上下文理解能力,且需要大量“前置准备工作”。

    大语言模型(LLM)更擅长处理难以用规则表达的非结构化信息,但它们仍是“黑箱”。

    AI智能体与APA的答案在于:我们需要两者结合。

    我们需要RPA系统的可靠性与LLM的灵活性(及低成本),这体现为可稽核性与上下文层——必须将其融入AI智能体技术栈。若想实现大规模应用,本领域的开发者必须攻克这一难题。



    实现APA离不开这关键的几层能力


    责任层:规模化应用、学习与监督的关键

    想想小学的数学课:光写出答案无法得满分,老师会要求“展示解题过程”——这是为了验证你是不是真正理解推导逻辑。

    这正是当前多数AI系统(包括看似展示逻辑链的模型)的致命缺陷。我们无从知晓AI为何生成特定行动或思维链——那只是被“生成”出来了。

    与Maisa团队合作时,我们才意识到这一问题的重要性。那个比方是该公司联合创始人David Villalón与Manuel Romero提出来的,精准揭示了当前AI智能体生态的症结。

    企业被迫盲目信任AI的思考过程。Maisa在早期产品开发中曾遇到客户要求:必须向稽核方证明AI系统的每一步操作,尤其是决策背后的原因。

    此类需求催生了Maisa的“工作链”(Chain of Work)概念——我们相信这将会为职场AI智能体落地的核心要素。

    其核心是Maisa的知识处理单元(KPU)——一个将AI步骤编码化(而非依赖转瞬即逝的“思维链”文本)的专有推理引擎。

    通过将推理与执行分离,KPU实现了确定性和可审计的结果:所有操作均记录进显式的“工作链”当中,LLM式的创造力与传统软件的可靠性得以结合。与传统RPA或依赖幕后“推测”的前沿实验室方案不同,KPU构建了信任:团队可清晰追溯AI的每一步动机与方法,修正或优化任意环节,并确保变更的一致性部署。

    我常跟创始人开玩笑:最好的B2B软件是能帮人升职的那种——那些让内部利益相关者嗅到“引入即立功”机会的产品。AI如今承诺的正是这种回报,但也有风险:没人愿引入一个最终会失效的系统。

    构建这种可追溯性将风险回报比拉回到有利区间。AI自动化对企业无疑是重大利好,但关键在于降低落地相关的实际与感知到的风险。

    Maisa的“工作链”正在实现这一点——且已见成效。

    上下文层:优秀员工的关键

    优秀的员工标准是什么?不仅要看资历或经验。最终决定员工成功的,是个人风格、适应性,以及你把要干什么和怎么干表达清楚的能力。

    比方说:你雇佣的营销人员会花时间理解品牌调性及其背后的逻辑,而不是机械地输出平庸的文案。

    又比如:你雇佣的HR明白自己是在塑造企业文化,而不仅仅是编写员工手册。

    这正是GPT-4没法成为优秀员工的核心原因:你再怎么努力,它都无法真正理解你或你的企业。GPT-4按规则行动,但你预期人类员工具备的把握微妙之处,能了解背景的能力机器不具备。就算将规则输入AI流程或定制GPT,你也没法穷尽所有的隐性条件。

    原因如下:

    <ol>
  • 职场隐性知识无法被完全记录:新员工通过观察、直觉、反馈和提问学习。能否获取并融合这些“隐性知识”是区分优秀与普通员工的关键。

  • 显性知识散落在非结构化的数据之中:它们不在数据库里,而存在于PDF指南、代码、甚至公司邮件里。

  • 当前大多数的AI工具尚未接入企业非结构化的数据生态之中,更遑论理解当前员工是怎么想的了。

    </ol>
    此前我们讨论过,智能体相较RPA的优势之一正是上下文理解能力。它提供了适应性,且省去了天价的“流程映射”成本。

    知识组织是可行的,且在受限环境中已验证(行业标准的检索增强生成(RAG)或嵌入技术是良好开端,但面对海量数据或专业知识时仍会崩溃)。

    Maisa的解决方案是虚拟上下文窗口(VCW,Virtual Context Window):它的机制跟操作系统的分页机制类似,数字员工按需“加载”和“引导”数据,实现无限的记忆与零冲突——无需微调或笨拙的索引。更重要的是,VCW同时还可以作为员工长期的know-how知识库,意味着可以无缝适应新指令或数据。

    上下文层必须是AI智能体技术栈的核心。客户将视其为让AI员工融入企业独特方法与风格的“入职培训”空间。

    难点在于:如何为企业封装这一上下文,并将其注入到智能体的基因之中——从入职到未来,实现知识的“调用”与持续学习。

    这一领域的其他探索活动包括:


    • AI智能体的非结构化数据准备

    • 持续收集与生成新的上下文数据的系统

    • 更简易的模型微调系统

    • 记忆系统与长上下文窗口

    • 具备情商与人格直觉的AI


    协调层:管理智能体员工队伍

    未来,企业也许要管理一支AI智能体员工队伍——客服、销售、HR、财务等职能将由不同公司提供的智能体承担。

    这一切已悄然开始。现实中已出现AI智能体的招聘启事:



    面向AI智能体的招聘启事


    这些智能体需与人类“对话”,彼此之间也需交互。它们需要权限管理与规则约束,隐私和安全是核心考量。

    这是AI智能体领域的关键时刻。表面上,智能体集群协作势不可挡,但也可能出现另一番景象:企业(尤其是行业巨头)试图垄断智能体开发与管理体系,排斥外部协作,形成赢家通吃的局面。

    但截至目前,尚无证据表明AI产品会走向垄断。除GPU外,构建AI系统的核心要素(如基础模型)并未被少数公司掌控——OpenAI、Claude、Gemini、Mistral、DeepSeek等玩家共存。

    鉴于当前智能体领域的初创企业激增,更可能的情况是:深耕此领域的团队将比巨头更快解决通信与权限难题,而非被巨头封杀。

    繁荣的智能体生态终将实现多方共赢:客户可无限筛选AI人才,选择最优方案;创始人则能借助网络效应,从连接者的角色中获益——每新增一个智能体,生态价值便提升一分。

    因此,智能体间的通信至关重要。

    前沿企业已行动:Maisa的KPU等技术实现多模型兼容,确保灵活性。但随着基础模型持续进化,我们还需建立安全的知识交换与共享系统。

    在智能体生态全面启动之际,这些问题亟待前瞻性思考。

    前沿:为AI智能体配备工具

    一旦解决了责任层、上下文层与协调层,真正的乐趣才刚开始。

    AI智能体工具市场已初现端倪——这类软件旨在提升智能体工作效能,有人开始把这个新兴领域叫做“B2A”(企业到智能体)。

    这是关键突破:智能体将从执行者升级为自主决策者。试想若人类被禁用计算器或电脑时——一旦你部署了智能体,必须为其配备成功所需的工具。

    我们已窥见雏形:ChatGPT调用浏览器、Claude操控光标、ElevenLabs可以让它们开口说话。但未来可能比现在强十倍。

    智能体需能相互支付服务费用、签订合约,或接入人机交互系统。

    应用与基础设施会相互激励。AI智能体领域同样如此:基础设施层将催生新型智能体与工具,而这些创新又反哺基础设施的进化。

    把智能体当作终端用户来打造工具,这个领域仍是一片蓝海。我们正密切关注。



    以出色人类员工为蓝本,聚焦当前AI智能体差距,展望未来AI智能体形态


    AI智能体落地的真正挑战

    有一点要明确:我们全力押注智能体,对其潜力充满信心。对我们及合作创始人而言,AI智能体普及化是必然趋势。

    令人兴奋之处在于从零构建新生态。我们必须理解如何推动人们接纳一个全新的计算范式——这一切有其生命周期,而我们还处于起点。

    打造这几个层,是让AI智能体成为大众信任的日常工具的关键。跨越应用鸿沟,正需攻克这些挑战。

    我们为那些直面挑战的公司喝彩。它们是即将爆发的AI智能体革命的基础设施。

    译者:boxi。

    来源:36kr
  • 举报本楼

    本帖有 4 个回帖,您需要登录后才能浏览 登录 | 注册
    您需要登录后才可以回帖 登录 | 注册 |

    版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

    GMT+8, 2025-3-25 23:32 , Processed in 0.215595 second(s), 17 queries , Gzip On.

    Copyright © 1999-2023 C114 All Rights Reserved

    Discuz Licensed

    回顶部