通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  少校

注册:2015-11-149
跳转到指定楼层
1#
发表于 2025-4-7 15:05:02 |只看该作者 |倒序浏览
神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。
编者按:2025年是AI智能体元年。本系列文章旨在介绍AI智能体的概念、类型、原理、架构、开发等,为进一步了解AI智能体提供入门知识。本文为系列文章的第四篇,文章来自编译。



本文将探讨不同类型的AI智能体及其实现方式、实际应用、优势与局限性。从简单反射型智能体到多智能体系统,我们将解析这些模型如何为自动化、决策与智能问题解决提供动力。

开始吧!

1. AI智能体的类型

根据智能体行为对其智能表现与能力的影响方式不同,人工智能的智能体可分为以下类型:


  • 简单反射型智能体

  • 基于模型的智能体

  • 基于目标的智能体

  • 基于效用的智能体

  • 学习型智能体

  • 分层智能体

  • 多智能体系统(MAS)




理解每种智能体的特性之后,可以优化其性能并生成更佳行动。以下就是对各类AI智能体的详细解析。

1.1 简单反射型智能体

简单反射型智能体仅在特定动作或条件触发时才会工作。这类AI智能体基于预设规则响应,决策时不考虑过去的经验,仅适用于无需战略思考的简单任务。



(来源:Writesonic)



1.1.1 实现方式
class SimpleReflexVacuumAgent:

def __init__(self):

self.location = "A"

self.actions = []

def perceive_and_act(self, current_location, is_dirty):

if is_dirty:

self.actions.append("Suck")

print(f"Cleaned {current_location}")

else:

if current_location == "A":

self.actions.append("MoveRight")

self.location = "B"

else:

self.actions.append("MoveLeft")

self.location = "A"

print(f"Moved to {self.location}")


# 执行

agent = SimpleReflexVacuumAgent()

percepts = [("A", True), ("A", False), ("B", True), ("B", False)]

for loc, dirt in percepts:

agent.perceive_and_act(loc, dirt)
此代码实现了一个直接刺激-响应机制:环境感知(房间状态)触发预设的清洁行为。

工作原理:简单反射型智能体基于条件-动作规则工作,直接对当前输入(感知信息)作出反应,不考虑历史经验。适用于以下环境:


  • 完全可观测(智能体掌握完整状态信息)

  • 确定性(行动结果可预测)


机制:智能体遵循预定义规则决定动作。比方说,吸尘器智能体在A、B两位置间移动,仅在检测到灰尘时清洁。因其仅依赖当前状态,所以不保留过去状态或决策的记忆。

适用场景:适用于无需历史数据的简单规则型任务,比方说:


  • 自动化客服:检测“密码重置”等关键词并返回预设指令的规则型聊天机器人。

  • 数字温控器:当温度低于阈值时启动加热器。

  • 工业自动化:无需复杂处理的基本物联网设备。


1.1.2 优势


  • 设计简单、实现成本低,占用计算资源少

  • 实时响应环境变化

  • 传感器输入准确且规则设计良好的情况下高度可靠

  • 无需复杂训练或高端硬件


1.1.3 局限性

难以适应部分可观测环境的变化

无存储历史交互的记忆

缺乏随时间改进决策的学习能力

1.2 基于模型的反射型智能体

此类智能体扩展了简单反射型架构,通过维护内部世界状态模型处理部分可观测性。其动作基于当前感知与内部状态(代表不可观测的世界),并根据以下因素更新状态:


  • 世界是如何独立于智能体而演化的

  • 智能体的动作是如何影响世界的


谨慎型变体:一种会预先评估动作后果的基于模型的反射智能体。



(来源:Writesonic)


1.2.1 实现方式
class ModelBasedVacuumAgent:

def __init__(self):

self.model = {"A": "Unknown", "B": "Unknown"}

self.location = "A"


def update_model(self, loc, status):

self.model[loc] = "Clean" if status else "Dirty"


def decide_action(self, current_loc, is_dirty):

self.update_model(current_loc, is_dirty)

if is_dirty:

return "Suck"

elif self.model["A"] == "Clean" and self.model["B"] == "Clean":

return "Shutdown"

else:

return "MoveRight" if current_loc == "A" else "MoveLeft"


# 使用示例

agent = ModelBasedVacuumAgent()

print(agent.decide_action("A", True)) # 输出:Suck
通过维护世界模型与资源状态,智能体可在传感器受限时作出知情决策。

运作流程:基于模型的反射型智能体遵循条件-动作规则,但额外会维护内部状态来追踪环境变化,从而提升决策能力。其运作分为四阶段:

<ol>
  • 感知:通过传感器获取世界当前状态。

  • 建模:基于观测构建内部世界模型。

  • 推理:评估模型并应用预定义规则或启发式选择最佳动作。

  • 行动:执行选定动作。

    </ol>
    适用场景:广泛用于需动态适应与实时决策的行业系统,例如:

    智能库存管理:AI系统追踪库存水平、分析采购历史并预测需求波动。

    金融交易系统:自动化交易智能体维护市场模型并响应实时价格变化。

    1.2.2 实际案例:Amazon Bedrock

    Amazon Bedrock是模型反射型智能体的典型代表。

    功能:基于基础模型实现以下能力:

    模拟运营

    从真实数据中获取洞见

    预测结果

    针对优化与规划做出知情决策

    运作方式:


    • 持续用实时数据优化模型。

    • 通过模拟预测潜在场景并优化决策。

    • 动态调整模型参数,确保适应性与效率。


    Amazon Bedrock展现了AI在复杂环境中强化决策的潜力。

    1.2.3 优势


    • 增强感知与记忆:通过内部模型跟踪随时间而变化的环境。

    • 更优决策:能基于历史数据在部分可观测环境中处理不确定性。

    • 高效任务执行:利用环境知识导航并预判未来状态。


    1.2.4 缺点


    • 构建和维护模型可能产生高昂计算成本

    • 模型可能无法完整捕捉真实环境的复杂性

    • 模型无法预判所有潜在的突发情况

    • 需频繁更新模型以保持实时性

    • 模型的可解释性与理解性存在挑战


    1.3 基于目标的智能体

    基于目标的智能体是AI驱动系统,会利用环境信息实现特定目标。与简单反射型或基于模型的智能体不同,此类智能体通过决策序列和动作达成预期结果。

    核心机制:通过搜索算法和启发式方法寻找最优路径,适用于需战略规划与适应性的复杂任务。



    (来源:Writesonic)



    1.3.1 实现方式

    目标驱动行为:基于目标的智能体会采用搜索与规划算法,选择朝目标迈进步子最大的动作。

    目标追踪:智能体会评估当前状态与目标的差距,选择缩短距离的动作。复杂实现可能需要整合图遍历算法。
    class GoalBasedAgent:

    def __init__(self, target):

    self.goal = target

    self.actions = []

    def path_planning(self, current_state):

    # 简化的A*路径规划逻辑

    if current_state == self.goal:

    return "Goal achieved"

    return "Move closer" if current_state &lt; self.goal else "Adjust path"


    agent = GoalBasedAgent(100)

    print(agent.path_planning(75)) # 输出:Move closer
    适用场景:基于目标的智能体在需结构化规划与动态适应的任务中表现优异,比方说:

    自动驾驶:AI驱动的汽车会规划路线并做出动态调整,好安全抵达目的地。

    机器人:执行仓库自动化、太空探索等复杂操作的机器人。

    计算机视觉与NLP:分析图像、视频和文本以提取洞察并响应。

    1.3.2 实际案例:Google Bard

    Google Bard作为基于目标的智能体,旨在提供精准高质量的回答,选择满足用户需求的动作。虽然它也是学习型智能体,但其目标导向特性确保回答与用户意图一致。

    1.3.3 优势


    • 实现简单、易于理解

    • 高效达成特定目标

    • 基于目标完成度,评估性能易

    • 可与其他AI技术结合构建出高级智能体

    • 适合定义明确的结构化环境

    • 适用于机器人、游戏AI、自动驾驶等场景


    1.3.4 缺点


    • 局限于单一目标

    • 难以适应动态变化的环境

    • 变量过多时对复杂任务效率低

    • 需大量领域知识定义目标


    1.4 基于效用的智能体

    基于效用的智能体是AI驱动的决策系统,通过效用函数(衡量结果优劣的指标)选择动作。与规则或目标智能体不同,此类智能体评估多个动作并选择预期效用最高的选项,实现灵活自适应的决策,尤其适用于需动态比较选项的复杂不确定环境。



    (来源:Writesonic)


    1.4.1 实现方式

    定量决策:智能体通过效用函数评估动作结果,优化最大预期值而非二元目标达成。

    优化逻辑:效用函数将多因素整合为单一指标,实现不同结果的定性比较。
    def utility_function(cost, time, risk):

    return (0.5 * (1/cost)) + (0.3 * (1/time)) - (0.2 * risk)


    actions = [

    {"cost": 200, "time": 5, "risk": 0.1},

    {"cost": 300, "time": 3, "risk": 0.2}

    ]

    best_action = max(actions, key=lambda x: utility_function(x['cost'], x['time'], x['risk']))

    print(f"Optimal action: {best_action}")
    决策流程:

    <ol>
  • 环境建模:智能体构建环境表示(复杂度可调)。

  • 效用评估:用概率分布与预定义效用函数计算各结果的预期效用。

  • 决策制定:选择预期效用最高的动作。

  • 持续优化:动态重复流程以适配变化场景。

    </ol>
    适用场景:广泛用于需优化决策的领域,比方说:

    资源分配:选择计算资源、带宽或资金的最优分配方式。

    调度与规划:基于约束选择最佳任务时间槽。

    推荐系统:通过平衡预算与时间推荐最佳时段。

    游戏AI:策略类游戏中的动态决策。

    1.4.2 实际案例:Anthropic Claude

    Anthropic Claude是基于效用的智能体,旨在帮助持卡人将回报与好处最大化。

    运作方式:


    • 为不同的用户动作(消费、还款、兑换奖励)分配效用值。

    • 在场景中比较动作,基于效用权衡利弊。

    • 采用启发式方法与AI技术提升决策效率。


    通过持续选择最高预期效用的动作,Claude确保用户获得最佳财务收益。

    1.4.3 优势


    • 处理不确定性:能在动态不可预测环境中作出最优决策

    • 对比性决策:评估多选项并选择最佳动作

    • 灵活适应:根据输入与结果变化调整策略


    1.4.4 缺点


    • 需精准环境模型,否则导致决策错误

    • 计算成本高,需大量运算

    • 未考虑道德或伦理因素

    • 人类难以理解与验证


    1.5 学习型智能体

    学习型智能体是能从历史经验中学习并随时间提升性能的软件智能体。与基于规则型系统不同,此类智能体以初始知识为基础,通过机器学习技术自动适应,能持续分析反馈与交互,从而优化行为,适合动态演进的环境。

    核心组件:


    • 学习元件:从环境经验中学习改进

    • 评价器:评估智能体性能并提供改进反馈

    • 执行元件:根据学习与评价结果执行外部动作

    • 问题生成器:提出新动作以增强学习的经验价值




    (来源:Writesonic)



    1.5.1 实现方式

    自适应智能系统:学习型智能体通过经验提升性能,一般都会采用强化学习框架。

    学习机制:基于奖励更新Q表,逐步优化动作选择。
    import numpy as np


    class QLearningAgent:

    def __init__(self, states, actions, alpha=0.1, gamma=0.9):

    self.q_table = np.zeros((states, actions))

    self.alpha = alpha

    self.gamma = gamma

    def learn(self, state, action, reward, next_state):

    max_future_q = np.max(self.q_table[next_state])

    current_q = self.q_table[state, action]

    new_q = (1 - self.alpha) * current_q + self.alpha * (reward + self.gamma * max_future_q)

    self.q_table[state, action] = new_q


    # 初始化智能体(5种状态,4种动作)

    agent = QLearningAgent(5, 4)

    agent.learn(1, 2, 10, 3)
    运作流程:学习型智能体通过持续反馈循环观察、学习与适应:

    <ol>
  • 观察:通过传感器或输入源收集环境数据。

  • 学习:用算法与统计模型分析数据,识别模式并更新知识。

  • 行动:基于学习结果决策并执行动作。

  • 反馈:接收奖励、惩罚或环境信号评估表现。

  • 适应:利用反馈更新知识与决策流程,持续改进。

    </ol>
    这个循环使得智能体能逐步优化决策并适应变化。

    适用场景:学习型智能体适用于需持续改进与个性化的场景,比方说:

    电商个性化推荐:AI推荐系统分析用户行为以优化定向广告。

    1.5.2 实际案例:AutoGPT

    AutoGPT(由Significant Gravitas开发)是典型的学习型智能体。

    示例:用户要求AutoGPT调研十大智能手机,过程大致如下:


    • 分析各渠道产品特性、评论与参数。

    • 通过子智能体验证网站可信度。

    • 生成对比优缺点的综合品牌报告。

    • 通过观察、分析与优化流程,AutoGPT持续提升性能,成为学习型智能体的典范。


    1.5.3 优势


    • 能基于AI决策将想法转化为行动

    • 可响应语音指令等基础命令执行任务

    • 相对于预设动作的传统智能体,能随时间演进

    • 通过效用衡量更贴近现实需求


    1.5.4 缺点


    • 易受偏见或错误决策影响

    • 开发与维护成本高

    • 需大量计算资源

    • 依赖海量数据

    • 缺乏类似人的直觉与创造力


    1.6 分层智能体

    分层智能体是层级化的AI系统,高层智能体管理底层智能体,通过任务分解实现复杂目标。层级数取决于系统复杂度,广泛用于需协调多任务的领域(如机器人、制造、交通)。



    (来源:Writesonic)


    1.6.1 实现方式

    分层架构:高层处理战略决策,底层管理战术执行。

    任务委派逻辑:监督智能体协调子系统,展示分布式责任架构。
    class SupervisorAgent:

    def __init__(self):

    self.subagents = {

    "security": SecurityAgent(),

    "climate": ClimateAgent()

    }

    def coordinate(self, sensor_data):

    if sensor_data["intruder"]:

    self.subagents["security"].activate()

    else:

    self.subagents["climate"].adjust(sensor_data["temp"])

    class SecurityAgent:

    def activate(self):

    print("Security protocols engaged")

    class ClimateAgent:

    def adjust(self, temp):

    action = "Cool" if temp &gt; 72 else "Heat"

    print(f"Climate system: {action} activated")


    # 系统执行

    smart_home = SupervisorAgent()

    smart_home.coordinate({"intruder": True, "temp": 68})
    运作模式:类似企业组织结构,任务分层管理:

    <ol>
  • 高层智能体:定义宏观目标,规划战略并分解任务。

  • 中层智能体(可选):协调高层与底层任务委派。

  • 底层智能体:执行子任务并向上汇报进展。

    </ol>
    此结构确保复杂环境中的高效执行、资源优化与可扩展性。

    适用场景:适合需结构化任务执行的大型企业与行业,比方说:

    工业自动化:管理多阶段生产流程。

    自主机器人:协调高层导航与底层电机控制。

    交通系统:优化交通控制与物流。

    1.6.2 实际案例:Google的UniPi

    UniPi是Google开发的创新性分层智能体,利用文本与视频作为通用接口,学习跨环境的多样化任务。

    运作方式:


    • 高层策略:基于文本、视频等输入生成指令与演示。

    • 底层策略:通过模仿与强化学习执行任务。

    • 高层策略适应多样化环境,底层策略根据反馈优化执行策略。二者结合展示了分层AI高效处理多步骤复杂任务的能力。


    1.6.3 优势


    • 可扩展任务管理:支持大规模系统中的多任务协同。

    • 效率提升:分解复杂问题为可管理子任务,加速执行。

    • 适应性:动态调整任务优先级与协调。


    1.6.4 缺点


    • 复杂度高:分层结构增加问题解决难度。

    • 适应性受限:固定层级难以应对动态或不确定环境。

    • 潜在瓶颈:自上而下的控制流可能导致延迟。

    • 复用性差:需为不同领域构建新层级,耗时且依赖专家。

    • 训练困难:需标注数据与精细算法设计,标准机器学习技术难以应用。


    1.7 多智能体系统

    多智能体系统(MAS)并非独立智能体类型,而是多个智能体的协作集合,可包含简单反射型、目标型或其他类型智能体。与分层智能体不同,MAS中每个智能体拥有独立目标与能力,但通过交互实现共同目标或优化个体结果。



    (来源:Writesonic)


    1.7.1 核心特性


    • 去中心化:决策权分布于多个智能体。

    • 协作与竞争:智能体根据场景协作或竞争。

    • 可扩展性:通过分配工作负载处理大规模问题。

    • 专业化:智能体专注于系统内特定任务。


    1.7.2 实际用例

    多智能体系统复杂度高,适用于大规模场景。例如医疗保健AI系统中,多个智能体分别负责患者护理协调、医院资源优化与药品配送。各智能体独立运作,但协同管理数百至数千人规模的医院。

    1.7.3 优势


    • 可扩展性:适用于复杂大规模应用。

    • 冗余与健壮性:单一智能体故障不影响任务延续。


    1.7.4 缺点


    • 协调复杂:智能体间协作难度高。

    • 潜在冲突:智能体目标竞争可能导致矛盾。


    2. 跨行业的变革性应用




    (来源:Daffodil)


    了解各类AI智能体后,让我们看看企业如何通过整合自主智能体释放潜力。下表展示了行业级用例,体现AI智能体如何变革企业运营与客户服务。



    (来源:bacancytechnology)



    3. 结论

    AI智能体的分类展现了从反应式架构到复杂学习系统的连续体,每种类型在各行业均有独特应用。如医疗协作网络与自主制造系统所示,多智能体框架中策略性组合智能体类型可解决前所未有的复杂问题。提供的代码示例与架构模式为实际实现提供蓝图,同时强调系统设计的重要性。未来神经符号整合与量子增强优化等技术将扩展智能体能力,推动全球各领域的创新。

    延伸阅读:

    AI智能体(一):介绍

    AI智能体(二):从零开始构建智能体

    AI智能体(三):框架

    译者:boxi。

    来源:36kr
  • 举报本楼

    本帖有 2 个回帖,您需要登录后才能浏览 登录 | 注册
    您需要登录后才可以回帖 登录 | 注册 |

    版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

    GMT+8, 2025-4-13 00:03 , Processed in 0.439499 second(s), 16 queries , Gzip On.

    Copyright © 1999-2023 C114 All Rights Reserved

    Discuz Licensed

    回顶部