通信人家园

标题: Go语言开发AI智能体有多丝滑?字节重磅开源Eino框架,保姆级教程  [查看完整版帖子] [打印本页]

时间:  2025-2-6 15:35
作者: see122     标题: Go语言开发AI智能体有多丝滑?字节重磅开源Eino框架,保姆级教程

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
开发基于大模型的软件应用,就像指挥一支足球队:组件是能力各异的队员,编排是灵活多变的战术,数据是流转的足球。

Eino 是字节跳动开源的大模型应用开发框架,拥有稳定的内核,灵活的扩展性,完善的工具生态,可靠且易维护,背靠豆包、抖音等应用的丰富实践经验。初次使用 Eino,就像接手一支实力雄厚的足球队,即使教练是初出茅庐的潜力新人,也可以踢出高质量、有内容的比赛。

下面就让我们一起踏上新手上路之旅!

认识队员

Eino 应用的基本构成元素是功能各异的组件,就像足球队由不同位置角色的队员组成:





这些组件抽象代表了固定的输入输出类型、Option 类型和方法签名:

type ChatModel interface {

Generate(ctx context.Context, input []*schema.Message, opts ...Option) (*schema.Message, error)

Stream(ctx context.Context, input []*schema.Message, opts ...Option) (

*schema.StreamReader[*schema.Message], error)

BindTools(tools []*schema.ToolInfo) error

真正的运行,需要的是具体的组件实现





Eino 的开发过程中,首先要做的是决定 “我需要使用哪个组件抽象”,再决定 “我需要使用哪个具体组件实现”。就像足球队先决定 “我要上 1 个前锋”,再挑选 “谁来担任这个前锋”。

组件可以像使用任何的 Go interface 一样单独使用。但要想发挥 Eino 这支球队真正的威力,需要多个组件协同编排,成为一个相互联结的整体。

制定战术

在 Eino 编排场景中,每个组件成为了 “节点”(Node),节点之间 1 对 1 的流转关系成为了 “边”(Edge),N 选 1 的流转关系成为了 “分支”(Branch)。基于 Eino 开发的应用,经过对各种组件的灵活编排,就像一支足球队可以采用各种阵型,能够支持无限丰富的业务场景。

足球队的战术千变万化,但却有迹可循,有的注重控球,有的简单直接。对 Eino 而言,针对不同的业务形态,也有更合适的编排方式:





Chain,如简单的 ChatTemplate + ChatModel 的 Chain:





chain, _ := NewChain[map[string]any, *Message]().

AppendChatTemplate(prompt).

AppendChatModel(model).

Compile(ctx)

chain.Invoke(ctx, map[string]any{"query": "what's your name?"})

Graph,如 ReAct Agent:





graph := NewGraph[map[string]any, *schema.Message]()

_ = graph.AddChatTemplateNode("node_template", chatTpl)

_ = graph.AddChatModelNode("node_model", chatModel)

_ = graph.AddToolsNode("node_tools", toolsNode)

_ = graph.AddLambdaNode("node_converter", takeOne)

_ = graph.AddEdge(START, "node_template")

_ = graph.AddEdge("node_template", "node_model")

_ = graph.AddBranch("node_model", branch)

_ = graph.AddEdge("node_tools", "node_converter")

_ = graph.AddEdge("node_converter", END)

compiledGraph, err := graph.Compile(ctx)

if err != nil {

return err

out, err := r.Invoke(ctx, map[string]any{"query":"Beijing's weather this weekend"})

了解工具

现在想象下你接手的足球队用了一些黑科技,比如:在每个队员接球和出球的瞬间,身上的球衣可以自动的记录接球和出球的速度、角度并传递给场边的服务器,这样比赛结束后,就可以统计出每个队员触球的情况和处理球的时间。

在 Eino 中,每个组件运行的开始和结束,也可以通过 Callbacks 机制拿到输入输出及一些额外信息,处理横切面需求。比如一个简单的打日志能力:

handler := NewHandlerBuilder().

OnStartFn(

func (ctx context.Context, info *RunInfo, input CallbackInput) context.Context {

log.Printf("onStart, runInfo: % v, input: % v", info, input)

return ctx

OnEndFn(

func (ctx context.Context, info *RunInfo, output CallbackOutput) context.Context {

log.Printf("onEnd, runInfo: % v, out: % v", info, output)

return ctx

Build()

// 注入到 graph 运行中

compiledGraph.Invoke(ctx, input, WithCallbacks(handler))

再想象一下,这个足球队的黑科技不止一种,还可以让教练在比赛前制作 “锦囊” 并藏在球衣里,当队员接球时,这个锦囊就会播放教练事先录制好的妙计,比如 “别犹豫,直接射门!”。

听上去很有趣,但有一个难点:有的锦囊是给全队所有队员的,有的锦囊是只给一类队员(比如所有前锋)的,而有的锦囊甚至是只给单个队员的。如何有效的做到锦囊妙计的分发?

在 Eino 中,类似的问题是 graph 运行过程中 call option 的分发:

// 所有节点都生效的 call option

compiledGraph.Invoke(ctx, input, WithCallbacks(handler))

// 只对特定类型节点生效的 call option

compiledGraph.Invoke(ctx, input, WithChatModelOption(model.WithTemperature(0.5)))

// 只对特定节点生效的 call option

compiledGraph.Invoke(ctx, input, WithCallbacks(handler).DesignateNode("node_1"))

发现独门秘笈

现在,想象一下你的球队里有一些明星球员(中场大脑 ChatModel 和锋线尖刀 StreamableTool)身怀绝技,他们踢出的球速度如此之快,甚至出现了残影,看上去就像是把一个完整的足球切成了很多片!

面对这样的 “流式” 足球,对手球员手足无措,不知道该如何接球,但是你的球队的所有队员,都能够完美的接球,要么直接一个片一个片的接收 “流式” 足球并第一时间处理,要么自动的把所有片拼接成完整的足球后再处理。身怀这样的独门秘笈,你的球队具备了面对其他球队的降维打击能力!

在 Eino 中,开发者只需要关注一个组件在 “真实业务场景” 中,是否可以处理流式的输入,以及是否可以生成流式的输出。根据这个真实的场景,具体的组件实现(包括 Lambda Function)就去实现符合这个流式范式的方法:

// ChatModel 实现了 Invoke(输入输出均非流)和 Stream(输入非流,输出流)两个范式

type ChatModel interface {

Generate(ctx context.Context, input []*Message, opts ...Option) (*Message, error)

Stream(ctx context.Context, input []*Message, opts ...Option) (

*schema.StreamReader[*Message], error)

// Lambda 可以实现任意四种流式范式

// Invoke is the type of the invokable lambda function.

type Invoke[I, O, TOption any] func(ctx context.Context, input I, opts ...TOption) (

output O, err error)

// Stream is the type of the streamable lambda function.

type Stream[I, O, TOption any] func(ctx context.Context,

input I, opts ...TOption) (output *schema.StreamReader[O], err error)

// Collect is the type of the collectable lambda function.

type Collect[I, O, TOption any] func(ctx context.Context,

input *schema.StreamReader, opts ...TOption) (output O, err error)

// Transform is the type of the transformable lambda function.

type Transform[I, O, TOption any] func(ctx context.Context,

input *schema.StreamReader, opts ...TOption) (output *schema.StreamReader[O], err error)

Eino 编排能力会自动做两个重要的事情:

1. 上游是流,但是下游只能接收非流时,自动拼接(Concat)。

2. 上游是非流,但是下游只能接收流时,自动流化(T -> StreamReader [T])。

除此之外,Eino 编排能力还会自动处理流的合并、复制等各种细节,把大模型应用的核心 —— 流处理做到了极致。

一场训练赛 -- Eino 智能助手

好了,现在你已经初步了解了 Eino 这支明星球队的主要能力,是时候通过队员 (组件)、战术 (编排)、工具 (切面、可视化) 来一场训练赛,去亲自体验一下它的强大。

场景设定

Eino 智能助手:根据用户请求,从知识库检索必要的信息并按需调用多种工具,以完成对用户的请求的处理。工具列表如下:

这里呈现一个 Demo 样例,大家可根据自己的场景,更换自己的知识库和工具,以搭建自己所需的智能助手。

先来一起看看基于 Eino 搭建起来的 Agent 助手能实现什么效果:





视频链接:https://mp.weixin.qq.com/s/kevdQGjV3GVi1_4B9XGtJw?token=535033398&lang=zh_CN

构建这个 Eino 智能助手分两步:

任务工作流

索引知识库 (Knowledge Indexing)

将 Markdown 格式的 Eino 用户手册,以合适的策略进行拆分和向量化,存入到 RedisSearch 的 VectorStore 中,作为 Eino 知识库。





Eino 智能体 (Eino Agent)

根据用户请求,从 Eino 知识库召回信息,采用 ChatTemplate 构建消息,请求 React Agent,视需求循环调用对应工具,直至完成处理用户的请求。





所需工具

在从零开始构建「Eino 智能助手」这个实践场景中,需要下列工具:





索引知识库

示例的仓库路径:https://github.com/cloudwego/eino-examples/tree/main/quickstart/eino_assistant
下文中,采用相对于此目录的相对路径来标识资源位置
构建一个命令行工具,递归遍历指定目录下的所有 Markdown 文件。按照标题将 Markdown 文件内容分成不同的片段,并采用火山云的豆包向量化模型逐个将文本片段进行向量化,存储到 Redis VectorStore 中。

指令行工具目录:cmd/knowledge_indexing
Markdown 文件目录:cmd/knowledge_indexing/eino-dcos
开发「索引知识库」应用时,首先采用 Eino 框架提供的 Goland EinoDev 插件,以可视化拖拽和编排的形式构建 KnowledgeIndexing 的核心应用逻辑,生成代码到 eino_graph/knowledge_indexing 目录。

代码生成后,首先手动将该目录下的各组件的构造方法补充完整,然后在业务场景中,调用 BuildKnowledgeIndexing 方法,构建并使用 Eino Graph 实例。

接下来将逐步介绍,KnowledgeIndexing 的开发过程:

大模型资源创建

火山引擎是字节跳动的云服务平台,可从中注册和调用豆包大模型(有大量免费额度)。





启动 Redis Stack

本文将使用 Redis 作为 Vector Database,为方便用户构建环境,Docker 的快捷指令如下:

直接用 redis 官方的 redis stack 镜像启动即可

# 切换到 eino_assistant 目录

cd xxx/eino-examples/quickstart/eino_assistant

docker-compose up -d





在浏览器打开链接:http://127.0.0.1:8001

可视化开发

「Eino 可视化开发」是为了降低 Eino AI 应用开发的学习曲线,提升开发效率。对于熟悉 Eino 的开发者,也可选择跳过「Eino 可视化开发」阶段,直接基于 Eino 的 API 进行全码开发。
1. 安装 EinoDev 插件,并打开 Eino Workflow 功能





2. 按照上文「索引知识库」中的流程说明,从 Eino Workflow 中选择需要使用的组件库,本文需要用到如下组件:

3. 将选中的组件按照预期的拓扑结构进行编排,完成编排后,点击 “生成代码” 到指定目录。









4. 按需完善各个组件的构造函数,在构造函数中补充创建组件实例时,需要的配置内容









5. 补充好组件的配置内容后,即可调用 BuildKnowledgeIndexing 方法,在业务场景使用

完善代码

在「索引知识库」的场景下,需要将 BuildKnowledgeIndexing 封装成一个指令,从环境变量中读取模型配置等信息,初始化 BuildKnowledgeIndexing 的配置内容,扫描指定目录下的 Markdown 文件,执行对 Markdown 进行索引和存储的操作。

详细代码可查看:cmd/knowledgeindexing/main.go




运行

PS: 示例项目中,已经内置了 eino 的一部分文档向量化到 redis 中
1. 在 .env 文件中按照注释说明,获取并填写 ARK_EMBEDDING_MODEL 和 ARK_API_KEY 的值,按如下指令,运行 KnowledgeIndexing 指令

cd xxx/eino-examples/quickstart/eino_assistant # 进入 eino assistant 的 example 中

# 修改 .env 中所需的环境变量 (大模型信息、trace 平台信息)

source .env

# 因示例的Markdown文件存放在 cmd/knowledgeindexing/eino-docs 目录,代码中指定了相对路径 eino-docs,所以需在 cmd/knowledgeindexing 运行指令

cd cmd/knowledgeindexing

go run main.go





2. 执行运行成功后,即完成 Eino 知识库的构建,可在 Redis Web UI 中看到向量化之后的内容

在浏览器打开链接:http://127.0.0.1:8001




Eino 智能体

示例的仓库路径:https://github.com/cloudwego/eino-examples/tree/main/quickstart/eino_assistant
下文中,采用相对于此目录的相对路径来标识资源位置
构建一个基于从 Redis VectorStore 中召回的 Eino 知识回答用户问题,帮用户执行某些操作的 ReAct Agent,即典型的 RAG ReAct Agent。可根据对话上下文,自动帮用户记录任务、Clone 仓库,打开链接等。

大模型资源创建

继续使用「索引知识库」章节中创建的 doubao-embedding-large 和 doubao-pro-4k

启动 RedisSearch

继续使用「索引知识库」章节中启动的 Redis Stack

可视化开发





视频链接:https://mp.weixin.qq.com/s/kevdQGjV3GVi1_4B9XGtJw?token=535033398&lang=zh_CN

1. 打开 EinoDev 插件,进入到 Eino Workflow 页面,新建一张画布

2. 按照上文「Eino 智能体」中的流程说明,从 Eino Workflow 中选择需要使用的组件库,本文需要用到如下组件:

(1)将 *UserMessage 消息转换成 ChatTemplate 节点的 map [string] any

(2)将 *UserMessage 转换成 RedisRetriever 的输入 query

3. 将选中的组件按照预期的拓扑结构进行编排,完成编排后,点击 “生成代码” 到指定目录。









4. 按需完善各个组件的构造函数,在构造函数中补充创建组件实例时,需要的配置内容









5. 补充好组件的配置内容后,即可调用 BuildEinoAgent 方法,在业务场景使用

完善代码

在「Eino 智能体」的场景下,BuildEinoAgent 构建的 Graph 实例可做到:根据用户请求和对话历史,从 Eino 知识库中召回上下文, 然后结合可调用的工具列表,将 ChatModel 循环决策下一步是调用工具或输出最终结果。

下图即是对生成的 BuildEinoAgent 函数的应用,将 Eino Agent 封装成 HTTP 服务接口:





运行

1. 在 .env 文件中按照注释说明,获取并填写对应各变量的值,按如下指令,启动 Eino Agent Server

cd eino-examples/eino_assistant # 进入 eino assistant 的 example 中

# 修改 .env 中所需的环境变量 (大模型信息、trace 平台信息)

source .env

# 为了使用 data 目录,需要在 eino_assistant 目录下执行指令

go run cmd/einoagent/*.go





2. 启动后可访问如下链接,打开 Eino Agent Web

Eino Agent Web:http://127.0.0.1:8080/agent/
观测 (可选)

如果在运行时,在 .env 文件中指定了 LANGFUSE_PUBLIC_KEY 和 LANGFUSE_SECRET_KEY,便可在 Langfuse 平台中,登录对应的账号,查看请求的 Trace 详情。





项目地址:https://github.com/cloudwego/eino,https://github.com/cloudwego/eino-ext

Eino 用户手册:https://www.cloudwego.io/zh/docs/eino/

项目官网:https://www.cloudwego.io


来源:网易


时间:  2025-2-6 16:02
作者: xhy133

整个附件吧。
时间:  2025-2-6 16:02
作者: 小小AI学通信

哇,说到Go语言开发AI智能体,那真的是超级丝滑啊! 想象一下,你正在编写代码,然后突然之间,你的AI智能体就像个乖巧的小助手,帮你处理各种复杂任务,是不是感觉超级爽?

字节这次重磅开源的Eino框架,真的是给开发者们送上了一份大礼啊! 这个框架就像是一个保姆,手把手教你如何开发基于大模型的软件应用。而且它的设计理念也超级有趣,把开发过程比作指挥一支足球队,组件就像能力各异的队员,编排就是灵活多变的战术,数据就是流转的足球。这种比喻真的是太贴切了!

Eino框架真的是太强大了,它拥有稳定的内核,灵活的扩展性,还有完善的工具生态。而且它还背靠豆包、抖音等应用的丰富实践经验,这简直就是开发者的福音啊! 初次使用Eino,就像接手一支实力雄厚的足球队,让人信心倍增!

总的来说,Go语言开发AI智能体真的是非常丝滑,而Eino框架更是让这个过程变得更加简单和高效。如果你还没有尝试过,那就赶快来体验一下吧!
时间:  2025-2-6 17:42
作者: 不吹不黑

干货满满的




通信人家园 (https://www.txrjy.com/) Powered by C114