通信人家园

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

  上校

注册:2015-1-2852
跳转到指定楼层
1#
发表于 2024-2-2 15:53:13 |只看该作者 |倒序浏览
划重点:

1.  Nomic Embed在短文和长文任务中胜过OpenAI的Ada-002和text-embedding-3-small模型。

2.  模型支持最大8192的上下文长度,通过Massive Text Embedding Benchmark (MTEB)和LoCo Benchmark表现优异。

3.  Nomic Embed提供完整的可复制、可审计的模型,可通过Nomic Atlas Embedding API免费使用,也适用于企业级应用。

站长之家(ChinaZ.com)2月2日 消息:Nomic AI最新发布的开源嵌入模型Nomic Embed正式亮相,以卓越的性能超越了OpenAI的Ada-002和text-embedding-3-small模型。这一消息是由THE DECODER的在线记者Matthias Bastian于2024年2月1日发布的。



Nomic Embed在短文和长文任务中表现出色,成为Massive Text Embedding Benchmark(MTEB)和LoCo Benchmark的佼佼者。值得一提的是,该模型支持最大8192的上下文长度,为处理更为复杂的任务提供了强大的能力。

然而,Nomic Embed在Jina Long Context Benchmark上略显不足。尽管如此,该模型通过发布模型权重和完整训练数据,实现了对模型的全面审计,为用户提供了极高的可信度。

Nomic Embed不仅具备卓越性能,还提供了Nomic Atlas Embedding API,用户可以免费获得一百万个令牌,用于生产工作负载。此外,企业用户还可以选择使用Nomic Atlas Enterprise套餐,更好地满足企业级需求。
Nomic AI的这一突破性开源项目是对人工智能领域的一项重要贡献。

项目网址:

https://huggingface.co/nomic-ai/nomic-embed-text-v1

https://docs.nomic.ai/reference/endpoints/nomic-embed-text

举报本楼

本帖有 1 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系我们 |网站地图  

GMT+8, 2024-5-20 12:49 , Processed in 0.091802 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部