宣布我们的 LlamaCloud 全面上市(以及我们的 1900 万美元 A 轮融资!)
LlamaIndex

Ravi Theja 2023-09-21

LlamaIndex 更新 — 2023年9月20日

各位 LlamaIndex 爱好者们,大家好!

欢迎阅读 LlamaIndex 更新系列的第五期。

主要重点

  1. 我们已开源 SECInsights.ai — 通往生产级 RAG 框架的门户。
  2. Replit 模板 — 快速启动您的项目,无需任何环境设置麻烦。
  3. 从零开始构建 RAG,并亲自动手实践我们的流程。

但等等,还有更多内容!

  • 功能发布和增强
  • 微调指南
  • RAG 检索技巧
  • 从零开始构建 RAG 指南
  • 教程
  • 与外部平台的集成
  • 活动
  • 网络研讨会

那么,让我们一起踏上这段旅程。深入探索 LlamaIndex 更新系列第五期的内容吧!

功能发布和增强

  1. 开源 RAG 平台:LlamaIndex 已开源 http://secinsights.ai,通过基于聊天的问答功能加速 RAG 应用开发。Tweet
  2. 线性适配器微调:LlamaIndex 支持对任何嵌入模型进行高效的线性适配器微调,无需重新嵌入,增强了各种模型上的检索/RAG 能力。Tweet, Docs, BlogPost
  3. 分层代理:通过将 LLM 代理构建成分层结构(父子层级),我们增强了跨多样化数据的复杂搜索和检索任务能力,比独立代理更可靠。Tweet
  4. SummaryIndex:我们已将 ListIndex 重命名为 SummaryIndex,以使其主要功能更清晰。使用 ListIndex 的现有代码保持向后兼容。Tweet
  5. 评估:LlamaIndex 的新 RAG 评估工具包提供异步能力、多样化评估标准以及一个集中式的 BaseEvaluator,方便开发者集成。Tweet, Docs.
  6. Postgres/pgvector 的混合搜索:LlamaIndex 推出了针对 Postgres/pgvector 的混合搜索功能。Tweet, Docs.
  7. Replit 模板:LlamaIndex 与 Replit 合作提供易于使用的 LLM 应用模板,包括开箱即用的 Streamlit 应用和完整的 Typescript 模板。Tweet, Replit Templates.

LlamaIndex.TS

  1. 发布了 MongoDBReader 和类型安全的元数据。Tweet.
  2. 发布了聊天历史、增强的关键词索引以及 Notion DB 支持。Tweet.

微调指南

  1. OpenAI 微调:LlamaIndex 发布了关于如何利用 OpenAI 微调从任何文本语料库嵌入知识的全新指南。简而言之:使用 GPT-4 生成问答对,将其格式化为训练数据集,然后进行微调。Tweet, Docs.
  2. 嵌入模型微调:LlamaIndex 提供了更高级的嵌入模型微调功能,支持对包括自定义嵌入在内的任何嵌入模型进行复杂的神经网络查询转换,并提供保存中间检查点的能力,以增强模型控制。Tweet, Docs.

RAG 检索技巧

  • 使用引用(较小的块或摘要)而不是嵌入全文。
  • 带来 10–20% 的改进。
  • 嵌入与主要文本块解耦。
  • 较小的引用允许 LLM 进行高效合成。
  • 对重复引用应用去重。
  • 使用合成数据集评估;MRR 提升 20–25%。

Tweet

从零开始构建 RAG 指南

  1. 从零开始构建数据摄取。Docs.
  2. 从零开始构建检索。Docs.
  3. 从零开始构建向量存储。Docs.
  4. 从零开始构建响应合成。Docs.
  5. 从零开始构建路由器。Docs.
  6. 从零开始构建评估。Docs.

教程

  1. Wenqi Glantztutorial,关于使用 LlamaIndex 微调抽象,使用 GPT-4 训练数据微调 GPT-3.5 RAG Pipeline。
  2. Wenqi Glantztutorial,关于使用 LlamaIndex 微调您的嵌入模型以最大化 RAG Pipeline 中的相关性检索。

LlamaIndex 团队的教程。

  • Sourabhtutorial,关于 SEC Insights 的端到端指南,secinsights.ai
  • Adamtutorial,关于数据代理的自定义工具。
  • Logantutorial,关于检索/重排,涵盖节点解析、AutoMergingRetriever、分层节点解析器、节点后处理器以及 RouterQueryEngine 的设置。

与外部平台的集成

  1. 与 PortkeyAI 集成:LlamaIndex 与 PortkeyAI 集成,增强了像 OpenAI 这样的 LLM 提供商的能力,具有自动回退和负载均衡等功能。Tweet, Documentation
  2. 与 Anyscale 协作:LlamaIndex 与 anyscalecompute 协作,支持使用 Ray Serve/Train 轻松微调开源 LLM。Tweet, Documentation
  3. 与 Elastic 集成:LlamaIndex 与 Elastic 集成,增强了向量搜索、文本搜索、混合搜索模型、增强的元数据处理和 es_filters 等功能。Tweet, Documentation
  4. 与 MultiOn 集成:LlamaIndex 与 MultiOn 集成,使数据代理能够通过 LLM 设计的浏览器浏览网页并处理任务。Tweet, Documentation
  5. 与 Vectara 集成:LlamaIndex 与 Vectara 协作,以简化从加载器到数据库的 RAG 流程。Tweet, Blog Post
  6. 与 LiteLLM 集成:LlamaIndex 与 LiteLLM 集成,提供对 100 多个 LLM API 的访问,以及聊天、流式传输和异步操作等功能。Tweet, Documentation
  7. 与 MonsterAPI 集成:LlamaIndex 与 MonsterAPI 集成,允许用户使用像 Llama 2 和 Falcon 这样的 LLM 查询数据。Tweet, Blog Post

活动

  1. Jerry Liu 在 Arize AI 活动上就 Production Ready LLM Applications 发表演讲。
  2. Ravi Theja 在 LlamaIndex + Replit 普纳生成式 AI 见面会上主持了一场 workshop
  3. Jerry Liu 与来自 MQube 的 Stelios 进行了一场 session,关于如何在生产环境中构建贷款审批标准聊天机器人。

网络研讨会:

  1. Webinar,由 Alex Reibman, Rahul Parundekar, Caroline Frasca 和 Yi Ding 主讲,关于如何赢得 LLM 黑客马拉松。
  2. Webinar,与 Mayo Oshin, AI Jason 和 Dylan 一起讨论生产环境中的 LLM 挑战。