宣布 LlamaCloud 全面上线 (以及我们获得 1900 万美元 A 轮融资)!
LlamaIndex

LlamaIndex 2024-08-27

LlamaIndex 时事通讯 2024-08-27

Llama 爱好者们,你们好!🦙

欢迎阅读本周的 LlamaIndex 时事通讯!我们很高兴为您带来一系列更新,包括 LlamaCloud 中简化的 RAG 流水线优化、具有高级工作流能力的新版 LlamaIndex 0.11、用于结构化数据提取的最新版 create-Llama、我们在 O'Reilly Media 上的新 RAG 课程以及自动时事通讯生成工具。

如果您还没有探索过 LlamaCloud,请务必注册与我们联系,讨论您的特定企业用例。

温馨提示:请在六周后加入我们与 Pinecone 合作举办的第二届 RAG-a-thon!我们提供超过 7000 美元的现金奖品。我们期待看到您的作品!在此处查看更多详情:这里

🤩 重点内容:

  • LlamaCloud 更新:通过轻松克隆索引、可视化文档分块以及减少 LlamaCloud 中的重新索引和存储效率低下问题,简化 RAG 流水线优化。博客文章推文
  • LlamaIndex 0.11 发布:引入 Workflows 增强功能性,核心软件包大小减少 42%,并全面支持 Pydantic V2,提升生产就绪性。推文
  • Create-Llama 更新:发布 create-Llama v0.1.40,包含 'Structured Extractor'(结构化提取器)模板,可在 RAG 流水线中轻松生成结构化响应。博客文章推文
  • O'Reilly Media 上的 LlamaIndex RAG 课程:一个包含 8 个模块的 RAG 课程,涵盖 LlamaIndex 组件、RAG 系统评估、摄取流水线、可观测性、代理、多模态以及使用 LlamaParse 的高级 RAG。课程推文
  • 自动时事通讯生成工具:使用 LLMs 和 LlamaIndex.TS 的自动时事通讯生成工具,将时事通讯创建时间从数小时缩短至数分钟,该工具在一个部署在 Vercel 上的开源应用中展示。代码推文

🗺️ LlamaCloud 与 LlamaParse

  • LlamaCloud 通过轻松克隆索引、可视化文档分块效果以及减少重新索引开销和存储效率低下问题,简化 RAG 流水线优化。博客文章推文

✨ 框架

  1. 我们发布了 LlamaIndex 0.11,引入 Workflows 替代 Query Pipelines,将 llama-index-core 软件包大小减少 42%,并全面支持 Pydantic V2,提升其生产就绪性。博客文章推文
  2. 我们发布了 create-Llama v0.1.40,通过 'Structured Extractor'(结构化提取器)模板,让您在 RAG 流水线中轻松生成结构化响应,提供用户友好的体验。推文
  3. Box 已与 LlamaIndex 集成,以改进企业数据提取,提供直接文本检索、AI 驱动的自定义提取和结构化数据处理工具。博客文章推文
  4. 我们发布了一个包含 8 个模块的 O'Reilly Media 课程,主题为检索增强生成 (Retrieval-Augmented Generation),提供 2 小时的视频内容,探讨 LlamaIndex 组件、RAG 系统评估、摄取流水线、可观测性、代理、多模态以及 LlamaParse 的使用。课程推文

💻 用例

  • 自动时事通讯生成:Laurie 使用 LLMs 和 LlamaIndex.TS 创建了一个系统,将时事通讯撰写时间从数小时大幅缩短至数分钟,并在一个托管于 Vercel 的开源 Next.js 应用中进行了演示。代码推文

✍️ 社区

  • Lisa N. Cao 关于使用 LlamaIndex 和 Apache Gravitino 构建通用数据代理的教程
  • Ravi Theja 关于使用内存和 Neo4j 图数据库实现 GraphRAG 的教程手册。手册 1手册 2
  • Pavan Nagula 关于使用 LlamaIndex 多代理系统和 Qdrant 改进 RAG 的教程
  • Laurie 关于使用 LlamaIndex workflows 构建多策略 RAG 流水线的视频教程,内容包括结合各种 RAG 方法、实现查询改进和同步流程,并提供可视化技巧和策略见解。
  • David Bechberger 关于使用 LlamaIndex 和 Amazon Neptune 构建图数据库自然语言查询系统的教程,用于将问题转换为 openCypher 查询,执行查询,并使用 Amazon Bedrock 的 LLMs 优化查询性能。

🎤 活动

  • 加入我们参加 'LLMs in Production'(生产环境中的 LLMs)活动,这是由 Vessl AI 和 Pinecone 在旧金山举办的 AI 产品交流会,邀请了来自 Pinecone、Vessl AI、Gokoyeb、SnowflakeDB 和 LlamaIndex 的演讲者,共同讨论如何构建和部署高性能 LLMs 以及在生产环境中评估它们。