
LlamaIndex • 2024-08-27
LlamaIndex 时事通讯 2024-08-27
Llama 爱好者们,你们好!🦙
欢迎阅读本周的 LlamaIndex 时事通讯!我们很高兴为您带来一系列更新,包括 LlamaCloud 中简化的 RAG 流水线优化、具有高级工作流能力的新版 LlamaIndex 0.11、用于结构化数据提取的最新版 create-Llama、我们在 O'Reilly Media 上的新 RAG 课程以及自动时事通讯生成工具。
如果您还没有探索过 LlamaCloud,请务必注册并与我们联系,讨论您的特定企业用例。
温馨提示:请在六周后加入我们与 Pinecone 合作举办的第二届 RAG-a-thon!我们提供超过 7000 美元的现金奖品。我们期待看到您的作品!在此处查看更多详情:这里。
🤩 重点内容:
- LlamaCloud 更新:通过轻松克隆索引、可视化文档分块以及减少 LlamaCloud 中的重新索引和存储效率低下问题,简化 RAG 流水线优化。博客文章,推文。
- LlamaIndex 0.11 发布:引入 Workflows 增强功能性,核心软件包大小减少 42%,并全面支持 Pydantic V2,提升生产就绪性。推文。
- Create-Llama 更新:发布 create-Llama v0.1.40,包含 'Structured Extractor'(结构化提取器)模板,可在 RAG 流水线中轻松生成结构化响应。博客文章,推文。
- O'Reilly Media 上的 LlamaIndex RAG 课程:一个包含 8 个模块的 RAG 课程,涵盖 LlamaIndex 组件、RAG 系统评估、摄取流水线、可观测性、代理、多模态以及使用 LlamaParse 的高级 RAG。课程,推文。
- 自动时事通讯生成工具:使用 LLMs 和 LlamaIndex.TS 的自动时事通讯生成工具,将时事通讯创建时间从数小时缩短至数分钟,该工具在一个部署在 Vercel 上的开源应用中展示。代码,推文。
🗺️ LlamaCloud 与 LlamaParse
✨ 框架
- 我们发布了 LlamaIndex 0.11,引入 Workflows 替代 Query Pipelines,将 llama-index-core 软件包大小减少 42%,并全面支持 Pydantic V2,提升其生产就绪性。博客文章,推文。
- 我们发布了 create-Llama v0.1.40,通过 'Structured Extractor'(结构化提取器)模板,让您在 RAG 流水线中轻松生成结构化响应,提供用户友好的体验。推文。
- Box 已与 LlamaIndex 集成,以改进企业数据提取,提供直接文本检索、AI 驱动的自定义提取和结构化数据处理工具。博客文章,推文。
- 我们发布了一个包含 8 个模块的 O'Reilly Media 课程,主题为检索增强生成 (Retrieval-Augmented Generation),提供 2 小时的视频内容,探讨 LlamaIndex 组件、RAG 系统评估、摄取流水线、可观测性、代理、多模态以及 LlamaParse 的使用。课程,推文。
💻 用例
- 自动时事通讯生成:Laurie 使用 LLMs 和 LlamaIndex.TS 创建了一个系统,将时事通讯撰写时间从数小时大幅缩短至数分钟,并在一个托管于 Vercel 的开源 Next.js 应用中进行了演示。代码,推文。
✍️ 社区
- Lisa N. Cao 关于使用 LlamaIndex 和 Apache Gravitino 构建通用数据代理的教程。
- Ravi Theja 关于使用内存和 Neo4j 图数据库实现 GraphRAG 的教程手册。手册 1,手册 2。
- Pavan Nagula 关于使用 LlamaIndex 多代理系统和 Qdrant 改进 RAG 的教程。
- Laurie 关于使用 LlamaIndex workflows 构建多策略 RAG 流水线的视频教程,内容包括结合各种 RAG 方法、实现查询改进和同步流程,并提供可视化技巧和策略见解。
- David Bechberger 关于使用 LlamaIndex 和 Amazon Neptune 构建图数据库自然语言查询系统的教程,用于将问题转换为 openCypher 查询,执行查询,并使用 Amazon Bedrock 的 LLMs 优化查询性能。
🎤 活动
- 加入我们参加 'LLMs in Production'(生产环境中的 LLMs)活动,这是由 Vessl AI 和 Pinecone 在旧金山举办的 AI 产品交流会,邀请了来自 Pinecone、Vessl AI、Gokoyeb、SnowflakeDB 和 LlamaIndex 的演讲者,共同讨论如何构建和部署高性能 LLMs 以及在生产环境中评估它们。