
LlamaIndex • 2024-11-19
宣布 LlamaIndex 集成 Azure AI
在芝加哥的 Microsoft Ignite 大会上,LlamaIndex 宣布,经过与微软多年的富有成效的合作,现已推出端到端检索增强生成(RAG)和知识增强代理的完整堆栈,所有这些都可在 Azure 上使用。
核心组件
该堆栈从任何生成式 AI 应用的基础 — 大型语言模型(LLM)开始,借助 Azure OpenAI 服务。通过使用存储在可扩展、高性能的 Azure AI Search 向量存储中的 Azure AI 嵌入,可以使用您的私有数据增强可用的强大模型。结合这些核心组件和 LlamaIndex,您可以轻松构建世界一流的 RAG 应用。
存储和内存
LlamaIndex 与 Azure AI 的集成还为 RAG 堆栈提供了进一步的优化,结合 Azure Doc Store 和 Azure KV Store 可以将新数据增量加载到 RAG 应用中,而 Azure Chat Store 为聊天机器人应用提供了快速、持久的先前交互记忆。
使用工具增强代理
2024 年,LlamaIndex 已从 RAG 基础领域进一步发展,通过我们强大、灵活的 Workflows 抽象支持完整的代理,并在社区中看到了热烈的采用。Azure 的服务也在此发挥作用,提供了一系列代理工具,包括提供快速、安全的代码执行的 Azure 代码解释器,以及用于 文本转语音生成、计算机视觉和 语言翻译 的代理工具。
快速投入生产
最近,LlamaIndex 和 Azure AI 之间持续的合作已在 AI App Template Gallery 中提供了 LlamaIndex 模板,这为使用 LlamaIndex 快速启动基于 Azure 的代理 AI 应用提供了一条便捷途径。
展望未来
“我们很高兴与微软的合作已经带来了如此多满意的客户,我们迫不及待地想看看未来几年我们还能共同创造出什么,”首席执行官兼联合创始人 Jerry Liu 说,“微软的 AI 生态系统对于 LlamaCloud 和 LlamaParse 的用户来说是无价的,让他们有信心部署安全可靠的尖端 AI 解决方案。”