宣布 LlamaCloud 正式发布(以及我们的 1900 万美元 A 轮融资)!
LlamaIndex

LlamaIndex 2024-11-19

宣布 LlamaIndex 集成 Azure AI

在芝加哥的 Microsoft Ignite 大会上,LlamaIndex 宣布,经过与微软多年的富有成效的合作,现已推出端到端检索增强生成(RAG)和知识增强代理的完整堆栈,所有这些都可在 Azure 上使用。

核心组件

该堆栈从任何生成式 AI 应用的基础 — 大型语言模型(LLM)开始,借助 Azure OpenAI 服务。通过使用存储在可扩展、高性能的 Azure AI Search 向量存储中的 Azure AI 嵌入,可以使用您的私有数据增强可用的强大模型。结合这些核心组件和 LlamaIndex,您可以轻松构建世界一流的 RAG 应用。

了解更多关于 LlamaIndex 中的 RAG.

存储和内存

LlamaIndex 与 Azure AI 的集成还为 RAG 堆栈提供了进一步的优化,结合 Azure Doc StoreAzure KV Store 可以将新数据增量加载到 RAG 应用中,而 Azure Chat Store 为聊天机器人应用提供了快速、持久的先前交互记忆。

使用工具增强代理

2024 年,LlamaIndex 已从 RAG 基础领域进一步发展,通过我们强大、灵活的 Workflows 抽象支持完整的代理,并在社区中看到了热烈的采用。Azure 的服务也在此发挥作用,提供了一系列代理工具,包括提供快速、安全的代码执行的 Azure 代码解释器,以及用于 文本转语音生成计算机视觉语言翻译 的代理工具。

快速投入生产

最近,LlamaIndex 和 Azure AI 之间持续的合作已在 AI App Template Gallery 中提供了 LlamaIndex 模板,这为使用 LlamaIndex 快速启动基于 Azure 的代理 AI 应用提供了一条便捷途径。

展望未来

“我们很高兴与微软的合作已经带来了如此多满意的客户,我们迫不及待地想看看未来几年我们还能共同创造出什么,”首席执行官兼联合创始人 Jerry Liu 说,“微软的 AI 生态系统对于 LlamaCloud 和 LlamaParse 的用户来说是无价的,让他们有信心部署安全可靠的尖端 AI 解决方案。”