
LlamaIndex • 2023-11-14
create-llama,一个用于生成 LlamaIndex 应用的命令行工具
介绍 create-llama
,开始使用 LlamaIndex 的最简单方法!
更新于 2023–11–20:我们现在提供了关于部署您的 create-llama 应用的指南!
想利用 LlamaIndex 的强大功能,使用 GPT-4 等 LLM 加载、索引和与您的数据聊天吗?现在变得容易多了!我们创建了一个简单易用的命令行工具,可以为您生成一个完整的全栈应用——只需带上您自己的数据即可!要开始,请运行
npx create-llama
然后,应用会询问您一系列关于您想要的应用类型的问题。您需要提供您自己的 OpenAI API 密钥(或者您可以自定义它以使用不同的 LLM),并做一些决定。
它是如何获取我的数据的?
生成的应用有一个 data
文件夹,您可以在其中放置任意数量的文件;应用会在构建时自动对其进行索引,之后您就可以快速与之聊天。如果您使用 LlamaIndex.TS 作为后端(见下文),您将能够摄取 PDF、文本、CSV、Markdown、Word 和 HTML 文件。如果您使用 Python 后端,您可以读取更多类型的文件,包括音频和视频文件!
技术细节
它生成的前端是一个 Next.js 应用,样式方面您可以选择 shadcn/ui 或原生的 HTML 和 CSS。
对于后端,您有 3 个选项:
- Next.js:如果选择此选项,您将获得一个完整的 Next.js 全栈应用,只需点击几下即可部署到像 Vercel 这样的主机上。这使用了 LlamaIndex.TS,我们的 TypeScript 库。
- Express:如果您想要一个更传统的 Node.js 应用,可以生成一个 Express 后端。这也使用了 LlamaIndex.TS。
- Python FastAPI:如果选择此选项,您将获得一个由 llama-index Python 包 提供支持的后端,您可以将其部署到像 Render 或 fly.io 这样的服务上。
您还会被问到几个其他问题:
- 流式或非流式:如果您不确定,可能需要流式后端。
SimpleChatEngine
或ContextChatEngine
:ContextChatEngine 是使用您的数据的引擎。如果您只想与 GPT 聊天,可以使用SimpleChatEngine
。
开始定制吧!
一旦您的应用启动并运行,您可以尽情定制!默认情况下,出于成本考虑,应用将使用 GPT-3.5-Turbo。如果您想使用 GPT-4,可以通过修改文件 app/api/chat/llamaindex-stream.ts
(在 Next.js 后端)进行配置,或者您可以将其配置为完全使用不同的 LLM!LlamaIndex 集成了数十种 LLM,包括 API 和本地模型。