为何选择 txtai?
新的向量数据库、LLM 框架以及介于两者之间的各种技术每天都在涌现。为何选择使用 txtai 进行构建?
- 使用 pip 或 Docker 几分钟即可启动运行
# Get started in a couple lines import txtai embeddings = txtai.Embeddings() embeddings.index(["Correct", "Not what we hoped"]) embeddings.search("positive", 1) #[(0, 0.29862046241760254)]
- 内置 API 使您可以使用选择的编程语言轻松开发应用程序
# app.yml embeddings: path: sentence-transformers/all-MiniLM-L6-v2
CONFIG=app.yml uvicorn "txtai.api:app" curl -X GET "http://localhost:8000/search?query=positive"
- 本地运行 - 无需将数据发送到不同的远程服务
- 支持从微型模型到大型语言模型 (LLM) 的各种模型
- 低占用空间 - 根据需要安装额外的依赖项并扩展
- 通过示例学习 - 笔记本涵盖所有可用功能