跳至内容

为何选择 txtai?

why why

新的向量数据库、LLM 框架以及介于两者之间的各种技术每天都在涌现。为何选择使用 txtai 进行构建?

  • 使用 pipDocker 几分钟即可启动运行
    # Get started in a couple lines
    import txtai
    
    embeddings = txtai.Embeddings()
    embeddings.index(["Correct", "Not what we hoped"])
    embeddings.search("positive", 1)
    #[(0, 0.29862046241760254)]
    
  • 内置 API 使您可以使用选择的编程语言轻松开发应用程序
    # app.yml
    embeddings:
        path: sentence-transformers/all-MiniLM-L6-v2
    
    CONFIG=app.yml uvicorn "txtai.api:app"
    curl -X GET "http://localhost:8000/search?query=positive"
    
  • 本地运行 - 无需将数据发送到不同的远程服务
  • 支持从微型模型到大型语言模型 (LLM) 的各种模型
  • 低占用空间 - 根据需要安装额外的依赖项并扩展
  • 通过示例学习 - 笔记本涵盖所有可用功能