0
点赞
收藏
分享

微信扫一扫

DocsGPT - 开源文档助手

忍禁 2024-08-05 阅读 27

文章目录


一、关于 DocsGPT

DocsGPT是一种尖端的开源解决方案,它简化了在项目文档中查找信息的过程,通过其强大的GPT模型的集成,开发人员可以轻松地提出关于项目的问题并获得准确的答案。

告别耗时的手动搜索,让 DocsGPT 帮助您快速找到所需的信息,看看它如何彻底改变您的项目文档体验为其发展做出贡献,成为AI驱动辅助未来的一部分。

  • github : https://github.com/arc53/DocsGPT
  • 官网:https://www.docsgpt.cloud/
  • 官方文档:https://docs.docsgpt.cloud/
  • 在线应用:https://app.docsgpt.cloud/
  • discord : https://discord.gg/n5BX8dh8rU
  • twitter : https://twitter.com/docsgptai
  • 👫 贡献 : https://github.com/arc53/DocsGPT/blob/main/CONTRIBUTING.md
  • 📁🚀如何使用任何其他文档训练 : https://docs.docsgpt.cloud/Guides/How-to-train-on-other-documentation
  • 🏠🔐如何在本地托管它(以便所有数据都保留在本地): https://docs.docsgpt.cloud/Guides/How-to-use-different-LLM

对公司的生产支持/帮助:

在将DocsGPT部署到实时环境时,我们渴望提供个性化帮助。

  • 获取企业/团队演示👋
  • [发送电子邮件📧](mailto:contact@arc53.com?subject=DocsGPT support%2Fsolutions)

video-example-of-docs-gpt


Roadmap

您可以在这里找到我们的路线图。
请不要犹豫,贡献或创建问题,它有助于我们改进DocsGPT!


我们针对DocsGPT优化的开源模型:

名称基本型号要求(或类似)
Docsgpt-7b-mistral米斯特拉尔-7b1xA10G gpu
Docsgpt-14bllama-2-14b2xA10 gpu’s
Docsgpt-40b-falcon-40b8xA10G gpu’s

如果您没有足够的资源来运行它,您可以使用bitsnbytes来量化。


用于信息检索的端到端AI框架

外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传


项目结构

  • 应用程序- Flask app(主应用程序)。
  • 扩展 - Chrome扩展。
  • 脚本 - 为其他库创建相似性搜索索引的脚本。
  • 前端 - 前端使用Vite和React。

二、快速入门

注 : 确保您已安装Docker

在Mac OS或Linux,写:

./setup.sh

它将安装所有依赖项并允许您下载本地模型、使用OpenAI或使用我们的LLM API。


否则,请参阅本Windows指南:

1、下载并使用

git clone https://github.com/arc53/DocsGPT.git

2、在根目录中创建一个.env文件,并将 env变量和 VITE_API_STREAMING 设置为true或false,具体取决于您是否想要流式传输答案。 里面应该是这样的:

LLM_NAME=[docsgpt or openai or others] 
VITE_API_STREAMING=true
API_KEY=[if LLM_NAME is openai]

请参阅 /.env-template/application/.env_sample 文件中的可选环境变量。

3、运行 ./run-with-docker-compose.sh

4、导航到 http://localhost:5173/ 。

要停止,只需运行Ctrl + C


三、开发环境


1、启动 Mongo 和 Redis

对于开发,只使用了 docker-comple.yaml中的两个容器(通过删除除Redis和Mongo之外的所有服务)。 请参见文件docker-compose-dev.yaml。

运行

docker compose -f docker-compose-dev.yaml build
docker compose -f docker-compose-dev.yaml up -d

2、运行后端

注 : 确保您安装了Python 3.10或3.11。

1、导出所需的环境变量 或 在项目文件夹中准备.env文件:

  • 复制 .env_sample 并创建.env
    (如果您想查看更多配置选项,请查看 application/core/settings.py。)

2、(可选)创建Python虚拟环境: 您可以按照虚拟环境的Python官方文档。

a)在Mac OS和Linux

python -m venv venv
. venv/bin/activate

b)在Windows上

python -m venv venv
 venv/Scripts/activate

3、下载嵌入模型并保存在model/文件夹中: 您可以使用下面的脚本,或者从这里手动下载,解压缩并保存在model/文件夹中。

wget https://d3dg1063dc54p9.cloudfront.net/models/embeddings/mpnet-base-v2.zip
unzip mpnet-base-v2.zip -d model
rm mpnet-base-v2.zip

4、为后端安装依赖项:

pip install -r application/requirements.txt

5、使用下面命令运行app :

flask --app application/app.py run --host=0.0.0.0 --port=7091

6、启动 worker

celery -A application.app.celery worker -l INFO

3、启动前端

注 : 确保您拥有Node版本16或更高版本。

  1. 导航到/frontend文件夹。
  2. 安装所需的包huskyvite(如果已经安装,请忽略)。
npm install husky -g
npm install vite -g

3、安装依赖

npm install --include=dev

4、运行应用

npm run dev

2024-08-04(日)

举报

相关推荐

0 条评论