0
点赞
收藏
分享

微信扫一扫

打造个人知识库chatwithrtx


前言

Chat With RTX 是一个 Demo,用来将您自己的资料(文档、笔记、视频或其他数据)与大语言模型建立连接,从而令 LLM 更具个性化。利用检索增强生成 (RAG)、TensorRT-LLM 和 RTX 加速,您可以与自定义聊天机器人对话,快速灵活地获得聊天机器人根据您的内容给出的见解。此外,由于 Chat with RTX 完全在 Windows RTX PC 或工作站本地以安全的方式运行,因此您可以更快获得更满意的结果。
https://www.nvidia.cn/ai-on-rtx/chat-with-rtx-generative-ai/

本文主要记录安装过程。后续计划使用期打造个人的知识库。

下载地址



打造个人知识库chatwithrtx_本地缓存

https://www.nvidia.com/en-us/ai-on-rtx/chat-with-rtx-generative-ai/

傻瓜安装



打造个人知识库chatwithrtx_本地缓存_02

打造个人知识库chatwithrtx_聊天机器人_03

打造个人知识库chatwithrtx_聊天机器人_04

整个过程持续了46分钟



打造个人知识库chatwithrtx_本地缓存_05

运行

直接运行桌面的快捷方式



打造个人知识库chatwithrtx_聊天机器人_06

不过初次运行会报错



打造个人知识库chatwithrtx_本地缓存_07

在ui\user_interface.py的257行 添加share=True 即可解决



打造个人知识库chatwithrtx_离线_08

之后运行界面如下



打造个人知识库chatwithrtx_离线_09

离线运行

在config\app_config.json中,会记录一个内嵌模型名称



打造个人知识库chatwithrtx_本地缓存_10

这个时候会下载模型到本地缓存 C:\Users\deans\.cache\torch\sentence_transformers\WhereIsAI_UAE-Large-V1 我们只需要把路径修改为这个路径 即可离线运行。



打造个人知识库chatwithrtx_离线_11

总结

以外惊奇,这个居然是个网页,我们可以调用其api进行自己的应用开发,后续api的使用,继续进行整理。


举报

相关推荐

git知识库

0 条评论