最佳实践:私有化本地大模型搭建
1.下载ollama大模型框架
https://ollama.com/download //建议直接部署linux环境
2.使用ollama部署阿里千问大模型(Qwen7b,需要8G内存)
ollama run qwen:7b
3.部署前端(用户界面),lobe-chat
https://github.com/lobehub/lobe-chat //强烈建议docker安装
部署建议:linux+docker
微信扫一扫
最佳实践:私有化本地大模型搭建
1.下载ollama大模型框架
https://ollama.com/download //建议直接部署linux环境
2.使用ollama部署阿里千问大模型(Qwen7b,需要8G内存)
ollama run qwen:7b
3.部署前端(用户界面),lobe-chat
https://github.com/lobehub/lobe-chat //强烈建议docker安装
部署建议:linux+docker
相关推荐