0
点赞
收藏
分享

微信扫一扫

使用 ollama 部署本地模型

最佳实践:私有化本地大模型搭建

1.下载ollama大模型框架

https://ollama.com/download	//建议直接部署linux环境

2.使用ollama部署阿里千问大模型(Qwen7b,需要8G内存)

ollama run qwen:7b

3.部署前端(用户界面),lobe-chat

https://github.com/lobehub/lobe-chat	//强烈建议docker安装

部署建议:linux+docker


举报

相关推荐

0 条评论