Luca Bravo
统计
文章总数 52篇
总字数 6.6万
上次更新 1天前
运营时长 2年6个月
分类
标签
AI Arch BF CLI CSS Fuwari Giscus GTK HEO JS KDE K签 Linux Lisp LLM Path Pypi Python RSS Vim VTB VUP Whl WP 上海 专业 主题 云朵 享乐 优化 伦理 便利店 俄国 光标 内耗 函数式 分析 创伤 创意 判断 前端 北京 参观 哲学 商业 国庆 壁纸 天津 姐妹 字典 安装 实用 对话 度假 开发环境 开源 归档 微风 心理 意义 技校 抚远 拥抱 推荐 插件 摄影 政策 故障排查 效果 散文 文件 文化 旅游 日本 显卡 样式 模糊 治愈 浏览器 浦东 浦西 热力图 特效 猫猫 玩具 环境 甘城 生态 病毒 直播 社会 社团 秋游 科幻 移民 系统 终端 经济 美化 美缝 耳机 脑操 自动驾驶 苏州 茅山 萌系 补档 解释器 设计 评论 话术 谷子 走路 轮子 辍学 迁移 运维 重构 随机 音频 颜文字 颜色 首都 麦金塔 鼠标
128 字
1 分钟
如何本地部署大模型
安装 Ollama
打开终端,通过 winget
安装 Ollama 引擎:
winget install ollama
下载模型
打开 Ollama 网站,选择一个你想要的模型:
然后选择模型的参数量,参数量越大越聪明,但所需配置也需要更高:
安装和运行模型
选择完成后,复制并运行右边的命令,例如这样:
ollama run deepseek-r1:1.5b
等待安装,安装完成后就可以使用了。如果以后还想继续使用,只需输入同样的命令。