<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>开源模型 on 图灵派对</title><link>https://turingparty-ai.pages.dev/tags/%E5%BC%80%E6%BA%90%E6%A8%A1%E5%9E%8B/</link><description>Recent content in 开源模型 on 图灵派对</description><generator>Hugo</generator><language>zh-cn</language><lastBuildDate>Wed, 25 Mar 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://turingparty-ai.pages.dev/tags/%E5%BC%80%E6%BA%90%E6%A8%A1%E5%9E%8B/index.xml" rel="self" type="application/rss+xml"/><item><title>本地部署大模型完全指南：Ollama + Open WebUI</title><link>https://turingparty-ai.pages.dev/posts/20260325/</link><pubDate>Wed, 25 Mar 2026 00:00:00 +0000</pubDate><guid>https://turingparty-ai.pages.dev/posts/20260325/</guid><description>&lt;p&gt;不想把数据发送到第三方 API？想在自己的机器上跑大模型？Ollama + Open WebUI 是目前最简单的本地部署方案。&lt;/p&gt;
&lt;h2 id="为什么要本地部署"&gt;为什么要本地部署？&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;隐私保护&lt;/strong&gt;：数据不出本地&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;零成本&lt;/strong&gt;：无需 API 费用&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;低延迟&lt;/strong&gt;：无网络往返&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;可定制&lt;/strong&gt;：自由选择和切换模型&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id="ollama-安装"&gt;Ollama 安装&lt;/h2&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" style="color:#cdd6f4;background-color:#1e1e2e;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;&lt;span style="color:#6c7086;font-style:italic"&gt;# macOS / Linux&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;curl -fsSL https://ollama.com/install.sh | sh
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;&lt;span style="color:#6c7086;font-style:italic"&gt;# Windows&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;&lt;span style="color:#6c7086;font-style:italic"&gt;# 从 https://ollama.com/download 下载安装包&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;&lt;span style="color:#6c7086;font-style:italic"&gt;# 拉取模型&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;ollama pull llama3.1:8b
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;ollama pull qwen2.5:7b
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;h2 id="open-webui-部署"&gt;Open WebUI 部署&lt;/h2&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" style="color:#cdd6f4;background-color:#1e1e2e;-moz-tab-size:4;-o-tab-size:4;tab-size:4;-webkit-text-size-adjust:none;"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;&lt;span style="color:#6c7086;font-style:italic"&gt;# Docker 一键部署&lt;/span&gt;
&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt;docker run -d -p 3000:8080 &lt;span style="color:#89b4fa"&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; --add-host&lt;span style="color:#89dceb;font-weight:bold"&gt;=&lt;/span&gt;host.docker.internal:host-gateway &lt;span style="color:#89b4fa"&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; -v open-webui:/app/backend/data &lt;span style="color:#89b4fa"&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; --name open-webui &lt;span style="color:#89b4fa"&gt;\
&lt;/span&gt;&lt;/span&gt;&lt;/span&gt;&lt;span style="display:flex;"&gt;&lt;span&gt; ghcr.io/open-webui/open-webui:main
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;访问 &lt;code&gt;http://localhost:3000&lt;/code&gt; 即可使用类 ChatGPT 的界面与本地模型对话。&lt;/p&gt;
&lt;h2 id="硬件要求"&gt;硬件要求&lt;/h2&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;7B 模型&lt;/strong&gt;：8GB 内存 / 6GB 显存&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;13B 模型&lt;/strong&gt;：16GB 内存 / 10GB 显存&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;70B 模型&lt;/strong&gt;：64GB 内存 / 48GB 显存&lt;/li&gt;
&lt;/ul&gt;
&lt;blockquote&gt;
&lt;p&gt;没有 GPU 也能跑！Ollama 支持 CPU 推理，7B 模型在 M1 Mac 上体验流畅。&lt;/p&gt;</description></item></channel></rss>