<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>Thunderbolt on 赛博工具站</title>
    <link>https://www.haodaohang.top/tags/thunderbolt/</link>
    <description>Recent content in Thunderbolt on 赛博工具站</description>
    <image>
      <title>赛博工具站</title>
      <url>https://www.haodaohang.top/images/cover.png</url>
      <link>https://www.haodaohang.top/images/cover.png</link>
    </image>
    <generator>Hugo -- 0.152.2</generator>
    <language>zh-cn</language>
    <lastBuildDate>Tue, 21 Apr 2026 10:00:00 +0800</lastBuildDate>
    <atom:link href="https://www.haodaohang.top/tags/thunderbolt/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>Thunderbolt评测：真正属于你的AI控制台</title>
      <link>https://www.haodaohang.top/posts/2026-04-21-thunderbolt-review/</link>
      <pubDate>Tue, 21 Apr 2026 10:00:00 +0800</pubDate>
      <guid>https://www.haodaohang.top/posts/2026-04-21-thunderbolt-review/</guid>
      <description>&lt;h2 id=&#34;简介&#34;&gt;简介&lt;/h2&gt;
&lt;p&gt;Thunderbolt是一款开源的跨平台AI客户端。卖点就一句话：你的数据你做主。&lt;/p&gt;
&lt;p&gt;和ChatGPT、Claude这些把对话存在别人服务器上的产品不同，Thunderbolt让你自己决定——用哪个模型、数据放哪、要不要联网。你可以跑本地模型，可以接各种API，也可以完全离线部署。&lt;/p&gt;
&lt;p&gt;说实话，这东西目前还处在早期阶段，bug可能不少。但如果你对&amp;quot;数据自主&amp;quot;这件事有执念，值得花点时间折腾。&lt;/p&gt;
&lt;h2 id=&#34;核心功能&#34;&gt;核心功能&lt;/h2&gt;
&lt;p&gt;模型自由切换。支持Ollama、llama.cpp这类本地推理引擎，也能接OpenAI兼容的API。一个客户端搞定全部，不用在几个App之间切来切去。&lt;/p&gt;
&lt;p&gt;全平台覆盖。Web、iOS、Android、Mac、Linux、Windows都有客户端，不是那种&amp;quot;只有网页版&amp;quot;的伪跨平台。&lt;/p&gt;
&lt;p&gt;私有化部署。用Docker或Kubernetes能在自己的服务器上搭建，企业安全需求也能满足。数据完全不经过第三方。&lt;/p&gt;
&lt;p&gt;无锁定。今天用OpenAI，明天换本地模型，后天切DeepSeek，无缝切换。&lt;/p&gt;
&lt;h2 id=&#34;价格方案&#34;&gt;价格方案&lt;/h2&gt;
&lt;table&gt;
  &lt;thead&gt;
      &lt;tr&gt;
          &lt;th&gt;方案&lt;/th&gt;
          &lt;th&gt;价格&lt;/th&gt;
          &lt;th&gt;说明&lt;/th&gt;
      &lt;/tr&gt;
  &lt;/thead&gt;
  &lt;tbody&gt;
      &lt;tr&gt;
          &lt;td&gt;开源版&lt;/td&gt;
          &lt;td&gt;免费&lt;/td&gt;
          &lt;td&gt;全功能，自己部署后端&lt;/td&gt;
      &lt;/tr&gt;
      &lt;tr&gt;
          &lt;td&gt;企业版&lt;/td&gt;
          &lt;td&gt;联系定价&lt;/td&gt;
          &lt;td&gt;官方支持、专属部署&lt;/td&gt;
      &lt;/tr&gt;
  &lt;/tbody&gt;
&lt;/table&gt;
&lt;p&gt;这个工具的&amp;quot;价格&amp;quot;是你自己的算力和时间。用本地模型的话，显卡电费你得自己出。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;a href=&#34;https://github.com/thunderbird/thunderbolt&#34;&gt;CPS链接：Thunderbolt官网 →&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h2 id=&#34;优缺点&#34;&gt;优缺点&lt;/h2&gt;
&lt;p&gt;优点：完全开源，代码能看；数据在自己手里，隐私有保障；本地模型省钱；企业级部署可定制。&lt;/p&gt;
&lt;p&gt;缺点：早期产品，不稳定；要自己折腾部署配置；没有现成的公共推理端点；对非技术用户有门槛。&lt;/p&gt;
&lt;h2 id=&#34;适合谁&#34;&gt;适合谁&lt;/h2&gt;
&lt;p&gt;适合：有隐私焦虑的、有GPU想跑本地模型的、企业IT部门需要私有部署的、想参与开源项目的开发者。&lt;/p&gt;
&lt;p&gt;不适合：完全不想折腾的小白用户、没有本地算力的、只想开箱即用的。&lt;/p&gt;
&lt;h2 id=&#34;怎么用&#34;&gt;怎么用&lt;/h2&gt;
&lt;p&gt;从GitHub Releases下载客户端。配置模型：装Ollama或者准备个OpenAI API Key，在设置里填进去。想完全离线的话，用Docker Compose自己搭后端。然后就选模型开始对话。&lt;/p&gt;
&lt;p&gt;部署文档写得还算清楚，照着来就行。&lt;/p&gt;
&lt;h2 id=&#34;值得折腾吗&#34;&gt;值得折腾吗&lt;/h2&gt;
&lt;p&gt;Thunderbolt目前完全免费开源，没有&amp;quot;购买&amp;quot;一说。成本是你的时间和算力。&lt;/p&gt;
&lt;p&gt;如果你想要&amp;quot;省心省力&amp;quot;，ChatGPT或Claude直接用更合适。但如果你对隐私有要求、想省钱跑本地模型、或者企业要私有部署，这个项目值得关注一下。&lt;/p&gt;
&lt;p&gt;市面上真正做到&amp;quot;AI自主可控&amp;quot;的开源产品不多。Thunderbolt算是迈出了一步，虽然还不太成熟。&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;官方链接：&lt;a href=&#34;https://github.com/thunderbird/thunderbolt&#34;&gt;Thunderbolt GitHub →&lt;/a&gt;&lt;/p&gt;
&lt;/blockquote&gt;</description>
    </item>
  </channel>
</rss>
