简介

Thunderbolt是一款开源的跨平台AI客户端。卖点就一句话:你的数据你做主。

和ChatGPT、Claude这些把对话存在别人服务器上的产品不同,Thunderbolt让你自己决定——用哪个模型、数据放哪、要不要联网。你可以跑本地模型,可以接各种API,也可以完全离线部署。

说实话,这东西目前还处在早期阶段,bug可能不少。但如果你对"数据自主"这件事有执念,值得花点时间折腾。

核心功能

模型自由切换。支持Ollama、llama.cpp这类本地推理引擎,也能接OpenAI兼容的API。一个客户端搞定全部,不用在几个App之间切来切去。

全平台覆盖。Web、iOS、Android、Mac、Linux、Windows都有客户端,不是那种"只有网页版"的伪跨平台。

私有化部署。用Docker或Kubernetes能在自己的服务器上搭建,企业安全需求也能满足。数据完全不经过第三方。

无锁定。今天用OpenAI,明天换本地模型,后天切DeepSeek,无缝切换。

价格方案

方案价格说明
开源版免费全功能,自己部署后端
企业版联系定价官方支持、专属部署

这个工具的"价格"是你自己的算力和时间。用本地模型的话,显卡电费你得自己出。

CPS链接:Thunderbolt官网 →

优缺点

优点:完全开源,代码能看;数据在自己手里,隐私有保障;本地模型省钱;企业级部署可定制。

缺点:早期产品,不稳定;要自己折腾部署配置;没有现成的公共推理端点;对非技术用户有门槛。

适合谁

适合:有隐私焦虑的、有GPU想跑本地模型的、企业IT部门需要私有部署的、想参与开源项目的开发者。

不适合:完全不想折腾的小白用户、没有本地算力的、只想开箱即用的。

怎么用

从GitHub Releases下载客户端。配置模型:装Ollama或者准备个OpenAI API Key,在设置里填进去。想完全离线的话,用Docker Compose自己搭后端。然后就选模型开始对话。

部署文档写得还算清楚,照着来就行。

值得折腾吗

Thunderbolt目前完全免费开源,没有"购买"一说。成本是你的时间和算力。

如果你想要"省心省力",ChatGPT或Claude直接用更合适。但如果你对隐私有要求、想省钱跑本地模型、或者企业要私有部署,这个项目值得关注一下。

市面上真正做到"AI自主可控"的开源产品不多。Thunderbolt算是迈出了一步,虽然还不太成熟。

官方链接:Thunderbolt GitHub →