简介
Thunderbolt是一款开源的跨平台AI客户端。卖点就一句话:你的数据你做主。
和ChatGPT、Claude这些把对话存在别人服务器上的产品不同,Thunderbolt让你自己决定——用哪个模型、数据放哪、要不要联网。你可以跑本地模型,可以接各种API,也可以完全离线部署。
说实话,这东西目前还处在早期阶段,bug可能不少。但如果你对"数据自主"这件事有执念,值得花点时间折腾。
核心功能
模型自由切换。支持Ollama、llama.cpp这类本地推理引擎,也能接OpenAI兼容的API。一个客户端搞定全部,不用在几个App之间切来切去。
全平台覆盖。Web、iOS、Android、Mac、Linux、Windows都有客户端,不是那种"只有网页版"的伪跨平台。
私有化部署。用Docker或Kubernetes能在自己的服务器上搭建,企业安全需求也能满足。数据完全不经过第三方。
无锁定。今天用OpenAI,明天换本地模型,后天切DeepSeek,无缝切换。
价格方案
| 方案 | 价格 | 说明 |
|---|---|---|
| 开源版 | 免费 | 全功能,自己部署后端 |
| 企业版 | 联系定价 | 官方支持、专属部署 |
这个工具的"价格"是你自己的算力和时间。用本地模型的话,显卡电费你得自己出。
优缺点
优点:完全开源,代码能看;数据在自己手里,隐私有保障;本地模型省钱;企业级部署可定制。
缺点:早期产品,不稳定;要自己折腾部署配置;没有现成的公共推理端点;对非技术用户有门槛。
适合谁
适合:有隐私焦虑的、有GPU想跑本地模型的、企业IT部门需要私有部署的、想参与开源项目的开发者。
不适合:完全不想折腾的小白用户、没有本地算力的、只想开箱即用的。
怎么用
从GitHub Releases下载客户端。配置模型:装Ollama或者准备个OpenAI API Key,在设置里填进去。想完全离线的话,用Docker Compose自己搭后端。然后就选模型开始对话。
部署文档写得还算清楚,照着来就行。
值得折腾吗
Thunderbolt目前完全免费开源,没有"购买"一说。成本是你的时间和算力。
如果你想要"省心省力",ChatGPT或Claude直接用更合适。但如果你对隐私有要求、想省钱跑本地模型、或者企业要私有部署,这个项目值得关注一下。
市面上真正做到"AI自主可控"的开源产品不多。Thunderbolt算是迈出了一步,虽然还不太成熟。
官方链接:Thunderbolt GitHub →
