ChatGPT套壳(一):如何部署个人专属的ChatGPT

必知必会

套壳可以解决什么问题

  1. 解决网络问题:ChatGPT不对中国地区提供服务,中国地区网络无法直接访问ChatGPT,必须使用VPN才行。套壳后就可以不受限制。
  2. 解决账号问题:同上,对于中国区域的账户,ChatGPT可能会进行封号,套壳后就不用担心这个问题了。
  3. 降低使用成本:ChatGPT 4的订阅价格为$20每月,对于低频用户而言成本太高。套壳后就可以实现按量付费,用多少就付多少

套壳的技术方案

ChatGPT API

套壳最关键的问题在于ChatGPT API从哪来?目前可用的来源只有两个:

来源说明优点缺点
OpenAI官方提供的API官方模型1.需要OpenAI账户且需要海外手机号和信用卡,存在封号风险2.服务部署在美国,需要跨洋网络访问,速度较慢
Azure由微软云服务提供的API1. 不受OpenAI限制,有微软账户即可2. 可就近部署,加快网络访问速度虽然是和OPENAI用的同一个模型,但实际效果可能存在差别(目前体验了快一年了,整体感觉差异不大)

前后端交互服务

除了API以外,另外一个重要的部分就是套壳的服务了,需要有一个可以对话的前端&后端程序来支撑。目前市面上有很多成熟的开源技术方案了,比较火的是chatgpt-next-webopen in new window,我们后面的套壳也使用这个来套。

套壳需要做哪些准备

要想做一个套壳的ChatGPT,最重要的一步就是钱!因为天下没有免费的午餐,ChatGPT的API不免费(不但不免费,并且价格还不便宜),在套壳之前要提前做好预算规划,看看价格是不是顶得住。

目前openai和azure的API价格都是一样:

模型输入价格(1k token)输出价格(1k token)
GPT4-turbo$0.01 ≈ ¥0.08$0.03 ≈ ¥0.24

看起来好像很便宜的样子,实际上成本高得吓人。首先1k个token大约等于600-700个汉字,平均情况下,一条提问的回复大概是500个token。也就是说:一条提问,平均下来是1毛2左右。

也许这1毛2你看了觉得也还好,那么接下来你看到的一定会让你怀疑人生。这1毛2只是一条没有任何上下文的提问的价格,什么是上下文?就是你想对一条回答继续追问,那就属于上下文了。如果你的提问中包含了上下文信息,那么第二次提问的时候,第一次提问的问题和回复也会被算作第二次提问的输入。

什么意思呢?

假设你第一轮提问问题是100个token,回答是500个token,那么这一次提问的价格就是输入100个token+输出500个token的价格。接下来你基于这个回答继续提问100个token,再次回复500个token,第二次的价格就是输入100+500+100+输出500,第三次就是输入100+500+100+500+100+输出500。后面轮次越大,价格也就越贵。当你到达10轮后,一个问题的价格就是6k输入+500输出,大概是6-7毛钱。10个问题总共是3块钱左右,这还是比较保守的估算,实际情况下的一个返回是不止500token的。

以下是我套壳以来的消费金额:

可以看到,我每天也就问了三五个问题,但是费用都是两三块。特别是4.7这天,三个问题花了¥2.76。所以,当你真的想做套壳的话,考虑清楚!

如果使用频率比较高,建议直接开ChatGPT Plus或者使用第三方的套壳,反而更便宜一点。当然这里不止是API的成本,还有服务器等配套环境的开销也不小的。

海外信用卡

使用azure和openai一样,也需要绑定信用卡进行扣费,但azure不用海外手机号,openai需要同时有海外手机号和信用卡。

如果你没有信用卡,先参考整理2024年还能用的虚拟卡开卡渠道申请一张虚拟信用卡。信用卡年费也是一百多,这也是成本(不过如果你想要开Gpt plus的话也是要开海外信用卡的)。

服务器

要套壳,肯定要有服务器,服务器也是有成本的,在腾讯云open in new window或者阿里云open in new window上注册一个账号,买一台服务器一年一百左右。

部署ChatGPT

套壳进阶:手撸ChatGPT

Last Updated:
Contributors: 编程我只用CPP