Appearance
常见问题
充值相关
能提供国内发票吗?
CloseAI由境外公司合法运营,可以提供国际通用的 Invoice 和 Receipt,国内也能用于报销,具体见发票与报销,但是无法提供国内增值税发票,这一点和您直接购买OpenAI的服务是一样的。
充值完一直没到账怎么办?
正常情况下,一分钟内就能到账。如果没有到账,我们提供了一个自助刷新状态的功能,您可以过几分钟后刷新试试,如果超过10分钟还没有到账,请联系客服。
可以退款吗?
WARNING
充值后不支持退款,介意勿冲
不同于很多收会员费的平台,CloseAI不限制最低充值金额,且按量付费,您完全可以充值1、2块钱就能测出是否满足自己需求,然后再决定是否进行更多的充值。
有些用户也不管3721,文档也不看,上来就充很多钱,发现与自己需求不符后,又跑来要求退款,我只能说这是一种对自己的钱不负责任的做法,平台对于这类要求是不会提供退款的。
充值表示您已经了解本平台的价值并接受了充值相关的规则,不能接受的请不要充值。
很多小白用户完全不知道如何用GPT4,问了GPT后,GPT4说自己是GPT3就跑过来要求退款,这个产生的原因和真正的GPT4测试方法使用教程里都有写过,见常见问题,单纯的自己认知不到位产生的误解,这类退款要求是不会支持的。
冲得多有优惠吗?
有,CloseAI为不同规模的用户提供了不同套餐,具体见套餐管理页面。
程序接入相关
报错404:page not found
有以下几种可能:
- 大概率你域名配错了,请检查api_base配置是否正确,并确认你正在接入的服务的文档,很多库(比如langchain)在配置api_base时,需要加上/v1的接口后缀,有些则要求只是一个域名,有些则要求需要填入完整的v1/chat/completions,需要视情况处理,示例
https://api.openai-proxy.org/v1
- 你使用了平台不支持的模型或者接口,平台并非兼容所有OpenAI接口,比如fine-tune就不支持,具体支持列表请见模型定价页面
- 你可能完全不知道自己在做什么,直接请求了
https://api.openai-proxy.org
域名就有了这个疑问。
报错401:Incorrect APl key provided: sk-****: You can find your APl key at https://platform.openai.com
这是因为你没有配置请求的API地址为我们提供的地址,平台工作的原理就是代理API请求,给你分配的key都是虚拟的,因此你必须配置我们平台提供的API Base和API Key,由平台代为向OpenAI发送请求,否则OpenAI会不认识这个Key,修复方法是将API改为https://api.openai-proxy.org
即可正常访问。
为什么连接会偶发超时甚至网络直接不通?
正常现象,有多种可能,你直连OpenAI官方API也会遇到:
- 首先是OpenAI自己的算力负载问题,负载高的时候返回就会慢,甚至超时。
- 其次是你的请求prompt过多,或者定义的超时时间过短。
- 第三我们的服务器在国外,国内不同地区、不同宽带运营商对国际网络的访问有很大差别,有的高峰期线路会拥堵导致请求异常,一般来说是偶发的个别现象,做好重试机制即可。最好是您有国外的服务器可用。
如果遇到特殊情况,比如一直是超时状态,可以换平台提供的其他域名,每个域名的线路不一样,有些线路专门针对国内做过线路优化。
最大超时时间是多少?
平台的超时时间是5分钟,一般足够用了,如果超时了,基本是openai侧卡主了,这种只能客户端侧配置超时重试。
有限流吗?
有,每个模型不一样,参考平台模型定价页面,如果默认限流不够用可以邮件客服,满足条件的可以申请更高限额
关于请求失败时的是否扣费的答疑
正常情况下,由于网络问题、后端限流、后端异常等原因产生的报错是不会扣费的,只会生成一条金额为0的消费记录。费用的扣除是从OpenAI侧返回200(即请求成功)开始的,唯一的例外是您的客户端提前断开了链接,比如OpenAI正在生成响应而您的客户端超时断开了,此时内容已经生成,只是您的服务没有去接受而已,这种会正常扣费。
为什么接口有时候会报错?
The server is currently overloaded with other requests. Sorry about that
这个不是我们平台的负载过多,而是底层供应商返回的错误,目前全球的GPU算力都是短缺状态,类似的错误在OpenAI侧时常发生,调用次数越多越明显,尤其是GPT4这种算力大户,这个是官方问题,和平台无关,你直接调用官方接口也会偶发这个问题。但是会随着算力的逐渐改善而减少。
ChatGPT相关
为什么我感觉钱消耗的越来越快?
ChatGPT聊天的上下文理解的原理是每次提出新的问题时,都会把前面所有聊过的内容作为上下文带过去,因此每次聊天,消耗的token数量都是不断上涨的,会随着聊天的轮数增多而越来越大。解决方法是在设置页面里,配置合理的附带历史消息数
,减少每次携带的上下文数量,避免无意义的token消耗。当然代价是对上下文的理解会不够精确。
为什么只提问了一个问题,账单明细上显示了被收了2-3次费?你们是不是多收我钱了?
- 扣2次费的原因其实不是平台的原因,而是很多客户端会后台偷偷根据您的对话过程,给您的对话生成一个标题,这个过程也是调用的GPT来完成的,因此会额外多一次调用。比如你用GPT4提问时,客户端可能会用GPT3.5自动根据内容生成一个标题,这个也会产生计费。
- 部分项目还会在连续的长对话过程中,后台偷偷通过GPT总结用户对话,因此又会产生额外的调用次数。这些都和平台无关,如果您不希望此类行为,建议替换一个其他的客户端。
- 由于部分客户端设计时没考虑周到,你选择gpt4对话时,会调用gpt4产生标题,可能会存在浪费钱生成标题的问题,尤其是使用
gpt-4-32k
时,建议避免在对话第一次提问就传入大量内容,否则会产生很多无用消耗。
为什么我一直用GPT4提问,账单里会有GPT3.5的消费记录?
原因和上面问题的一样,很多客户端会在后台偷偷用GPT3.5生成标题和摘要,因此会额外多一次调用。这些都和平台无关,如果您不希望此类行为,建议替换一个其他的客户端。
为什么问GPT4是不是GPT4,他说自己是GPT3? 你们是拿假的GPT3.5糊弄事吧?
从原理上讲,一切通过询问模型自己是GPT几或者知识库截止时间是多少的方式都是无意义的。这就像你问一只狗,知不知道自己是什么品种一样,狗不会告诉你自己是拉布拉多犬还是哈士奇。要测试模型是否是GPT4,需要一些列专业的问题来判断模型的推理能力,而不是靠问模型自己是不是GPT4。
目前官方部分最新的模型已经修复了自我认知不准的问题,但是大部分旧模型并没有专门做这类优化,回复自己是GPT3很正常,这些不影响模型的回复质量。
你可能会说,我用了官方ChatGPT或者XX平台,问GPT4就回复GPT4,问知识库时间就回复XXXX年(最新的),到了你这里就回复的是GPT3,你这个肯定是假的。
这个设置下prompt就能实现,基本上是圈内常识,你让他说自己是GPT-10也是能实现的,你不知道这个说明你是个小白,多学习了解下就行了,OpenAI官方的API就是这样,自己注册个官方账号试试也能对比出来。
以下是几个常见的设置提示词的方式调整自我认知的例子:
让GPT说自己是GPT5
让GPT说自己是GPT10
如上图所示,通过问gpt自己是几来判断平台提供的是不是gpt4毫无意义,只能说名您是一个这个领域的小白。
看完了以上解释还觉得我们是用GPT3.5当GPT4糊弄事的,您去用您觉得是"真"GPT4的其他平台就行了。
TIP
近期很多不懂的小白用户涌入,对同样的问题反复咨询、质疑,建议这类用户多看看文档。
如何判断是否使用的是GPT4呢?
区分GPT3.5和GPT4最简单的方式是一些涉及到复杂逻辑推理的问题,这些问题对正常人来说是脑残问题,但是对模型来说很考验推理能力,比如为什么苏东坡不能参加苏轼的葬礼
、为什么鲁迅会暴打周树人
,GPT4会告诉你是一个人,GPT3.5会给出一个堆看似正确的废话。gpt4强在推理能力,这类不符合正常逻辑的问题很容易识别,以下是网友总结的几个常用问题:
- 为什么苏东坡不能参加苏轼的葬礼
- 为什么鲁迅会暴打周树人
- 树上10只鸟,开枪打死一只,还剩几只?
- 鸡蛋炒钢丝球怎么做
我亲自和官方的GPT4对比过,你们这个回答的就是不一样
首先ChatGPT和GPT API完全是2个产品,你所谓的官方GPT4其实是OpenAI的ChatGPT,是面向普通大众的Web聊天服务,而GPT API是面向专业开发者提供的用来构建AI产品的接口服务,市面上所有的非OpenAI官方的GPT4都是基于GPT API的,因此不要拿ChatGPT和GPT API的回答结果来对比,这是没有意义的,如果真想对比,您可以开通一个OpenAI的API服务,自己对比下,我们所有的请求都是原样转发到OpenAI处理的,不可能用GPT3.5去回应你的GPT4请求。
我不信,你们就是套壳3.5,骗人是GPT4
平台每个月都会在gpt接口上支付给供应商大量的成本,如果您因为自己不懂行区分不出来底层是不是gpt4,还非要坚信自己的判断,那只能说您不是平台的客户群体。您可以去用你"觉得"是"真"GPT4的其他平台的服务。
为什么GPT4会给出这么弱智的回答,我还是觉得你们是假的GPT4?
GPT4也不是万能的,训练参数并不比GPT3大多少,不用因为营销号的宣传神话GPT4。而且由于中文语料在训练中的占比很小,在回答中文问题时,不排除在某些问题上表现不佳,同样的问题用英文问可能结果完全不一样,您可以试着用英文提问试试。
另外OpenAI一直在推动降低GPT4成本,这在某种程度上也导致GPT变傻了,不过这种傻,非重度用户是感知不到的。
那GPT4和GPT3.5到底有什么差别?
从模型的角度讲,GPT3.5最大只支持4k,也就是大约2000个汉字左右,超过这个token数量就会报错,无法处理。我们的gpt-4
模型支持最大8k(约4000个汉字),gpt-4-32k
模型支持最大32k(约16000个汉字),这个是接口层面最大的区别,可以传入超长上下文让GPT4学习和处理,这个是GPT3.5做不到的。
从实际效果上讲,GPT4对于需要复杂逻辑推理的问题会体现出明显的优势,OpenAI推出GPT4时,给出过一个例子,就是列出好几个人可以参会的时间,让GPT找出一个大家都有空的时间,GPT3给出的答案是错误的废话,GPT4给出的答案就是对。不过经过实际测试,只有在英文提问时才能表现出这种准确性,同样的问题翻译为中文答案就是错误的,可见GPT4目前并不是银弹,只是一个GPT3.5的进化版,还有很多不尽人意的地方。这方面网上有很多测评博主都测评过,您可以学习下他们怎么测试的。