# 开源库使用方式
# curl请求
注意一定要替换为我们的api base和api key,差一个都是不对的。
curl https://api.openai-proxy.org/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-xxxxx" \
-d '{
"model": "gpt-3.5-turbo",
"messages": [{"role": "user", "content": "Hello!"}]
}'
# Openai 官方Python库
注意一定要替换为我们的api base和api key,差一个都是不对的。另外openai新版库和旧版本库也是不一样的
from openai import OpenAI
client = OpenAI(
base_url='https://api.openai-proxy.org/v1',
api_key='sk-xxxxxxxx',
)
chat_completion = client.chat.completions.create(
messages=[
{
"role": "user",
"content": "Say hi",
}
],
model="gpt-3.5-turbo",
)
WARNING
注意配置api_base时,应该加上一个/v1的后缀,而不是只有域名,要不然会报404错误。
WARNING
部分过时的文档会给出带engine字段的示例,这个字段已经被废弃了,直接调openai可以调通,因为openai做了历史包袱兼容,平台是不支持这类被废弃的接口格式的
# LangChain
在环境变量中配置好本站提供的接口API地址与token即可正常使用包括gpt-3.5-turbo
,text-davinci-003
,text-embedding-ada-002
等多个模型。
os.environ["OPENAI_API_BASE"] = "https://api.openai-proxy.org/v1"
os.environ["OPENAI_API_KEY"] = "sk-xxxxxxxx"
WARNING
注意配置环境变量时,langchain的OPENAI_API_BASE
应该加上一个/v1
的后缀,而不是只有域名,要不然会报404错误。
# LlamaIndex(GPT Index)
LlamaIndex底层用的还是langchain的库去调的OpenAI接口,因此配置方式同LangChain一样。