# 开源库使用方式

# curl请求

注意一定要替换为我们的api base和api key,差一个都是不对的。

curl https://api.openai-proxy.org/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-xxxxx" \
  -d '{
    "model": "gpt-3.5-turbo",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

# Openai 官方Python库

注意一定要替换为我们的api base和api key,差一个都是不对的。另外openai新版库和旧版本库也是不一样的

from openai import OpenAI

client = OpenAI(
    base_url='https://api.openai-proxy.org/v1',
    api_key='sk-xxxxxxxx',
)

chat_completion = client.chat.completions.create(
    messages=[
        {
            "role": "user",
            "content": "Say hi",
        }
    ],
    model="gpt-3.5-turbo",
)

WARNING

注意配置api_base时,应该加上一个/v1的后缀,而不是只有域名,要不然会报404错误。

WARNING

部分过时的文档会给出带engine字段的示例,这个字段已经被废弃了,直接调openai可以调通,因为openai做了历史包袱兼容,平台是不支持这类被废弃的接口格式的

# LangChain

在环境变量中配置好本站提供的接口API地址与token即可正常使用包括gpt-3.5-turbo,text-davinci-003,text-embedding-ada-002等多个模型。

os.environ["OPENAI_API_BASE"] = "https://api.openai-proxy.org/v1"
os.environ["OPENAI_API_KEY"] = "sk-xxxxxxxx"

WARNING

注意配置环境变量时,langchain的OPENAI_API_BASE应该加上一个/v1的后缀,而不是只有域名,要不然会报404错误。

# LlamaIndex(GPT Index)

LlamaIndex底层用的还是langchain的库去调的OpenAI接口,因此配置方式同LangChain一样。