Gemini1.5+(全系列)
POST
https://api.chatgptsb.com/v1/chat/completions请求参数
Header 参数
Content-Type
string
必需
示例值:
application/json
Authorization
string
令牌KEY
示例值:
Bearer sk-xxxx
Body 参数application/json
model
string
模型名称
messages
array [object {2}]
必需
role
string
角色 system | user
content
string
提问消息
temperature
integer
温度
使用什么采样温度,介于 0 和 2 之间。较高的值(如 0.8)将使输出更加随机,而较低的值(如 0.2)将使输出更加集中和确定。 我们通常建议改变这个或top_p
但不是两者同时使用。
top_p
integer
可选
一种替代温度采样的方法,称为核采样,其中模型考虑具有 top_p 概率质量的标记的结果。所以 0.1 意味着只考虑构成前 10% 概率质量的标记。 我们通常建议改变这个或temperature
但不是两者同时使用。
max_tokens
number
最大回复
聊天完成时生成的最大Tokens数量。 输入标记和生成标记的总长度受模型上下文长度的限制。
stream
boolean
流式输出
流式输出或非流式输出
n
number
可选
为每个输入消息生成多少个聊天完成选项。
presence_penalty
integer
可选
-2.0 和 2.0 之间的数字。正值会根据到目前为止是否出现在文本中来惩罚新标记,从而增加模型谈论新主题的可能性。
frequency_penalty
integer
可选
-2.0 和 2.0 之间的数字。正值会根据新标记在文本中的现有频率对其进行惩罚,从而降低模型逐字重复同一行的可能性。
logit_bias
null
可选
修改指定标记出现在完成中的可能性。 接受一个 json 对象,该对象将标记(由标记器中的标记 ID 指定)映射到从 -100 到 100 的关联偏差值。从数学上讲,偏差会在采样之前添加到模型生成的 logits 中。确切的效果因模型而异,但 -1 和 1 之间的值应该会减少或增加选择的可能性;像 -100 或 100 这样的值应该导致相关令牌的禁止或独占选择。
user
string
可选
代表您的最终用户的唯一标识符,可以帮助 OpenAI 监控和检测滥用行为。了解更多
示例
{
"model": "gemini-1.5-flash-latest",
"messages": [
{
"role": "user",
"content": "你好,你是?"
}
],
"max_tokens": 1688,
"temperature": 0.5,
"stream": false
}
示例代码
返回响应
成功(200)
HTTP 状态码: 200
内容格式: JSONapplication/json
数据结构
id
string
必需
object
string
必需
created
integer
必需
choices
array [object {3}]
必需
index
integer
可选
message
object
可选
finish_reason
string
可选
usage
object
必需
prompt_tokens
integer
必需
completion_tokens
integer
必需
total_tokens
integer
必需
示例
{
"id": "chatcmpl-e75b12fad68f41bc8dc9f3820152ec9b",
"object": "chat.completion",
"created": 1724998489,
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "你好!我是一个大型语言模型,由 Google 训练。很高兴认识你!你想聊些什么呢? \n"
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 5,
"completion_tokens": 23,
"total_tokens": 28
}
}
最后修改时间: 1 个月前