model

package
v0.0.4 Latest Latest
Warning

This package is not in the latest version of its module.

Go to latest
Published: Aug 15, 2023 License: Apache-2.0, BSD-2-Clause, BSD-3-Clause Imports: 2 Imported by: 0

Documentation

Index

Constants

This section is empty.

Variables

This section is empty.

Functions

This section is empty.

Types

type ChatChoice

type ChatChoice struct {

	// 回复的索引
	Index int32 `json:"index"`

	Message *MessageItem `json:"message"`
}

ChatChoice 通用文本响应

func (ChatChoice) String

func (o ChatChoice) String() string

type ChatCompletionReq

type ChatCompletionReq struct {

	// 多轮对话问答对
	Messages []Message `json:"messages"`

	// 用于代表客户的唯一标识符,最小长度:1,最大长度64
	User *string `json:"user,omitempty"`

	// 流式调用的开启开关,true为开启流式调用,如果要开启流式调用,请使用流式SDK;false为关闭流式调用。默认为关闭状态。
	Stream *bool `json:"stream,omitempty"`

	// 用于控制生成文本的多样性和创造力。参数的取值范围是0到1,其中0表示最低的随机性。一般来说,temperature越低,适合完成确定性的任务。temperature越高,例如0.9,适合完成创造性的任务。temperature参数可以影响语言模型输出的质量和多样性,但也不是唯一的因素。还有其他一些参数,如top_p参数也可以用来调整语言模型的行为和偏好,但不建议同时更改这两个参数。
	Temperature *float32 `json:"temperature,omitempty"`

	// 一种替代温度采样的方法,称为nucleus sampling,其中模型考虑具有top_p 概率质量的标记的结果。因此 0.1 意味着只考虑构成前 10% 概率质量的标记。我们通常建议更改此值或温度,但不要同时更改两者。通常建议更改top_p或temperature来调整生成文本的倾向性,但不要同时更改这两个参数。
	TopP *float32 `json:"top_p,omitempty"`

	// 用于控制聊天回复的长度和质量。一般来说,较大的max_tokens值可以生成较长和较完整的回复,但也可能增加生成无关或重复内容的风险。较小的max_tokens值可以生成较短和较简洁的回复,但也可能导致生成不完整或不连贯的内容。因此,需要根据不同的场景和需求来选择合适的max_tokens值。最小值:1,最大值:2048,默认值:16
	MaxTokens *int32 `json:"max_tokens,omitempty"`

	// 表示对每个问题生成多少条答案。n参数的默认值是1,表示只生成一个答案。如果想要生成多条答案,可以设置n参数为一个大于1的整数,例如n=2。这样,API会返回一个包含2个答案的数组。最小值:1,最大值:2,默认值:1
	N *int32 `json:"n,omitempty"`

	// 用于控制生成文本中的重复程度。正值会根据它们到目前为止在文本中的现有频率来惩罚新tokens,从而降低模型逐字重复同一行的可能性。  presence_penalty 参数可以用来提高生成文本的多样性和创造性,避免生成单调或重复的内容。最小值:-2,最大值:2
	PresencePenalty *float32 `json:"presence_penalty,omitempty"`
}

func (ChatCompletionReq) String

func (o ChatCompletionReq) String() string

type CompletionUsage

type CompletionUsage struct {

	// 表示模型生成的答案中包含的tokens的数量。
	CompletionTokens float32 `json:"completion_tokens"`

	// 表示生成结果时使用的提示文本的tokens的数量。
	PromptTokens float32 `json:"prompt_tokens"`

	// 对话过程中使用的tokens总数。
	TotalTokens float32 `json:"total_tokens"`
}

CompletionUsage tokens统计对象

func (CompletionUsage) String

func (o CompletionUsage) String() string

type ExecuteChatCompletionRequest

type ExecuteChatCompletionRequest struct {

	// 发送的实体的MIME类型。
	ContentType *string `json:"Content-Type,omitempty"`

	// 模型的部署ID
	DeploymentId string `json:"deployment_id"`

	Body *ChatCompletionReq `json:"body,omitempty"`
}

ExecuteChatCompletionRequest Request Object

func (ExecuteChatCompletionRequest) String

type ExecuteChatCompletionResponse

type ExecuteChatCompletionResponse struct {

	// 响应ID
	Id *string `json:"id,omitempty"`

	// 响应时间
	Created *int32 `json:"created,omitempty"`

	// 模型回复
	Choices *[]ChatChoice `json:"choices,omitempty"`

	Usage          *CompletionUsage `json:"usage,omitempty"`
	HttpStatusCode int              `json:"-"`
}

ExecuteChatCompletionResponse Response Object

func (ExecuteChatCompletionResponse) String

type ExecuteTextCompletionRequest

type ExecuteTextCompletionRequest struct {

	// 发送的实体的MIME类型。
	ContentType *string `json:"Content-Type,omitempty"`

	// 模型的部署ID
	DeploymentId string `json:"deployment_id"`

	Body *TextCompletionReq `json:"body,omitempty"`
}

ExecuteTextCompletionRequest Request Object

func (ExecuteTextCompletionRequest) String

type ExecuteTextCompletionResponse

type ExecuteTextCompletionResponse struct {

	// 响应ID
	Id *string `json:"id,omitempty"`

	// 响应时间
	Created *int32 `json:"created,omitempty"`

	// 模型回复
	Choices *[]TextChoice `json:"choices,omitempty"`

	Usage          *CompletionUsage `json:"usage,omitempty"`
	HttpStatusCode int              `json:"-"`
}

ExecuteTextCompletionResponse Response Object

func (ExecuteTextCompletionResponse) String

type Message

type Message struct {

	// 角色
	Role *string `json:"role,omitempty"`

	// 问答对文本内容
	Content string `json:"content"`
}

func (Message) String

func (o Message) String() string

type MessageItem

type MessageItem struct {

	// 角色
	Role *string `json:"role,omitempty"`

	// 模型响应
	Content string `json:"content"`
}

MessageItem 多轮对话响应对象

func (MessageItem) String

func (o MessageItem) String() string

type TextChoice

type TextChoice struct {

	// 回复的索引
	Index int32 `json:"index"`

	// 模型响应
	Text string `json:"text"`
}

TextChoice 通用文本响应

func (TextChoice) String

func (o TextChoice) String() string

type TextCompletionReq

type TextCompletionReq struct {

	// 向模型输入的文本信息,最小长度:1,最大长度:4096
	Prompt string `json:"prompt"`

	// 用于代表客户的唯一标识符,最小长度:1,最大长度64
	User *string `json:"user,omitempty"`

	// 流式调用的开启开关,true为开启流式调用,如果要开启流式调用,请使用流式SDK;false为关闭流式调用。默认为关闭状态。
	Stream *bool `json:"stream,omitempty"`

	// 用于控制生成文本的多样性和创造力。参数的取值范围是0到1,其中0表示最低的随机性。一般来说,temperature越低,适合完成确定性的任务。temperature越高,例如0.9,适合完成创造性的任务。temperature参数可以影响语言模型输出的质量和多样性,但也不是唯一的因素。还有其他一些参数,如top_p参数也可以用来调整语言模型的行为和偏好,但不建议同时更改这两个参数。
	Temperature *float32 `json:"temperature,omitempty"`

	// 一种替代温度采样的方法,称为nucleus sampling,其中模型考虑具有top_p 概率质量的标记的结果。因此 0.1 意味着只考虑构成前 10% 概率质量的标记。我们通常建议更改此值或温度,但不要同时更改两者。通常建议更改top_p或temperature来调整生成文本的倾向性,但不要同时更改这两个参数。
	TopP *float32 `json:"top_p,omitempty"`

	// 用于控制聊天回复的长度和质量。一般来说,较大的max_tokens值可以生成较长和较完整的回复,但也可能增加生成无关或重复内容的风险。较小的max_tokens值可以生成较短和较简洁的回复,但也可能导致生成不完整或不连贯的内容。因此,需要根据不同的场景和需求来选择合适的max_tokens值。最小值:1,最大值:2048,默认值:16
	MaxTokens *int32 `json:"max_tokens,omitempty"`

	// 表示对每个问题生成多少条答案。n参数的默认值是1,表示只生成一个答案。如果想要生成多条答案,可以设置n参数为一个大于1的整数,例如n=2。这样,API会返回一个包含2个答案的数组。最小值:1,最大值:2,默认值:1
	N *int32 `json:"n,omitempty"`

	// 用于控制生成文本中的重复程度。正值会根据它们到目前为止在文本中的现有频率来惩罚新tokens,从而降低模型逐字重复同一行的可能性。  presence_penalty 参数可以用来提高生成文本的多样性和创造性,避免生成单调或重复的内容。最小值:-2,最大值:2
	PresencePenalty *float32 `json:"presence_penalty,omitempty"`
}

func (TextCompletionReq) String

func (o TextCompletionReq) String() string

Jump to

Keyboard shortcuts

? : This menu
/ : Search site
f or F : Jump to
y or Y : Canonical URL