快捷方式

torchtune.models

llama3.3

来自 Llama3 系列 3.3 版本的纯文本模型。

重要提示:在下载之前,您需要在 Hugging Face 上请求访问权限。

下载 Llama-3.3-70B-Instruct 模型

tune download meta-llama/Llama-3.3-70B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>

llama3_3.llama3_3_70b

用于创建使用默认 70B 参数值初始化的 Llama3.3 模型的构建器。

llama3_3.lora_llama3_3_70b

用于创建启用 LoRA 的 Llama3.3 70B 模型的构建器。

llama3_3.qlora_llama3_3_70b

用于创建启用 QLoRA 的 Llama3.3 70B 模型的构建器。

注意

Llama3.3 分词器重用了 llama3_tokenizer 类。

llama3.2

来自 Llama3 系列 3.2 版本的纯文本模型。

重要提示:在下载之前,您需要在 Hugging Face 上请求访问权限。

下载 Llama-3.2-1B-Instruct 模型

tune download meta-llama/Llama-3.2-1B-Instruct --output-dir /tmp/Llama-3.2-1B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>

下载 Llama-3.2-3B-Instruct 模型

tune download meta-llama/Llama-3.2-3B-Instruct --output-dir /tmp/Llama-3.2-3B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>

llama3_2.llama3_2_1b

用于创建使用默认 1b 参数值初始化的 Llama3.2 模型的构建器。

llama3_2.llama3_2_3b

用于创建使用默认 3b 参数值初始化的 Llama3.2 模型的构建器。

llama3_2.lora_llama3_2_1b

用于创建启用 LoRA 的 Llama3.2 1B 模型的构建器。

llama3_2.lora_llama3_2_3b

用于创建启用 LoRA 的 Llama3.2 3B 模型的构建器。

llama3_2.qlora_llama3_2_1b

用于创建启用 QLoRA 的 Llama3.2 1B 模型的构建器。

llama3_2.qlora_llama3_2_3b

用于创建启用 QLoRA 的 Llama3.2 3B 模型的构建器。

注意

Llama3.2 分词器重用了 llama3_tokenizer 类。

llama3.2 Vision

来自 Llama3 系列 3.2 版本的视觉-语言模型。

重要提示:在下载之前,您需要在 Hugging Face 上请求访问权限。

下载 Llama-3.2-11B-Instruct 模型

tune download meta-llama/Llama-3.2-11B-Vision-Instruct --output-dir /tmp/Llama-3.2-11B-Vision-Instruct --hf-token <HF_TOKEN>

llama3_2_vision.llama3_2_vision_11b

Llama 3.2 Vision 11B 模型

llama3_2_vision.llama3_2_vision_transform

Llama3 Vision 的数据转换(包括分词器)。

llama3_2_vision.lora_llama3_2_vision_11b

返回应用了 LoRA 的 Llama3.2 vision 版本(DeepFusionModel() 的实例),基于传入的配置。

llama3_2_vision.qlora_llama3_2_vision_11b

用于创建启用 QLoRA 的 Llama3.2 vision 11B 模型的构建器。

llama3_2_vision.llama3_2_vision_decoder

构建与 Llama3 模型关联的解码器,其中包含额外的融合交叉注意力层。

llama3_2_vision.llama3_2_vision_encoder

通过将 CLIP 图像模型与额外的投影头融合模块相结合,构建 Llama 3.2 vision 编码器。

llama3_2_vision.lora_llama3_2_vision_decoder

构建与 Llama3 模型关联的解码器,其中包含额外的融合交叉注意力层。

llama3_2_vision.lora_llama3_2_vision_encoder

通过将 CLIP 图像模型与额外的投影头融合模块相结合,构建 Llama 3.2 vision 编码器。

llama3_2_vision.Llama3VisionEncoder

Llama 3.2 Vision 的视觉编码器模型。

llama3_2_vision.Llama3VisionProjectionHead

投影转换器,用于调整预训练冻结编码器 (CLIP) 的输出以适应预训练解码器模型。

llama3_2_vision.Llama3VisionTransform

此转换结合了 Llama 3.2 Vision 不同模态的转换。

注意

Llama3.2 分词器重用了 llama3_tokenizer 类。

llama3 & llama3.1

来自 Llama3 系列 的模型 3 和 3.1。

重要提示:在下载之前,您需要在 Hugging Face 上请求访问权限。

下载 Llama3.1-8B-Instruct 模型

tune download meta-llama/Meta-Llama-3.1-8B-Instruct --output-dir /tmp/Meta-Llama-3.1-8B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>

下载 Llama3.1-70B-Instruct 模型

tune download meta-llama/Meta-Llama-3.1-70B-Instruct --output-dir /tmp/Meta-Llama-3.1-70B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>

下载 Llama3.1-405B-Instruct 模型

tune download meta-llama/Meta-Llama-3.1-405B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>

要下载上述模型的 Llama3 权重,您可以从 Meta-Llama-3-8B-InstructMeta-Llama-3-70B-Instruct 下载,并删除忽略模式标志。

llama3.llama3

构建与 Llama3 模型关联的解码器。

llama3.lora_llama3

返回应用了 LoRA 的 Llama3 版本(TransformerDecoder() 的实例),基于传入的配置。

llama3.llama3_8b

用于创建使用默认 8b 参数值初始化的 Llama3 模型的构建器。

llama3.lora_llama3_8b

用于创建启用 LoRA 的 Llama3 8B 模型的构建器。

llama3.qlora_llama3_8b

用于创建启用 QLoRA 的 Llama3 8B 模型的构建器。

llama3.llama3_70b

用于创建使用默认 70B 参数值初始化的 Llama3 模型的构建器。

llama3.lora_llama3_70b

用于创建启用 LoRA 的 Llama3 70B 模型的构建器。

llama3.qlora_llama3_70b

用于创建启用 QLoRA 的 Llama3 70B 模型的构建器。

llama3.llama3_tokenizer

Llama3 的分词器。

llama3_1.llama3_1

构建与 Llama3.1 模型关联的解码器。

llama3_1.lora_llama3_1

返回应用了 LoRA 的 Llama3.1 版本(TransformerDecoder() 的实例),基于传入的配置。

llama3_1.llama3_1_8b

用于创建使用默认 8b 参数值初始化的 Llama3.1 模型的构建器。

llama3_1.lora_llama3_1_8b

用于创建启用 LoRA 的 Llama3.1 8B 模型的构建器。

llama3_1.qlora_llama3_1_8b

用于创建启用 QLoRA 的 Llama3.1 8B 模型的构建器。

llama3_1.llama3_1_70b

用于创建使用默认 70B 参数值初始化的 Llama3.3 模型的构建器。

llama3_1.lora_llama3_1_70b

用于创建启用 LoRA 的 Llama3.3 70B 模型的构建器。

llama3_1.qlora_llama3_1_70b

用于创建启用 QLoRA 的 Llama3.3 70B 模型的构建器。

llama3_1.llama3_1_405b

用于创建使用默认 405B 参数值初始化的 Llama3.1 模型的构建器。

llama3_1.lora_llama3_1_405b

用于创建启用 LoRA 的 Llama3.1 405B 模型的构建器。

llama3_1.qlora_llama3_1_405b

用于创建启用 QLoRA 的 Llama3.1 405B 模型的构建器。

注意

Llama3.1 分词器重用了 llama3.llama3_tokenizer 构建器类。

llama2

来自 Llama2 系列 的所有模型。

重要提示:在下载之前,您需要在 Hugging Face 上请求访问权限。

下载 Llama2-7B 模型

tune download meta-llama/Llama-2-7b-hf --output-dir /tmp/Llama-2-7b-hf --hf-token <HF_TOKEN>

下载 Llama2-13B 模型

tune download meta-llama/Llama-2-13b-hf --output-dir /tmp/Llama-2-13b-hf --hf-token <HF_TOKEN>

下载 Llama2-70B 模型

tune download meta-llama/Llama-2-70b-hf --output-dir /tmp/Llama-2-70b-hf --hf-token <HF_TOKEN>

llama2.llama2

构建与 Llama2 模型关联的解码器。

llama2.lora_llama2

返回应用了 LoRA 的 Llama2 版本(TransformerDecoder() 的实例),基于传入的配置。

llama2.llama2_7b

用于创建使用来自 https://arxiv.org/abs/2307.09288 的默认 7B 参数值初始化的 Llama2 模型的构建器

llama2.lora_llama2_7b

用于创建启用 LoRA 的 Llama2 7B 模型的构建器。

llama2.qlora_llama2_7b

用于创建启用 QLoRA 的 Llama2 7B 模型的构建器。

llama2.llama2_13b

用于创建使用来自 https://arxiv.org/abs/2307.09288 的默认 13B 参数值初始化的 Llama2 模型的构建器

llama2.lora_llama2_13b

用于创建启用 LoRA 的 Llama2 13B 模型的构建器。

llama2.qlora_llama2_13b

用于创建启用 QLoRA 的 Llama2 13B 模型的构建器。

llama2.llama2_70b

用于创建使用来自 https://arxiv.org/abs/2307.09288 的默认 70B 参数值初始化的 Llama2 模型的构建器

llama2.lora_llama2_70b

用于创建启用 LoRA 的 Llama2 70B 模型的构建器。

llama2.qlora_llama2_70b

用于创建启用 QLoRA 的 Llama2 70B 模型的构建器。

llama2.llama2_tokenizer

Llama2 的分词器。

llama2.llama2_reward_7b

用于创建使用来自 https://arxiv.org/abs/2307.09288 的默认 7B 参数值初始化的 Llama2 模型的构建器,其中输出层是一个分类层,投影到单个类别以进行奖励建模。

llama2.lora_llama2_reward_7b

用于创建启用 LoRA 的 Llama2 7B 奖励模型的构建器。

llama2.qlora_llama2_reward_7b

用于创建启用 QLoRA 的 Llama2 奖励 7b 模型的构建器。

llama2.Llama2ChatTemplate

提示模板,用于格式化人类和系统提示的聊天数据,并带有 Llama2 预训练中使用的适当标签。

code llama

来自 Code Llama 系列 的模型。

重要提示:在下载之前,您需要在 Hugging Face 上请求访问权限。

下载 CodeLlama-7B 模型

tune download meta-llama/CodeLlama-7b-hf --output-dir /tmp/CodeLlama-7b-hf --hf-token <HF_TOKEN>

code_llama2.code_llama2_7b

用于创建使用来自 https://arxiv.org/pdf/2308.12950.pdf 的默认 7B 参数值初始化的 Code-Llama2 模型的构建器

code_llama2.lora_code_llama2_7b

用于创建启用 LoRA 的 Code-Llama2 7B 模型的构建器。

code_llama2.qlora_code_llama2_7b

用于创建启用 QLoRA 的 Code-Llama2 7B 模型的构建器。

code_llama2.code_llama2_13b

用于创建使用来自 https://arxiv.org/pdf/2308.12950.pdf 的默认 13B 参数值初始化的 Code-Llama2 模型的构建器

code_llama2.lora_code_llama2_13b

用于创建启用 LoRA 的 Code-Llama2 13B 模型的构建器。

code_llama2.qlora_code_llama2_13b

用于创建启用 QLoRA 的 Code-Llama2 13B 模型的构建器。

code_llama2.code_llama2_70b

用于创建使用来自 https://arxiv.org/pdf/2308.12950.pdf 的默认 70B 参数值初始化的 Code-Llama2 模型的构建器

code_llama2.lora_code_llama2_70b

用于创建启用 LoRA 的 Code-Llama2 70B 模型的构建器。

code_llama2.qlora_code_llama2_70b

用于创建启用 QLoRA 的 Code-Llama2 70B 模型的构建器。

qwen-2.5

来自 Qwen2.5 系列 的 0.5B、1.5B、3B、7B、14B、32B、72B 大小的模型。

例如,下载 Qwen2.5 1.5B 模型

tune download Qwen/Qwen2.5-1.5B-Instruct --output-dir /tmp/Qwen2_5-1_5B-Instruct

qwen2_5.qwen2_5_0_5b

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2.5-0.5B-Instruct 的默认 0.5B 参数值初始化的 Qwen2.5 模型(基础模型或 instruct 模型)的构建器

qwen2_5.lora_qwen2_5_0_5b

用于创建启用 LoRA 的 Qwen2.5 0.5B 模型(基础模型或 instruct 模型)的构建器。

qwen2_5.qwen2_5_1_5b_base

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2.5-1.5B 的默认 1.5B 参数值初始化的 Qwen2.5 基础模型的构建器

qwen2_5.qwen2_5_1_5b_instruct

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2.5-1.5B-Instruct 的默认 1.5B 参数值初始化的 Qwen2.5 instruct 模型的构建器

qwen2_5.lora_qwen2_5_1_5b_base

用于创建启用 LoRA 的 Qwen2.5 1.5B 基础模型的构建器。

qwen2_5.lora_qwen2_5_1_5b_instruct

用于创建启用 LoRA 的 Qwen2.5 1.5B instruct 模型的构建器。

qwen2_5.qwen2_5_3b

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2.5-3B-Instruct 的默认 3B 参数值初始化的 Qwen2.5 模型(基础模型或 instruct 模型)的构建器

qwen2_5.lora_qwen2_5_3b

用于创建启用 LoRA 的 Qwen2.5 3B 模型(基础模型或 instruct 模型)的构建器。

qwen2_5.qwen2_5_7b_base

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2.5-7B 的默认 7B 参数值初始化的 Qwen2.5 基础模型的构建器

qwen2_5.qwen2_5_7b_instruct

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2.5-7B-Instruct 的默认 7B 参数值初始化的 Qwen2.5 instruct 模型的构建器

qwen2_5.lora_qwen2_5_7b_base

用于创建启用 LoRA 的 Qwen2.5 7B 基础模型的构建器。

qwen2_5.lora_qwen2_5_7b_instruct

用于创建启用 LoRA 的 Qwen2.5 7B instruct 模型的构建器。

qwen2_5.qwen2_5_14b_base

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2.5-14B 的默认 14B 参数值初始化的 Qwen2.5 基础模型的构建器

qwen2_5.qwen2_5_14b_instruct

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2.5-14B-Instruct 的默认 14B 参数值初始化的 Qwen2.5 instruct 模型的构建器

qwen2_5.lora_qwen2_5_14b_base

用于创建启用 LoRA 的 Qwen2.5 14B 基础模型的构建器。

qwen2_5.lora_qwen2_5_14b_instruct

用于创建启用 LoRA 的 Qwen2.5 14B instruct 模型的构建器。

qwen2_5.qwen2_5_32b_base

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2.5-32B 的默认 32B 参数值初始化的 Qwen2.5 基础模型的构建器

qwen2_5.qwen2_5_32b_instruct

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2.5-32B-Instruct 的默认 32B 参数值初始化的 Qwen2.5 instruct 模型的构建器

qwen2_5.lora_qwen2_5_32b_base

用于创建启用 LoRA 的 Qwen2.5 32B 基础模型的构建器。

qwen2_5.lora_qwen2_5_32b_instruct

用于创建启用 LoRA 的 Qwen2.5 32B instruct 模型的构建器。

qwen2_5.qwen2_5_72b_base

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2.5-72B 的默认 72B 参数值初始化的 Qwen2.5 基础模型的构建器

qwen2_5.qwen2_5_72b_instruct

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2.5-72B-Instruct 的默认 72B 参数值初始化的 Qwen2.5 instruct 模型的构建器

qwen2_5.lora_qwen2_5_72b_base

用于创建启用 LoRA 的 Qwen2.5 72B 基础模型的构建器。

qwen2_5.lora_qwen2_5_72b_instruct

用于创建启用 LoRA 的 Qwen2.5 72B instruct 模型的构建器。

qwen2_5.qwen2_5_tokenizer

Qwen2.5 的分词器。

qwen-2

来自 Qwen2 系列 的 0.5B、1.5B 和 7B 大小的模型。

例如,下载 Qwen2 1.5B 模型

tune download Qwen/Qwen2-1.5B-Instruct --output-dir /tmp/Qwen2-1.5B-Instruct

qwen2.qwen2

构建与 Qwen2 模型关联的解码器。

qwen2.lora_qwen2

返回应用了 LoRA 的 Qwen2 版本(Qwen2TransformerDecoder() 的实例),基于传入的配置。

qwen2.qwen2_0_5b

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2-0.5B-Instruct 的默认 0.5B 参数值初始化的 Qwen2 模型的构建器

qwen2.lora_qwen2_0_5b

用于创建启用 LoRA 的 Qwen2 0.5B 模型的构建器。

qwen2.qwen2_1_5b

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2-1.5B-Instruct 的默认 1.5B 参数值初始化的 Qwen2 模型的构建器

qwen2.lora_qwen2_1_5b

用于创建启用 LoRA 的 Qwen2 1.5B 模型的构建器。

qwen2.qwen2_7b

用于创建使用来自 https://hugging-face.cn/Qwen/Qwen2-7B-Instruct 的默认 7B 参数值初始化的 Qwen2 模型的构建器

qwen2.lora_qwen2_7b

用于创建启用 LoRA 的 Qwen2 7B 模型的构建器。

qwen2.qwen2_tokenizer

Qwen2 的分词器。

phi-3

来自 Phi-3 mini 系列 的模型。

下载 Phi-3 Mini 4k instruct 模型

tune download microsoft/Phi-3-mini-4k-instruct --output-dir /tmp/Phi-3-mini-4k-instruct --hf-token <HF_TOKEN>

phi3.phi3

param vocab_size:

词汇表中的 token 数量。

phi3.lora_phi3

返回应用了 LoRA 的 Phi3 版本(TransformerDecoder() 的实例),基于传入的配置。

phi3.phi3_mini

用于创建 Phi3 Mini 4K Instruct 模型的构建器。

phi3.lora_phi3_mini

用于创建启用 LoRA 的 Phi3 Mini (3.8b) 模型的构建器。

phi3.qlora_phi3_mini

用于创建启用 QLoRA 的 Phi3 mini 模型的构建器。

phi3.phi3_mini_tokenizer

Phi-3 Mini 分词器。

mistral

来自 Mistral AI 系列 的所有模型。

重要提示:您需要在 Hugging Face 上请求访问权限才能下载此模型。

下载 Mistral 7B v0.1 模型

tune download mistralai/Mistral-7B-v0.1 --output-dir /tmp/Mistral-7B-v0.1 --ignore-patterns "*.safetensors" --hf-token <HF_TOKEN>

mistral.mistral

构建与 mistral 模型关联的解码器。

mistral.lora_mistral

返回应用了 LoRA 的 Mistral 版本(TransformerDecoder() 的实例),基于传入的配置。

mistral.mistral_classifier

构建带有添加的分类层的基本 mistral 模型。

mistral.lora_mistral_classifier

返回 Mistral 分类器的版本(TransformerDecoder() 的实例),其中 LoRA 应用于其自注意力模块中的某些线性层。

mistral.mistral_7b

用于创建使用来自 https://mistral.ai/news/announcing-mistral-7b/ 的默认 7b 参数值初始化的 Mistral 7B 模型的构建器

mistral.lora_mistral_7b

用于创建启用 LoRA 的 Mistral 7B 模型的构建器。

mistral.qlora_mistral_7b

用于创建启用 QLoRA 的 Mistral 模型的构建器。

mistral.mistral_reward_7b

用于创建使用来自:https://hugging-face.cn/Ray2333/reward-model-Mistral-7B-instruct-Unified-Feedback 的默认 7b 参数值初始化的 Mistral 7B 模型的构建器,其中输出层是一个分类层,投影到单个类别以进行奖励建模。

mistral.lora_mistral_reward_7b

用于创建启用 LoRA 的 Mistral 奖励 7B 模型的构建器。

mistral.qlora_mistral_reward_7b

用于创建启用 QLoRA 的 Mistral 奖励 7B 模型的构建器。

mistral.mistral_tokenizer

Mistral 模型的的分词器。

mistral.MistralChatTemplate

根据 Mistral 的 instruct 模型 进行格式化。

gemma

来自 Gemma 系列 的 2B 和 7B 大小的模型。

重要提示:您需要在 Hugging Face 上请求访问权限才能使用此模型。

下载 Gemma 2B 模型(非 Gemma2)

tune download google/gemma-2b --ignore-patterns "gemma-2b.gguf"  --hf-token <HF_TOKEN>

下载 Gemma 7B 模型

tune download google/gemma-7b --ignore-patterns "gemma-7b.gguf"  --hf-token <HF_TOKEN>

gemma.gemma

构建与 gemma 模型关联的解码器。

gemma.lora_gemma

返回应用了 LoRA 的 Gemma 版本,基于传入的配置。

gemma.gemma_2b

用于创建使用来自:https://blog.google/technology/developers/gemma-open-models/ 的默认 2b 参数值初始化的 Gemma 2B 模型的构建器

gemma.lora_gemma_2b

用于创建启用 LoRA 的 Gemma 2B 模型的构建器。

gemma.qlora_gemma_2b

用于创建启用 QLoRA 的 Gemma 模型的构建器。

gemma.gemma_7b

用于创建使用来自:https://blog.google/technology/developers/gemma-open-models/ 的默认 7b 参数值初始化的 Gemma 7B 模型的构建器

gemma.lora_gemma_7b

用于创建启用 LoRA 的 Gemma 7B 模型的构建器。

gemma.qlora_gemma_7b

用于创建启用 QLoRA 的 Gemma 模型的构建器。

gemma.gemma_tokenizer

Gemma 的分词器。

gemma2 :

来自 Gemma 系列 的 2B、9B、27B 大小的模型。

重要提示:您需要在 Hugging Face 上请求访问权限才能使用此模型。

下载 Gemma2 2B、9B、27B 模型

tune download google/gemma-2-<MODEL_SIZE>b --ignore-patterns "gemma-2-<MODEL_SIZE>b.gguf"  --hf-token <HF_TOKEN>

gemma2.gemma2

构建与 gemma2 模型关联的解码器。

gemma2.lora_gemma2

返回应用了 LoRA 的 Gemma 版本,基于传入的配置。

gemma2.gemma2_2b

用于创建使用来自:https://github.com/google/gemma_pytorch/blob/main/gemma/config.py 的默认 2b 参数值初始化的 Gemma2 2B 模型的构建器

gemma2.lora_gemma2_2b

用于创建启用 LoRA 的 Gemma2 2B 模型的构建器。

gemma2.qlora_gemma2_2b

用于创建启用 QLoRA 的 Gemma2 模型的构建器。

gemma2.gemma2_9b

用于创建使用来自:https://github.com/google/gemma_pytorch/blob/main/gemma/config.py 的默认 9b 参数值初始化的 Gemma2 9B 模型的构建器

gemma2.lora_gemma2_9b

用于创建启用 LoRA 的 Gemma 9B 模型的构建器。

gemma2.qlora_gemma2_9b

用于创建启用 QLoRA 的 Gemma 模型的构建器。

gemma2.gemma2_27b

用于创建使用来自:https://github.com/google/gemma_pytorch/blob/main/gemma/config.py 的默认 27b 参数值初始化的 Gemma2 27B 模型的构建器

gemma2.lora_gemma2_27b

用于创建启用 LoRA 的 Gemma2 27B 模型的构建器。

gemma2.qlora_gemma2_27b

用于创建启用 QLoRA 的 Gemma 模型的构建器。

gemma.gemma_tokenizer

Gemma 的分词器。

clip

使用 CLIP 编码器 支持多模态的视觉组件。

clip.clip_vision_encoder

构建与 clip 模型关联的视觉编码器。

clip.TokenPositionalEmbedding

图像的 Token 位置嵌入,每个图像中的 token 都不同。

clip.TiledTokenPositionalEmbedding

平铺图像的 Token 位置嵌入,每个平铺都不同,每个 token 都不同。

clip.TilePositionalEmbedding

平铺的位置嵌入,每个平铺都不同,平铺内的每个 token 都相同。

文档

访问全面的 PyTorch 开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源