快捷方式

torchtune.models

llama3.2

来自 Llama3 系列 3.2 版本的纯文本模型。

重要提示:您需要在 Hugging Face 上请求访问权限才能下载它。

下载 Llama-3.2-1B-Instruct 模型

tune download meta-llama/Llama-3.2-1B-Instruct --output-dir /tmp/Llama-3.2-1B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>

下载 Llama-3.2-3B-Instruct 模型

tune download meta-llama/Llama-3.2-3B-Instruct --output-dir /tmp/Llama-3.2-3B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>

llama3_2.llama3_2_1b

用于创建使用默认 1b 参数值初始化的 Llama3.2 模型的构建器。

llama3_2.llama3_2_3b

用于创建使用默认 3b 参数值初始化的 Llama3.2 模型的构建器。

llama3_2.lora_llama3_2_1b

用于创建启用了 LoRA 的 Llama3.2 1B 模型的构建器。

llama3_2.lora_llama3_2_3b

用于创建启用了 LoRA 的 Llama3.2 3B 模型的构建器。

llama3_2.qlora_llama3_2_1b

用于创建启用了 QLoRA 的 Llama3.2 1B 模型的构建器。

llama3_2.qlora_llama3_2_3b

用于创建启用了 QLoRA 的 Llama3.2 3B 模型的构建器。

注意

Llama3.2 分词器重用 llama3_tokenizer 类。

llama3.2 视觉

来自 Llama3 系列 3.2 版本的视觉语言模型。

重要提示:您需要在 Hugging Face 上请求访问权限才能下载它。

下载 Llama-3.2-11B-Instruct 模型

tune download meta-llama/Llama-3.2-11B-Vision-Instruct --output-dir /tmp/Llama-3.2-11B-Vision-Instruct --hf-token <HF_TOKEN>

llama3_2_vision.llama3_2_vision_11b

Llama 3.2 视觉 11B 模型

llama3_2_vision.llama3_2_vision_transform

Llama3 视觉的数据转换(包括分词器)。

llama3_2_vision.lora_llama3_2_vision_11b

返回 Llama3.2 视觉(DeepFusionModel() 的实例)的一个版本,其中应用了基于传入配置的 LoRA。

llama3_2_vision.qlora_llama3_2_vision_11b

用于创建启用了 QLoRA 的 Llama3.2 视觉 11B 模型的构建器。

llama3_2_vision.llama3_2_vision_decoder

构建与 Llama3 模型关联的解码器,并添加融合的交叉注意力层。

llama3_2_vision.llama3_2_vision_encoder

通过将 CLIP 图像模型与附加的投影头融合模块相结合来构建 Llama 3.2 视觉编码器。

llama3_2_vision.lora_llama3_2_vision_decoder

构建与 Llama3 模型关联的解码器,并添加融合的交叉注意力层。

llama3_2_vision.lora_llama3_2_vision_encoder

通过将 CLIP 图像模型与附加的投影头融合模块相结合来构建 Llama 3.2 视觉编码器。

llama3_2_vision.Llama3VisionEncoder

Llama 3.2 视觉的视觉编码器模型。

llama3_2_vision.Llama3VisionProjectionHead

投影转换器,用于将预训练的冻结编码器 (CLIP) 的输出适配到预训练的解码器模型。

llama3_2_vision.Llama3VisionTransform

此转换组合了 Llama 3.2 视觉的不同模态的转换。

注意

Llama3.2 分词器重用 llama3_tokenizer 类。

llama3 和 llama3.1

来自 Llama3 系列 的 3 和 3.1 模型。

重要提示:您需要在 Hugging Face 上请求访问权限才能下载它。

下载 Llama3.1-8B-Instruct 模型

tune download meta-llama/Meta-Llama-3.1-8B-Instruct --output-dir /tmp/Meta-Llama-3.1-8B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>

下载 Llama3.1-70B-Instruct 模型

tune download meta-llama/Meta-Llama-3.1-70B-Instruct --output-dir /tmp/Meta-Llama-3.1-70B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>

下载 Llama3.1-405B-Instruct 模型

tune download meta-llama/Meta-Llama-3.1-405B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>

要下载上述模型的 Llama3 权重,您可以改为从 Meta-Llama-3-8B-InstructMeta-Llama-3-70B-Instruct 下载。

llama3.llama3

构建与 Llama3 模型关联的解码器。

llama3.lora_llama3

返回 Llama3(TransformerDecoder() 的实例)的一个版本,其中应用了基于传入配置的 LoRA。

llama3.llama3_8b

用于创建使用默认 8b 参数值初始化的 Llama3 模型的构建器。

llama3.lora_llama3_8b

用于创建启用了 LoRA 的 Llama3 8B 模型的构建器。

llama3.qlora_llama3_8b

用于创建启用了 QLoRA 的 Llama3 8B 模型的构建器。

llama3.llama3_70b

用于创建使用默认 70B 参数值初始化的 Llama3 模型的构建器。

llama3.lora_llama3_70b

用于创建启用了 LoRA 的 Llama3 70B 模型的构建器。

llama3.qlora_llama3_70b

用于创建启用了 QLoRA 的 Llama3 70B 模型的构建器。

llama3.llama3_tokenizer

Llama3 的分词器。

llama3_1.llama3_1

构建与 Llama3.1 模型关联的解码器。

llama3_1.lora_llama3_1

返回 Llama3.1(TransformerDecoder() 的实例)的一个版本,其中应用了基于传入配置的 LoRA。

llama3_1.llama3_1_8b

用于创建使用默认 8b 参数值初始化的 Llama3.1 模型的构建器。

llama3_1.lora_llama3_1_8b

用于创建启用了 LoRA 的 Llama3.1 8B 模型的构建器。

llama3_1.qlora_llama3_1_8b

用于创建启用了 QLoRA 的 Llama3.1 8B 模型的构建器。

llama3_1.llama3_1_70b

用于创建使用默认 70B 参数值初始化的 Llama3.1 模型的构建器。

llama3_1.lora_llama3_1_70b

用于创建启用了 LoRA 的 Llama3.1 70B 模型的构建器。

llama3_1.qlora_llama3_1_70b

用于创建启用了 QLoRA 的 Llama3.1 70B 模型的构建器。

llama3_1.llama3_1_405b

用于创建使用默认 405B 参数值初始化的 Llama3.1 模型的构建器。

llama3_1.lora_llama3_1_405b

用于创建启用了 LoRA 的 Llama3.1 405B 模型的构建器。

llama3_1.qlora_llama3_1_405b

用于创建启用了 QLoRA 的 Llama3.1 405B 模型的构建器。

注意

Llama3.1 分词器重用 llama3.llama3_tokenizer 构建器类。

llama2

来自 Llama2 系列 的所有模型。

重要提示:您需要在 Hugging Face 上请求访问权限才能下载它。

下载 Llama2-7B 模型

tune download meta-llama/Llama-2-7b-hf --output-dir /tmp/Llama-2-7b-hf --hf-token <HF_TOKEN>

下载 Llama2-13B 模型

tune download meta-llama/Llama-2-13b-hf --output-dir /tmp/Llama-2-13b-hf --hf-token <HF_TOKEN>

下载 Llama2-70B 模型

tune download meta-llama/Llama-2-70b-hf --output-dir /tmp/Llama-2-70b-hf --hf-token <HF_TOKEN>

llama2.llama2

构建与 Llama2 模型关联的解码器。

llama2.lora_llama2

根据传入的配置,返回一个应用了 LoRA 的 Llama2 版本(TransformerDecoder() 的实例)。

llama2.llama2_7b

用于创建 Llama2 模型的构建器,该模型使用来自 https://arxiv.org/abs/2307.09288 的默认 7B 参数值进行初始化。

llama2.lora_llama2_7b

用于创建启用 LoRA 的 Llama2 7B 模型的构建器。

llama2.qlora_llama2_7b

用于创建启用 QLoRA 的 Llama2 7B 模型的构建器。

llama2.llama2_13b

用于创建 Llama2 模型的构建器,该模型使用来自 https://arxiv.org/abs/2307.09288 的默认 13B 参数值进行初始化。

llama2.lora_llama2_13b

用于创建启用 LoRA 的 Llama2 13B 模型的构建器。

llama2.qlora_llama2_13b

用于创建启用 QLoRA 的 Llama2 13B 模型的构建器。

llama2.llama2_70b

用于创建 Llama2 模型的构建器,该模型使用来自 https://arxiv.org/abs/2307.09288 的默认 70B 参数值进行初始化。

llama2.lora_llama2_70b

用于创建启用 LoRA 的 Llama2 70B 模型的构建器。

llama2.qlora_llama2_70b

用于创建启用 QLoRA 的 Llama2 70B 模型的构建器。

llama2.llama2_tokenizer

Llama2 的分词器。

llama2.llama2_reward_7b

用于创建 Llama2 模型的构建器,该模型使用来自 https://arxiv.org/abs/2307.09288 的默认 7B 参数值进行初始化,其中输出层是一个分类层,投影到单个类别用于奖励建模。

llama2.lora_llama2_reward_7b

用于创建启用 LoRA 的 Llama2 7B 奖励模型的构建器。

llama2.qlora_llama2_reward_7b

用于创建启用 QLoRA 的 Llama2 7B 奖励模型的构建器。

llama2.Llama2ChatTemplate

提示模板,使用 Llama2 预训练中使用的适当标签格式化人和系统提示的聊天数据。

code llama

来自 Code Llama 系列 的模型。

重要提示:在下载之前,您需要在 Hugging Face 上请求访问权限。

下载 CodeLlama-7B 模型

tune download meta-llama/CodeLlama-7b-hf --output-dir /tmp/CodeLlama-7b-hf --hf-token <HF_TOKEN>

code_llama2.code_llama2_7b

用于创建 Code-Llama2 模型的构建器,该模型使用来自 https://arxiv.org/pdf/2308.12950.pdf 的默认 7B 参数值进行初始化。

code_llama2.lora_code_llama2_7b

用于创建启用 LoRA 的 Code-Llama2 7B 模型的构建器。

code_llama2.qlora_code_llama2_7b

用于创建启用 QLoRA 的 Code-Llama2 7B 模型的构建器。

code_llama2.code_llama2_13b

用于创建 Code-Llama2 模型的构建器,该模型使用来自 https://arxiv.org/pdf/2308.12950.pdf 的默认 13B 参数值进行初始化。

code_llama2.lora_code_llama2_13b

用于创建启用 LoRA 的 Code-Llama2 13B 模型的构建器。

code_llama2.qlora_code_llama2_13b

用于创建启用 QLoRA 的 Code-Llama2 13B 模型的构建器。

code_llama2.code_llama2_70b

用于创建 Code-Llama2 模型的构建器,该模型使用来自 https://arxiv.org/pdf/2308.12950.pdf 的默认 70B 参数值进行初始化。

code_llama2.lora_code_llama2_70b

用于创建启用 LoRA 的 Code-Llama2 70B 模型的构建器。

code_llama2.qlora_code_llama2_70b

用于创建启用 QLoRA 的 Code-Llama2 70B 模型的构建器。

qwen-2

来自 Qwen2 系列 的 0.5B、1.5B 和 7B 大小的模型。

例如,下载 Qwen2 1.5B 模型

tune download Qwen/Qwen2-1.5B-Instruct --output-dir /tmp/Qwen2-1.5B-Instruct --ignore-patterns None

qwen2.qwen2

构建与 Qwen2 模型关联的解码器。

qwen2.lora_qwen2

根据传入的配置,返回一个应用了 LoRA 的 Qwen2 版本(Qwen2TransformerDecoder() 的实例)。

qwen2.qwen2_7b

用于创建 Qwen2 模型的构建器,该模型使用来自 https://hugging-face.cn/Qwen/Qwen2-7B-Instruct 的默认 7B 参数值进行初始化。

qwen2.qwen2_0_5b

用于创建 Qwen2 模型的构建器,该模型使用来自 https://hugging-face.cn/Qwen/Qwen2-0.5B-Instruct 的默认 0.5B 参数值进行初始化。

qwen2.qwen2_1_5b

用于创建 Qwen2 模型的构建器,该模型使用来自 https://hugging-face.cn/Qwen/Qwen2-1.5B-Instruct 的默认 1.5B 参数值进行初始化。

qwen2.lora_qwen2_7b

用于创建启用 LoRA 的 Qwen2 7B 模型的构建器。

qwen2.lora_qwen2_0_5b

用于创建启用 LoRA 的 Qwen2 0.5B 模型的构建器。

qwen2.lora_qwen2_1_5b

用于创建启用 LoRA 的 Qwen2 1.5B 模型的构建器。

qwen2.qwen2_tokenizer

Qwen2 的分词器。

phi-3

来自 Phi-3 mini 系列 的模型。

下载 Phi-3 Mini 4k 指令模型

tune download microsoft/Phi-3-mini-4k-instruct --output-dir /tmp/Phi-3-mini-4k-instruct --ignore-patterns None --hf-token <HF_TOKEN>

phi3.phi3

param vocab_size:

词汇表中的标记数量。

phi3.lora_phi3

根据传入的配置,返回一个应用了 LoRA 的 Phi3 版本(TransformerDecoder() 的实例)。

phi3.phi3_mini

用于创建 Phi3 Mini 4K 指令模型的构建器。

phi3.lora_phi3_mini

用于创建启用 LoRA 的 Phi3 Mini (3.8b) 模型的构建器。

phi3.qlora_phi3_mini

用于创建启用 QLoRA 的 Phi3 mini 模型的构建器。

phi3.phi3_mini_tokenizer

Phi-3 Mini 分词器。

mistral

来自 Mistral AI 系列 的所有模型。

重要提示:您需要在 Hugging Face 上请求访问权限才能下载此模型。

下载 Mistral 7B v0.1 模型

tune download mistralai/Mistral-7B-v0.1 --output-dir /tmp/Mistral-7B-v0.1 --hf-token <HF_TOKEN>

mistral.mistral

构建与 mistral 模型关联的解码器。

mistral.lora_mistral

根据传入的配置,返回一个应用了 LoRA 的 Mistral 版本(TransformerDecoder() 的实例)。

mistral.mistral_classifier

构建一个带有附加分类层的 Mistral 基础模型。

mistral.lora_mistral_classifier

根据传入的配置,返回一个应用了 LoRA 的 Mistral 分类器版本(TransformerDecoder() 的实例),LoRA 应用于其自注意力模块中的一些线性层。

mistral.mistral_7b

用于创建 Mistral 7B 模型的构建器,该模型使用来自 https://mistral.ai/news/announcing-mistral-7b/ 的默认 7b 参数值进行初始化。

mistral.lora_mistral_7b

用于创建启用 LoRA 的 Mistral 7B 模型的构建器。

mistral.qlora_mistral_7b

用于创建启用 QLoRA 的 Mistral 模型的构建器。

mistral.mistral_reward_7b

用于创建 Mistral 7B 模型的构建器,该模型使用来自 https://hugging-face.cn/Ray2333/reward-model-Mistral-7B-instruct-Unified-Feedback 的默认 7b 参数值进行初始化,其中输出层是一个分类层,投影到单个类别用于奖励建模。

mistral.lora_mistral_reward_7b

用于创建启用 LoRA 的 Mistral 奖励 7B 模型的构建器。

mistral.qlora_mistral_reward_7b

用于创建启用 QLoRA 的 Mistral 奖励 7B 模型的构建器。

mistral.mistral_tokenizer

Mistral 模型的分词器。

mistral.MistralChatTemplate

根据 Mistral 的 指令模型 进行格式化。

gemma

来自 Gemma 系列 的 2B 和 7B 大小的模型。

重要提示:您需要在 Hugging Face 上请求访问权限才能使用此模型。

下载 Gemma 2B 模型(不是 Gemma2)

tune download google/gemma-2b --ignore-patterns "gemma-2b.gguf"  --hf-token <HF_TOKEN>

下载 Gemma 7B 模型

tune download google/gemma-7b --ignore-patterns "gemma-7b.gguf"  --hf-token <HF_TOKEN>

gemma.gemma

构建与 gemma 模型关联的解码器。

gemma.lora_gemma

根据传入的配置,返回一个应用了 LoRA 的 Gemma 版本。

gemma.gemma_2b

用于创建 Gemma 2B 模型的构建器,该模型使用来自 https://blog.google/technology/developers/gemma-open-models/ 的默认 2b 参数值进行初始化。

gemma.lora_gemma_2b

用于创建启用 LoRA 的 Gemma 2B 模型的构建器。

gemma.qlora_gemma_2b

用于创建启用 QLoRA 的 Gemma 模型的构建器。

gemma.gemma_7b

用于创建 Gemma 7B 模型的构建器,该模型使用来自 https://blog.google/technology/developers/gemma-open-models/ 的默认 7b 参数值进行初始化。

gemma.lora_gemma_7b

用于创建启用 LoRA 的 Gemma 7B 模型的构建器。

gemma.qlora_gemma_7b

用于创建启用 QLoRA 的 Gemma 模型的构建器。

gemma.gemma_tokenizer

Gemma 的分词器。

clip

使用 CLIP 编码器 支持多模态的视觉组件。

clip.clip_vision_encoder

构建与 clip 模型关联的视觉编码器。

clip.TokenPositionalEmbedding

图像的标记位置嵌入,每个图像中的每个标记都不同。

clip.TiledTokenPositionalEmbedding

平铺图像的标记位置嵌入,每个平铺都不同,每个标记都不同。

clip.TilePositionalEmbedding

平铺的位置嵌入,每个平铺都不同,平铺内的每个标记都相同。

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取针对初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源