torchtune.models¶
llama3.2¶
来自 Llama3 系列 3.2 版本的纯文本模型。
重要提示:您需要在 Hugging Face 上请求访问权限才能下载它。
下载 Llama-3.2-1B-Instruct 模型
tune download meta-llama/Llama-3.2-1B-Instruct --output-dir /tmp/Llama-3.2-1B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>
下载 Llama-3.2-3B-Instruct 模型
tune download meta-llama/Llama-3.2-3B-Instruct --output-dir /tmp/Llama-3.2-3B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>
用于创建使用默认 1b 参数值初始化的 Llama3.2 模型的构建器。 |
|
用于创建使用默认 3b 参数值初始化的 Llama3.2 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3.2 1B 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3.2 3B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Llama3.2 1B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Llama3.2 3B 模型的构建器。 |
注意
Llama3.2 分词器重用 llama3_tokenizer
类。
llama3.2 视觉¶
来自 Llama3 系列 3.2 版本的视觉语言模型。
重要提示:您需要在 Hugging Face 上请求访问权限才能下载它。
下载 Llama-3.2-11B-Instruct 模型
tune download meta-llama/Llama-3.2-11B-Vision-Instruct --output-dir /tmp/Llama-3.2-11B-Vision-Instruct --hf-token <HF_TOKEN>
Llama 3.2 视觉 11B 模型 |
|
Llama3 视觉的数据转换(包括分词器)。 |
|
返回 Llama3.2 视觉( |
|
用于创建启用了 QLoRA 的 Llama3.2 视觉 11B 模型的构建器。 |
|
构建与 Llama3 模型关联的解码器,并添加融合的交叉注意力层。 |
|
通过将 CLIP 图像模型与附加的投影头融合模块相结合来构建 Llama 3.2 视觉编码器。 |
|
构建与 Llama3 模型关联的解码器,并添加融合的交叉注意力层。 |
|
通过将 CLIP 图像模型与附加的投影头融合模块相结合来构建 Llama 3.2 视觉编码器。 |
|
Llama 3.2 视觉的视觉编码器模型。 |
|
投影转换器,用于将预训练的冻结编码器 (CLIP) 的输出适配到预训练的解码器模型。 |
|
此转换组合了 Llama 3.2 视觉的不同模态的转换。 |
注意
Llama3.2 分词器重用 llama3_tokenizer
类。
llama3 和 llama3.1¶
来自 Llama3 系列 的 3 和 3.1 模型。
重要提示:您需要在 Hugging Face 上请求访问权限才能下载它。
下载 Llama3.1-8B-Instruct 模型
tune download meta-llama/Meta-Llama-3.1-8B-Instruct --output-dir /tmp/Meta-Llama-3.1-8B-Instruct --ignore-patterns "original/consolidated.00.pth" --hf-token <HF_TOKEN>
下载 Llama3.1-70B-Instruct 模型
tune download meta-llama/Meta-Llama-3.1-70B-Instruct --output-dir /tmp/Meta-Llama-3.1-70B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>
下载 Llama3.1-405B-Instruct 模型
tune download meta-llama/Meta-Llama-3.1-405B-Instruct --ignore-patterns "original/consolidated*" --hf-token <HF_TOKEN>
要下载上述模型的 Llama3 权重,您可以改为从 Meta-Llama-3-8B-Instruct 和 Meta-Llama-3-70B-Instruct 下载。
构建与 Llama3 模型关联的解码器。 |
|
返回 Llama3( |
|
用于创建使用默认 8b 参数值初始化的 Llama3 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3 8B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Llama3 8B 模型的构建器。 |
|
用于创建使用默认 70B 参数值初始化的 Llama3 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3 70B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Llama3 70B 模型的构建器。 |
|
Llama3 的分词器。 |
|
构建与 Llama3.1 模型关联的解码器。 |
|
返回 Llama3.1( |
|
用于创建使用默认 8b 参数值初始化的 Llama3.1 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3.1 8B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Llama3.1 8B 模型的构建器。 |
|
用于创建使用默认 70B 参数值初始化的 Llama3.1 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3.1 70B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Llama3.1 70B 模型的构建器。 |
|
用于创建使用默认 405B 参数值初始化的 Llama3.1 模型的构建器。 |
|
用于创建启用了 LoRA 的 Llama3.1 405B 模型的构建器。 |
|
用于创建启用了 QLoRA 的 Llama3.1 405B 模型的构建器。 |
注意
Llama3.1 分词器重用 llama3.llama3_tokenizer 构建器类。
llama2¶
来自 Llama2 系列 的所有模型。
重要提示:您需要在 Hugging Face 上请求访问权限才能下载它。
下载 Llama2-7B 模型
tune download meta-llama/Llama-2-7b-hf --output-dir /tmp/Llama-2-7b-hf --hf-token <HF_TOKEN>
下载 Llama2-13B 模型
tune download meta-llama/Llama-2-13b-hf --output-dir /tmp/Llama-2-13b-hf --hf-token <HF_TOKEN>
下载 Llama2-70B 模型
tune download meta-llama/Llama-2-70b-hf --output-dir /tmp/Llama-2-70b-hf --hf-token <HF_TOKEN>
构建与 Llama2 模型关联的解码器。 |
|
根据传入的配置,返回一个应用了 LoRA 的 Llama2 版本( |
|
用于创建 Llama2 模型的构建器,该模型使用来自 https://arxiv.org/abs/2307.09288 的默认 7B 参数值进行初始化。 |
|
用于创建启用 LoRA 的 Llama2 7B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama2 7B 模型的构建器。 |
|
用于创建 Llama2 模型的构建器,该模型使用来自 https://arxiv.org/abs/2307.09288 的默认 13B 参数值进行初始化。 |
|
用于创建启用 LoRA 的 Llama2 13B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama2 13B 模型的构建器。 |
|
用于创建 Llama2 模型的构建器,该模型使用来自 https://arxiv.org/abs/2307.09288 的默认 70B 参数值进行初始化。 |
|
用于创建启用 LoRA 的 Llama2 70B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama2 70B 模型的构建器。 |
|
Llama2 的分词器。 |
|
用于创建 Llama2 模型的构建器,该模型使用来自 https://arxiv.org/abs/2307.09288 的默认 7B 参数值进行初始化,其中输出层是一个分类层,投影到单个类别用于奖励建模。 |
|
用于创建启用 LoRA 的 Llama2 7B 奖励模型的构建器。 |
|
用于创建启用 QLoRA 的 Llama2 7B 奖励模型的构建器。 |
|
提示模板,使用 Llama2 预训练中使用的适当标签格式化人和系统提示的聊天数据。 |
code llama¶
来自 Code Llama 系列 的模型。
重要提示:在下载之前,您需要在 Hugging Face 上请求访问权限。
下载 CodeLlama-7B 模型
tune download meta-llama/CodeLlama-7b-hf --output-dir /tmp/CodeLlama-7b-hf --hf-token <HF_TOKEN>
用于创建 Code-Llama2 模型的构建器,该模型使用来自 https://arxiv.org/pdf/2308.12950.pdf 的默认 7B 参数值进行初始化。 |
|
用于创建启用 LoRA 的 Code-Llama2 7B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Code-Llama2 7B 模型的构建器。 |
|
用于创建 Code-Llama2 模型的构建器,该模型使用来自 https://arxiv.org/pdf/2308.12950.pdf 的默认 13B 参数值进行初始化。 |
|
用于创建启用 LoRA 的 Code-Llama2 13B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Code-Llama2 13B 模型的构建器。 |
|
用于创建 Code-Llama2 模型的构建器,该模型使用来自 https://arxiv.org/pdf/2308.12950.pdf 的默认 70B 参数值进行初始化。 |
|
用于创建启用 LoRA 的 Code-Llama2 70B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Code-Llama2 70B 模型的构建器。 |
qwen-2¶
来自 Qwen2 系列 的 0.5B、1.5B 和 7B 大小的模型。
例如,下载 Qwen2 1.5B 模型
tune download Qwen/Qwen2-1.5B-Instruct --output-dir /tmp/Qwen2-1.5B-Instruct --ignore-patterns None
构建与 Qwen2 模型关联的解码器。 |
|
根据传入的配置,返回一个应用了 LoRA 的 Qwen2 版本( |
|
用于创建 Qwen2 模型的构建器,该模型使用来自 https://hugging-face.cn/Qwen/Qwen2-7B-Instruct 的默认 7B 参数值进行初始化。 |
|
用于创建 Qwen2 模型的构建器,该模型使用来自 https://hugging-face.cn/Qwen/Qwen2-0.5B-Instruct 的默认 0.5B 参数值进行初始化。 |
|
用于创建 Qwen2 模型的构建器,该模型使用来自 https://hugging-face.cn/Qwen/Qwen2-1.5B-Instruct 的默认 1.5B 参数值进行初始化。 |
|
用于创建启用 LoRA 的 Qwen2 7B 模型的构建器。 |
|
用于创建启用 LoRA 的 Qwen2 0.5B 模型的构建器。 |
|
用于创建启用 LoRA 的 Qwen2 1.5B 模型的构建器。 |
|
Qwen2 的分词器。 |
phi-3¶
来自 Phi-3 mini 系列 的模型。
下载 Phi-3 Mini 4k 指令模型
tune download microsoft/Phi-3-mini-4k-instruct --output-dir /tmp/Phi-3-mini-4k-instruct --ignore-patterns None --hf-token <HF_TOKEN>
|
|
根据传入的配置,返回一个应用了 LoRA 的 Phi3 版本( |
|
用于创建 Phi3 Mini 4K 指令模型的构建器。 |
|
用于创建启用 LoRA 的 Phi3 Mini (3.8b) 模型的构建器。 |
|
用于创建启用 QLoRA 的 Phi3 mini 模型的构建器。 |
|
Phi-3 Mini 分词器。 |
mistral¶
来自 Mistral AI 系列 的所有模型。
重要提示:您需要在 Hugging Face 上请求访问权限才能下载此模型。
下载 Mistral 7B v0.1 模型
tune download mistralai/Mistral-7B-v0.1 --output-dir /tmp/Mistral-7B-v0.1 --hf-token <HF_TOKEN>
构建与 mistral 模型关联的解码器。 |
|
根据传入的配置,返回一个应用了 LoRA 的 Mistral 版本( |
|
构建一个带有附加分类层的 Mistral 基础模型。 |
|
根据传入的配置,返回一个应用了 LoRA 的 Mistral 分类器版本( |
|
用于创建 Mistral 7B 模型的构建器,该模型使用来自 https://mistral.ai/news/announcing-mistral-7b/ 的默认 7b 参数值进行初始化。 |
|
用于创建启用 LoRA 的 Mistral 7B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Mistral 模型的构建器。 |
|
用于创建 Mistral 7B 模型的构建器,该模型使用来自 https://hugging-face.cn/Ray2333/reward-model-Mistral-7B-instruct-Unified-Feedback 的默认 7b 参数值进行初始化,其中输出层是一个分类层,投影到单个类别用于奖励建模。 |
|
用于创建启用 LoRA 的 Mistral 奖励 7B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Mistral 奖励 7B 模型的构建器。 |
|
Mistral 模型的分词器。 |
|
根据 Mistral 的 指令模型 进行格式化。 |
gemma¶
来自 Gemma 系列 的 2B 和 7B 大小的模型。
重要提示:您需要在 Hugging Face 上请求访问权限才能使用此模型。
下载 Gemma 2B 模型(不是 Gemma2)
tune download google/gemma-2b --ignore-patterns "gemma-2b.gguf" --hf-token <HF_TOKEN>
下载 Gemma 7B 模型
tune download google/gemma-7b --ignore-patterns "gemma-7b.gguf" --hf-token <HF_TOKEN>
构建与 gemma 模型关联的解码器。 |
|
根据传入的配置,返回一个应用了 LoRA 的 Gemma 版本。 |
|
用于创建 Gemma 2B 模型的构建器,该模型使用来自 https://blog.google/technology/developers/gemma-open-models/ 的默认 2b 参数值进行初始化。 |
|
用于创建启用 LoRA 的 Gemma 2B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Gemma 模型的构建器。 |
|
用于创建 Gemma 7B 模型的构建器,该模型使用来自 https://blog.google/technology/developers/gemma-open-models/ 的默认 7b 参数值进行初始化。 |
|
用于创建启用 LoRA 的 Gemma 7B 模型的构建器。 |
|
用于创建启用 QLoRA 的 Gemma 模型的构建器。 |
|
Gemma 的分词器。 |
clip¶
使用 CLIP 编码器 支持多模态的视觉组件。
构建与 clip 模型关联的视觉编码器。 |
|
图像的标记位置嵌入,每个图像中的每个标记都不同。 |
|
平铺图像的标记位置嵌入,每个平铺都不同,每个标记都不同。 |
|
平铺的位置嵌入,每个平铺都不同,平铺内的每个标记都相同。 |