快捷方式

数值精度

在现代计算机中,浮点数使用 IEEE 754 标准表示。有关浮点运算和 IEEE 754 标准的更多详细信息,请参阅 浮点运算 特别需要注意的是,浮点数的精度有限(单精度浮点数约为 7 位十进制数字,双精度浮点数约为 16 位十进制数字),并且浮点数的加法和乘法不具有结合律,因此运算顺序会影响结果。因此,PyTorch 不能保证对于数学上相同的浮点运算产生完全相同的位结果。同样,在 PyTorch 版本、单个提交或不同平台之间也不能保证完全相同的位结果。特别是,即使对于完全相同的位输入,并且即使在控制了随机性来源之后,CPU 和 GPU 的结果也可能不同。

批量计算或切片计算

PyTorch 中的许多操作都支持批量计算,其中对输入批次的元素执行相同的操作。例如 torch.mm()torch.bmm()。可以将批量计算实现为对批次元素的循环,并对各个批次元素应用必要的数学运算,出于效率原因,我们没有这样做,并且通常对整个批次执行计算。我们调用的数学库以及 PyTorch 内部操作的实现在这种情况下可能会产生略微不同的结果,与非批量计算相比。特别是,令 AB 为具有适合批量矩阵乘法的维度的 3D 张量。则 (A@B)[0](批量结果的第一个元素)不能保证与 A[0]@B[0](输入批次的第一个元素的矩阵乘积)完全相同,即使在数学上它是相同的计算。

类似地,应用于张量切片的操作不能保证产生与应用于完整张量的相同操作的结果的切片相同的结果。例如,令 A 为一个二维张量。 A.sum(-1)[0] 不能保证与 A[:,0].sum() 完全相同。

极值

当输入包含大值,以至于中间结果可能会溢出所用数据类型的范围时,最终结果也可能会溢出,即使它在原始数据类型中是可表示的。例如

import torch
a=torch.tensor([1e20, 1e20]) # fp32 type by default
a.norm() # produces tensor(inf)
a.double().norm() # produces tensor(1.4142e+20, dtype=torch.float64), representable in fp32

线性代数 (torch.linalg)

非有限值

torch.linalg 使用的外部库(后端)在其输入具有非有限值(如 infNaN)时的行为没有保证。因此,PyTorch 也没有。这些操作可能会返回一个包含非有限值的张量,或引发异常,甚至导致段错误。

在调用这些函数之前,请考虑使用 torch.isfinite() 来检测这种情况。

linalg 中的极值

torch.linalg 中的函数比其他 PyTorch 函数具有更多 极值

求解器逆矩阵 假设输入矩阵 A 是可逆的。如果它接近不可逆(例如,如果它具有非常小的奇异值),则这些算法可能会静默地返回不正确的结果。这些矩阵被称为 病态。如果提供病态输入,则这些函数的结果在使用不同设备上的相同输入时或通过关键字 driver 使用不同后端时可能会发生变化。

svdeigeigh 这样的谱运算在它们的输入具有彼此接近的奇异值时也可能返回不正确的结果(并且它们的梯度可能是无限的)。这是因为用于计算这些分解的算法难以针对这些输入收敛。

float64 中运行计算(如 NumPy 默认那样)通常会有所帮助,但在所有情况下都不能解决这些问题。通过 torch.linalg.svdvals() 分析输入的光谱或通过 torch.linalg.cond() 分析其条件数可能有助于检测这些问题。

Nvidia Ampere(及更高版本)设备上的 TensorFloat-32(TF32)

在 Ampere(及更高版本)的 Nvidia GPU 上,PyTorch 可以使用 TensorFloat32 (TF32) 来加速数学密集型操作,特别是矩阵乘法和卷积。当使用 TF32 张量核心执行操作时,仅读取输入尾数的前 10 位。这可能会降低精度并产生意外的结果(例如,将矩阵乘以单位矩阵可能会产生与输入不同的结果)。默认情况下,TF32 张量核心对于矩阵乘法被禁用,而对于卷积则被启用,尽管大多数神经网络工作负载在使用 TF32 时具有与 fp32 相同的收敛行为。如果您网络不需要完全的 float32 精度,我们建议使用 torch.backends.cuda.matmul.allow_tf32 = True 启用 TF32 张量核心用于矩阵乘法。如果您的网络需要矩阵乘法和卷积的完全 float32 精度,那么也可以使用 torch.backends.cudnn.allow_tf32 = False 禁用卷积的 TF32 张量核心。

有关更多信息,请参阅 TensorFloat32

FP16 和 BF16 GEMM 的降精度归约

半精度 GEMM 操作通常使用单精度进行中间累加(归约),以提高数值精度并增强抗溢出能力。出于性能考虑,某些 GPU 架构,尤其是更新的架构,允许对中间累加结果进行一些截断以降低精度(例如,半精度)。从模型收敛的角度来看,这种变化通常是良性的,尽管它可能导致意外的结果(例如,当最终结果应该可以用半精度表示时,会出现 inf 值)。如果降精度归约存在问题,则可以使用 torch.backends.cuda.matmul.allow_fp16_reduced_precision_reduction = False将其关闭。

BF16 GEMM 操作存在类似的标志,并且默认情况下处于启用状态。如果 BF16 降精度归约存在问题,则可以使用 torch.backends.cuda.matmul.allow_bf16_reduced_precision_reduction = False将其关闭。

有关更多信息,请参阅 allow_fp16_reduced_precision_reductionallow_bf16_reduced_precision_reduction

缩放点积注意力 (SDPA) 中 FP16 和 BF16 的降精度归约

当使用 FP16/BF16 输入时,一个简单的 SDPA 数学后端可能会由于使用低精度中间缓冲区而累积大量的数值误差。为了缓解此问题,默认行为现在包括将 FP16/BF16 输入提升到 FP32。计算在 FP32/TF32 中执行,然后将最终的 FP32 结果向下转换回 FP16/BF16。这将提高使用 FP16/BF16 输入的数学后端的最终输出的数值精度,但会增加内存使用量,并且可能会导致数学后端的性能下降,因为计算从 FP16/BF16 BMM 转换为 FP32/TF32 BMM/Matmul。

对于需要降精度归约以提高速度的场景,可以使用以下设置启用它们:torch.backends.cuda.allow_fp16_bf16_reduction_math_sdp(True)

AMD Instinct MI200 设备上 FP16 和 BF16 GEMM 和卷积的降精度

在 AMD Instinct MI200 GPU 上,FP16 和 BF16 的 V_DOT2 和 MFMA 矩阵指令将输入和输出非规格化值刷新为零。FP32 和 FP64 MFMA 矩阵指令不会将输入和输出非规格化值刷新为零。受影响的指令仅由 rocBLAS(GEMM)和 MIOpen(卷积)内核使用;所有其他 PyTorch 操作都不会遇到此行为。所有其他受支持的 AMD GPU 也不会遇到此行为。

rocBLAS 和 MIOpen 为受影响的 FP16 操作提供了备用实现。没有提供 BF16 操作的备用实现;BF16 数字的动态范围大于 FP16 数字,并且不太可能遇到非规格化值。对于 FP16 备用实现,FP16 输入值会被转换为中间 BF16 值,然后在累加 FP32 操作后转换回 FP16 输出。这样,输入和输出类型保持不变。

在使用 FP16 精度进行训练时,某些模型在 FP16 非规格化值被刷新为零时可能会无法收敛。非规格化值更常出现在训练期间梯度计算的反向传递中。PyTorch 默认情况下会在反向传递期间使用 rocBLAS 和 MIOpen 备用实现。可以使用环境变量 ROCBLAS_INTERNAL_FP16_ALT_IMPL 和 MIOPEN_DEBUG_CONVOLUTION_ATTRIB_FP16_ALT_IMPL 覆盖默认行为。这些环境变量的行为如下

前向

后向

环境未设置

原始

备用

环境设置为 1

备用

备用

环境设置为 0

原始

原始

以下是可能使用 rocBLAS 的操作列表

  • torch.addbmm

  • torch.addmm

  • torch.baddbmm

  • torch.bmm

  • torch.mm

  • torch.nn.GRUCell

  • torch.nn.LSTMCell

  • torch.nn.Linear

  • torch.sparse.addmm

  • 以下 torch._C._ConvBackend 实现

    • slowNd

    • slowNd_transposed

    • slowNd_dilated

    • slowNd_dilated_transposed

以下是可能使用 MIOpen 的操作列表

  • torch.nn.Conv[Transpose]Nd

  • 以下 torch._C._ConvBackend 实现

    • ConvBackend::Miopen

    • ConvBackend::MiopenDepthwise

    • ConvBackend::MiopenTranspose

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取适合初学者和高级开发人员的深入教程

查看教程

资源

查找开发资源并获得问题的解答

查看资源