快捷方式

torch.einsum

torch.einsum(equation, *operands) Tensor[source][source]

根据爱因斯坦求和约定,对输入 operands 沿着指定维度的元素乘积求和。

Einsum 允许通过基于爱因斯坦求和约定的简写格式(由 equation 给出)计算许多常见的多维线性代数数组运算。此格式的详细信息如下所述,但总体思路是用一些下标标记输入 operands 的每个维度,并定义哪些下标是输出的一部分。然后,通过对 operands 的元素乘积沿维度求和来计算输出,这些维度的下标不是输出的一部分。例如,矩阵乘法可以使用 einsum 计算为 torch.einsum(“ij,jk->ik”, A, B)。这里,j 是求和下标,i 和 k 是输出下标(有关原因的更多详细信息,请参见下节)。

方程

equation 字符串指定输入 operands 的每个维度的下标([a-zA-Z] 中的字母),顺序与维度相同,用逗号(‘,’)分隔每个操作数的下标,例如 ‘ij,jk’ 指定两个 2D 操作数的下标。用相同下标标记的维度必须是可广播的,即它们的大小必须匹配或为 1。例外情况是,如果同一个输入操作数重复使用下标,在这种情况下,为此操作数标记此下标的维度大小必须匹配,并且操作数将替换为其沿这些维度的对角线。在 equation 中恰好出现一次的下标将成为输出的一部分,并按字母顺序升序排列。输出的计算方法是按元素方式乘以输入 operands,其维度根据下标对齐,然后对下标不是输出一部分的维度求和。

可选地,可以通过在方程末尾添加箭头(‘->’),后跟输出的下标来显式定义输出下标。例如,以下方程计算矩阵乘法的转置:‘ij,jk->ki’。输出下标必须至少在一个输入操作数中出现一次,并且最多在输出中出现一次。

省略号(‘…’)可以代替下标来广播省略号覆盖的维度。每个输入操作数最多可以包含一个省略号,该省略号将覆盖未被下标覆盖的维度,例如,对于具有 5 个维度的输入操作数,方程 ‘ab…c’ 中的省略号覆盖第三和第四维度。省略号不需要跨 operands 覆盖相同数量的维度,但是省略号的“形状”(它们覆盖的维度的大小)必须一起广播。如果输出没有用箭头(‘->’)符号显式定义,则省略号将首先出现在输出中(最左边的维度),然后在输入操作数恰好出现一次的下标标签之前。例如,以下方程实现批量矩阵乘法 ‘…ij,…jk’

最后几点说明:方程可能在不同元素(下标、省略号、箭头和逗号)之间包含空格,但像 ‘…’ 这样的内容无效。空字符串 ‘’ 对于标量操作数有效。

注意

torch.einsum 处理省略号(‘…’)的方式与 NumPy 不同,因为它允许对省略号覆盖的维度求和,也就是说,省略号不必是输出的一部分。

注意

请安装 opt-einsum (https://optimized-einsum.readthedocs.io/en/stable/) 以获得更高效的 einsum。您可以在安装 torch 时安装,例如:pip install torch[opt-einsum] 或单独安装:pip install opt-einsum

如果 opt-einsum 可用,此函数将通过我们的 opt_einsum 后端 torch.backends.opt_einsum 优化收缩顺序,从而自动加速计算和/或减少内存消耗(_ 与 - 令人困惑,我知道)。当至少有三个输入时,会发生此优化,因为否则顺序无关紧要。请注意,找到最佳路径是一个 NP-hard 问题,因此,opt-einsum 依赖于不同的启发式方法来实现接近最优的结果。如果 opt-einsum 不可用,则默认顺序是从左到右收缩。

要绕过此默认行为,请添加以下内容以禁用 opt_einsum 并跳过路径计算:torch.backends.opt_einsum.enabled = False

要指定您希望 opt_einsum 使用哪种策略来计算收缩路径,请添加以下行:torch.backends.opt_einsum.strategy = 'auto'。默认策略是 ‘auto’,我们也支持 ‘greedy’ 和 ‘optimal’。免责声明,‘optimal’ 的运行时在输入数量上是阶乘级的!有关更多详细信息,请参阅 opt_einsum 文档 (https://optimized-einsum.readthedocs.io/en/stable/path_finding.html)。

注意

从 PyTorch 1.10 开始,torch.einsum() 也支持子列表格式(请参阅下面的示例)。在这种格式中,每个操作数的下标由子列表指定,子列表是 [0, 52) 范围内的整数列表。这些子列表跟在它们的操作数之后,并且可以在输入的末尾添加一个额外的子列表来指定输出的下标,例如 torch.einsum(op1, sublist1, op2, sublist2, …, [subslist_out])。Python 的 Ellipsis 对象可以在子列表中提供,以启用如上面“方程”部分所述的广播。

参数
  • equation (str) – 爱因斯坦求和的下标。

  • operands (List[Tensor]) – 用于计算爱因斯坦求和的张量。

返回类型

Tensor

示例

>>> # trace
>>> torch.einsum('ii', torch.randn(4, 4))
tensor(-1.2104)

>>> # diagonal
>>> torch.einsum('ii->i', torch.randn(4, 4))
tensor([-0.1034,  0.7952, -0.2433,  0.4545])

>>> # outer product
>>> x = torch.randn(5)
>>> y = torch.randn(4)
>>> torch.einsum('i,j->ij', x, y)
tensor([[ 0.1156, -0.2897, -0.3918,  0.4963],
        [-0.3744,  0.9381,  1.2685, -1.6070],
        [ 0.7208, -1.8058, -2.4419,  3.0936],
        [ 0.1713, -0.4291, -0.5802,  0.7350],
        [ 0.5704, -1.4290, -1.9323,  2.4480]])

>>> # batch matrix multiplication
>>> As = torch.randn(3, 2, 5)
>>> Bs = torch.randn(3, 5, 4)
>>> torch.einsum('bij,bjk->bik', As, Bs)
tensor([[[-1.0564, -1.5904,  3.2023,  3.1271],
        [-1.6706, -0.8097, -0.8025, -2.1183]],

        [[ 4.2239,  0.3107, -0.5756, -0.2354],
        [-1.4558, -0.3460,  1.5087, -0.8530]],

        [[ 2.8153,  1.8787, -4.3839, -1.2112],
        [ 0.3728, -2.1131,  0.0921,  0.8305]]])

>>> # with sublist format and ellipsis
>>> torch.einsum(As, [..., 0, 1], Bs, [..., 1, 2], [..., 0, 2])
tensor([[[-1.0564, -1.5904,  3.2023,  3.1271],
        [-1.6706, -0.8097, -0.8025, -2.1183]],

        [[ 4.2239,  0.3107, -0.5756, -0.2354],
        [-1.4558, -0.3460,  1.5087, -0.8530]],

        [[ 2.8153,  1.8787, -4.3839, -1.2112],
        [ 0.3728, -2.1131,  0.0921,  0.8305]]])

>>> # batch permute
>>> A = torch.randn(2, 3, 4, 5)
>>> torch.einsum('...ij->...ji', A).shape
torch.Size([2, 3, 5, 4])

>>> # equivalent to torch.nn.functional.bilinear
>>> A = torch.randn(3, 5, 4)
>>> l = torch.randn(2, 5)
>>> r = torch.randn(2, 4)
>>> torch.einsum('bn,anm,bm->ba', l, A, r)
tensor([[-0.3430, -5.2405,  0.4494],
        [ 0.3311,  5.5201, -3.0356]])

文档

访问 PyTorch 的全面开发者文档

查看文档

教程

获取面向初学者和高级开发者的深入教程

查看教程

资源

查找开发资源并获得问题解答

查看资源