RNNCell¶
- class torch.nn.RNNCell(input_size, hidden_size, bias=True, nonlinearity='tanh', device=None, dtype=None)[source][source]¶
带有 tanh 或 ReLU 非线性的 Elman RNN Cell。
如果
nonlinearity
是 ‘relu’,则使用 ReLU 代替 tanh。- 参数
- 输入:input, hidden
input: 包含输入特征的张量
hidden: 包含初始隐状态的张量。如果未提供,则默认为零。
- 输出:h’
形状为 (batch, hidden_size) 的 h’: 包含批次中每个元素的下一个隐状态的张量
- 形状
input: or tensor containing input features where = input_size.
hidden: or tensor containing the initial hidden state where = hidden_size。如果未提供,则默认为零。
output: or 包含下一个隐状态的张量。
- 变量
weight_ih (torch.Tensor) – 可学习的输入到隐层权重,形状为 (hidden_size, input_size)
weight_hh (torch.Tensor) – 可学习的隐层到隐层权重,形状为 (hidden_size, hidden_size)
bias_ih – 可学习的输入到隐层偏置,形状为 (hidden_size)
bias_hh – 可学习的隐层到隐层偏置,形状为 (hidden_size)
注意
所有权重和偏置均从 中初始化,其中
示例
>>> rnn = nn.RNNCell(10, 20) >>> input = torch.randn(6, 3, 10) >>> hx = torch.randn(3, 20) >>> output = [] >>> for i in range(6): ... hx = rnn(input[i], hx) ... output.append(hx)