pytorch

    -2热度

    1回答

    这里是customLayer.py。 我很困惑以下的事情: 内层的输入不是一个变量。然后在backward它变成一个变量,并要求梯度。为什么? grad_output是一个变量,但require_grad是False。为什么不是真的? 在我的自定义图层中,我需要自定义向前和向后的操作。这很复杂。看到相同的链接。我已经在其中发布了问题。

    0热度

    1回答

    我在我的Mac上设置了Malmo,并陷入困境。我使用的是Malmo-0.17.0-Mac-64bit,python 2.7,macOS Sierra。 正如在Malmo安装说明中所述,mac用户需要使用位于/ usr/bin/python上的默认mac python来运行python脚本。我的目标是实现一个神经网络Pytorch并做一些实验。但是,当我运行命令/usr/bin/python -m

    0热度

    2回答

    我在Pytorch中编写了一个RNN。 我有下面的代码行: data_loader = torch.utils.data.DataLoader( data, batch_size=args.batch_size, shuffle=True, num_workers=args.num_workers, drop_last=True) 如果我设置nu

    1热度

    1回答

    在python列表中,我们可以使用list.index(somevalue)。 pytorch如何做到这一点? 例如: a=[1,2,3] print(a.index(2)) 然后,1将输出。 pytorch tensor如何在不将其转换为python列表的情况下执行此操作?

    1热度

    1回答

    Embedding图层“图层疏”中列出的限制: 请记住,只有优化的数量有限支持稀疏梯度:目前它的optim.SGD(CUDA和CPU),和Optim .Adagrad(cpu) 这是什么原因?例如在Keras中,我可以使用任何优化器来训练带有嵌入层的体系结构。

    0热度

    2回答

    我正在玩弄PyTorch,目的是学习它,而且我有一个非常愚蠢的问题:如何将矩阵乘以单个矢量? 这是我已经试过: >>> import torch >>> a = torch.rand(4,4) >>> a 0.3162 0.4434 0.9318 0.8752 0.0129 0.8609 0.6402 0.2396 0.5720 0.7262 0.7443 0.0425 0.4561

    0热度

    1回答

    我已经实施了PSO算法使用PyTorch,torch.cuda.FloatTensor。 我设法加速了2次,但我期待的不止于此。 它认为步骤检查限制(line 41-55)和参数更新(line 58-72)是原因。有一个“GPU任何”这样做? 有是我的代码: import torch import numpy as np import matplotlib.pyplot as plt dty

    0热度

    1回答

    我试图在PyTorch中的http://anthology.aclweb.org/W16-1617中实现丢失函数。它如下所示: 我实现损失如下: class CosineContrastiveLoss(nn.Module): """ Cosine contrastive loss function. Based on: http://anthology.aclweb.

    0热度

    1回答

    我试图在我训练它时动态添加隐藏单元到3层神经网络(输入,隐藏,输出)。我想保持网络的一部分受过训练的权重,因为我添加新的隐藏units.This是我的代码, class my_network(torch.nn.Module): def __init__(self,input_dim,hidden_dim,output_dim): super(my_network,self).

    0热度

    1回答

    我试图培养一个非常基本的CNN上CIFAR10数据集,并得到以下错误: AttributeError的:“CrossEntropyLoss”对象有没有属性“落后” criterion =nn.CrossEntropyLoss optimizer=optim.SGD(net.parameters(),lr=0.001,momentum=0.9) for epoch in range(2): #