torch

    1热度

    1回答

    给出的示例here分别使用两个优化器encoder和decoder。为什么?什么时候这样做?

    0热度

    1回答

    当tokbox正在流式传输视频时,我想在Android设备上切换手电筒,将其用作灯笼。 开关的开关很简单,但如果您尝试在相机已经开始工作时发出错误。 火炬相机“0”不可用,由于现有的相机用户 我想这是预期的结果,但是我用的火炬,而流媒体视频看到了一些应用程序。 任何线索? 谢谢

    1热度

    1回答

    我已经定义了我自己的损失函数。它确实有效。前馈可能没有问题。但我不确定它是否正确,因为我没有定义落后()。 class _Loss(nn.Module): def __init__(self, size_average=True): super(_Loss, self).__init__() self.size_average = size_average cl

    -1热度

    1回答

    我想了解JcJohnson/Karpathy的代码用于在Lua和Torch中编写的RNN的一部分。如果你好奇,你可以在github上找到完整的项目。 https://github.com/jcjohnson/torch-rnn 我需要帮助的部分低于其从LanguageModel.lua文件: if #start_text > 0 then if verbose > 0 then

    1热度

    1回答

    我有一个让我困惑,我希望把它清除掉一些PyTorch例子。 首先,按照PyTorch页,我希望这些例子工作,因为做自己numpy的等价物即these。第一个例子非常直观。这些广播是兼容的: Image (3d array): 256 x 256 x 3 Scale (1d array): 3 Result (3d array): 256 x 256 x 3 就拿这些: torch.T

    1热度

    1回答

    在从https://github.com/spro/practical-pytorch/blob/master/seq2seq-translation/seq2seq-translation.ipynb 教程有一个USE_CUDA标志被用于控制CPU之间的变量和张量类型(假时)到GPU(当真)类型。 从en-fr.tsv使用数据和转换的判决变量: import unicodedata impor

    0热度

    2回答

    我正在训练使用LuaTorch的模式。最近,我面临一个恼人的问题。随着时间的推移,程序运行越来越慢!当我执行 sudo sysctl -w vm.drop_caches=3 然后程序运行得更快。但是,大约一天之后,它又一次减速。我使用top检查缓冲区和缓存,发现它们非常高。 第一个问题:如果在训练模型时使用该命令释放缓冲区和缓存,那么这很重要吗? 我最初的想法是检查每个纪元逝去的时间,并在逝去时间

    0热度

    2回答

    我需要添加一个L1规范作为正则化函数,以便在我的神经网络中创建一个稀疏条件。我想训练我的网络分类,我需要添加一个L1规范作为正规化者来创建稀疏条件。我需要训练网络进行分类,我先从pytorch开始,但我没有任何意识如何做到这一点。我尝试着自己构建一个L1规范,比如here,但没有工作。 有人可以帮助我吗?我需要把ConvTranspose2d在此之后正则,我想做些事情像这样Keras: model

    0热度

    1回答

    我试图在pytorch中使用gather函数,但无法理解dim参数的作用。 代码: t = torch.Tensor([[1,2],[3,4]]) print(torch.gather(t, 0, torch.LongTensor([[0,0],[1,0]]))) 输出: 1 2 3 2 [torch.FloatTensor of size 2x2] 尺寸设置为1: print(to

    0热度

    1回答

    我正在尝试使用torch/rnn工具包在我的nVidia图形卡上运行RNN。我有一个带有nVidia驱动程序,CUDA工具包,Torch和cuDNN的Ubuntu 16.04虚拟机。我可以运行mnistCUDNN示例,nvidia-smi使用图形卡显示它。在火炬中,我可以要求('cunn');并且它快乐地加载。 但是当我dofile('./ rnn/examples/recurrent-visua