torch

    -2热度

    1回答

    Their page包含Installation部分,但它是不明白的人,谁不知道火炬和卢阿(像我一样):部分列举先决条件安装,但没有关于cudnn.torch本身的话。 存储库包含一堆lua文件。他们如何处理“安装”?

    0热度

    1回答

    在火炬模型的并行数据流中是否有共享权重的方法? 例如,我有以下模型。 mlp = nn.Sequential(); c = nn.Parallel(1,2) -- Parallel container will associate a module to each slice of dimension 1 -- (row space), and concatenate th

    0热度

    1回答

    我在lua中有以下代码writtein。 我想从scores及其相应的分数得到N个最高分数的索引。 它看起来像我将不得不迭代从scores删除当前的最大值,并再次检索最大值,但找不到一个合适的方式来做到这一点。 nqs=dataset['question']:size(1); scores=torch.Tensor(nqs,noutput); qids=torch.LongTensor(nqs

    0热度

    1回答

    我想在torch/lua中转置张量。 其实我并没有完全明白“:”但它真的让我很沮丧 我是一个初学者lua和火炬手。 只有这样工作的: X:T() 我想这样做 X = torch.t(x)的 当我做它,我看到错误 尝试调用字段't'(一个零值) 我试图在互联网上搜索解决方案,但我没有找到任何。

    1热度

    1回答

    我现在有以下代码,它将pred中每个问题的索引以最高分存储起来,并将其转换为字符串。 我想为每个问题的n-best索引做同样的事情,而不仅仅是具有最高分数的单个索引,并将它们转换为字符串。我也想显示每个索引(或每个转换后的字符串)的分数。 所以scores将不得不排序,pred将不得不是多行/列而不是1 x nqs。并且pred中每个条目的相应值score必须是可检索的。 我对lua/torch语

    1热度

    1回答

    快捷我现在有2个输入X的网络和Y. X串接y,然后通过网络来获得RESULT1。同时X会将结果1作为捷径。 只有一个输入很容易。 branch = nn.Sequential() branch:add(....) --some layers net = nn.Sequential() net:add(nn.ConcatTable():add(nn.Identity()):add(branch

    1热度

    1回答

    我正在将Torch和lua中的一些代码转换为Keras和python。凯拉斯的功能是否像火炬中的View一样运作? 编辑:我想使用该函数将卷积层的输出转换为适当的形状,作为完全连接层的输入。

    0热度

    1回答

    我有一个网络与三个并行分支,我想分享他们的所有参数,使他们在训练结束时是相同的。 以some_model为标准nn.Sequential模块由cudnn.SpatialConvolution,nn.PReLU,nn.SpatialBatchNormalization组成。此外,有一个nn.SpatialDropout,但它的概率设置为0,所以它没有效果。 ptb=nn.ParallelTable(

    -2热度

    1回答

    我想建立一个先进的深度学习模型(例如:使用注意力的模型),并在Android手机上使用它(当然不需要培训),我只会用它进行推理。 我想要一个库,可以做到这一点,并可以压缩模型的大小,以在手机或Android上使用。 您是否知道任何类似于我的目标的项目或应用程序?

    0热度

    1回答

    的多GPU模型初始化代码: local dpt = nn.DataParallelTable(1, true, true) :add(model, gpus) :threads(function() local cudnn = require 'cudnn' cudnn.fastest, cudnn.benchmark = fastest, be