torch

    0热度

    1回答

    因此,我有一些线程,我希望每隔一段时间传递一次称为复位的upvalue,以便重置每个线程的表值。然后我想关闭重置,直到表完成迭代通过其批次。然而,我没有成功关闭重置(reset = false)似乎并没有阻止它不断重置。 for i = 1, n do local reset = true while true do threads:addjob(

    0热度

    1回答

    我正在做一个蛮力匹配的描述符从图像拉出使用FAST和卷积通过自定义网络提供64个描述符的每个图像。 当进行比较时,我将一个传入图像进行卷积,然后将其与我从之前已经卷积并保存的图像文件加载的一组描述符进行比较。 我正在一个错误的OpenCV: OpenCV Error: Assertion failed (type == src2.type() && src1.cols == src2.cols &

    0热度

    1回答

    我需要将一个损失函数应用于L2层之后有很多层的网络中的中间层(L2)表示。我知道如何在nngraph访问网络的输出如下: input = nn.Identity()() net = nn.Sequential() net:add(nn.Linear(100, 20)):add(nn.ReLU(true)) -- L1 net:add(nn.Linear(20, 10)):add(ReLU(t

    1热度

    2回答

    我有一个结构如下(使用nngraph内置): require 'nn' require 'nngraph' input = nn.Identity()() net1 = nn.Sequential():add(nn.SpatialConvolution(1, 5, 3, 3)):add(nn.ReLU(true)):add(nn.SpatialConvolution(5, 20, 4,

    0热度

    1回答

    我试图在不同体系结构中共享体系结构的编码器/解码器子网络与其他编码器/解码器之间的参数。这对我的问题是必要的,因为在测试时间,它需要大量的计算(和时间)在原始体系结构上执行正向传递,然后提取解码器结果。然而,我注意到虽然我在做clone()时明确要求参数共享,但参数不共享,每个架构在训练时都有自己的参数。 我通过向前传播一些随机向量到两个体系结构的解码器和编码器(您也可以比较它们的权重),通过一些

    1热度

    1回答

    我创建了一个OpenResty/Lusty项目,并试图用它来围绕我正在使用的分类器包装REST API。不幸的是,我还没有得到多少运气,而我的根本原因是,当我尝试 require 'nn' require 'image' Lua中无法解释文件。不幸的是,Lusty不会在日志中给我一个堆栈跟踪,而只是返回一个404错误。但是,经过很多代码评论和试用/错误之后,我确定了根本原因是当我尝试需要这些

    0热度

    1回答

    鉴于网络 local net = nn.Sequential() net:add(SpatialConvolution(3, 64, 4, 4, 2, 2, 1, 1)) 以下开始与输入张量input local input = torch.Tensor(batchSize, 3, 64, 64) // during training local output = net:forwar

    1热度

    1回答

    我有一个Lusty(OpenResty的框架)API,它包装了一个Torch分类器。到目前为止,我已经能够得到一个单一的请求工作,但是到API每个后续请求触发以下错误,没有详细的堆栈跟踪: attempt to index a nil value 出现的错误,当我打电话给抛出: net:add(SpatialConvolution(3, 96, 7, 7, 2, 2)) 成功完成第一个请求

    0热度

    2回答

    我正在尝试整合torch与scala。 我有以下bash脚本(foo.sh): #!/bin/bash echo hello world th *rest of command* ,我尝试在斯卡拉执行它得到一些输出:但是它给了我一个错误 "./foo.sh" !! : line 42: th: command not found 是否有任何解决方法可以使此工作?

    0热度

    1回答

    我在火炬上实现了一个自定义的softmax图层,它在CPU模式下工作得很好,但是当我将其更改为GPU模式时,它无法工作,模型的损失保持不变在我做了一些前向和后向迭代之后,在CPU模式下,它在每个纪元后都会减少。 我定制SOFTMAX层 local MySoftMax, Parent = torch.class('nn.MySoftMax', 'nn.Module') function MySof