caffe

    0热度

    1回答

    根据我的计算,池化输出应该5x4x4(5个大小为4x4的特征地图),如此扁平化将产生1x80的向量。因此fc3的重量应该是20x80,但pycaffe显示的是20x125的重量。这里是prototext文件。这里是我的计算 方程式用途(dimension_size - 内核)/步幅+ 1 CONV 1:1x5x26x26 池1:1x5x12x12 CONV 2:1x5x10x10 POOL2:1x

    0热度

    1回答

    我有一个非常大的数据集,将它转换为单个CaDB的LMDB文件并不是一个好主意。因此,我试图将它分成小部分并指定一个包含相应LMDB文件路径的TXT文件。 这里是我的数据层的一个例子: layer { name: "data" type: "Data" top: "data" top: "label" include { phase: TRAIN } data_param { so

    4热度

    1回答

    我知道图像分类问题中的不平衡性,例如猫和狗的分类,如果猫的图像太多而狗的图像太少。但我不知道如何解决分割问题中的不平衡问题。例如,我的任务是掩盖卫星图像的云层覆盖,所以我将这个问题转换为两类分割,一个是云,另一个是背景。该数据集有5800个4-band-16bits图像,大小为256 * 256。该体系结构是Segnet,损失函数是二元交叉熵。 有两种情况假设: 所有样品中有一半是由云层完全覆盖,

    1热度

    1回答

    我用keras训练模式,但我必须采取朱古力预测,但我不想再培训的模式,所以我想隐蔽的.HDF5文件.caffemodel

    0热度

    1回答

    我想修改Caffe中的现有softmaxloss。这个想法是增加一个权重因素的损失。例如,如果我们正在处理属于汽车类的像素,我想将损失因子2放在因子上,因为就我而言,汽车类的检测比狗类更重要(例如)。这是原始的源代码: __global__ void SoftmaxLossForwardGPU(const int nthreads, const Dtype* prob_data, c

    0热度

    1回答

    我的网络的某些层加载了预训练模型。我想修复他们的参数并训练其他层。 我跟着this page并设置lr_multidecay_multi为0,propagate_down: false,甚至base_lr: 0在求解weight_decay: 0。然而,测试损失(每次测试使用所有测试图像)在每个测试中仍然非常缓慢地变化。经过数千iters准确性将达到0(从预装模型加载时的80%)。 这里是AA两层

    1热度

    1回答

    从准备咖啡网络数据的脚本中,下面的一段代码将图像(表示图像的numpy数组)转换为基准对象。 datum = caffe_pb2.Datum( channels=3, width=224, height=224, label=label, data=np.rollaxis(img, 2).tostring()) 如果网络监督的,你只是创

    1热度

    1回答

    如果您使用的是自定义python图层 - 并且假设您在python中正确编写了该类 - 假设该类的名称为"my_ugly_custom_layer";并在linux命令行界面执行caffe, 如何确保caffe知道如何找到为您的图层编写类的文件?你只需将.py文件放在与train.prototxt相同的目录下? 或 如果你写在你需要使用python封装接口蟒蛇的自定义类?

    2热度

    1回答

    我正在使用hdf5文件训练数据集,并且日志说明hdf5文件已加载3次。我想知道为什么呢? 培训,我使用4 GPUs 0830 10:51:06.050088 24335 hdf5_data_layer.cpp:79] Loading list of HDF5 filenames from: /train_h5_list.txt I0830 10:51:06.055855 24336 hdf5_d

    0热度

    1回答

    我在Ubuntu下成功编译Caffe并开始研究如何定义和训练我自己的网络。然而,我很难理解卷积层如何产生它的输出。例如,第二卷积层(CONV2)的LeNet MNIST教程(tutorial,lenet.prototxt)具有20个输入图像和50倍输出的图像: layer { name: "conv2" type: "Convolution" bottom: "poo