-2

我有一个图像集,包含300个图像对,即原始图像和蒙版图像。典型的蒙版图像如下所示。每张图片的大小为800 * 800。我试图为这个图像集训练完全卷积神经网络模型来执行语义分割。我试图从原始图像中生成小块(256 * 256)来构造训练集。是否有任何针对此修补程序采样过程推荐的策略?当然,随机抽样是一个简单的方法。在此,标有黄色前景类别的区域通常占整个图像区域整个图像区域的25%。它倾向于反映不平衡的数据集。用于训练完全卷积神经网络的子补丁生成机制

image example

+0

为什么要打补丁?为什么不用整个图像和丢失的样本像素? – Shai

+0

只有300个图像对,代表训练FCN的数据集太小。 – user288609

回答

1

如果训练完全卷积架构,假设800x800输入和25x25输出(经过五2x2池层,25=800/2^5)。尝试直接构建25x25输出并直接在它们上训练。您可以在“正面”标签的损失函数中添加更高的权重,以使它们与“负面”标签平衡。

我绝对不建议采样,因为这将是一个昂贵的过程,并不是真正的完全卷积。

+0

嗨MZhm,你是什么意思直接在25 * 25输出培训?如果我们不使用抽样过程,那么我们只有300个图像对,是一个训练深度学习模型的数据集太小了吗?此外,对于基于FCN的语义分割,输出应该与输入大小相同。 – user288609

+0

对于向上采样回原始图像大小,我建议您阅读关于'tf.nn.conv2d_transpose'。对于抽样来说,在完整图像上进行训练是没有好处的。 (请记住,输出不是单个预测,它是上面示例中的25x25预测的空间网格) – MZHm

+0

至于300是否足够的问题......只有一种方法可以检查 - 训练和测试它 – MZHm