1
我对Keras示例pretrained_word_embeddings有几个疑问,以提高对其工作原理的理解程度。关于keras示例的疑问pretrained_word_embeddings
在这样的模型中使用
dropout
层是否合理?最后
MaxPooling1D
层每次都要覆盖所有的输出形状吗?在原始模型中,最后的conv层输出是35,我们将maxpool设置为相同的35值。我说得对,如果增加值128(内核数)会提高准确度吗?
是否有意义增加额外的转换层来提高准确度?即使它会减少模型训练阶段。
谢谢!
感谢您的时间!将根据这个答案进行调查。 –
这对你有帮助吗? –