我'尝试修改keras例子pretrained_word_embeddings可用here,我遇到了以下问题:如果我减少MAX_SEQUENCE_LENGTH
varibae例如以95
值我会得到以下错误:错误pretrained_word_embeddings
Traceback (most recent call last): File "C:\Program Files\Anaconda3\lib\site-packages\tensorflow\python\framework\common_shapes.py", line 670, in _call_cpp_shape_fn_impl status) File "C:\Program Files\Anaconda3\lib\contextlib.py", line 66, in exit next(self.gen) File "C:\Program Files\Anaconda3\lib\site-packages\tensorflow\python\framework\errors_impl.py", line 469, in raise_exception_on_not_ok_status pywrap_tensorflow.TF_GetCode(status)) tensorflow.python.framework.errors_impl.InvalidArgumentError: Negative dimension size caused by subtracting 5 from 2 for 'Conv2D_2' (op: 'Conv2D') with input shapes: [?,2,1,128], [5,1,128,128].
我需要改变它,例如当我例如需要使用像tweets这样的小消息。我使用了一个Tensorflow后端。
请帮我澄清一下 1)MAX_SEQUENCE_LENGTH
有什么问题? 2)Conv2D_2
跟踪的原因是什么,而不是我在模型中使用的Conv1D
。
谢谢你非常匹配!它可以帮助我阻止模型中的形状流动。 –
还有什么我可以解释的? –
感谢您的关注!还有几个问题:1)在这种模型中使用丢失是否合理? 2)最后一次MaxPooling1D图层每次都要覆盖所有输出形状?在原始模型中,最后一个conv层的输出是35,我们将maxpool设置为相同的35值,在我的例子中,如果我们有最后一个conv 2,所以我们可以把maxpool设置为2. 3)我是对的,如果说增加值128号码)将会提高准确性 –