当我使用预先训练的单词向量做LSTM分类时,我想知道如何处理tensorflow中大于2gb的嵌入查找表。如何在张量流中处理大型(> 2GB)嵌入式查找表?
要做到这一点,我试图让嵌入查找表像下面的代码,
data = tf.nn.embedding_lookup(vector_array, input_data)
得到这个值误差。上的代码
ValueError: Cannot create a tensor proto whose content is larger than 2GB
可变vector_array是numpy的阵列,它包含约14万个独特的标记和对每个字100个尺寸字向量。
感谢您的帮助
对不起,听到它不适合你。当我尝试时,我使用交互式会话检查了个人权重,他们绝对不是全0。此外,我仅仅在Stackoverflow上引用了超过93个upvotes的回答,这是由Google员工提供的,所以不确定哪里出了问题 - 也许在我的代码或你的代码中存在一些错字。你当然可以做你所建议的,而不是使用变量,但我认为你不能使张量持续这种方式。我保存我的变量,以便将来不必运行这个耗费内存的进程 - 我只是恢复已保存的变量。 – ltt