这个问题可能会过于宽泛,但我会尽量使每个子主题尽可能具体。用于映射大型二进制输入的深度学习
我的设置: 大型二进制输入(每个样品2-4 KB)(无图像)相同尺寸的 大型二进制输出
我的目标:使用Deep学习,以找到我的二进制输入的映射功能到二进制输出。
我已经生成了一个大型训练集(> 1'000'000个样本),并且可以轻松生成更多。
神经网络和深厚的学习我的(当然有限)的知识,我的计划是建立与2000或4000的输入节点,相同数量的输出节点的网络,并尝试不同数量的隐藏层。 然后在我的数据集上训练网络(如果需要,等待几周),并检查输入和输出之间是否存在相关性。
它会更好输入我的二进制数据作为单个比特成网,或作为更大的实体(例如在时间16个比特,等)?
对于逐位输入: 我已经试过“神经设计师”,但软件崩溃时我尝试加载我的数据集(即使是在小的6行),我不得不编辑该项目保存文件以设置输入和目标属性。然后它再次崩溃。
我已经尝试OpenNN,但它试图分配一个矩阵的大小(hidden_layers *输入节点)^ 2,当然,它失败(对不起,没有117GB的RAM可用)。
是否有合适的开源框架可用于这种类型的 二元映射函数回归?我必须执行我自己的?
深入学习正确的方法?
有没有人有这些类型的任务经验? 不幸的是,我找不到有关深度学习+二元映射的论文。
如果有要求,我会很乐意补充更多信息。
感谢您为noob提供指导。