我试图训练在 发现的模型通过https://github.com/jupiter126/Create_Speech_Dataset(约340000小型wav音频样本与成绩单)生成的数据集。
当我使用GPU训练时,训练进行得相对较快,但是我无法将batch_train_size设置为高于25而没有达到OOM。
当我用CPU训练时,训练速度慢得多,但我可以很容易地将batch_train_size设置为250(可能高达700,但尚未尝试)。
使用CPU vs GPU来训练模型 - 速度vs内存
我如何在GPU的小批量的大小限制,可能会影响培训质量,或者混淆如果提高提高划时代的数量可能会抵消这种效果......
换句话说,25个样本对10000时代或500个时代的500个样本?
GPU是带有6Gb RAM的GTX 1060,CPU是双XEON 2630l v4(1.7Ghz的2 * 10超线程核心)和128Gb RAM。
你的问题是什么?批量大小如何影响性能? – dv3
取决于您所说的性能: - 是的,如果您将性能视为模型的质量(语音识别错误率很低)。 - 如果您将性能视为培训所需时间,则不需要。我意识到GPU会更快,但我不知道是否小批量的训练批(由6Gb ram限制施加)不会影响输出模型的整体质量。 – user1747036