什么算法可以说我有在数据集中的两个阵列:到选择二进制图像分类
1)第一种是阵列分类为(0,1) - [0,1,0,1,1, 1,0 .....]
2)第二个灰度图像向量的阵列成本函数,每个元素中有2500个元素(数字从0到300)。这些数字是来自50 * 50像素图像的像素。 - [[13 160 239 192 219 199 4 60 ..] [....] [....] [....] [....]]
该数据集的大小相当重要的(约12000个元素)。 我想建立bery基本的二元分类器,它会给出合适的结果。比方说,我想选择非深度学习,但一些监督方法。 这种情况适合吗?我已经尝试过使用各种参数的sklearn的SVM。但结果是不恰当的,并主要由1组成:[1,1,1,1,1,0,1,1,1,...]
什么是正确的方法?数据集的大小不足以通过监督算法得到好的结果吗?
在我的情况下,SVM适用于数据集减少的情况。可以说多达3000个元素(12000个中)最终得分是〜0.7。但如果我想提高准确度,我需要更多的数据来训练。在这种情况下SVM变得太慢 –
我在这个领域仍然是新的,有时导致“用正则表达式解析HTML”。这就是我发布这个问题的原因。如果SVM(即使是PCA)不好,那么我将把它作为默认设置,并且将更好地专注于构建NN –
如果你仍然想尝试SVM,看看isomap(sklearn有一个实现),这可能就足够了。祝你好运探索 – SerialDev