knn

    0热度

    2回答

    我试图用非数字数据训练KNeighborClassifier,但我提供的自定义度量允许计算样本之间的相似度分数。 from sklearn.neighbors import KNeighborsClassifier #Compute the "ASCII" distance: def my_metric(a,b): return ord(a)-ord(b) #Samples a

    0热度

    1回答

    我在M.Nixon的书中发现了k个最近邻居Mathcad的实现,但'distance'和'coord'函数不起作用。我该如何解决它? mathcad implementation

    0热度

    1回答

    我有4个不同的数据集,每个数据集都包含属于两个类别之一的二维样本:1或2.每个样本的类别标签(1或2)位于最后一列。第一列和第二列包含表示样本的2D点的坐标。我的任务是, 对于K-NN找到k的最佳值,并将其与那些1-NN的使用Scikit 我是新来的机器学习和python比较。请让我知道如何找到最好的k,并根据哪个衡量标准选择最好的k。

    -1热度

    1回答

    在KNN (K nearest neighbour)分类器中,如果选择K的偶数值,那么多数投票规则或欧几里得距离规则中的预测会是什么。例如,如果有3班说 虹膜setosa 虹膜云芝 虹膜弗吉尼亚 现在说我们的n_neighbors = 6价值。多数票投票规则有相当多的机会获得平局结果?在大多数可视化中,这个地区都以白色表示,说不能做出任何决定。但是对于领带的实际预测是什么?这个问题很难模拟,相当概

    0热度

    1回答

    我使用Scikit学会做工作 K最近Neigbour分类: from sklearn.neighbors import KNeighborsClassifier model=KNeighborsClassifier() model.fit(train_input,train_labels) 如果打印我的数据: print("train_input:") print(train_inpu

    0热度

    1回答

    我正在尝试构建一个程序,该程序可以正确,自信地识别Google Cloud Vision中的对象(表示为GCV)。返回的结果在大多数时间都是正确的,因此每个标签都有一定的准确度分数。 { "banana": "0.92345", "yellow": "0.91002", "minion": "0.89921", } 我正在使用的环境具有不同的闪电条件组合,并且物

    1热度

    1回答

    假设我有多维数据集,其中有许多向量作为数据。我正在写一个算法,它需要做所有那些向量的k近邻搜索 - 经典KNN。然而,在我的算法中,我向整个数据集中添加了新的向量,并且需要将这些新的向量包含到我的KNN搜索中。我想要有效地做到这一点。我研究了scikit-learn的KD树和球树,但他们不允许插入(根据概念的性质)。我不确定SR树或R树是否会提供插入,但在任何情况下,我都无法找到3D以外的数据的P

    1热度

    1回答

    我正在研究一个算法,该算法需要从某个给定查询点的第k个最近点重复(欧几里得)距离,所有查询点都取自一个点向量。另外,我反复需要找到某个点的给定半径内的所有点。 我正在考虑使用nanoflann库中的k-d树。但是,knnSearch()函数返回所有k个最近的邻居,我不需要。 (虽然radiusSearch()函数很适合我)。 有没有更有效的方式来获得我需要的东西,除了每次都通过所有k个最近的邻居?

    0热度

    1回答

    我有一个8 GB的RAM和英特尔酷睿I5处理器的联想IdeaPad笔记本电脑。我每100个维度有60k个数据点。我想做KNN,为此我运行LMNN算法来查找Mahalanobis度量标准。 问题是在我的Ubuntu上运行一个空白屏幕2小时后出现。我没有得到什么问题!我的记忆变满了还是别的什么? 那么有什么方法可以优化我的代码? 我的数据集:data 我LMNN实现: import numpy as

    0热度

    1回答

    我已经看到很多计算KNN的欧几里得距离的例子,但是非情感分类的例子。 比如我有一句“一个非常接近的比赛” 如何计算的一句“伟大的博弈”的欧氏距离?