0
A
回答
0
kNN只需要一个接近度测量值,其中较小的值表示较近。这是因为kNN将新观察结果与训练示例进行比较,并找出k个最接近的(具有最低接近值的前k个)。 适用于kMeans use search。
编辑: 即使kNN的犯规需要的三角公式,它在O(n * m个)时间,其中n是训练集的大小,m是所评价的集合的大小延伸。优化通常需要至少三角方程来支持,尽管其中一些有更多的约束(例如:k-d树只能在欧几里得空间中工作)。有关更多信息,请参见this question。
相关问题
- 1. K-最近邻居
- 2. 查找最近的邻居/经度
- 3. 如何通过R最近邻居求解最近邻居?
- 4. 非度量空间中的最近邻居搜索
- 5. 存储最近的邻居
- 6. JavaScript的最近邻居库
- 7. 预测只有最近的邻居值?
- 8. 最近邻居算法
- 9. Excel宏最近邻居
- 10. K最近邻居伪码?
- 11. 最近邻居2维
- 12. 查找K最近邻居
- 13. 最近邻居启发式
- 14. 针对特定任务的有效最近邻居搜索?
- 15. 最近邻居和反向最近邻居查询之间的区别
- 16. D3中的最近邻居搜索
- 17. 确定Dijkstra中的最近邻居
- 18. 数据集中的最近邻居Node.js
- 19. python中的K最近邻居
- 20. python近似最近邻居库(WINDOWS)
- 21. 接近最近邻居搜索
- 22. k最近邻居中浮点数的文字无效
- 23. 查找最近的邻居 - OpenCV
- 24. 使用Quaternion的最近邻居
- 25. OpenCL内存优化 - 最近的邻居
- 26. JavaScript函数最近的邻居
- 27. Matlab最近的邻居/跟踪点
- 28. k最近邻居算法k的值
- 29. MongoDB如何找到最近的邻居
- 30. 使用KDtree的最近邻居
看到我的编辑,昨天我回答的时候有点晚了,它并没有涵盖所有的东西 – Kicsi