object-recognition

    5热度

    1回答

    几周后,我尝试创建一个好的级联分类器,但似乎这个过程被神秘所包围。我有很多问题: 1)为什么opencv给我们这么少的信息? 2)它需要更多的积极形象或负面形象? 3)什么尺寸应该有正面图像?和负面形象?它们必须具有相同的尺寸? 4)如果我想为单个道路标志创建分类器,那么足够使用一个正像(例如this)来创建带有opencv_createsamples的样本? 5)创建一个用于Android应用程

    0热度

    1回答

    我的目标是认识上的航空照片建筑物的足迹。听说机器视觉方面的最新进展(ImageNet大规模视觉识别挑战),尽管我可以(至少)尝试使用神经网络来完成这项任务。 有人可以告诉我这个网络的拓扑结构应该是什么?我想它应该具有与输入一样多的输出(这意味着图片中的所有像素),因为我想通过它们(至少近似)在图片上的位置来识别建筑物的轮廓。我猜输入图片应该是标准尺寸,每个像素归一化为灰度或YUV颜色空间(每种颜色

    0热度

    2回答

    我想知道是否有可能使用OpenCV的框架来认识一个建筑? 例如,如果我存储建筑物的图像,是有可能使用的OpenCV通过iPhone摄像头检测到这栋楼? 谢谢!

    0热度

    1回答

    我需要通过Microsoft Kinect视频流检测各种彩色便利贴。我尝试过使用Emgucv进行边缘检测,但是考虑到可能不够稳健的各种颜色,似乎并未找到顶点/边缘以及颜色分割/检测。 我正在尝试使用HAAR分类。任何人都可以建议使用正面/负面图像的最佳品种。例如,对于正面图像,我应该在各种照明条件和方向下拍摄许多不同颜色的便签纸吗?看起来它是一个非常简单的形状(一个正方形),正在使用HAAR分类过

    2热度

    1回答

    可在http://www.cs.berkeley.edu/~rbg/latent/voc-release5.tgz处获得的代码广泛用于物体检测。有一个imgdetect函数返回ds,bs和树。看起来ds包含检测框和bs包含用于检测的哪些过滤器在图像中响应,而树包含有关零件分数的一些信息。我无法找到如何使用树木和bs获得零件分数。基本上,给定一个检测框,我想知道哪些过滤器在检测中响应以及每个用于检测

    2热度

    1回答

    语境: 我有一个Kinect的,其目的是直降在表中的RGB-d视频。有一个我需要识别的大约12个物体的图书馆,一次或多个。我一直在使用SURF提取和检测RGB图像,通过缩小到320x240的预处理,灰度,拉伸对比度和平衡直方图,然后应用SURF。我建立了a lasso tool在静止的视频图像中检测到的关键点之间进行选择。然后,这些关键点用于构建用于识别实时视频馈送中的对象的对象描述符。 问题:

    1热度

    1回答

    我计算了8个Gabor滤波器,Theta旋转m * PI/8。 Gabor核输入给OpenCv cv2.getGaborKernel的参数: ksize = 11,theta = m * PI/8 lambd = 16/3 sigma =(5.09030 * 8.0)/(3.0 * PI)gamma = 0.5890磅= 0 kernel = cv2.getGaborKernel(ksize =

    0热度

    1回答

    我想用vlfeat(matlab)的例子caltech101只有一个类,但它似乎不工作。如果我只给svm教练喂一个课,结果是50/50。我应该考虑一些其他的东西,还是说一个类的svm目标函数没有在vlfeat中实现,并且它不起作用?

    0热度

    2回答

    我的Kinect将安装在直接向下看地面的天花板上(应平行于地面)。对于物体识别,我想获得到地面的距离(maxDistance)和到物体的距离(minDistance)。 我写了一个循环,将每个像素的所有距离值添加到列表中,然后尝试获取该列表的最大整数和最小值。 不幸的是,对于zMIN和zMAX的结果(我写信给一个文本框来检查它)总是一样的 - 这肯定是错误的。 问题:我在做什么错? :) List

    0热度

    1回答

    我们可以使用hadoop在多个图像上运行SIFT吗? SIFT在每个图像上需要1秒来提取关键点及其描述符。考虑到每次运行都独立于其他运行并且不能减少1次运行的运行时间,我们是否可以减少运行时间? 多线程将运行时间减少了一定数量的核心处理器。我们可以在每个处理器上运行每个映像。 可以使用hadoop以任何方式并行运行多个图像? 如果是,假设我们有3个集群,它可以通过什么因素减少运行时间?