human-computer-interface

    1热度

    1回答

    我已经使用EmguCV(openCV的包装)在C#中编写了一个程序。该程序使用camshift算法跟踪对象。在对象周围画一个矩形。光标在矩形的中心移动。输入来自摄像头。 最初的问题是光标无法覆盖整个屏幕。其运动仅限于框架尺寸。所以我应用了一个乘法因子: 屏幕宽度/ framewidth在X方向上移动。 screenheight /在Y方向 运动通过该鼠标frameheight覆盖整个区域。但鼠标移

    3热度

    1回答

    手持设备上的语音识别通常是通过按下按钮触发的。如果没有那个,我该如何去触发语音识别?我的基于Raspberry PI的设备故意没有任何用户能够手动进行交互的任何东西 - 只有一个麦克风挂在墙上。 我想实现一种方法让它理解一个简单的触发命令,可以启动一系列操作。简而言之,只要“听到”音频触发器,我就想运行一个.sh脚本。我不想让它理解其他任何东西,只是触发器 - 没有必要从触发器本身解码 - 就像脚

    9热度

    1回答

    到目前为止,我已经能够准确地检测到瞳孔和眼角。 你可以看到几张照片我上载在我的答案在这里我自己的问题: Performing stable eye corner detection 这里是我到目前为止已经完成。 我通过看TLCP,TRCP和BLCP 校准用户的视线,其中 CP = calibration point; a screen point used for calibration B =

    2热度

    1回答

    根据维基百科人类计算机交互涉及人(用户)和计算机之间交互的研究,规划和设计。 交互设计的做法: 了解用户的需求和目标 设计工具,为用户实现这些目标 设想系统 考虑限制的所有状态和转换的用户环境和技术 那么什么是差在交互设计中学习掌握人机交互与掌握大师之间的关系?我认为交互设计的范围更广,也包括人机交互。哪一个更实用?

    0热度

    2回答

    我打算在列表视图项目中使用按钮,但我没有看到太多的应用程序这样做,并且sdk也没有提供任何直接的方式来这样做,我假设它与一些HCI guidlines或者必须有一些原因,有没有具体的点,因为这是没有实现这样的。

    -2热度

    1回答

    对象: -如何使用可见光实现网络摄像头鼠标。 详情: -会有一个网络摄像头看到我的右手在可见光如下i.stack.imgur.com/6ztqf.jpg: - 我想打一个系统,我会用我的(右)手控制鼠标指针的方式与在那里有实际的鼠标相同。我会把手放在桌子上,就像我手上有一只真正的老鼠,并且会像我手中拿着一只老鼠一样,做所有我会做的事情。并且会有一个正常的网络摄像头(可能是精确度较高的分辨率),从上

    0热度

    1回答

    我已成功地跟踪中心x y坐标,并使用OpenCV的瞳孔的半径。 现在我想用它来衡量的目光。 如果有人能帮助我与它的理论部分,大概我就能编写它。 任何开放源代码计划也将做。 更新:我现在也能跟踪角膜的闪光。根据我的在线研究,将瞳孔的坐标与闪烁进行比较以估计凝视。我该如何去做呢?

    0热度

    3回答

    作为我的任务的一部分,我应该找出用户在排队等待的时候喜欢做什么(对于任何事情)。 如果你们能提供你的意见,我将不胜感激。

    -3热度

    1回答

    从用户界面的角度来看,为什么有title选项?为什么没有足够的message?我们真的需要一个标题吗?如果是这样,请提供标题有用的视觉例子。 的AlertDialogdocumentation显示了AlertDialog没有标题,它看起来完美的对我说:

    0热度

    2回答

    我有多个数据文件,它们包含的内容被命名。例如, machine-testM_pid-1234_key1-value1.log 有一些键和值由 - 和_分隔。有更好的语法吗?是否有自动读取这些文件/文件名的解析器? 这里的想法是,文件名是人类和机器可读。