node-amqp

    0热度

    2回答

    我正在使用amqlib模块构建带有rabbitmq和nodejs的后台任务管理系统。我的服务器可能会被杀死(使用太多的CPU)。如果我启动了很多这些任务,并且我只有几个工作站,那么我的服务器可能会被杀死(使用太多的CPU)。 我想知道是否有办法创建一个amqp队列,以便我的消费者一次只能使用此队列中的一个任务(即在确认或拒绝之前,请不要发送此类任务对这个消费者)。 或者我应该在代码中自己处理这个问

    1热度

    1回答

    我试图做一些感觉应该是直截了当的事情,但证明出人意料的困难。 我有一个订阅RabbitMQ队列的函数。具体来说,这里是Channel.consume函数:http://www.squaremobius.net/amqp.node/channel_api.html#channel_consume 它返回一个承诺,该承诺用订阅ID解析 - 稍后需要取消订阅 - 还有一个回调参数,用于在消息从队列中拉出

    0热度

    2回答

    我正在处理能够处理RabbitMQ消息的工作人员。 但是,我不确定如何做到这一点。 如果我收到一条消息,并在我的治疗期间发生错误,如何将消息放入队列末尾? 我试图使用nack或拒绝,但消息总是重新放在第一个位置,并且其他消息保持冻结! 我不明白为什么消息必须放在第一位,我试图“玩”与其他选项如requeue或AllupTo但他们都没有工作。 预先感谢您!

    0热度

    1回答

    需要您的帮助。 我正在做简单的应用程序(我也是Unity3d的新手),它从IP摄像头获取视频并将其显示到Texture2D上。 视频格式是MJPG。 对于简单的jpg图像下面的代码工作正常,但是当我尝试显示MJPG时,我只是得到灰色屏幕。 我在代码中犯了错误吗? public class testVid : MonoBehaviour { //public string uri = "

    0热度

    1回答

    我是AMQP/RabbitMQ新手,和相关的Node.js新手。我可以使用amqplib NPM库客户端吗? 我希望能够从我的Angular应用程序直接将消息推送到RabbitMQ。我用Browserify模块化了很多客户端代码。我现在开始尝试使用RabbitMQ,并希望通过amqp协议将消息直接从浏览器推送到基于云的队列。 我已经通过NPM安装amqplib并写入/粘贴以下模块: var amq

    4热度

    1回答

    我在Node.js中使用amqplib,我不清楚我的代码中的最佳实践。 基本上,我当前的代码在节点服务器启动时调用amqp.connect(),然后为每个生产者和每个消费者使用不同的渠道,从不实际关闭它们中的任何一个。我想知道这是否有意义,或者我应该创建频道,每次发布消息时发布并关闭它。那么连接呢?这是连接一次的“良好做法”,然后在服务器的整个生命周期中保持打开状态? 在消费者方面 - 我可以使用

    0热度

    1回答

    我正在开发一个使用senecajs的node.js社交网络应用程序,并且需要实现一个生产者可以将相同消息发送给多个消费者的场景。我发现一篇文章似乎说明了使用senecajs来解决这个问题的示例代码。问题是,我试图翻译这到我的情况,这里是例子,从这篇文章(https://github.com/senecajs/seneca-amqp-transport/issues/27): 我有1个客户发布事件给

    1热度

    1回答

    我的数据库有两个表格 - 问题和主题。为了实现许多一对多的关系,有其具有以下结构的映射表​​: 表TopicQuestionMapping INT ID(主键) INT QuestionID(外键到问题表) INT TopicID(外键主题表)现在 ,在我的EF我有类似 ViewData.Model = DB.QuestionMaster.Include("TopicQuestionMapping

    0热度

    2回答

    使用RabbitMQ Web UI时,当我发布到没有当前队列绑定的主题交换时,rabbitmq表示邮件已发布但未路由。 使用amqp.node,当我将队列绑定到交换机并开始使用“#”(全部)使用时,我没有收到任何东西。 我期待得到以前发布但未路由的消息。这可能吗?

    0热度

    1回答

    我想用node-amqp库为RabbitMQ创建多个消费者,但我不明白prefetch-count选项是否指的是每个消费者的计数。我希望每个消费者都有自己的预取计数,而不依赖于其他消费者。 谢谢。