celery

    0热度

    1回答

    我想使用芹菜提供的任务事件捕获任务参数。 我使用redis作为后端和代理(Pickle作为序列化程序)。根据文档,可以通过侦听task-received处理程序获取此信息,其中将填充参数。 我面临的问题是,对于小数据输入,它按预期工作。当我使用一个大输入(二进制文件 - 〜16MB)时,由事件接收的参数要小得多并且被截断。 有人知道这个的原因吗?谢谢您的帮助!

    1热度

    1回答

    如果条件不符合,我想显式地使任务失败。例如: @app.task(bind=True, name="task.my_task", max_retries=2) def my_task(self, filename): result = get_result(filename) if result is None: self.update_state(task_id

    0热度

    1回答

    我有我的烧瓶应用程序的蓝图。 我已经initalized将芹菜放入main.py文件: def make_celery(app): celery = Celery(app.import_name, backend=app.config['CELERY_RESULT_BACKEND'], broker=app.config['CELERY_BROKER_URL'])

    2热度

    2回答

    我知道这将被视为重复,但我有环顾四周问这个问题之前,但所有的问题似乎是过期或不符合我的问题在所有帮助。这是我写这个问题之前看了: ​​ How do you unit test a Celery task?(5岁,全死链接) How to unit test code that runs celery tasks?(2岁) How do I capture Celery tasks during

    2热度

    1回答

    我试图运行花朵守护进程。读作我的flower.service文件如下: [Unit] Description=Flower Service After=network.target [Service] Type=forking User=maas Group=maas PermissionsStartOnly=true

    0热度

    1回答

    我想为每个数据库中数据可用的事件列表提供通知服务,每隔几分钟使用一些机制进行更新。在下一个活动前2分钟,我需要阅读这个数据库并将数据发送给我的用户,以提醒活动即将开始。这个时间不固定。他们取决于下一个事件的事件时间。 现在我正在为订阅的每个用户创建一个芹菜工作者。我让特定的芹菜工人去睡觉,直到下一个事件,此时它恢复并发送消息。 事情是这样的: nextEventDelay = events.get

    2热度

    1回答

    我用烧瓶和烧瓶SQLAlchemy创建背景芹菜任务来更新数据库记录的属性。我现在用的是recommended documentation对芹菜的配置,这是我的代码的简化版本: from flask import Flask from celery import Celery def make_celery(app): celery = Celery(app.import_name,

    1热度

    1回答

    您能解释我必须使用什么:task_reject_on_worker_lost或task_acks_late以及它们有何不同? 为什么Celery在task_acks_late为True的异常之后不会再次运行任务? 芹菜文档: 即使启用task_acks_late,工作人员将确认任务时突然执行他们的工作进程退出 是什么意思“突然退出”?会引发异常吗? 当芹菜重任务时task_acks_late是Tr

    2热度

    2回答

    我正在尝试对每日运行的芹菜任务运行单元测试。 我试过导入函数并在我的测试中调用它,但这不起作用。 的任务是: @shared_task def create_a_notification_if_a_product_is_in_or_out_of_season(): """ Send a notification if a product is now in or out o

    10热度

    3回答

    说我有这样的任务: def do_stuff_for_some_time(some_id): e = Model.objects.get(id=some_id) e.domanystuff() ,我使用它像这样: do_stuff_for_some_time.apply_async(args=[some_id], queue='some_queue') 我现在面临的问题