使用celery执行Django串行异步任务的方法步骤

时间:2022-02-11 08:53:36

前言

django项目有一个耗时较长的update过程,希望在接到请求运行update过程的时候,django应用仍能正常处理其他的请求,并且update过程要求不能并行,也不能漏掉任何一个请求

使用celery的solo模式解决

安装redis

https://github.com/microsoftarchive/redis/releases

下载.msi文件安装,会直接将redis注册为windows服务

安装celery与redis依赖

?
1
2
pip install celery
pip indatll redis

一个celery应用

?
1
2
3
4
5
6
7
8
9
10
11
12
# celery_test.py
import time
 
from celery import celery
 
app = celery('tasks', broker='redis://127.0.0.1:6379/0')
 
 
@app.task
def add(x, y):
 time.sleep(5)
 return x + y

启动celery服务

?
1
celery -a celery_test.app worker --pool=solo -l info

查看完整的命令行参数列表

?
1
celery worker --help

对celery启动命令的解释

  • '-a' 是一个全局配置,定义了app的位置
  • '--pool' 是pool的配置,默认是prefork(并发),选择solo之后,发送的任务不会被并发执行,在worker执行任务过程中,再次发送给worker的任务会排队,执行完一个再执行另一个
  • '-l' 是worker的配置,定义了log级别

调用任务

?
1
2
>>> from celery_test import add
>>> add.delay(4,4)

因为启动了solo模式,因此,可以看到在一个add没有执行完前,即使再次发送执行add的任务,celery worker也会等到前一个任务执行完才去执行下一个

与django结合

在装载celery应用前先setup django

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import time
import os
import django
os.environ.setdefault("django_settings_module", "demo.settings")
django.setup()
 
from celery import celery
 
from django_app.update import update
 
app = celery('tasks', broker='redis://127.0.0.1:6379/0', backend='redis://127.0.0.1:6379/0')
 
@app.task
def update_task():
 update()

然后在views中调用task就可以了。

?
1
2
3
4
5
from celery_test import update_task
def update_api(request):
 if request.method == "get":
  update_task.delay()
  return httpresponse(status=status.http_200_ok)

执行过程中,程序的print信息会作为celery warning,报错信息会作为celery error

日志

在启动应用的时候指定日志文件路径

?
1
-f log_path

不设置这个参数的时候,日志默认输出到控制台

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。

原文链接:https://www.cnblogs.com/luozx207/p/10980599.html