Python定时任务 Celery+Redis

引言:

  当需要用python创建和完成定时任务时,第一个会想到的就是使用crontab库,

  但是crontab不支持Windows系统,于是我们可以使用一个支持Windows且功能强大的库:Celery。

Celery-分布式任务队列:

  Celery是一个简单,灵活,可靠的分布式系统,用于处理大量消息,同时为操作提供维护此类系统所需的工具。

  它是一个任务队列,专注于实时处理,同时还支持任务调度。

  Celery是开源的,并根据BSD许可授权

  Celery由Python语言实现。

Celery安装:

  celery的版本非常令人头疼,它的版本无法做到完全上下兼容,且有些版本会与一些库冲突,所以对于celery版本的选择非常重要:

    1、celery 4.0.0~4.2.0(latest) 目前最新的celery版本是官方的4.2.0 链接:http://docs.celeryproject.org/en/latest/

     (1) celery 4.0.0及以上版本目前不兼容python3.7 由于在python3.7中 async变成了关键字 在运行celery worker的时候会报错,

         

         from . import async,base 此处出错。

     (2) django-celery是一个便于在django工程中管理celery的库,但是django-celery不支持celery 4.0.0以上版本,如若要在django工程中

      使用celery,请降低版本,比如celery 3.1.26

    2、celery 3~4的版本之间 相对稳定 本人用的就是celery 3.1.26版本 推荐 pip install celery==3.1.26 

Celery介绍:

上图为celery工作简要流程,原谅我盗的图...原作者po上:https://www.qikqiak.com/

1、application(task producer)"任务的生产者",我们通过代码层面,产生任务然后发送给broker(task queue)

2、celery beat(task scheduler)"任务调度器",常见为生成定时任务

3、broker(task queue)"任务队列",我们需要将任务送往任务队列去,官网强烈推荐的broker有:redis和rabbitmq

4、worker(taks consumer)"任务消费者",在任务送往broker后,worker从中进行操作,完成任务后生成result

5、result 完成任务后产生的结果

Broker的选择:

  broker我们可选的有redis和rabbitmq,官网推荐的两种,我们这里选redis,相对于rabbitmq更加轻量级,安装方便。

  所以我们需要安装redis,redis很容易安装,这里就不细讲了,po上github链接:https://github.com/MicrosoftArchive/redis/releases

  与此同时 celery还需要python的redis依赖库这里注意版本 pip install redis==2.10 最好下2.10版本,这里是为了后续和django联用

  若下最新版本,可能会报以下错:

任务的编写:

  主要的代码层面来了,我们通过流程图知道,我们需要生产任务,目录结构如下图:

        

  1、其中__init__.py是通过启动项目时,选择的配置文件:

1 from celery import Celery
2 
3 app = Celery('demo')
4 app.config_from_object('celery_app.celeryconfig')

  2、celeryconfig.py里面主要是celery的配置:

from datetime import timedelta
from celery.schedules import crontab
# 配置broker为redis
BROKER_URL = 'redis://localhost:6379/1'
# 配置结果存储至redis
CELERY_RESULT_BACKEND = 'redis://localhost:6379/2'
# 时区设置
CELERY_TIMEZONE='Asia/Shanghai'
# 导入任务
CELERY_IMPORTS = (
    'celery_app.task1',
    'celery_app.task2',
    )
# 配置定时任务的调度器
CELERYBEAT_SCHEDULE={
    # 任务名字
    'task1':{
        # 任务启动的函数
        'task':'celery_app.task1.add',
        # 定时时间设置,每10秒一次
        'schedule':timedelta(seconds=10),
        # 传递的参数
        'args':(2,8)
    },
    'task2':{
        'task':'celery_app.task2.mul',
        # 定时时间设置,16:45
        'schedule':crontab(hour=16,minute=45),
        'args':(4,5)

    }
}

  3、task1的任务:

import time

from celery_app import app

@app.task
def add(x, y):
    # 阻塞测试
    time.sleep(3)
    return x + y  

  4、 task2的任务:

import time

from celery_app import app

@app.task
def mul(x, y):
    time.sleep(3)
    return x * y

运行任务:

  1、打开redis服务器:

$ .\redis-server.exe .\redis.windows.conf

  2、在celery_app文件的上一级 shift+右键 打开命令行窗口,win10打开powershell:

celery worker -A celery_app --pool=solo -l INFO

  此命令打开worer 任务目标为celery_app windows下需要加--pool=solo 日志级别为INFO

  3、然后打开celery beat 启动定时任务,另开一个命令行窗口:

 celery beat -A celery_app -l INFO

   4、结果如下:

  

  可以看见celery beat一直在隔10秒发送任务

  再来看worker:

  

  第一次是处理了4秒 其余是3秒,可以看出windows处理celery还是不太稳定。

  结语:celery是一个强大的库,能让我们处理异步任务,不过最好还是于Linux上运行

  

猜你喜欢

转载自www.cnblogs.com/Stitchez/p/10240387.html