Celery - errno 111连接被拒绝

时间:2015-02-13 20:22:52

标签: python rabbitmq celery

我的芹菜任务在两者之间停止执行。我的rabbitmq停在中间,然后我需要手动重启它。上次(15-16小时后),发生了类似的问题,我做了以下(手动),它又开始工作了。

我重新安装了rabbitmq,然后又重新开始工作了。

sudo apt-get --purge remove raabitmq-server

sudo apt-get install raabitmq-server

现在再次显示`

Celery - errno 111 connection refused

以下是我的配置。

BROKER_URL = 'amqp://'
CELERY_RESULT_BACKEND = 'amqp://'

CELERY_TASK_SERIALIZER = 'json'
CELERY_RESULT_SERIALIZER = 'json'
CELERY_ACCEPT_CONTENT=['json']
CELERY_TIMEZONE = 'Europe/Oslo'
CELERY_ENABLE_UTC = True

CELERY_CREATE_MISSING_QUEUES = True

请告诉我哪里出错了?

我该如何纠正它?

第2部分

另外,我有多个队列。我可以在项目目录中运行它,但是当妖魔化时,工作人员不接受任务。我仍然需要手动启动芹菜工人。我怎样才能消除它?

这是我的celerd conf。

# Name of nodes to start, here we have a single node
CELERYD_NODES="w1 w2 w3 w4"


CELERY_BIN="/usr/local/bin/celery"

# Where to chdir at start.
CELERYD_CHDIR="/var/www/fractal/parser-quicklook/"

# Python interpreter from environment, if using virtualenv
#ENV_PYTHON="/somewhere/.virtualenvs/MyProject/bin/python"

# How to call "manage.py celeryd_multi"
#CELERYD_MULTI="/usr/local/bin/celeryd-multi"

# How to call "manage.py celeryctl"
#CELERYCTL="/usr/local/bin/celeryctl"

#CELERYBEAT="/usr/local/bin/celerybeat"

# Extra arguments to celeryd
CELERYD_OPTS="--time-limit=300 --concurrency=8  -Q BBC,BGR,FASTCOMPANY,Firstpost,Guardian,IBNLIVE,LIVEMINT,Mashable,NDTV,Pandodaily,Reuters,TNW,TheHindu,ZEENEWS "

# Name of the celery config module, don't change this.
CELERY_CONFIG_MODULE="celeryconfig"

# %n will be replaced with the nodename.
CELERYD_LOG_FILE="/var/log/celery/%n.log"
CELERYD_PID_FILE="/var/run/celery/%n.pid"

# Workers should run as an unprivileged user.
#CELERYD_USER="nobody"
#CELERYD_GROUP="nobody"

# Set any other env vars here too!
PROJET_ENV="PRODUCTION"

# Name of the projects settings module.
# in this case is just settings and not the full path because it will change the dir to
# the project folder first.
CELERY_CREATE_DIRS=1

第1部分已经提供了Celeryconfig。

这是我的proj目录结构。

project
|-- main.py
|-- project
|   |-- celeryconfig.py
|   |-- __init__.py
|-- tasks.py

如何使用队列进行妖魔化?我也在CELERYD_OPTS中提供了队列。

有没有办法可以动态妖魔化芹菜中的队列数量?例如: - 我们有CELERY_CREATE_MISSING_QUEUES = True来创建丢失的队列。是否有类似于守护芹菜队列的东西?

2 个答案:

答案 0 :(得分:1)

不确定你是否已经修好了,但从外观来看,似乎你有很多问题。

首先,检查您的RabbitMQ服务器是否由于某种原因而遇到麻烦。

另外,请确保您的RabbitMQ服务器已配置了正确的凭据并允许从您的工作人员的位置进行访问(例如,启用环回用户以外的连接):这是您需要做的:https://www.rabbitmq.com/access-control.html

然后,检查您是否使用正确的身份验证凭据配置了您的worker,完整的URL应该类似于以下内容(必须授予用户访问特定虚拟主机的权限,通过RabbitMQ管理界面配置它非常容易{ {3}}):

BROKER_URL = 'amqp://user:pass@host:port/virtualhost' CELERY_RESULT_BACKEND = 'amqp://user:pass@host:port/virtualhost'

最后,尝试在python中追溯异常,希望能为您提供有关错误的其他信息

HTH

P.S。回覆。妖魔化你的芹菜工人,@ budulianin回答是现场的!

答案 1 :(得分:0)

  

我怎样才能将其除名?

通常,我为此目的使用supervisord

这里配置示例:

[program:celery]
command=/home/my_project/.virtualenvs/my_project/bin/celery worker
    -A my_project.project.celery_app.celery_app
    -n worker-%(process_num)s
    --concurrency=4
    --statedb=/tmp/%(process_num)s.state
    -l INFO

environment=MY_SETTINGS='/etc/my_settings.py'
process_name=%(program_name)s_%(process_num)02d
numprocs_start=1
numprocs=4
user=user_name
directory=/home/my_project
stdout_logfile=/var/log/my_project/celery.log
stderr_logfile=/var/log/my_project/celery_err.log
autostart=true
autorestart=true
startsecs=10
stopwaitsecs = 600
killasgroup=true
priority=998

BTW,默认启用CELERY_CREATE_MISSING_QUEUES

相关问题