A documentação do Celery menciona o teste do Celery dentro do Django, mas não explica como testar uma tarefa do Celery se você não estiver usando o Django. Como você faz isso?
A documentação do Celery menciona o teste do Celery dentro do Django, mas não explica como testar uma tarefa do Celery se você não estiver usando o Django. Como você faz isso?
Respostas:
É possível testar tarefas de forma síncrona usando qualquer biblioteca de teste de unidade disponível. Normalmente faço 2 sessões de teste diferentes ao trabalhar com tarefas de aipo. O primeiro (como estou sugerindo abaixo) é completamente síncrono e deve ser aquele que garante que o algoritmo faça o que deve fazer. A segunda sessão usa todo o sistema (incluindo o corretor) e garante que não estou tendo problemas de serialização ou qualquer outro problema de distribuição ou comunicação.
Assim:
from celery import Celery
celery = Celery()
@celery.task
def add(x, y):
return x + y
E seu teste:
from nose.tools import eq_
def test_add_task():
rst = add.apply(args=(4, 4)).get()
eq_(rst, 8)
Espero que ajude!
celery.loader.import_default_modules()
.
Eu uso isso:
with mock.patch('celeryconfig.CELERY_ALWAYS_EAGER', True, create=True):
...
Documentos: http://docs.celeryproject.org/en/3.1/configuration.html#celery-always-eager
CELERY_ALWAYS_EAGER permite que você execute sua tarefa de forma síncrona e você não precisa de um servidor de celery.
ImportError: No module named celeryconfig
.
celeryconfig.py
existe em um pacote. Consulte docs.celeryproject.org/en/latest/getting-started/… .
add
da pergunta do OP em uma TestCase
classe?
CELERY_TASK_ALWAYS_EAGER
para testes de unidade.
Depende do que exatamente você deseja testar.
import unittest
from myproject.myapp import celeryapp
class TestMyCeleryWorker(unittest.TestCase):
def setUp(self):
celeryapp.conf.update(CELERY_ALWAYS_EAGER=True)
# conftest.py
from myproject.myapp import celeryapp
@pytest.fixture(scope='module')
def celery_app(request):
celeryapp.conf.update(CELERY_ALWAYS_EAGER=True)
return celeryapp
# test_tasks.py
def test_some_task(celery_app):
...
from celery import current_app
def send_task(name, args=(), kwargs={}, **opts):
# https://github.com/celery/celery/issues/581
task = current_app.tasks[name]
return task.apply(args, kwargs, **opts)
current_app.send_task = send_task
Para quem está no Celery 4, é:
@override_settings(CELERY_TASK_ALWAYS_EAGER=True)
Como os nomes das configurações foram alterados e precisam ser atualizados se você optar por atualizar, consulte
A partir do Celery 3.0 , uma maneira de definir CELERY_ALWAYS_EAGER
no Django é:
from django.test import TestCase, override_settings
from .foo import foo_celery_task
class MyTest(TestCase):
@override_settings(CELERY_ALWAYS_EAGER=True)
def test_foo(self):
self.assertTrue(foo_celery_task.delay())
Desde o Celery v4.0 , os acessórios py.test são fornecidos para iniciar um trabalhador de aipo apenas para o teste e são desligados quando concluído:
def test_myfunc_is_executed(celery_session_worker):
# celery_session_worker: <Worker: gen93553@gnpill.local (running)>
assert myfunc.delay().wait(3)
Entre outros acessórios descritos em http://docs.celeryproject.org/en/latest/userguide/testing.html#py-test , você pode alterar as opções padrão de aipo redefinindo o celery_config
acessório desta forma:
@pytest.fixture(scope='session')
def celery_config():
return {
'accept_content': ['json', 'pickle'],
'result_serializer': 'pickle',
}
Por padrão, o trabalhador de teste usa um broker na memória e back-end de resultado. Não há necessidade de usar um Redis ou RabbitMQ local se não estiver testando recursos específicos.
referência usando pytest.
def test_add(celery_worker):
mytask.delay()
se você usar o flask, defina a configuração do aplicativo
CELERY_BROKER_URL = 'memory://'
CELERY_RESULT_BACKEND = 'cache+memory://'
e em conftest.py
@pytest.fixture
def app():
yield app # Your actual Flask application
@pytest.fixture
def celery_app(app):
from celery.contrib.testing import tasks # need it
yield celery_app # Your actual Flask-Celery application
No meu caso (e suponho que muitos outros), tudo que eu queria era testar a lógica interna de uma tarefa usando o pytest.
TL; DR; acabou zombando de tudo ( OPÇÃO 2 )
Exemplo de caso de uso :
proj/tasks.py
@shared_task(bind=True)
def add_task(self, a, b):
return a+b;
tests/test_tasks.py
from proj import add_task
def test_add():
assert add_task(1, 2) == 3, '1 + 2 should equal 3'
mas desde shared_task
decorador faz muita lógica interna de aipo, não é realmente um teste de unidade.
Então, para mim, havia 2 opções:
OPÇÃO 1: lógica interna separada
proj/tasks_logic.py
def internal_add(a, b):
return a + b;
proj/tasks.py
from .tasks_logic import internal_add
@shared_task(bind=True)
def add_task(self, a, b):
return internal_add(a, b);
Isso parece muito estranho e, além de torná-lo menos legível, é necessário extrair e transmitir manualmente os atributos que fazem parte da solicitação, por exemplo, task_id
, caso você precise, o que torna a lógica menos pura.
OPÇÃO 2:
zombando de partes internas de aipo
tests/__init__.py
# noinspection PyUnresolvedReferences
from celery import shared_task
from mock import patch
def mock_signature(**kwargs):
return {}
def mocked_shared_task(*decorator_args, **decorator_kwargs):
def mocked_shared_decorator(func):
func.signature = func.si = func.s = mock_signature
return func
return mocked_shared_decorator
patch('celery.shared_task', mocked_shared_task).start()
que me permite simular o objeto de solicitação (novamente, no caso de você precisar de coisas da solicitação, como o id ou o contador de novas tentativas.
tests/test_tasks.py
from proj import add_task
class MockedRequest:
def __init__(self, id=None):
self.id = id or 1
class MockedTask:
def __init__(self, id=None):
self.request = MockedRequest(id=id)
def test_add():
mocked_task = MockedTask(id=3)
assert add_task(mocked_task, 1, 2) == 3, '1 + 2 should equal 3'
Esta solução é muito mais manual, mas me dá o controle que preciso para testar de fato a unidade , sem me repetir e sem perder o alcance do aipo.