Onde está a corrida neste aviso sanitzer de tópicos?


8

O código abaixo produz um aviso ao executar com desinfetante de threads no macOS. Não consigo ver onde está a corrida. O bloco de controle shared_ptr e weak_ptr é seguro para threads, e empurrar e saltar do std::queueé feito com um bloqueio mantido.

#include <future>
#include <memory>
#include <queue>

class Foo {
public:
  Foo() {
    fut = std::async(std::launch::async, [this] {
      while (!shouldStop) {
        std::scoped_lock lock(mut);
        while (!requests.empty()) {
          std::weak_ptr<float> requestData = requests.front();
          requests.pop();
          (void)requestData;
        }
      }
    });
  }

  ~Foo() {
    shouldStop.store(true);
    fut.get();
  }

  void add(const std::weak_ptr<float> subscriber) {
    std::scoped_lock lock(mut);
    requests.push(subscriber);
  }

private:
  std::atomic<bool> shouldStop = false;
  std::future<void> fut;
  std::queue<std::weak_ptr<float>> requests;
  std::mutex mut;
};

int main() {
  Foo foo;

  int numIterations = 100000;

  while (--numIterations) {
    auto subscriber = std::make_shared<float>();

    foo.add(subscriber);
    subscriber.reset();
  }

  std::this_thread::sleep_for(std::chrono::seconds(1));
}

Aviso com stacktrace:

WARNING: ThreadSanitizer: data race (pid=11176)
  Write of size 8 at 0x7b0800000368 by thread T1 (mutexes: write M16):
    #0 operator delete(void*) <null>:1062032 (libclang_rt.tsan_osx_dynamic.dylib:x86_64h+0x4f225)
    #1 std::__1::__shared_ptr_emplace<float, std::__1::allocator<float> >::__on_zero_shared_weak() new:272 (minimal:x86_64+0x1000113de)
    #2 std::__1::weak_ptr<float>::~weak_ptr() memory:5148 (minimal:x86_64+0x100010762)
    #3 std::__1::weak_ptr<float>::~weak_ptr() memory:5146 (minimal:x86_64+0x100002448)
    #4 Foo::Foo()::'lambda'()::operator()() const minimal_race.cpp:15 (minimal:x86_64+0x10000576e)
    #5 void std::__1::__async_func<Foo::Foo()::'lambda'()>::__execute<>(std::__1::__tuple_indices<>) type_traits:4345 (minimal:x86_64+0x1000052f0)
    #6 std::__1::__async_func<Foo::Foo()::'lambda'()>::operator()() future:2323 (minimal:x86_64+0x100005268)
    #7 std::__1::__async_assoc_state<void, std::__1::__async_func<Foo::Foo()::'lambda'()> >::__execute() future:1040 (minimal:x86_64+0x100005119)
    #8 void* std::__1::__thread_proxy<std::__1::tuple<std::__1::unique_ptr<std::__1::__thread_struct, std::__1::default_delete<std::__1::__thread_struct> >, void (std::__1::__async_assoc_state<void, std::__1::__async_func<Foo::Foo()::'lambda'()> >::*)(), std::__1::__async_assoc_state<void, std::__1::__async_func<Foo::Foo()::'lambda'()> >*> >(void*) type_traits:4286 (minimal:x86_64+0x10000717c)

  Previous atomic write of size 8 at 0x7b0800000368 by main thread:
    #0 __tsan_atomic64_fetch_add <null>:1062032 (libclang_rt.tsan_osx_dynamic.dylib:x86_64h+0x24cdd)
    #1 std::__1::shared_ptr<float>::~shared_ptr() memory:3472 (minimal:x86_64+0x1000114d4)
    #2 std::__1::shared_ptr<float>::~shared_ptr() memory:4502 (minimal:x86_64+0x100002488)
    #3 main memory:4639 (minimal:x86_64+0x10000210b)

SUMMARY: ThreadSanitizer: data race new:272 in std::__1::__shared_ptr_emplace<float, std::__1::allocator<float> >::__on_zero_shared_weak()

edit: Eu compilo com:

clang++ -std=c++17 -g -fsanitize=thread -o test  minimal_race.cpp

versão clang:

$ clang++ --version
clang version 7.1.0 (tags/RELEASE_710/final)
Target: x86_64-apple-darwin18.7.0
Thread model: posix
InstalledDir: /usr/local/opt/llvm@7/bin

Estou usando o macOS 10.14.6


Eu acho que isso pertence ao codereview
xception 18/11/19

2
Não, está tudo bem aqui. Há um problema com o código do OP, eles não estão apenas procurando aprimorá-lo. Uma condição de corrida é um problema muito sério
Tas

tentei algumas vezes com desinfetante de threads com gcc e clang no linux e não consegui reproduzir o problema
Xception

Isso não causaria um possível impasse? Com std::launch::async, cabe std::asyncdeterminar como agendar suas solicitações de acordo com cppreference.com . Isso significa que, potencialmente, quando Fooé construído, o futurebloqueio do mutex (que não é desbloqueado até que shouldStopseja verdadeiro). E seFoo::Add for chamado, ele tentará bloquear o mutex, aguardando o futuro para desbloqueá-lo, o que nunca acontece.
XEric_xD 18/11/19

1
conseguiu obter um melhor rastreamento com libc ++ no clang no linux ... não sei como publicá-lo aqui para que você possa vê-lo neste link, em vez compilado com clang++ -std=c++17 -O0 -ggdb -fsanitize=thread -stdlib=libc++ -o x x.cpp, não acontece com libstdc ++,
xception

Respostas:


1

Eu acho que isso pode ser um bug com libc ++ e clang em sua implementação fraca_ptr / shared_ptr ...

alterar a fila weak_ptr para um shared_ptr corrige o problema mesmo nas versões antigas do clang.

as mudanças são a linha 25:

  void add(const std::shared_ptr<float> subscriber) {

linha 33:

  std::queue<std::shared_ptr<float>> requests;

e reescrevendo o tempo na linha 42 como:

  while (--numIterations) {
    auto subscriber = std::make_shared<float>();

    foo.add(move(subscriber));
  }

você conseguiu reproduzi-lo? Qual versão clang?
Marek R

para mim, isso parece lógico, pois impede que os objetos sejam destruídos. A condição de corrida parece ocorrer no destruidor de shared_ptr.
JHBonarius

clang ++ -v clang versão 9.0.0 (tags / RELEASE_900 / final) Destino: x86_64-pc-linux-gnu Modelo de segmento: posixDirectededDir: / usr / lib / llvm / 9 / bin Instalação do GCC selecionada: / usr / lib / gcc /x86_64-pc-linux-gnu/9.2.0 Multibib do candidato:.; @ m64 Multibib do candidato: 32; @ m32 Multibib selecionado:.; @ m64 @MarekR
xception

@MarekR I até postou minha própria backtrace com um link para ele em um comentário sobre as bandeiras de perguntas e construir
Xception

1
@JHBonarius, se eu entendi corretamente como as interações fraco_ptr / shared_ptr devem funcionar usando-os de diferentes threads, devem ser seguras (não os dados apontados, apenas as classes de wrapper), pelo menos em como o OP os usa com um shared_ptr e um fraco_ptr (objetos diferentes )
xception 18/11/19
Ao utilizar nosso site, você reconhece que leu e compreendeu nossa Política de Cookies e nossa Política de Privacidade.
Licensed under cc by-sa 3.0 with attribution required.