Nenhuma informação é passada entre árvores. Em uma floresta aleatória, todas as árvores são distribuídas de forma idêntica, porque as árvores são cultivadas usando a mesma estratégia de randomização para todas as árvores. Primeiro, pegue uma amostra de inicialização dos dados e, em seguida, aumente a árvore usando divisões de um subconjunto de recursos escolhido aleatoriamente. Isso acontece para cada árvore individualmente, sem atenção a outras árvores do conjunto. No entanto, as árvores são correlacionadas puramente em virtude de cada árvore ser treinada em uma amostra a partir de um conjunto comum de dados de treinamento; várias amostras do mesmo conjunto de dados tendem a ser semelhantes, portanto as árvores codificam parte dessa similaridade.
Você pode achar útil ler uma introdução a florestas aleatórias a partir de um texto de alta qualidade. Um deles é "Random Forests", de Leo Breiman. Há também um capítulo em Elements of Statistical Learning, de Hastie et al.
É possível que você tenha confundido florestas aleatórias com métodos de otimização, como o AdaBoost ou árvores com gradiente. Os métodos de reforço não são os mesmos, porque eles usam informações sobre desajuste das rodadas de reforço anteriores para informar a próxima rodada de reforço. Veja: A floresta aleatória é um algoritmo de aumento?