Penso que a resposta aqui é a mesma que em toda a ciência de dados: depende dos dados :-)
Pode acontecer que um método supere o outro (aqui https://arimo.com/data-science/2016/bayesian-optimization-hyperparameter-tuning/) as pessoas comparam a otimização do hiperparâmetro bayesiano e alcançam um melhor resultado no desafio de kaggle criminal de San Francisco do que com pesquisa aleatória), no entanto, duvido que exista uma regra geral para isso. Você pode ver um bom gif aqui ( http://blog.revolutionanalytics.com/2016/06/bayesian-optimization-of-machine-learning-models.html ), onde as pessoas mostram o 'caminho' que a otimização bayesiana leva na paisagem dos hiperparâmetros, em particular, não parece que supere a pesquisa aleatória em geral ...
Penso que a razão pela qual as pessoas tendem a usar a otimização do hiperparâmetro bayesiano é que são necessárias apenas poucas etapas de treinamento para obter um resultado comparável em comparação à pesquisa aleatória com um número suficientemente alto de experimentos.
Resumindo em uma frase:
* Quando o tempo de treinamento for crítico, use a otimização do hiperparâmetro Bayesiano e, se o tempo não for um problema, selecione um dos dois ... *
Normalmente, tenho preguiça de implementar as coisas bayesianas com os processos gaussianos se conseguir o mesmo resultado com a pesquisa aleatória ... Eu apenas treino os conjuntos Gradient Bossting em poucos dados, para mim, o tempo não é um problema ...