Uma distinção crítica que é realmente importante aqui é a seguinte: seus testadores estão simplesmente verificando ou estão testando ?
Este post de Michael Bolton explica melhor, mas em essência: eles estão olhando apenas para confirmar o comportamento ou estão procurando problemas com o sistema?
Eu acho que também é útil considerar os Quadrantes do Agile Testing (Brian Marick os descreveu originalmente, mas os encontrei no livro "Agile Testing" de Lisa Crispin e Janet Gregory: mesmo que você não esteja seguindo uma metodologia de desenvolvimento Agile, acho que o a distinção entre testes que criticam o produto e testes que dão suporte à equipe é realmente útil quando se considera a automação e se tenta desenvolver um plano para quem faz o quê e por quê.
Por exemplo, as verificações de unidade escritas pelos desenvolvedores atuam como detectores de alterações, permitindo que você faça as regressões mais cedo quando elas são executadas regularmente - esses são testes que dão suporte à equipe. As verificações de regressão no nível do sistema, automatizadas para que possam ser executadas regularmente e rapidamente, também dão suporte à equipe, capturando as regressões mais cedo e complementam os testes de unidade realizados pelos desenvolvedores. Isso libera o tempo dos testadores para realizar testes que criticam o produto - testes exploratórios, por exemplo. Ou, possivelmente, aplicando algumas das verificações automatizadas para testar o produto com estresse.
A outra coisa de que realmente gosto na apresentação de Lisa Crispin que vinculei é que ela indica que a automação também pode ser usada para dar suporte ao teste manual - criando dados de teste, a automação usada para obter um cenário no ponto em que você deseja se concentrar hoje, por exemplo.
A consideração desses dois artigos ajudará você a analisar que tipo de teste você deseja fazer, facilitará a escolha do que pode ser adequado para automação e descobrirá quais bits de automação são mais adequados para serem testados e quais pelos desenvolvedores.