A escolha de n = 30 para um limite entre amostras pequenas e grandes é apenas uma regra de ouro. Há um grande número de livros que citam (em torno) esse valor, por exemplo, Probabilidade e Inferência Estatística de Hogg e Tanis (7e) diz "maior que 25 ou 30".
Dito isso, a história contada para mim foi que a única razão pela qual 30 foi considerada uma boa fronteira foi porque ela fez com que as tabelas t de Student, na parte de trás dos livros, se encaixassem perfeitamente em uma página. Isso e os valores críticos (entre t de Student e Normal) são desativados apenas em aproximadamente 0,25, de qualquer forma, de df = 30 a df = infinito. Para computação manual, a diferença realmente não importava.
Atualmente, é fácil calcular valores críticos para todo tipo de coisa com 15 casas decimais. Além disso, temos métodos de reamostragem e permutação para os quais nem sequer estamos restritos a distribuições paramétricas de população.
Na prática, nunca confio em n = 30. Plote os dados. Sobreponha uma distribuição normal, se quiser. Avalie visualmente se uma aproximação normal é apropriada (e pergunte se uma aproximação é realmente necessária). Se a geração de amostras para pesquisa e uma aproximação for obrigatória, gere um tamanho de amostra suficiente para tornar a aproximação o mais próximo possível (ou o mais próximo possível do ponto de vista computacional).