La elección de n = 30 para un límite entre muestras pequeñas y grandes es solo una regla general. Hay una gran cantidad de libros que citan (alrededor) de este valor, por ejemplo, la Probabilidad e Inferencia estadística de Hogg y Tanis (7e) dice "mayor que 25 o 30".
Dicho esto, la historia que me contaron fue que la única razón por la que 30 se consideraba un buen límite era porque hacía que las bonitas tablas t de Student en la parte posterior de los libros de texto encajaran bien en una página. Eso, y los valores críticos (entre la t de Student y la Normal) solo están desactivados en aproximadamente hasta 0.25, de todos modos, desde df = 30 a df = infinito. Para el cálculo manual, la diferencia realmente no importaba.
Hoy en día es fácil calcular valores críticos para todo tipo de cosas con 15 decimales. Además de eso, tenemos métodos de remuestreo y permutación para los cuales ni siquiera estamos restringidos a distribuciones de población paramétricas.
En la práctica, nunca confío en n = 30. Trace los datos. Superponga una distribución normal, si lo desea. Evalúe visualmente si una aproximación normal es apropiada (y pregunte si realmente es necesaria una aproximación). Si la generación de muestras para investigación y una aproximación es obligatoria, genere un tamaño de muestra suficiente para que la aproximación sea lo más cercana posible (o lo más cerca posible computacionalmente).