He leído las respuestas existentes en CrossValidated (más en otro lugar en línea) y no puedo encontrar lo que estoy buscando, pero sírvase señalarme las fuentes existentes si las he perdido.
Digamos que tengo un conjunto de datos de N = 1000 registros, cada uno de los cuales puede muestrearse manualmente y etiquetarse como 'Válido' o 'No válido' (o Verdadero / Falso, Correcto / Incorrecto, etc.).
Quiero lograr un nivel de confianza dado de que todos los registros en el conjunto de datos son válidos. A medida que muestro registros, si encuentro uno solo no válido, volvería y enmendaría cómo se crea el conjunto de datos para rectificar eso y problemas similares.
Entonces, después de algunas iteraciones de detectar inválidos, arreglar y recrear el conjunto de datos, realizo un muestreo que solo incluye registros válidos. Si quiero estar (digamos) 99% o 95% seguro de que todos los registros son válidos, ¿qué tamaño tiene que tener mi muestra? (Idealmente en función de N.)
He intentado jugar con pruebas hipergeométricas ( http://en.wikipedia.org/wiki/Hypergeometric_distribution#Hypergeometric_test ); en ese contexto, quiero saber qué debería ser k, pero no tengo un valor fijo de K Más bien, quiero elegir k de modo que sea probable que K sea igual a N, ¡pero establecer K = N obviamente resulta en una probabilidad de 1! También me pregunto si necesito usar un enfoque bayesiano, pero no entiendo las estadísticas bayesianas lo suficiente.